Мои исправления: почему детекторы ИИ видят нейросеть там, где её нет

Автор: Диана Каюмова

Друзья, я уже рассказывала о проблеме: детекторы ИИ с высокой вероятностью определяют мои тексты как «машинные», хотя пишу я сама, слово за словом. Причина — грамотность, ровный синтаксис и отсутствие стилистических ошибок, которые у меня выработались за годы практики.

Чтобы снизить этот процент ложных срабатываний, я вручную перерабатываю свои тексты. Меняю длину абзацев, добавляю живые разговорные обороты, убираю шаблонные метафоры и делаю структуру более «человечной» — рваной, неидеальной.

Вот несколько примеров «до и после» (фотографии прилагаю):


Посмотрите сами: смысл тот же, но ритм и подача стали живее. После такой правки некоторые детекторы всё ещё показывают 40–60% «нейросетевого» (просто потому что текст грамотный), но это уже не те 90%, которые были раньше.

Почему я этим занимаюсь?
Потому что алгоритмы несовершенны. Они видят гладкий текст и автоматически маркируют его как «почти наверняка ИИ», даже если каждая фраза написана живым человеком. Мне важно, чтобы мои книги воспринимались как живые и человеческие — и при этом проходили проверки издательств.

Что в итоге?
Я продолжаю писать и редактировать сама. Постепенно перевыпускаю доработанные версии книг на AT и Литнет. Спасибо за ваше терпение и понимание.

А вы замечали, как меняется текст после такой ручной редакции? Есть разница в восприятии? Делитесь мыслями.

+3
68

0 комментариев, по

2 995 0 83
Мероприятия

Список действующих конкурсов, марафонов и игр, организованных пользователями Author.Today.

Хотите добавить сюда ещё одну ссылку? Напишите об этом администрации.

Наверх Вниз