Мои исправления: почему детекторы ИИ видят нейросеть там, где её нет
Автор: Диана Каюмова
Друзья, я уже рассказывала о проблеме: детекторы ИИ с высокой вероятностью определяют мои тексты как «машинные», хотя пишу я сама, слово за словом. Причина — грамотность, ровный синтаксис и отсутствие стилистических ошибок, которые у меня выработались за годы практики.
Чтобы снизить этот процент ложных срабатываний, я вручную перерабатываю свои тексты. Меняю длину абзацев, добавляю живые разговорные обороты, убираю шаблонные метафоры и делаю структуру более «человечной» — рваной, неидеальной.
Вот несколько примеров «до и после» (фотографии прилагаю):

Посмотрите сами: смысл тот же, но ритм и подача стали живее. После такой правки некоторые детекторы всё ещё показывают 40–60% «нейросетевого» (просто потому что текст грамотный), но это уже не те 90%, которые были раньше.
Почему я этим занимаюсь?
Потому что алгоритмы несовершенны. Они видят гладкий текст и автоматически маркируют его как «почти наверняка ИИ», даже если каждая фраза написана живым человеком. Мне важно, чтобы мои книги воспринимались как живые и человеческие — и при этом проходили проверки издательств.
Что в итоге?
Я продолжаю писать и редактировать сама. Постепенно перевыпускаю доработанные версии книг на AT и Литнет. Спасибо за ваше терпение и понимание.
А вы замечали, как меняется текст после такой ручной редакции? Есть разница в восприятии? Делитесь мыслями.