Как распознать нейросеть глазом. Почему мой детектор отправил противника нейросетей в красную зону.
Автор: Арон РодовичПривет всем.
Кто-то скажет, что я сел на паровоз хайпа и зарабатываю лайки. Открою маленький секрет: лайков у меня примерно поровну с дизлайками, негатива при этом приходит куда больше. Если бы я гнался за хайпом, я бы выбрал тему повеселее — там, рассказы про шлюх и попаданцев. Хайп так не делается. Тема меня цепляет, и проговорить её хочется до конца, пока крышку окончательно не сорвало.
Сегодня третий пост подряд по одной и той же истории, и обещаю — последний крупный. Дальше возвращаюсь к книгам, к Имперскому, к остальным циклам. А то некоторые подписчики уже начинают подозревать, что я променял прозу на публицистику. Не променял. Просто иногда наболевшее лезет вперёд новой главы.
Сегодня закрываю долги: рассказываю, как находить нейросеть глазом без всяких детекторов, показываю результаты собственного инструмента, объясняю парадокс с Толстым и заодно отвечаю на лучшие комментарии. Там было реально дельное, и проигнорировать это значило бы сделать вид, что я с критикой работать не умею. А я умею, и иногда даже соглашаюсь.
Этот пост опять с наговора. Доказывать, что умею писать руками, я уже устал, и подтверждение лежит в виде пятипроцентного следа на детекторе у вчерашнего поста. Сегодня делаю быстро, потому что параллельно сижу с малым, пока жена пьёт кофе. Так что если где-то поплыло — спасибо ребёнку, он тоже редактор.
Сначала про плашки
Несколько человек спросили, где плашки на моих книгах, и почему я разглагольствую, а сам не маркирую. Видимо, подозревают, что я тут отвлекаю общественность блогами, пока тайно издаю под чистым флагом.
Никакого тайного плана нет. Плашки будут стоять на всех книгах, где детектор показывает высокий процент. К первому мая всё проставлю. Не прячусь, никуда не деваюсь — просто 1 мая ещё не наступило, и пара дней на разметку у меня есть. Кто на меня подписан — видит блоги и в курсе ситуации.
Спор о том, правильно ли вообще требовать плашку именно за расшифровку и вычитку, я веду в блогах, а не саботажем правил. Правила есть — буду им следовать. Драться за изменение формулировок словами — нормально. Игнорировать правила — нет.
Про сыр и сырозаменитель
Под вчерашним постом Max Popov написал отличную мысль. Бинарная плашка — это как надпись «изготовлено с помощью химии» на упаковке. Информации ноль. А вот состав на обороте с перечислением Е-добавок — уже разговор: покупатель сам решает, брать или нет.
Идея здравая, и я её полностью поддерживаю.
Только давайте смотреть на реальность того мира, в котором мы все живём. На лицевой стороне продукта вы никогда не увидите крупными буквами «сырозаменитель». Чтобы это узнать, надо перевернуть упаковку, найти мелкий шрифт состава и продраться через него с лупой. Наггетсы рисуют чистой курицей на главной картинке, а на обороте — категория Б, до настоящей курицы там как от Москвы до Владивостока пешком. Крабовые палочки сделаны из рыбы со специями, имитирующими краба, и единственная их связь с реальным крабом — слово «краб» на обложке, написанное жирным шрифтом. Бутилированная вода для детей с большой картинкой улыбающегося младенца регулярно проваливает независимые тесты на чистоту, и никто за это пока в тюрьму не сел.
Это нормальная коммерческая практика везде, где работают деньги. Ругать за неё конкретно АТ или конкретно нейроавторов смешно. Все играют по правилам, которые позволяет рынок, и пока кто-то не заставит крупных игроков делать честные этикетки на продуктах, требовать честных этикеток на книгах — наивно.
Идея «состава вместо плашки» хороша по сути, но реализовать её честно никто не сможет. Крупно будет «создано с помощью ИИ», и точка. Тонкие нюансы про расшифровку, редактуру, построение канона никто читать не пойдёт — у нас и состав на йогурте никто не читает, а тут целая мета-этикетка. Мечтать не вредно. Реальность работает иначе.
Про Яндекс-детектор и право
Валерий Масляев в комментариях ткнул меня в статью 1274 ГК РФ — мол, свободное использование произведения в информационных целях разрешено, никакого нарушения там нет. Аргумент весомый, и я его не отметаю.
Только давайте посмотрим шире. Да, есть закон, который, при определённой трактовке, разрешает вам взять чужой текст и сунуть в детектор. Окей. Но рядом с этим законом лежат другие законы, которых вы, возможно, не учли.
Любой автор может подать на вас в суд за использование его текста как интеллектуальной собственности в целях обучения сторонних моделей или сервисов. Иск возможен — будет ли он выигран, вопрос отдельный, тут вступают в игру факты, ресурсы и качество юристов. Но возможность сама по себе есть. И даже если до этого иска не дошло — есть статьи о клевете, о распространении порочащей информации, о подрыве деловой репутации и об оскорблении чести и достоинства. Когда вы публично размахиваете скриншотом «у этого автора 80 процентов нейросети», вы делаете публичное обвинение. Скриншот при этом получен через инструмент, который сам Яндекс в своих документах называет рекомендательным, а не доказательным. То есть юридической силы у этого скриншота — ноль. А обвинение публичное.
Любой грамотный юрист с такого иска сделает вам очень неприятный месяц. И я говорю это не как угрозу — мне есть чем заняться, я книги пишу, а не на людей в суд хожу. Я говорю как напоминание: правовое поле здесь намного шире, чем «можно загрузить или нельзя». Когда речь идёт о публичном обвинении живого автора через инструмент, который сам себя приговором не считает, рисков у обвинителя сильно больше, чем кажется на первый взгляд.
Так что юридически вы, может быть, и в своём праве по части одной статьи. Только статей в кодексе несколько сотен, и не все они работают в вашу пользу.
И ещё момент. Этическая сторона тут даже важнее правовой. Размахивать скриншотом непроверенного инструмента, унижая живого человека на публику, — это вообще-то называется травлей. Закон законом, а зеркало по утрам никто не отменял. Поэтому когда вы в следующий раз потянетесь делать скриншот «у этого автора 75% нейросети» и публиковать его в общем чате — посчитайте до десяти. Может, вы не борец за чистоту литературы, а просто человек, нашедший лёгкий способ кого-то унизить под предлогом высокой цели.
Про эксперимент Нестерова
В тех же комментариях звучала ссылка на эксперименты Вадима Нестерова. Якобы он показал, что вся честная работа с моделью — расшифровка, вычитка, переписывание — укладывается в 8 процентов по Яндекс-детектору, а вот 20 процентов и выше уже «практически доказанная генерация».
С такой трактовкой я кардинально не согласен.
Эксперимент Нестерова показывает совсем другое. Он показывает, что Яндекс-детектор обходится обычной ручной правкой. И по моим наблюдениям эта ручная правка часто сводится к совсем небольшим изменениям, потому что у Яндекс-детектора есть очень большая дырка в самой логике его работы — про неё расскажу подробно в отдельном посте, тема большая. Если коротко — детектор смотрит на знакомые ему по базе шаблоны, и стоит чуть-чуть сдвинуть структуру вокруг них, как процент рушится с 60 до 5 без какой-либо реальной правки сути.
То есть «20 процентов как порог генерации» — это не научный замер, это просто пороговое число, ниже которого Яндекс-детектор ломается на любом нормально вылизанном тексте. Реально сгенерированный нейросетью текст может за полчаса опуститься с 90 до 0, если знать, куда смотреть. И человек, в жизни не открывавший ChatGPT, может выбить себе 25, просто потому что пишет ровными короткими абзацами.
Так что использовать порог 20 процентов как доказательство чего-либо — наивно. Это порог удобства Яндекса, а не порог правды. Чувствуйте разницу.
Сначала маленькая лекция: откуда вообще берутся «нейропаттерны»
Многие думают, что у языковых моделей есть какой-то свой «голос», и его-то и надо ловить. Это не так.
Все нейросети с самого начала создавались не для литературы. Они создавались для работы с кодом и структурированными данными. Главное в коде — стабильность, ровность, предсказуемость. Когда модель из этой логики переходит на прозу, она тащит ту же привычку: ровные блоки, одинаковая длина абзацев, симметричные конструкции, повторяющиеся переходы. Литературу она потом подучили на массивах книг, но математическая база осталась.
Дальше второй фактор. Модели учились на огромных массивах англоязычных текстов. Русский они получили в виде переводов, причём переводов часто среднего качества — лицензировать миллионы книг для обучения никто не стал, обошлись тем, что плохо лежало. Поэтому в русской прозе модели тащат английскую структуру: короткие рубленые предложения, инверсии в стиле перевода, типичные «английские» зачины абзацев.
Третий фактор — и тут привет Евгении Турукиной, которая в комментариях правильно написала: ровные фразы, чёткое тире, простой синтаксис — это журналистская школа. Так учили писать поколения журналистов, и так же построены тексты, на которых модель доучивалась русской прозе. Поэтому ровный причёсанный газетный стиль детекторы тоже ловят как «нейросеть», хотя писали его живые люди со специальным образованием.
Из всего этого следует одна простая вещь: маркеры ИИ-прозы — это не «дух машины». Это конкретные структурные особенности, которые можно увидеть глазом. И этим же объясняется парадокс с Толстым.
Парадокс с детекторами и классиками
Любимый аргумент сторонников Яндекс-детектора звучит так: «Какой-то другой детектор показал у Толстого 30 процентов нейросети, значит детектор сломан, нейросети не существуют, Яндекс единственный правильный — у него же Толстой чистые ноль процентов».
Логика красивая. Только она вывернута наизнанку.
Любой структурный детектор не пытается узнать конкретного автора. Он не работает по принципу «вижу Толстого — пропускаю, вижу Васю Пупкина — режу». Он смотрит на структуру языка: длину предложений, геометрию абзацев, плотность определённых конструкций, паттерны переходов. Конкретно эти штуки разберу ниже отдельно.
И вот что важно. Когда такой детектор показывает у Толстого 30 процентов «нейросети» — он не врёт и не «определяет классика как ИИ». Он совершенно честно сообщает: в этом тексте 30 процентов конструкций структурно совпадают с тем, как пишут современные языковые модели. Потому что модели учились на Толстом. Они переняли его периоды, его обороты, его сцепки. Теперь его собственный текст по структурным маркерам похож на их работу. Это не баг детектора. Это естественное следствие того, как обучались модели.
А Яндекс-детектор показывает у Толстого ноль не потому, что он умнее или точнее. Он показывает ноль потому, что у него Толстой просто в базе. Он узнаёт текст по содержанию, по совпадению с известным куском, и говорит «свой, классика, не ИИ». На структуру он при этом смотрит вскользь.
Из этого следует одна неприятная для фанатов Яндекса вещь. Если в базу Яндекса не попадает современный автор — а в базу не попадает практически никто, кроме классиков и каких-то опорных текстов — то Яндекс по нему уже работает почти случайно. Он не узнаёт, не сравнивает с известным. Он просто пытается оценить, насколько текст «похож на модельный», но делает это очень слабо. Поэтому его легко обходят, поэтому его обманывают тридцатиминутной редактурой, поэтому он показывает одинаковые цифры совершенно разным по природе текстам. Дальше я это покажу на конкретном замере.
То есть «другой детектор», показывающий у Толстого высокий процент, — на самом деле более честный, чем Яндекс. Он не делает вид, что узнаёт автора. Он показывает то, что есть на структурном уровне. И его результат означает не «Толстой нейросетчик», а «модели украли часть толстовского голоса при обучении, и теперь даже сам Толстой по структуре частично похож на них».
Я написал свой детектор. Вот что он показал
За семь с половиной месяцев работы с моделями я собрал собственную базу маркеров — конкретных штук, которые нейросеть тащит с математической регулярностью, а живые люди ставят редко и неравномерно. На этой базе я собрал внутренний инструмент для проверки текстов — не публичный, не доказательство, не Горыныч, не претензия на истину. Просто рабочий помощник, чтобы видеть структуру глазами математики, а не интуицией.
Прогнал через него два текста. Никаких имён, никаких ссылок, никаких обвинений. Просто два прогона, чтобы показать диапазон.
Текст первый — первая глава одного автора, который активно бьёт себя в грудь, что пишет чистым ручным трудом и нейросеть в глаза не видел. 31 800 знаков. Вердикт: красная зона, риск 32.6 из 100.
Главные сигналы: 18 коротких вопросов, 7 контрастов «не Х, а Y», 15 коротких цепочек, 72 коротких фрагмента, 5 батчей одинаковой геометрии абзацев. То есть тот самый набор приёмов, который выдаёт работу с моделью или работу человека, мыслящего ровно теми же конструкциями, что и модель. Не утверждаю, что этот автор использует нейросеть. Утверждаю, что его текст структурно неотличим от нейросетевого. А громче него про чистоту рук на сайте мало кто кричит.
Текст второй — кусок «Войны и мира». 10 500 знаков. Вердикт: зелёная зона, риск 8.4 из 100.
Главные сигналы: 0 контрастов «не Х, а Y», 2 короткие цепочки, длинные синтаксические дуги, неровная геометрия абзацев. Толстой пишет длинными смысловыми периодами, абзацы у него разной длины и под разные задачи, короткие фразы появляются тогда, когда нужны, а не как ритмический трюк. Никакой «нейросетевой» структурности.
И вот тут самое смешное. В Яндекс-детекторе оба этих текста показывают 0% ИИ. И глава противника нейросетей с её красной зоной по структуре, и Толстой с зелёной. Один счёт у обоих. Почему так — я уже объяснил выше: Яндекс работает по базе, а не по структуре. Просто теперь это видно на конкретных цифрах: тексты разные по природе, у Яндекса они одинаковые.
Отдельно про Толстого. Даже у него мой детектор не показывает чистый ноль — там 8.4. Это не значит, что Лев Николаевич баловался ChatGPT. Это значит, что языковые модели обучались в том числе на его текстах, и теперь часть его типичных конструкций модели воспроизводят как «свои». Получается забавная штука: Толстой структурно отдал часть своего голоса нейросети при обучении, и теперь даже его собственный голос на структурном детекторе подсвечивается. Не сильно, но подсвечивается. По первой главе он держится почти чисто — там у него ещё не разогналось, текст идёт классически. Дальше в романе процент полез бы выше просто потому, что у Льва Николаевича появились его фирменные синтаксические узоры, которые потом и пошли в обучающие корпуса.
Главный вывод. Те, кто громче всех кричит про «нейрослоп», на структурном уровне сами пишут ближе к нейросети, чем Толстой. Не потому, что они нейроавторы. Потому, что они и нейросеть учились на одних и тех же мануалах: журналистская школа, курсы писательского мастерства, упор на ровность и предсказуемость. Об этом я уже говорил выше — теперь это просто видно на цифрах.
Имени называть не буду. Кто себя узнал — узнал.
Главный маркер, который видно без всяких детекторов
Откройте любую книгу подозрительного автора на компьютере или на ноутбуке. Не на телефоне, телефон скрывает геометрию. Прокрутите главу глазами, не вчитываясь.
Вы увидите ровные блоки. Абзац-абзац-абзац-абзац, все примерно одинаковой высоты. Через каждые два-три блока будет короткий — на одну строчку. Потом снова ровные. Потом снова короткий. Структура повторяется по всей главе.
Это и есть главный маркер. Живой человек так не пишет физически. У него мысль идёт неровно: один абзац короткий, потому что мысль короткая, следующий — длинный на полстраницы, потому что разворачивается сцена. Дальше — реплика на полстроки, потом снова длинный кусок описания. Геометрия всегда рваная.
Нейросеть же держит ровную геометрию автоматически. Ей так удобнее, потому что её обучили на структурированных данных. Можно дать ей промпт «пиши абзацами разной длины» — и она первые два-три абзаца сделает разными, а потом всё равно скатится в свою привычную ровность. Без долгой ручной правки от этого не избавиться.
Если вы взяли главу и видите, что абзацы идут парами одинаковой высоты, или один-два-два-один, или просто все примерно одинаковые, — с вероятностью процентов 80 это нейротекст. Никаких детекторов не надо.
И вот тут смешная вещь. На многих современных писательских курсах учат писать именно так — ровно, ритмично, абзац к абзацу. Потому что «так лучше воспринимается читателем». В результате мы получаем выпускников курсов, которые пишут как нейросеть, но клянутся, что нейросеть в глаза не видели. И они правы. Они её не видели — они учились у учителей, которые учились на тех же мануалах, на которых учились нейросети. Круг замкнулся.
Литература деградирует не из-за нейросетей. Литература деградирует из-за того, что массовая писательская культура десятилетиями оттачивает ровность и предсказуемость как идеал. Нейросеть — это не угроза этой культуре. Это её следующая логичная ступень.
Маркеры поменьше, но тоже рабочие
Помимо геометрии абзацев, глазом ловятся ещё несколько штук.
Контрасты «не Х, а Y». Любимая конструкция модели: «Это не оправдание, а объяснение», «Не для того чтобы оскорбить, а чтобы донести», «Не А, а Б». Живой человек тоже так пишет, но реже и не цепочками. Если в тексте на тысячу слов встречается пять-шесть контрастов — это сильный сигнал.
Лестницы коротких реплик. «Странно? Да. Плохо ли это? Нет. Хорошо ли это? Тоже не уверен.» Моделям нравится этот ритм, и они тащат его в любую публицистику. У живого человека такие лестницы появляются изредка для конкретного эмоционального удара, у модели — постоянно как фоновый рисунок.
Сервисные двоеточия. «Объясняю: тут такая логика». «Скажу прямо: мне это не нравится». Модель ставит двоеточие как опору конструкции, чтобы вытащить за ним ритуальную фразу. У живого автора двоеточие чаще работает по делу — для перечисления или прямой речи.
Тройные перечисления. Модель обожает ритм трёх элементов: «быстро, чётко, по делу», «работает, помогает, удобно». Везде, где можно поставить два или четыре, она ставит три. Это тиктоковский ритм, и его уже знают наизусть.
Сглаженность углов. В живом тексте есть шероховатости — внезапные обрывы мысли, повторы по случайности, странные переходы. Модель их вычищает. Если глава абсолютно ровная по тону от первой до последней строки, без одной случайной кочки — скорее всего, прошла через нейросеть.
Вот и всё. Это не магия и не запах. Это видно глазом за две минуты, если знаешь, куда смотреть.
Рубрика «Кому плашку прилепят зря». Выпуск №1: Сергей Твардовский
Решил завести в конце блогов отдельную рубрику. Буду рассказывать про людей, которые по новым правилам АТ обязаны нацепить на свои книги «создано с помощью нейросети», а по факту никакой нейросети в их прозе нет. Или есть, но в роли уборщицы, а не соавтора. Реальные кейсы, реальные люди, реальные методы. Без флера, без догадок — только то, что я знаю лично или с разрешения самих авторов.
Сегодняшний герой — Сергей Твардовский. Случай интересный, и в моей классификации авторов он стоит особняком.
Познакомились мы в сентябре 2025-го. Я уже работал через наговор, и на первом же серьёзном разговоре про методы мы с ним сцепились на повышенных тонах часа на полтора. Он мне доказывал, что всё, выходящее из окна нейросети, — генерация и точка. Я ему объяснял, что это мой текст, просто причёсанный, и восемьдесят пять процентов того, что я вижу на экране, родилось у меня в голове, а не в модели. Он отвечал «но это же токены, это же сборка» — и формально был прав. Из окна модели действительно выходит сгенерированный текст, даже если собран он из твоих собственных слов и интонаций. Соглашаться с этим было неприятно, но честно.
Тогда позиция Сергея была жёсткой. Он был среди тех, кто громко говорил, что нейросеть — мусор, а все, кто ею пользуется, мягко говоря, сомнительные авторы. Меня лично он отделял: с человеком общаться нормально, а вот как автор — извини. Я не обижался, продолжал делать своё. Сергей продолжал писать руками и материться на ChatGPT.
Со временем Сергей всё-таки решил посмотреть, как этот инструмент работает изнутри. Я показал ему свои методы, рассказал про промпты, про то, где модель пытается тащить своё, где её надо одёргивать. И вот тут начался цирк.
В написании самих глав Сергей пошёл странной дорогой. Он пишет главу руками, загружает в нейросеть, получает её вариант, смотрит на этот вариант — и переписывает с нуля своими словами. От модели в финальной главе остаётся минимум — какой-нибудь дополнительный глагол, прилагательное, иногда удачный оборот. И это не «нейросеть написала» — это просто то, что ему самому понравилось и что он бы поставил, если бы додумался. Ровно так же любой автор смотрит на сайт синонимов, видит более сочное слово и вставляет его в свой абзац — никому в голову не приходит маркировать книгу «здесь использован Яндекс-поисковик для подбора синонимов». А по нынешней логике плашек — формально надо бы. Бред, конечно. Но мы ведь любим бред, правда?
Зачем такой сложный путь? Чтобы увидеть «как не надо». Модель показывает Сергею уровень, который его не устраивает, и от этого уровня он отталкивается, чтобы написать лучше. Своего рода зеркало кривого письма — только так получается заметить, где он сам бы скатился в плоскость или шаблон. Если бы Сергей был меньшим перфекционистом, он бы закрывал главу часа за три. Он же может работать над половиной главы целый день. Это не потому, что он медленный. Это потому, что ему важно.
Но главное в его работе с моделью — не это.
Главное у Сергея — построение мира. И вот тут он использует нейросеть на полную мощность, включая наговоры. И я пока не встречал никого, кто бы делал это в таком же масштабе. Сергей создал мир, проработанный настолько глубоко и подробно, что чистого канона у него сейчас, наверное, томов на два полноценных. Это не проза, не куски сюжета, не сцены. Это чистая информация о мире: биографии, география, политические системы, экономика, родословные, мифология, бытовые детали, привычки персонажей и что у кого в холодильнике лежит. Всё то, что обычно валяется у автора в голове или в виде хаотичных заметок на трёх блокнотах и шести стикерах, у Сергея превращено в структурированный канон.
И вот тут-то и работают наговоры. Часами. Сутками. Сергей вытаскивает из своей головы массу информации, заставляет модель её зафиксировать, упорядочить, проверить на противоречия и найти дыры. Если ChatGPT когда-нибудь обретёт тело и решит свести счёты с обидчиками, Сергей войдёт в первую десятку с большим отрывом. Я думаю, у Сергея в чате уже есть отдельный тред, который модель боится открывать.
Зачем ему всё это? Не ради того, чтобы скормить нейросети канон и получить готовый текст. Совсем нет. Сергей строит мир, потому что ему это нужно — ради ощущения завершённости куска лора, который железно держится на собственных ногах. Это, в общем-то, и есть писательский кайф в чистом виде. Просто многим лень его себе устроить, а Сергей не ленится.
Сейчас у него растёт отдельный проект из этой канонической базы. Заходите почитать — нейроавторам-конструкторам особенно рекомендую посмотреть, как человек выстраивает мир без единой буквы прозы, чисто на структуре. Это не реклама, а констатация: в моём окружении никто больше не работает с моделью именно так.
И теперь главный вопрос рубрики. Должен ли Сергей по новым правилам АТ ставить плашку «создано с помощью нейросети»? Формально — да, должен. По здравому смыслу — нет, конечно. Главу он пишет руками, переписывает с нуля даже модельные варианты, оставляя себе разве что отдельные удачные слова. Прозу пишет человек. Модель работает консультантом по миру и зеркалом кривого письма, не более.
Идеальная иллюстрация к тому, почему бинарная плашка в нынешнем виде кривая. Под одну красную метку попадают и чистый нейрослоп с кнопки «дальше», и человек, мучающий модель ради дисциплины канона. Парадокс, который мы все ещё долго будем расхлёбывать.
Сергей, привет. Если читаешь и я где-то приврал — поправь. Если против упоминания вообще — скажи, выкину.
Финал
Подытожу.
Распознать нейросеть в книге несложно. Откройте текст на компьютере и посмотрите на геометрию абзацев. Если они идут ровными повторяющимися блоками — с большой вероятностью это нейротекст. Дальше можно уточнить через контрасты «не Х, а Y», лестницы коротких реплик, сервисные двоеточия и тройные перечисления. На всё это уходит две минуты, никаких детекторов не надо. Зайдёт глаз, не зайдёт — но без скриншотов хотя бы.
Любой публичный детектор — игрушка. Яндекс-детектор обходится тридцатью минутами редактуры, кроме случаев, когда конкретный текст лежит в его обучающей базе. Толстой и громкий противник нейросетей у него получают одинаковый ноль — структурно совершенно разные тексты, по факту неотличимые. Картинка хорошая.
Спасибо отдельное всем, кто грузит чужие тексты в Яндекс-детектор и постит скриншоты. Этими вкладами вы тренируете отечественную модель писать лучше, незаметнее и точнее. Пройдёт год-полтора, Алиса доучится — и любой желающий сможет сказать «привет, Алиса, напиши цикл из десяти книг про зайчика, который сел на трамвайчик», получить идеальный текст и без труда обойти все ваши скриншоты разом. Спасибо, ребята. Без вас эта работа заняла бы куда больше времени. Продолжайте, очень помогаете.
Что дальше
Из того, что я обещал в постах и собирался разобрать отдельно: как обходить детекторы и при этом не обходить человеческий глаз, и про конкретную дырку в логике Яндекс-детектора, из-за которой он работает не так, как думают его сторонники. Эти две темы могу разобрать в следующих постах.
Но если вам интересно что-то ещё про работу с нейросетью — про разницу между нейрослопом и схемой «человек плюс робот», про конкретные методы, про промпты, про конструкторов и наговорщиков, про страхи рынка, про что угодно по теме — пишите в комментариях. Обязательно разберу и расскажу. Лучше отвечать на конкретные запросы, чем гадать, что вам интересно.
Туда же приглашение в рубрику «Кому плашку прилепят зря» — кто использует модель как инструмент, а в саму прозу её не пускает, пишите в личку, обсудим, расскажу про вас людям.
На сегодня всё. Спасибо тем, кто дочитал. Тех, кто пришёл с моральным приговором, тоже жду — без вас разговор не получится, и блоги мои останутся бледной тенью того, чем они могли быть. Так что приходите, ругайтесь, обзывайтесь, ставьте дизлайки. Я обязательно отвечу. Может быть, даже вежливо.
До следующего блога.