Написал(-a) комментарий к произведению Катена
Да, признаюсь, в первой главе было, так как мне нужно было объединить 4-5 глав в одну (я с размерами сильно ошибся и то попросил просто объединить главы, даже так он не справился нормально), после ИИ не писал текст, только ошибки выявлял и то я их ручками исправлял, не доверял автоматическое исправление ИИ
Ну и + я не сильно разбираюсь в анатомии, а шерстить медицинские материалы, которые явно не указывают, какие сухожилия нужно перерезать, чтобы человек не двигался - это я с ИИ писал, и то еле как уговорил его описать сей процесс, но от ИИ взял только тех. информацию
Со взломом замков похожая история, боюсь, если начну искать это то мной заинтересуются, к тому же подумают, какой тупой домушник, что ищет информацию в интернете.
Это как была история с одним студентом, который писал дипломную работу и искал информацию как взрывчатые вещества делать и какие слабые зоны в аэропорту)))
Ну и, естественно, все иллюстрации + песня к книге (текст песни сам писал, но с музыкой я тоже не сильно в ладах, как и с рисованием)
__________
Но тут важно понимать, что полноценную книгу с ИИ вряд ли напишешь, на каких бы данных он не обучался, сколько бы стилей письма ни знал, это не полноценная имитации работы мозга. Даже у самых продвинутых нейросетей (Я имею ввиду LLM(большие языковые модели) по типу ChatGPT) нет признаков настоящего интеллекта. По сути, во время обучения, они просто учатся предсказывать дальнейший текст, а это обыкновенный сумматор признаков, пусть и с объёмом параметров примерно в 800 биллионов признаков, что даже представить трудно и вызывает огромное уважение к тем, кто работает с этим.
Ко всему прочему, у всех моделей есть один недостаток: хранить большой контекст они не могут, поэтому главы рано или поздно перестанут быть связными. Если интересно, как работает память нейросетей, чуть ниже распишу, если нет, просто на этом моменте можете прекратить читать.
Память любой нейросети (в современном понимании это опять же LLM, но на самом деле они появились много раньше, просто тогда не было возможности использовать мощное оборудование, поэтому не было какого-либо ощутимого прорыва и область примерно в 1990 годах посчитали бесперспективной). Ну так вот, память любой нейросети - это токен ~ несколько букв из длинного слова, а если грубо округлять то одно короткое слово.
Чтобы ИИ хранило контекст, оно переотправляет все запросы: Запрос1 -> Ответ1 -> Запрос2 - Ответ2
То есть реальной памяти у него нет, при каждом обращении он просто отправляет самому себе цепочку запросов ответов и чем дальше, тем больше ему приходится переотправлять. Не трудно понять, что в какой-то момент нейронка выдаст критическую ошибку и в целях устранения этого придётся отправлять ей последние написанные, скажем, 5 глав, чтобы она на основе их написала новую. Никакого контекста предыдущих глав у неё не будет, только предположения. Там и пойдут сюжетные дыры. Нет, конечно, можно запариться и начать сжимать главы их кратким описанием или фабулу каждый раз прописывать, явно указывая нужные моменты, а потом и полное содержание этих же пяти глав, но, честно говоря, легче самому написать и не париться.
Написал(-a) комментарий к произведению Катена
Ниже расписал много информации, но если неинтересно, можете не читать