Факты и немного предположений
Автор: Владимир БрайтНейросеть «Порфирьевич» базируется на GPT-2
По сравнению с GPT-2 количество используемых параметров в GPT-3 увеличилось более чем в 100 раз: с 1,5 до 175 млрд.
Разработка Пекинской академии искусственного интеллекта (BAAI) по своим характеристикам в 10 раз превосходит самый мощный существующий генеративный AI — GPT-3
Учёные продемонстрировали, как их детище пишет эссе, стихи и двустишия на традиционном китайском языке.
Объяснение для школьников «На данный момент существует ИИ в 1000 раз превосходящий возможности «Порфирьевича»
При современно развитии науки и техники, через пару лет создадут ИИ превосходящий «Порфирьевича» в 100000 раз. А через лет 5 в миллион-10-100.
Внимание вопрос.
Сможет ли настолько продвинутая сеть писать стандартные литрпг, без особых наворотов (но, как и положено, с интересными героями, увлекательным сюжетом и, обязательно, подробными статами - куда же без них)?
С высокой долей вероятности – да.
А теперь, представьте, как это будет здорово?
Пара минут на генерацию текста и два-три дня, максимум неделя косметической правки, отловов багов и доведения шедевра «до ума». 4 романа в месяц. 48 романов в год.
И это только от одного автора, который не особо умеет писать. А матерые профи с "набитой рукой", "острым глазом", КС и неуемной тягой к прекрасному...
Смогут, по-стахановски, норму 48 книг в год перекрывать вдвое. Или лучше того - втрое!
От заманчивых перспектив аж дух захватывает.
Но...
Как любят говорить в теле-магазинах.
И ЭТО ЕЩЕ НЕ ВСЕ!!!
Затем настанет черед смартфонов. И читатель получит все о чем только мечтать мог, но не смел...