Факты и немного предположений

Автор: Владимир Брайт

Нейросеть «Порфирьевич» базируется на GPT-2

По сравнению с GPT-2 количество используемых параметров в GPT-3 увеличилось  более чем в 100 раз: с 1,5 до 175 млрд.

Разработка Пекинской академии искусственного интеллекта (BAAI) по своим характеристикам в 10 раз превосходит самый мощный существующий генеративный AI — GPT-3

Учёные продемонстрировали, как их детище пишет эссе, стихи и двустишия на традиционном китайском языке.

Объяснение для школьников «На данный момент существует ИИ в 1000 раз превосходящий возможности «Порфирьевича»

При современно развитии науки и техники, через пару лет создадут ИИ превосходящий «Порфирьевича» в 100000 раз. А через лет 5 в миллион-10-100.

Внимание вопрос. 

Сможет ли настолько продвинутая сеть писать стандартные литрпг, без особых наворотов (но, как и положено, с интересными героями, увлекательным сюжетом и, обязательно, подробными статами - куда же без них)?

С высокой долей вероятности – да.

А теперь, представьте, как это будет здорово? 

Пара минут на генерацию текста и два-три дня, максимум неделя косметической правки, отловов багов и доведения шедевра «до ума».  4 романа в месяц. 48 романов в год.

И это только от одного автора, который не особо умеет писать. А матерые профи с "набитой рукой", "острым глазом", КС и неуемной тягой к прекрасному... 

Смогут, по-стахановски, норму 48 книг в год перекрывать вдвое. Или лучше того - втрое!

От заманчивых перспектив аж дух захватывает.

Но...

Как любят говорить в теле-магазинах. 

И ЭТО ЕЩЕ НЕ ВСЕ!!! 

Затем настанет черед смартфонов. И читатель получит все о чем только мечтать мог, но не смел... 

+6
320

0 комментариев, по

25 106 17
Наверх Вниз