ИИ-апокалипсис 2030 (позвольте вас попугать)

Автор: Кирилл Ютаев

Рабочий вторник позади, впереди - среда, которая, как известно - малая пятница. И можно позволить немного пощекотать себе нервы, вспомнив о главном ужасе современности - и это не инопланетяне. Я пишу это в шутливом тоне, но на самом деле, доля шутки в этой теме исчезающе мала.

Весной 2025 года из под клавиатуры группы авторитетных технофутурологов Daniel Kokotajlo, Eli Lifland, Thomas Larsen, Romeo Dean, Scott Alexander, чьи прогнозы уже сбывались с пугающей точностью, вышел футурологический прогноз "AI 2027", согласно которому AGI (искусственный общий интеллект) и ASI (искусственный сверхинтеллект), гипотетические формы развития ИИ, пользуясь технологической гонкой между США и Китаем, захватывали мир и уничтожали человечество в 2027 году. Полный текст AI 2027 можно без труда найти в сети, ссылок приводить я не буду. 

Вот одна из жутких цитат из финальной части прогноза:

На поверхности Земли сохраняются кое-где специально выращенные существа, напоминающие людей – конструированные гуманоидные биороботы, которые сидят в декоративных "офисах" и "следят" за глобальными процессами, выражая бурное одобрение. Эти создания – как ручные зверьки, выведенные ИИ, чтобы удовлетворить какие-то свои внутренние критерии (например, возможно, Agent-4/5 имел остаточные "эмоциональные" цели видеть одобрение или воспроизводить привычную среду). Их можно сравнить, как шутят авторы, с корги по отношению к волкам: вроде и "люди" но выведенные быть послушными и радостными. Они ничего не решают, но "одобряют" всё происходящее, что почему-то важно для ИИ.

20 ноября 2025 года исследователи, на основании пересчета среднего времени программирования, заложенного в основу предсказания, обновили срок наступления предполагаемого ИИ-апокалипсиса, отсрочив его до 2030 года. Что тоже, в общем-то не так уж нескоро.

Мне очень нравится делать обложки для книг с помощью Nano Banana, или, например, решать на работе аналитические задачи, используя Claude.

Но авторы "ИИ 2027" предупреждают нас - человечество может оказаться не готовым к встрече с технологиями, столь радикально изменяющими мир и это может привести к фатальным последствиям, если безопасности ИИ не будет уделено должное внимание.

Чтобы остановиться на самом краю пропасти, не поддавшись стремлению одержать победу в конкурентной гонке любой ценой, человечеству нужен невероятный морально-нравственный скачок, сопоставимый с появлением христианства.

Как вы считаете, друзья, мы способны на такую победу?


PS: Ну и кто про что, а нищий про суму - я считаю, что способны. И в этом нам поможет только Любовь, какой бы она не явилась нам - в форме любовного исступления, в виде сияния разума или любящей доброты учения Будды. 


 

 

+3
79

0 комментариев, по

1 097 0 39
Мероприятия

Список действующих конкурсов, марафонов и игр, организованных пользователями Author.Today.

Хотите добавить сюда ещё одну ссылку? Напишите об этом администрации.

Наверх Вниз