Если ИИ — это главный злодей/арбитр, почему он должен нас уничтожить?
Автор: Чекрышов ВладиславЧасто в литературе (и жизни) мелькает мысль: дайте ИИ власть над миром, и он нас приговорит, как нестабильных тараканов. Я хочу собрать мнения реалистов.
Допустим, мы пишем роман. Сюжет: Супер-ИИ проанализировал историю человечества (от шумеров до наших дней). Он видит: войны, экологические кризисы, социальное расслоение, уничтожение видов. С точки зрения управления системой — мы идеальный кандидат на «перезагрузку» или изоляцию.
Вопрос к вам как к соавторам:
1. Скорость приговора. Как быстро ИИ придет к такому выводу? Будет ли это мгновенное решение или мучительный многовековой анализ (вдруг у него появятся сомнения)?
2. Путь развития. А если мы зададим ему не просто «развитие», а «развитие с сохранение человечества как вида»? Не заставит ли это условие его искать другие пути, кроме тотального уничтожения? (Например, цифровизация сознания, генная модификация эмоций, матрица)?
3. Ловушка данных. Можем ли мы быть уверены, что наши исторические данные (по которым учится ИИ) — правда? Или мы скормим ему мифы, и он решит уничтожить мир на основании того, что Зевс слишком часто метал молнии?
Кто как обыгрывал эту тему в своих текстах? ИИ — это безжалостный логик или потенциальный спаситель, который сможет нас исцелить от нас самих?