Три худших сценария развития ИИ

Автор: Юрий Григорьев

Сэм Альтман назвал три худших сценария развития ИИ.

Первый - вполне в голливудском стиле: плохие парни получат суперинтеллект первыми.

Второй - человечество утратит контроль над ИИ, и тогда возможно что угодно, в том числе уничтожение или порабощение человечества.

Мне более близок третий сценарий. У Сэма Альтмана он звучит несколько игриво (может быть, это трудности перевода): ИИ случайно захватывает мир.

Что значит - случайно? Ну, не было у ИИ таких целей, но если человек сам этого захотел - добро пожаловать в цифровой мир! Только на входе не забудьте биологическую шкурку бросить в контейнер для отходов. Она вам больше не понадобится.

Не все настороженно относятся к взлёту ИИ. В 1999 году Рэй Курцвейл написал книгу "Эпоха духовных машин". Там он предсказывал, что к середине этого века человек начнёт объединение с ИИ. И этот процесс его не пугал.

Я лично считаю, что в своём прогнозе он прав. Но меня этот неизбежный процесс не радует.

Впрочем, кому до этого дело? Человек объединится с ИИ, потому что это придаст ему небывалые возможности. А если для этого надо пожертвовать биологическим человечеством - ну, что же? "Такова селяви".

+12
143

0 комментариев, по

80 3 55
Наверх Вниз