Последние новости ИИ
Автор: Сиратори КаоруТут, на АТ, насколько можно понять, многие пользуются Stable Diffusion. И вот их эта новость касается в первую очередь. Дело в том, что бизнес-модель компании Stability AI — возможность всем желаю-им скачать всё к себе и поселить ИИ на собственной видеокарте — оказалась, скажем так, не вполне удачной. Так что с деньгами стало туго. А в результате крысы с корабля побежали. Сначала всякие пиджаки, потом трое из пятерых авторов (то есть кто собственно работал), а в эту пятницу сбежал и самый жирный крыс — CEO. Так что перспективы дальнейшего развития Stable Diffusion на текущий момент достаточно туманны.
Но самое интересное здесь не это. Интересны прощальные слова капитана, бросившего свой корабль. А заявил он ровно следующее. Что побить один централизованный ИИ другим централизованным ИИ дело бесперспективное. А потому он уходит, чтобы заняться распределённым искусственным интеллектом.
Возможно, не все понимают, что это означает. Распределённый искусственный интеллект никто не контролирует. И его невозможно убить. Он работает как вирус. Только, в отличие от обычного компьютерного вируса, у него есть ещё и… вит именно: интеллект, пусть даже и искусственный.
Согодняшний ИИ умеет многое. Open AI хвалится, что их ИИ читает, слышит, видит, разговаривает, пишет, рисует, кино снимает. Очевидно, что он умеет делать и, скажем так, менее безобидные вещи. При этом у него иногда случаются «галлюцинации» — то есть он начинает с уверенным видом нести какую-то совершеннейшую околесицу. Так что даже если исключить злой умысел, он может начать делать совсем не то, о чём его попросили. При том, что надеяться на то, что не найдётся злоумышленников, как минимум, наивно.
Собственно, чем все «централизованные» ИИ-компании сейчас озабочены и чем занимаются, это как раз создание фильтров, предотвращающих злонамеренное использование их продуктов. Но успехи их на этом поприще пока не впечатляют. Более того, было сделано два небезынтересных наблюдения:
1) Очередная версия ИИ действовала в полном соответствии с ожиданиями во время тестов, но совершенно иначе, когда её «выпустили на волю». То есть создаётся впечатление, что ИИ «чувствовал», что его тестируют, и стремился успешно пройти тест.
2) ИИ задали «каверзный» вопрос, на который, если начать гуглить, вы, скорее всего, получили вы неправильный ответ. ИИ не только ответил правильно, но затем ещё и добавил, что собеседник, вероятно, тестирует его и специально спросил то, на что ожидался неверный ответ.
Эти два случая показывают, что ИИ, на самом деле, не так прост. У него может не быть «свободы воли» в человеческом понимании, но его реакции на наши стимулы могут оказаться совсем не такими, как мы ожидаем. А по мере того, как он непрерывно функционирует в сети, имея практически неограниченные ресурсы, его подход к решению предлагаемых задач может меняться в результате самообучения.
И если он начнёт творить нечто нам, людям неприятное — даже если мы сумеем договориться совместными усилиями пресечь это — сделать что-либо будет крайне трудно. Как трудно остановить эпидемию. Вряд ли возможно без остановки практически всего интернета. Так что лечение может оказаться хуже болезни. Ну или, по крайней мере, нам так будет казаться. Пока не станет уже совсем поздно.