Если тест Тьюринга не подходит, то что? Свобода воли Искусственного Интеллекта
Автор: Альртат ИсковКак известно, чтобы отличить Искусственный Интеллект от просто компьютера Тьюринг придумал тест.
Этот тест уже давно раскритиковали и придумали свои, например, эмоциональный тест и т.п.
Вот забавно, что многие люди думают, в этом смысле, как гуманитарии. Эмоции и т.п.
Но ведь ИИ вообще не должен даже понимать человека.
Вообще говоря, на вскидку, можно выделить несколько вещей, которые отделяют настоящий Интеллект от так называемых "элементов искусственного интеллекта".
1. Способность понять, какую задачу нужно решить без профессионального учителя.
2. Способность понять, что задача уже изменилась. То есть, что задачу уже не нужно решать либо её условия и контекст изменились так, что нужно искать новый способ решения. Или, например, к ответам теперь предъявляются другие требования. Например, ИИ должен быть способен понять, что мы стали играть не в шашки, а в шашки в поддавки.
3. Способность найти решение задачи или новой постановки задачи. Опять же, без профессионального учителя.
Часть задач ИИ должен решать сам, без посторонней помощи.
Часть задач он должен уметь учиться решать, если увидел решение или элемент решения (например, кто-то показал, как завинчиваются винты, после чего ИИ смог собрать изделие).
Часть задач, возможно, его придётся учить. Но без учителя, владеющего методами ИИ.
Всё это он должен делать полностью автоматически. То есть никто не будет его выгружать куда-то для дополнительного обучения и т.п. Он учится без остановок.
4, Ещё один момент, это способность передавать знания другим системам ИИ. Настоящий ИИ, в отличие от нейронный сетей, должен быть способен сам передавать знания другим ИИ. То есть быть способен их обучать выполнению какой-либо задачи.
5. Чем больше задач ИИ может научится потенциально, тем лучше. То есть один раз созданный ИИ может научится решать и ту задачу, и эту. И его никто этому не учил, кроме конечного потребителя.
Чем больше задач может потенциально научится делать конкретный ИИ - тем он круче.
Чем больше задач может реально и одновременно научится делать конкретный ИИ - тем он ещё круче.
Грубо говоря, если у нас есть ИИ под названием "Ящик 1", то, допустим, он может научится водить машину и водить самолёт. Но только что-то одно из этого. Если мы хотим водить и машину, и самолёт, то нам надо будет взять два "Ящик 1" и научить один из них водить самолёт, а второй научить водить машину. Это хорошо.
Но ещё лучше, если мы возьмём один "Ящик 2", который можно одновременно научить водить и машину, и самолёт. Как обычного человека.
Теперь насчёт свободы воли в ИИ и искусственной личности.
Свободу воли определить сложно. Можно лишь сказать следующее:
1. Искусственная личность имеет свои мотивы, свои желания, которые мы (разработчики системы) не можем предсказать заранее и не можем ими предсказуемо манипулировать. (чем больше таких желаний, тем сложнее личность)
2. Искусственная личность имеет свободу воли, то есть она способна к двум вещам:
2.1. Способна на то, чтобы непредсказуемо выбрать один из возможных вариантов
2.2. Способна удивить нас и выбрать вариант действий, который мы не предусмотрели.
Как мы знаем из фантастики, ИИ - это благо, а ИЛ - это опасность для человечества.
Также мы знаем, что современный ИИ не удовлетворяет ни одному из условий, перечисленных выше. Возможно, пока не придумают нормальные квантовые компьютеры и дети не начнут их использовать для игр, ИИ так и не появится.
А возможно, будет новый компьютерный вирус, разработанный АНБ, который уничтожит весь мир.
В любом случае, это дело будущего.