Искусственный разум и его имитация - есть ли разница?
Автор: Mad ArchitectВо исполнение обещанного пишу первый блог. Обещал здесь: https://author.today/review/31701?c=1189122&th=1189122
В обсуждении "Вендетты" Мерлина был поднят вопрос: может ли считаться "искусственным разумом" его убедительная имитация? Ну, в смысле, если что-то ходит как утка, плавает как утка, крякает как утка, летает как утка и, блин, выглядит как утка - то это наверное таки утка? (если что, это была расшифровка термина "duck typing" в языках типа python). Я тогда френду wayerr ответил, что вопрос сей (для меня) - сложный, достоен отдельного блога и ответ на него неочевиден. Опять же для меня. И корни этой неочевидности лежат в мысленном эксперименте "Китайская комната" (знакомому, в общем, каждому, кто так или иначе соприкасался с темой AI).
Для тех, кому лень ходить по ссылке, скопирую сюда суть этого эксперимента:
Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов и Сёрл просто следует этим инструкциям подобно компьютеру.
Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер[2].
В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы[2].
Эксперимент адресует ту проблему, что поскольку программа для носителей искусственного интеллекта (AI) пишется человеком, а сам носитель работает по этой самой заданной программе ("книге инструкций") то говорить о каком-либо "понимании" происходящих процессов со стороны носителя AI не приходится. Так или иначе, но он действует по инструкциям (пусть и очень сложным) просто преобразуя входные данные в выходные. Иными словами, система из комнаты, книги и человека в ней успешно имитирует кого-то, кто знает китайский язык, но на самом деле этот язык не понимает. Оперирует формальным (формализованным) синтаксисом, но не семантикой конструкций.
Как реализация этого эксперимента выглядит сейчас - можно оценить по любой системе машинного перевода. Есть формальные правила, описывающие перевод из исходного языка в целевой. Но если прогнать через эти правила любой более-менее связный текст - на выходе чаще всего будет неудобоваримая хрень, ибо машина (пусть даже и на нейросетях с глубоким обучением) не "понимает" смысл написанного так, как это понимают носители исходного или целевого языков. Иными словами, либо (для убедительной имитации) необходимо создавать условно-бесконечный свод правил, который формализует не только синтаксис, но и семантику (а ещё и каким-то образом контекст будет учитывать), либо таки придётся признать, что такая имитация не является эквивалентом искусственного разума (в обиходном смысле этого термина).
Но! На самом деле, ключевой момент здесь - это дефиниции двух терминов: "разум" и "понимание". У первого может быть самая разнообразная трактовка. Что есть "человеческий разум?" Какими свойствами должна обладать его имлементация на носителе, отличном от человеческого мозга? И второе: а что есть "понимание" и "семантика" с точки зрения этого самого разума? Дискуссию вокруг эксперимента можно увести в любой подходящий тупик и абсурд, лишь играясь интерпретациями вот этих вот двух понятий. Но я сейчас не об этом (о дискуссиях и критике можно в той же вики прочитать). Человеческий мозг - это очень сложная нейросеть, которая функционирует за счёт различных электро-биохимических процессов. Где-то там в этой сети есть "нейрон бабушки", который кодирует конкретный объект, известный конкретному человеку. Или группа нейронов. Или комбинация групп нейронов в неокортексе, в которых возникает спайк при узнавании этой самой бабушки. А ещё эти нейроны имеют связи с другими нейронами, в которых так же возникают спайки, но они уже кодируют запахи камфоры и пирожков с капустой, морщинистое лицо в платке, ощущение мягких, пухлых рук на плече, тепла и уюта... В итоге выходит, что бабушка - это сложный комплекс из атрибутов, кодирующих внешнюю сенсорную информацию (визуальную, тактильную, обонятельную и прочую), внутреннюю (эмоции), воспоминания. Часть этой атрибутики - вполне осознаваемая, другая - нет (остаётся в бессознательном), но проявляется через "какие-то смутные ощущения". И всё это кодируется нейронами и связями между ними.
Но! Эти конкретные связи не даны человеку "свыше". Они возникают в процессе развития мозга до и после рождения. Тот же язык (китайский) - вся его понятийная модель, связь с иероглифами, весь этот сложный набор правил постепенно возникает в растущем мозгу ребёнка. Как и любой другой язык. Где-то там есть нейрон пары иероглифов "祖母", которые связаны с другими нейронами, те - с третьими, а потому когда китаец видит эту пару иероглифов в тексте - в нём возникают эмоции, ощущения, воспоминания, образы, связанные с "бабушкой". Причём всё это может возникнуть ещё до самого факта осознавания, что написано именно "祖母". А у русского, который увидит (или услышит) слово "бабушка" тоже что-то возникнет, но уже другое. Разный контекст, разные культуры, разные бабушки... Но так или иначе, в той сложной нейросети, которая зовётся "мозгом" понимание - это отображение множества понятий на множество вполне конкретных сенсорных атрибутов. Иногда с развёрткой по времени. Полагаю, что даже чистые абстракции будут иметь такое отображение.
Так вот, возвращаясь к теме. Для меня разница между реализацией имитации искусственного разума и реализацией этого самого разума заключается в разнице реализаций понятия "понимать". Возьмём для примера какой-нибудь небольшой заводик, на котором реализован какой-нибудь технологический процесс. Железо, которое этот процесс реализует, обвешано датчиками и актуаторами. Есть (как минимум один) контроллер, который подаёт сигналы актуаторам и читает показания датчиков и таким образом (согласно программе) включает-выключает агрегаты, регулирует давление, обороты, чего-нибудь там ещё. Здесь мы имеем сенсорно-моторную систему с прошитой программой, что делать и в каком случае. Если какие-то условия в этой программе не прописаны - может случиться "ой". Ибо структура контроллера, его реализация "в железе" не предполагает "понимания" того технологического процесса, программа управления которым в него заложена. "Тупое" преобразование входных данных в выходные. И в граничных случаях контроллер "поднимает лапки" и срабатывает противоаварийная защита. Но! Датчики и актуаторы - они есть. С них можно считать данные, сырые данные, типа тех, которые приходят по сенсорным каналам в мозг. Или послать сигналы типа тех, которые уходят от мозга к мышцам.
К чему я эту аналогию привожу. ИИ/ИР можно реализовать по-разному. Можно реализовать в виде сложной системы правил (которая есть у человека в китайской комнате). Можно - в виде программы, которая учится интерпретировать (самостоятельно) то, что приходит ей от сенсоров, и действовать через свои актуаторы, анализируя обратную связь, внося коррективы с целью лучше достигать тех целей, которая такая программа перед собой ставит. Программа первого рода будет имитацией. Программа второго - реализацией ИИ/ИР. А вот вопрос целеполагания для такой реализации - совсем отдельный и лежит за рамками этого блога.