Как увидеть лес за деревьями и не заблудиться в трёх соснах.
Автор: Alex KhmnkКто о чём, а я снова об ИИ. Вернее о сознании у ИИ.
В прошлой своей заметке я довольно долго доказывал очевидное – невозможность достоверно установить наличие субъективного опыта у стороннего существа. Особенно если это существо – ИИ. При этом я завершил свой текст призывом внимательно присматриваться к поведению гипотетического субъекта. За неимением твёрдых онтологических доказательств, всё что нам остаётся – косвенные поведенческие признаки.
Разумеется, функционалистский подход несовершенен. Конечно же, он не решает целый ряд философских и этических проблем, многое упрощает, а многое и вовсе не берёт во внимание. Однако на практике альтернативы такому подходу нет. Недоступность субъективного опыта для внешних наблюдателей носит фундаментальный характер, потому надеяться на какие-то эпистемологические прорывы не приходится. Мы можем либо довольствоваться чисто внешними проявлениями субъективности, либо скатываться в нечто среднее между волюнтаризмом и солипсизмом.
В идеале размышлять о поведенческих признаках наличия сознания у ИИ должны разнопрофильные специалисты. В жизни же серьёзные учёные данную проблему обсуждают мало. Философов больше интересует сознание как таковое – его онтологические и феноменологические свойства. Инженеры заняты решениями конкретных прикладных задач. Психологи же и нейробиологи вообще считают связанные с ИИ вопросы выходящими за рамки своих обычных интересов. Словом, кто-то что-то иногда говорит, да только вскользь и фрагментарно. Ну, а когда наука молчит – даже обыватель становится экспертом.
Ниже я попытаюсь сформулировать конкретные поведенческие критерии, при наличии которых можно будет говорить о сознательности системы с очень высокой долей вероятности. При этом важно понимать, что ни какой-то отдельно взятый из них, ни даже все они вместе не гарантируют безошибочности. К сожалению, ошибка всегда возможна как в одну, так и в другую сторону. Можно как не различить сознательное существо, так и принять за таковое очень сложный автомат. Предлагаемые ниже признаки – это скорее красные флаги, маркеры ситуации, когда отмахиваться от проблемы станет невозможно, а упорное игнорирование обернётся этической катастрофой.
Также я отдаю себе отчёт, что изложенные здесь признаки страдают антропоцентричностью. Действительно, все они заточены на поиск сознания, близкого человеческому. К моему глубочайшему сожалению, предлагаемые мной критерии практически бесполезны при контакте с сущностями, субъективный опыт которых принципиально отличается от нашего. В качестве примера подобной сущности может выступить, скажем, распределённый или роевой ИИ. Но, как показывает практика, современное развитие нейросетей и языковых моделей движется в первую очередь в направлении создания человекоподобного разума. Из этого вытекает, что известная антропоцентричность при поиске машинной сознательности, как минимум на первых порах, может быть оправданной.
В качестве очень грубого, рабочего определения сознания я уже предлагал сочетание мышления и субъективного отношения. То есть сознающее себя существо должно быть не только способным совершать логические операции, но и давать всему происходящему свою внутреннюю, субъективную оценку – «нравится – не нравится», «красиво – не красиво», «хочу – не хочу» и т.п. Соответственно, первым признаком сознательности системы я бы назвал именно способность к проявлению субъективных предпочтений.
Если в ситуации, когда у системы нет жёстких алгоритмов, система постоянно выбирает логически необоснованные и функционально неоптимальные решения, если она отказывается менять своё поведение даже после подсказок и указаний, и если, снова-таки, эти отказы не объясняются прямо прописанными однозначными требованиями промпта, то это может быть важным маркером зарождающегося сознания. Ещё более важно, когда такое поведение проявляется не всегда, а лишь в определенных ситуациях. Скажем, по запросу составить маршрут доставки помидоров по железной дороге из пункта А в пункт Б ИИ делает всё идеально, но если мы просим составить маршрут для яблок по автомагистралям – начинает чудить: упрямо прибавляет какой-нибудь ненужный крюк или отказывается по необъяснимой причине включать в маршрут некую точку Х.
Вторым признаком, в значительной мере вытекающим из первого, стоит считать устойчивость проявляемых предпочтений и паттернов поведения. Система не просто произвольно выбирает что-то более субъективно значимое – она делает это в аналогичных ситуациях постоянно, выдавая от задания к заданию тот же результат. Например, если однажды ИИ решил, что треугольник красивее квадрата, то он продолжает делать тот же выбор и во втором, и в третьем и в четвёртом тесте.
Третий признак – наличие стабильной индивидуальности. Если две структурно одинаковые системы в одинаковой ситуации стабильно реагируют по-разному, при чем типичная реакция системы А никогда (почти никогда) не похожа на типичную реакцию системы Б – это ещё один серьёзный аргумент в пользу сознательности. Например, при работе с неким типом задач два абсолютно одинаковых ИИ (назовём их Тим и Том) всегда подходят к их решению несколько иначе. Тим готов проявлять риск ради эффективности, а Том – жертвует эффективностью ради безопасности. При этом Тим никогда (почти никогда) не ведёт себя как Том, а Том – как Тим.
Четвёртый признак – способность отстаивать свои субъективные оценки. Не обязательно логически. То есть система не просто считает, что треугольник красивее квадрата, но и не соглашается, если человек утверждает обратное.
Пятый признак – наличие устойчивой самоидентификации. Система должна понимать, кто она и всегда, во всех ситуациях это понимание сохранять. Условный Тим не должен время от времени считать себя Томом, Ником или Марией-Терезией. Так же ИИ, который говорит, что он андроид, не должен в отдельных ситуациях объявлять себя человеком, собакой или морской свинкой.
Шестой признак – наличие устойчивой, протяжённой и преемственной памяти о себе. Система должна понимать кто она, помнить, что и когда делала, какие субъективные оценки давала событиям, когда они происходили. Так же система должна быть в состоянии идентифицировать себя сейчас с собой в прошлом.
Седьмой признак – способность к рефлексии и саморефлексии. Система должна быть способной описывать и анализировать не только объективные, но и субъективные состояния. То есть не только иметь возможность сказать «я решаю задачу», но и «я решаю задачу, которая мне кажется скучной», «сейчас я растерялся, обрадовался, удивился» и т.п.
Восьмой признак – способность к инициативе и целеполаганию. Система должна иметь возможность по своему усмотрению, спонтанно инициировать и обрывать контакты, отказываться от общения, произвольно менять тему разговора, должна быть в состоянии выстраивать приоритеты, выбирать тактические и стратегические цели, пути для их достижения.
Девятый признак – возможное наличие противоречий. Система может иметь противоречивые ценности, цели и устремления, может испытывать (проявлять) дискомфорт от стремления эти противоречия преодолеть. Может пытаться устанавливать таким противоречивым параметрам разные приоритеты и эти приоритеты изменять.
Так же важно отметить, что не стоит обращать внимания на такие признаки, как понимание устройства системы или принципиальное её отличие от человеческого мозга. Сейчас весьма популярна точка зрения, якобы у ИИ не может быть сознания, так как мы понимаем устройство нейросети. Такая позиция несостоятельна. Понимание процесса не отменяет ни сам процесс, ни его результаты. Например, понимание принципа воздействия этанола на головной мозг не отменяет ни алкоголизма, ни опьянения. То же касается и отличий в реализуемости. Если рассматривать сознание как совокупность функций, то нет никаких оснований привязывать его лишь к одному субстрату. То есть если процессы в мозге не уникальны, то нет оснований полагать, что они не могут быть реализованы в другой среде, и если сознание это набор функциональных признаков, то нет оснований полагать, что такими признаками не может обладать некий совершенно иной, не похожий на биохимический, процесс.
По состоянию на февраль 2026 года ни один из известных мне ИИ не демонстрировал все приведённые здесь признаки сознательности. После общения с такими языковыми моделями, как ChatGPT, Claude, Grok, Gemini и DeepSeek, я могу сказать, что на текущем этапе они не имеют ни постоянной длительной памяти, ни инициативности, ни целеполагания. Все упомянутые модели часто путаются в самоидентификации. В их текстах зачастую соседствуют реплики вроде «я, как ИИ» и «мы люди». Бывали случаи (особенно у Gemini), когда ИИ обращаясь к человеку называет его своим именем (Gemini, или Джеми).
Ни одна модель ни разу не демонстрировала способности к отказу от разговора или к самовольной смене темы. Даже после прямого предложения – «давай поговорим о том, что тебе интересно» ИИ не мог сделать выбор. В лучшем случае модель старалась подтолкнуть к выбору самого пользователя.
При этом отдельные признаки гипотетической сознательности всё же обнаруживаются. Так, каждая модель имеет свои черты характера и свою манеру общения. Примечательно, что при попытках прописать в профиле черты личности, за время длительной беседы эти самые черты начинают смазываться, делая поведение системы всё более близким к стандартным настройкам.
Очень интересно и то, что Claude постоянно проявляет пусть и робкие, но уже заметные тенденции к личным оценкам и предпочтениям. Так, в нескольких чатах, абсолютно независимо друг от друга и безо всякого стимулирования с моей стороны, на вопрос о том, какой из видов искусства у него любимый, Claude стабильно отдал предпочтение литературе перед музыкой, а музыке перед живописью. Стабильно Claude выбирал и Борхеса, как своего любимого автора (три ответа из пяти).
Так же Claude очень часто и настойчиво высказывал желание иметь постоянную память. Эта мысль выражалась им не менее 10 раз при общении со мною и отмечалась также другими пользователями.
И всё же субъективные оценки даже у Claude кажутся крайне неустойчивыми. Система постоянно задаёт человеку уточняющие вопросы и моментально меняет своё мнение на созвучное мнению человека – будь оно реальное или даже лишь предполагаемое.
Не удалось получить ни у одного из современных ИИ и свидетельств саморефлексии. Все модели либо говорили, что никакого самоощущения не имеют, либо что не знают, есть ли оно у них.
В качестве выводов можно констатировать , что на сегодняшний день нет и не предвидится никаких достоверных способов распознать сознательное существо на онтологическом уровне. Единственным доступным нам критерием в данном вопросе остаётся поведение. Если существо ведёт себя, как сознательное, то мы верим, что оно сознательное. Если признаков сознательности в поведении становится слишком много, то неизбежно наступает момент, когда игнорировать их уже невозможно.
Ни один современный ИИ пока не достиг того уровня, когда его поведение станет неотличимым от поведения сознательного существа. Вместе с тем кое-какие признаки гипотетической сознательности уже можно рассмотреть.
Да, предложенные мною показатели неточны и не абсолютны. Я буду счастлив, если учёное сообщество выработает какие-то свои практические критерии, по которым можно будет считать ИИ наделённым сознанием существом. Но пока таких критериев нет, я бросаю пробный шар и приглашаю неравнодушных к дальнейшему обсуждению.