Что чувствуют роботы?

Автор: Mad Architect

Казалось бы, что за бредовый вопрос? Тем не менее, в обсуждении под моей предыдущей записью возникло что-то очень похожее на него. А именно - насколько человекоподобный робот может действительно быть человекоподобным и чувствовать, например, любовь? Или ненависть? Или что-то ещё похожее? Ведь роботы нередко воспринимаются как сущности, действия которых подчинены холодной логике и расчёту (а как запрограммировать любовь?), что, очевидно, с чувствами и эмоциями не очень-то совместимо. Надо разобраться.

Со слабым ИИ всё, вроде, ясно. Цели ему ставятся извне, извне же даётся команда на то, чтобы что-то сделать. Сказали копать - он копает. Сказали не копать - не копает. Такого робота не надо мотивировать что либо делать - он делает ровно то, что было сказано, ни больше и не меньше. С сильным ИИ всё несколько сложнее - он должен мочь самостоятельно ставить перед собой задачи и самостоятельно же их решать. То есть обладать высокой степенью автономности. Ну, в идеале. Но для того, чтобы задача могла быть самостоятельно поставлена (и решена) в этом должна быть потребность. Это одна часть проблемы. Вторая часть - критерий оценки эффективности собственной деятельности.

В теории интеллектуальных агентов (а роботы - это частный случай ИА) существует понятие "функции полезности". Эта функция вычисляет некоторое число, которое определяет, насколько действия агента эффективны с точки зрения некоторого набора параметров. Ну, например, если речь идёт о беспилотном такси, то функция может вычислять эффективность каждой поездки исходя из критериев "полученная прибыль", "нарушенные правила" и "число инцидентов". Чем выше показатель - тем лучше такси справляется с решением задачи. Ну и, как следствие, логика выбора последующих действий (и состояний) строится на том, чтобы максимизировать значение этой самой функции. И тут возникает следующая проблема: ФП может быть хорошо и качественно сформулирована для конкретных задач (как в примере), но что делать, если каких-то определённых задач перед роботом не ставится? В каких тогда терминах формулировать ФП? Какие показатели мониторить? Ведь для каждой задачи они могут быть свои, и какие именно - зачастую может определить только человек-разработчик, обладающий экспертизой.

И тут само собой напрашивается решение - выразить ФП через такой набор параметров, который не будет привязан ни к какой конкретной задаче. Ну, например, ввести параметр ну, скажем, "удовольствие", который будет возрастать при каждой успешно решённой задаче и достигнутой цели, и чем правильнее задача решена - тем больше растёт параметр. В свою очередь отрицательные значения этого параметра будут говорить о том, что возникли проблемы - цель не достигнута, задача не решена, или решена плохо и т. п. Аналогичным образом можно ввести параметр, описывающий физическую целостность и внутреннее "здоровье" робота. И т. д. и т. п. Таким образом активность робота будет завязана на некие характеристики, непосредственно связанные с роботом (его текущим и прогнозируемым состоянием), и опосредовано - с решаемыми задачами. И если после этого поставить роботу цель максимизировать функцию от этих характеристик, дать понять - от чего они растут, от чего падают, и всё такое прочее - будет получена автономная система, способная сама решать задачи, ставить цели и давать оценку их решению/достижению, чего и требовалось.

Но при этом вот ведь какая ситуёвина выходит - изначально чисто рациональная интеллектуальная система начинает контролироваться параметрами, с рациональностью напрямую не связанными, и изменения которых извлекаются роботом из собственного опыта существования и активности. И для такого комплекса вполне возможны ситуации, когда правильное (с точки зрения логики) решение может быть вытеснено другим правильным, но уже с точки зрения собственной "функции полезности". Или робот может впасть в состояние агедонизма, когда ни одно из возможных действий не будет приносить ему удовольствия/удовлетворения и пропадёт какой-либо стимул действовать. Фантастика? Возможно. Но выглядит вполне реальным.

+4
700

0 комментариев, по

165 195 74
Наверх Вниз