Разумный искусственный интеллект: друг или враг?
Автор: Алекс А. АлмистовИ снова здравствуйте - уважаемые коллеги и читатели...
Начну с того, что идея данного поста возникла у меня по митивам/в развития вот этой вчерашней дискуссии: Искусственный разум и его имитация - есть ли разница?
Плюс, буквально сегодня попались в на глаза в Инете сразу три взаимодополняющих статьи по теме, кои привожу ниже.
Ну, вот, как-то всё и совпало:
Разумный искусственный интеллект: друг или враг?
http://sci-hit.com/2019/02/razumnyy-iskusstvennyy-intellekt-drug-ili-vrag.html
Когда Норберт Винер, отец кибернетики, писал свою книгу «Человеческое использование человеческих существ» в 1950 году, вакуумные трубки все еще были основными электронными строительными блоками, и в работе по факту было всего несколько компьютеров. Однако он вообразил будущее, которое мы сейчас наблюдаем, с беспрецедентной точностью, ошибившись лишь в незначительных мелочах.
Прежде любого другого философа искусственного интеллекта, он понял, что ИИ не просто будет подражать — и заменять — человеческим существам во многих видах интеллектуальной деятельности, но и изменит людей в этом процессе. «Мы всего лишь водовороты в реке вечно текущей воды», писал он. «Мы не является чем-то, что просто живет, мы модели, которые увековечивают себя».
Например, когда появляется множество заманчивых возможностей, мы готовы платить и принимать небольшие затраты на ведение бизнеса для доступа к новым возможностям. И очень скоро мы становимся зависимы от новых инструментов, теряем способность существовать без них. Опции становятся обязательными.
Это очень старая история эволюции, и многие главы из нее нам хорошо известны. Большинство млекопитающих может синтезировать свой собственный витамин C, но приматы, питающиеся преимущественно фруктами, потеряли эту встроенную возможность. Самоповторяющиеся шаблоны, которые мы называем людьми, теперь зависят от одежд, обработанной еды, витаминов, шприцев, кредитных карт, смартфонов и интернета. И завтра, если не сегодня, — от искусственного интеллекта.
Винер предвидел несколько проблем с этим положением вещей, которые Алан Тьюринг и другие ранние оптимисты ИИ в значительной степени упустили из виду. Реальная угроза, по его словам, заключалась:
…в том, что такие машины, хотя и беспомощные сами по себе, могут использоваться человеком или блокировать человеческих существ для увеличения их контроля над остальной частью расы, либо политические лидеры могут попытаться взять под контроль свое население, используя не сами машины, а политические методы, столье же узкие и безразличные к человеку, как если бы они были придуманы механически.
Очевидно, эти опасности сейчас весьма актуальны.
В СМИ, например, инновации в цифровом аудио и видео позволяют нам платить небольшую цену (в глазах аудиофилов и любителей кино) за отказ от аналоговых форматов, а взамен получать крайне простой — слишком простой — способ воспроизведения записей почти без ограничений.
Но есть огромная скрытая цена. Министерство правды Оруэлла стало реальной возможностью. Методы ИИ по созданию практически неотличимых поддельных «записей» делают устаревшими инструменты, которые мы использовали для расследований последние 150 лет.
Нам остается просто отказаться от краткой эпохи фотографических доказательств и вернуться в тот прежний мир, где память человека и доверие были золотым стандартом. Или же мы можем разработать новые методы защиты и нападения в битве за правду. Одним из волнительных примеров последнего времени стал факт того, что уничтожить репутацию намного дешевле, чем эту же репутацию заслужить и защитить. Винер видел это явление очень широко: «В долгосрочной перспективе не будет разницы между вооружением себя и вооружением врага». Эпоха информации стала также эпохой дезинформации.
Что мы можем сделать? Ключ в том же наблюдении Винера о том, что «эти машины» «беспомощны сами по себе». Мы создаем инструменты, а не коллег, и реальная угроза заключается в том, что мы не видим разницы.
Искусственный интеллект в своих нынешних проявлениях паразитирует на человеческом интеллекте. Он весьма бесцеремонно овладевает всем, что создали люди-творцы, и извлекает паттерны — включая наши самые тайные привычки. Эти машины пока не имеют целей или стратегий, не способны к самокритике и инновациям, они лишь изучают наши базы данных, не имея собственных мыслей и целей.
Они, как говорит Винер, беспомощны не в том смысле, что они закованы в цепи или обездвижены, нет, они вообще не являются агентами — у них нет возможности «действовать от причин», как выразился бы Кант.
В долгосрочной перспективе «сильный ИИ», или общий искусственный интеллект, возможен в принципе, но нежелателен. Еще более ограниченный ИИ, который возможен на практике сегодня, не будет злом. Но он несет угрозу — отчасти потому, что его можно ошибочно принять за сильный ИИ.
Насколько силен искусственный интеллект сегодня?
Разрыв между сегодняшними системами и научно-фантастическими системами, наводняющими популярное воображение, все еще огромный, хотя многие люди, как любители, так и профессионалы, склонны его недооценивать. Давайте рассмотрим Watson от IBM, который вполне может стать достойным уважения в наше время.
Этот суперкомпьютер стал результатом крайне масштабного процесса R&D (исследований и разработки), в котором было задействовать множество людей и наработки дизайна интеллекта за многие столетия, и он использует в тысячи раз больше энергии, чем мозг человека. Его победа в Jeopardy! была подлинным триумфом, который стал возможен благодаря формульным ограничениям правил Jeopardy!, но чтобы он мог принять участие, даже эти правила пришлось пересмотреть. Пришлось немного отказаться от универсальности и добавить человечности, чтобы получилось шоу.
Watson — плохая компания, несмотря на вводящую в заблуждение рекламу от IBM, которая обещает разговорные способности ИИ на обем уровне, а превращение Watson в правдоподобного многогранного агента было бы сродни превращению калькулятора в Watson. Watson может быть хорошим вычислительным футляром для такого агента, но скорее мозжечком или миндалиной, а не разумом — в лучшем случае, подсистемой спецназначения, выполняющей роль поддержки, но и близко не системой для планирования и формулирования целей в зависимости от полученного разговорного опыта.
Да и зачем бы нам хотелось создать мыслящего и творческого агента из Watson? Возможно, блестящая идея Тьюринга — знаменитый тест Тьюринга — заманила нас в ловушку: мы стали одержимы созданием хотя бы иллюзии реального человека, сидящего перед экраном, минуя «зловещую долину».
Опасность в том, что с тех пор, как Тьюринг представил свою задачу — которая была, в первую очередь, задачей обмануть судей — создатели ИИ пытались выполнить ее при помощи смешных гуманоидных кукол, «мультяшных» версий, которые очаруют и обезоружат непосвященных. ELIZA Джозефа Вейзенбаума, самый первый чатбот, была ярким примером создания такой иллюзии, и при этом крайне простым алгоритмом, который мог убедить людей, что они ведут задушевные и искренние беседы с другими людьми.
Его обеспокоила легкость, с которой люди готовы верить в это. И если мы что-то и поняли из ежегодных состязаний на прохождение ограниченного теста Тьюринга за премию Лебнера, так это то, что даже самые умные люди, которые не сведущи в компьютерном программировании, легко ведутся на эти простейшие уловки.
Отношение людей в области ИИ к таким методам разнится от осуждения до поощрения, и консенсус заключается в том, что все эти уловки не особо глубоки, но могут быть полезными. Сдвигом в отношении, который был бы очень кстати, будет искреннее признание того, что разукрашенные в кукол андроиды — это ложная реклама, которую стоит осуждать, а не поощрять.
Как этого достичь? Как только мы поймем, что люди начинают принимать решения жизни и смерти, следуя «совету» систем ИИ, внутренние операции которых практически непостижимы, мы увидим хороший повод для тех, кто призывает людей доверять таким системам, начать опираться на нормы морали и закона.
Системы искусственного интеллекта — очень мощные инструменты. Настолько мощные, что даже у экспертов есть хорошая причина не доверять собственным суждениям, когда есть «суждения», представленные этими инструментами. Но если эти пользователи инструментов собираются извлечь выгоду, финансовую или другую, от популяризации этих инструментов, они должны убедиться, что знают, как сделать это со всей долей ответственности, максимальным контролем и обоснованием.
Лицензирование и одобрение действий операторов таких систем — точно так же, как мы лицензируем фармацевтов, операторов кранов и других специалистов, ошибки и ошибочные суждения которых могут иметь тяжелые последствия — может, при поддержке страховых компаний и прочих организаций, обязать создателей систем ИИ идти длинным путем, выискивая слабости и недостатки своих продуктов, а также обучать тех, кто собирается с ними работать.
Можно вообразить своего рода обратный тест Тьюринга, в котором предметом оценки будет судья; пока он не найдет слабости, нарушение границ, пробелы в системе, лицензии он не получит. Для получения сертификата такому судье потребуется серьезное обучение. Стремление приписывать объекту человеческую способность мыслить, как мы обычно делаем, встречаясь с разумным агентом, очень и очень сильное.
В действительности, способность противостоять желанию видеть в чем-то очеловеченном человека — странная штука. Многие люди нашли бы взращивание такого таланта сомнительным, потому что даже самые прагматичные пользователи системы периодически относятся к своим инструментам «дружелюбно».
Независимо от того, насколько тщательно дизайнеры искусственного интеллекта будут исключать фальшивые «человеческие» нотки в своих изделиях, мы должны ожидать расцвета ярлыков, обходных путей и допустимых искажений фактического «понимания» как систем, так и их операторов. Точно так же, как по телевизору рекламируют лекарства с длинным списком побочных эффектов или алкоголь, снабжая ролик обилием мелкого шрифта со всеми, предусмотренными законом, предупреждениями, так же и разработчики искусственного интеллекта будут соблюдать закон, но изощряться в предупреждениях.
Зачем нам искусственный интеллект?
Нам не нужны искусственные сознательные агенты. Есть масса природных сознательных агентов, которых достаточно, чтобы выполнять любые задачи, предназначенные для специалистов и привилегированных лиц. Нам нужны умные инструменты. Инструменты не имеют прав и не должны иметь чувств, которые можно будет задеть или которыми можно будет «злоупотребить».
Одна из причин не делать искусственных сознательных агентов состоит в том, что хотя они и могут стать автономными (и в принципе они могут быть такими же автономными, самоулучшающимися или самосозидательными, как любой человек), им не стоит — без специального разрешения — разделять с нашими природными сознательными агентами нашу уязвимость или нашу смертность.
Дэниел Деннетт, профессор философии из Университета Тафтса, однажды поставил перед студентами задачу на семинаре по искусственным агентам и автономии: дайте мне технические характеристики робота, который сможет подписать контракт с вами — не суррогата, которым владеет другой человек, а самого по себе. Это не вопрос понимания причин или манипуляций ручкой на бумаге, а скорее владения и заслуженного владения правовым статусом и нравственной ответственностью. Маленькие дети не могут подписывать таких контрактов, равно как и инвалиды, правовой статус которых обязывает им быть под опекой и накладывает ответственность на опекунов.
Проблема роботов, которые могли бы захотеть получить такой возвышенный статус, в том, что, как и Супермен, они слишком уязвимы, чтобы делать такие заявления. Если они откажутся, что будет? Каким будет наказание за нарушение обещания? Их закроют в клетке или разберут на части? Тюрьма для искусственного интеллекта не составит неудобств, если мы только сперва не загрузим жажду свободы, которая не сможет быть проигнорирована или отключена самим ИИ. Разборка ИИ не убьют информацию, которая хранится на его диске и в программном обеспечении.
Простота цифровой записи и передачи данных — прорыв, который позволил программному обеспечению и данных получить, по сути, бессмертие — делает роботов неуязвимыми. Если это не кажется очевидным, подумайте о том, как изменилась бы нравственность людей, если бы мы могли делать «бэкапы» людей каждую неделю. Прыжок с моста без резинки в воскресенье после пятничного бэкапа может быть опрометчивым решением, затем можно будет посмотреть запись своей преждевременной кончины позднее.
Именно поэтому мы создаем не сознательных — хотели бы создавать — гуманоидных агентов, а скорее совершенно новый тип существ, неких оракулов, без сознания, без страха смерти, без отвлечения на любовь и ненависть, без личности: зеркала правды, которые почти наверняка будут заражены человеческой ложью.
Человеческое использование человеческих существ скоро изменится — в очередной раз — навсегда, но если мы возьмем на себя ответственность за нашу траекторию эволюции, мы сможем избежать ненужных опасностей.
Моральные устои передаются на генетическом уровне
Большинство людей предполагает, что характер детей формируется исключительно под воздействием воспитания.
Психологи из Университета штата Пенсильвания провели исследование, в котором рассмотрели нравственные качества братьев и сестер разной степени родства и сделали вывод, что тенденция к моральным принципам может передаваться по наследству. Работа опубликована в журнале Behavior Genetics.
Всего в исследовании участвовали 720 пар братьев и сестер, включая близнецов, кровных родственников и сводных. По словам авторов, такое разнообразие помогло разделить влияние генетических факторов и воспитания. Жизнь добровольцев отслеживали в течение 13 лет. На начало эксперимента их средний возраст варьировался от 12 до 14 лет, под конец — от 25 до 27 лет.
С помощью анкет исследователи собирали следующие данные. Позитивное воздействие родителей — отзывчивость и похвала; негативное — ругань и конфликты. Кроме того, молодые люди проходили тесты на различные моральные качества, такие как ответственность (в подростковом возрасте) и сознательность (после совершеннолетия).
Для анализа результатов исследователи использовали разложение Холецкого. В итоге они увидели взаимосвязь: позитивное воспитание ассоциировалось с более высокими показателями ответственности и сознательности у детей. Эта корреляция отчетливее выражалась между братьями и сестрами, связанными кровным родством. По мнению авторов, такая зависимость говорит о том, что моральные характеристики человека могут зависеть как от наследственных факторов, так и от внешних, связанных со средой.
«Большинство людей предполагает, что характер детей формируется исключительно под воздействием воспитания. Однако эта информация говорит о том, что есть и генетическое влияние. Это не значит, что у сознательных родителей обязательно будет сознательный ребенок, но это означает, что дети наследуют склонность вести себя определенным образом. Мы не должны игнорировать это», — рассказала психолог Джена Нидехайзер (Jenae Neiderhiser), участвовавшая в исследовании.
Авторы признают, что в работе существуют пробелы. Например, они не учитывали факторы среды, которая окружала добровольцев в течение 13 лет, или то, что наследуемые черты родителей влияют на их способ воспитания.
Ранее сотрудники Оксфордского университета обнаружили, что все культуры связаны общим моральным кодексом семи различных общих правил и моделей поведения. В исследовании на основе глубокого анализа использовались более 600 записей о культурах из 60 обществ по всему миру — эта работа стала самой большой выборкой в этой области.
Исследователи, воспроизвели потенциальные условия для возникновения жизни
В NASA воссоздали древние условия, в которых могла возникнуть первая жизнь.
Более четырех миллиардов лет назад Земля была осыпана смертельными ультрафиолетовыми лучами, поэтому ученые считают, что первая жизнь зародилась глубоко под водой. Что именно стало причиной ее зарождения до сих пор неизвестно, но астробиологи из NASA уже несколько лет подряд пытаются это выяснить. Специально для этого они построили аквариумы, которые точно имитируют условия первичных морей. Наконец, они смогли создать органическую реакцию, которая и могла быть первой «искрой жизни».
Считается, что живые организмы возникли на большой глубине, поблизости трещин, образованных в ходе вулканической активности. Так как на большой глубине нет света и невозможен жизненно важный фотосинтез, первые создания могли рассчитывать только на хемосинтез. В ходе этого процесса первые бактерии могли питаться сахаром, возникшим в ходе реакции между сероводородом из жерла и кислородом из морской воды. Этими бактериями могли питаться более крупные создания — так, постепенно, и могла развиваться пищевая цепочка.
Вещества, которые были составными частями древних морских глубин, были выявлены в ходе изучения окаменелостей. Таким образом, лабораторные резервуары были наполнены водой, пируватами и аммиаком — двух веществ, которые могут образовываться в ходе гидротермального выброса и важны для образования аминокислот. Из воды был выкачан весь кислород и добавлен гидроксид железа, который был крайне распространен в первые годы существования Земли. Также вода была нагрета до 70 градусов Цельсия — примерно такая температура царила вблизи вулканических трещин.
«Понимание того, как из органических веществ и минералов может возникнуть настоящая клетка, действительно важно для осознания в каких типах среды может возникнуть жизнь», — говорит астробиолог Лори Бардж, руководитель исследования.
Добавляя в воду кислород, ученые смогли заметить образование аминокислоты аланина и альфа-гидрокислоты лактата. Последний способен объединяться в сложные органические молекулы, и впоследствии дать начало жизни.
Считается, что таким образом жизнь могла бы образоваться и на ледяных спутниках других планет, например на Европе Юпитера и Энцеладе Сатурна. Под их замороженной поверхностью могут скрываться вулканические трещины, рядом с которыми плавали бы живые инопланетные организмы. По словам Лори Бардж, поняв необходимые для зарождения жизни условия, они смогут точнее знать, на каких именно планетах ее нужно искать.
***************************************************************
И чисто от себя (тезисно, для обсуждения):
1. Чисто по себе скажу, что феномен Искусственного Интеллекта в своих НФ романах (про Транссферы) я использую практически постоянно и преимущественно в качестве полноценных игровых персонажей первого или второго плана. При этом они, как второстепенные герои , чаще всего выступают в виде андроидов или чисто виртуального Суперкома звездолета/шаттла.
Причем в одном случае ИИ - друг и в каком-то смысле начальник-координатор Главных героев. В другом случае - скрытый враг (антогонист) Главного Героя, но тоже не преднамеренно, а чисто по долгу службы. При этом мои версии ИИ представляют собой очень похожие на живых людей виртуальные Личности, хотя и бесплотные по сути и очень короткоживущие (чаще даже - строго фиксировано во времени).
2. Еще в процессе прошлого обсуждения темы ИИ как-то задался вопросом: а может, вообще, кто-нибудь дать (привести в комментах) однозначное и сходу всем (даже без предварительной научной подготовки) понятное определение категории-феномена: "Разум"? Ну вот чем он кардинально отличается от любого "программно-машинного" алгоритма (и просто "интеллекта" любого происхождения) анализа/использования внешней информации - если просто, на пальцах? Вот где проходит граница между полноценным "Человеческим Разумом" и пока не доросшим до оного "Искусственным Интеллектом"? Сразу скажу, что "абстрактность мышления" и "привязка к языку социального общения" - однозначным идентификатором "Разума" - де-факто не являются (многократно доказано на практике - на базе того же обмусоливания и так, и этак - небезызвестного Теста Тьюринга)...
Болеее того, ещё больше упрощу свой вопрос (+ представлю его как возможную завязку сюжета для чьего-либо НФ рассказа): допустим, перед Вами оказался некий субъект... Как (по каким именно критериям) Вы определите - обладает он полноценным "Разумом" или лишь его иммитацией ... Ну если просто на пальцах - без "глубин философии" и религиозно-морализаторских словоблудий про "эти конкретные связи даны человеку "свыше"" ?! Кстати, в НФ чаще всего идентификатором "Разума" почему-то выпячивают именно моральные качества субъекта (гуманизм/социальность и ТыПы), а не самобытный образ его индивидуумного мышления/мироощущения ... Что, ИМХО, явно притянуто за уши к теме различий "естественного" Разума и ИИ...
3. Я как-то уже давал ссылку уже на сугубо своё, субъективное, "понимание и восприятии терминов "Разум" и "сознание" в ранге модели - http://samlib.ru/editors/a/almistow_a_a/2017-algoritmgiznialmistov.shtml
Основные тезисы моего видения философской категории ЖИЗНИ и РАЗУМА
А если совсем коротоко, то, ИМХО, "Разум" (Личность, "Я", самоосознание) и просто "Сознание" (как автоматический механизм обеспечения жизнедеятельности биоорганизма) - разные вещи ... И далеко не факт - что одно есть подкатегория другого ... Просто приведу пример из практической медицины с биологией: как бы и де факто - человек может быть "в сознании" (т.е. способным исполнять практически все свои чисто биологические функции, влоть до воспитания потомства), но при этом "не обладать разумом" (т.е. способностью осознавать себя как самобытную личность и творить нечто оригинально-неповторимое в интерересах себя и социума).