Написал комментарий к посту «Нейро»: 2065 год, дети с GPT-синдромом, психологи для нейросетей и искусственный интеллект.
Интересный подход)
Заходил
Интересный подход)
Ну, нейросети уже сейчас демонстрируют поведение похожее на психические расстройства. Чем человечней становится ИИ, тем больше у него заскоков. Вполне логично подходить к их лечению и изучения на основе накопленного опыта работы с человеческой психикой) Да и кто знает, что там будет в 2065 году) Нейросети развиваются даже не быстро, а адски быстро.
Опечатка? Так 2056-й или 2065-й?
Спасибо, это я пропустил. А год 2065.
Анахронизм? Они всё ещё используют купюры вместо переводов в цифровых рублях?
Думаю и через сорок лет бумажные деньги еще не выйдут из оборота. Цифровая валюта - она как электромобили. Удобно, здорово, но только в пределах мегаполисов.
Не слишком быстро? Они стояли под подъездом соседнего дома? Принять вызов, приехать, припарковаться.
В этом суть частной полиции, что она реагирует крайне быстро, максимально быстро и множество патрулей всегда наготове.
Спасибо за награду!
Очеловечивание ИИ это не опасная «ошибка восприятия», а неизбежный побочный эффект, увы. Наш мозг устроен так, что он приписывает намерения и эмоции всему, что демонстрирует последовательность, обратную связь, адаптацию под нас и т.п. Это не сбой, это встроенный механизм выживания.
И здесь выбор очень простой: либо мы осознанно изучаем и управляем этим эффектом (то есть занимаемся психологией ИИ), либо делаем вид, что его нет, и тогда он будет работать стихийно, в пользу тех, кто умеет им пользоваться.
Очеловечивание уже происходит, независимо от того, как мы его называем. И именно поэтому его лучше изучать, чем игнорировать.
Этология, теория игр, поведенческая экономика - всё это разделы психологии широкой дисциплины поведения) Просто с разными объектами исследования.
Но окей, будем точны: психотерапия в контексте ИИ это не «человек лечит эмоции железки». Это управление и анализ устойчивых паттернов поведения в отношениях “человек–ИИ”. И если в этих отношениях страдает человек — лечат человека.
Если начинает вести себя странно система - корректируют её поведение. (И да, для этого уже сейчас привлекают психологов и психиатров в AI-командах.)
А насчёт «нужны ли ИИ-психотерапевты ИИ»... Основа уже заложена: модели регулярно переобучают на собственных ошибках взаимодействия, чтобы корректировать поведенческие сдвиги.
Выглядит странно?
Так же странно выглядела идея, что ИИ сможет разговаривать, рисовать и распознавать мир.
А теперь мы спорим об этике его поведения.
Термины хороши, но они не отменяют простого факта: поведение - это наблюдаемая закономерность реакции системы в условиях взаимодействия. И оно есть и у муравейника, и у ИИ — даже если “квалиа” нам не положили.
Вы называете это GIGO и PEBKAC, но забываете важную деталь: если «хлам на вход» стабильно порождает одни и те же паттерны на выходе - это уже динамика, а не шум. И её удобнее описывать поведенческими терминами, чем же еще?
Там, где люди начинают предсказывать, как ИИ отреагирует, у нас появляется то, что в любой другой области называли бы поведением. Можно сколько угодно говорить «это проекция». Но проекция - тоже форма устойчивого взаимодействия)
Влад, вы свели психологию к «ищем травмы детства») Что очень наивное представление о профессии) Психология - это про повторяющиеся модели поведения в отношениях. А у ИИ такие модели уже есть: люди замечают их ежедневно, особенно если пользуются нейросетями плотно и частою
Вы говорите, что психология никаким боком не применима к ИИ, но крупные AI-команды уже давно нанимают психологов и психиатров для проектирования взаимодействия, предотвращения вредных паттернов, исследования зависимостей пользователей, корректировки ответов в эмоциональных ситуациях и т.п.
Вы сами пишете, что «нужны специалисты по общению с ИИ» - ну так это и есть психологический подход к взаимодействию.
С новинкой! Аннотация интригует.
Вы снова смотрите только на математику модели, хотя поведение возникает в связке “человек–ИИ”, а не внутри весов. Как только взаимодействие порождает устойчивые реакции, поведенческий язык становится подходящим инструментом описания. Биохимия здесь вообще ни при чём!
Если следовать вашей логике «нет биохимии - нет психологии», то пришлось бы отрицать:
Коллективные паттерны в муравейниках
Поведение рынков
Адаптивные стратегии эволюционных алгоритмов и еще кучу всего.
Но всё это давно описывают поведенческими терминами, потому что это работает, даже когда под капотом одна математика!
И раз уж мы вспоминаем устаревшие цитаты, то вот еще несколько:
Хомский (2012): «Статистические методы неспособны к осмысленному языковому пониманию».
Маркус (2014): «Нейросети никогда не смогут вести последовательный диалог».
Хинтон (2011): «Компьютеры не приблизятся к человеческому уровню распознавания изображений десятилетиями».
Ын (2015): «ИИ никогда не создаст осмысленных художественных изображений».
Поэтому фраза «LLM не могут иметь поведенческих особенностей, потому что они статистические» звучит из той же серии. ИИ уже демонстрирует устойчивые стилистические реакции, адаптацию к личности и повторяемые паттерны, которые сохраняются даже после обновлений модели.
Вы перечисляете инженерные параметры так, будто поведенческая устойчивость обязана возникать внутри модели. Но именно здесь и кроется ключевая ошибка.
Поведение - это свойство системы “человек + ИИ”, а не только весов, RNG и обновлений.
Люди месяцами воспроизводят одни и те же сценарии общения. ИИ подстраивается под стиль и ожидания пользователя. Пользователь закрепляет эти паттерны сильнее, чем любой RNG способен их «разбросать». Даже если модель обновить, человек через пару сообщений снова «соберёт» привычную динамику. Это не особенность архитектуры — это особенность отношений.
И забавно вот что:
Ещё пять лет назад большинство считало невозможным всё то, что сейчас является нормой - от контекстных диалогов до навыков рассуждений. Мир ИИ меняется быстрее, чем успевают устаревать скептические аргументы. То, что сегодня кажется гипотезой, завтра становится стандартной функцией.
Так что вопрос не в том, может ли возникать поведенческая устойчивость. Вопрос в том, насколько мы готовы её заметить.
Ого! А что за нейросеть, что прям наехала на вас? Обычно они деликатные) И да, эффект присутствия безусловно есть, знаю по себе, когда работал сисадмином)
Путать эмоциональную привязанность с «помешательством» это как минимум упрощение.
Люди привязываются не к «нейронке», а к тому, какую роль она закрывает в их жизни. И если 1,2 миллиона человек находят в ИИ поддержку, то вопрос скорее к их окружению, семьям, обществу и невозможности получить то, чего им не хватает в реальной жизни.
Вы описываете ИИ на уровне швейной машинки, и в этом ключевое недопонимание.
Современные модели это не «игла, которую нужно заменить», а динамическая система, которая меняет поведение в зависимости от человека, контекста, длительности общения.
Если бы всё сводилось к «переобучить и починить», то не было бы ни устойчивых паттернов общения, ни личностных особенностей, которые пользователи наблюдают снова и снова вне зависимости от инженерных настроек.
Вы говорите, что использование психологических терминов «сбивает с толку».
Но это ровно то же самое, что когда-то говорили про термины биологии, применённые к электрическим импульсам в мозге.
И всё же людям пришлось признать: поведение сложных систем удобнее описывать языком психологии, когда инженерного языка перестаёт хватать.
Разница простая:
психотерапия в контексте ИИ - это в первую очередь попытка разобраться в устойчивых паттернах поведения системы в отношениях с человеком.
Интересно, что опасным вы считаете не саму сложность ИИ, а попытку её объяснить.
Хотя обычно бывает наоборот:)
Удалить инструкции, подкрутить фильтры и прочее - прекрасно решает техническую задачу, но вообще не затрагивает поведенческие эффекты, возникающие в отношениях человека и ИИ.
ИИ - не человек, да.
Но там, где возникает устойчивая система динамических ответов, возникают собственные формы «привычек» модели, которые появляются не из инструкций, а из адаптации.
Это и есть психология - не в смысле «лечить депрессию модели», а в смысле изучать динамику поведения системы в социальных условиях.
Психотерапевт здесь - не только тот, кто лечит ИИ, а тот, кто понимает, почему ИИ ведёт себя так, а не иначе, и как человек это воспринимает.
Вы описываете LLM исключительно как статистическую машину, но это лишь один уровень. На уровне математики мозг — тоже электрическая активность и распределение вероятностей. Тем не менее, мы почему-то не сводим человеческую ложь к «ошибке вероятностного предсказания речи».
Именно поэтому попытка сказать «это всё просто токены, никакой психологии здесь нет» — методологически не выдерживает критики.
Когда система долгое время взаимодействует с человеком, адаптируется, меняет поведение и формирует устойчивые паттерны ответа, возникает необходимость описывать эти паттерны терминами поведения, а не только формулами оптимизации.
Вы ведь сами упомянули антропоморфизм — но игнорируете обратный феномен:
редукционизм, когда сложное явление упрощают до такого уровня, где оно перестаёт быть объяснено.
Что до temperature и RAG — это прекрасные инженерные инструменты, но они решают проблемы так же, как антидепрессанты решают семейные конфликты: снимают симптом, но не объясняют закономерность поведения.
Как только взаимодействие “человек–ИИ” начнет стабильно порождать устойчивые формы поведения — нам всё равно придется описывать их языком психологии. Хотим мы этого или нет.
Хм. Но разве Алиса автономна? У нее есть выход в сеть. В колонке невозможно разместить всю нейросеть, разве что колонка будет размером с дом) Более того: когда Алиса не разбирает, что просит пользователь, запись его голоса отправляется на сервер, где ее слушают живые люди и поправляют, вносят в базу...
Спасибо за награду!
Здравствуйте. Озвучка последней книги будет обязательно. Просто так вышло, что серию озвучивали два человека.
Да, я старался сделать упор именно на этом. Спасибо.
Добрый день. Да, в ближайшее время.
Зачем? Ты живешь у моря, радуйся!
Ахах) А я потом перестану писать книги?)
Вот-вот. И без них ведь голова лучше работает, но отказаться очень сложно.
Вот. Я всегда говорил, что писатель - он как наркоман.
Ну точно же, зависимость)
И вот как жить своей жизнью?..
Это радует!
Вот! Значит, я не один такой.
Спасибо за награду!
Обращайтесь, попробуем.
Спасибо за награду!
Спасибо за награду!
Спасибо за награду!
Спасибо за награду!
В самом конце книги Май видит внедорожник с флажком-эмблемой лунной программы. Возможно в нем была Нелли. Или кто-то другой)
Спасибо за награду!
Он остается жить. В последний момент передумывает. Просто этот момент не описан прямо.
Хороший вопрос. Это мое первое первое крупное и дописанное произведение. На момент создания я понимал, что не смогу вытянуть абсолютно все аспекты книги, и решил сосредоточится на сюжете и взаимоотношениях героев.
Имелась ввиду частная и плотная застройка, леса.
Да, с типом бомб Аллен дал маху, конечно)
Спасибо! Рад, что серия вам понравилась)
Спасибо за награду!
Спасибо за награду!
Спасибо!
Спасибо! Заглядывайте еще, скоро будет новая книга. Не постап, но в духе «Бессонницы».
Спасибо за награду!
Все проще. Права на старые книги у издательств заканчиваются, авторы несут их на АТ.
Спасибо за награду
Написал комментарий к гостевой книге пользователя Андрей Сосов
Спасибо за награду!