Наказание роботов?
Автор: Серж Маршалл
В Пекине разрабатывают робота для супермаркетов. Сейчас он учится сортировать продукты, наблюдая за руководителем-человеком. Другие модели учатся, например, складывать одежду или выполнять сложную работу брадобрея.
Разработчики объясняют, что обучение таких роботов похоже на развитие ребенка. Для механических «учеников» даже создают особые системы поощрений и наказаний. Так роботы лучше усваивают, как нужно действовать в тех или иных сценариях — настоящая «робо-педагогика»!
***
"Обучение с подкреплением — это часть ИИ, где лицо, принимающее цифровые решения, известное как агент, учится принимать решения, взаимодействуя со своей средой и получая вознаграждения или наказания в зависимости от того, насколько хорошо он выполняет свои действия.
Агент получает награды и наказания в процессе обучения, действуя в среде и получая обратную связь на основе своих действий. Максимизируя вознаграждение и минимизируя наказания, ИИ постепенно учится выполнять желаемые действия и улучшать свою производительность в данной задаче.
Обучение с подкреплением обучает ИИ автономному принятию решений. Цель состоит в том, чтобы разработать алгоритмы и модели, которые помогут агенту принимать наилучшие решения. Это достигается за счет алгоритмов обучения, которые учитывают предыдущий опыт агента и улучшают его производительность с течением времени".
***
"Одним из основных вопросов в процедуре обучения является организация поощрения-наказания. Многообещающим является введение понятия рефлексии в обучении, т.е. возможности оценивать некую предысторию действий, приведших к текущему результату - поощрению или наказанию. Для этого необходимо иметь интегральную оценку состояния системы. Такой оценкой является дискомфорт - некая обобщенная числовая характеристика, увеличивающаяся при неблагоприятном воздействии на систему и уменьшающаяся при благоприятном. В этом случае целью поведения
системы будет реализация такого поведения, которое будет минимизировать дискомфорт.
Таким образом, степень целесообразности поведения робота сводится к уменьшению дискомфорта, что с точки зрения психологических особенностей поведения можно свести к уже достаточно понятному механизму минимизации отрицательных эмоций".
***
Беспилотный автомобиль убил ещё одного человека
https://www.iguides.ru/main/other/bespilotnyy_avtomobil_ubil_eshchye_odnogo_cheloveka
***
Ученый-юрист из Йельского университета считает, что роботы должны нести моральную и уголовную ответственность за свои поступки. Искусственный интеллект постоянно самообучается, и его алгоритм принятия решений со временем может стать настолько сложным, что любое решение робота будет продиктовано исключительно его собственным выбором. Ученый-юрист Йинг Ху из Йельского университета считает, что роботы сами должны привлекаться к ответственности. Его мнение приводит Vocativ.
Робот с искусственным интеллектом постоянно учится и корректирует свое поведение, это влияет на его алгоритмы принятия решений. Эта структура со временем может стать настолько сложной, что нельзя будет приписывать действия робота дефектам его конструкции или влиянию какого-то человека. Другими словами, даже очень хороший и качественно протестированный робот в какой-то момент может принять вредное решение, и оно будет продиктовано исключительно его собственным выбором.
А это значит, что должен быть наказан не создатель этой машины, а сам робот. Наказание может включать в себя деактивацию, перепрограммирование или просто объявление робота преступником.
***
Европарламент планирует дать роботам правовой статус, что поможет регулировать отношения людей с искусственным интеллектом. Однако, некоторые эксперты считают, что это опасный шаг, который может повлечь непредсказуемые последствия.
Депутаты Европарламента предлагают дать роботам статус юридических лиц и создать систему регистрации андроидов. Авторы документа предлагают присваивать роботам статус юридических лиц, которые могут выступать в суде в качестве ответчиков и истцов.
===
А кто на АТ уже написал нетленку про воспитание и наказание роботов?