Если машинам придётся нас мочить, то кого первого?
Автор: Антон КазаковЭто было давно решено и ясно, и вот началось и в РФ. Автопилот на судах, дублированный и поддержанный удалённым управлением.
Это слишком просто и выгодно, чтобы не развить. Там сложнее кого-то сбить. А человеческими моряками уже сейчас мало кто хочет быть, их не хватает. Так что начнём мы с грузовых кораблей.
А все почему? Всё из-за вагонетки.
Знаете, что самое сложное в том, чтобы сделать автопилот для автомобиля? Запрограммировать принятие решений.
Есть такая довольно известная проблема — Проблема вагонетки. Тяжёлая вагонетка несётся на пять человек. Если переедет — убьёт. У вас в руках рычаг стрелки. Переключите — вагонетка поедет по другому пути и убьёт только одного человека. Главный вопрос — переключать?
Кто-то говорит, что да, ведь один меньше пяти. Кто-то говорит, что нет, нельзя приговорить даже одного человека, даже если это спасает пятерых. А кто-то вообще ответить не может. Но давайте предположим, что ответили. Даже тогда задачу можно усложнить очень большим количеством способов.
А что, если один — ребёнок? А что, если те пять — глубокие старики? Или больные? Или преступники? А что, если их не один к пяти, а двое к троим? Как тогда меняется решение?
И вот представьте себе, что чтобы выйти из фазы испытаний в поле, для критических ситуаций с автопилотом всё это надо запрограммировать, превратить в алгоритм. А потом — сделать так, чтобы этот алгоритм утвердили законодательно. По сути, официально объявить, кто кого ценнее.
И как думаете, как вообще с этой задачей справляться? И будут ли справляться? И если нет, то как это обойти?
Это как в фильме "Я робот", когда ИИ посчитал, что у главного героя больше шансов выжить, и спас мужчину вместо девочки. Рациональный подход.
Вот-вот. Это Азимов ещё начал со своими законами робототехники, но их одних не хватит, потому что робот должен уметь решить, когда нельзя избежать смерти или травм людей. А пока, хоть такой алгоритм и теоретически возможно написать, пусть кто-то попробует выйти с ним на законодателей — они его заживо съедят же
Так, автомобили уже давно в автоматическом режиме эксплуатируются. И это не режим испытаний это вполне промышленный масштаб.
Вот грузовики работают в шахте.
https://fishki.net/auto/2074841-gruzovye-avtomobili-roboty-volvo-nachali-rabotu-pod-zemlej-v-avtomaticheskom-rezhime.html
И, кстати, нет проблемы кого и сколько давить или нет. Если попал под автомат - сам виноват. Никому не приходит в голову обвинять робота на заводах. Там обеспечена безопасная зона, и зона куда соваться не следует. Попал - сам виноват.
Разумно! Но если говорить о потребительском использовании, когда таких правил быть не может, как быть? В той же Германии, к примеру, независимо от того, можно ли детям на дорогу или нет, на любой дороге надо тормозить до шаговой скорости и быть готовым к любому их фортелю. То есть, де-факто любой несчастный случай будут трактовать со стороны презумпции виновности водителя, если он, к примеру, "недостаточно затормозил" или что-то такое. В России, по-моему, если всё по закону делать, то то же самое будет.
Так что проблема появится как только понадобится автопилотные машины из состояния "это испытания и у нас за рулём всегда водитель, если что" в настоящий автопилот выводить.
У меня Общий интеллект( искусственный интеллект) уничтожил в первую очередь своих создателей , а потом остальных людей. Сочтя их угрозой для своего существования.
Вполне разумная линия поведения, в принципе
Вопрос в том, кто его так запрограммировал и какие законодатели это разрешили
Обойти можно, но придётся приложить очень много усилий. Надо полностью перейти на автопилоты, исключив вообще человека из управления транспортом. Исключить попадание людей на дорожное полотно - непреодолимые ограждения, подземные и надземные переходы. Установить дополнительную защиту в салонах пассажирского транспорта - тотальное применение разных подушек безопастности. Установить на автотрасах, через определённые промежутки, специальные полосы, для контролируемой аварии - по сути теже подушки безопастности, призванные смягчить удар, если что-то случится на трассе и авария будет неизбежна.
Согласен, отличный концепт!
Вот такое действительно можно было бы продать законодателям.
Есть ещё вариант с тем, чтобы пользоваться принципом Окна Овертона и потихоньку всех приучать, что когда машина принимает какие-то решения — это нормально. Потом — что если она принимает некоторые судьбоносные решения (лечить или не лечить, к примеру) — это нормально. Потом — что если она все судьбоносные решения принимает. Ну и так далее, до любой необходимой степени. И тогда буквально через поколение или около того можно будет воспитать таких законодателей и их избирателей, которые с "разумным" и даже не слишком сложным алгоритмом принятия решения по поводу того, кого сбивать, согласятся. Особенно, если там будет элемент случайности, т.е. удачи, чтобы ответственность никто не нёс
Летающие автомобили ?
Как-то так )
Хорошо философски закручено, неплохая, должно быть, развязка какой-то истории
Думаете, если в какой-нибудь Сенат США это видео принести, они разрешат простой алгоритм убийства меньшинства?
Вы какие-то нереальные сверхзадачи ставите. Этическая проблема решаемая в вакууме... Вы сначала научите автопилот отличать полосу движения от сточной канавы, чтобы он хотя бы сам себя не убивал...
Я думаю, что самые сложные — это не технические, а этические задачи, потому что они влекут за собой ответственность
А потому я мало переживаю, что автопилот не научится в полосе оставаться — технологический путь к этому уже вполне себе вымощен, осталось только пройти (уже идут). Туда даже смотреть не особо интересно. Процессоры посильнее, камеры получше, радары порезче, алгоритмы пообученнее — да и все дела.
А вот убедить, что этих технологий достаточно для того, чтобы выпустить продукт на улицы с людьми... Китай, может быть, решит это быстро, им же граждане в известной степени пофиг. Ну и подобные страны. А вот как это решат те, кто ценит человеческую жизнь — это уже интересный вопрос
На первое время можно разграничить. Автострады где рулить автопилот и городской трафик где рулит человек. Для автострад максимально снизить варианты событий. Нет встречки. нет пешеходов. Нет переходов.
Никаких выборов делать не придется. Да и вообще, автопилот управляет машиной а не прогнозирует события. Иначе проснувшись вы узнаете что машина позвонила на работу и оформила для вас выходной. По причине загруженности трафика и риска аварий. Как то так.
Да и живой человек особо не делает выбор. Едет как получается. Помнится про аварии пишут держись своей полосы и ты прав. Начнешь кидаться в стороны и уже станешь виновником. А в реальности куча вылетов на встречку. Даже с пробитием ограждения. Или там была собака, я отвернул с дороги в овраг.
Вот от когда можно было принять решение, то на него есть доли секунды. И узнает водитель об этом из протокола.
- Будь у вас скорость бла бла, вы могли бы увидеть пешехода бла бла.
Пешехода который блять выскочил из машины едущей впереди практически на ходу! Которого никто не ждет там увидеть. А потом водитель автобуса рассказывает, что него был выбор выворачивать, с риском побить салон пассажиров или перехать этого ненормального. А в суде было пофигу на выбор. Эксперты сказали был значит был.
А родственники молодцы, ну да был пьян, ну да поспорил с водителем и выскочил с заднего сидения на трассу. Но это же не повод его сбивать. Хотим компенсацию!
Про разграничение — согласен
Про то, что можно приравнять общий алгоритм принятия решений к тому, что у реальных людей суд заворачивает, приписывая вину, — не совсем. Тут проблема масштаба. Когда таких "пограничных" случаев — доли процента, тогда их можно просто не замечать законом (что у нас и делается, например). А вот когда мы сразу говорим о том, чтобы "решить на все эти случаи наперёд, кого убивать", — тут размер решения как бы предполагает много ответственности. И нужны, простите, железные яйца, чтобы это решить, и железные аргументы, чтобы потом доказать электорату (если мы, конечно, не в Китае или где-то в таком месте, где электорат съест всё, что сделает партия
). Хотя такая линия аргументации, что машина всё равно будет решать в 999 случаях из 1000 быстрее и лучше любого человека, вполне имеет место быть, тут поддерживаю.
Что-то не сходится... В правилах четко сказано "продолжать тормозить до полной остановки транспортного средства". Про увернуть на встречку/обочину/придорожный столб - такого в правилах нет.
Да нет, экипажи в очередь стоят, чтобы в море уйти. А беспилотный корабль - это вряд ли. А если что сломается или течь, или груз сместиться, или нестандартная ситуация? Это кажется, что море пустое и там все просто... Как минимум наблюдающая смена останется, человека четыре, вполне достаточно, чтобы сутки закрыть полностью.
Тут я за что купил, за то продаю
Читал в статьях именно это — квалифицированных моряков выпускают всё меньше и их недостача.
Но я тоже думаю, что совсем без присмотра корабль с грузом никто оставлять не будет. И если надо, то как угодно — по воздуху, например, — доставят туда необходимое количество людей и техники. Там же ещё пираты могут быть и всякое такое. Короче, точно какие-то люди будут. Просто конкретно управлять они ничем особо не будут, а так, сидеть и ждать, чтоб что-то произошло, чтобы в Центр сообщить.
На занятиях в грузинской автошколе инструктор задает вопрос курсанту:
— Ты едешь на машине по горной дороге. Делаешь поворот и вдруг видишь, что перед тобой на дороге слева стоит бабушка, а справа — красивая девушка. Кого давить будешь?
— Бабушку, — после продолжительной паузы ответил курсант.
— Дурак! Тормоз давить надо!
Я ждал этого анекдота!

Но это — лишь остроумная завязка психологической драмы!
Потом они выезжают на практику и попадают в такую ситуацию по-настоящему. Курсант давит тормоз, но тот не работает! Курсант рулит в бабушку, но инструктор вырывает руль из его рук и кидает машину в девушку, потому что бабушка оказывается его матерью. Курсант из последних сил бьёт инструктора и отбрасывает того от руля, чтоб за секунду до контакта отвернуть от девушки, потому что та оказывается его сестрой. Оба с криками ужаса улетают с машиной в пропасть.
Но на самом деле сестра курсанта и мать инструктора просто снялись в рекламе майонеза и были на том повороте лишь на свежем рекламном плакате с новой технологией реалистичного фото. А инструктор с курсантом просто выпили слишком много киндзмараули, споря о теории вождения автомобиля...
И мораль этой драмы проста — не пейте за рулём, даже если вы в Грузии
️
Спасибо за интересную тему для обсуждения, сам пару лет назад размышлял на эту тему и вот к чему пришел. Нет ни какой проблемы вагонетки, возможно она была придумана каким-то не далеким, но авторитетным телеведущим. Люди приняли его мысль за свою и теперь, что-то обсуждают. Давайте вспомним, что в современных машинах давно есть электро усилители руля, АБС, ЕСП, БАС и другие С, АКПП, Круиз контроль, детектор слепых зон, парктроник и помощь в парковки. Современый водитель давно пользуется всеми этими автоматизациями и доверяет им. Я сам купив машину с парктроником, теперь всё больше ему доверяю. Что будет, когда датчики не сработают и я задавлю котёнка гревшегося на солнце под колесом? - Я буду виноват, я доверился технологии и следовательно я совершил наезд. Так же будет и с автопилотом: я доверил управление автомобилем автопилоту и я несу за его действия ответственность, даже если меня то в машине и не было, я просто послал свою условную Теслу за женой на работу.
Вернемся к вагонетки. Назовите мне ситуацию, когда по вине автопилота может произойти ДТП? В случае ДТП с участием автопилота, скорее всего, будет виноваты не адекват-человек либо силы природы. Человек может среагировать на не стандартную ситуацию. Да может, а может и не среагировать, а еще человек может эту ситуацию спровоцировать. Еще остаются баги, куда уж без этого. Тесла под багом не заметила грузовик, а сколько людей под веществами не заметили заполненную антоновку, или автобус с детьми, или придорожный киоск с продавщицей, или даже... дом?!
За тему — всегда пожалуйста!
А по поводу багов автопилота — тут интересный вопрос. С одной стороны, сейчас, когда говорят, что это — просто помощник, виноват по-любому водитель. С другой, в какой-то момент развития технологии автопилот будет работать вообще без водителя. И это значит, что спрашивать вроде бы не с кого... Но не может же быть, что кого-то задавили, но никто не виноват, так?
Поэтому ответственность, понятное дело, должна быть либо на владельце, либо на производителе, либо уж на том, кого задавили. И тут получается, что либо один настройки накрутил так, что автопилот работать не смог (вмешательство в конструкцию и т.п.), либо другой допустил конструктивный просчёт, либо третий кинулся, куда не следует...
В общем, если просто принять, что окей, такие случаи будут, то, похоже, речь была бы просто о том, сколько их допускается (если в 10 раз меньше, чем водительских ошибок людей за рулём, то и хорошо, легко продать законодателям), и понятном определении ответственности за несчастный случай. Ну и страховках всяких, чтобы выплаты пострадавшим точно обеспечить. Рабочая схема!