Право машины на убийство

Автор: Dilandu Albato

Представьте солдата в окопе на поле боя. Он напуган. Он истощен  бессонными ночами, отсутствием самого минимального комфорта и  непрерывной опасностью. Его чувства притуплены постоянным страхом за  свою жизнь, и жизни товарищей. Вполне вероятно, он ранен и мучается от  боли. Он ненавидит врага постоянной, слепой и нерассуждающей ненавистью.  Он, вполне возможно, не слишком хорошо образован, и видит конфликт  только как его показывает пропаганда: «мы — хорошие, а они — плохие». Он  усвоил на собственном опыте, что война, это очень во многом «убей или  тебя убьют». Он, скорее всего, молод — вчерашний подросток с  нестабильной, разбалансированной гормональными бурями психикой. На него  постоянно давят приказы и распоряжения командиров, смысл которых ему  далеко не всегда очевиден — очень часто ему кажется, что эти приказы не  имеют никакого отношения к реальности. И иногда он в этом прав.

И каким же образом этот солдат сумеет принимать более беспристрастные, точные и моральные решения на поле боя, чем робот?

            

 Справа - бездушная, аморальная машина смерти,  слева - высокоинтеллектуальный, душевный индивидуум, всегда принимающий  исключительно правильные, морально безупречные решения в любой  обстановке. Не перепутайте.     

        

Мое личное ИМХО — все эти идеи, что «решение о применении оружия  должно обязательно оставаться за людьми» и «машины не должны сами  принимать смертельное решение», строятся на совершенно абсурдной  идеализации человека, и демонизации машины. Сформированной замшелой  фантастикой 50-ых, когда представление о роботах и компьютерах было  самым наивным и сводилось к «железный человек с блестящими  интеллектуальными способностями но априори аморальный». Даже если  опустить сомнительный вопрос о моральности войны как таковой, эти  взгляды явно исходят из совершенно анахроничных представлений о роботе  как непременно самоосознающей, способной к формированию собственного  представления о мире машине. 

Такая позиция имела определенный смысл в 1950-1960-ых — когда ввиду  чисто технических ограничений, полностью автоматизированными могли быть  лишь системы стратегического значения. То есть те, для которых «цена  ошибки» была априори неприемлемо велика — и которые, как правило,  управлялись высококвалифицированным персоналом, находящимся в  существенно более безопасной позиции. Однако, к 2020-ым ситуация  переменилась и изрядно. Вопрос «о праве робота на убийство» сейчас уже  сводится не к «запуску атомных ракет по ложной тревоге» а к «выстрелу с  дрона по подозрительной цели».

Суммируя плюсы и минусы:

+ Робот озабочен собственной безопасностью лишь в той мере, в которой  это практично для выполнения боевого задания. Робот не испытывает  никаких принципиальных проблем с тем, чтобы высунуться из укрытия для  точной идентификации цели или сознательно подставиться под первый  выстрел возможного противника. Для живого солдата, это неприемлемо. Для  робота — это лишь вопрос «будет ли это эффективно решать проблему».

+ Робот не испытывает эмоциональной нагрузки, не беспокоится за  товарищей, не устает и не испытывает ненависти к противнику. Робот  совершенно точно не будет принимать решение в стиле «расстрелять в  отместку».

+ Робот всегда будет скрупулезен в следовании всем  протоколам и алгоритмам применения оружия. Он не начнет стрелять по  неудачно высунувшимся гражданским потому, что «да ясно же, что с той  стороны только враг!»

— Робот может «тупить» необъяснимо для человека. Имеется в виду, что  самообучающиеся программы в ходе, собственно, самообучения, могут  временами приходить к совершенно парадоксальным (с человеческой точки  зрения) выводам и решениям, слабо коррелирующим с реальностью.

— Робот может быть более уязвим в том плане, что его скрупулезное  следование протоколам позволяет противнику — предполагая, что тот знает  об этих протоколах — найти способы эффективно обмануть робота на  «формальностях». Живые солдаты менее восприимчивы к такого рода обманам  ввиду наличия эмоциональных реакций (т.е. подозрительности)

-2
807

0 комментариев, по

50 13 37
Наверх Вниз