Законы Азимова

Автор: Татьяна Буглак

– Разве робот может быть другом? – Лена, хотя и потрясённая рассказом учёного, не скрывала своего отношения к его идее. – Сколько их придумывали: электронных собак, говорящих кукол, сиделок. Остались только сиделки для стариков, да и то с ограниченными функциями. Люди не хотят общаться с программой, это ненормально и или забавляет ненадолго, а потом забывается, или приводит к психическому расстройству, вы же знаете. Мода на такие игрушки давно прошла, сейчас даже автоответчиками мало кто пользуется.

– Я говорю не о примитивной игрушке, а об искусственном разуме: всесторонне развитом, с эмоциями, полноценными реакциями на окружающее, настоящем друге, понимаете?

– Он не будет настоящим другом! Это всего лишь хорошо запрограммированный робот, и чем лучше вы его запрограммируете, тем больше будет чувствоваться обман. Нельзя сделать идеальную программу.

– А что вы понимаете под «идеальной программой»? – Учёный сотни раз участвовал в подобных спорах, и теперь не думал над тем, что сказать: слова приходили сами, заученные как таблица умножения. Он наслаждался самой возможностью поговорить, любуясь всё более горячившейся девушкой. – Беспрекословное выполнение приказов хозяина? Я имею в виду не это, а создание личности, полностью учитывающей эмоциональное и физическое состояние друга-человека, и тогда такой компаньон станет вести себя соответственно характеру человека, даже перечить ему иногда.

– Но человек будет знать, что это всего лишь программа! – Лена собирала со стола посуду, и та звенела от резких, сердитых движений девушки. – Это вызовет ещё большее отвращение. Когда кто-то буквально читает твои мысли, эмоции, высчитывая: «если ты ведёшь себя так, надо сделать так» – это противно!

– Все мы делаем именно так – оцениваем поведение человека и подстраиваемся под него. – Лев Борисович невольно улыбнулся горячности девушки.

– Но не для того, чтобы угождать другим! Мы это делаем, чтобы нам было хорошо. И тем, кого любим.

– И он тоже. – Учёный примиряюще смягчил голос. – В том и задача, чтобы компаньону было хорошо, когда хорошо его другу-человеку. Компаньон будет личностью, но личностью, искренне любящей своего друга: это его суть, основа его природы.

– Нет! Это не дружба, не спасение от одиночества. Идеально именно осознанное равенство, самостоятельный выбор: «я с тобой именно потому, что сам захотел этого, сам связал с тобой жизнь». А программа – в лучшем случае только программа.

– Это не программа, поймите. – Учёный кинул странный взгляд на фигуру в центре комнаты. – Компаньон – не запрограммированная машина, а личность. Идеальный друг.

– Идеальный раб! Безотказный, безответный, даже если станет перечить, то тоже в угоду хозяину. Не другу – именно хозяину. Нормальный человек не захочет такого друга. Если это просто робот – он останется игрушкой, без мыслей, чувств, пустая кукла. А если он хотя бы отчасти будет личностью, то мы вернёмся к рабству!

– Он будет личностью! Самостоятельной, имеющей право выбора! – Учёный тоже распалялся, удивляясь давно забытому чувству азарта, словно возвращавшего его во времена молодости.

– И у него будет право уйти? Право не только любить, но и ненавидеть? Тогда он станет таким же как мы, он станет человеком. И зачем тогда всё это? Может, лучше уметь общаться друг с другом? Любить и ненавидеть самим? Людей сейчас десять миллиардов, разве этого мало?

– Он не может ненавидеть, вспомните правила робототехники. – Учёный улыбнулся: эти правила, забытые на полвека, стали важны как раз во времена его молодости. – Хотя простите, вы не читали Азимова.

– Читала, у бабушки огромная библиотека. – Лена нервно листала стопку фотографий – только чтобы занять руки. – Законы робототехники? Это не законы, а кредо идеального рабовладельца!

– Почему? – Лев Борисович удивлённо взглянул на Лену. – Это, по сути, этические нормы человеческого общества!

– Вы серьёзно думаете, что эти законы – этические нормы? Это бред! Простите… – Она смутилась, осознав, что грубит тому, кто в четыре раза старше её, но учёный заинтересовался, потому что подобную мысль слышал впервые. И радовался, что девушка говорит на одном с ним языке. Если она в детстве много читала, то понятно, откуда у неё такая развитая речь.

– Почему вы считаете, что это «кредо рабовладельца»?

– Почему? Судите сами! – Лена схватила лист бумаги. – Первый закон помните? «Робот не может причинить вред человеку или своим бездействием допустить, чтобы этот вред был причинён». Так? А что такое вред? Это не только физическая травма, это всё, что может расстроить человека или повредить его имуществу. Из Первого вытекает Второй закон: «Робот должен повиноваться всем приказам человека, если они не противоречат Первому закону». Повиноваться! Что бы хозяин ни приказал, робот обязан это выполнить, какое бы насилие над ним не чинил человек. А насилие это будет – вспомните истории с секс-куклами и роботами-сиделками! Выродки среди людей будут всегда, а сейчас их слишком много, дела исконников ведь уже забываются. И робот не сможет даже убить себя, потому что это противоречит Третьему закону: «Робот должен заботиться о своей безопасности в той мере, какая не противоречит Первому и Второму законам». Сложите всё вместе и полу́чите идеального, беспрекословно подчиняющегося раба, запертого в пыточной этих законов! Он полностью во власти хозяина, и есть только одно ограничение: он не может по приказу хозяина причинить кому-то вред. Но это опять же правило рабовладельца: «Чужой раб не должен быть мне опасен, как бы ни был опасен его владелец». А вы к этому добавляете свою «безусловную любовь к человеку»! Знаете, что означает ваша «свобода выбора»? «Или ты полностью подчиняешься мне, любишь, боготворишь меня, или будешь уничтожен»! Закон древнего божка! Хотите стать таким «богом»? Я думала, вы умный человек!

Три "Л". Глава 1

582

0 комментариев, по

30 51 405
Наверх Вниз