Нулевой закон Айзека Азимова
Автор: Серж Маршалл
"У трёх его знаменитых правил робототехники было продолжение. Три правила он сформулировал ещё в 1942 году:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
- Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
Эти правила он придумал, когда не было ни ЭВМ, ни кибернетики, ни самих роботов. Спустя 44 года, в 1986 году, Азимов предложил Нулевой закон:
- Робот не может причинить вреда человеку, если только он не докажет, что в конечном счёте это будет полезно для всего человечества.
Это правило Азимов вывел, когда люди уже имели кибернетический опыт и его практические результаты. Писатель вообще до конца своих дней размышлял о проблемах искусственного интеллекта. Например, что робот (ИИ) будет считать вредом? Алкоголик, наркоман, курильщик, экстремальщик (например, скалолаз) - все наносят себе вред, и обязан ли робот это предотвратить?
Также Азимов был уверен, что дарвиновская теория - похожие виды не уживаются в одной экосистеме, и один из них должен уничтожить другого - применима и к сожительству человека и ИИ. Согласно этому постулату Дарвина, например, кроманьонцы истребили неандертальцев. Значит, и ИИ уничтожит человечество?
Но Азимов был оптимистом: он верил, что ИИ выработает свою этику, наподобие того, как ранние люди придумывали религию. И в этой этике люди будут у ИИ в роли нынешних домашних животных - роботы будут нас держать и заботиться, как это мы сегодня делаем с кошками. Так ИИ заодно смогут не допускать, чтобы люди вредили себе и окружающим, так будет соблюдён «нулевой закон робототехники Азимова». Люди-кошки - это и будет библейским Раем для органических людей". (@tolk_tolk)
***
А какие варианты будущего для людей предлагают авторы на АТ?
Напишите свои варианты!