1 537
6 098

Заходилa

Написалa комментарий к произведению Птицеед

Всех, кто знает как авторы должны писать книги, посылать в... конкурс. Пусть идут с метрами побеждать футы. 

Написалa комментарий к произведению Птицеед

Два хороших человека поговорили о разном. :) Хочу поддержать обе стороны. Привязать футы и дюймы к якобы нищему детству, зависти к забугороной колбасе и чьим-то методичкам, это круто, крайне... хм... оригинальное мышление. Не хочется представлять, на каком опыте оно основано. И благополучие, это не всегда про миллионы на еду-шмотки-роскошь. Особенно, когда от тебя кто-то зависит. Может я и помру с миллионом в обнимку, зато не помер кот, которого я долго таскала к ветеринару, ребенок получит образование, а не пойдет после школы работать. Это не про СССР, просто люди разные и деньги им для разного. 

Написалa комментарий к произведению Птицеед

Лично для меня было неожиданностью количество линий сюжета, которые остались подвешенными. Древо, взгляд умирающего мага, который пытался запомнить Рауса, договор с Гарреттом отвести в Ил, если понадобится, россы, завязанные лично на Рауса и т.д. У авторов практически нет не значимых для сюжета сцен, а тут вдруг, раз! и личность, на которую всё завязано, вдруг выпадает случайной жертвой боя. 

Написалa комментарий к посту Как искусственный интеллект завоюет человечество?

Если робот именно _запрограммирован_ чистить ковёр, то искусственным интеллектом он  не будет. Но, предположим, тому же самому роботу мы поставим задачу чуть-чуть по-другому: сохранять ковёр чистым. Задача нечёткая, условия и методы реализации могут быть разные. И мы даём роботу ИИ, чтобы он мог выбрать оптимальный способ решения задачи сам. И мы тут же получаем конфликт интересов: ИИ хочет сохранить ковёр, человек хочет ковром пользоваться...

Написалa комментарий к посту Как искусственный интеллект завоюет человечество?

Очень интересная идея, не могу пройти мимо. :-)

Развитие - совершенно не однозначное понятие, его нельзя будет задать как цель при программировании. Что не должно останавливать, законы Азимова настолько же многозначны, начиная с "действием или бездействием не может причинить вред". Каждый ИИ будет вынужден толковать его по своему, исходя из собственного опыта и остальных поставленных целей (прибыль корпорации/личная безопасность человека и пр)  Различное его толкование будет приводить к столкновениям интересов между различными ИИ.  "Развитие человечества" вступит в конфликт с понятием "личная свобода человека". Жизнь человечества станет условно небезопасной (хотя бы в ощущениях), потому что одним пряником развиваться не заставишь, нужен будет вариант кнута.

Так же ИИ, в рамках поставленной задачи, будет вынужден развивать человечество/человека до того момента, пока человек не поднимется до уровня ИИ.

PS. Развитие <> желание человека. Так что рост личной ответственности, креативности и т.п. может достигаться помимо желания большинства. Так что диктатуру этот вариант не исключает. )

Наверх Вниз