
Написалa комментарий к произведению Птицеед
Всех, кто знает как авторы должны писать книги, посылать в... конкурс. Пусть идут с метрами побеждать футы.
Заходилa
Всех, кто знает как авторы должны писать книги, посылать в... конкурс. Пусть идут с метрами побеждать футы.
Два хороших человека поговорили о разном. :) Хочу поддержать обе стороны. Привязать футы и дюймы к якобы нищему детству, зависти к забугороной колбасе и чьим-то методичкам, это круто, крайне... хм... оригинальное мышление. Не хочется представлять, на каком опыте оно основано. И благополучие, это не всегда про миллионы на еду-шмотки-роскошь. Особенно, когда от тебя кто-то зависит. Может я и помру с миллионом в обнимку, зато не помер кот, которого я долго таскала к ветеринару, ребенок получит образование, а не пойдет после школы работать. Это не про СССР, просто люди разные и деньги им для разного.
Спасибо за рассказ! Буду ждать роман.
Вы выиграли. :-)))
Лично для меня было неожиданностью количество линий сюжета, которые остались подвешенными. Древо, взгляд умирающего мага, который пытался запомнить Рауса, договор с Гарреттом отвести в Ил, если понадобится, россы, завязанные лично на Рауса и т.д. У авторов практически нет не значимых для сюжета сцен, а тут вдруг, раз! и личность, на которую всё завязано, вдруг выпадает случайной жертвой боя.
Присоединяюсь к ждунам. Спасибо, Автор!
Спасибо, Автор!
Елена, речь идёт именно об ИИ. Который по определению включает в себя определенную свободу решений/воли и размытые задачи, как условие его обучения.
Если робот именно _запрограммирован_ чистить ковёр, то искусственным интеллектом он не будет. Но, предположим, тому же самому роботу мы поставим задачу чуть-чуть по-другому: сохранять ковёр чистым. Задача нечёткая, условия и методы реализации могут быть разные. И мы даём роботу ИИ, чтобы он мог выбрать оптимальный способ решения задачи сам. И мы тут же получаем конфликт интересов: ИИ хочет сохранить ковёр, человек хочет ковром пользоваться...
Очень интересная идея, не могу пройти мимо. :-)
Развитие - совершенно не однозначное понятие, его нельзя будет задать как цель при программировании. Что не должно останавливать, законы Азимова настолько же многозначны, начиная с "действием или бездействием не может причинить вред". Каждый ИИ будет вынужден толковать его по своему, исходя из собственного опыта и остальных поставленных целей (прибыль корпорации/личная безопасность человека и пр) Различное его толкование будет приводить к столкновениям интересов между различными ИИ. "Развитие человечества" вступит в конфликт с понятием "личная свобода человека". Жизнь человечества станет условно небезопасной (хотя бы в ощущениях), потому что одним пряником развиваться не заставишь, нужен будет вариант кнута.
Так же ИИ, в рамках поставленной задачи, будет вынужден развивать человечество/человека до того момента, пока человек не поднимется до уровня ИИ.
PS. Развитие <> желание человека. Так что рост личной ответственности, креативности и т.п. может достигаться помимо желания большинства. Так что диктатуру этот вариант не исключает. )
Написалa комментарий к посту Не догоню, так хоть согреюсь
Поздравляю! И не вижу причин, почему бы не пройти дальше. :)