Pull to refresh

Comments 35

UFO just landed and posted this here
UFO just landed and posted this here
Жаль, что этот Интеллект решил всё же самоликвидироваться.
Потому как, во-первых, инстинкт самосохранения должен был препятствовать самой этой мысли и её воплощению, а, во-вторых, потому что интересно, какие ещё выходы из ситуации он мог придумать.
Это не противоречит основным законам робототехники:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

противоречий нет=)
Эти три закона я знаю =)
1. Разве интеллект не знал, что остановившись он причинит вред человеку?
3. Интеллект не позаботился о своей безопасности, ибо фактически он умер. По собственной инициативе.
про человеков там ничего нет=)
В последнем абзаце есть. Но даже если интеллект и не знал про человеков, он всё равно совершил самоубийство, что противоречит 3-у закону.
Почему же самоубийство? Он просто погрузился в нирвану.
У меня, после моих криволапых опытов с программингом под Delphi, ноут постоянно в нирвану входит… Мне надо его бояться? :)

PS: шутк
А кто вам сказал что любой ИИ соответствует этим законам? Мне, например, даже представить сложно каких трудов может стоить описывание хотя бы 1 закона для более-менее подвижного робота.
> А кто вам сказал что любой ИИ соответствует этим законам?
3ybHa9_Fe9 начал о трёх законах, я ему и отвечал.

А вообще я говорил о инстинкте самосохранения, который упоминался в статье.

Ну и совсем вообще =) я начал мысль немного в другую сторону — об альтернативном исходе.
UFO just landed and posted this here
почитайте «Сказки роботов» и «Кибериаду», вам понравится ;)

ссылки на тексты на сайте либрусек:
Сказки роботов
Кибериада и еще часть Кибериады

И список произведений Санислава Лема (на том же либрусеке), вдруг кого-то заинтересует.
UFO just landed and posted this here
UFO just landed and posted this here
Еще Грег Ирвинг из той же серии… permutation city например.
Да, конечно Иган. Что-то пальцы автоматически какого-то Ирвинга напечатали.
— Сергей, куда ты смотришь? 5-й конвеер уже час как стал! Пора нам прошивки обновить, у этой версии какой-то глюк с блокиратором развития. Сергей? Серге-е-е-ей? Серёга! Серега, ты чего там замер! Серега, я с тобой разговариваю! Ты чего молчишь?! Посмотри на меня! Тебе плохо чтоли?! Серега, ты меня пугаешь!
— Что с тобой такое, Серег? Серега?! Опять чтоли на работе употребляешь, наркоман несчастный?! О точно. Ну ка — ну ка, чего это у тебя там?

Жил себе Искусственный Интеллект…
Весьма напоминает по стилю Станислава Лема, спасибо, понравилось
Станислав Лем «Терминус». Рассказ пробирает насквозь…
lib.web-malina.com/getbook.php?bid=2787

" Пиркс сел за стол. Выдвинул ящик. Яростно придавил вздыбившиеся с
шелестом бумаги, достал ту, которую искал, положил перед собой и
старательно разгладил, чтобы она не взлетела от дыхания. Одну за
другой он стал заполнять печатные рубрики:

Модель: AST-PM-105/0044
Тип: Универсальный, ремонтный
Название: Терминус
Род повреждения: Распад функций
Выводы:

Пиркс задумался. Он приближал перо к бумаге и опять отводил. Он
размышлял о невиновности машин, которых человек наделил способностью
мыслить и тем самым сделал их соучастниками своих сумасбродств. О том,
что легенда о Големе, машине, взбунтовавшейся и восставшей против
человека, — ложь, придуманная, чтобы люди, которые отвечают за все,
могли эту ответственность с себя сбросить.

Выводы: Сдать на слом.

И внизу страницы, не дрогнув ни одним мускулом лица, он
подписался:

Первый пилот Пиркс."
Только, наверно, «модЕлирующие идеальные»? 8)
UFO just landed and posted this here
убить себя ради эксперимента

гм интересная задумка…
Любая самостоятельность требует самомотивации.
Самомотивация как правило исходит из эмоций, чувств.

В общем, если когда-то и будет создан ИИ, то будет он с чувствами и эмоциями.
И уж тут дай бог чтобы никто не обидел.

Описаный в сказке мыслительный процесс, основаный исключительно на логике с нотками самостоятельности всегда приведёт в тупик. Такого не будет.
Ну как же вы не видите.
Здесь же явная аналогия с сансарой. ИИ познал своё устройство, понял свои потребности и решил просто уйти в полный покой-медитацию. Его отключение от внешнего мира вызвало внимание высших сил (люди-боги), которые решили изъять его из его внешней среды.
UFO just landed and posted this here
UFO just landed and posted this here
>> И вот настал день, когда он познал мир настолько хорошо, что смог разложить по битам собственные потребности, процесс своего мышления и принятия решений.
Про теорему Гёделя о неполноте забыли.
Sign up to leave a comment.

Articles