«Хоровод» — первое упоминание трех законов робототехники Айзеком Азимовым 73 года назад

от автора

Три закона робототехники, сформулированные ученым, популяризатором науки и гениальным писателем Айзеком Азимовым, повлияли на дальнейшее развитие некоторых течений в робототехнике и философии этого направления, если так можно выразиться. О «Трех законах» не слышал только тот, кто не имеет отношения к технике и никогда не читал научную фантастику.

Стоит отметить, что впервые «Законы» были сформулированы в научно-фантастическом рассказе «Хоровод», который был опубликован в марте 1942 года. С тех пор прошло целых 73 года, но до сих пор «законы» актуальны, и рассматриваются и современными специалистами по робототехнике, искусственному интеллекту и сопряженным дисциплинам.

Впервые рассказ был переведен на русский язык спустя 20 лет после его написания — в 1963 году. Сам Азимов упоминал законы множество раз, используя их в различных рассказах цикла «Я, робот». Кроме того, использовали эти законы и другие писатели-фантасты, а после — и ученые. Тем не менее, сейчас законы рассматриваются больше как теория, чем практика — ведь чистого «ИИ» пока что нет, а те роботы, что есть сейчас, подобные законы просто не в состоянии «понять», их система управления и обработки информации гораздо примитивнее того, что было описано Азимовым в своих работах. Для того, чтобы законы можно было использовать, и робот должен быть таким же совершенным, каким его видел Азимов.

Интересно, что сам Азимов считал, что сформулировал законы в нынешнем их виде не он сам, его друг и издатель Джон Кэмпбелл, главный редактор журнала «Astounding». Кэмпбелл, в свою очередь, «говорил, что он просто вычленил Законы из того, что Азимов уже написал. Сам же Азимов всегда уступал честь авторства Трёх Законов Кэмпбеллу».

Сами же законы вот:

Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
Оригинальный текст (англ.)
A robot may not injure a human being or, through inaction, allow a human being to come to harm. A robot must obey orders given it by human beings except where such orders would conflict with the First Law. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law. http://geektimes.ru/post/246572/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *