Три закона роботехники: различия между версиями
[досмотренная версия] | [досмотренная версия] |
Содержимое удалено Содержимое добавлено
мНет описания правки |
Нет описания правки |
||
Строка 3:
==Цитаты==
{{Q|Утопично предположение, будто Три Закона Роботехники Азимова можно было бы заложить в фундамент интеллектронного программирования. <…> Но и робота, снабженного каким-то эрзацем личности, невозможно сделать совершенно безопасным для окружения, учитывая такую рефлексию, которая, правда, не может считаться доказательством, но на след его наводит. <…> В принципе же моральную оценку такого поступка можно дать лишь постольку, поскольку
Впрочем, это только одна препона среди обильного их множества, поскольку теория решений показала нам сравнительно недавно, скажем, на примерах типа так называемого [[w:теорема Эрроу|парадокса Эрроу]] <…>. Того же, что логически оказывается невозможным, ни цифровая машина, ни какой-либо робот, так же, как и человек, реализовать не сумеет. Сверх того — и это уже третий пункт доказательства, — разумное устройство — это не более чем самопрограммирующийся комплекс, то есть прибор, способный преобразовывать — даже фундаментально — действовавшие до того законы собственного поведения под влиянием опыта (или обучения). А поскольку заранее невозможно точно предвидеть ни чему, ни каким образом такое устройство будет научаться, машина она или человек, то и невозможно конструктивно гарантировать появление этически совершенных предохранителей активности. Иначе говоря, «свободная воля» есть признак любой системы, снабженной свойствами, которые мы отождествляем с интеллектом. Вероятно, можно было бы вмонтировать в систему типа робота
* см. [[Вл. Гаков]], «[[Заповеди Исаака]]», 1992
Строка 11:
{{Q|— Начнём с Трёх Основных Законов Роботехники — трёх правил, которые прочно закреплены в позитронном мозгу. <…> Первое: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. <…> Второе: <…> робот должен повиноваться всем приказам, которые даёт человек, если эти приказы не противоречат Первому Закону. <…> И третье: робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому или Второму Законам.|Оригинал=“Now, look, let’s start with the three fundamental Rules of Robotics — the three rules that are built most deeply into a robot’s positronic brain. <…> We have: One, a robot may not injure a human being, or, through inaction, allow a human being to come to harm.” <…> Two, <…> a robot must obey the orders given it by human beings except where such orders would conflict with the First Law. <…> And three, a robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.”|Автор=[[Хоровод (Азимов)|«Хоровод»]], 1942}}
{{Q|— Прежде чем робот обретёт физическую возможность нарушить Первый закон, в нём так много должно поломаться, что он десять раз успеет превратиться в кучу лома.|Оригинал="Before it's physically possible in any way for a robot to even make a start to breaking the First Law, so many things have to break down that it would be a ruined mess of scrap ten times over."|Автор=[[Я, робот#Выход из положения|«Выход из положения»]], 1945}}▼
{{Q|— Если хорошенько подумать, Три Закона Роботехники совпадают с основными принципами большинства этических систем, существующих на Земле. Конечно, каждый человек наделен инстинктом самосохранения. У робота это Третий Закон. Каждый так называемый порядочный человек, чувствующий свою ответственность перед обществом, подчиняется определенным авторитетам. <…> А у роботов это — Второй Закон. Кроме того, предполагается, что каждый так называемый хороший человек должен любить своих ближних, как себя самого, вступаться за своих друзей, рисковать своей жизнью ради других. Для робота это — Первый Закон.|Оригинал=“If you stop to think of it, the three Rules of Robotics are the essential guiding principles of a good many of the world’s ethical systems. Of course, every human being is supposed to have the instinct of self-preservation. That’s Rule Three to a robot. Also every ‘good’ human being, with a social conscience and a sense of responsibility, is supposed to defer to proper authority <…>. That’s Rule Two to a robot. Also, every ‘good’ human being is supposed to love others as himself, protect his fellow man, risk his life to save another. That’s Rule One to a robot.”|Автор=[[Улики (Азимов)|«Улики»]], 1946}}▼
▲{{Q|— Если хорошенько подумать, Три Закона Роботехники совпадают с основными принципами большинства этических систем, существующих на Земле. Конечно, каждый человек наделен инстинктом самосохранения. У робота это Третий Закон. Каждый так называемый порядочный человек, чувствующий свою ответственность перед обществом, подчиняется
{{Q|— Машина призвана заботиться не об отдельном человеке, а обо всем человечестве. Следовательно, для них Первый Закон должен звучать так: «Ни одна Машина не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред».|Оригинал="The Machines work not for any single human being, but for all humanity, so that the First Law becomes: 'No Machine may harm humanity; or, through inaction, allow humanity to come to harm.' "|Комментарий=в его романе «[[Роботы и Империя]]» (1985) это впервые названо Нулевым Законом роботехники, который, однако, как показано в т.ч. далее в тексте романа (неоригинально, т.к. значительно раньше было, например, в произведениях Станислава Лема), применим лишь на коротком промежутке времени; вопреки этому «закон» ущербно расширен Азимовым в четырёх приквелах и сиквелах [[Основание (цикл)|трилогии «Основание»]], где [[w:Р. Дэниел Оливо|Р. Д. Оливо]] и некоторые организации выведены идеалистическими «пестунами человечества»|Автор=«[[Разрешимое противоречие]]», 1950}}▼
▲{{Q|— Машина призвана заботиться не об отдельном человеке, а обо
{{Q|В Трёх Законах было как раз столько двусмысленности, чтобы обеспечивать конфликты и неопределённости, необходимые для новых рассказов, и этого, к моему великому облегчению, оказалось достаточно для выдумывания новых углов зрения на шестьдесят одно слово Трёх Законов.|Оригинал=There was just enough ambiguity in the Three Laws to provide the conflicts and uncertainties required for new stories, and, to my great relief, it seemed always to be possible to think up a new angle out of the sixty-one words of the Three Laws.|Автор=сборник «[[Остальное о роботах]]» (1964), предисловие к рассказу «Первый закон» (1956)}}▼
▲{{Q|В Трёх Законах было как раз столько двусмысленности, чтобы обеспечивать конфликты и неопределённости, необходимые для новых рассказов, и этого, к моему великому облегчению, оказалось достаточно для выдумывания новых углов зрения на шестьдесят одно слово Трёх Законов
{{Q|В тот момент, когда я придумал Законы, я не понимал, что человечество уже давным-давно пользуется ими. «Три закона инструментов» звучат следующим образом:
Строка 21 ⟶ 23 :
2. Инструмент должен выполнять свои функции при условии, что он не представляет ни для кого никакой опасности.
3. Инструмент должен оставаться в целости и сохранности во время его использования, если только его уничтожение не продиктовано соображениями безопасности или если это не входит в его функцию.
Никто никогда не цитирует эти три закона, поскольку все принимают их как должное. Каждый закон, если о
В таком случае давайте сравним «Три закона инструментов» c Тремя законами роботехники, и вы увидите, что они полностью совпадают. А разве может быть иначе? Ведь робот, или, если желаете, компьютер, является инструментом, которым пользуется человек.|
{{Q|
«Хоровод» <…> был первым рассказом, в котором я чётко сформулировал Три закона роботехники, <…> и они имеют для меня тройное значение:
а) они помогали мне строить сюжет и позволили написать множество коротких рассказов, а также романов о роботах, в которых я постоянно изучал следствия Трёх законов роботехники;
б) это моё самое знаменитое литературное творение, которое цитируется по поводу и без повода. Если все, что я написал, когда-нибудь забудут, Три закона роботехники останутся последними;
в) отрывок из «Хоровода» <…> был первым случаем использования слова «роботехника» в английском языке. Таким образом, я стал изобретателем нового термина,
▲{{Q|— Прежде чем робот обретёт физическую возможность нарушить Первый закон, в нём так много должно поломаться, что он десять раз успеет превратиться в кучу лома.|Оригинал="Before it's physically possible in any way for a robot to even make a start to breaking the First Law, so many things have to break down that it would be a ruined mess of scrap ten times over."|Автор=[[Я, робот#Выход из положения|«Выход из положения»]], 1945}}
==Примечания==
|