75 년 후, Isaac Asimov '의 로봇 공학 3 법칙은 업데이트가 필요합니다.

공상 과학 소설 작가 Isaac Asimov가 자신이 생각하고 있던 로봇 공학의 3 법칙을 고안했을 때 안드로이드에 대해. 그는 인간과 같은 로봇이 하인처럼 행동하고 해를 입히지 않도록 프로그래밍 규칙 세트가 필요한 세상을 상상했습니다. 그러나 그의 윤리 지침을 특징으로하는 첫 번째 이야기가 출판 된 후 75 년 동안 상당한 기술 발전이있었습니다. 이제 우리는 로봇의 모양과 상호 작용 방식에 대해 매우 다른 개념을 갖게되었습니다.

고도로 진화 된 로봇 분야는 자율 진공 청소기에서 군용 드론에 이르기까지 다양한 장치를 생산하고 있습니다. 전체 공장 생산 라인에. 동시에 인공 지능과 기계 학습은 우리가 인터넷을 검색하든 정부 서비스를 할당하든 매일 우리에게 영향을 미치는 많은 소프트웨어의 배후에 있습니다. 이러한 발전은 모든 종류의 로봇이 사회의 거의 모든 측면에서 널리 보급되고 인간과 로봇의 상호 작용이 크게 증가하는 시대로 빠르게 이어지고 있습니다.

아시모프의 법칙은 여전히 우리를 안내하는 템플릿으로 언급됩니다. 로봇 개발. 한국 정부는 2007 년 법규를 반영한 로봇 윤리 헌장을 제안하기도했다. 하지만 로봇 공학이 얼마나 많이 변경되었고 앞으로도 계속 성장할 것인지를 고려할 때 이러한 규칙이 인공 지능의 21 세기 버전에 대해 어떻게 업데이트 될 수 있는지 물어볼 필요가 있습니다.

3 가지 법칙

Asimov가 제안한 법률은 로봇과의 상호 작용으로부터 인간을 보호하기 위해 고안되었습니다. 다음과 같습니다.

  • 로봇은 인간에게 해를 입힐 수 없으며, 행동을하지 않아 인간이 해를 입도록 허용해서는 안됩니다.
  • 로봇은 다음과 같은 명령을 따라야합니다. 이러한 명령이 제 1 법칙과 충돌하는 경우를 제외한 인간
  • 로봇은 그러한 보호가 제 1 법칙 또는 제 2 법칙과 충돌하지 않는 한 자신의 존재를 보호해야합니다.

앞서 언급했듯이 명백한 문제 중 하나는 오늘날 로봇이 훨씬 더 단순한 로봇을 포함하여 Asimov의 이야기에 나오는 것보다 훨씬 더 다양하다는 것입니다. 따라서 규칙이 필요하지 않을 수있는 복잡성 임계 값을 가져야하는지 여부를 고려해야합니다. 인간에게 해를 끼치거나 심지어 명령에 순종 할 수있는 능력이 필요한 로봇 청소기는 상상하기 어렵다. 스위치를 켜기 전에 미리 정할 수있는 단일 작업이있는 로봇입니다.

그러나 스펙트럼의 다른 끝에는 군사 전투 환경을 위해 설계된 로봇이 있습니다. 이러한 장치는 스파이, 폭탄 처리 또는화물 운반 목적으로 설계되었습니다. 이는 특히 매우 위험한 환경에서 인간의 생명에 대한 위험을 줄이기 위해 만들어지고 있기 때문에 Asimov의 법과 일치하는 것으로 보입니다.

그러나 궁극적 인 군사 목표가 다음과 같을 것이라고 가정하는 것은 작은 단계 일뿐입니다. 전장에 배치 할 수있는 무장 로봇을 만들었습니다. 이 상황에서 인간에게 해를 끼치 지 않는 제 1 법칙은 엄청난 문제가됩니다. 군대의 역할은 종종 군인과 민간인의 생명을 구하는 것이지만 종종 전장에서 적에게 해를 끼침으로써 생명을 구하는 것입니다. 따라서 법은 다른 관점이나 해석에서 고려되어야 할 수도 있습니다.

법의 모호함으로 인해 Asimov를 비롯한 저자는 법이 어떻게 잘못 해석되거나 잘못 적용될 수 있는지 탐구하게되었습니다. 한 가지 문제는 로봇이 무엇인지 실제로 정의하지 않는다는 것입니다. 연구가 기술의 경계를 넓혀 감에 따라 더 많은 분자 장치를 조사하는 로봇 공학 분야가 등장하고 있습니다.

예를 들어 DNA와 단백질로 만든 “로봇”을 수술에 사용하여 유전자 장애를 교정 할 수 있습니다. 이론적으로 , 이러한 장치는 실제로 Asimov의 법칙을 따라야합니다. 그러나 DNA 신호를 통해 명령을 따르려면 본질적으로 작업중인 인간의 필수 부분이되어야합니다. 이러한 통합으로 인해 로봇이 충분히 독립적인지 여부를 판단하기가 어렵습니다. 법에 속하거나 법규 밖에서 운영하는 것입니다. 그리고 실제적인 수준에서받은 명령이 실행될 경우 인간에게 해를 끼칠지 여부를 판단하는 것은 불가능합니다.

또한 문제가 있습니다. 예를 들어 일본에서 로봇 아기의 발달을 고려할 때 문제가 될 수 있습니다. 인간이 이러한 로봇 중 하나를 채택하면 감정적 또는 심리적 피해를 입힐 수 있습니다. 이러한 피해는 로봇의 직접적인 행동으로 인해 발생하지 않았거나 인간과 로봇의 상호 작용이 종료 된 후 수년이 지나야 명백해졌습니다. 이 문제는 기계 학습을 사용하여 감정을 이끌어내는 음악을 만드는 것과 같이 훨씬 단순한 AI에도 적용될 수 있습니다.

실용적인 문제

법칙의 또 다른 큰 문제는 로봇이 실제로 그것을 따를 수 있도록 AI에서 상당한 발전이 필요하다는 것입니다. AI 연구의 목표는 때때로 인간처럼 합리적으로 생각하고 행동 할 수있는 기계를 개발하는 것으로 묘사됩니다. 지금까지 인간 행동을 모방하는 것은 AI 분야에서 잘 연구되지 않았으며 합리적인 행동의 개발은 제한적이고 잘 정의 된 영역에 초점을 맞추고 있습니다.

이를 염두에두고 로봇은 매우 제한된 영역과 법률의 합리적 적용은 매우 제한됩니다. 법률에 따라 추론하고 결정을 내릴 수있는 시스템에는 상당한 계산 능력이 필요하기 때문에 현재 기술로는 불가능할 수도 있습니다.

이러한 모든 문제를 감안할 때 Asimov의 법칙은 기초 원칙에 지나지 않습니다. 오늘 로봇 코드를 만들고 싶은 사람. 우리는 훨씬 더 포괄적 인 일련의 법률로 그들을 따라야합니다. 즉, 인공 지능이 크게 발전하지 않으면 이러한 법률을 구현하는 것은 불가능한 작업으로 남을 것입니다. 인간이 로봇과 사랑에 빠지기 시작하면 상처를 입을 가능성을 고려하기 전입니다.

답글 남기기

이메일 주소를 발행하지 않을 것입니다. 필수 항목은 *(으)로 표시합니다