Po 75 latach Isaac Asimov ' Trzy prawa robotyki wymagają aktualizacji

Kiedy autor science fiction Isaac Asimov opracował swoje Trzy prawa robotyki, myślał o androidach. Wyobraził sobie świat, w którym te podobne do ludzi roboty będą zachowywać się jak słudzy i będą potrzebować zestawu reguł programowania, aby zapobiec wyrządzaniu im szkód. Jednak w ciągu 75 lat od opublikowania pierwszego artykułu zawierającego jego wytyczne etyczne nastąpił znaczący postęp technologiczny. Mamy teraz zupełnie inną koncepcję tego, jak mogą wyglądać roboty i jak będziemy z nimi współpracować.

Wysoce rozwinięta dziedzina robotyki produkuje ogromną gamę urządzeń, od autonomicznych odkurzaczy po wojskowe drony. do całych linii produkcyjnych fabryki. Jednocześnie sztuczna inteligencja i uczenie maszynowe w coraz większym stopniu stoją za większością oprogramowania, które ma na nas wpływ na co dzień, niezależnie od tego, czy przeszukujemy internet, czy przydzielamy usługi rządowe. Te zmiany szybko prowadzą do czasu, w którym wszelkiego rodzaju roboty staną się powszechne w prawie wszystkich aspektach społeczeństwa, a interakcje człowiek-robot znacznie wzrosną.

Prawa Asimova są nadal wymieniane jako szablon do kierowania naszym rozwój robotów. Rząd Korei Południowej nawet zaproponował w 2007 roku Kartę Etyki Robotów, odzwierciedlającą obowiązujące przepisy. Ale biorąc pod uwagę, jak bardzo robotyka się zmieniła i będzie się rozwijać w przyszłości, musimy zapytać, w jaki sposób można zaktualizować te zasady dla XXI-wiecznej wersji sztucznej inteligencji.

Trzy prawa

Prawa sugerowane przez Asimova zostały opracowane, aby chronić ludzi przed interakcjami z robotami. Są to:

  • Robot nie może zranić człowieka lub, poprzez bezczynność, pozwolić człowiekowi na zranienie
  • Robot musi wykonywać polecenia wydane przez istoty ludzkie, z wyjątkiem sytuacji, gdy takie rozkazy byłyby sprzeczne z pierwszym prawem
  • Robot musi chronić swoje własne istnienie, o ile taka ochrona nie jest sprzeczna z pierwszym lub drugim prawem

Jak wspomniano, jednym z oczywistych problemów jest to, że roboty wydają się być dziś znacznie bardziej zróżnicowane niż te z opowieści Asimova, w tym niektóre o wiele prostsze. Musimy więc rozważyć, czy powinniśmy mieć próg złożoności, poniżej którego reguły nie byłyby wymagane. Trudno jest wyobrazić sobie automatyczny odkurzacz, który mógłby szkodzić ludziom, a nawet wymagałby zdolności wykonywania rozkazów. Jest to robot z jednym zadaniem, które można z góry określić przed włączeniem.

Na drugim końcu spektrum znajdują się roboty zaprojektowane do wojskowych środowisk bojowych. Urządzenia te są przeznaczone do szpiegowania, niszczenia bomb lub do przenoszenia ładunków. Wydaje się, że nadal są one zgodne z prawami Asimova, zwłaszcza że są tworzone w celu zmniejszenia ryzyka dla życia ludzkiego w bardzo niebezpiecznych środowiskach.

Ale to tylko mały krok, aby założyć, że ostatecznym celem militarnym będzie do tworzenia uzbrojonych robotów, które można by rozmieścić na polu bitwy. W tej sytuacji pierwsze prawo – nie szkodząc ludziom – staje się ogromnie problematyczne. Rolą wojska jest często ratowanie życia żołnierzy i cywilów, ale często szkodzenie wrogom na polu bitwy. Może więc zajść potrzeba rozważenia prawa z różnych perspektyw lub interpretacji.

Niejednoznaczność przepisów skłoniła autorów, w tym Asimova, do zbadania, w jaki sposób można je źle zinterpretować lub zastosować. Jednym z problemów jest to, że tak naprawdę nie definiują, czym jest robot. W miarę jak badania przesuwają granice technologii, pojawiają się gałęzie robotyki, które przyglądają się bardziej molekularnym urządzeniom.

Na przykład „roboty” wykonane z DNA i białek mogłyby zostać wykorzystane w chirurgii do korygowania zaburzeń genów. W teorii te urządzenia powinny naprawdę przestrzegać praw Asimova. Ale aby wykonywać rozkazy za pośrednictwem sygnałów DNA, musiałyby zasadniczo stać się integralną częścią człowieka, nad którym pracują. Taka integracja utrudniałaby następnie określenie, czy robot był wystarczająco niezależny podlegać prawu lub działać poza nimi. Z praktycznego punktu widzenia nie byłoby możliwe ustalenie, czy jakiekolwiek otrzymane rozkazy wyrządziłyby krzywdę człowiekowi, gdyby zostały wykonane.

Jest też pytanie tego, co liczy się jako krzywda człowieka. Może to stanowić problem, jeśli na przykład rozważa się rozwój dzieci robotów w Japonii. Zaadoptowanie przez człowieka jednego z tych robotów może prawdopodobnie spowodować szkody emocjonalne lub psychiczne. Ale szkoda ta mogła nie powstać w wyniku bezpośredniego działania robota lub stać się widoczna dopiero po wielu latach od zakończenia interakcji człowiek-robot. Ten problem może dotyczyć nawet znacznie prostszej sztucznej inteligencji, na przykład wykorzystania uczenia maszynowego do tworzenia muzyki wzbudzającej emocje.

Praktyczne problemy

Inną ważną kwestią związaną z prawami jest to, że potrzebowalibyśmy znacznego postępu w dziedzinie sztucznej inteligencji, aby roboty mogły faktycznie ich przestrzegać. Celem badań nad sztuczną inteligencją jest czasami tworzenie maszyn, które potrafią myśleć i działać racjonalnie i jak człowiek. Jak dotąd naśladowanie ludzkich zachowań nie zostało dobrze zbadane w dziedzinie sztucznej inteligencji, a rozwój racjonalnego zachowania koncentrował się na ograniczonych, dobrze zdefiniowanych obszarach.

Mając to na uwadze, robot może działać tylko w bardzo ograniczona sfera i jakiekolwiek racjonalne stosowanie praw byłoby bardzo ograniczone. Nawet to mogłoby nie być możliwe przy obecnej technologii, ponieważ system, który mógłby rozumować i podejmować decyzje na podstawie prawa, wymagałby znacznej mocy obliczeniowej.

Biorąc pod uwagę wszystkie te kwestie, prawa Asimova oferują niewiele więcej niż podstawowe zasady dla ktoś, kto chce dziś stworzyć kod robota. Musimy przestrzegać ich, stosując znacznie bardziej kompleksowy zestaw przepisów. To powiedziawszy, bez znaczącego rozwoju sztucznej inteligencji wdrożenie takich przepisów pozostanie niemożliwym zadaniem. I to zanim jeszcze rozważymy możliwość zranienia, gdyby ludzie zakochali się w robotach.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *