Po 75 letech potřebuje Isaac Asimov ' Tři zákony robotiky aktualizovat
Když autor sci-fi Isaac Asimov vymyslel své tři zákony robotiky, myslel o androidech. Představoval si svět, kde by se tito lidé podobní robotům chovali jako sluhové a potřeboval by soubor programovacích pravidel, aby jim zabránil ublížit. Ale za 75 let od vydání prvního příběhu, který obsahoval jeho etické směrnice, došlo k významnému technologickému pokroku. Nyní máme velmi odlišnou koncepci toho, jak mohou roboti vypadat a jak s nimi budeme komunikovat.
Vysoce vyvinuté pole robotiky vyrábí širokou škálu zařízení, od autonomních vysavačů až po vojenské drony na celé tovární výrobní linky. Ve stejné době umělá inteligence a strojové učení stále více zaostávají za velkou část softwaru, který se nás každodenně dotýká, ať už hledáme na internetu nebo nám jsou přidělovány vládní služby. Tento vývoj rychle vede k době, kdy se roboti všeho druhu stanou převládajícími téměř ve všech aspektech společnosti a interakce člověka a robota výrazně vzrostou.
Asimovovy zákony jsou stále uváděny jako šablona pro vedení našich vývoj robotů. Jihokorejská vláda dokonce v roce 2007 navrhla Etickou chartu robotů odrážející zákony. Ale vzhledem k tomu, jak moc se robotika změnila a bude v budoucnu nadále růst, musíme si položit otázku, jak by mohla být tato pravidla aktualizována pro verzi umělé inteligence 21. století.
Tři zákony
Asimovovy navrhované zákony byly navrženy tak, aby chránily lidi před interakcí s roboty. Jsou to:
- Robot nemusí ublížit člověku nebo v důsledku nečinnosti může člověku ublížit.
- Robot se musí řídit pokyny, které mu dává lidské bytosti s výjimkou případů, kdy by tyto příkazy byly v rozporu s prvním zákonem
- robot musí chránit svou vlastní existenci, pokud taková ochrana není v rozporu s prvním nebo druhým zákonem
Jak již bylo zmíněno, jedním ze zjevných problémů je, že dnešní roboti se zdají být mnohem rozmanitější než ti v Asimovových příbězích, včetně těch, které jsou mnohem jednodušší. Musíme tedy zvážit, zda bychom měli mít hranici složitosti, pod kterou by pravidla nemusela být požadována. Je obtížné představit robotický vysavač, který by byl schopen ublížit lidem nebo dokonce vyžadovat schopnost plnit rozkazy. Je to robot s jediným úkolem, který lze předem určit před jeho zapnutím.
Na druhém konci spektra jsou však roboti navržení pro vojenské bojové prostředí. Tato zařízení jsou navržena pro špionáž, likvidaci bomb nebo pro přepravu nákladu. Zdá se, že se stále shodují s Asimovovými zákony, zejména proto, že jsou vytvářeny za účelem snížení rizika pro lidské životy ve vysoce nebezpečných prostředích.
Je však jen malý krok k předpokladu, že konečným vojenským cílem bude k vytvoření ozbrojených robotů, kteří by mohli být rozmístěni na bojišti. V této situaci se první zákon – neškodící lidem – stává nesmírně problematickým. Úlohou armády je často zachránit životy vojáků a civilistů, ale často poškozováním nepřátel na bojišti. Je tedy možné, že zákony budou muset být posuzovány z různých pohledů nebo interpretací.
Nejednoznačnost zákonů vedla autory, včetně Asimova, k prozkoumání, jak by mohly být nesprávně interpretovány nebo nesprávně použity. Jedním z problémů je, že ve skutečnosti nedefinují, co je robot. Jak výzkum posouvá hranice technologie, objevují se nová odvětví robotiky, která se zabývají molekulárnějšími zařízeními.
Například „roboty“ vyrobené z DNA a proteinů lze v chirurgii použít k nápravě genových poruch. Teoreticky , tato zařízení by měla skutečně následovat Asimovovy zákony. Aby však mohli plnit rozkazy pomocí signálů DNA, museli by se v podstatě stát nedílnou součástí člověka, na kterém pracovali. Tato integrace by pak znesnadňovala určení, zda je robot dostatečně nezávislý spadat pod zákony nebo působit mimo ně. A na praktické úrovni by bylo nemožné určit, zda by jakékoli přijaté příkazy způsobily újmu člověku, pokud by byly provedeny.
Existuje také otázka toho, co se počítá jako škoda na lidské bytosti. To by mohl být problém například při zvažování vývoje robotických dětí v Japonsku. Pokud by si člověk adoptoval jednoho z těchto robotů, mohlo by to pravděpodobně způsobit emoční nebo psychickou újmu. toto poškození nemusí vzniknout z přímých akcí robota nebo se projeví až mnoho let po ukončení interakce člověka s robotem. Tento problém by se mohl týkat i mnohem jednodušší AI, jako je použití strojového učení k vytváření hudby, která vyvolává emoce.
Praktické problémy
Dalším velkým problémem se zákony je, že potřebujeme výrazný pokrok v oblasti umělé inteligence, aby je roboti mohli skutečně dodržovat. Cíl výzkumu AI je někdy popisován jako vývoj strojů, které mohou myslet a jednat racionálně a jako člověk. Doposud nebyl napodobování lidského chování v oblasti AI dobře prozkoumán a vývoj racionálního chování se zaměřil na omezené a dobře definované oblasti.
S ohledem na tuto skutečnost by robot mohl fungovat pouze v rámci velmi omezená sféra a jakékoli racionální uplatňování zákonů by bylo velmi omezené. I to by možná při současné technologii nebylo možné, protože systém, který by dokázal uvažovat a rozhodovat na základě zákonů, by vyžadoval značnou výpočetní sílu.
Vzhledem ke všem těmto problémům nabízejí Asimovovy zákony jen něco víc než základní principy pro někdo, kdo chce dnes vytvořit robotický kód. Musíme se jimi řídit mnohem komplexnějším souborem zákonů. To znamená, že bez významného vývoje v oblasti AI zůstane provádění těchto zákonů nemožným úkolem. A to ještě předtím, než vůbec zvážíme možnost zranění, pokud by se lidé začali zamilovat do robotů.