Na 75 jaar moet Isaac Asimov ' s Three Laws of Robotics worden bijgewerkt
Toen sciencefictionauteur Isaac Asimov zijn Three Laws of Robotics bedacht, dacht hij over androïden. Hij stelde zich een wereld voor waarin deze mensachtige robots zich als dienaren zouden gedragen en een reeks programmeerregels nodig zouden hebben om te voorkomen dat ze schade aanrichten. Maar in de 75 jaar sinds de publicatie van het eerste verhaal met zijn ethische richtlijnen, zijn er aanzienlijke technologische vorderingen gemaakt. We hebben nu een heel andere opvatting over hoe robots eruit kunnen zien en hoe we ermee zullen omgaan.
Het hoogontwikkelde gebied van robotica produceert een enorm scala aan apparaten, van autonome stofzuigers tot militaire drones tot volledige fabrieksproductielijnen. Tegelijkertijd staan kunstmatige intelligentie en machine learning steeds meer achter veel van de software die ons dagelijks raakt, of we nu op internet zoeken of overheidsdiensten krijgen toegewezen. Deze ontwikkelingen leiden snel tot een tijd waarin allerlei soorten robots zullen overheersen in bijna alle aspecten van de samenleving, en de interacties tussen mens en robot aanzienlijk zullen toenemen.
De wetten van Asimov worden nog steeds genoemd als een sjabloon om onze ontwikkeling van robots. De Zuid-Koreaanse regering heeft in 2007 zelfs een Robot Ethics Charter voorgesteld dat de wetten weerspiegelt. Maar gezien hoeveel robotica is veranderd en in de toekomst zal blijven groeien, moeten we ons afvragen hoe deze regels kunnen worden bijgewerkt voor een 21e-eeuwse versie van kunstmatige intelligentie.
De drie wetten
De voorgestelde wetten van Asimov werden bedacht om mensen te beschermen tegen interacties met robots. Dit zijn:
- Een robot mag een mens niet verwonden of, door niets te doen, een mens schade toebrengen
- Een robot moet de bevelen opvolgen die hem zijn gegeven door menselijke wezens, behalve wanneer dergelijke bevelen in strijd zouden zijn met de eerste wet
- Een robot moet zijn eigen bestaan beschermen zolang deze bescherming niet in strijd is met de eerste of tweede wet
Zoals gezegd, is een van de voor de hand liggende problemen dat robots tegenwoordig veel gevarieerder lijken te zijn dan die in Asimovs verhalen, waaronder enkele die veel eenvoudiger zijn. We moeten dus overwegen of we een complexiteitsdrempel moeten hebben waaronder de regels misschien niet vereist zijn. Het is moeilijk om een robotstofzuiger voor te stellen die in staat is mensen schade te berokkenen of zelfs het vermogen vereist om bevelen op te volgen. Het is een robot met een enkele taak die vooraf kan worden bepaald voordat hij wordt ingeschakeld.
Aan de andere kant van het spectrum bevinden zich echter de robots die zijn ontworpen voor militaire gevechtsomgevingen. Deze apparaten worden ontworpen voor spionage, het opruimen van bommen of het vervoeren van lading. Deze lijken nog steeds in overeenstemming te zijn met de wetten van Asimov, vooral omdat ze worden gecreëerd om het risico voor mensenlevens in zeer gevaarlijke omgevingen te verminderen.
Maar het is slechts een kleine stap om aan te nemen dat het uiteindelijke militaire doel zou zijn om gewapende robots te maken die op het slagveld kunnen worden ingezet. In deze situatie wordt de Eerste Wet – geen schade toebrengen aan mensen – enorm problematisch. De rol van het leger is vaak om de levens van soldaten en burgers te redden, maar vaak door zijn vijanden op het slagveld te schaden. Het is dus mogelijk dat de wetten vanuit verschillende perspectieven of interpretaties moeten worden bekeken.
De dubbelzinnigheid van de wetten heeft auteurs, waaronder Asimov, ertoe gebracht te onderzoeken hoe ze verkeerd konden worden geïnterpreteerd of onjuist konden worden toegepast. Een probleem is dat ze niet echt definiëren wat een robot is. Terwijl onderzoek de grenzen van de technologie verlegt, zijn er opkomende takken van robotica die naar meer moleculaire apparaten kijken.
Zo kunnen robots gemaakt van DNA en eiwitten worden gebruikt bij operaties om genafwijkingen te corrigeren. In theorie , zouden deze apparaten echt de wetten van Asimov moeten volgen. Maar om bevelen via DNA-signalen op te volgen, zouden ze in wezen een integraal onderdeel moeten worden van de mens waaraan ze werkten. Deze integratie zou het dan moeilijk maken om te bepalen of de robot onafhankelijk genoeg was om onder de wetten te vallen of daarbuiten te opereren. En in de praktijk zou het onmogelijk zijn om te bepalen of bevelen die het ontving, schade zouden toebrengen aan de mens als ze werden uitgevoerd.
Er is ook de vraag van wat telt als het schaden van een mens. Dit kan een probleem zijn bij het overwegen van de ontwikkeling van robotbabys in bijvoorbeeld Japan. Als een mens een van deze robots zou adopteren, kan dit aantoonbaar emotionele of psychologische schade veroorzaken. Maar deze schade is misschien niet het gevolg van de directe acties van de robot of wordt pas vele jaren nadat de interactie tussen mens en robot is beëindigd. Dit probleem kan zelfs van toepassing zijn op veel eenvoudigere AI, zoals het gebruik van machine learning om muziek te creëren die emoties oproept.
Praktische problemen
Het andere grote probleem met de wetten is dat we een aanzienlijke vooruitgang in AI nodig hebben om robots daadwerkelijk te kunnen volgen. Het doel van AI-onderzoek wordt soms omschreven als het ontwikkelen van machines die rationeel kunnen denken en handelen en als een mens. Tot dusver is het nabootsen van menselijk gedrag niet goed onderzocht op het gebied van AI en heeft de ontwikkeling van rationeel gedrag zich gericht op beperkte, goed gedefinieerde gebieden.
Met dit in gedachten zou een robot alleen kunnen opereren binnen een zeer beperkte sfeer en elke rationele toepassing van de wetten zou zeer beperkt zijn. Zelfs dat is misschien niet mogelijk met de huidige technologie, aangezien een systeem dat zou kunnen redeneren en beslissingen zou kunnen nemen op basis van de wetten aanzienlijke rekenkracht nodig zou hebben.
Gezien al deze kwesties bieden de wetten van Asimov weinig meer dan de grondbeginselen voor iemand die vandaag een robotcode wil maken. We moeten ze volgen met een veel uitgebreidere reeks wetten. Dat gezegd hebbende, zonder significante ontwikkelingen in AI, zal het implementeren van dergelijke wetten een onmogelijke taak blijven. En dat is voordat we zelfs maar nadenken over de mogelijkheid van pijn als mensen verliefd worden op robots.