Efter 75 år måste Isaac Asimov ' s Three Laws of Robotics uppdateras
När science fiction-författaren Isaac Asimov utformade sina Three Laws of Robotics tänkte han om androider. Han såg en värld där dessa mänskliga robotar skulle fungera som tjänare och skulle behöva en uppsättning programmeringsregler för att förhindra dem från att orsaka skada. Men på 75 år sedan publiceringen av den första berättelsen med hans etiska riktlinjer har det skett betydande tekniska framsteg. Vi har nu en helt annan uppfattning om hur robotar kan se ut och hur vi kommer att interagera med dem.
Det högt utvecklade området för robotik producerar ett stort utbud av enheter, från autonoma dammsugare till militära drönare. till hela fabriksproduktionslinjer. Samtidigt ligger artificiell intelligens och maskininlärning allt mer bakom mycket av programvaran som påverkar oss dagligen, oavsett om vi söker på internet eller tilldelas statliga tjänster. Denna utveckling leder snabbt till en tid då robotar av alla slag kommer att bli utbredda i nästan alla samhällsaspekter och interaktioner mellan människor och män kommer att öka betydligt.
Asimovs lagar nämns fortfarande som en mall för att styra våra utveckling av robotar. Den sydkoreanska regeringen föreslog till och med en robotetikstadga under 2007 som återspeglar lagarna. Men med tanke på hur mycket robotik som har förändrats och kommer att fortsätta växa i framtiden, måste vi fråga hur dessa regler kan uppdateras för en 21-talsversion av artificiell intelligens.
De tre lagarna
Asimovs föreslagna lagar utarbetades för att skydda människor från interaktioner med robotar. De är:
- En robot får inte skada en människa eller, genom passivitet, tillåta en människa att komma till skada
- En robot måste följa de order som den fått människor utom när sådana order skulle strida mot den första lagen
- En robot måste skydda sin egen existens så länge ett sådant skydd inte strider mot den första eller andra lagen
Som nämnts är en av de uppenbara frågorna att robotar idag verkar vara mycket mer varierade än i Asimovs berättelser, inklusive några som är mycket enklare. Så vi måste överväga om vi bör ha en tröskel för komplexitet under vilken reglerna kanske inte krävs. Det är svårt att tänka sig en robotdammsugare som kan skada människor eller till och med kräva förmåga att lyda order. Det är en robot med en enda uppgift som kan förutbestämas innan den slås på.
I andra änden av spektrumet är dock robotarna utformade för militära stridsmiljöer. Dessa enheter är konstruerade för spionering, bombdeponering eller lastbärande ändamål. Dessa verkar fortfarande stämma överens med Asimovs lagar, särskilt eftersom de skapas för att minska risken för människors liv i mycket farliga miljöer.
Men det är bara ett litet steg att anta att det ultimata militära målet skulle vara för att skapa beväpnade robotar som kan användas på slagfältet. I denna situation blir den första lagen – som inte skadar människor – enormt problematisk. Militärens roll är ofta att rädda soldater och civila liv men ofta genom att skada dess fiender på slagfältet. Så lagarna kan behöva ses från olika perspektiv eller tolkningar.
Lagarnas tvetydighet har lett till att författare, inklusive Asimov, har undersökt hur de kan tolkas felaktigt eller tillämpas felaktigt. En fråga är att de inte definierar vad en robot är. Eftersom forskning drar gränserna för teknik finns det nya grenar av robotik som tittar på mer molekylära enheter.
Till exempel kan ”robotar” tillverkade av DNA och proteiner användas i kirurgi för att korrigera genstörningar. I teorin bör dessa enheter verkligen följa Asimovs lagar. Men för att de ska kunna följa order via DNA-signaler måste de i huvudsak bli en integrerad del av människan de arbetade med. Denna integration skulle då göra det svårt att avgöra om roboten var tillräckligt oberoende att falla under lagarna eller verka utanför dem. Och på en praktisk nivå skulle det vara omöjligt för den att avgöra om några order som den fick skulle skada människan om de utförs.
Det finns också frågan av vad som räknas som att skada en människa. Detta kan vara ett problem när man tänker på utvecklingen av robotbebis i exempelvis Japan. Om en människa skulle anta en av dessa robotar kan det utan tvekan orsaka emotionell eller psykologisk skada. Men denna skada kanske inte har uppstått från robotens direkta handlingar eller har blivit uppenbar förrän många år efter att människan-robot-interaktionen har avslutats. Detta problem kan till och med gälla mycket enklare AI, såsom användning av maskininlärning för att skapa musik som väcker känslor.
Praktiska problem
Den andra stora frågan med lagarna är att vi skulle behöva en betydande framsteg inom AI för att robotar faktiskt skulle kunna följa dem. Målet med AI-forskning beskrivs ibland som att utveckla maskiner som kan tänka och agera rationellt och som en människa. Hittills har emulering av mänskligt beteende inte undersökts väl inom AI och utvecklingen av rationellt beteende har fokuserat på begränsade, väldefinierade områden.
Med detta i åtanke kunde en robot bara fungera inom en mycket begränsad sfär och all rationell tillämpning av lagarna skulle vara mycket begränsad. Även det kanske inte är möjligt med den nuvarande tekniken, eftersom ett system som kan resonera och fatta beslut baserade på lagarna skulle behöva betydande beräkningskraft. någon som vill skapa en robotkod idag. Vi måste följa dem med en mycket mer omfattande uppsättning lagar. Med detta sagt, utan betydande utveckling inom AI, kommer implementering av sådana lagar att vara en omöjlig uppgift. Och det är innan vi ens överväger potentialen för skada om människor börjar bli kär i robotar.