Efter 75 år har Isaac Asimov ' s Three Laws of Robotics behov for opdatering
Da science fiction-forfatter Isaac Asimov udtænkte sine Three Laws of Robotics tænkte han om androider. Han forestillede sig en verden, hvor disse menneskelignende robotter ville fungere som tjenere og ville have brug for et sæt programmeringsregler for at forhindre dem i at forårsage skade. Men i de 75 år siden offentliggørelsen af den første historie, der indeholdt hans etiske retningslinjer, har der været betydelige teknologiske fremskridt. Vi har nu en helt anden opfattelse af, hvordan robotter kan se ud, og hvordan vi vil interagere med dem.
Det højtudviklede felt inden for robotik producerer et stort udvalg af enheder, lige fra autonome støvsugere til militære droner. til hele fabriksproduktionslinjer. Samtidig ligger kunstig intelligens og maskinindlæring i stigende grad bag meget af den software, der påvirker os dagligt, uanset om vi søger på internettet eller får tildelt offentlige tjenester. Denne udvikling fører hurtigt til en tid, hvor robotter af enhver art vil blive fremherskende i næsten alle samfundets aspekter, og interaktion mellem menneske og robot vil stige betydeligt.
Asimovs love nævnes stadig som en skabelon til at styre vores udvikling af robotter. Den sydkoreanske regering foreslog endda et robotetikcharter i 2007, der afspejler lovene. Men i betragtning af hvor meget robotik har ændret sig og vil fortsætte med at vokse i fremtiden, er vi nødt til at spørge, hvordan disse regler kan opdateres til en 21. århundredes version af kunstig intelligens.
De tre love
Asimovs foreslåede love blev udtænkt for at beskytte mennesker mod interaktioner med robotter. De er:
- En robot må ikke skade et menneske eller gennem passivitet tillade et menneske at komme til skade
- En robot skal adlyde de ordrer, den har fået af mennesker, medmindre sådanne ordrer ville være i konflikt med den første lov
- En robot skal beskytte sin egen eksistens, så længe en sådan beskyttelse ikke er i konflikt med den første eller anden lov
Som nævnt er et af de åbenlyse problemer, at robotter i dag ser ud til at være langt mere varierede end dem i Asimovs historier, herunder nogle, der er langt mere enkle. Så vi er nødt til at overveje, om vi skal have en tærskel for kompleksitet, under hvilken reglerne muligvis ikke kræves. Det er vanskeligt at opfatte en robotstøvsuger, der har evnen til at skade mennesker eller endda kræve en evne til at adlyde ordrer. Det er en robot med en enkelt opgave, der kan forudbestemmes, inden den tændes.
I den anden ende af spektret er imidlertid robotterne designet til militære kampmiljøer. Disse enheder er designet til spionering, bortskaffelse af bomber eller lastbærende formål. Disse ser stadig ud til at stemme overens med Asimovs love, især da de oprettes for at mindske risikoen for menneskeliv i meget farlige miljøer.
Men det er kun et lille skridt at antage, at det ultimative militære mål ville være at skabe væbnede robotter, der kunne blive indsat på slagmarken. I denne situation bliver den første lov – ikke at skade mennesker – enormt problematisk. Militærets rolle er ofte at redde liv for soldater og civile, men ofte ved at skade dets fjender på slagmarken. Så det kan være nødvendigt at betragte lovene ud fra forskellige perspektiver eller fortolkninger.
Lovens tvetydighed har fået forfattere, herunder Asimov, til at undersøge, hvordan de kunne fortolkes eller anvendes forkert. Et problem er, at de faktisk ikke definerer, hvad en robot er. Da forskning skubber teknologiens grænser, er der nye grene af robotteknologi, der ser på mere molekylære enheder.
For eksempel kunne “robotter” fremstillet af DNA og proteiner bruges i kirurgi for at rette genforstyrrelser. I teorien skulle disse enheder virkelig følge Asimovs love. Men for at de kunne følge ordrer via DNA-signaler, skulle de i det væsentlige blive en integreret del af det menneske, de arbejdede på. Denne integration ville derefter gøre det vanskeligt at afgøre, om robotten var uafhængig nok at falde ind under lovene eller operere uden for dem. Og på et praktisk niveau ville det være umuligt for det at afgøre, om ordrer, det modtog, ville skade mennesket, hvis det blev udført.
Der er også spørgsmålet af hvad der tæller som at skade et menneske. Dette kan være et problem, når man f.eks. overvejer udviklingen af robotbabyer i Japan. Hvis et menneske skulle adoptere en af disse robotter, kan det uden tvivl forårsage følelsesmæssig eller psykologisk skade. denne skade er muligvis ikke kommet fra robotens direkte handlinger eller er synlig før mange år efter, at interaktionen mellem menneske og robot er afsluttet. Dette problem kunne endda gælde for meget enklere AI, såsom brugen af maskinlæring til at skabe musik, der fremkalder følelser.
Praktiske problemer
Det andet store problem med lovene er, at vi har brug for en betydelig fremgang inden for AI for, at robotter rent faktisk kan følge dem. Målet med AI-forskning beskrives undertiden som at udvikle maskiner, der kan tænke og handle rationelt og som et menneske. Indtil videre er efterligning af menneskelig adfærd ikke blevet godt undersøgt inden for AI, og udviklingen af rationel adfærd har fokuseret på begrænsede, veldefinerede områder.
Med dette i tankerne kunne en robot kun fungere inden for en meget begrænset sfære og enhver rationel anvendelse af lovene ville være meget begrænset. Selv det er muligvis ikke muligt med den nuværende teknologi, da et system, der kunne ræsonnere og træffe beslutninger baseret på lovene, ville have brug for betydelig beregningskraft.
I betragtning af alle disse spørgsmål tilbyder Asimovs love lidt mere end grundlæggende principper for nogen, der ønsker at oprette en robotkode i dag. Vi er nødt til at følge dem med et meget mere omfattende sæt love. Når det er sagt, uden væsentlig udvikling inden for AI, vil implementering af sådanne love forblive en umulig opgave. Og det er før vi overhovedet overvejer potentialet for ondt, hvis mennesker begynder at blive forelsket i robotter.