Etter 75 år trenger Isaac Asimov ' s Three Laws of Robotics oppdatering
Da science fiction-forfatter Isaac Asimov utviklet sine Three Laws of Robotics tenkte han om androider. Han så for seg en verden der disse menneskelignende robotene ville fungere som tjenere og ville trenge et sett med programmeringsregler for å forhindre at de forårsaket skade. Men i løpet av 75 år siden publiseringen av den første historien med hans etiske retningslinjer, har det vært betydelige teknologiske fremskritt. Vi har nå en veldig annen oppfatning av hvordan roboter kan se ut og hvordan vi vil samhandle med dem.
Det høyt utviklede feltet robotikk produserer et stort utvalg av enheter, fra autonome støvsugere til militære droner. til hele fabrikkens produksjonslinjer. Samtidig ligger kunstig intelligens og maskinlæring stadig mer bak mye av programvaren som daglig påvirker oss, enten vi søker på internett eller tildeles offentlige tjenester. Denne utviklingen fører raskt til en tid da roboter av alle slag vil bli utbredt i nesten alle aspekter av samfunnet, og samhandling mellom menneske og robot vil øke betydelig.
Asimovs lover er fremdeles nevnt som en mal for å lede vår utvikling av roboter. Den sørkoreanske regjeringen foreslo til og med et robotetikkcharter i 2007 som gjenspeiler lovene. Men gitt hvor mye robotikk har endret seg og vil fortsette å vokse i fremtiden, må vi spørre hvordan disse reglene kan oppdateres for en 21. århundre versjon av kunstig intelligens.
De tre lovene
Asimovs foreslåtte lover ble utviklet for å beskytte mennesker mot interaksjoner med roboter. De er:
- En robot kan ikke skade et menneske eller, ved passivitet, la et menneske komme til skade
- En robot må adlyde ordrene gitt av mennesker unntatt der slike ordrer ville være i konflikt med den første loven
- En robot må beskytte sin egen eksistens så lenge slik beskyttelse ikke er i konflikt med den første eller andre loven
Som nevnt er en av de åpenbare problemene at roboter i dag ser ut til å være langt mer varierte enn de i Asimovs historier, inkludert noen som er langt mer enkle. Så vi må vurdere om vi skal ha en terskel for kompleksitet under hvilke reglene kanskje ikke kreves. Det er vanskelig å tenke på en robotstøvsuger som kan skade mennesker eller til og med kreve evne til å adlyde ordrer. Det er en robot med en enkelt oppgave som kan forhåndsbestemmes før den slås på.
I den andre enden av spekteret er imidlertid robotene designet for militære kampmiljøer. Disse enhetene er designet for spionasje, bortskaffelse eller lastbærende formål. Disse ser fremdeles ut til å være i tråd med Asimovs lover, spesielt ettersom de blir opprettet for å redusere risikoen for menneskeliv i svært farlige miljøer.
Men det er bare et lite skritt å anta at det endelige militære målet vil være å lage væpnede roboter som kan distribueres på slagmarken. I denne situasjonen blir den første loven – ikke å skade mennesker – enormt problematisk. Militærens rolle er ofte å redde livene til soldater og sivile, men ofte ved å skade fiendene på slagmarken. Så det kan hende at lovene må vurderes fra forskjellige perspektiver eller tolkninger.
Lovenes tvetydighet har ført til at forfattere, inkludert Asimov, har undersøkt hvordan de kan tolkes feil eller brukes feil. Et problem er at de faktisk ikke definerer hva en robot er. Etter hvert som forskning presser grensene for teknologi, er det nye grener av robotikk som ser på mer molekylære enheter.
For eksempel kan «roboter» laget av DNA og proteiner brukes i kirurgi for å korrigere genforstyrrelser. , disse enhetene skulle virkelig følge Asimovs lover. Men for at de skulle følge ordrer via DNA-signaler, måtte de egentlig bli en integrert del av mennesket de jobbet med. Denne integrasjonen ville da gjøre det vanskelig å avgjøre om roboten var uavhengig nok å falle under lovene eller operere utenfor dem. Og på et praktisk nivå ville det være umulig for den å avgjøre om noen ordrer den mottok ville skade menneskene hvis de ble utført.
Det er også spørsmålet av det som teller som å skade et menneske. Dette kan være et problem når man for eksempel vurderer utviklingen av robotbabyer i Japan. Hvis et menneske skulle adoptere en av disse robotene, kan det uten tvil forårsake emosjonell eller psykologisk skade. Men denne skaden kan ikke ha oppstått fra robotens direkte handlinger eller blitt tydelig før mange år etter at menneske-robot-interaksjonen er avsluttet. Dette problemet kan til og med gjelde mye enklere AI, for eksempel bruk av maskinlæring for å skape musikk som vekker følelser.
Praktiske problemer
Det andre store problemet med lovene er at vi trenger en betydelig fremgang innen AI for at roboter faktisk skal kunne følge dem. Målet med AI-forskning blir noen ganger beskrevet som å utvikle maskiner som kan tenke og handle rasjonelt og som et menneske. Så langt har emulering av menneskelig atferd ikke blitt godt undersøkt innen AI, og utviklingen av rasjonell atferd har fokusert på begrensede, veldefinerte områder.
Med dette i tankene kunne en robot bare operere innenfor en veldig begrenset sfære og enhver rasjonell anvendelse av lovene ville være svært begrenset. Selv om det ikke er mulig med dagens teknologi, da et system som kan resonnere og ta beslutninger basert på lovene, vil trenge betydelig beregningskraft.
Gitt alle disse problemene, tilbyr Asimovs lover lite mer enn grunnleggende prinsipper for noen som ønsker å lage en robotkode i dag. Vi må følge dem med et mye mer omfattende sett med lover. Når det er sagt, uten betydelig utvikling innen AI, vil implementering av slike lover forbli en umulig oppgave. Og det er før vi til og med vurderer potensialet for skade hvis mennesker begynner å bli forelsket i roboter.