Dopo 75 anni, Isaac Asimov ' le tre leggi della robotica devono essere aggiornate
Quando lautore di fantascienza Isaac Asimov ha ideato le sue tre leggi della robotica, stava pensando sugli androidi. Ha immaginato un mondo in cui questi robot simili a umani avrebbero agito come servi e avrebbero avuto bisogno di una serie di regole di programmazione per evitare che causassero danni. Ma nei 75 anni trascorsi dalla pubblicazione della prima storia contenente le sue linee guida etiche, ci sono stati significativi progressi tecnologici. Ora abbiamo una concezione molto diversa di come possono apparire i robot e di come interagiremo con loro.
Il campo altamente evoluto della robotica sta producendo una vasta gamma di dispositivi, dagli aspirapolvere autonomi ai droni militari a intere linee di produzione della fabbrica. Allo stesso tempo, lintelligenza artificiale e lapprendimento automatico sono sempre più alla base di gran parte del software che ci riguarda quotidianamente, sia che stiamo cercando in Internet o che ci vengano assegnati servizi governativi. Questi sviluppi stanno rapidamente portando a un momento in cui i robot di ogni tipo diventeranno prevalenti in quasi tutti gli aspetti della società e le interazioni uomo-robot aumenteranno in modo significativo.
Le leggi di Asimov sono ancora menzionate come modello per guidare il nostro sviluppo di robot. Il governo sudcoreano ha persino proposto una Carta etica sui robot nel 2007 che riflette le leggi. Ma dato quanto la robotica è cambiata e continuerà a crescere in futuro, dobbiamo chiederci come queste regole potrebbero essere aggiornate per una versione del 21 ° secolo dellintelligenza artificiale.
Le tre leggi
e leggi suggerite da Asimov sono state ideate per proteggere gli esseri umani dalle interazioni con i robot. Essi sono:
- Un robot non può ferire un essere umano o, per inerzia, permettere a un essere umano di venire a nuocere
- Un robot deve obbedire agli ordini impartitigli da esseri umani eccetto dove tali ordini siano in conflitto con la Prima Legge
- Un robot deve proteggere la propria esistenza fintanto che tale protezione non è in conflitto con la Prima o la Seconda Legge
Come accennato, uno dei problemi ovvi è che i robot oggi sembrano essere molto più vari rispetto a quelli nelle storie di Asimov, inclusi alcuni che sono molto più semplici. Quindi dobbiamo considerare se dovremmo avere una soglia di complessità al di sotto della quale le regole potrebbero non essere richieste. È difficile concepire un aspirapolvere robotico che abbia la capacità di danneggiare gli esseri umani o addirittura di richiedere la capacità di obbedire agli ordini. È un robot con un unico compito che può essere predeterminato prima che venga acceso.
Allaltra estremità dello spettro, tuttavia, ci sono i robot progettati per ambienti di combattimento militari. Questi dispositivi sono progettati per scopi di spionaggio, smaltimento di bombe o trasporto di carichi. Questi sembrerebbero comunque in linea con le leggi di Asimov, in particolare perché sono stati creati per ridurre il rischio di vite umane in ambienti altamente pericolosi.
Ma è solo un piccolo passo per presumere che lobiettivo militare finale sarebbe per creare robot armati che potrebbero essere schierati sul campo di battaglia. In questa situazione, la Prima Legge – non danneggiare gli esseri umani – diventa estremamente problematica. Il ruolo dei militari è spesso quello di salvare la vita di soldati e civili, ma spesso danneggiando i suoi nemici sul campo di battaglia. Quindi le leggi potrebbero dover essere considerate da diverse prospettive o interpretazioni.
Lambiguità delle leggi ha portato gli autori, incluso Asimov, a esplorare come potrebbero essere interpretate male o applicate in modo errato. Un problema è che non definiscono effettivamente cosa sia un robot. Mentre la ricerca spinge i confini della tecnologia, stanno emergendo rami della robotica che esaminano più dispositivi molecolari.
Ad esempio, “robot” realizzati con DNA e proteine potrebbero essere utilizzati in chirurgia per correggere i disturbi genetici. In teoria. , questi dispositivi dovrebbero davvero seguire le leggi di Asimov. Ma per eseguire gli ordini tramite segnali del DNA, dovrebbero essenzialmente diventare parte integrante dellessere umano su cui stavano lavorando. Questa integrazione renderebbe quindi difficile determinare se il robot fosse abbastanza indipendente di cadere sotto le leggi o di operare al di fuori di esse. E a livello pratico sarebbe impossibile per essa determinare se gli ordini ricevuti causerebbero danni allessere umano se eseguiti.
Cè anche la domanda di ciò che conta come danneggiare un essere umano. Questo potrebbe essere un problema quando si considera lo sviluppo dei bambini robot in Giappone, ad esempio. Se un essere umano adottasse uno di questi robot potrebbe probabilmente causare danni emotivi o psicologici. Ma questo danno potrebbe non essere derivato dalle azioni dirette del robot o diventare evidente fino a molti anni dopo la fine dellinterazione uomo-robot. Questo problema potrebbe applicarsi anche a unIA molto più semplice, come luso dellapprendimento automatico per creare musica che suscita emozioni.
Problemi pratici
Laltro grosso problema con le leggi è che avremmo bisogno di un progresso significativo nellIA affinché i robot siano effettivamente in grado di seguirle. Lobiettivo della ricerca sullIA è talvolta descritto come lo sviluppo di macchine in grado di pensare e agire razionalmente e come un essere umano. Finora, lemulazione del comportamento umano non è stata ben studiata nel campo dellIA e lo sviluppo del comportamento razionale si è concentrato su aree limitate e ben definite.
Con questo in mente, un robot può operare solo allinterno di un sfera molto limitata e qualsiasi applicazione razionale delle leggi sarebbe molto ristretta. Anche questo potrebbe non essere possibile con la tecnologia attuale, poiché un sistema in grado di ragionare e prendere decisioni in base alle leggi richiederebbe una notevole potenza di calcolo.
Dati tutti questi problemi, le leggi di Asimov offrono poco più che principi fondanti per qualcuno che vuole creare un codice robotico oggi. Dobbiamo seguirli con un insieme di leggi molto più completo. Detto questo, senza sviluppi significativi nellIA, lattuazione di tali leggi rimarrà un compito impossibile. E questo prima ancora di considerare il potenziale di ferimento se gli esseri umani iniziassero a innamorarsi dei robot.