Après 75 ans, Isaac Asimov ' Les trois lois de la robotique doivent être mises à jour
Lorsque lauteur de science-fiction Isaac Asimov a conçu ses trois lois de la robotique, il pensait sur les androïdes. Il envisageait un monde où ces robots ressemblant à des humains agiraient comme des serviteurs et auraient besoin dun ensemble de règles de programmation pour les empêcher de causer des dommages. Mais au cours des 75 années écoulées depuis la publication de la première histoire à présenter ses directives éthiques, il y a eu des progrès technologiques significatifs. Nous avons maintenant une conception très différente de ce à quoi peuvent ressembler les robots et de la manière dont nous allons interagir avec eux.
Le domaine très évolué de la robotique produit une vaste gamme dappareils, des aspirateurs autonomes aux drones militaires à des lignes de production dusine entières. Dans le même temps, lintelligence artificielle et lapprentissage automatique sont de plus en plus à lorigine de la plupart des logiciels qui nous affectent au quotidien, que nous recherchions sur Internet ou que nous recevions des services gouvernementaux. Ces développements conduisent rapidement à une époque où les robots de toutes sortes deviendront répandus dans presque tous les aspects de la société, et les interactions homme-robot augmenteront considérablement.
Les lois dAsimov sont toujours mentionnées comme un modèle pour guider notre développement de robots. Le gouvernement sud-coréen a même proposé une charte déthique des robots en 2007 reflétant les lois. Mais étant donné à quel point la robotique a changé et continuera de se développer à lavenir, nous devons nous demander comment ces règles pourraient être mises à jour pour une version du 21e siècle de lintelligence artificielle.
Les trois lois
Les lois suggérées par Asimov ont été conçues pour protéger les humains des interactions avec les robots. Ce sont:
- Un robot ne peut pas blesser un être humain ou, par inaction, permettre à un être humain de se faire du mal
- Un robot doit obéir aux ordres qui lui sont donnés par les êtres humains, sauf lorsque de tels ordres entreraient en conflit avec la première loi
- Un robot doit protéger sa propre existence tant qu’une telle protection n’est pas en conflit avec la première ou la deuxième loi
Comme mentionné, lun des problèmes évidents est que les robots semblent aujourdhui beaucoup plus variés que ceux des histoires dAsimov, y compris certains qui sont beaucoup plus simples. Nous devons donc nous demander si nous devrions avoir un seuil de complexité en dessous duquel les règles pourraient ne pas être requises. Il est difficile de concevoir un robot aspirateur ayant la capacité de nuire à lhomme ou même nécessitant une capacité dobéir aux ordres. Cest un robot avec une seule tâche qui peut être prédéterminée avant dêtre allumé.
À lautre extrémité du spectre, cependant, se trouvent les robots conçus pour les environnements de combat militaire. Ces dispositifs sont conçus à des fins despionnage, délimination des bombes ou de transport de charges. Celles-ci semblent toujours saligner sur les lois dAsimov, dautant plus quelles sont créées pour réduire les risques pour les vies humaines dans des environnements très dangereux.
Mais ce nest quun petit pas pour supposer que le but militaire ultime serait pour créer des robots armés qui pourraient être déployés sur le champ de bataille. Dans cette situation, la première loi – ne pas nuire aux humains – devient extrêmement problématique. Le rôle de larmée est souvent de sauver la vie de soldats et de civils, mais souvent en faisant du mal à ses ennemis sur le champ de bataille. Il se peut donc que les lois doivent être considérées sous différents angles ou interprétations.
L’ambiguïté des lois a conduit les auteurs, y compris Asimov, à explorer comment elles pourraient être mal interprétées ou mal appliquées. Lun des problèmes est quils ne définissent pas réellement ce quest un robot. Alors que la recherche repousse les limites de la technologie, il existe des branches émergentes de la robotique qui étudient davantage de dispositifs moléculaires.
Par exemple, des «robots» fabriqués à partir dADN et de protéines pourraient être utilisés en chirurgie pour corriger des troubles géniques. En théorie , ces appareils devraient vraiment suivre les lois dAsimov. Mais pour quils suivent les ordres via des signaux ADN, ils devraient essentiellement devenir une partie intégrante de lhumain sur lequel ils travaillaient. Cette intégration rendrait alors difficile de déterminer si le robot était suffisamment indépendant tomber sous le coup des lois ou opérer en dehors de celles-ci. Et sur le plan pratique, il lui serait impossible de déterminer si des ordres reçus causeraient un préjudice à lhumain sils étaient exécutés.
Il y a aussi la question de ce qui compte comme nuire à un être humain. Cela pourrait poser un problème lors de lexamen du développement de bébés robots au Japon, par exemple. Si un humain adoptait lun de ces robots, cela pourrait sans doute causer des dommages émotionnels ou psychologiques. Mais ce dommage peut ne pas provenir des actions directes du robot ou devenir apparent jusquà plusieurs années après la fin de linteraction homme-robot. Ce problème pourrait même sappliquer à une IA beaucoup plus simple, comme lutilisation de lapprentissage automatique pour créer une musique qui suscite des émotions.
Problèmes pratiques
Lautre gros problème avec les lois est que nous aurions besoin dun progrès significatif dans lIA pour que les robots puissent réellement les suivre. Lobjectif de la recherche sur lIA est parfois décrit comme le développement de machines capables de penser et dagir de manière rationnelle et comme un humain. Jusquà présent, lémulation du comportement humain na pas fait lobjet de recherches approfondies dans le domaine de lIA et le développement du comportement rationnel sest concentré sur des domaines limités et bien définis.
Dans cet esprit, un robot ne pouvait fonctionner que dans un domaine très limité et toute application rationnelle des lois serait très restreinte. Même cela pourrait ne pas être possible avec la technologie actuelle, car un système capable de raisonner et de prendre des décisions basées sur les lois aurait besoin dune puissance de calcul considérable.
Compte tenu de tous ces problèmes, les lois dAsimov noffrent guère plus que des principes fondateurs pour quelquun qui souhaite créer un code robotique aujourdhui. Nous devons les suivre avec un ensemble de lois beaucoup plus complet. Cela dit, sans développements significatifs en matière dIA, la mise en œuvre de telles lois restera une tâche impossible. Et cest avant même de considérer le potentiel de blessure si les humains commençaient à tomber amoureux des robots.