Após 75 anos, Isaac Asimov ' s As Três Leis da Robótica precisam de atualização

Quando o autor de ficção científica Isaac Asimov criou suas Três Leis da Robótica, ele estava pensando sobre andróides. Ele imaginou um mundo onde esses robôs parecidos com humanos agiriam como servos e precisariam de um conjunto de regras de programação para evitar que causassem danos. Mas, nos 75 anos desde a publicação da primeira história a apresentar suas diretrizes éticas, houve avanços tecnológicos significativos. Agora temos uma concepção muito diferente de como os robôs podem ser e como vamos interagir com eles.

O campo altamente evoluído da robótica está produzindo uma grande variedade de dispositivos, de aspiradores autônomos a drones militares para linhas de produção de toda a fábrica. Ao mesmo tempo, a inteligência artificial e o aprendizado de máquina estão cada vez mais por trás de grande parte do software que nos afeta diariamente, quer estejamos pesquisando na Internet ou sendo alocados em serviços governamentais. Esses desenvolvimentos estão levando rapidamente a um momento em que robôs de todos os tipos se tornarão predominantes em quase todos os aspectos da sociedade, e as interações entre humanos e robôs aumentarão significativamente.

As leis de Asimov ainda são mencionadas como um modelo para orientar nossa desenvolvimento de robôs. O governo sul-coreano até propôs uma Carta de Ética em Robôs em 2007 refletindo as leis. Mas dado o quanto a robótica mudou e continuará a crescer no futuro, precisamos nos perguntar como essas regras poderiam ser atualizadas para uma versão de inteligência artificial do século 21.

As Três Leis

s leis sugeridas por Asimov foram elaboradas para proteger os humanos de interações com robôs. São eles:

  • Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano seja ferido
  • Um robô deve obedecer às ordens dadas por seres humanos, exceto onde tais ordens entrem em conflito com a Primeira Lei
  • Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Lei

Como mencionado, um dos problemas óbvios é que os robôs hoje parecem ser muito mais variados do que os das histórias de Asimov, incluindo alguns que são muito mais simples. Portanto, precisamos considerar se devemos ter um limite de complexidade abaixo do qual as regras podem não ser exigidas. É difícil conceber um aspirador de pó robótico com a capacidade de prejudicar humanos ou mesmo exigir a capacidade de obedecer a ordens. É um robô com uma única tarefa que pode ser predeterminada antes de ser ligado.

No outro extremo do espectro, entretanto, estão os robôs projetados para ambientes de combate militar. Esses dispositivos estão sendo projetados para fins de espionagem, eliminação de bombas ou transporte de carga. Eles ainda parecem se alinhar com as leis de Asimov, particularmente porque estão sendo criados para reduzir o risco de vidas humanas em ambientes altamente perigosos.

Mas é apenas um pequeno passo assumir que o objetivo militar final seria para criar robôs armados que possam ser implantados no campo de batalha. Nessa situação, a Primeira Lei – não prejudicar os humanos – torna-se extremamente problemática. O papel dos militares geralmente é salvar a vida de soldados e civis, mas frequentemente prejudicando seus inimigos no campo de batalha. Portanto, as leis podem precisar ser consideradas de diferentes perspectivas ou interpretações.

A ambigüidade das leis levou os autores, incluindo Asimov, a explorar como elas poderiam ser mal interpretadas ou aplicadas incorretamente. Um problema é que eles não definem o que é um robô. Conforme a pesquisa expande os limites da tecnologia, existem ramos emergentes da robótica que buscam mais dispositivos moleculares.

Por exemplo, “robôs” feitos de DNA e proteínas poderiam ser usados em cirurgia para corrigir distúrbios genéticos. Em teoria , esses dispositivos deveriam realmente seguir as leis de Asimov. Mas para que eles sigam as ordens por meio de sinais de DNA, eles teriam que se tornar parte integrante do ser humano em que estavam trabalhando. Essa integração dificultaria determinar se o robô era independente o suficiente cair sob as leis ou operar fora delas. E em um nível prático, seria impossível para ele determinar se quaisquer ordens que recebesse causariam danos ao ser humano se cumpridas.

Há também a questão do que pode ser considerado prejudicial a um ser humano. Isso pode ser um problema quando se considera o desenvolvimento de bebês robôs no Japão, por exemplo. Se um humano adotar um desses robôs, pode-se indiscutivelmente causar danos emocionais ou psicológicos. esse dano pode não ter surgido das ações diretas do robô ou se tornar aparente até muitos anos após o término da interação homem-robô. Esse problema pode até mesmo se aplicar a IA muito mais simples, como o uso de aprendizado de máquina para criar música que elicia emoções.

Problemas práticos

O outro grande problema com as leis é que precisaríamos de um avanço significativo na IA para que os robôs pudessem realmente segui-las. O objetivo da pesquisa em IA às vezes é descrito como o desenvolvimento de máquinas que podem pensar e agir racionalmente e como um ser humano. Até agora, a emulação do comportamento humano não foi bem pesquisada no campo da IA e o desenvolvimento do comportamento racional se concentrou em áreas limitadas e bem definidas.

Com isso em mente, um robô só poderia operar dentro de um esfera muito limitada e qualquer aplicação racional das leis seria altamente restrita. Mesmo isso pode não ser possível com a tecnologia atual, pois um sistema que poderia raciocinar e tomar decisões com base nas leis precisaria de um poder computacional considerável.

Dadas todas essas questões, as leis de Asimov oferecem pouco mais do que princípios básicos alguém que deseja criar um código robótico hoje. Precisamos segui-los com um conjunto de leis muito mais abrangente. Dito isso, sem desenvolvimentos significativos em IA, a implementação de tais leis continuará sendo uma tarefa impossível. E isso antes mesmo de considerarmos o potencial de ferimento caso os humanos comecem a se apaixonar por robôs.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *