Después de 75 años, Isaac Asimov ' s Three Laws of Robotics necesita una actualización

Cuando el autor de ciencia ficción Isaac Asimov ideó sus Three Laws of Robotics, estaba pensando sobre los androides. Imaginó un mundo en el que estos robots con apariencia de humanos actuarían como sirvientes y necesitarían un conjunto de reglas de programación para evitar que causaran daños. Pero en los 75 años transcurridos desde la publicación de la primera historia que presenta sus pautas éticas, ha habido avances tecnológicos significativos. Ahora tenemos una concepción muy diferente de cómo pueden verse los robots y cómo interactuaremos con ellos.

El campo altamente evolucionado de la robótica está produciendo una amplia gama de dispositivos, desde aspiradoras autónomas hasta drones militares. a toda la línea de producción de la fábrica. Al mismo tiempo, la inteligencia artificial y el aprendizaje automático están cada vez más detrás de gran parte del software que nos afecta a diario, ya sea que estemos buscando en Internet o que se nos asignen servicios gubernamentales. Estos desarrollos están conduciendo rápidamente a un momento en que los robots de todo tipo prevalecerán en casi todos los aspectos de la sociedad, y las interacciones entre humanos y robots aumentarán significativamente.

Las leyes de Asimov todavía se mencionan como un modelo para guiar a nuestros desarrollo de robots. El gobierno de Corea del Sur incluso propuso una Carta de Ética de Robots en 2007 que refleja las leyes. Pero dado cuánto ha cambiado la robótica y seguirá creciendo en el futuro, debemos preguntarnos cómo se podrían actualizar estas reglas para una versión de inteligencia artificial del siglo XXI.

Las tres leyes

Las leyes sugeridas por Asimov fueron diseñadas para proteger a los humanos de las interacciones con los robots. Son:

  • Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño
  • Un robot debe obedecer las órdenes que le den. seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley
  • Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley

Como se mencionó, uno de los problemas obvios es que los robots de hoy parecen ser mucho más variados que los de las historias de Asimov, incluidos algunos que son mucho más simples. Por lo tanto, debemos considerar si deberíamos tener un umbral de complejidad por debajo del cual las reglas podrían no ser necesarias. Es difícil concebir una aspiradora robótica que tenga la capacidad de dañar a los humanos o incluso que requiera la capacidad de obedecer órdenes. Es un robot con una sola tarea que puede predeterminarse antes de ser encendido.

En el otro extremo del espectro, sin embargo, están los robots diseñados para entornos de combate militar. Estos dispositivos están diseñados para espiar, eliminar bombas o transportar cargas. Estos aún parecerían alinearse con las leyes de Asimov, particularmente porque se están creando para reducir el riesgo de vidas humanas en entornos altamente peligrosos.

Pero es solo un pequeño paso para asumir que el objetivo militar final sería para crear robots armados que pudieran desplegarse en el campo de batalla. En esta situación, la Primera Ley, no dañar a los humanos, se vuelve enormemente problemática. El papel de las fuerzas armadas suele ser salvar la vida de soldados y civiles, pero a menudo daña a sus enemigos en el campo de batalla. Por lo tanto, es posible que las leyes deban considerarse desde diferentes perspectivas o interpretaciones.

La ambigüedad de las leyes ha llevado a los autores, incluido Asimov, a explorar cómo podrían malinterpretarse o aplicarse incorrectamente. Un problema es que en realidad no definen qué es un robot. A medida que la investigación traspasa los límites de la tecnología, están surgiendo ramas de la robótica que buscan dispositivos más moleculares.

Por ejemplo, los «robots» hechos de ADN y proteínas podrían usarse en cirugía para corregir trastornos genéticos. En teoría , estos dispositivos realmente deberían seguir las leyes de Asimov. Pero para que sigan órdenes a través de señales de ADN, esencialmente tendrían que convertirse en una parte integral del ser humano en el que estaban trabajando. Esta integración dificultaría entonces determinar si el robot era lo suficientemente independiente caer bajo las leyes u operar fuera de ellas. Y en un nivel práctico, sería imposible para él determinar si las órdenes que recibiera causarían daño al ser humano si se llevaran a cabo.

También está la pregunta de lo que se considera dañar a un ser humano. Esto podría ser un problema al considerar el desarrollo de bebés robot en Japón, por ejemplo. Si un humano adoptara uno de estos robots, podría decirse que podría causar daño emocional o psicológico. Pero Es posible que este daño no se haya producido por las acciones directas del robot o no se haya hecho evidente hasta muchos años después de que finalice la interacción humano-robot. Este problema podría aplicarse incluso a una IA mucho más simple, como el uso del aprendizaje automático para crear música que provoque emociones.

Problemas prácticos

El otro gran problema con las leyes es que necesitaríamos un avance significativo en IA para que los robots realmente puedan seguirlas. El objetivo de la investigación de la IA a veces se describe como el desarrollo de máquinas que pueden pensar y actuar racionalmente y como un ser humano. Hasta ahora, emular el comportamiento humano no se ha investigado bien en el campo de la IA y el desarrollo del comportamiento racional se ha centrado en áreas limitadas y bien definidas.

Con esto en mente, un robot solo podría operar dentro de un esfera muy limitada y cualquier aplicación racional de las leyes estaría muy restringida. Incluso eso podría no ser posible con la tecnología actual, ya que un sistema que pudiera razonar y tomar decisiones basadas en las leyes necesitaría un poder computacional considerable.

Dados todos estos problemas, las leyes de Asimov ofrecen poco más que principios fundamentales para alguien que quiera crear un código robótico hoy. Necesitamos seguirlos con un conjunto de leyes mucho más completo. Dicho esto, sin avances significativos en IA, implementar tales leyes seguirá siendo una tarea imposible. Y eso es antes de que siquiera consideremos el potencial de daño si los humanos comienzan a enamorarse de los robots.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *