Nach 75 Jahren müssen die drei Gesetze der Robotik von Isaac Asimov ' aktualisiert werden
Als der Science-Fiction-Autor Isaac Asimov seine drei Gesetze der Robotik entwickelte, dachte er über Androiden. Er stellte sich eine Welt vor, in der diese menschenähnlichen Roboter wie Diener agieren und eine Reihe von Programmierregeln benötigen würden, um zu verhindern, dass sie Schaden anrichten. In den 75 Jahren seit der Veröffentlichung der ersten Geschichte mit seinen ethischen Richtlinien wurden jedoch erhebliche technologische Fortschritte erzielt. Wir haben jetzt eine ganz andere Vorstellung davon, wie Roboter aussehen können und wie wir mit ihnen interagieren werden.
Das hochentwickelte Gebiet der Robotik produziert eine Vielzahl von Geräten, von autonomen Staubsaugern bis hin zu Militärdrohnen zu ganzen Fabrikproduktionslinien. Gleichzeitig stehen künstliche Intelligenz und maschinelles Lernen zunehmend hinter einem Großteil der Software, die uns täglich betrifft, unabhängig davon, ob wir im Internet suchen oder staatliche Dienste erhalten. Diese Entwicklungen führen schnell zu einer Zeit, in der Roboter aller Art in fast allen Bereichen der Gesellschaft vorherrschen und die Interaktionen zwischen Mensch und Roboter erheblich zunehmen werden.
Asimovs Gesetze werden immer noch als Vorlage für unsere Richtlinien genannt Entwicklung von Robotern. Die südkoreanische Regierung schlug 2007 sogar eine Roboterethik-Charta vor, die die Gesetze widerspiegelt. Angesichts der Tatsache, wie sehr sich die Robotik verändert hat und in Zukunft weiter wachsen wird, müssen wir uns fragen, wie diese Regeln für eine Version der künstlichen Intelligenz des 21. Jahrhunderts aktualisiert werden könnten.
Die drei Gesetze
simovs vorgeschlagene Gesetze wurden entwickelt, um Menschen vor Interaktionen mit Robotern zu schützen. Dies sind:
- Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch Schaden nimmt.
- Ein Roboter muss die Anweisungen von befolgen Menschen, es sei denn, solche Befehle würden mit dem Ersten Gesetz in Konflikt stehen.
- Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht mit dem Ersten oder Zweiten Gesetz in Konflikt steht.
Wie bereits erwähnt, ist eines der offensichtlichen Probleme, dass Roboter heutzutage weitaus vielfältiger zu sein scheinen als in Asimovs Geschichten, einschließlich einiger, die weitaus einfacher sind. Wir müssen uns also überlegen, ob wir eine Komplexitätsschwelle haben sollten, unterhalb derer die Regeln möglicherweise nicht erforderlich sind. Es ist schwierig, sich einen Roboterstaubsauger vorzustellen, der Menschen schädigen kann oder sogar die Fähigkeit erfordert, Befehlen Folge zu leisten. Es ist ein Roboter mit einer einzelnen Aufgabe, die vor dem Einschalten vorbestimmt werden kann.
Am anderen Ende des Spektrums befinden sich jedoch die Roboter, die für militärische Kampfumgebungen ausgelegt sind. Diese Geräte sind für Spionage-, Bombenentsorgungs- oder Tragzwecke konzipiert. Diese scheinen immer noch mit Asimovs Gesetzen in Einklang zu stehen, insbesondere da sie geschaffen werden, um das Risiko für Menschenleben in hochgefährlichen Umgebungen zu verringern.
Es ist jedoch nur ein kleiner Schritt anzunehmen, dass das ultimative militärische Ziel darin besteht bewaffnete Roboter zu schaffen, die auf dem Schlachtfeld eingesetzt werden könnten. In dieser Situation wird das Erste Gesetz – das den Menschen nicht schadet – äußerst problematisch. Die Rolle des Militärs besteht oft darin, das Leben von Soldaten und Zivilisten zu retten, aber oft, indem es seinen Feinden auf dem Schlachtfeld Schaden zufügt. Daher müssen die Gesetze möglicherweise aus unterschiedlichen Perspektiven oder Interpretationen betrachtet werden.
Die Mehrdeutigkeit der Gesetze hat Autoren, einschließlich Asimov, dazu veranlasst, zu untersuchen, wie sie falsch interpretiert oder falsch angewendet werden können. Ein Problem ist, dass sie nicht definieren, was ein Roboter ist. Da die Forschung die Grenzen der Technologie überschreitet, gibt es aufstrebende Zweige der Robotik, die sich mit molekulareren Geräten befassen.
Beispielsweise könnten „Roboter“ aus DNA und Proteinen in der Chirurgie zur Korrektur von Genstörungen eingesetzt werden. Theoretisch Diese Geräte sollten wirklich den Gesetzen von Asimov folgen. Damit sie jedoch Befehle über DNA-Signale befolgen können, müssen sie im Wesentlichen ein integraler Bestandteil des Menschen werden, an dem sie arbeiten. Diese Integration würde es dann schwierig machen, festzustellen, ob der Roboter unabhängig genug ist unter die Gesetze fallen oder außerhalb von ihnen operieren. Und auf praktischer Ebene wäre es unmöglich zu bestimmen, ob Befehle, die sie erhalten, dem Menschen Schaden zufügen würden, wenn sie ausgeführt würden.
Es gibt auch die Frage Dies könnte ein Problem sein, wenn man beispielsweise die Entwicklung von Roboterbabys in Japan in Betracht zieht. Wenn ein Mensch einen dieser Roboter adoptieren würde, könnte dies möglicherweise emotionalen oder psychischen Schaden verursachen Dieser Schaden ist möglicherweise erst durch die direkten Aktionen des Roboters entstanden oder wird erst viele Jahre nach dem Ende der Mensch-Roboter-Interaktion sichtbar. Dieses Problem könnte sogar auf eine viel einfachere KI zutreffen, beispielsweise auf die Verwendung von maschinellem Lernen, um Musik zu erstellen, die Emotionen hervorruft.
Praktische Probleme
Das andere große Problem mit den Gesetzen ist, dass wir einen signifikanten Fortschritt in der KI benötigen würden, damit Roboter ihnen tatsächlich folgen können. Das Ziel der KI-Forschung wird manchmal als die Entwicklung von Maschinen beschrieben, die rational und wie ein Mensch denken und handeln können. Bisher wurde die Nachahmung menschlichen Verhaltens auf dem Gebiet der KI nicht gut erforscht, und die Entwicklung rationalen Verhaltens konzentrierte sich auf begrenzte, genau definierte Bereiche.
Vor diesem Hintergrund konnte ein Roboter nur innerhalb eines Bereichs arbeiten Eine sehr begrenzte Sphäre und eine rationale Anwendung der Gesetze wären stark eingeschränkt. Selbst das wäre mit der gegenwärtigen Technologie möglicherweise nicht möglich, da ein System, das auf der Grundlage der Gesetze argumentieren und Entscheidungen treffen könnte, eine beträchtliche Rechenleistung benötigen würde.
Angesichts all dieser Probleme bieten Asimovs Gesetze kaum mehr als Grundprinzipien für Jemand, der heute einen Robotercode erstellen möchte. Wir müssen ihnen mit einem viel umfassenderen Satz von Gesetzen folgen. Ohne wesentliche Entwicklungen in der KI wird die Umsetzung solcher Gesetze jedoch eine unmögliche Aufgabe bleiben. Und das ist, bevor wir überhaupt über das Verletzungspotential nachdenken, falls sich Menschen in Roboter verlieben.