75年後、アイザックアシモフ'のロボット工学三原則を更新する必要があります

サイエンスフィクション作家のアイザックアシモフが考えていたロボット工学三原則を考案したときアンドロイドについて。彼は、これらの人間のようなロボットが使用人のように振る舞い、それらが害を及ぼすのを防ぐために一連のプログラミング規則が必要になる世界を想像しました。しかし、彼の倫理的ガイドラインを取り上げた最初のストーリーが発表されてから75年間で、技術的に大きな進歩がありました。現在、ロボットがどのように見えるか、ロボットとどのように相互作用するかについて、非常に異なる概念があります。

高度に進化したロボット工学の分野では、自律型掃除機から軍用ドローンまで、さまざまなデバイスが製造されています。工場の生産ライン全体に。同時に、人工知能と機械学習は、インターネットを検索している場合でも、政府のサービスを割り当てられている場合でも、日常的に影響を与えるソフトウェアの多くにますます遅れをとっています。これらの開発により、あらゆる種類のロボットが社会のほぼすべての側面で普及し、人間とロボットの相互作用が大幅に高まる時代が急速に進んでいます。

アシモフの法則は、私たちを導くためのテンプレートとして今でも言及されています。ロボットの開発。韓国政府は、2007年に法律を反映したロボット倫理憲章を提案しました。しかし、ロボット工学がどれだけ変化し、将来も成長し続けることを考えると、21世紀版の人工知能のためにこれらのルールをどのように更新できるかを尋ねる必要があります。

3つの法則

アシモフが提案した法律は、ロボットとの相互作用から人間を保護するために考案されました。

  • ロボットは人間を傷つけたり、不作為によって人間に危害を加えたりすることはできません
  • ロボットは次の命令に従わなければなりません。そのような命令が第一法則と矛盾する場合を除いて、人間
  • そのような保護が第一法則または第二法則と矛盾しない限り、ロボットは自身の存在を保護しなければなりません

前述のように、明らかな問題の1つは、今日のロボットは、はるかに単純なものも含めて、アシモフの物語よりもはるかに多様であるように見えることです。したがって、それを下回るとルールが不要になる可能性のある複雑さのしきい値を設定する必要があるかどうかを検討する必要があります。人間に危害を加える能力を持っている、あるいは命令に従う能力さえ必要とするロボット掃除機を想像することは困難です。これは、電源を入れる前に事前に決定できる単一のタスクを備えたロボットです。

ただし、スペクトルの反対側には、軍事戦闘環境用に設計されたロボットがあります。これらのデバイスは、スパイ、爆弾処理、または荷物運搬の目的で設計されています。これらは、特に非常に危険な環境での人命へのリスクを軽減するために作成されているため、アシモフの法則と一致しているように見えます。

しかし、最終的な軍事目標が戦場に配備できる武装ロボットを作成します。この状況では、人間に害を及ぼさない第一法則が非常に問題になります。軍隊の役割は、多くの場合、兵士や民間人の命を救うことですが、多くの場合、戦場で敵を傷つけることによってです。そのため、法律はさまざまな観点や解釈から検討する必要があるかもしれません。

法律の曖昧さにより、アシモフを含む著者は、法律がどのように誤解されたり、誤って適用されたりする可能性があるかを探りました。 1つの問題は、ロボットが実際に何であるかを定義していないことです。研究が技術の限界を押し上げるにつれて、より多くの分子デバイスを検討するロボット工学の新しい分野があります。

たとえば、DNAとタンパク質から作られた「ロボット」は、遺伝子障害を修正するための手術に使用できます。理論的には、これらのデバイスは実際にはアシモフの法則に従う必要があります。しかし、DNA信号を介して命令に従うには、基本的に、作業している人間の不可欠な部分になる必要があります。この統合により、ロボットが十分に独立しているかどうかを判断することが困難になります。法律に該当するか、法律の範囲外で活動すること。実際には、受け取った命令が実行された場合に人体に害を及ぼすかどうかを判断することは不可能です。

質問もあります。これは、たとえば日本のロボット赤ちゃんの発達を考えるときに問題になる可能性があります。人間がこれらのロボットのいずれかを採用した場合、おそらく感情的または心理的な害を引き起こす可能性があります。しかし、この害は、ロボットの直接行動から生じたものではないか、人間とロボットの相互作用が終了してから何年も経つまで明らかにならない可能性があります。この問題は、感情を引き出す音楽を作成するための機械学習の使用など、はるかに単純なAIにも当てはまる可能性があります。

実際の問題

法律に関するもう1つの大きな問題は、ロボットが実際にAIを追跡できるようにするには、AIを大幅に進歩させる必要があるということです。 AI研究の目標は、人間のように合理的に考え、行動できる機械を開発することとして説明されることがあります。これまでのところ、人間の行動をエミュレートすることはAIの分野では十分に研究されておらず、合理的な行動の開発は限られた明確な領域に焦点を当てています。

これを念頭に置いて、ロボットは非常に限られた範囲であり、法律の合理的な適用は非常に制限されます。現在のテクノロジーではそれが不可能な場合もあります。法律に基づいて推論および決定を行うことができるシステムには、かなりの計算能力が必要になるためです。

これらすべての問題を考慮すると、アシモフの法律は、今日ロボットコードを作成したい人。私たちは、はるかに包括的な一連の法律に従ってそれらに従う必要があります。とはいえ、AIに大きな進展がなければ、そのような法律を実施することは不可能な作業であり続けるでしょう。そしてそれは、人間がロボットに恋をし始めた場合に怪我をする可能性を検討する前です。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です