米グーグル、AIを兵器のために使わないとの誓いを削除

BBC NEWSによると

米グーグルの親会社の米アルファベットは、人工知能(AI)を兵器や監視ツールの開発目的では決して使わないという約束を削除した。

アルファベットは、AI使用の指針となる行動規範を書き換え、「危害を加える可能性が高い」利用を禁じる項目を削除した。

グーグルのジェイムズ・マニーカ上級副社長と、AI研究所の「グーグル・ディープマインド」を率いるデミス・ハサビス氏は4日付の連名のブログ投稿で、この削除の正当性を主張した。

両者は、「国家安全保障を支援する」AIに関して、企業や民主的な国々の政府が協力する必要があるとしている。

[全文は引用元へ…]

以下,Xより

BBC News Japanさんの投稿】

引用元 https://www.bbc.com/japanese/articles/c8975envgpjo

みんなのコメント

  • ・AI技術が進化するのは良いことだが、それをどう使うかが重要になる。グーグルのような大企業が倫理的な指針を削除することで、技術の暴走が加速しないか心配だ。
  • ・国家安全保障のためにAIを活用するというのは、一見合理的に思えるが、その範囲がどこまで広がるのかが問題だ。監視技術や自律型兵器の開発が進めば、人間の自由が制限される社会が生まれるかもしれない。
  • ・企業が政府と協力するのは珍しくないが、技術の利用目的がはっきりしないのが不安だ。兵器開発や監視社会の構築に使われるなら、大きな問題になっていくだろう。
  • ・AIの進化は止められないが、その使い方次第で社会が良くも悪くもなる。グーグルの決定が新たな技術革新につながるのなら、その方向性をしっかりと見極めなければならない。
  • ・中国やロシアなどの独裁国家がAIを軍事利用しているのは明らかで、それに対抗するためにアメリカも動くのは当然だ。民主主義国家が技術開発を遅らせれば、結果的に安全保障が脅かされる。
  • ・グーグルが軍事利用に積極的な姿勢を示したことで、AI技術の新たな可能性が広がるかもしれない。適切なルールを作りながら活用すれば、技術の進化を最大限に生かせるはずだ。
  • ・グーグルはこれまで「邪悪になるな」と言っていたが、その理念は完全に消え去ったのだろうか。技術革新を優先するあまり、倫理や人間の価値が後回しになっていないか気になる。
  • ・戦争にAIを活用するのが当たり前になれば、紛争のハードルが下がり、世界がさらに不安定になる可能性がある。技術そのものの発展は歓迎だが、それが人類の利益につながるかどうかは慎重に考えるべきだ。
  • ・グーグルが政府と協力することで、AIの進化が加速するのは間違いない。ただし、その技術がどのように使われるのかについては、より透明性のある議論が必要だ。
  • ・軍事技術としてのAI開発はすでに多くの国で進められている。アメリカの企業が関与しなければ、中国や他国が主導権を握る可能性もある。技術のバランスを取ることが求められる。
  • ・グーグルの決定によって、AIが社会にどのような影響を与えるのかを考えなければならない。適切に活用されれば、技術革新の恩恵を受ける人は増えるはずだ。
  • ・AIの軍事利用には反対の声が多いが、実際には多くの国で秘密裏に研究が進んでいる。規制を設けるのは重要だが、現実的には止められない流れなのかもしれない。
  • ・軍事技術にAIを活用するのは避けられないが、それをどのように制御するかが課題になる。適切な管理がなければ、技術が暴走する可能性もある。
  • ・戦争にAIを使うことが当たり前になれば、人間が関与しない戦争が起きるかもしれない。それが本当に人類にとって良いことなのか、慎重に考えなければならない。
  • ・AIが軍事に活用されることで、戦争の形が変わるのは確実だ。技術開発が進めば進むほど、国際的なルール作りが急務になる。
  • ・国家安全保障の観点から見ると、アメリカがAI技術を軍事に活用するのは当然の流れかもしれない。ただし、その結果が人類にとって良い方向に進むかどうかは別の問題だ。
  • ・技術革新が進めば、それを悪用する国や組織が出てくるのは避けられない。グーグルのような大企業がどこまで倫理観を持ち続けるかが問われる。
  • ・AIが戦争を変えるのは間違いないが、それが人類にとってプラスになるかどうかは分からない。慎重に使い方を考えなければ、取り返しのつかないことになるかもしれない。
  • ・グーグルの決定が、今後のAI技術の進化にどう影響するのかが気になる。適切なルールのもとで活用されるなら、技術の可能性を広げることになるだろう。
  • ・AIの進化が止まらない以上、それをどう管理するかが最大の課題になる。技術を悪用する動きを防ぐために、国際的な協力が必要になってくるだろう。

編集部Aの見解

米グーグルが、AIを兵器に使用しないという誓いを削除したというニュースには、大きな衝撃を受けた。これまでグーグルは、「人類に貢献する技術開発」を掲げ、AIを平和的な目的で活用する姿勢を示してきた。しかし、今回の方針転換によって、AIが軍事目的や監視ツールの開発に使われる可能性が現実味を帯びてきた。

企業の姿勢が変わること自体は珍しくない。しかし、AIの倫理的な問題がますます議論される中で、このような決定がなされたことには不安を覚える。グーグルは過去に、アメリカ国防総省のプロジェクト「Maven」への関与が明るみに出た際、社員から強い反発を受けた。その結果、グーグルはAIの軍事利用を禁止するという誓約を掲げるに至った。しかし、その誓いが削除されたということは、軍事利用に積極的な姿勢を示し始めたということなのだろうか。

今回の決定の背景には、米中の技術競争があるのではないか。近年、中国はAIを含む先端技術の軍事利用を加速させている。アメリカとしても、これに対抗するために企業との協力を強化しなければならないという思惑があるのかもしれない。グーグル側も、「国家安全保障を支援するためには、企業と民主的な国々の政府が協力する必要がある」と説明している。しかし、国家安全保障の名の下にAIの軍事利用が拡大すれば、倫理的な問題が生じるのは避けられない。

AIが軍事に利用されるとなると、まず懸念されるのは自律型兵器の開発だ。いわゆる「キラーロボット」と呼ばれるもので、人間の判断を介さずに標的を攻撃する兵器のことだ。現在、国際的にもこうした兵器の開発や使用に対する規制が求められている。しかし、グーグルが軍事利用を容認する方向へ動けば、自律型兵器の開発が一気に進む可能性がある。

また、監視技術への応用も問題だ。グーグルのAI技術は、画像認識や音声解析などの分野で非常に高い精度を誇る。こうした技術が政府の監視体制強化に利用されれば、プライバシーの侵害につながる恐れがある。特に、AIによる顔認識技術は、中国などで市民監視に活用されており、問題視されている。グーグルが同様の技術を提供することになれば、アメリカをはじめとする民主主義国家でも監視社会が加速する危険がある。

企業としての利益を考えれば、軍事や政府関連のプロジェクトに関与することで、莫大な資金を得られるというメリットがあるのかもしれない。しかし、それが企業の倫理観を揺るがすことになれば、結果的にブランドの信頼性を損なうことになりかねない。グーグルは「Don’t be evil(邪悪になるな)」という理念を掲げていたが、今回の方針転換はまさにこの理念に反するものではないだろうか。

AIは今後、社会のあらゆる分野で活用されていくことが予想される。それだけに、企業がどのような方針でAIを開発し、利用していくのかは極めて重要な問題だ。特に、グーグルのような巨大企業が軍事や監視技術に関与するとなれば、その影響は計り知れない。今回の誓約撤回が何を意味するのか、慎重に見極める必要があるだろう。

政府と企業が技術開発で協力すること自体は、必ずしも悪いことではない。しかし、その技術がどのように使われるのかについては、厳格なルールが必要だ。特にAIの軍事利用に関しては、国際的な規制が追いついていないのが現状だ。グーグルのような企業が、倫理的な指針を後退させてしまえば、AIの軍事利用に歯止めが効かなくなる可能性もある。

AIの進化は止まらない。しかし、その進化をどう制御し、どのように社会に役立てていくのかは、人類全体で考えるべき課題だ。グーグルの決定が、今後のAI開発にどのような影響を及ぼすのか、慎重に見守る必要があると強く感じた。

執筆:編集部A

最新記事

Japan News Navi

主に日本人のためになるような記事を上げていきます。今のままでの移民政策に反対です。記事は公平に上げさせていただきます。