米グーグルの親会社の米アルファベットは、人工知能(AI)を兵器や監視ツールの開発目的では決して使わないという約束を削除した。
アルファベットは、AI使用の指針となる行動規範を書き換え、「危害を加える可能性が高い」利用を禁じる項目を削除した。
グーグルのジェイムズ・マニーカ上級副社長と、AI研究所の「グーグル・ディープマインド」を率いるデミス・ハサビス氏は4日付の連名のブログ投稿で、この削除の正当性を主張した。
両者は、「国家安全保障を支援する」AIに関して、企業や民主的な国々の政府が協力する必要があるとしている。
[全文は引用元へ…]
【BBC News Japanさんの投稿】
引用元 https://www.bbc.com/japanese/articles/c8975envgpjo
米グーグルが、AIを兵器に使用しないという誓いを削除したというニュースには、大きな衝撃を受けた。これまでグーグルは、「人類に貢献する技術開発」を掲げ、AIを平和的な目的で活用する姿勢を示してきた。しかし、今回の方針転換によって、AIが軍事目的や監視ツールの開発に使われる可能性が現実味を帯びてきた。
企業の姿勢が変わること自体は珍しくない。しかし、AIの倫理的な問題がますます議論される中で、このような決定がなされたことには不安を覚える。グーグルは過去に、アメリカ国防総省のプロジェクト「Maven」への関与が明るみに出た際、社員から強い反発を受けた。その結果、グーグルはAIの軍事利用を禁止するという誓約を掲げるに至った。しかし、その誓いが削除されたということは、軍事利用に積極的な姿勢を示し始めたということなのだろうか。
今回の決定の背景には、米中の技術競争があるのではないか。近年、中国はAIを含む先端技術の軍事利用を加速させている。アメリカとしても、これに対抗するために企業との協力を強化しなければならないという思惑があるのかもしれない。グーグル側も、「国家安全保障を支援するためには、企業と民主的な国々の政府が協力する必要がある」と説明している。しかし、国家安全保障の名の下にAIの軍事利用が拡大すれば、倫理的な問題が生じるのは避けられない。
AIが軍事に利用されるとなると、まず懸念されるのは自律型兵器の開発だ。いわゆる「キラーロボット」と呼ばれるもので、人間の判断を介さずに標的を攻撃する兵器のことだ。現在、国際的にもこうした兵器の開発や使用に対する規制が求められている。しかし、グーグルが軍事利用を容認する方向へ動けば、自律型兵器の開発が一気に進む可能性がある。
また、監視技術への応用も問題だ。グーグルのAI技術は、画像認識や音声解析などの分野で非常に高い精度を誇る。こうした技術が政府の監視体制強化に利用されれば、プライバシーの侵害につながる恐れがある。特に、AIによる顔認識技術は、中国などで市民監視に活用されており、問題視されている。グーグルが同様の技術を提供することになれば、アメリカをはじめとする民主主義国家でも監視社会が加速する危険がある。
企業としての利益を考えれば、軍事や政府関連のプロジェクトに関与することで、莫大な資金を得られるというメリットがあるのかもしれない。しかし、それが企業の倫理観を揺るがすことになれば、結果的にブランドの信頼性を損なうことになりかねない。グーグルは「Don’t be evil(邪悪になるな)」という理念を掲げていたが、今回の方針転換はまさにこの理念に反するものではないだろうか。
AIは今後、社会のあらゆる分野で活用されていくことが予想される。それだけに、企業がどのような方針でAIを開発し、利用していくのかは極めて重要な問題だ。特に、グーグルのような巨大企業が軍事や監視技術に関与するとなれば、その影響は計り知れない。今回の誓約撤回が何を意味するのか、慎重に見極める必要があるだろう。
政府と企業が技術開発で協力すること自体は、必ずしも悪いことではない。しかし、その技術がどのように使われるのかについては、厳格なルールが必要だ。特にAIの軍事利用に関しては、国際的な規制が追いついていないのが現状だ。グーグルのような企業が、倫理的な指針を後退させてしまえば、AIの軍事利用に歯止めが効かなくなる可能性もある。
AIの進化は止まらない。しかし、その進化をどう制御し、どのように社会に役立てていくのかは、人類全体で考えるべき課題だ。グーグルの決定が、今後のAI開発にどのような影響を及ぼすのか、慎重に見守る必要があると強く感じた。
執筆:編集部A
以下,Xより 【Elon Mu…