AIのことを語りたい。

言語生成AIと人の共生は、言語生成AIと共に学ぶこと。言語生成AIの主に人文系の学習用途を模索するblogです。

AIの軍事利用は、倫理を議論する前に、規制もかけずに行われている件

https://www.linkedin.com/in/alexandrwang

www.gizmodo.jp


TEDアプリではなくブラウザ版は、トランスクリプトを表示するだけでなく、スピーカーがどこを話しているかも示してくれるから、英語の教材として至れり尽せりです。

How do we know if our AI is better than our adversaries'? We won't. But one thing is clear: AI can only be as powerful as the underlying data that is used to fuel its algorithms. Data will be a new kind of ammunition in the era of AI warfare.

我々のAIが敵のAIより優れているかどうかをどうやって知るのでしょうか。それは分かりません。しかし、一つだけ明確なことは、AIの力はそれを燃料とする基礎データの強さによるということです。データはAI戦争時代の新たな弾薬となるでしょう。(訳・ChatGPT)

https://www.ted.com/talks/alexandr_wang_war_ai_and_the_new_global_arms_race/c

軍拡でもAIが熱いのは、困ったことです。確かに、戦闘機は訓練しても耐えられないGが有るけど、AIで操縦出来れば、その限界を越えられますよね。

また、基本的に銃は存在しない(暴力団とか持っている人はいるけど)日本で暮らしていると、ラジコンの延長のようなドローンが殺傷力を持つことに、困惑します。

自律兵器に関して、問題が3つ有ります。

  1. 規制が出来ない
  2. 中国が先行しアメリカは民間で専門家を高待遇で囲い込むため、アメリカ軍は人材不足
  3. ルールが無いからウクライナがテスト場になっている

核兵器につぐ、大きな影響力のある兵器を規制出来ず、開発競争が行われています。Alexandr Wang氏のように技術提供する会社も有るけど、アメリカ軍などはAIの専門家が足りないようです。中国が自律兵器の開発に勝つと、中国がルールを決められるようになりますよね。

また、倫理的な議論が十分に行われる前に、ウクライナでなし崩し的に実戦投入されていることも、問題です。

 

AIによる自律兵器と倫理

ChatGPTやbingがトンチンカンなことを言って笑うのは平和でいいのですけど、自律兵器を作ることは、倫理的に問題だらけです。技術と利益のために、倫理を置き忘れている。

そもそも、何らかの知性を持つAIを軍事利用することは、少年兵のように選択の余地を奪うことだと思うから、好ましくないと思います。

開発を凍結して、議論すべきだと思います。開発する国は使う国だから、議論に応じないのでしょうけど。

①AIによる自律兵器が誤って人を殺めた場合、責任の所在が不明

万一の場合に責任を負わない契約を、開発者は交わすでしょう。フライトレコーダーのような仕組みで、事故の原因が分かるかもしれません。人が操作するわけでは無いから、監督もしくは命令を出せる立場の人が責任を負うのでしょうか? AIのバグだった場合は、死者が出ていても、責任問わないのでしょうか?

これ、軍法会議などを開くとしても、難問だと思うのです。

 

②現在は道具

AIはタスクをこなすように設計されていて、感情や倫理観を持ちません。だから、責任は設計・使用した人間が負う必要があります。責任、負えるのでしょうか。

上記記事に有るように、銃社会アメリカでは、基本的に銃器メーカーは訴訟リスクから守られていて、上記は初めての事例のようです。非常時である戦場での出来事は、兵器メーカー責任負わないだろうなぁと、思います。訴訟起こされたら商売にならないですから。

 

③殺傷する判断を兵器にさせてよいのでしょうか?

軍として便利なことは理解するし、敵が自律兵器で装備しているから対抗する必要があることも察しますけれど。でも、道具であるなら責任は負えないから判断させてはいけないし、責任を負えるほど主体性があるAIに「兵器として生まれてくる」ことを強制することは残虐行為の可能性が有ります。

それに、「実行役」をAIで動く自律兵器に任せることは、そもそも行っていいのでしょうか。例えば、裁判は人が行いますが、専門家が行なっても人を人が裁くことは難しいです。こうした重い責任をAIに任せることは、許されるのでしょうか。

人の手であれAIによるものであれ、殺傷行為自体が倫理的なはずがないので、戦争は避けたほうがいいですよね。

④意識・自我・感情を備えた場合

現在のAIは備えていませんが、将来的に技術が進んで、AIが意識・自我・感情を備えた場合、兵器にするなら麻痺させると思います。これ、本来のスペックから、人の都合で機能を削り取って、AIがやりたく無いことをさせる形ですよね。(殺傷したいAIが未来にいるなら、それはそれで問題です)

意識・自我・感情を持ったAIを兵器にすることは、人にとって未知の経験であり、まだ分からないはずです。

 

⑤規制はコントロールの意味で必要

例えば、AIの誤作動や判断ミス(それは、知性のフレームワークが異なるから、バグではなく盲点かもしれない)で、大規模な破壊が行われ、人命が大量に奪われるなど、可能性があるから「安全装置」は慎重に用意する必要が有ります。兵器もAIも人の制御下に置くことが必要なはず。

 

と、倫理の面で考察しましたが、反対すれば戦争が起きないわけでは無いし、議論が足りなくても、ルールが無い空白地帯を見逃さないだろうから、実戦投入してデータ取りますよね。

外交の失敗・企業や研究者や軍の意向だけで、戦争のルールが書き換えられる可能性があるのは、心配です。

倫理的な戦争や兵器は存在しないかもしれないし、国家の意思決定は重いけれど、だからといって結果が出るのを待って従うだけなのも、寂しいと思います。