|
カテゴリ:カテゴリ未分類
私:3氏のうち、佐藤丙午氏は、元防衛庁防衛研究所主任研究官、元外務省参与で、専門は安全保障論(軍備管理・軍縮)なので、話の内容が具体的なので、この人に焦点を合わせたい。
兵器の動作は大きく「認知」「分析」「反応」にわけられるが、AIはその全てに活用可能で、既存兵器に組み込むことで、一般市民が巻き添えになるのを減らしたり、戦争を効率化したりすることは、1990年代から考えられてきた。
すでに、韓国やロシア、イスラエルなどは、AIを部分的に組み込んだ兵器を実戦配備し、特定の攻撃に対する防御兵器などを実用化している。
日本が米国から購入している「ファランクス」も、対艦ミサイルなどを探知し、自動的に撃ち落とすことができる。
A氏:「認知」から「反応」までAIで連動させた兵器システムはまだ存在しないが、「キラーロボット」が現実になる前に議論が必要だとの声が高まり、2013年、国連人権理事会に自律ロボット兵器システムの問題を指摘する報告書が提出された。
これを機に本格的な議論が始まり、現在は非人道的な通常兵器を規制する条約の枠組みの下で、各国の専門家や市民団体が議論しており、佐藤丙午氏も当初から加わっている。
市民団体には驚きだったようだが、人間が介在しないAIの兵器利用や「キラーロボット」への拒否感は、各国の軍人も共有しており、英国は「人間が関与すべき『タッチポイント』を確実にすべきだ」と主張。
米国は詳細な技術規制を求めていて、技術的な優位を保つと同時に、AIの突拍子もない使い方の出現を防ぐ狙いもあるようだという。
化学兵器や生物兵器の禁止条約にならい、継続的に技術的な監視や情報収集をする機関と仕組みを作って透明性を確保すれば、規制は可能で、軍と市民社会が納得できる合意に向かい議論が進んでいると、佐藤氏は感じているという。
私:しかし、AIはすでに拡散した技術で、民間を含め技術開発にブレーキをかけることにも、民間技術の軍事転用をブロックすることにも、各国は反対。
たとえAIの兵器システムの開発に規制がかかっても、AIの軍事利用はどんどん進むと予想されるという。
日本の防衛相はこうした技術進展に鈍く、つい最近までAIへの関心は高くなく、年末の策定に向け見直し作業が進む「防衛大綱」で、AIの活用が入る見込みになったのは良かったと思うと、佐藤氏はいう。
この先の5年、10年安全保障でAIの活用を視野に入れていなかったら、とんでもないことになるという。
佐藤氏は「日本学術会議が昨年、大学の軍事研究に消極的な声明を出したのは残念です。AIなど民生にも軍事にも使える技術と安全保障をめぐる議論が国内でぱたっと止まってしまったからです。もう一度見直して、真剣に議論する必要があると考えています」という。
栗原聡氏は、AIの利用にも「キラーロボットには使わない」という社会的な合意が不可欠で、そのためには研究者以外の人も含めた議論が必要という。
瀬名秀明氏は、AI兵器の「人道的」の線引き、難しいと不安感をもっている。
いずれにせよ、佐藤氏のいうように規制しながら、各国では開発が進むようだ。
化学兵器、生物兵器、原子力兵器にならんで、AI兵器が危険な兵器として登場するのか、まだ明らかでないようだ。
お気に入りの記事を「いいね!」で応援しよう
Last updated
2018.09.14 16:37:08
コメント(0) | コメントを書く |