人殺しの決定をロボットに任せてはいけない
韓国でも殺人ロボットの開発が始まったのか?なんか怖い。以下がそのニュース 世界の人工知能やロボット工学分野でトップクラスの専門家たち約50人が、韓国の大学・KAIST(韓国科学技術院)の人工知能を活用した兵器研究につき「キラーロボット開発につながる恐れがある」旨を抗議し、協力をボイコットすると公開書簡で宣言した。 KAISTのシン・ソンチョル学長は直ちに「悲しむべきこと」と述べ、大学が自律兵器システム、つまりキラーロボットを作るつもりはないと表明しています。 事の発端は2018年2月。KAISTと韓国の防衛関連大手企業のハンファシステムと共同で「国防人工知能融合研究センター」を設立し、人工知能を組み込んだ国防に関する研究を推進すると発表した。その際、研究の対象はAIベースの意思決定システムや、無人海底車両のためのナビゲーションアルゴリズム、無人航法システムやオブジェクトの追跡および認識技術などを含むとされていた。これに対してニューサウスウェールズ大学のトビー・ウォルシュ教授など、世界30カ国のAI・ロボット研究者たちは「KAISTのような権威ある機関が、AI兵器を開発することで、軍備競争を加速することは残念」と公開書簡で表明。さらに研究者グループは、KAISTの学長が「意味ある人間のコントロール下にない自律兵器を開発しない」と確約するまでは、KAISTを訪問したり、KAISTからの訪問者を受け入れたり、KAISTの関わるあらゆる研究プロジェクトに貢献することはないと宣言しました。 これに対してKAISTのシン・ソンチョル学長は「学術機関として、我々は人権と倫理基準を非常に重んじています。KAISTは世界に貢献する研究を進めており、意味のある人間のコントロール下にない自律兵器を含む、人間の尊厳に反する研究活動をしないと再確認します」と回答。KAIST側が全面的に要求を飲んだかたちですが、今のところボイコットを主導するトビー教授は宣言を撤回していません。KAISTとAI兵器の共同研究しているハンファシステムは、国際条約で禁止する動きのあるクラスター爆弾の生産に関わっているとされるハンファの子会社で、この事情が、より疑念を深めたのかもしれません。高度に発達したAIや自律ロボット兵器が人類の存亡を脅かす話は、『ターミネーター』や『2001年宇宙の旅』など映画やSF小説の定番です。 なお、イーロン・マスク氏やスティーブン・ホーキング博士が人工知能が人類と敵対する危険性について懸念していることは有名だ。現実に米国防総省はロボット兵器開発の予算として180億ドル(1兆9,600万円)を計上しており、ヒューマン・ライツ・ウォッチをはじめとする非営利団体は、その開発を食い止めるために活動を行なっている。様々な兵器が戦争で利用され続けてきたが、その用途を選ぶのは人間であった。しかし、今やその選択権を手放し、生殺与奪の決定を機械に委ねてしまう可能性が現実のものとなっている。 今後殺人ロボットの開発を禁じてもすでに手遅れであり、一時的な解決にしかならないと話すのがニューヨーク州立大学バッファロー校のテロ・カルッピ助教である。