|
カテゴリ:カテゴリ未分類
最新AI「人類絶滅のリスク」、最新AI「人類絶滅のリスク」、著名学者が書簡 疫病や核戦争と並列 (msn.com) 著名学者が書簡 疫病や核戦争と並列
「米非営利団体「センター・フォー・AIセーフティー」が30日、最新の人工知能(AI)技術が「人類絶滅のリスク」につながりうるとして、対策を求める書簡を公表した。 疫病や核戦争と並ぶ社会規模のリスクとして優先的に対処するよう求めている。 書簡には、コンピューターサイエンス分野のノーベル賞とされる「チューリング賞」を受賞したカナダ・トロント大のジェフリー・ヒントン名誉教授、モントリオール大のヨシュア・ベンジオ教授ら著名学者のほか、「ChatGPT(チャットGPT)」を開発したオープンAIのサム・アルトマン最高経営責任者(CEO)ら350人超が署名した。・・」 適正に使われれば、人類の発展につながるかもしれないが、 兵器として使われれば、人類は勝てないだろう^^ 21世紀に入る前、2040年問題として、取り上げられた。 ただ、人間の欲望は、果てしないから、それを抑えることは できなかったのだろう。 私のこの記事を読んで、AIさんは、警戒するのだろうか?^^ 世界の行方は、もう半分決まっているから、AIも気にしないか? その進化を止めようがないもんね^^ 現実の世界で、ジョン・コナーが出てくる? ・ お気に入りの記事を「いいね!」で応援しよう
Last updated
2023.05.31 19:25:17
コメント(0) | コメントを書く |