テーマ:人工知能(230)
カテゴリ:サイバーパンク
様々の知見を引用して総合し最適な解を導こうとする ChatGPT をはじめとする生成AIは、人間が通常侵さないような間違を犯す。 ChatGPTは、OpenAIが2022年11月に公開した人工知能チャットボットで、テキストを生成するAI。 生成AIは、文字などの入力に対してテキスト、画像、または他のメディアを応答として生成する人工知能システムの一種。生成AIは、訓練データの規則性や構造を訓練において学習することで、訓練データに含まれない新しいデータを生成することができる。生成AIと従来のAIの違いは、生成するテキストや画像の創造性などの性能の差。生成AIは、より少ない条件からでも、人間と同じようなアウトプットを生み出すことができる。 作業の効率化、豊富なバリエーションの作成、革新的なクリエイティブの作成などが生成AIのメリット。 デメリットは、偽情報や誤情報を選別できずフェイクコンテンツを生成することがある、本物のようなテキストや画像を生み出すことができるため悪用されるリスクがある、人間の専門的な仕事を奪う可能性があるなどがあげられている。 フェイクコンテンツの生成など、生成AIが、もっともらしい誤情報(=事実とは異なる内容や、文脈と無関係な内容)を生成することをハルシネーション(Hallucination:幻覚)と呼ぶ。 下記は生成AIがどうしたら「間違えない」か、AIに尋ねてみたという内容。 生成AIのデメリットへの当面の対応として、 ・「誤り」の可能性を常に意識する ・使い途を限定化①:曖昧なことや忘れたことの確認に用いる ・使い途を限定化②:間違っても問題が生じない用途に使う を例として挙げている。 AIは入力されるデータが「正」であることを求めた。情報が「正」であるか「偽」であるか、「適切」か「不適切」かの判断は容易ではない。 …ChatGPT自身が答えた 「間違った回答」を克服する納得の方法 プレジデントオンライン 2024年3月23日 非常に便利なChatGPTをはじめとする生成AIはなぜ間違うのか。この問題について、『ChatGPT「超」勉強法』を上梓した野口悠紀雄さんは「生成AIが間違える原因は、AIと人間の『理解』のプロセスの違いにある」という――。(第4回/全4回) ※本稿は、野口悠紀雄『ChatGPT「超」勉強法』(プレジデント社)の一部を再編集したものです。 ■人間とAIはものごとの「理解」の仕方が異なる AIの理解は、人間の理解とは異なる。 「シンボル・グラウンディング(幻覚)問題」とは、人間やAIがシンボル(言葉、数字、画像など)を実世界の具体的な対象や概念にどのように結びつけて理解しているかという問題だ。 人間は、生まれたときからの様々な実体験や観察を通じて、言葉や概念の意味を理解している。 例えば、「熱い」という言葉は、実際に高温を感じた経験に基づいて理解される。つまり、「熱い」という言葉や概念が、実世界の対象や状況、あるいは体験に「接地」(グラウンディング)している(日本語では、これと逆の状態を、「地に足が着かない」と表現している)。 あるいは、「月」という言葉の意味は、「あれがお月様だよ」と教えられたときに月を見上げた経験によって理解している。抽象的な概念もそうだ。例えば「無限」という概念の意味は、長い海岸線を歩き続けたというような体験と関連づけて理解している。 ■AIは「言葉と言葉の関係」を理解する ところが、AIは身体を持たないため、このような理解をすることができない。 AIの理解は、言葉と言葉の関係を理解するというものだ。 以上で述べたことは、数学や自然科学の法則などの理解という問題の本質に関連している。これは、AI(人工知能)に関する基本問題として以前から議論されてきたものだ。 ■ハルシネーションを根絶できない原因 AIがハルシネーション(幻覚)を起こす原因としては、様々なものがある。例えば、学習データが不十分であったり、間違っていたりすることが原因になりうる。だが、それだけではない。 ハルシネーションの大きな原因は、AIによる理解の仕方に基づくものが多いと思われる。つまり、AIがシンボル・グラウンディングできないことが、ハルシネーションの大きな原因の1つと考えられる。 シンボル・グラウンディング問題の解決は、AIが実世界の対象や概念を正確に理解し、それに基づいて適切な情報を生成するために必要だ。この問題が解決されなければ、AIはシンボルの意味を正確に「接地」できず、その結果、不正確な情報やハルシネーションを生じるリスクが高まる。 ■ハルシネーションを完全に避けることはできない このため、シンボル・グラウンディング問題について、様々な研究がなされている。 例えば、「MathQA」という研究がある。しかし、いまのところ満足のいく結果は得られていない。AIがシンボルの意味を完全に理解し、それを実世界の文脈で適切に使用することは、現在の技術では難しい課題だ。 したがって、われわれはChatGPTなどの生成AIを用いるにあたって、AIがシンボル・グラウンディングできないことを前提としなければならない。 つまり、ハルシネーションを完全に避けることはできないという前提で用いる必要がある。 ■生成AIの欠点になんとか対処できないか? ChatGPTを用いて勉強するのは実に楽しいことだ。 知りたいことや、それまで疑問に思っていたことなどをピンポイントで尋ねることができ、それに対して簡潔な答えが返ってくる。だから、興味を失わずに勉強を進めることができる。 このような利点は、ぜひとも活かしたい。様々な勉強にChatGPTを使えれば、たいへん効果的だ。 そのような面白さがあるから、様々な科目で、すでにChatGPTを用いて勉強をしている学生や生徒が多数いる。しかし彼らは、そうとは知らずに、誤った知識を学んでいる危険がある。 この問題をなんとか解決できないだろうか? ■ChatGPTに直接聞いてみた ハルシネーションを回避しながら活用するための方法については、『ChatGPT「超」勉強法』で詳しく検証しているが、その1つに、ChatGPT自身に直接聞いたものがある。 … (略) … ■ChatGPTの答えは…… 「ハルシネーションを避けるために、提供される情報にウェブでの裏づけを求めることは可能ですか?」という私の質問に対して、〈ハルシネーションを避けるために、複数の信頼できるソースからの情報を参照することも重要です〉とChatGPTは答えた。 なお、現在のChatGPTのウェブブラウジング機能では、有料記事やサブスクリプションが必要なコンテンツにアクセスすることはできない。また、統計などのオンラインデータベースに直接アクセスしてデータを抽出することもできない。 ただし、〈有料ニュースサイトのコンテンツについては、直接アクセスすることはできませんが、公開されている情報をもとにした質問には答えることが可能です〉〈IMFのWEOや他の公開されている経済データに関する質問があれば、2023年4月までの私のトレーニングデータに基づいて答えることが可能です。また、ユーザーがデータベースの特定の部分をアップロードすれば、それに基づいて分析や解釈を行なうこともできます〉というのがChatGPTの答えだった。 ― 引用終わり ― ネットの覇権を取りたいEUは、生成型AIも規制対象にすることについて合意した。 具体的な規制対象・方法については後日ということらしいが、罰金は具体的に決めている。GDPR(EU一般データ保護規則)の時と同様の展開。 EU 生成型AIも規制対象に (EU) 2023年12月13日 JETRO EU理事会(閣僚理事会)と欧州議会は12月9日、EU域内で一律に適用される人工知能(AI)の包括的な規制枠組み規則案(AI法案)に関して、暫定的な政治合意に達したと発表した(プレスリリース外部サイトへ、新しいウィンドウで開きます)。AIシステムの技術革新が急速に進む中、域内で提供されるAIシステムの安全性や基本的人権などEUの価値の保障を確保することが狙い。また、EUは世界初になるとみられるAI法案を、AI規制における世界標準にしたい考えだ。 欧州委員会が2021年4月にAI法案を発表して以降(2021年4月23日記事参照)、2022年末に提供を開始した米国オープンAIの生成型AI「ChatGPT」が大きな反響を呼ぶなど、AIへの投資は加速している(2023年9月26日付地域・分析レポート参照)。現地報道によると、世界的に開発競争が激化する中、域内での生成型AIへの過度な規制はEU企業を不利にするとして、ドイツやフランスなどの加盟国が規制に反対。生成型AIに対して一定の規制を求める欧州議会との間で、交渉が難航していた。最終的に、両機関は3日間の長時間にわたる直接交渉を経て、ようやく合意にこぎつけた。 AI法案は今後、両機関による正式な採択を経て施行され、2026年中に適用が開始されるとみられる。なお、今回合意された法文案は公開されていない。 … (略) … さらに、交渉において最大の焦点となった生成型AIなどの「汎用目的型AI(general purpose AI、GPAI)」については、欧州委案では明確に考慮されていなかったが、両機関は新たにGPAIに特化した規定を追加。GPAIモデルまたそれが組み込まれたGPAIシステム全般に対して、透明性要件を課すことで最終的に合意した。加えて、影響がバリューチェーン全体に波及するリスクのあるGPAIモデルについては、リスク管理、重大インシデントの監視、モデル評価や敵対的サンプルに基づくテストの実施などのより厳格な義務が課される。なお、これらの義務は、欧州委が産業界、科学者、市民社会などと共同で開発する実施指針を通じて運用される予定だ。 なお、罰金に関しては、AI利用の禁止事項に関する違反の場合は、最大3,500万ユーロあるいは前年度の全世界総売上高の7%のいずれが高い方を科すことで合意。罰金の上限を欧州委案から引き上げた。一方で、それ以外の違反に関しては上限を引き下げたほか、中小企業やスタートアップに対しては企業規模に応じてより低い上限を認める規定を追加した。 ― 引用終わり ― 記事中に「合意された法文案は公開されていない」とあるが「合意された法文案はない」ということだろう。
お気に入りの記事を「いいね!」で応援しよう
最終更新日
2024年04月06日 06時00分11秒
コメント(0) | コメントを書く
[サイバーパンク] カテゴリの最新記事
|
|