4.0 詳しく見る

AIが幻を見るとき:ハルシネーション(幻覚)の創造的可能性

Kevin Bernstein
Kevin J. BernsteinPractice Lead – Governance, Adoption & Change Management
An abstract blue and purple wave on a white background.

AIのハルシネーション(幻覚)とは、大規模言語モデル(LLM)が事実として提示される誤ったまたは誤解を招く情報を生成する現象を指します。しばしば否定的に見られますが、このブログでは幻覚が創造性、セレンディピティ(偶然の発見)、および発見の源となり得ると提唱します。このような異常を受け入れることで、貴重な洞察や革新につながる可能性があります。もしかしたら、幻覚はコードのバグではなく、活用されるのを待っている機能なのかもしれません。

「私が最も注意したいのは、『幻覚問題 』と呼んでいるものです。モデルが事実として全くの虚構を自信を持って述べることがあります。」

この警告は、OpenAIのCEOであり、人工知能の著名な提唱者であるSam Altman(サム・アルトマン)氏によるものです。

AIの幻覚に対して懸念しているのはアルトマン氏だけではありません。多くの懐疑論者が幻覚を主要な懸念事項として挙げています。AIの導入を進めようとしたことがある人なら、おそらくこのような人たちに遭遇したことがあるでしょう。

正直なところ、私は彼らの懐疑論に疑問を持っています。私は、AIの幻覚は彼らが言うほど不吉なものではないと考えています。そして、その見解を支持する少なくとも5つの理由があります。

幻想は問題なのか?

5つの理由を説明する前に、AIの幻覚とは一体何なのかについて明確にしましょう。

AIの幻覚とは、AIシステムが現実と一致しない出力を生成すること、つまり、入力から矛盾したもの、正しくないもの、無意味なものを生成することです。

例えば、AIの画像ジェネレーターに犬の写真を求めたら、奇妙な動物のパーツの寄せ集めを生成する場合、それは幻覚です。あるいは、言語モデルに質問をして、それが自信満々に正しくない、あるいは支離滅裂な回答を生成する場合も、それは幻覚です。

幻覚には、微妙に不正確なものから、奇抜な空想までさまざまです。AIが詳細を取り違えたり、存在しないものを作り出したり、矛盾した発言をしたりすることもあります。

どのような形であれ、幻覚はAIを検討している多くの人々にとって大きな懸念事項となっています。特に、組織内でAIを活用しようと考えている場合にはなおさらです。

しかし、こうした懸念が見当違いだとしたらどうでしょうか? AIの幻覚が負債になるどころか、実際には資産になるとしたらどうでしょうか?

AIの幻覚が不穏なものではなく、むし興味深いかもしれない5つの理由を考えてみましょう。

1. 創造性

AIシステムは、従来のソフトウェアとは異なるパラダイムを表しています。従来のソフトウェアでは、入力と出力の間には線的で予測可能な関係があります。開発者は完全にコントロールできています。

対照的に、AIシステム、特にニューラルネットワークは、入力と出力の関係がより不透明で複雑です。開発者はモデルを訓練し、その高レベルのアーキテクチャを定義しますが、訓練プロセスからモデルが学習する具体的な方法は、しばしば不可解です。

専門家でさえ、ニューラルネットワークが特定の判断や出力をした理由を正確に説明できないことがあります。モデルが独自の表現を学習するため、必ずしも人間の概念にうまく対応するわけではないブラックボックスの要素があります。

ここがAIは人間の創造性と似ているところです。脳のように、ニューラルネットワークは複雑で多層的なシステムであり、学習したパターンの複雑な相互作用を通じて斬新で驚くべき出力に到達することができます。それは非線形で、創発的であり、完全に理解されるにはほど遠いものです。

つまり、AIが幻覚を起こすとき、それは最近まで人間に特有と考えられていた創造性や横方向の思考を示しています。予期しないつながりを引き出し、既定の経路を外れることで、画期的な洞察につながる可能性があります。

線形で予測可能なソフトウェアから非線形で予測不可能なAIへのこの変化は、非常に大きな飛躍です。それは、創造性と知性に対する私たちの理解に挑戦すつものです。これらの特性が、私たちが信じていたほど人間に特有のものではないかもしれないことを示唆しています。

AIの創造性はまだ人間の独創性に比べて限られていますが、その存在はこれらのシステムの可能性を証明しています。AIを開発するにつれて、生成される出力、幻覚を含め、私たちは、ますます驚き、挑戦し、そして刺激を受けることでしょう。私たちは、人間と機械の創造性の境界が曖昧になる新しい時代の入り口に立っています。そして、それはとても刺激的なことです。

2. セレンディピティ(偶然の発見)

AIの創造的な思考、予期しないつながりを引き出す能力、そして既定の経路を外れる能力は、すでに画期的な洞察をもたらしています。

科学的発見の現実はしばしばセレンディピティ(偶然の発見)によるものです。ペニシリンは、Alexander Fleming(アレクサンダー・フレミング)が汚染されたペトリ皿に細菌を殺すカビが含まれていることに気づいたときに偶然発見されました。電子レンジは、Percy Spencer(パーシー・スペンサー)がレーダーマグネトロンがポケットの中のチョコレートバーを溶かしたことに気づいた後に発明されました。

AIの「幻覚問題」は、同様に幸運な偶然や科学的なブレークスルーをもたらします。スタンフォード医科大学とマクマスター大学の研究者たちは、SyntheMolというAIモデルを作成し、迅速に潜在的な薬物構造とレシピを生成しました。このモデルの「幻覚」により、未知の化学空間を探索することができ、全く新しい化合物が生まれました。そのうちの6つは耐性菌に対して効果があり、2つは動物実験に進みました。この革新的なアプローチは、他の抗生物質耐性感染症や心臓病のような病気の治療法の発見に役立つ可能性があります。

予期せぬ領域に踏み込み、驚くようなつながりを作ることで、AIは私たちが直線的思考から抜け出し、イノベーションの新たな道を切り開く手助けをしてくれます。このようなシステムを開発する際には、創造的な洞察と進歩の源として、幻覚の可能性を受け入れるべきです。

3. 発見

AIの幻覚が幸運なブレークスルーにつながるのと同様に、それらは発見のツールとしても機能し、隠れた課題を特定し対処するのに役立ちます。

AIシステムにおけるバイアスを考えてみてください。もしAIが一貫してステレオタイプや偏見を反映するような幻覚を起こす場合、それはトレーニングデータやモデルアーキテクチャにおけるこれらのバイアスを開発者に警告します。これにより、これらのバイアスを特定し軽減する努力が促され、より公平なAIシステムが実現します。

幻覚は炭鉱のカナリアのようなもので、問題が深刻化する前に警告を発するものだと考えてみてください。

AIの幻覚は、トレーニングデータのギャップや品質の問題を明らかにすることもあります。もしAIが特定のトピックについて頻繁に幻覚を起こす場合、それはトレーニングデータがこれらの領域で不足していることを示唆しているかもしれません。これにより、より包括的なデータを収集する努力が促され、AIのパフォーマンスが向上します。

原因が明確でない場合でも、幻覚の発生そのものがモデルの挙動や意思決定の深い調査を促します。これにより、AIの動作や改善の可能性のある領域についての理解が深まります。幻覚は、AIの内部構造を探り、ブラックボックスの中を覗き込み、将来の開発に役立つ洞察を得る機会を提供します。

幻覚を否定するのではなく、好奇心を持って取り組むことで、AIシステムの改善のためのツールとして活用することができます。

4. 規律

幻覚の発見の可能性を引き出すには、AIと共に働く人間の規律が必要です。幻覚は、AIが完璧ではないことを思い出させ、完璧な結果を期待して単に制御を任せることはできないことを示しています。

代わりに、幻覚はAIに 頼る だけでなく、人間がAIと 協力して働く 必要性を強調しています。

これは、あらゆる段階で注意深く取り組むことを意味します。データを入力する際には、潜在的なバイアスや欠落に注意を払う必要があります。結果を解釈する際には、AIの言葉をそのまま受け取るのではなく、一貫性と正確性を確認する必要があります。

幻覚を検出し調査することは、この規律あるアプローチの鍵となります。異常な反応に注意を払い、その原因を追跡し、修正することで、AIの性能を洗練し改善します。

これはバグではなく機能であり、品質管理と継続的改善のための組み込みメカニズムです。

責任あるAIの使用とは、監督と修正に責任を持つことを意味します。AIのアウトプットに疑問を持ち、何かおかしいと感じたらさらに深く掘り下げ、現実世界のデータや人間の専門知識をもって常に結果を比較することです。それは共同作業であり、手をこまねいて任せることではありません。

5. フォーカス

AIの幻覚に対する規律あるアプローチは、リスクの軽減やエラーの修正だけではありません。AIが人間に最大の価値を提供できる分野に努力を集中させることが重要です。

幻覚をモニタリングし調査することで、幻覚がどこでどのように発生するのかのパターンを見分けることができます。私たちは、誤解を招くような回答を生成しやすいクエリやデータ入力のタイプ、あるいはAIが常に苦手としているドメインやタスクに気づきます。さらに開発を進めるべき分野の優先順位を決める方法を学びます。

例えば、AIが珍しい病状について頻繁に幻覚を起こす場合、それは私たちに医療データセットの拡充に焦点を当てるよう促すかもしれません。また、特定の会話において文脈理解に苦しむ場合、それは自然言語処理の研究を優先するように私たちを導く可能性があります。

このように、幻覚に対する規律あるアプローチは、AIの開発と応用において最も有望な道筋を示すロードマップとして機能します。これにより、リソースの配分、研究課題の設定、技術の方向性を導くことができます。

しかし、この可能性を実現するには、単なる技術的な改良だけでは不十分です。トレーニングとチェンジマネジメントに焦点を当てる必要があります。

AIツールがより高度になるにつれて、人々にアクセスを提供するだけでは不十分です。責任を持って効果的に使用するためのスキルを身につけさせる必要があります。これには、メカニズムだけでなく、出力を解釈し行動するための批判的思考スキルをカバーするトレーニングへの投資が含まれます。

それは、好奇心と継続的な学習の文化を育むことを意味します。

また、チェンジマネジメントに積極的に取り組み、組織や心理的な障壁を予測し、対処することも意味します。これには、ワークフローの見直し、役割の再定義、急速に変化する世界への適応を支援するサポートの提供などが含まれるかもしれません。実際、AIが人間がより前向きで生産的、進歩的な働き方を創造する手助けになることをあえて夢見ることが重要なのです。

これらの人間的要素、つまりトレーニング、文化、チェンジマネジメントに焦点を当てることで、AIの幻覚に対する規律ある協力的なアプローチが成功する環境を作り出します。これにより、人々がAIの未来を形作る積極的なパートナーとなることができます。

生成AIが登場する前なら、私は仕事の効率性の50%はテクノロジーに、50%は人間の要素に依存していると言っていたでしょう。今日、このような強力なテクノロジーツールの登場は、人間的要素がこれまで以上に重要であることを意味します。なぜなら、それを効果的に使うスキルがなければ、パワーは無意味だからです(そしておそらく危険でさえあります)。この考えは、業界の上級専門家たちとの多くの会話によって、私の中で補強されてきました。そう考えると、今日のワークプレイスのバランスは、70%が人間、30%がテクノロジーということになるでしょう。

シリコンベースの知性とカーボンベースの知性の連携は、組織のチェンジマネジメントに注力することがこれまで以上に重要であることを意味します。

3d cubes in blue, pink, and purple.

幻覚を実装に変える

SoftwareOneが提供する技術ソリューションとサービスをご覧ください。お客様のAI導入をサポートいたします。

幻覚を実装に変える

SoftwareOneが提供する技術ソリューションとサービスをご覧ください。お客様のAI導入をサポートいたします。

Author

Kevin Bernstein

Kevin J. Bernstein
Practice Lead – Governance, Adoption & Change Management

Focusing on the people-side of change