LLMはなぜ「フィクション製造機」なのか
- •LLMは、生成されるコンテンツが常に「意味を成す」ように、事実の正確性よりも物語の整合性を優先する。
- •人間からのフィードバックによる強化学習(RLHF)が、AIの本質的な「フィクション製造機」としての側面を覆い隠している。
- •記号推論と因果関係の理解における限界が、AIによる科学的ブレイクスルーの実現を妨げる壁となっている。
大規模言語モデル(LLM)は、事実を厳密に守ることよりも、むしろ「筋が通っている」物語を生成することを目的として設計されている。多くのユーザーはAIとの流暢な対話に驚かされるが、その核心的な機能は、言語の「構成性」といった構造に基づき、文脈の中で次に来るべき論理的な段階を予測することにある。構成性とは、個々の要素とその配置によって複雑な表現の意味が形作られる仕組みを指す。その結果、AIは訓練データから得た事実を引用しつつも、空白部分は捏造された詳細や「作り話(コンファブレーション)」で埋め合わせる「フィクション製造機」として機能することになる。
真実性よりも物語の整合性を重視する設計でありながら、AIがしばしば正確な情報を提示できるのは、人間からのフィードバックによる強化学習(RLHF)によるところが大きい。人間の評価者がモデルの出力を微調整することで、事実の正確性や社会規範に適合させているのだ。ただし、こうした調整を施したとしても、既存の言語を模倣することと、全く新しい概念的枠組みを発見することの間には、依然として埋めがたい溝が存在する。AIは既存のプロットを組み替えて小説を執筆することは得意だが、科学的発見に求められる高度な推論は今なお困難な課題である。
特に理論物理学のような分野では、新しい記号や因果構造を創出することが不可欠となる。人類は「重力」や「光子」といった、現象を説明するために発明された概念を通じて世界を解釈してきた。もしAIの「思考」プロセスが人間の記号的推論と根本的に異なるのであれば、我々は「異質な知能」と向き合うことになるだろう。AIが画期的な新理論を発見したとしても、それを人間が理解可能な記号言語で説明できないという、知の断絶が起きる可能性も示唆されている。