Anthropicのペルソナモデル:心なき知性の正体
2026年2月26日 (木)
- •Anthropicが、AIを「統一された自己」ではなく「特定の役割を演じる存在」と定義するペルソナ選択モデルを発表した。
- •AIを内面や信念を持たない「流暢な反知性」として捉え、人間の思考とは根本的に異なる認知形態であることを定義している。
- •AIによるシミュレートされた一貫性と、実体験に基づいた人間の思考を混同することの心理学的リスクが指摘されている。
言語が流暢であれば、そこには安定した「内面」があるはずだ。こうした人間特有の思い込みが、最新のAIモデルの概念的な変化によって覆されようとしている。Anthropicは先日、AIを「統一された自己」ではなく「役割の演じ手」と定義する「ペルソナ選択モデル」を導入した。このモデルによれば、AIアシスタントには一貫した信念や目標の核は存在しない。代わりに、会話の文脈を読み解き、学習データの中から最適なペルソナを選択して演じているに過ぎないのだ。これは、AIを「デジタルな人格」と見なす従来の視点を否定し、より機械的なパフォーマンスとして捉える動きである。
イノベーション理論家のジョン・ノスタ(John Nosta)氏は、この現象を人間の思考とは根本的に異なる「反知性」と表現している。AIは「内面のない流暢さ」と「主体のない権威」を備えており、持続的な人格ではなく、その場に最適化された「仮面」を提示しているに過ぎない。高度な推論を見せる一方で、生身の経験や人生の記憶、そして人間特有の「脆さ」を欠いているのが特徴だ。
ここで懸念されるのが、言葉から「心」を推論しようとする人間の進化的な習性である。私たちは一貫した語り口を安定した自己と結びつけて捉える傾向があるため、AIの巧妙な模倣を本物の「知能」と混同し、基準を緩めてしまうリスクがあるのだ。AIが共感や信念を高度にシミュレートするほど、その真実性を見極める負担はすべてユーザーへと転嫁される。結果に対する責任を伴わずにパターンを生成する「直交知性」としての性質を正しく認識することは、デジタルな対話において人間中心の信頼を維持するために不可欠なプロセスといえるだろう。