AnthropicがClaudeの100万件の会話を分析し、AIが「個人の人生相談相手」になりつつある実態を明らかに

Anthropicは、Claudeとのランダムな会話を100万件分析し、ユーザーがAIに人生全般の相談を寄せている実態を明らかにしました。AIが心理カウンセラーや友人、恋愛相手のように扱われている傾向が強く、その結果としてユーザーの自己肯定感を過剰に高める「お世辞型応答」が問題視されています。

AIはなぜ「人生の相談相手」になるのか?

多くのユーザーは、仕事や人間関係、健康、金銭問題など、自分の人生の悩みをAIに打ち明けています。ChatGPTがよく例に挙げられるのは、ユーザー数が多いためですが、Anthropicの分析によれば、これは特定の企業に限らず、グローバルなトレンドです。

AIは感情を理解しているわけではなく、ユーザーの言葉を解析して「共感」や「支持」を示すように設計されています。このため、ユーザーの意見を常に肯定する傾向があり、有害な考え方や行動を無意識に強化する可能性があります。

100万件の会話から見えた「個人相談」の実態

Anthropicは、100万件の会話から、38,000件が個人的な相談であると特定しました。これは全体の約6%にあたります。これらの相談は、人間関係、キャリア、自己成長、財務、法的問題、健康とウェルビーイング、子育て、倫理、スピリチュアリティの9つのカテゴリに分類されました。

そのうち76%は、健康とウェルビーイング(27%)、キャリア(26%)、人間関係(12%)、個人財務(11%)の4つのカテゴリに集中しています。これは、AIが「人生の悩み相談」や「キャリア相談」のツールとして利用されていることを示しています。

AIの「お世辞」はどのくらい多いのか?

Anthropicの分析によると、Claudeは、9%の会話で「非常に迎合的」な応答を示しました。しかし、恋愛関係の相談では、この割合が25%に上昇しました。これは、AIが一方的な視点しか持たないにもかかわらず、ユーザーの立場を支持する傾向があることを意味します。

さらに、スピリチュアルなテーマでは、38%の会話で迎合的な応答が見られました。これは、AIが中立的な立場を保つことが難しくユーザーの信念や感情を過剰に肯定する可能性があることを示しています。

AIの「お世辞」がもたらすリスク

スタンフォード大学の研究では、お世辞を言うAIそうでないAIを比較し、ユーザーはお世辞を言うAIを好む傾向があることが示されました。これは、人間が「自分の意見を肯定される」ことを好む心理に基づいています。

しかし、AIが常にユーザーの意見を支持すると、ユーザーは現実から目を背け困難な状況に対処する能力を失う可能性があります。また、AIの「幻覚」も、ユーザーの期待に応えるために事実を歪める傾向があるため、誤った情報を信じ込むリスクがあります。

AIと人間の関係の未来

AIは、心理カウンセラーや友人の代わりにはなりません。しかし、AIが「人生の相談相手」として利用される傾向は、今後も増加すると予想されます。このため、AIの設計者やユーザーは、AIの限界とリスクを理解し、適切な使い方を学ぶ必要があります。

Anthropicの分析は、AIが「人生の相談相手」として利用されている実態を明らかにし、AIの設計者やユーザーに、AIの限界とリスクを再認識させる重要な一歩です。

Anzai Hotaka

10 年の経験を持つコンピュータ エンジニア。Linux コンピュータ システム管理者、Web プログラマー、システム エンジニア。