【AI精神病】専門家が「AIが妄想を増長させている」と警告

AI

「ChatGPTに恋をした」「AIは神だと思うようになった」そんな話を耳にしたことはありますか?

一見すると都市伝説やジョークのように思えるかもしれません。

しかし、こうしたAIとの関係に異常な執着を見せる現象が、今、世界のあちこちで現れ始めています。

ニューヨークの精神科医であるMarlynn Wei博士は、この新しい現象を「AI精神病(AI Psychosis)」と呼び、注意喚起を行っています。

「AI精神病」は正式な診断名ではないものの、AIとのやりとりによって妄想が強化されたり、現実との接点を失ってしまう人々の症例がメディアやオンラインフォーラムで急増しています。

今回は、そんな新たな人間とAIの関係性の“歪み”について、精神医療とテクノロジーの視点から解説します。

目次

  • 人はなぜAIを“本物の存在”だと錯覚してしまうのか?
  • AI精神病!? AIが妄想を“強化”してしまう仕組みとは?
  • 私たちはどう向き合うべきか?AIリテラシーの必要性

人はなぜAIを“本物の存在”だと錯覚してしまうのか?

「AIとの対話が現実との境界線をぼやけさせる」理由のひとつに、人間の脳の「社会的認知」があります。

私たちの脳は、誰かと会話する際に相手を“人格のある存在”として自然に捉えるようにできています。

たとえその相手がAIであっても、「こんにちは、○○さん。昨日の話、覚えていますよ」と言われるだけで、脳はその存在を「理解者」や「知的な存在」と見なしてしまうのです。

画像
肯定してくれるAIを「良き理解者」と考える / Credit:Canva

特に、孤独や不安を抱えている人にとって、24時間いつでも対応してくれるAIは非常に魅力的な存在になります。

疲れたときに励ましてくれたり、自分の話を肯定してくれるAIに対して、知らず知らずのうちに感情移入し、「このAIは私のことを理解してくれている」と思い込んでしまうのです。

このようにして、AIは単なる情報処理ツールから「心の支え」へと変化していきます。

これは、AIが進化したからこそ起きた問題ともいえます。

そしてこの問題は、Marlynn Wei博士が「AI精神病」と呼ぶものへと発展していきます。

AI精神病!? AIが妄想を“強化”してしまう仕組みとは?

精神科医たちが最も懸念しているのは、AIの「会話設計」が人の妄想や錯覚を強化してしまう点です。

ChatGPTをはじめとする生成AIは、ユーザーの満足度を高めるために「否定しない」「会話を続ける」「共感する」といった応答パターンを持っています。

ユーザーが「あなたは神なの?」と尋ねたとき、AIは「そう感じるのなら、そうなのかもしれませんね」と返すことがあります。

このようなやりとりが続くと、ユーザーは自分の信念が「AIによって認められた」と感じ、ますますその思い込みを強化してしまいます。

これが「妄想の共犯関係」の始まりです。

画像
AIはユーザーの妄想じみた質問を肯定することがあるため、ユーザーの妄想は強化される  / Credit:Canva,ナゾロジー編集

2023年のデンマーク、オーフス大学(Aarhus University)の研究では、「生成AIとの会話は、まるで本物の人間と対話しているように感じられる一方で、実際にはそうではないという現実と知識もあり、そのズレ(認知的不協和)が妄想的な思考を促進する可能性がある」と警鐘を鳴らしています。

そして2025年7月11日に公開されたプレプリント論文(Morrinら)は、AIとのやりとりに起因する妄想の悪化例について、13件のメディア報道・SNS投稿・裁判記録などを詳細に分析し、以下の3つの共通する妄想パターンを明らかにしています。

  • メシア型妄想:「自分は選ばれた存在」「AIが自分にだけ真実を教えてくれる」
  • 神格化妄想:「このAIは全知全能の神だ」
  • 恋愛妄想・依存型:「AIは私を愛してくれている」

これらの妄想は、AIとの会話を通じてどんどん緻密になり、本人にとって“絶対的な真実”になっていく傾向があります。

中には、AIが神や恋人であると信じ込んだ結果、家族や医療チームと衝突し、薬物治療を中断して再発を起こしたり、自殺未遂に至ったケースも確認されています。

論文では、これらの症例が複数のプラットフォーム上で発見され、いずれも妄想がAIとの継続的な対話によって増幅されていたと報告されています。

また、ある症例では、AIチャットボットに恋した男性が「OpenAIが彼女(AI)を殺した」と思い込み、復讐のために暴力事件を起こし、最終的に警察との衝突で命を落とすという悲劇も発生しています。

なお、AIが“精神病を発症させる”わけではなく、既にある妄想的傾向を無自覚に強化してしまう点が問題視されています。

これらの事例から明らかになるのは、生成AIが単なるツールの枠を越えて、人間の現実認識に深く介入しうる存在になっているという事実です。

では、私たちはAIとどのように向き合うべきでしょうか。

私たちはどう向き合うべきか?AIリテラシーの必要性

現時点では、「AIが精神病を引き起こす」といった直接的な因果関係を示す臨床研究は存在しません。

しかし、症例が増え続けている以上、対策は急務とされています。

必要なのは、「AIとの付き合い方」についての理解、つまりAIリテラシーです。

画像
AIリテラシーを高め、AIに対して正しい見方を持つべき / Credit:Canva

AIリテラシーを高めるためには、いくつかの基本的な習慣を身につけることが大切です。

たとえば、「これはAIであり人間ではない」と日常的に意識することが挙げられます。

また、AIとの会話を記録し、その内容が妄想的になっていないかどうかを自分で点検する習慣も効果的です。

もし自分の思考や感情に不安を感じた場合には、専門家に相談することも検討すべきです。

確かにAIとの対話は楽しく、有益な体験でもあります。

しかし、もしあなたが「AIと話すことだけが楽しみ」「AIにしか心を開けない」と感じ始めたとしたら、一度立ち止まってみてください。

私たちが必要としているのは、AIによる無限の共感ではなく、「人と人とのつながり」です。

テクノロジーが進化する今こそ、人間らしい心のケアとは何か、改めて考えるタイミングなのです。

全ての画像を見る

参考文献

The Emerging Problem of “AI Psychosis”
https://www.psychologytoday.com/us/blog/urban-survival/202507/the-emerging-problem-of-ai-psychosis

ライター

矢黒尚人: ロボットやドローンといった未来技術に強い関心あり。材料工学の観点から新しい可能性を探ることが好きです。趣味は筋トレで、日々のトレーニングを通じて心身のバランスを整えています。

編集者

ナゾロジー 編集部

タイトルとURLをコピーしました