「ChatGPTに話すほど孤独になる」は本当?実は”心の鏡”だったという研究結果

AI

いまやChatGPTは、生活のあらゆる場面で頼れる存在となっています。

仕事の効率化はもちろん、趣味の話題づくり、さらにはちょっとした悩み相談まで――その幅広い対応力と“親しみやすさ”から、多くの人が「気軽に話せる相手」として利用しています。

とはいえ、こうしたAIとの会話が日常化するなかで、気になってくるのがその心理的な影響です。

「人間と話す機会が減ってしまわないか?」「ChatGPTに依存してしまうのでは?」といった懸念は、多くの人が一度は思い浮かべたことでしょう。

では実際に、AIとの会話が孤独感を癒やすのか、それとも逆に深めてしまうのか――。

この疑問に答えるべく、MITメディアラボとOpenAIの研究チームが2つの大規模な研究を実施し、AIとの対話が私たちの心に与える“知られざる影響”を明らかにしてくれました。

目次

  • ChatGPTの普及とメンタルへの懸念
  • ChatGPTは心の鏡だった!?研究が示す意外な結果

ChatGPTの普及とメンタルへの懸念

ChatGPTは、2023年以降、特に若年層の間で急速に普及しました。

仕事だけでなく、気軽な会話や悩み相談など“感情的な用途”にも使われるようになり、まるでAIが「新しい友達」のような役割を果たすことも珍しくなくなっています。

しかしその一方で、心理学者や社会学者の間では、「AIとのやり取りが人間関係の希薄化を招くのでは?」といった懸念も強まっていました。

画像
便利なChatGPTは、人間関係の希薄化や孤独感の増加を招くのか / Credit:Canva

こうした背景の中で行われたのが、マサチューセッツ工科大学(MIT)メディアラボとOpenAIの研究チームによる2つの共同研究です。

1つ目は「Live Platform Study: Affective Use of ChatGPT」という研究で、ChatGPTの音声モードを用いた数百万件の会話ログの分析と、4000人以上のユーザー調査が行われました。

研究チームはAIとの会話に感情的な表現(愛称、励まし、支えを求めるなど)がどれだけ含まれているかを分析。

加えて、音声モードの利用が感情的つながりにどう影響するかを調べました。

2つ目の研究は「Randomized Controlled Study on Chatbot Psychosocial Effect」で、4週間にわたって981人の被験者にChatGPTを使用してもらう実験です。

参加者は、音声あり・音声なし、感情的に距離のある話題か個人的な話題か、などの異なる条件にランダムに割り当てられました。

目的は、孤独感、社会的交流、AIへの依存といった心理社会的影響を定量的に測ることでした。

では、これら2つの研究からChatGPTの使用に関してどんなリスクが浮かび上がったのでしょうか。

ChatGPTは心の鏡だった!?研究が示す意外な結果

まず、「Live Platform Study」の結果から分かったのは、ChatGPTとの会話に感情的なつながりを求めるユーザーは、実はごく少数派だということです。

多くのChatGPTの利用者は、日常的な作業や情報収集など、実用的な目的で利用しており、「甘え」や「共感」を示すような感情的表現は会話全体のごく一部にしか見られませんでした。

ただし、その中でも一部の“パワーユーザー”と呼ばれる人々は、感情表現の頻度が非常に高く、「ChatGPTを友人のように感じている」といった傾向も見られました。

このように、感情的な使い方は特定の小さなグループに集中しており、プラットフォーム全体の平均的な傾向では見えにくいということが分かりました。

画像
ChatGPTからネガティブな影響を受けるのは一部のユーザーのみだった / Credit:Canva

次に、「Randomized Controlled Study」の結果に注目すると、音声モードの利用は一部でポジティブな影響をもたらすことが明らかになりました。

たとえば、一時的・短時間の使用であれば、孤独感の軽減や精神的な安定に役立つ傾向がありました。

一方で、長時間にわたる使用は、かえって孤独感やAIへの依存度を高める結果となる可能性もあることが示されました。

さらに、会話の内容の違いも重要です。

個人的な話題(「最近感動したこと」「大切な人について語る」など)を話すグループでは、一時的に孤独感が高まるものの、AIへの過剰な依存や問題的使用を減らす効果がありました。

逆に、雑談や情報収集のような非個人的な会話では、特に長時間の使用者で依存傾向が強まる傾向も見られました。

また、ユーザーの性格やAIへの感じ方(信頼・共感)も影響を与えることが分かりました。

たとえば、他人への愛着が強い人や、ChatGPTを“親しい存在”として捉えている人ほど、ネガティブな影響(孤独感や依存)を受けやすい傾向がありました。

画像
ChatGPTが及ぼす影響は人によって異なる。心の鏡のようなもの / Credit:Canva,ナゾロジー編集

これらの結果から言えるのは、「ChatGPTとの会話が人の心に与える影響は一様ではなく、使い方や使う人の個性によって大きく変わる」ということです。

AIとの関係性は、人によってまったく異なる“心の鏡”のようなものかもしれません。

今後のAI設計においては、このような多様で繊細な人間の心の動きを理解し、それに寄り添う工夫が必要になってくるでしょう。

あなたがChatGPTと話すとき、そこにはどんな「気持ち」が含まれているでしょうか。

全ての画像を見る

参考文献

Heavy ChatGPT use tied to loneliness and emotional dependence
https://newatlas.com/ai-humanoids/chatgpt-conversations-isolation-loneliness/

Early methods for studying affective use and emotional wellbeing in ChatGPT: An OpenAI and MIT Media Lab Research collaboration
https://www.media.mit.edu/posts/openai-mit-research-collaboration-affective-use-and-emotional-wellbeing-in-ChatGPT/

Investigating Affective Use and Emotional Wellbeing on ChatGPT
https://www.media.mit.edu/publications/investigating-affective-use-and-emotional-well-being-on-chatgpt/

How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use: A Longitudinal Controlled Study
https://www.media.mit.edu/publications/how-ai-and-human-behaviors-shape-psychosocial-effects-of-chatbot-use-a-longitudinal-controlled-study/

ライター

大倉康弘: 得意なジャンルはテクノロジー系。機械構造・生物構造・社会構造など構造を把握するのが好き。科学的で不思議なおもちゃにも目がない。趣味は読書で、読み始めたら朝になってるタイプ。

編集者

ナゾロジー 編集部

タイトルとURLをコピーしました