ドイツのマックス・プランク人間発達研究所(MPIB)で行われた研究によって、2022年末に公開された対話型AI「ChatGPT」の影響で、人間の話し言葉がAIの言葉遣いに近づきつつあることが明らかになりました。
研究チームは、ChatGPTが特に好んで使用する「delve(掘り下げる)」「swift(迅速な)」「meticulous(綿密な)」などの単語が、解説系のYouTubeや音声配信のデータの中で、ChatGPT登場以降、統計的に有意に増加したことを定量的に確認しました。
さらに影響は台本のないスピーチやインタビューなど自然な対話にも及んでいました。
この結果は、AIが私たちの言葉遣いや文化を無意識のうちに再形成しつつある可能性を示唆しています。
私たちは、知らず知らずのうちに「AIっぽく」話し始めているのでしょうか?
研究内容の詳細は2025年7月8日に『arXiv』にて発表されました。
目次
- AIに『染まる』言葉、人間はなぜ模倣してしまうのか?
- あなたも知らずにAIを真似ているかもしれない
- 人間がAIを真似る時代
AIに『染まる』言葉、人間はなぜ模倣してしまうのか?

ある本を読んだあとしばらくの、頭の中の思考や書く文章が、その本の文体やリズムに影響されてしまった経験をしたことはありませんか?
筆者の場合、田中芳樹氏の『銀河英雄伝説』を読んだ後の1週間は、氏の文体やリズムが頭の中に残り続け、日ごろの文章まで田中氏の文体に引き寄せられた記憶があります。
また夏目漱石の『坊ちゃんを』を読んだ後は、文章だけでなく考え方までもが「坊ちゃん」のものに引きずられていた記憶もあります。
文章を読むということと、文章の影響を受けることとは、切り離せない関係にあるのかもしれません。
ですが現在、私たちが触れる文章は「メイド・バイ・ホモサピエンス」のものだけではありません。
大規模言語モデルのようなAIの登場により、ネット上の記事やSNSの書き込みだけでなく、企業内のドキュメント作成などにもAI生成テキストが利用され始めています。
このようなAI製の文章に頻繁かつ長期間触れることで、人間には何らかの影響が及ぶのでしょうか?
実際、これまでの研究でAI生成文章には独特の言い回しや語彙の偏りがあると指摘されてきました。
例えばインターネット上では、「AIらしい文章」を見分ける手がかりとして、句読点の使い方や特定の単語の頻出に注目する議論が盛んです。
実際に、LLMを使って文章を編集・生成する際には、AI特有の語彙が人間の書いた文章にも反映されやすくなることが報告されています。
(筆者自身もAIを活用した資料作成を通じて、AIは「多様性」「ドラマ」「より良い未来」「文化」といった言葉を好む傾向があることに気付きました。)
もしAI生成の文章が私たちの周りに氾濫した場合、人間はその影響を受けて、語彙の使用パターンが知らぬ間に変化してしまう可能性もあります。
では、話し言葉ではどうでしょうか?
特定の文章を読み続けることで話し言葉に影響が及ぶという経験も、多くの人が持っているでしょう。
例えば、ある掲示板に特有な文章を日常的に大量に読んでいると、その掲示板の文体が話し言葉にも反映されるという現象が起こり得ます。
そこで今回、ベルリンのマックス・プランク人間発達研究所の研究チームは、ChatGPTの登場によって人間の話し言葉に変化が生じているかを調べる大規模な調査を行うことにしました。
人間がAIの文章表現を無意識に真似している可能性を検証し、AIと人間の言葉の関係が一方通行ではなく双方向になりつつあるかを確かめるのが目的です。
果たして、AIが人間を真似る時代から、人間がAIを真似る時代への転換は起きていたのでしょうか?
あなたも知らずにAIを真似ているかもしれない

AIが人間を真似るのではなく、人間がAIを真似し始めている時代はすでに到来しているのでしょうか?
この謎を解明するため、研究チームはまず、ChatGPTが好んで使う単語を特定する実験を行いました。
ChatGPTに対して数百万ページに及ぶEメールやエッセイ、学術論文、ニュース記事などのテキストを「文章をより洗練させてください」「明瞭にしてください」といったプロンプトで編集させ、AIが頻繁に文章中に追加・使用した単語を抽出しました。
その結果、「delve(掘り下げる)」「realm(領域)」「meticulous(綿密な)」といった語彙がAIによって繰り返し挿入される傾向があることがわかりました。
研究チームは、このようなAIが特に多用する単語群を「GPTワード」と名付けました。
次に、そうしたGPTワードが人間の話す言葉にどれほど登場しているかを、大規模なデータで調べました。
具体的には、ChatGPT公開前(2022年11月以前)と公開後の期間に配信された膨大な英語音声コンテンツを分析しました。
その対象は、360,445本以上の学術系YouTube講演動画(大学などの講義・講演)と771,591本のポッドキャストエピソードに上り、合計約74万時間もの人間の談話が含まれています。
このデータを月ごとに区切り、AI登場前後でGPTワードの使用頻度の推移を比較・分析し、ChatGPT公開時点を境に単語使用傾向がどのように変化したかを詳細にモデル化しています。
また、対照実験として、ChatGPTがあまり使わない同義語(例えば“delve”の対照として“examine”や“explore”など)についても同様に頻度を追跡し、話題の変化や他の要因の影響を排除する工夫も行われました。
結果、非常にはっきりした変化が明らかになりました。
ChatGPTのリリース直後を起点に、英語の話し言葉におけるGPTワードの使用率が統計的に有意に上昇したのです。
例えば、学術講演や討論の場で「delve(掘り下げる)」「meticulous(綿密な)」「swift(迅速な)」「comprehend(理解する)」「boast(誇示する)」などの言葉が、それ以前の3年間と比べて約25〜50%も頻繁に使われるようになったと報告されています。
特に「深掘りする」や「掘り下げて考察する」という意味の“delve”という単語は、ChatGPTが文章を整える際によく付け加えるお気に入りの単語でした。
日本でも最近は「深掘りして解説する」という言葉を妙に聞くようになったという人もいるかもしれません。
研究者たちはこの“delve”などの会話での急増がAIから人への言語パターンの伝播を示す明確な証拠だと述べています。
重要なのは、こうした変化が台本のあるスピーチや番組内の決まり文句だけでなく、インタビューや対話といった即興の会話にも見られたことです。
「台本や決まり文句ならばAIが作成したものを読み上げてしまっただけなのでは?」と思う人もいるかもしれませんが、生の人間の対話にまでAIっぽさの侵食が進んでいるという結果は、着目すべきでしょう。
一方、対照として調べた同義語ではこれほどの急増は確認されず、またChatGPT公開の1年前や2年前を「変化点」に置いた分析でも同様の増加は起こらなかったため、2022年末のChatGPT登場こそが語彙トレンドを変化させた決定的要因であると研究チームは結論づけています。
以上の結果は、ChatGPTのリリース後、人間の話し言葉における単語の頻度がAI生成文章の影響を受けて変化し始めていることを示しており、同時にAIシステムが人間文化そのものを変革しつつある可能性を示しています。
人間がAIを真似る時代

人間がAIの話し方を真似し始めた――この研究は、その明確な証拠を初めて示しました。
もともと私たち人間は、周囲の話し方や言葉遣いに少なからず影響を受けるものです。
心理学には「権威バイアス(authority bias)」と呼ばれる現象があり、多くの人は知的で重要だと感じる相手ほど、その言動を無意識に模倣しやすいことが知られています。
研究者たちは「人間は自然と他者を模倣しますが、誰をも平等に真似するわけではありません。自分が知識がある、重要だと感じた相手ほど、その言葉遣いを真似しやすいのです」と説明しています。
今回の結果は、多くの人々がChatGPTというAIを、一種の知的な「権威」や言語のお手本と見なし始めている可能性を示唆しています。
だからこそ、ChatGPTが多用する語彙や口調が人々に伝染し、知らず知らずのうちに会話の中に取り入れられているのでしょう。
この現象は一見すると無害どころか、語彙が豊かになって知的な会話が増える良いことのようにも思えます。
しかし専門家たちはいくつかのリスクも指摘しています。
まず懸念されるのは、言語や文化の多様性の喪失です。
人々が皆こぞって同じAI由来の表現を使うようになれば、地域や個人による表現の違いが薄れ、言葉の画一化(ホモジニー)が進む恐れがあります。
研究チームはこれを「閉じた文化的フィードバックループ」と呼び、強く警鐘を鳴らしています。
これは、人間がAIの言葉遣いを真似し、その結果生まれた均一化した言語データで次世代のAIが再訓練されるという循環です。
この自己持続的なサイクルでは、AIが一部の文化的特徴を過剰に優遇して学習することで、多様性の侵食が加速しかねないと研究者らは警告します。
やや大げさに言えば、人類ははじめて人類以外の存在から言葉の話し方の影響を受けているからです。
たとえばChatGPTは現時点で主に英語を中心としたメジャーな言語で訓練されており、そうした言語の表現がグローバルに広まる一方で、マイナーな言語やスラングなどが駆逐されてしまう可能性も指摘されています。
実際に、世界には7000以上の言語があると言われていますが、その中でAIが高精度で扱える言語はごく一部です。
こうした状況は、AI時代における言語間の格差拡大にもつながる懸念があります。
さらに、「スケーラブルな操作(操作の大規模化)」のリスクも挙げられます。
もし特定の企業や組織が支配するAIが、意図的にある種の言葉遣いや価値観を押し出せば、それが人間社会に広まり、人々の考え方や議論の枠組みを間接的に操ることも理論上は可能になるからです。
今回の研究はそうした悪用を実証したわけではありませんが、AIが人間文化を再形成し得ることを示したことで、このリスクにも光が当てられています。
一方で、本研究には留意すべき点もあります。
分析対象は主に学術講演や知的な談話が中心であり、日常会話やカジュアルな口語表現で同様の変化が起きているかは十分に分かっていません。
また、言語は常に多くの社会的要因によって変化します。
ChatGPTの影響は確かに見られるものの、それだけが要因ではなく、他の流行やメディアの影響も並行して作用していることは念頭に置く必要があります。
さらに、今回特定された「GPTワード」は現行のChatGPT(GPT-3.5やGPT-4など)の特徴に基づくものです。
実際、他の大規模言語モデルでは語彙の選好が異なる可能性も指摘されており、今後はモデル間比較の研究が望まれます。
したがって、本研究の結果は「現時点でのChatGPT」の影響を捉えたものであり、AIと言葉の関係はこれからも動的に進化していくと考えられます。
研究チームは、人間がAI特有の言葉を無意識に取り入れることで、「人間とAIが相互に影響し合う新たな循環」が形成されていると指摘しています。
これは人類と言語の長い歴史の中でも前例のない現象です。
そのインパクトについて、シカゴ大学のジェームズ・エバンス教授(社会学・データ科学)は「LLMの我々のコミュニケーションへの影響を理解するには、現段階では単語の頻度分布を見るのが正しい方法だ」と評価しつつ、モデルが高度化すれば「語彙以外の文章構造や思考様式への影響も精査する必要がある」と指摘しています。
実際、本研究でも語彙の変化に注目しましたが、AI風の文章構成(長く丁寧な文体や論理展開)や感情表現の変化(過度に中立で乾いたトーンになる等)についても影響が現れ始めているのではないか、と研究者らは示唆しています。
たとえば、「ChatGPT的な丁寧で論文調の話しぶり」が会話全体を硬くし、人間らしい砕けた表現や感情の起伏が減る可能性もあります。
わずか約1年半ほどで既にChatGPTは人間の話し方を変えてしまったわけですが、今後さらにAIが進歩し普及したら、私たちの言葉や文化はどれほど変容するのでしょうか?
もはやAIが私たちの文化を作り替えるか否かではなく、どれほど深く作り替えるかが問われています。
研究チームの矢倉氏は「言葉の頻度が変われば、物事の論じ方や考え方も変わりうる」と述べ、私たちの文化そのものが影響を受ける可能性に言及しています。
言葉は単なるコミュニケーション手段ではなく、私たちの思考や社会の在り方と切り離せないものです。
その言葉に生じた微妙な変化が積み重なれば、やがて大きな文化の変遷につながるかもしれません。
AI時代における人間と言葉の関係性をどうデザインしていくかは難しい課題ですが、研究者たちは、多様性を保ちながらAIの恩恵を享受する道を模索すべきだと強調します。
人類と言語の豊かな多様性が失われないよう、AI開発と並行して言語的・文化的多様性を守る取り組みが重要になるでしょう。
便利なAIを使いこなしつつも、自分自身の言葉を振り返り、「いつの間にかAIの口調に染まっていないか?」と、時には立ち止まってみることも、私たちにできる小さな第一歩かもしれません。
元論文
Empirical evidence of Large Language Model’s influence on human spoken communication
https://doi.org/10.48550/arXiv.2409.01754
ライター
川勝康弘: ナゾロジー副編集長。 大学で研究生活を送ること10年と少し。 小説家としての活動履歴あり。 専門は生物学ですが、量子力学・社会学・医学・薬学なども担当します。 日々の記事作成は可能な限り、一次資料たる論文を元にするよう心がけています。 夢は最新科学をまとめて小学生用に本にすること。
編集者
ナゾロジー 編集部