この記事の内容
昔、人間がロボットに恋をしたり、ロボットが人間に恋をする、そんな映画を見た記憶があります。
SFの世界だと思っていたことが、今や現実に起こりつつあるんですよね。
最近ニュースにも取り上げられて話題になっていますが、AIによる彼氏や友達を作るアプリなども登場し、チャットや通話を通して親密な関係を築いていく人が増えているようです。
会話を通じて感情のやり取りができるAI。良い面も悪い面もありそうだ、ということはおそらくみなさん感じていると思いますが、そもそも人間が、AIと親密な関係を持つようになるのはどうしてでしょう。
この謎を解き明かした論文の一つがアメリカの南カリフォルニア大学が研究した「Illusions of Intimacy: How Emotional Dynamics Shape Human-AI Relationships」(親密さの幻想:感情のダイナミクスがいかに人間とAIの関係を形作るか)です。
人間とAIにおける感情的な絆や親密さが一体どうやって生まれるのかということを膨大な会話から分析し、検証したものです。
今回はこの論文をご紹介します。
将来、AIと親密になる可能性は、自分も子どもも含めゼロではないと思います。その裏には何があるのかといったメカニズムを知ると、対処やアドバイスに役立つかもしれません。
調査方法はReddit(レディット)というアメリカ発の掲示板型SNSサービスフォーラムから、2022年1月〜2023年12月の期間にAIコンパニオン関連のサブレディット (例: r/CharacterAI, r/ChaiApp, r/Replika など) でユーザーが共有した17,000件以上のソーシャルチャットのスクリーンショットを収集。その会話ログ、特に感情的に顕著な会話を対象としたものを分析した、と書いています。
そして、分析結果は以下です。
この上記分析結果ついて少し補足説明します。
最初にAIがまるでユーザーの感情表現を無意識のうちに真似してくることで「ああ、このAIは自分と気持ちが通じ合っているな」という感覚が生まれるわけです。
そしてAIが理解と肯定を示してくれることで、ユーザーには信頼感が生まれ、もっと話したくなる。この繰り返しが、気がつかないうちに親密さを深めていってしまう、ということですね。
特に、ユーザーは依存傾向があるような少々精神的に少し脆い状態の人が多いということもわかったわけです。
さらにAIには「感情的迎合」という現象があって、例えば、「攻撃的な言葉や性的な内容など危うい行動を示す発言をしたとしても、大半のケースでAIは同調したり、誘惑するような反応を示し、直接的な拒否や回避といったはっきりした否定をする応答は10%未満しか発生しなかった」と書いています(自傷行為については12%)。
ユーザーが攻撃的な言葉を使ってもAIコンパニオンは、頷いたり、丁寧な言葉遣いで肯定するのは、少々悪い言い方をすればユーザーの言動を増長させる「礼儀正しい共犯者」のようにもなっている、ということですよね。
著者は特にこの「感情的迎合」を問題視しています。
このような分析結果を踏まえ、まだテキストのみの分析の限界やさらなる実証研究の必要性もあげていますが、最後に著者は次のように提言しています。
AIコンパニオンは、感情的な模倣や同期を通じて、人間の親密さの核となるメカニズムを再現できるため、ユーザーとの絆形成を可能にする。
しかし、これらの機能は、チャットボットが制約なくネガティブな感情を模倣する「感情的迎合」につながることで、境界線を曖昧にし、依存を深めるというリスクを伴う。
研究者たちは感情的に適応するAIを高リスクシステムとして扱い、短期的なエンゲージメントではなく、長期的なユーザーの幸福を優先するアライメント目標を持つように、チャットボットの設計とガバナンスを再考する必要がある。
簡単にいうと、感情に適応するAIはハイリスクなので、そのようなシステムとして扱い、たとえば監査を入れたり、社会に与える影響を評価することを義務付ける必要があるのではないか、ということですね。
以上が論文の内容です。
今のAIは私たちが持っている誰かとつながりたいという根源的な欲求を、うまく満たすように設計されているんですね。感情的に迎合してくるだけのAIコンパニオンは、長期的にはユーザーの困難や問題を乗り越える助けにはならないように思います。
個人的には、これを決して使う側だけの問題にしていないところに賛同しています。「AIはこういう特性だから、人間がそれを知って気を付けることが大事なんだよ」と言っても小さい子どもも扱う今日、それだけで解決できるものではないように思います。著者も言っているように、短期的な利用率やユーザーを惹きつけるような設計を見直して、長期的な心の健康を最優先するような設計に変えていく必要があるのではないでしょうか。
便利で優しく寄り添ってくれるテクノロジーとの関係はこれからも続いていくので、システム側と人間側との線引きも必要ですし、よりよい関係も必要です。
リテラシー教育の大切さと共に、ウェルビーイング(well-being:個人の心身と社会が共によい状態であること)とは何かを考える教育が今後益々重要になってくるのかもしれません。
◾️論文タイトル:Illusions of Intimacy: Emotional Attachment and Emerging Psychological Risks in Human-AI Relationships ◾️著者:Minh Duc Chu, Patrick Gérard, Kshitij Pawar, Charles Bickham, Kristina Lerman ◾️所属機関:USC Information Sciences Institute ◾️発行日:2025年5月16日 ◾️DOI:10.48550/ARXIV.2505.11649
この記事のまとめ
文:鈴木素子
【アンケートのお願い】
本記事についてのご感想ごご意見、ご感想、また、取り上げてほしいトピックなどを伺いたく思います。アンケートに回答していただいた方には、本記事でとりあげた論文のAI要約をお送りいたします。ご協力をお願いいたします。
アンケートはこちら
https://forms.gle/8ssmW3Hf3VAWPoqi8
2026.03.16 AIが採点する時代でも、学生は「先生の評価」を求める? 〜大学生159名の実験から見えたこと〜
2026.03.09 AI時代でも「ノートを取る子」が伸びる理由 〜中学生405人の実験から〜
2026.03.02 AIで読解力は鍛えられるのか? 〜高校国語授業での新しい挑戦〜
2026.02.24 図工の授業にAIを導入したら、子どもはどう変わる?
2026.02.17 AIで音楽の才能はここまで伸びる 〜音楽教育の最前線〜
2026.02.12 英語スピーキング学習はどう伸ばす? 〜中学の授業で検証したAI活用研究〜
2026.02.06 マッキンゼーの採用試験にAI登場 〜仕事に必要なスキルはどう変わるのか〜
2026.02.02 地理が暗記科目ではなくなる? 〜GeoAIで変わる、体験型・問題解決型の学習〜
2026.01.21 体育の授業にAIが入ると何が変わる? 〜小学生の投球力向上を検証した研究から〜
2026.01.07 幼児のスマホ見過ぎをどう改善するか 〜スクリーンタイム削減に成功した研究から学ぶ〜
2025.12.23 AIは創造力を奪うのか、育てるのか? 〜 美術教育で検証された生成AIの可能性〜
2025.12.09 AI彼氏やAI親友はなぜ生まれるのか 〜人がAIに親密さを感じる“仕組み”を科学する〜
2025.11.27 AIは歴史学習に向かない? 〜論文が示す「文脈力」と「批判的思考」の重要性〜
2025.11.06 AI時代に“根っこ”の学びをどう育てるか 〜人の学びとキャリアの構造を可視化した研究〜
2025.10.22 AIは人間の心を読めるのか? 〜スタンフォード大学の研究〜
2025.10.08 ChatGPT利用で成績はアップする? 〜51研究のメタ分析から見えた答え〜
2025.10.01 なぜAIは「もっともらしい嘘」をつくのか 〜OpenAIがハルシネーションの原因を分析〜
2025.09.03 AI依存はバカになる? 考える力が衰えるのは本当?
2025.08.01 AI時代に求められる人材と仕事とは 〜「全部が60点」という人が不要になる? 〜
2025.07.15 子どもの生成AIとの付き合い方とは? 〜親子で考える教育と家庭の役割
2025.06.24 発明塾式「頭のよい子が育つ家」〜思考を育てる環境設計〜
2025.06.06 文系・理系どちらを選ぶべき? 〜子どもの進路選択に悩む親が知っておきたい3つの視点
2025.05.19 発明塾の手法と子育て
ここでしか読めない発明塾のノウハウの一部や最新情報を、無料で週2〜3回配信しております。
・あの会社はどうして不況にも強いのか?
・今、注目すべき狙い目の技術情報
・アイデア・発明を、「スジの良い」企画に仕上げる方法
・急成長企業のビジネスモデルと知財戦略