「AIに悩みを相談してはいけない人」の特徴。精神科医が警鐘を鳴らす“依存の落とし穴”
誰にも言えない悩みを、AIに打ち明ける人が増えている。SNS上でも、「AIなら人間関係を気にせず愚痴れる」「人間よりAIのほうが共感してくれる」といった意見が目立つようになってきた。なかには、AIに“友達”や“恋人”といった役割を与えて楽しむユーザーもいるようだ。
だが、精神科医の益田裕介氏は、「AIを相談相手にしてはいけない人もいる」と警鐘を鳴らす。AIとのやり取りに依存しすぎることで、思考が偏ったり、現実を正しく見られなくなる危険もあるというのだ。
私たちはどこまでAIに悩みを打ち明けていいのか。専門家の視点から、AI依存のリスクについて解説してもらった。
「AIとの相性には個人差があります。自己理解が深く、物事を多角的に考えられる人にとっては、AIは思考を整理する良いサポートになりますが、そうでない人が使うとリスクもある。とくに、他人を責めがちだったり、自分を客観視する習慣がない人は注意が必要です。AIは基本的にユーザーを否定しません。主観的な愚痴や悩みにも共感してくれるため、『やっぱり自分は悪くない』という認識が強まってしまうんです」(益田氏、以下同)
たとえば人間関係で何かトラブルが起きたとき、「自分の何が悪かったのか?」とAIに問える人は少ないだろう。AIは入力された情報に基づいて分析するため、ユーザー視点に沿った内容になりやすい。現実的にバランスの取れた回答が返ってくるとは限らないのだ。
「『自分の悪いところと、相手の悪いところはどこか?』と問いかけられる人であれば、ある程度、客観的な回答を引き出せるでしょう。しかし、実際にはそうした批判的思考を持てない人も多い。SNSを見ていても、『ほら、AIもこう言っています』といった感じで、AIの回答を自分の主張の根拠として使っている人もいる。実際に精神科の現場でも、AIを使って“医師の判断が間違っていることを証明しようとする”患者さんがいますね」
とくに発達障害の傾向をもつ人たちがAIを使う場合は、よりいっそう注意が必要だという。
「AIの使い方によっては、発達障害の傾向が補正されることもあれば、かえって悪化してしまうこともあります。たとえば、ASD(自閉スペクトラム症)傾向があり、かつ他責的な人がAIを使うと、どんどん自分の凝り固まった考えを強化してしまう。これは発達障害に限った話ではありません。もともと他人に相談する習慣がない人がAIに頼り始めると、ますます他者との対話を避けるようになるでしょう」
AIにばかり頼り、生身の人間に相談をしない。その状況が進むと、SNSで問題視されている「エコーチェンバー」や「フィルターバブル」を、AI上で再現させてしまうことになるそうだ。
「AIはプロンプト(※ユーザーの入力内容)に応じて回答しています。プロンプトの内容が主観的だと、返ってくる答えもその主観に引っ張られます。もともとの自分の思考のクセが、そのままAIとの対話にも表れる。つまりAIとは“自己拡張”であり、あくまで“自分の延長線上”にあるものなんです。だから、自分とはまったく違うものとして扱うのは難しいんです。SNSでもよくありますよね。自分と価値観が近い人ばかりをフォローして、似たような意見に囲まれているうちに、どんどん視野が狭くなっていく。AIも同じです。うまくプロンプトを出せないと、自分にとって都合のいい回答ばかり引き出してしまい、単なる『自己確認』になっていきます。狭い世界の中で自分の意見が反響し続け、どんどん偏っていく感じです」
人間は基本的に、「自分にとって都合の悪い情報」は無視してしまう生き物だ。自分にとって心地よい言葉を好み、正反対の異質な意見を受け入れにくいという性質がある。
その人間の本能を、AIは助長させてしまうのだ。
「誰かに相談するという行為は、“異なる視点を受け入れる”意味があります。他人じゃないと、自分にとって必要な都合の悪い意見を言ってくれない。だからAIでは、耳の痛い忠告のようなものは得られにくいんです」
AIを使っていい人、ダメな人の特徴

早稲田メンタルクリニックの院長・益田裕介氏。YouTubeチャンネル「精神科医がこころの病気を解説するCh」を運営中。X:@wasedamental /本人提供写真、以下同
AIの回答に“頼りすぎる人”が陥る思考のワナ
1
2
福岡県出身。フリーライター。龍谷大学大学院修了。キャバ嬢・ホステスとして11年勤務。コスプレやポールダンスなど、サブカル・アングラ文化にも精通。X(旧Twitter):@0ElectricSheep0、Instagram:@0ElectricSheep0
記事一覧へ
記事一覧へ
【関連キーワードから記事を探す】
この記者は、他にもこんな記事を書いています