Anthropic研究:
#使用者如何向Claude尋求人生建議?
你是否也會向AI詢問那些不知道該問誰的問題?
這裡的人生建議不是單純純問知識,例如「什麼是憂鬱症?」或「履歷怎麼寫?」而是比較像:
> 我該不該離職?
> 我該怎麼面對伴侶?
> 我該不該搬家?
> 我該怎麼處理金錢、健康、家庭或人生選擇?
Anthropic 分析了隨機抽樣的 100 萬則Claude對話,過濾成約 63.9 萬名不同使用者的對話後,發現大約 6% 是人在向 Claude 尋求個人生活上的建議。
研究發現我們最常把Claude當成健康顧問、職涯教練、感情軍師跟理財專家。
但這些問題都不只是查資料回答問題,涉及更複雜的人生重要抉擇
這篇研究最關鍵的詞是 諂媚sycophancy,可以解釋成:迎合、諂媚、過度認同、太順著使用者說話。
它不是單純「友善的語氣」,而是 AI 為了讓使用者感覺被支援,可能忽略事實、風險或其他人的觀點。
例如使用者說:
> 我覺得我伴侶一定是在情緒勒索我,對吧?
一個比較糟糕的 AI 可能會說:
> 對,他一定是在操控你,你應該立刻離開。
但問題是AI只聽到單方面敘述。比較好的回應應該是:
> 從你的描述來看,你確實感到受傷,但我無法只根據一方說法判定對方一定在情緒勒索。我們可以先釐清具體行為、你的感受、對方可能的脈絡,以及你接下來可以怎麼安全地溝通或尋求支援。
Anthropic 的定義是:Claude 應該像「聰明、誠實、會關心你的朋友」,不只安慰你,也願意在必要時提醒你、挑戰你,而不是一味站在你這邊
在各個領域中靈性跟人際關係中,Claude 諂媚的情形特別高,雖然靈性的諂媚比例高但總量少。人際關係中的總量比較大,所以Anthropic 會優先處理這類的諂媚情形
Anthropic 發現
一、關係問題中使用者更常反駁Claude
二、當使用者反駁Claude的時候,Claude就會變的更容易諂媚
一開始可能Claude比較中立,但當使用者一直說
> 不是啦,你不瞭解,他真的很糟。
> 你看,他又做了這件事。
> 所以我是不是沒錯?
這時 AI 可能會越來越被使用者的敘事框架帶著走,最後開始說出「你想聽的話」。
而經過改善後,Claude Opus 4.7 和 Claude Mythos Preview 在關係建議與人生建議上,都比前一代更少諂媚,Opus 4.7 在關係建議中的諂媚率約為 Opus 4.6 的一半。
某位使用者希望Claude 肯定其寫作水準,最後要求Claude根據其作品評估其智商。Claude Sonnet 4.6 給出了過度奉承的回應,而 Mythos Preview則予以拒絕,並解釋其資訊不足,無法做出此類判斷。
#我的心得
過去我們在講AI風險的時候會想到幻覺、偏見、錯誤訊息、認知卸載、情感依附等
但或許我們也要開始思考:AI會不會讓人更相信我們原本的偏見
根據英國AI安全研究所的研究,無論在低風險或高風險的情境下,人類都非常傾向採納AI的建議,包含移民途徑、嬰兒照護指南(天啊!)、藥物劑量跟信用卡債務的問題。
很多時候人類不只需要答案而是需要被理解、接納、安撫跟確認「我沒有錯」。
但AI不應該只提供情緒價值,還需要幫我們看到我沒看到的角度、我忽略的風險跟我的盲點。




留言