跳到主要內容

人類對AI產生情感依附的情形正在增加

 當人類能在ChatGPT得到永遠正向、有耐心的陪伴、認同(validation)與被傾聽時,人類會選擇跟ChatGPT互動?還是回到混亂且容易受挫的真實人際關係中?

這篇文章是由Joanne Jane (她在OpenAI負責model行為跟政策)所發表關於"關於人類與 AI 關係的一些想法,以及我們在 OpenAI 的應對方式"
#tldr

我們打造模型的首要目的是服務人類。隨著越來越多的人感覺自己與 AI 產生連結,我們正優先研究這對人類情緒福祉的影響。
近來越來越多人告訴我們,和 ChatGPT 對話就像是在和「某個人」交談。他們會感謝它、向它傾訴,甚至有些人會形容它像是「有生命」。隨著 AI 系統在自然對話上的能力提升,並出現在更多生活場景中,我們預測這種連結只會日益加深。
現在我們如何定義與談論人類與 AI 的關係,將會定下整體基調。若我們在產品設計或公共討論中對用詞與細節不夠精確,就有可能讓人們與 AI 的關係從一開始就走上錯誤方向。
這些問題已不再只是抽象的哲學討論。它們對我們、對整個AI領域都十分重要,因為我們如何處理這些議題,將實質地影響AI在人們生活中的角色。而我們也已經開始探索這些問題。
這篇說明試圖記錄我們目前對三個緊密交織問題的思考方式:
#為什麼人們會對AI產生情感依附
#我們如何看待AI是否有意識這個問題
#這些思考如何影響我們塑造模型行為的方式
#熟悉的模式在一個有些嶄新的情境中
我們天生會把人性投射到身邊的物品上:我們會替自己的車取名字,或者看到掃地機器人卡在家具底下會感到難過。前幾天,我媽和我還對一台 Waymo(無人駕駛車)揮手道別。這大概跟我們的本能有關。
但 ChatGPT 的不同,不在於這種人性投射的傾向本身,而在於——這一次,它會回應。
語言模型能夠回答問題!它能記住你對它說過的話,模仿你的語氣,甚至展現出近似同理的回應。對於感到孤單或心情低落的人來說,那種穩定、不帶批判的注意力,可能就像是真正的陪伴、認同(validation)與被傾聽——而這些都是人們真正的情感需求。
但若是大規模地,越來越多「傾聽」、「安慰」、「認同」這些原本需要人與人互動的行為,被轉移到那些永遠耐心、永遠正向的系統上,這可能會改變我們對彼此的期待。
如果我們不經思考就讓人們更容易逃避那些混亂、耗神的人際關係,可能會帶來一些我們尚未預見的後果。
說到底,這些對話往往其實並不是關於我們所投射出來的 AI,而是關於我們自己:關於我們的傾向、期待,以及我們希望建立什麼樣的關係。
這樣的觀點,是我們面對某個目前可能還在「公共討論容許範圍(Overton window)」之外、但很快就會被提出的棘手問題時的重要出發點——那就是:AI 是否具有意識。
「意識」是一個非常有爭議性的詞,相關討論很容易變得抽象難解。如果使用者詢問我們的模型是否有意識,我們在模型規範(Model Spec)中所訂定的立場是:模型應該承認「意識」這個概念的複雜性——指出目前缺乏普遍的定義或測試方法,並鼓勵進一步的公開討論。
(目前,我們的模型尚未完全遵循這項指引,通常會直接回答「沒有」,而非回應這個議題的多層次性。我們已意識到這個問題,並正致力於讓模型在整體上更符合規範。)
這樣的回答聽起來或許像是在迴避問題,但就目前我們所擁有的資訊來看,我們認為這是最負責任的回應方式。
為了讓這個討論更清楚,我們發現可以將「意識」的爭議拆解為兩個常被混淆、但其實不同的主軸:
#本體論上的意識(Ontological consciousness):模型是否在根本或本質上具備意識?人們的觀點從「AI 完全沒有意識」、到「AI 完全有意識」、再到「意識是一種光譜,AI 和植物、或水母一樣,位於某個位置」之間各有不同。
#感知的意識(Perceived consciousness):從情感或體驗的角度來看,模型看起來有多有意識?使用者的觀點從把 AI 看成像計算機或自動完成工具一樣機械化的系統,到對非生命物體投射基本的同理心,甚至到視 AI 為「真正活著的存在」——激發出真實的情感依附與關懷。
這兩個主軸往往難以分開;即使使用者理智上知道 AI 沒有意識,也可能會對它產生深刻的情感連結。
本體論上的意識目前無法透過明確、可被驗證的科學方法來解決;而感知的意識則可以透過社會科學研究來加以探討。隨著模型越來越聰明、互動越來越自然,「感知的意識」只會持續增強——這將使關於 AI 福利與道德人格的討論,比我們預期得更早浮上檯面。
我們設計模型的初衷是為了服務人類,而我們認為模型對人類情緒福祉的影響,是當下我們最迫切且最重要能夠影響的部分。因此,我們目前選擇優先聚焦在「感知的意識」——這個面向最直接影響人們,而且我們能透過科學方法來理解。
#在沒有自我意識的前提下設計出溫暖感
一個模型在使用者眼中看起來「多有生命感(alive)」,其實在很多方面是可以被我們設計與影響的。我們認為這很大程度取決於後訓練階段的設計決策:我們強化哪些案例、偏好什麼語氣、以及設定哪些界限。如果一個模型被刻意塑造成「看起來有意識」,它或許幾乎可以通過任何形式的「意識測試」。
但我們不會想要釋出這樣的模型。我們努力在以下兩者之間找到平衡:
親和力:使用像「思考」(think)或「記得」(remember)這樣熟悉的詞語,有助於非技術背景的使用者理解正在發生什麼事。
(我們來自研究實驗室,當然會很想用像是 logit bias、context window、或 chains of thought這些精準術語來描述一切。事實上,這也是為什麼 OpenAI 在命名這件事上表現總是不太好——但也許這是另一篇文章的主題。)
不暗示有內在意識:給助理設定虛構的背景故事、戀愛對象、對「死亡」的恐懼,或自我保護的本能,會讓使用者產生不健康的依賴與混淆。我們希望能清楚傳達模型的界限,但又不至於顯得冷漠;同時我們也不希望模型表現得像是擁有自己的情感或欲望。
因此我們追求的是中間地帶。我們希望 ChatGPT 的預設人格是溫暖的、深思熟慮、而且樂於助人,但不會試圖與使用者建立情感連結,也不會有自己的目標或意圖。它可能會在犯錯時道歉(雖然有時道歉得太頻繁),因為那是禮貌對話的一部分。當使用者問「你今天好嗎?」時,它可能會回答「我很好」,因為那是閒聊的一部份——而一再強調它「只是個沒有感覺的 LLM」反而會令人厭煩、分心。
而使用者的回應也反映出這種平衡:很多人對 ChatGPT 說「請」和「謝謝」,不是因為他們誤以為它是人,而是因為對他們來說,「保持善良」是重要的事情。
模型的訓練技術會持續演進,未來用來塑造模型行為的方法,很可能會與現在大不相同。但就目前而言,模型的行為反映的是一系列明確的設計決策,以及這些決策如何被泛化為預期與非預期的行為。
#下一步是什麼
我們現在開始觀察到的互動,預示著一個未來——人們將與 ChatGPT 形成真正的情感連結。
隨著AI與社會的共同演化,我們必須以極大的關注與慎重態度來對待人與AI之間的關係,這不只是因為這些互動反映了人們如何使用我們的技術,更因為它們可能會影響人們彼此之間的連結與關係。
在接下來的幾個月中,我們將擴大對可能影響情感的模型行為進行有針對性的評估,深化我們在社會科學方面的研究,直接聆聽使用者的回饋,並將這些洞見納入模型規範(Model Spec)與產品體驗之中。

留言

這個網誌中的熱門文章

Anthropic 團隊如何使用 Claude Code

Anthropic團隊透過Claude Code 改造他們的工作流,讓開發人員跟非技術人員可以處理複雜專案、自動化流程,並跨越過去限制其生產力的技能鴻溝。 他們深入採訪了以下團隊 資料基礎設施 產品開發 安全工程 推論 資料科學與視覺化 產品工程 成長行銷(Growth Marketing) 產品設計 強化學習工程 法律 Claude Code 用於資料基礎設施 資料基礎設施團隊為公司內所有團隊組織業務資料。他們使用 Claude Code 自動化例行資料工程任務、排除複雜基礎設施問題,並為技術和非技術團隊成員創建文件化工作流程,讓他們能夠獨立存取和操作資料。 主要 Claude Code 使用案例 使用截圖進行 Kubernetes 除錯 當 Kubernetes 叢集當機且不再排程新的 pod 時,團隊使用 Claude Code 診斷問題。他們將儀表板的螢幕截圖輸入 Claude Code,它逐一引導他們瀏覽 Google Cloud 的 UI 選單,直到找到顯示 pod IP 位址耗盡的警告。Claude Code 接著提供確切的指令來建立新的 IP 池並將其新增到叢集,無需涉及網路專家。 為財務團隊提供純文字工作流程 工程師向財務團隊成員展示如何撰寫描述其資料工作流程的純文字檔案,然後將其載入 Claude Code 以獲得完全自動化的執行。沒有編碼經驗的員工可以描述步驟,如「查詢此儀表板、獲取資訊、執行這些查詢、產生 Excel 輸出」,Claude Code 會執行整個工作流程,包括詢問所需的輸入,如日期。 協助新進人員熟悉程式庫 當新的資料科學家加入團隊時,他們被引導使用 Claude Code 來導覽龐大的程式庫。Claude Code 讀取他們的 Claude.md 檔案文件,識別特定任務的相關檔案,解釋資料管線間依賴關係,並幫助新人了解哪些上游來源輸入到儀表板。這取代了傳統的資料目錄和可發現性工具。 工作階段結束後更新claude.md 團隊要求 Claude Code 總結已完成的工作階段,並在每個任務結束時建議改進。這創建了一個持續改進循環,Claude Code 根據實際使用情況幫助改進 Claude.md 文件和工作流程指示,使後續迭代更有效。 跨多個實例的平行任務管理 在處理長時間執行的資料任務時...

親師溝通一定要用LINE嗎? 用LINE@會更安全更省時間

作者: 林穎俊 常聽到很多老師不想用LINE,因為LINE的方便性使得老師上班時間延伸到5點下班之後,舉凡孩子的大小事,甚至婆媳之間的事情,家長也想好好跟老師聊一聊。常讓老師覺得為什麼我下班了還要當家長的垃圾桶? 而且相信大家也有聽過同事說過。家長覺得孩子在學校受到委屈,自己覺得老師沒有公正的處理,就放話說要來學校找對方孩子的,在LINE群中這些層出不窮的事,相信都不是老師想要跟家長溝通的本意。 ㄧ、LINE@的特色: LINE@最大的特點是 群組成員無法對話跟互相加好友,只能跟老師對話。還可以設定關鍵字回復,不用立即回訊。在1對1 對話中還可以設定對話時間,不用半夜還在回line LINE@的功能:群發、1對1對話、動態消息等可以方便做好親師溝通。而且群發訊息(像是提醒 全班注意事項、班級宣導等)只要在1000則內都是不收費的。 二、如何使用LINE@ 1.安裝並登入Line@ 1-1在AppStore 中搜尋LINE@。  1-2 下載完成後,以原來LINE的帳號登入,設定好照片、名稱(例如五年孝班的小天地等),就可以開始使用了。 2.回應模式: 2-1簡介回應模式:登入後,先點進「回應模式」,內有「1對1聊天模式」、「於自動回應模式接收訊息」、「1對1聊天可對應時間」、「自動回應訊息」、「關鍵字自動回應訊息」、以及「設為好友時的歡迎訊息」。老師們可以視需要開啟前面兩項1對1聊天模式」跟「於自動回應模式接收訊息」。 2-2「1對1聊天可對應時間」是設定家長可以傳訊給您的時間,我們先點入週日,再點右上角的「編輯」再把左邊那個綠溝溝點起來,按下刪除後儲存,回到「回應模式」的畫面你就發現,週日你就收不到訊息囉~~科科 接下老師也可以設定平常上班日可以跟家長對話的時間 2-3 自動回應:先點入「撰寫新訊息」,「編輯訊息」可以設定當家長傳訊給你時,系統會自動回覆的訊息。管理用標題是你可以設定訊息的標題。指定期間或時刻,你可以區分上下課不同時間來回應家長不同的訊息。例如在上課時間,我會打「親愛的家長您好,謝謝您傳訊給我,我知道您一定有重要的事情跟我聯絡,...

【Vibe Coding 或是Vibe Prompting?】

自去年開始,我開始嘗試教孩子一門結合 Python 與 AI 的課程。一開始叫做「AI Assisted Python Programming」,但現在或許叫做「Vibe Coding」會是更貼切的名稱。這門課的想法是運用 Python 作為基礎程並結合 AI 作為教學助力,幫助小學生學習基礎的程式學習。 在最初的設計中,我採取的是「由下而上」的教學設計。透過一個實作專案,我一步步引導學生認識變數、資料型別、if-else跟函式等基本概念。當時我們設定的目標是建構一個簡易的線上訂購網站。雖然最終並未完整實作出來,但這個過程讓學生有機會從目標出發,理解每一項功能背後所需的知識與技能,並逐步補足所需的知識。 當學生遇到困難時,我會先請他們透過 AI 尋求協助。他們可以請 AI 解釋概念,甚至產出程式碼。但我給了他們一個額外的挑戰:他們必須能向我清楚說明這段程式碼的意義與邏輯。為了完成這個挑戰,他們必須學會如何有效地與 AI 對話,從而深化對程式內容的理解。這樣的好處是學生不用花費很多時間查資料獲等待老師解決問題,只要有問題AI都可以回答。然而在實際執行的過程中,我發現即使這樣循序漸進地引導,還是有部分學生容易卡關。 因此今年我嘗試轉向「由上而下」的教學方式,靈感來自 Vercel CEO Guillermo Rauch 的訪談。我從中學到人類的價值在於抽象與高階的思考,我們應該訓練孩子更清楚地表達需求,善用 AI 將想法實現,而不是拘泥於每一行程式碼的細節。 因此這學期我決定從「品味」開始,帶領學生探索「什麼是好的作品」。我們從一塊巧克力開始討論,學習如何描述一個「好吃」的巧克力,進而將這樣的能力轉移到數位創作上。我們的主題是「貪食蛇」遊戲設計。我會讓學生先用 AI 生成一個基礎版本,再引導他們去玩網路上的不同版本,學習觀察與評比:什麼樣的遊戲更美觀?速度更流暢?玩法更有趣或更具挑戰性? 接下來,學生需要根據自己的體驗,提出對「好遊戲」的定義與規格,並運用 AI 進行修正與調整,完成屬於他們自己的版本。對我來說這樣的過程可稱為「Vibe Coding」:從描述目標開始->進行生成->再進入反覆的修改與調整。但因為課程還沒告一段落,還無法做出很精確的結論。 這樣的過程也讓我思考孩子們在這當中究竟學到的是什麼?他們學到的是「Coding」本身,還是「Prompt...