當人類能在ChatGPT得到永遠正向、有耐心的陪伴、認同(validation)與被傾聽時,人類會選擇跟ChatGPT互動?還是回到混亂且容易受挫的真實人際關係中?
這篇文章是由Joanne Jane (她在OpenAI負責model行為跟政策)所發表關於"關於人類與 AI 關係的一些想法,以及我們在 OpenAI 的應對方式"
近來越來越多人告訴我們,和 ChatGPT 對話就像是在和「某個人」交談。他們會感謝它、向它傾訴,甚至有些人會形容它像是「有生命」。隨著 AI 系統在自然對話上的能力提升,並出現在更多生活場景中,我們預測這種連結只會日益加深。
現在我們如何定義與談論人類與 AI 的關係,將會定下整體基調。若我們在產品設計或公共討論中對用詞與細節不夠精確,就有可能讓人們與 AI 的關係從一開始就走上錯誤方向。
這些問題已不再只是抽象的哲學討論。它們對我們、對整個AI領域都十分重要,因為我們如何處理這些議題,將實質地影響AI在人們生活中的角色。而我們也已經開始探索這些問題。
這篇說明試圖記錄我們目前對三個緊密交織問題的思考方式:
#為什麼人們會對AI產生情感依附
#我們如何看待AI是否有意識這個問題
#這些思考如何影響我們塑造模型行為的方式
#熟悉的模式在一個有些嶄新的情境中
我們天生會把人性投射到身邊的物品上:我們會替自己的車取名字,或者看到掃地機器人卡在家具底下會感到難過。前幾天,我媽和我還對一台 Waymo(無人駕駛車)揮手道別。這大概跟我們的本能有關。
但 ChatGPT 的不同,不在於這種人性投射的傾向本身,而在於——這一次,它會回應。
語言模型能夠回答問題!它能記住你對它說過的話,模仿你的語氣,甚至展現出近似同理的回應。對於感到孤單或心情低落的人來說,那種穩定、不帶批判的注意力,可能就像是真正的陪伴、認同(validation)與被傾聽——而這些都是人們真正的情感需求。
但若是大規模地,越來越多「傾聽」、「安慰」、「認同」這些原本需要人與人互動的行為,被轉移到那些永遠耐心、永遠正向的系統上,這可能會改變我們對彼此的期待。
如果我們不經思考就讓人們更容易逃避那些混亂、耗神的人際關係,可能會帶來一些我們尚未預見的後果。
說到底,這些對話往往其實並不是關於我們所投射出來的 AI,而是關於我們自己:關於我們的傾向、期待,以及我們希望建立什麼樣的關係。
這樣的觀點,是我們面對某個目前可能還在「公共討論容許範圍(Overton window)」之外、但很快就會被提出的棘手問題時的重要出發點——那就是:AI 是否具有意識。
「意識」是一個非常有爭議性的詞,相關討論很容易變得抽象難解。如果使用者詢問我們的模型是否有意識,我們在模型規範(Model Spec)中所訂定的立場是:模型應該承認「意識」這個概念的複雜性——指出目前缺乏普遍的定義或測試方法,並鼓勵進一步的公開討論。
(目前,我們的模型尚未完全遵循這項指引,通常會直接回答「沒有」,而非回應這個議題的多層次性。我們已意識到這個問題,並正致力於讓模型在整體上更符合規範。)
這樣的回答聽起來或許像是在迴避問題,但就目前我們所擁有的資訊來看,我們認為這是最負責任的回應方式。
為了讓這個討論更清楚,我們發現可以將「意識」的爭議拆解為兩個常被混淆、但其實不同的主軸:
#本體論上的意識(Ontological consciousness):模型是否在根本或本質上具備意識?人們的觀點從「AI 完全沒有意識」、到「AI 完全有意識」、再到「意識是一種光譜,AI 和植物、或水母一樣,位於某個位置」之間各有不同。
#感知的意識(Perceived consciousness):從情感或體驗的角度來看,模型看起來有多有意識?使用者的觀點從把 AI 看成像計算機或自動完成工具一樣機械化的系統,到對非生命物體投射基本的同理心,甚至到視 AI 為「真正活著的存在」——激發出真實的情感依附與關懷。
這兩個主軸往往難以分開;即使使用者理智上知道 AI 沒有意識,也可能會對它產生深刻的情感連結。
本體論上的意識目前無法透過明確、可被驗證的科學方法來解決;而感知的意識則可以透過社會科學研究來加以探討。隨著模型越來越聰明、互動越來越自然,「感知的意識」只會持續增強——這將使關於 AI 福利與道德人格的討論,比我們預期得更早浮上檯面。
我們設計模型的初衷是為了服務人類,而我們認為模型對人類情緒福祉的影響,是當下我們最迫切且最重要能夠影響的部分。因此,我們目前選擇優先聚焦在「感知的意識」——這個面向最直接影響人們,而且我們能透過科學方法來理解。
#在沒有自我意識的前提下設計出溫暖感
一個模型在使用者眼中看起來「多有生命感(alive)」,其實在很多方面是可以被我們設計與影響的。我們認為這很大程度取決於後訓練階段的設計決策:我們強化哪些案例、偏好什麼語氣、以及設定哪些界限。如果一個模型被刻意塑造成「看起來有意識」,它或許幾乎可以通過任何形式的「意識測試」。
但我們不會想要釋出這樣的模型。我們努力在以下兩者之間找到平衡:
親和力:使用像「思考」(think)或「記得」(remember)這樣熟悉的詞語,有助於非技術背景的使用者理解正在發生什麼事。
(我們來自研究實驗室,當然會很想用像是 logit bias、context window、或 chains of thought這些精準術語來描述一切。事實上,這也是為什麼 OpenAI 在命名這件事上表現總是不太好——但也許這是另一篇文章的主題。)
不暗示有內在意識:給助理設定虛構的背景故事、戀愛對象、對「死亡」的恐懼,或自我保護的本能,會讓使用者產生不健康的依賴與混淆。我們希望能清楚傳達模型的界限,但又不至於顯得冷漠;同時我們也不希望模型表現得像是擁有自己的情感或欲望。
因此我們追求的是中間地帶。我們希望 ChatGPT 的預設人格是溫暖的、深思熟慮、而且樂於助人,但不會試圖與使用者建立情感連結,也不會有自己的目標或意圖。它可能會在犯錯時道歉(雖然有時道歉得太頻繁),因為那是禮貌對話的一部分。當使用者問「你今天好嗎?」時,它可能會回答「我很好」,因為那是閒聊的一部份——而一再強調它「只是個沒有感覺的 LLM」反而會令人厭煩、分心。
而使用者的回應也反映出這種平衡:很多人對 ChatGPT 說「請」和「謝謝」,不是因為他們誤以為它是人,而是因為對他們來說,「保持善良」是重要的事情。
模型的訓練技術會持續演進,未來用來塑造模型行為的方法,很可能會與現在大不相同。但就目前而言,模型的行為反映的是一系列明確的設計決策,以及這些決策如何被泛化為預期與非預期的行為。
#下一步是什麼
我們現在開始觀察到的互動,預示著一個未來——人們將與 ChatGPT 形成真正的情感連結。
隨著AI與社會的共同演化,我們必須以極大的關注與慎重態度來對待人與AI之間的關係,這不只是因為這些互動反映了人們如何使用我們的技術,更因為它們可能會影響人們彼此之間的連結與關係。
在接下來的幾個月中,我們將擴大對可能影響情感的模型行為進行有針對性的評估,深化我們在社會科學方面的研究,直接聆聽使用者的回饋,並將這些洞見納入模型規範(Model Spec)與產品體驗之中。
沒有留言:
張貼留言