與其絞盡腦汁寫出完美prompt,不如先偷懶看看會發生什麼事
其實早在 2023 年,吳恩達教授在《Generative AI for Everyone》課程中就已經談過類似的概念。他建議與其一開始就試圖寫出完美的 prompt,不如先嘗試一個簡單的版本,觀察LLM的回應,再根據實際結果調整提示,直到得到理想的答案。他甚至提醒大家,不需要擔心問錯問題,也不會因為幾次錯誤就導致什麼災難性的後果。
從這兩段不同時期的分享中,我看到的核心原則是:與 AI 的互動應該是「從最簡開始,逐步修正」,這是一種迭代與互動的過程。關鍵並不只是把 prompt 寫得多完整,而是使用者能否清楚地表達自己的需求,並判斷 AI 的回應是否符合預期。
這其實很像我們在教學中的作法。就像在教孩子「如何表達想法」的時候,我不會直接給孩子一篇文章叫他們自己看完就當作學會了,而是透過反覆提問、舉例,甚至從情境中引導他們思考:「這樣說比較好嗎?為什麼?」透過不斷的互動,才能建立孩子對「表達想法」這件事的理解。我們與 LLM 的互動,也應該是一種「讓它更了解你想要什麼」的過程,而不是單向的prompt。
我覺得最重要的是,我們要大量地在生活中實際使用 LLM。不管是查資料、理解文本、生成圖片、進階語音、設計 meta prompt,甚至只是想知道關稅對臺灣的影響都好。多用就會更清楚它擅長什麼、不擅長什麼。像我一開始對 ChatGPT 的搜尋功能沒有信心,總覺得查出來的東西很多錯誤就是一坨 OO,但直到朋友跟我分享他如何使用 ChatGPT,我才發現它的能力其實遠超出我的預期。
其實我們可以在生活中找到很多實際使用 LLM 的情境。就像大神 Andrej Karpathy 的影片有提到:
--想查一件生活小事,例如:「查某個影集的最新資訊?」
--閱讀一篇很長的英文文章或研究報告時,可以請 LLM 幫你摘要重點,或解釋其中的關鍵概念。
--如果你正在學語言,可以用它練習會話、拆解句子結構,甚至幫你做成flash cars。
--也可以請它推薦冷門又有趣的城市幫你規劃旅遊行程
--還可以用文字描述生成圖片、製作 Podcast、讓 AI 看你手機畫面回答問題,甚至製作簡單的 App。
這些例子都說明了一件事:你不需要一下子就會寫出「完美的 prompt」,只要願意開始用它處理身邊的小問題,慢慢就會發現它的潛力。從問生活瑣事,到深入學習一個主題,甚至創造新的東西,這些都是你與 AI「互動出來的能力」,而不是單靠輸入一句prompt就完成的奇蹟。
這也讓我反思:有時候限制我們的,不是 AI 的能力,而是我們對 AI 的認知還停留在過去。你不去用它,就不會學會怎麼用,而你真正學會的,不該只是「怎麼操作」,而是「思考怎麼使用」。
但我也想提醒大家一件事:當你無法判斷 AI 給出的答案是否足夠好時,其實代表你對這個問題的理解還不夠深。這就像我在教小學生使用 AI 的時候,有孩子會直接複製貼上 AI 的答案。我問他為什麼這麼做,他回答:「我沒有複製啊,只是剛好 AI 想的跟我一樣而已。」聽起來好像沒問題,但其實他並沒有真的理解或判斷 LLM 的回應,他只是照單全收。而當我們自己無法指出 AI 的回答哪裡可以更好時,會不會其實我們的水準也跟孩子差不多?
所以我們使用 AI 的目標,不應該是「讓 AI 幫我跳過思考的過程」,而是「透過互動加深自己的理解」。只有這樣,我們才能真正把它變成提升自己能力的工具,而不是一個取代思考的捷徑。