Lazy prompting


與其絞盡腦汁寫出完美prompt,不如先偷懶看看會發生什麼事

昨天吳恩達教授提出了「Lazy Prompting」的概念,這是一種使用大型語言模型(LLM)時更進階的提示技巧。做法是直接輸入一個簡短但可能不夠精確的 prompt,先看看 LLM 會給出什麼樣的結果,再根據情況決定是否補充更多脈絡(context)。判斷這種方法是否合適的關鍵,在於使用者能否快速評估生成內容的品質。
其實早在 2023 年,吳恩達教授在《Generative AI for Everyone》課程中就已經談過類似的概念。他建議與其一開始就試圖寫出完美的 prompt,不如先嘗試一個簡單的版本,觀察LLM的回應,再根據實際結果調整提示,直到得到理想的答案。他甚至提醒大家,不需要擔心問錯問題,也不會因為幾次錯誤就導致什麼災難性的後果。
從這兩段不同時期的分享中,我看到的核心原則是:與 AI 的互動應該是「從最簡開始,逐步修正」,這是一種迭代與互動的過程。關鍵並不只是把 prompt 寫得多完整,而是使用者能否清楚地表達自己的需求,並判斷 AI 的回應是否符合預期。
這其實很像我們在教學中的作法。就像在教孩子「如何表達想法」的時候,我不會直接給孩子一篇文章叫他們自己看完就當作學會了,而是透過反覆提問、舉例,甚至從情境中引導他們思考:「這樣說比較好嗎?為什麼?」透過不斷的互動,才能建立孩子對「表達想法」這件事的理解。我們與 LLM 的互動,也應該是一種「讓它更了解你想要什麼」的過程,而不是單向的prompt。
我覺得最重要的是,我們要大量地在生活中實際使用 LLM。不管是查資料、理解文本、生成圖片、進階語音、設計 meta prompt,甚至只是想知道關稅對臺灣的影響都好。多用就會更清楚它擅長什麼、不擅長什麼。像我一開始對 ChatGPT 的搜尋功能沒有信心,總覺得查出來的東西很多錯誤就是一坨 OO,但直到朋友跟我分享他如何使用 ChatGPT,我才發現它的能力其實遠超出我的預期。
其實我們可以在生活中找到很多實際使用 LLM 的情境。就像大神 Andrej Karpathy 的影片有提到:
--想查一件生活小事,例如:「查某個影集的最新資訊?」
--閱讀一篇很長的英文文章或研究報告時,可以請 LLM 幫你摘要重點,或解釋其中的關鍵概念。
--如果你正在學語言,可以用它練習會話、拆解句子結構,甚至幫你做成flash cars。
--也可以請它推薦冷門又有趣的城市幫你規劃旅遊行程
--還可以用文字描述生成圖片、製作 Podcast、讓 AI 看你手機畫面回答問題,甚至製作簡單的 App。
這些例子都說明了一件事:你不需要一下子就會寫出「完美的 prompt」,只要願意開始用它處理身邊的小問題,慢慢就會發現它的潛力。從問生活瑣事,到深入學習一個主題,甚至創造新的東西,這些都是你與 AI「互動出來的能力」,而不是單靠輸入一句prompt就完成的奇蹟。
這也讓我反思:有時候限制我們的,不是 AI 的能力,而是我們對 AI 的認知還停留在過去。你不去用它,就不會學會怎麼用,而你真正學會的,不該只是「怎麼操作」,而是「思考怎麼使用」。
但我也想提醒大家一件事:當你無法判斷 AI 給出的答案是否足夠好時,其實代表你對這個問題的理解還不夠深。這就像我在教小學生使用 AI 的時候,有孩子會直接複製貼上 AI 的答案。我問他為什麼這麼做,他回答:「我沒有複製啊,只是剛好 AI 想的跟我一樣而已。」聽起來好像沒問題,但其實他並沒有真的理解或判斷 LLM 的回應,他只是照單全收。而當我們自己無法指出 AI 的回答哪裡可以更好時,會不會其實我們的水準也跟孩子差不多?
所以我們使用 AI 的目標,不應該是「讓 AI 幫我跳過思考的過程」,而是「透過互動加深自己的理解」。只有這樣,我們才能真正把它變成提升自己能力的工具,而不是一個取代思考的捷徑。
真正厲害的,不是會下完美 prompt 的人,而是具有品味懂得判斷與修正的人。



OpenAI學院

 剛看到OpenAI推出了OpenAI學院(OpenAI Academy),包含了ChatGPT各種功能(如GPTs、搜尋跟資料分析)的介紹、給開發者的Build hour(如微調Fine-tuning、Assistants & Agents跟蒸餾等)甚至連給教育工作者的基礎介紹、AI自動化跟如何與AI協作簡化小組專案都有。

在2025年學習如何寫程式是否還有價值?

 Replit的CEO Amjad Masad被問到「在2025年學習如何寫程式是否還有價值?」

Amjad Masad一開始說「有」,但取決你對AI的發展有什麼預測。就像在上昇的情況下,就像Anthropic的CEO Dario說的所有的程式碼都將由AI生成。在這個最佳的路徑,agent將變的越來越強的情況下,答案就不一樣,是否需要學寫程式的答案就是否定的,學程式就是浪費時間。
Amjad知道不同人會有不同的看法,但看到agent的進展後,他改變了答案,一年前他認為每個人都該學點程式,但現在會說要學如何思考、如何清晰地溝通,就像跟人類溝通一樣跟機械溝通。
而 Amjad Masad在X上也補充說道,他理解所有的應對,得出這個結論非常困難。但就他之前在OSS WORK、Codecademy(知名線上學習程式網站)及Replit的工作的經驗,他比任何人更普及化了學習寫程式。
但對我而言,並不是說不要學寫程式(好饒口)只是學程式的內容跟方式跟以前不一樣,現在正是這個轉捩點,但我還不確定Coding 2.0將會是什麼樣子?




生成式AI整合到教學的心得

謝謝 Inside Possible的邀請,讓我有機會跟大家整理分享過去兩年試著將生成式AI整合到教學的心得。
以下是用AI整理逐字稿後,字有點多的概要
#如何與AI一起學習
AI領域有一篇開創的論文「Attention is all you need」,但在生成式AI出現兩年之後,我們不禁要反問:「Is Attention still all you need?」我們使用AI的方式是否仍與過去相同?提問的方式、應用的情境是否有所演進?AI的角色更偏向自動化的「替代」,還是輔助性的「增強」?
替代指的是讓AI自動完成某些工作,但對學生的學習而言,這是好的應用方式嗎?自動化真的能減輕學生負擔嗎?還是只是拿來快速生成某些作品?
增強指的是利用AI作為輔助工具,提升我們原本的能力幫助我們思考作的更好。就像你騎電動腳踏車,你還是需要自己踩,但是AI可你讓騎的更遠更輕鬆。
為了更好地應用AI,我習慣從最根本的學習理論出發——人類是如何學習的?學習大致可分為「編碼」(吸收新知)、「儲存」(長期記憶)和「提取」(回憶應用)三個階段。
我曾有過這樣的經驗:第一次去某個不熟的學校開會,同事簡單指點路線後順利抵達(編碼、儲存);但第二次要去時,卻怎麼也想不起確切位置和學校名稱(提取失敗),最後還是得依靠手機備忘錄和地圖才找到(後設認知——知道如何尋求外部輔助)。
有效的學習不僅是吸收,更在於能否在需要時成功提取。另外「後設認知」包含了解自己如何學習、監控學習狀態、知道如何解決學習困難,也是相當重要的能力。接下來我分享的AI應用案例,都會嘗試連結到這些學習原理。
#AI的應用情境
1.像小學三年級生一樣解釋概念(輔助編碼): 請AI扮演小學三年級學生,用他們能懂的語言、動漫人物或童話故事舉例,解釋較難的概念(例如國中課本內容)。這有助於降低知識門檻,讓學生更容易吸收(編碼)。我測試過,三年級大概是個不錯的平衡點,再往下可能表達就太簡略了。
2.費曼學習法:教AI學會(提取): 讓學生扮演老師,將AI設定為需要學習的小學三年級學生,學生必須用簡單易懂的方式向AI解釋概念,直到AI「聽懂」。這是一個很棒的「提取練習」,迫使學生從腦中提取、重組並輸出知識。研究證明,不斷提取比單純記憶更能鞏固學習。AI在此過程中還可以判斷學生解釋得是否清晰、正確,並進行反問。
3.蘇格拉底式家教(深度提問): 利用現有的蘇格拉底式家教提示(Prompt),AI不僅針對單一問題提問,更能圍繞整個主題、學習脈絡進行深入探討,甚至引導學生思考知識與自身生活的連結(例如:「這個概念跟你生活有什麼關係?」)。這能培養學生的好奇心、持續思考與探索的學習態度,讓學習變得更有意義。
4.扮演歷史人物(情境思考):讓AI扮演特定的歷史人物(例如甘迺迪總統在他遇刺當天),學生可以與之對話,更身歷其境地理解歷史事件和人物的決策。這有助於將歷史知識與情境連結,而不只是死記硬背。
5.提供有效回饋(自動化與教師角色的權衡): AI確實能快速批改作業並提供立即回饋,這對學生學習很有幫助,也解決了老師難以及時給予個別化回饋的困境。但我也對此有所保留。因為過度依賴AI批改,是否會讓老師失去深入了解學生個別狀況與思考脈絡的機會?自動化雖然高效,但情感連結和老師對學生的細微觀察似乎難以取代。界線在哪裡,我還沒有答案。
6.提取練習工具(低風險測驗): 將AI作為課堂結束前5-10分鐘的低風險提取練習工具,不計分、無壓力。透過與AI討論當天所學、為何而學,類似蘇格拉底式提問,但更聚焦於回憶與鞏固。這能有效幫助學生檢視學習成效。
7.批判性思考練習(情境思辨): 透過童話故事改編為思辨情境,例如「睡美人被王子親吻算不算性騷擾?」、「小紅帽反殺大野狼是否防衛過當?」,讓學生先思考並寫下看法,再利用AI作為法律教練,精煉學生的論點,檢視其推論是否完整、思考是否周全。AI會挑戰學生的想法,引導他們從不同角度思考。
#關於PromptEngineering的省思
隨著AI越來越聰明甚至還有記憶功能,越來越懂得Context和反問,我們還需要像過去一樣,教孩子複雜的提示架構嗎?例如角色扮演、思考鏈(Chain of Thought)等技巧?。
或許比起教條式的提示規則,更重要的是培養孩子的好奇心、探索心態,以及如何清晰地描述問題。更重要的是我們要引導孩子思考如何「定位」AI——它是工具、軟體、夥伴、助理甚至老師?
#真正重要的事情
-情感連結是關鍵: 無論工具多新穎,學生的學習動機往往源於老師的關心與肯定。孩子學習的動力,很多時候來自於感覺被關心、被看見。老師或家長的陪伴與支持,比AI工具本身更重要。如果缺乏情感連結,即使AI再厲害,孩子也可能缺乏學習動機。
-AI降低學習門檻,但人類付出才是關鍵: AI確實可以降低學習的門檻,。但我的觀察是,學生若沒有被要求進行刻意的提取練習或應用,光靠與AI對話,長期記憶效果有限。大腦需要知道「這個知識很重要」,需要透過實際運用和克服困難才能有效學習,才會真正去記憶和理解。單純降低難度,不代表能確保深度學習。我們要重新思考「學會」的定義,它不只是知道答案,更包含過程中的思考與成長。
-孩子比我們想像的更好,但也需要引導: 許多人擔心孩子會用AI作弊。研究顯示,作弊比例在AI出現前後並無顯著增加(因為網路時代本就很高了)。我發現孩子多半知道作弊不對,被提醒後也願意修正。但他們也較少主動探索AI的多元應用。因此老師的角色不是禁止,而是引導——如何負責任地使用、了解界限、辨識風險。
#我們該如何教孩子使用AI
心態: 強調學生才是學習的主導者和最終負責人。AI是強大的工具或夥伴,但做決策、判斷是非的仍是自己。
界線: 與孩子深入討論AI能做什麼、不能做什麼,哪些學習任務適合AI輔助,哪些思考或創造必須由自己完成,以及過度依賴(學習外包)的潛在風險。
基本提問能力: 雖然複雜的提示工程可能不再是重點,但教導孩子如何清晰、具體地描述自己的問題或需求,仍然非常重要。
解決問題: 將AI融入實際的專案或問題解決過程中,讓學生在「做中學」,體會AI如何輔助他們達成目標,而不僅是為了使用AI而使用。讓AI輔助除錯、解釋概念或提供建議,而不是直接給出完整程式碼。從「由上而下」(專案導向)切入,可能比傳統「由下而上」(學語法)更能維持學習動機。
#結語
生成式AI的進步日新月異,但它真能改變教育系統嗎?使用AI的人會取代不使用AI的人,這定律在孩子身上也適用嗎?過早或過度導入AI,會不會反而阻礙了孩子核心能力的發展?
未來我們究竟要培養孩子哪些「不會被AI輕易取代」的能力?是提問能力、學習如何學習的能力、批判性思考、同理心、創造力,還是與AI協作的能力?
我沒有標準答案,甚至也不確定自己的做法是否完全正確。但我相信,持續觀察孩子、陪伴他們、與他們一同探索,並不斷反思與調整,或許才是身為教育者,在AI時代最重要的課題。
































【Vibe Coding 或是Vibe Prompting?】

自去年開始,我開始嘗試教孩子一門結合 Python 與 AI 的課程。一開始叫做「AI Assisted Python Programming」,但現在或許叫做「Vibe Coding」會是更貼切的名稱。這門課的想法是運用 Python 作為基礎程並結合 AI 作為教學助力,幫助小學生學習基礎的程式學習。

在最初的設計中,我採取的是「由下而上」的教學設計。透過一個實作專案,我一步步引導學生認識變數、資料型別、if-else跟函式等基本概念。當時我們設定的目標是建構一個簡易的線上訂購網站。雖然最終並未完整實作出來,但這個過程讓學生有機會從目標出發,理解每一項功能背後所需的知識與技能,並逐步補足所需的知識。
當學生遇到困難時,我會先請他們透過 AI 尋求協助。他們可以請 AI 解釋概念,甚至產出程式碼。但我給了他們一個額外的挑戰:他們必須能向我清楚說明這段程式碼的意義與邏輯。為了完成這個挑戰,他們必須學會如何有效地與 AI 對話,從而深化對程式內容的理解。這樣的好處是學生不用花費很多時間查資料獲等待老師解決問題,只要有問題AI都可以回答。然而在實際執行的過程中,我發現即使這樣循序漸進地引導,還是有部分學生容易卡關。
因此今年我嘗試轉向「由上而下」的教學方式,靈感來自 Vercel CEO Guillermo Rauch 的訪談。我從中學到人類的價值在於抽象與高階的思考,我們應該訓練孩子更清楚地表達需求,善用 AI 將想法實現,而不是拘泥於每一行程式碼的細節。
因此這學期我決定從「品味」開始,帶領學生探索「什麼是好的作品」。我們從一塊巧克力開始討論,學習如何描述一個「好吃」的巧克力,進而將這樣的能力轉移到數位創作上。我們的主題是「貪食蛇」遊戲設計。我會讓學生先用 AI 生成一個基礎版本,再引導他們去玩網路上的不同版本,學習觀察與評比:什麼樣的遊戲更美觀?速度更流暢?玩法更有趣或更具挑戰性?
接下來,學生需要根據自己的體驗,提出對「好遊戲」的定義與規格,並運用 AI 進行修正與調整,完成屬於他們自己的版本。對我來說這樣的過程可稱為「Vibe Coding」:從描述目標開始->進行生成->再進入反覆的修改與調整。但因為課程還沒告一段落,還無法做出很精確的結論。
這樣的過程也讓我思考孩子們在這當中究竟學到的是什麼?他們學到的是「Coding」本身,還是「Prompting」——要學的是程式語法跟抽象邏輯還是如何與 AI 對話、如何精準表達需求?
當 AI 越來越強大,我們是否還需要要求孩子學會撰寫每一行程式碼?還是更應該培養他們具備整合工具、協作創造的能力?
我沒有答案,但我認為這是我們教學者必須共同面對的重要議題。我們需要更細緻地去辨識,什麼情境下,孩子應該自己動手做「Vibe Coding」什麼時候,他們可以透過 AI 進行「Vibe Tutoring」,與AI對話理解背後的原理與邏輯。
而我自己也不是程式特別強的老師,我也像許多老師一樣,只是「擲筊型」的使用者,程式能跑就好,出了錯就再問一次AI。但或許也因如此,我更能理解學生使用AI可能的心態跟遇到的困難,也因為如此我意識到自己的不足,我開始回頭補起自己的基礎知識,重新學習 React。雖然過程中時常感到力不從心,因為要補的洞實在太多了。但也讓我從自身經驗反思或許未來就是這種人+AI的單人團隊(?)先找出問題,在解決問題的過程中補足所需知識的學習路徑。






微軟論文《生成式AI對批判性思考的影響》

 微軟論文《生成式AI對批判性思考的影響》指出「知識工作者越信任生成式AI在使用GenAI就越不會有批判性思考。對自己專業越有信心則會進行更多批判性思考」

乍聽之下很合理啊,我對自己的專業越有信心,我就更懂得怎麼挑AI毛病。我什麼都不懂就只能全部交給AI了(就像小朋友用AI寫作文,或是我Vibe Coding一樣)
但這個結論有趣的是你對自己越有信心,你就越會挑AI毛病,所以你要付出的認知努力就越多。
但這項研究更有趣的是根據我過往的認知是專家因為有更深厚的經驗與知識,在處理問題的時候可以更駕輕就熟。但這個研究卻說”專家反而更努力才能跟AI協作”?
因為從新手到專家,技能將變的自動化,認知負荷會減少,讓專家可更輕鬆的處理問題。就像我們熟悉開車之後,可以邊聊天邊開車。或是我們比較資深的老師可以同時兼顧教學跟班級經營,辨識學生卡住的時機,迅速轉化教學的內容或方式。
或許真正的挑戰不僅於Domain Knowledge而是兩者不同知識間的互動,我們這輩的人在自己領域累積了足夠多的專業,但不瞭解AI的原理與限制。也有人擅長與AI協作,但卻不知道如何評估在不同領域上的表現。而最佳的組合就是領域知識+AI知識能夠得到最好的結果,卻需要最多的認知努力。
這篇研究的結論也告訴我們
#AI不會減少批判性思考而是轉移
從蒐集資訊->驗證資訊
從解決問題->有效整合AI的回應
從執行任務->管理AI的輸出
那我們該如何幫助孩子在學習領域知識的學校教育中也要學習如何與AI一起思考呢?知道什麼時候可以外包給它?什麼時候質疑它?以及什麼時候絕對不能用它?




OpenAI跟Anthropic未來的行動計畫(Action Plan)

 日前OpenAI跟Anthropic都提出未來的行動計畫(Action Plan)

兩家公司都主張更嚴格的管制、投資基礎設施以保持美國在AI 領域對中國等其他競爭對手的領先定位。
只是Anthropic更聚焦於國家與模型安全(包含如何建立測試機制、具體的出口管制及防範)OpenAI更著眼於機會及廣泛的經濟增長,並主張”AI可以在未來十年顯著提高生產力”
而Antoropic甚至說出”Powerful AI technology will be built during this Administration.”強大的AI技術將在本屆政府期間建成。
Anthtopic比較偏防守著重風險管理,OpenAI比較偏進攻著重描繪美好願景。但兩家公司共同的目標都是確保美國的領先地位同時促進經濟的健康轉型。



Lazy prompting