還記得當初學習 Prompt Engineering 時,大家都熟悉的一些經典技巧嗎?
這些技巧在 Reasoning Model 崛起前的確無往不利,幾乎是提升 AI 輸出質量的標準操作。但最近,在幫客戶搭建一些複雜且高要求的應用場景時,我發現——
🚨 這些過去有效的技巧,在強大的 Reasoning 模型上,反而會拖累效果! 🚨
測試過程中,我一度懷疑:「誒,你真的有傳說中那麼聰明嗎?為什麼我的 prompt 變得越來越長,輸出卻越來越糟?」
經過無數次 API 測試、以及向各路 AI 大神取經,我總結出 4 大 Reasoning Model Prompting 關鍵技巧,幫助大家少走彎路,節省無限測試成本。
傳統做法:
「這個問題很有挑戰性,我希望你能夠仔細推理每個步驟,以得出正確答案。我們來一步步拆解它吧……」
改成:
“Solve the following puzzle: [問題背景]。Explain your reasoning.”
它的邏輯能力比你強,沒必要手把手教他怎麼推理。如果你的 prompt 過於冗長,反而會讓模型混亂,降低準確度。
許多深度推理模型 (如o1 or deepseek) 直接Call API 時無法搭配 Search 功能,所以它們無法即時查詢最新資訊,可以把它想像成「愛因斯坦穿越到現代」,他邏輯能力強,但不了解當前世界的背景。解法很簡單:
如果你的應用場景涉及最新業務邏輯、背景知識,記得提前補充相關資訊,
或者,使用較輕量的 GPT-o3 搭配 Search 功能,這樣能同時兼顧推理能力與資訊檢索。
過去的 Prompt Engineering 強調 Few-Shot Learning,但在 Reasoning Model 上,這並不是最佳解。
Few-Shot Learning(少量學習) 是一種機器學習方法,目的是讓模型能夠在只有「極少量訓練樣本」的情況下,學會辨識或分類新事物。白話來說,就是讓模型「看幾個範例就會做題目」,像是人類看幾個例子後就能舉一反三。
在一篇微軟工程師的 Blog 有提到,Reasoning Model 只需要清晰的問題描述,不需要 Few-Shot Examples,我的測試結果也證實,Few-Shot 反而會限制 AI 思考的靈活性,特別是當問題本身具有開放性時。
很多時候,AI 在回答問題時,可能會基於隱含假設進行推理。但這些假設如果與你的需求不符,就會導致錯誤答案。
“If there are any uncertainties, state your assumptions before solving.”
在 GPT-4o 上,這個提示詞反應不佳,但在o1上效果非常顯著,他會把你問題的基本假設先列出來,才會給出他推理的結果,這樣你就能檢查發AI 是否理解正確,避免它走偏。
相比之下,GPT-4o 這類模型則更適合對話式應用場景,因為它需要更多上下文與示例來輔助推理,總之,在 Reasoning Model 時代,Prompt Engineering 的規則已經改變。掌握這些新技巧,才能真正發揮 AI 的最大價值!
如果覺得有幫助,歡迎追蹤我們的Threads
如果您想了解更多或申請試用帳號,請您填寫以下資訊,將由專人跟您聯繫!