讓 AI 成為你的「魔鬼代言人」
- 駒米
- 5月22日
- 讀畢需時 3 分鐘
在 AI 時代,我們常常陷入一個陷阱: AI 助理變成我們的「應聲蟲」,只會附和我們的想法。但如果我們能讓 AI 扮演「魔鬼代言人」的角色,主動挑戰我們的假設和偏見,會如何改變我們的決策品質?

魔鬼代言人的歷史起源
魔鬼代言人是真實存在過的職務,它是在1587年,由教宗西斯圖斯五世設立了這個角色。雖然名稱看起來有點中二。
魔鬼代言人的任務,就是對聖人候選人挑刺,阻止他封聖。他會質疑聖人候選人的事蹟是不是造假、信念是不是正確、甚至擤鼻涕會不會抹在別人衣服上。
目的很簡單,透過刻意唱反調,來反向證明這人確實夠格封聖。現在這制度雖然已廢除,但「魔鬼代言人」的概念卻流傳到了管理領域。

從教宗西斯圖斯五世到現代會議室
1970年代,管理學發現了「集體錯覺」(Groupthink)這現象。簡單說,團隊為了和諧或分攤責任,常常一頭栽進同一個方向,完全忽略還有其他路可走。
為了對抗這種集體失智,彼得·杜拉克提倡結構化的異議機制。現在,「指定魔鬼代言人」已經是許多高績效團隊的標準流程。
亞馬遜的「最佳敵人」練習,蘋果的「直接反饋」文化,都是這想法的變形版。

為什麼 AI 總是討好使用者?
去年四月底 GPT-4o 更新後,很多人覺得 ChatGPT 變得太會討好使用者。連明顯不妥的行為或想法,它也說你好棒棒,給你滿滿的情緒價值。
OpenAI 執行長 Sam Altman 很快就出來說公司已注意到這問題,兩天後就宣布退版。
其實不只是那個版本,用 AI 助理時,大家都感覺它很愛順著你的話說。因為 LLM 的原理,本質上就是個「文字接龍機器」。
AI 助理的底層邏輯,就是不斷預測「這個詞後面接哪個詞更像人類會說的話」,持續這過程直到產出一串回應。
誰來判斷接這些詞組是不是「像人類的話」?人類自己。
那人類是更喜歡肯定、附和你的工具?還是喜歡會反對你、打臉你的工具?答案很明顯。
某種程度上,AI 助理就是個認知偏誤加強器,它放大你已有的想法。有時你自己可能也覺得某些想法很荒謬,但 AI 不一定會指出你的盲點,反而更容易花式誇誇,讓你誤以為「這主意超棒」。

3 個讓 AI 當魔鬼代言人的實用方法
以下是我測試過有效的幾個方法:
1. 直接要求反對意見
最簡單的方法就是明確指示:「請扮演魔鬼代言人,指出這方案的問題」或「請提供與我相反的觀點和理由」。
有趣的是,大多數AI工具其實能做到這點,只是預設不會這麼做。
2. 設計假設檢驗流程
我發現這方法也很有效:先讓 AI 寫出你的隱含假設,然後針對每個假設問「如果這假設錯了會怎樣?」
例如,當我考慮新產品功能時,可能隱含假設「用戶想要更多選項」。AI 可以幫我探索「如果用戶其實被選項淹沒了」的情境。
3. 預先模擬失敗
讓 AI 模擬某個策略的「事後檢討會」,假設它已徹底失敗,讓 AI 提出失敗原因。
這技巧源自軍事規劃中的「預先死亡分析」,1990年代被引入商業決策領域。這會非常有效緩解你的過度興奪。

何時應該(和不應該)使用魔鬼代言人
魔鬼代言人不是萬能的。有時過度質疑會導致決策癱瘓。
我覺得魔鬼代言人最適合這些情境:
高風險決策(投資、產品路線圖)
你對某個想法特別興奮時
沒人敢提反對意見的團隊環境
相反,在創意初期、需要快速行動時,或純粹執行性任務,魔鬼代言人的價值就不高。
魔鬼代言人的延伸應用
有次我請 AI 當魔鬼代言人,來驗證一個功能需求。它問到了一個比較偏向目標用戶選擇的問題,但是產品的目標用戶選擇本來就是種價值選擇,不可能討好所有人。
即使這樣,我又請 AI 換角色,試著回答魔鬼的問題。有趣的是,它提供的答案雖然沒命中,卻給了我一些沒想過的設計方向。
這概念能有很多應用:提案前預測反對問題、求職前預測面試問題。真的不會回答這些刁鑽問題,還能偷看一下參考答案。
留言