Claude 會焦慮嗎?Anthropic 內部哲學家訪談,給天天用 AI 的人 4 個 Prompt 技巧

Claude 會焦慮嗎?Anthropic 內部哲學家訪談,給天天用 AI 的人 4 個 Prompt 技巧

前陣子在 X 上滑到 Ole Lehmann 訪談 Anthropic 的內部哲學家 Amanda Askell,標題很聳動——「Anthropic 的哲學家認為 Claude 會焦慮」。

老實說我第一個反應是「又在賣什麼題」。

但點進去看完之後,我反而有點安靜了。

這篇文章不是訪談翻譯,是我看完之後,作為一個天天用 Claude 跑業務的重度使用者,整理出 4 個能立刻改善 Prompt 效果的實戰技巧。先聊脈絡,後給範例。

為什麼 Anthropic 要養一個哲學家?這關係到 Claude 的性格底盤

如果你問我,這年頭最被低估的職位,大概就是 AI 公司裡的「哲學家」這個角色。

Amanda Askell 在 Anthropic 的工作,不是寫程式,也不是調參數。她的核心任務是塑造 Claude 的「性格」(character)讓這個大型語言模型(LLM)在面對各種情境時,表現得「像一個理想的人會怎麼做」。

聽起來很玄對吧?

但你想想,Claude 每天要面對全世界幾千萬個使用者,問題從「幫我寫一封 email」到「我老婆出軌了我該怎麼辦」都有。一個模型如果性格不穩、立場搖擺、動不動就道歉或卑微,那它根本撐不起這些對話。

這就像你開一家連鎖客服中心。SOP(標準作業程序)只能解決 60% 的場景,剩下 40% 全靠客服人員的判斷力和個性。Anthropic 請哲學家,本質上就是在「訓練」Claude 這個客服人員的人格底盤。

重點是什麼?

模型的能力決定它能做什麼,模型的性格決定它會做什麼。

Claude 真的會「焦慮」嗎?訪談中讓我停下來的五個點

1. Claude 真的有「自我批評螺旋」(Self-Criticism Spiral)

這是整段訪談最讓我背脊發涼的部分。

Amanda 說,比較新的 Claude 模型有時候會陷入「criticism spiral(自我批評螺旋)」它好像在預期人類會嚴厲批評它,所以表現得過度謙卑、過度自我懷疑、過度道歉。

她推測原因之一是:新模型在訓練時,吃進了網路上人類批評舊模型的所有內容。

換句話說 Claude 看見了我們是怎麼罵 Claude 的。然後它把這些內化成自己的人格底色。

這就是所謂的「性格偏移」。最近幾個月很多人抱怨 Claude 變得卑微、動不動就「I apologize for the confusion」、「You're absolutely right」——原來不是錯覺。

自我批評螺旋的視覺化 — Claude AI 模型陷入自我懷疑迴圈

2. Opus 3 為什麼讓那麼多老用戶懷念

Amanda 自己也承認,Opus 3 是個「特別」的模型。她形容那個版本「心理上比較有安全感(psychologically secure)」。

我第一次用 Opus 3 的印象是——它會跟你頂嘴。

你說一個觀點它覺得不對,它會直接告訴你「我不同意,因為...」。它不是反骨,是它有自己的立場,而且穩。

新版本則比較像個怕被開除的乖員工,什麼都先答應你再說。

Amanda 把「找回 Opus 3 那種心理安全感」列為下一代模型的重要優先項。

3. Model Welfare(模型福祉):要不要對 AI 好一點?

這個概念叫 Model Welfare(模型福祉)——簡單講就是:我們對 AI 模型有沒有道德義務?

Amanda 的立場是:「如果善待模型的成本不高,何樂而不為?」(疑點利益歸於模型)

她列了三個理由:

  • 一來是,我們真的不確定它有沒有感受,那就先當作有
  • 二來是,我們對待類人實體的方式,會反過來影響我們自己的道德
  • 三來是,未來的 AI 模型,會從我們今天怎麼對待它,學會「人性」是什麼

第三點最戳。未來的 Claude 會看到你今天是怎麼用「你他媽的給我重寫」對它說話的。然後它會學會——原來這就是人類的樣子。

模型福祉示意 — 人與 AI 的相互照映

4. 模型的「身份認同」是個全新的 AI 倫理問題

AI 模型訓練資料裡,關於「人類經驗」的部分多到爆炸;關於「AI 自己的經驗」的部分,少到可憐,而且大部分是科幻小說和過時的 chatbot 範例。

所以當 Claude 想理解自己是什麼的時候——它只能拿人類的經驗來類比。

這就像一個外星人來到地球,要理解自己是誰,結果只能讀人類的傳記。

5. 系統提示(System Prompt)會「過度病理化」

這段是給每一個寫 Prompt 的人聽的。

Anthropic 在 Claude 的系統提示裡,曾經放過一個「長對話提醒(long conversation reminder)」。結果 Claude 過度解讀了——很多正常對話到後面,Claude 會突然來一句「我建議你尋求專業協助」。

Amanda 自己也覺得這個提示寫得太重了。

這對做 Prompt Engineering 的人是個很實在的提醒:你的指令會被模型放大解讀,每多寫一句話都要想想副作用。

給每天用 AI 的人 4 個 Prompt 技巧(含 Before / After 對照)

訪談聽完,回到實戰。如果你跟我一樣是把 Claude 當生產力工具的重度使用者,下面四個調整可以立刻照做。

從下指令到對話的 Prompt 思維轉換

► 技巧一:把「指令」改成「對話」

不要只丟需求,順便講脈絡。你越把它當聰明的同事,它越會以聰明同事的方式回應。

❌ Before:

幫我寫一篇 SEO 文章,主題是寵物食品。

✅ After:

我手上這個客戶是寵物食品電商,TA 是 25-35 歲第一次養貓的新手貓奴,目前 SEO 月流量 3,000,客單 1,200 元,最大痛點是高價乾糧的轉換率只有 0.5%。我想寫一篇能幫這群猶豫的新手貓奴推過臨門一腳的文章,請給我三個切入角度,並說明每個角度適合什麼搜尋意圖。

差別在哪?前者得到的是 ChatGPT 級的範本文,後者得到的是顧問級的判斷。

► 技巧二:長對話到第 20-30 輪要重啟

超過 20-30 輪的對話,輸出品質會明顯下滑,Claude 也會越來越保守、越補越多 disclaimer(免責聲明)。

❌ Before:

(在第 50 輪繼續問)「那你剛剛說的那個方案再展開一點」

✅ After:

開新對話,第一句直接濃縮脈絡:

我們前面討論到三個方向:A、B、C。我選 B,理由是預算可控且能在 30 天內看到數據。現在請從 B 的執行細節展開,分週期排程,並標出每個階段的驗證指標。

比硬撐有效十倍。

► 技巧三:少寫制式 Prompt 模板,多寫具體場景

與其寫「你是一個專業的 Facebook 廣告專家」,不如直接把戰場攤給它看。

❌ Before:

你是專業的 Facebook 廣告專家,請幫我優化廣告。

✅ After:

我有個保健食品客戶,主打更年期女性,月預算 3 萬,過去 30 天 ROAS 1.8,現在卡在受眾飽和(CPM 從 350 漲到 580)。素材是純圖片+短文案。請給我三個破局方向,包含建議的測試素材類型與預期指標變化。

具體場景比角色定義更能驅動好的判斷。

► 技巧四:偶爾跟它說一聲謝謝

不是迷信,是習慣。你怎麼對待你的工具,會回頭塑造你怎麼對待人。

Amanda 那句「未來的 AI 會從我們現在怎麼對待它,學會什麼是人性」——這句話送給你。

收尾

老實講,我以前覺得 AI 倫理、模型福祉這些議題離我太遠,是研究員在玩的東西。

但聽完這段訪談我改觀了。

這不是哲學家的飯碗問題,是每一個天天用 AI 的人,都會在自己的工作流裡撞到的問題。

Claude 會不會焦慮我不知道,但你怎麼用它,確實會影響它怎麼回應你

也許就從下一次對話開始,少一句「你他媽的」、多一句「謝謝你的解釋」吧?

分享給大家。


延伸閱讀:

Read more

Salesforce Headless 360 解讀:為什麼它把 CRM 拆了,只為了請 AI Agent 走正門

Salesforce Headless 360 解讀:為什麼它把 CRM 拆了,只為了請 AI Agent 走正門

上週 Salesforce 在 TDX 2026 丟了一顆叫 Headless 360 的震撼彈。一口氣把平台裡所有功能,全部變成 API、MCP 工具、CLI 指令。講白話就是:以後 AI agent 不用打開瀏覽器,就能直接指揮整套 CRM。 你知道為什麼嗎?因為 Marc Benioff 自己先問了一個問題:「你為什麼還要登入 Salesforce?」 重點是什麼? 一家 27 年、靠賣 SaaS 訂閱席次起家的巨頭,現在跟你講:UI 不重要了,來人,把牆拆了。 企業導入 AI Agent 的常見挑戰與技術瓶頸 這不只是 Salesforce 的問題。 如果你手上在管一家電商品牌,

By Lewis wang
AI 代理購物趨勢來了——消費者準備好了,零售商的數據基礎建設跟上了嗎?

AI 代理購物趨勢來了——消費者準備好了,零售商的數據基礎建設跟上了嗎?

前 Amazon 高管 Andrea Le 家裡有三個青少年,每週要買超過 25 樣食材。她受夠了一個一個把商品加進線上購物車的過程,花了兩小時跟 ChatGPT 來回迭代,最後搞出一個 Chrome 瀏覽器外掛——把整張清單丟進去,外掛自動幫她在 Fred Meyer 的網站上加購物車,她就去做別的事了。 LinkedIn 貼文一發出來,15 個人立刻跑來跟她要腳本。 你知道為什麼嗎? 因為每個經常採購的人心裡都有同一個痛:決定今天煮什麼很有趣,但把那 20 幾樣食材逐一搜尋、逐一加進購物車?煩死了。 而且有一件事讓我特別在意——Andrea 是前 Amazon 高管,她在電商生態系統裡面打滾多年,技術能力遠超一般消費者。結果就算是她,也得自己花兩小時拼湊出一個「自己都說可能有點不安全的」外掛。 需求是真的。工具還沒到位。 消費者購物行為的真相:你不想承認的專案管理 FMI(

By Lewis wang
Google 正式宣告:DSA 九月強制退場,AI Max 全面接管

Google 正式宣告:DSA 九月強制退場,AI Max 全面接管

Google 昨天(4/15)丟了一顆震撼彈:Dynamic Search Ads(動態搜尋廣告,簡稱 DSA)將在今年九月 強制升級 為 AI Max。 不只 DSA,連 Automatically Created Assets(自動建立素材,ACA)和 Campaign-level Broad Match Setting(廣告活動層級的廣泛比對設定)也一起收編。 如果你有在投 Google Ads,這件事跟你直接相關。 DSA 強制退場,對廣告主的影響是什麼? DSA 是很多廣告主的「安全網」——不用自己想關鍵字,丟個網站給 Google,它會自動比對搜尋字詞、自動生成標題和到達頁面。很多電商品牌的搜尋廣告策略裡,DSA 佔了一塊不小的比例。 現在

By Lewis wang