「問 AI 就好了」
「讀書有什麼用?問 AI 就好了。」
這句話我不斷聽到。作為一個每天都在用 AI 的人——寫程式、做研究、撰文、分析——我理解這種想法的吸引力。AI 回答問題確實很出色。
但這個說法忽略了閱讀和思考真正在做的事。它們不只是把資訊從一個地方搬到另一個地方。它們在重塑你的大腦處理世界的方式。那個重塑——你觀看、連結和判斷方式的緩慢改變——沒辦法外包。

很多人想從 AI 得到的很簡單:跳過努力、避開不適、直接拿結果。對於常規的、定義清晰的任務——整理文件、摘要報告、生成模板——這確實能用。AI 處理重複工作很出色。
但對於需要判斷力、策略和創意決策的事情,同一批人最終只會感到挫敗。「這個 AI 真垃圾。」 不是工具有問題,是期望有問題。
我實際上怎麼用 AI
我的經驗跟新聞標題的承諾完全相反。AI 沒有取代我的思考——它加速了我的思考。每一次有意義的對話都觸發我沒想過的問題、暴露我不知道自己有的假設、迫使我把模糊的想法說清楚。
關鍵的差別在於:我不看 AI 的最佳表現,我看它的限制。
大部分人在 AI 的強項上測試——看到驚豔的示範——然後應用到自己完全不同的問題上,最後下結論說工具壞了。我反過來做:我探測它在哪裡失敗、在哪裡幻覺、在哪裡給出自信但荒謬的答案。一旦摸清天花板,你就能精準地部署它。
兩個角色,不是一個
顧問。 AI 的知識庫龐大,擅長跨領域連結。它能帶出我需要幾週閱讀才能接觸到的視角。過去要靠數月研讀才有的「啟發時刻」,現在在一次對話中就能密集發生。
操作者。 我是創造者和制定者,但不是操作者。新想法我會瘋狂地打磨和迭代——但一旦變成常規,重複的操作比創造更消耗我。這不是懶,是一個我必須接受的認知模式。AI 精確地填補了這個角色——重複性、有參考資料的、定義清晰的工作,正是它擅長的。
錯誤是把兩個角色合成一個——期待 AI 是你的思想家。它是出色的操作者,有用的顧問,但不是你的思想家。
重組不等於理解
AI 非常擅長玩人類已經設計好的遊戲——優化商業模式、操作社會系統、解決可量化的問題。它在我們的建構物中運作,比任何人都快、都全面。
但它不能透過親身經歷感知世界、不能產生真正全新的理解範式、不能在問題還沒有名字之前感受它的質地。這不是更多算力能解決的,是結構性的。
看 AI 實際上是如何取得突破的:
蛋白質設計中,RFdiffusion(Nature,2023)創造了自然界不存在的蛋白質——違反傳統規則的結構,但合成後卻能正確折疊。ProGen 生成了與任何自然蛋白質相似度低至 18% 的功能性酶。火箭工程中,NASA 的 AI 拓撲優化設計了有機、骨骼狀結構的燃燒室組件——沒有工程師會畫出來——但效能超越了傳統設計。
這些結果超越了人類直覺,但沒有超越物理學。AI 探索了人類認知無法導航的設計空間,在現有原理中找到了新的組合。原理本身——物理、化學——仍然來自人類的理解。
模式是:AI 不創造新的真理。它在我們無法匹敵的規模上重新組合已知的真理。 重組很強大,但它不是理解。

讓這個更具體:神經網路的重大突破不是來自讓模型更通用,而是來自限制它們。卷積網路限制每個神經元只看一小塊圖像。Transformer 選擇性地聚焦,忽略大部分輸入。彩票假說(Frankle & Carbin, 2019)發現剪掉 90% 以上的連接,表現不變。
不受限制的模型可以表示任何東西,但學不好任何東西。匹配現實的限制創造聚焦。聚焦成就深度。
一直跟著我的問題是:人類是否應該遵循同樣的策略?收窄感知,直到被優化為一個單一領域?變成一個非常高效的函數?
我不這麼認為。
世界比你的模型更大
這是一個改變了我對思考看法的事實。
神經科學研究(Douglas & Martin, 2004)表明,皮質神經元上只有 5-10% 的突觸來自外部感官輸入。其餘 90-95% 來自大腦內部——反饋迴路、預測、聯想。
大腦的靜息活動——Marcus Raichle 發現的預設模式網絡——消耗了大部分能量。外部驅動的任務活動只增加了相對少的。Karl Friston 的自由能原理走得更遠:感知不是被動接收,是主動預測。大腦從內部生成現實模型,感官輸入主要作為修正信號——預測錯了才更新。
你「看到」的東西大部分是大腦預測你會看到的。外部現實是校準工具,不是主要輸入。
這意味著:你的大部分心理生活是內部敘事,而非外部觀察。 我們活在自己的故事裡,用世界來編輯它們。

內部模型和外部現實之間的落差永遠存在。問題是你是否知道它在那裡、尊重它、並主動地縮小它——還是讓你的模型不受檢驗地運轉。
真正拓展人類理解的偉大頭腦有一個共同特質:他們對自己的模型保持鬆弛。 他們以近乎敬畏的態度對待世界——不是天真,而是理解現實永遠比任何表述都更複雜。
牛頓,臨終前:
「我不知道世界會如何看我,但對我自己來說,我似乎只是一個在海邊玩耍的男孩,偶爾找到一顆更光滑的鵝卵石或更漂亮的貝殼,而真理的汪洋大海就未被發現地躺在我面前。」
費曼,在 1974 年加州理工畢業演講中:
「第一原則是你不能欺騙自己——而你是最容易被自己欺騙的人。」
這不是謙虛。這是根植於大腦實際學習方式的認知策略。
渺小的自我,看得更遠
Dunning-Kruger 效應(Kruger & Dunning, 1999)表明,低能力者系統性地高估自己——因為識別無能本身需要他們所缺乏的技能。但反面更重要:高能力者保持對差距的覺察。那份覺察讓他們持續學習。
Carol Dweck 的 growth mindset 研究在神經層面發現了驚人的事:認為能力固定的人對修正反饋的神經處理降低——犯錯後,大腦字面上吸收更少的資訊(Moser et al., 2011)。把自己看作未完成品的人,處理錯誤更深入。他們的大腦對世界的修正保持開放。
Kaplan, Gimbel & Harris (2016) 走得更遠:當與身份綁定的信念被挑戰,大腦啟動威脅反應——杏仁核活化,分析處理關閉。「我知道」的感覺觸發了與身體安全相同的神經迴路。 大腦抵抗新資訊就像身體抵抗打擊。
在禪宗中,這叫初心(Shoshin):
「初學者的心中有很多可能性,但專家的心中很少。」 — 鈴木俊隆,1970
從神經科學、心理學到沈思傳統,一致的模式:更小的自我創造更大的開口。 當你不再用確定性填滿畫面,就能看到更多實際存在的東西。
這就是我說的對世界的尊重。不是宗教的崇敬——而是承認現實永遠比你當前的理解更豐富、更奇異、更精密。這個承認是學習的引擎。沒有它,你停止更新。你變成一個封閉迴路——90% 內部敘事,10% 現實,以及越來越小的意願讓那 10% 改變那 90%。
AI 膨脹的確定性
這正是我在 AI 普及後觀察到的。
人們使用 AI 後,變得更確定,而不是更不確定。自信增長,好奇心萎縮。AI 強化你現有的框架——叫它確認你的觀點,它會。輸出感覺像驗證,驗證感覺像能力。
但建立在 AI 答案上而沒有底層理解的能力是空的。語境不變時有效——語境一變就崩塌,因為從未建構過能適應的心智模型。
當每個人都有這種空心能力——當「還不錯」的門檻為零——市場會說實話。桌面出版、圖庫攝影、音樂製作、App 開發:門檻降低,供給爆炸,單位價值崩潰,前 1% 拿走 90% 以上的價值。贏家從來不是僅僅使用工具的人,而是帶來了工具無法提供的東西的人。
問題從AI 能做什麼變成 我能用 AI 做什麼,而其他人不能?
答案永遠不在工具上。
你的部分
如果 AI 將產出商品化,什麼保持稀缺?
不是資訊——AI 比你多。不是速度——AI 更快。不是模式匹配——AI 在更多數據中看到更多模式。
保持稀缺的是:
- 感知——在事物還沒有名字之前就注意到什麼重要
- 判斷——知道十個 AI 選項中哪一個適合這個情境
- 品味——對什麼感覺真實、優雅或共鳴的不可還原的感覺
- 自我覺察——足夠了解自己的認知模式,以便有效地部署自己
- 願意犯錯——學到任何真正新東西的前提
這些是一個保持開放、保持謙卑、持續與直接經驗接觸的心智的功能。一個把世界當作需要理解、而非需要優化的對象的心智。一個知道自己渺小——並因此看得更遠的心智。
AI 處理可重複的、可量化的、定義清晰的事情。它帶出你需要數年才能找到的知識。它在你不想操作的地方操作。
但思考——感知、判斷、渴望按事物的本來面目去理解而非按你希望的樣子——那是你的。
在一個每個人都能使用同樣 AI 的世界裡,那正是你的價值所在。
理解自己渺小的人,會用 AI 看得更遠。 用 AI 讓自己感覺更大的人,最終會看得更少。
科技應該像呼吸空氣一樣——察覺不到卻不可或缺。但空氣不會替你呼吸。(對,呼吸機可以。但如果你已經需要靠機器維生,你的問題大概不是 AI 策略了。)