=========================
好久沒寫文章了,最近有一些對 AI 的看法,不吐不快。這篇文章,也是借助 GPT 在一個粗糙草稿上幫忙潤色完成的,配圖也是 Agent 幫忙搞定的。看起來缺少一些我過往文章的文風,不過這對 AI 也並不是難事,算了,懶得再餵它學習了。整體也寫得挺好,能清楚表達意思,沒有錯別字;要知道以前手寫文章的時候,光改錯別字、斷句什麼的都要整理好久。好了,不再囉嗦,開始正文。
現在 AI 大型語言模型的流行,某種程度上反而證明了:這個世界很多地方,本質上就是個巨大的「草台班子」。

目前主流的 LLM(大型語言模型),本質更像一個「超大規模的文本預測器」:給定上文,去預測下一個最可能出現的詞(更準確地說是 token(標記)),然後一個 token 接一個 token 地生成完整回答。

在生成過程中,得益於 Transformer 的注意力機制,模型會「回頭看」前面哪些詞比較重要──也就是它會抓重點。這使得它對語言的把握明顯強於傳統的自然語言處理。再加上對互聯網公開知識的大量預訓練,LLM 的每次迭代看起來都在向「智能」靠近一步。
但這並不等於它學會了「思考」。
更準確地說,它學到的是大量「推理文字的寫法與套路」,以及一些可泛化的模式,比如類比、歸納、分步求解等。因此它能輸出看起來很像推理的內容,卻仍然可能胡編亂造(幻覺),生成聽起來合理但事實錯誤的結論。
這有點像某些邏輯不太好的人寫文章:每個字都認得,讀起來也順,但連起來其實不知道在說什麼。因為它並沒有真正的邏輯思維能力。

但這還不是最關鍵的問題。更要命的是:它缺乏持續的創新能力。
人類能在物種競爭中勝出,不只是因為會一代代模仿學習,更因為會創新──在總結規律的基礎上提出新問題、發明新工具、開闢新路徑。而現階段的 AI 並不具備這一點。這也是為什麼楊立昆(深度學習與捲積神經網路的奠基人)**並不認可「只靠文字訓練」就能實現真正通用人工智慧(AGI)」的原因之一。
即便如此,LLM 的能力仍然強到「足夠好用」,甚至在很多場景裡效果驚豔,超過了大量工作的真實要求。
比如程式設計師為什麼都喜歡 Claude Code?很重要的原因是:這類模型訓練時吸收了大量「人類解決程式設計問題的過程資料」,例如 Stack Overflow、GitHub Issue 等。那些資料裡不只是程式片段,還包含了工程師定位 bug、分析原因、嘗試方案、權衡取捨的思路。模型透過學習這些內容,等於也「照著套路」學會了。

這意味著它在很多任務上可以達到中級程式設計師的水準,能相對獨立地解決問題。
但它依然很難做出真正的創新。
例如,它並不會自己發現傳統 DOM(文件物件模型)操作在開發視圖時的結構性問題,然後發明 React、Vue 這類框架來解決;它更多是在既有範式內堆程式、補功能。除非你明確提示,它才會進一步抽象、優化、重構。
同樣,它也缺乏「自主的審美能力」:不知道什麼是較好的工程實踐、什麼是較差的工程實踐;很多時候能寫出可以執行的程式,但不一定能寫出長期可維護、可演進的系統。
不過,這並不妨礙它替代大量初級程式設計師的工作。因為我剛才說的那種抽象能力與工程審美,現實中很多程式設計師也並不具備。
也正因為如此,LLM 的爆紅從另一個角度說明:很多工作並沒有想像中那麼高大上。大量職位的產出,本質上就是在既有模板、流程和經驗裡做「可用的拼裝」,靠模仿同事也能把事情敷衍過去。
這恰恰證明了:這世界就是個巨大的草台班子。
所以,各位讀者讀完後,你是否對「現階段 AI 替代人類工作」這件事沒那麼焦慮了?畢竟,現在 AI 能完全替代的工作,本質上即使沒有 AI 也遲早會被替代,它只是把這個過程加速了。