本文解釋了為什麼LLM是有用的工具,但稱其為「人工智慧」是愚蠢的行銷廢話,會導致錯誤的決策、浪費金錢和不切實際的期望。
當我瀏覽 LinkedIn、Reddit 或各種部落格時,我總是看到一些關於我們未來的令人厭煩的說法:人工智慧很快就會取代幾乎所有工程師,改變世界,或者,取決於說話的人是誰,奴役我們。
人工智慧不過是個行銷口號。因為行銷就是這樣,它大肆宣傳,兜售的卻是虛幻的真相。
我們從技術上講所說的人工智慧只是對「智慧」的模擬。
以大型語言模型為例。它並非魔法,沒有意識,也不智能。
龐大:它所使用的訓練資料量極為龐大。
語言:其主要功能是處理和產生人類語言。
模型:它是一個統計模型,一個計算框架,而不是一個生命體。
我知道這很無聊,但一切都沒有改變,也不會改變:所謂的人工智慧利用世界知識來訓練,用三、四個手指畫人。
即使到了 2025 年,使用 Dall-E、Gemini、Stable Diffusion、Flux 等不同的工具,我還是會遇到這個問題。特別是當你需要處理的內容比一張可愛微笑人物的簡單肖像更複雜時。
技術不同,限制相同:它們是模式匹配機器,而不是智慧創造者。
人類的「智力」是多方面的,包括推理能力、解決問題的能力、創造力、情緒理解能力、社交技能等等。
語言學習模型(LLM)可以執行某些被認為是「智慧」的任務(例如產生連貫的文字、回答問題,甚至編寫程式碼)。但這種「智能」是狹義的,僅限於其訓練所使用的資料以及控制響應的演算法。
語言模型缺乏常識、直覺,也無法像人類一樣真正從經驗中學習。它們的「理解」是統計性的,而非概念性的。
這就是為什麼你會看到虛假的事實、損壞的程式碼和三指肖像。當然,或許有一些變通方法,但你無法修補根本的缺陷。這些不是漏洞,而是系統本身的特性──它假裝理解,但實際上卻一無所知。

我與LLM合作多年,目前在我的garlic-hub專案中也利用他們的支持。
他們在研究、翻譯、摘要、程式碼解釋、概念化、原型設計和文件編寫方面具有優勢,但在編寫生產程式碼方面則不具備優勢。
即使給予精確的提示,你也常常會得到不一致、糟糕的程式碼,一碰就壞。
讓我們嘗試根據您自己的類別編寫單元測試,尤其當這些類別不僅僅包含 getter 和 setter 時。
除此之外,你還會發現以下這些奇特之處:
私有方法測試
嘲諷繼承的方法
甚至嘲笑考試班
命名不一致,儘管提示很具體。
首先要明確一點:單元測試旨在測試獨立、易於管理的程式碼片段。如果一個標榜「智慧」的工具連一個類別的測試都無法可靠地編寫,那它又如何能實現軟體開發自動化或統治世界呢?
如果某件事沒有按預期進行,典型的回應是:“你用錯了。”
人工智慧的擁護者堅持認為,你需要改變你的程式設計方式;不要再做程式設計師,而是開始做軟體工程師。
他們的願景:建立所需模組的詳細文件,然後讓代理完成工作,包括單元測試。
如果程式碼有缺陷或需要修改,就更新文件,讓代理重新產生程式碼,然後再進行審核。他們把這叫做“感覺編碼”,據他們說,這可以節省大量時間。
乍聽之下似乎合情合理?讓我們深入探討一下。
當然,開始做一件新事往往能很快見效。至少一開始是這樣!但最終,它會消耗越來越多的時間。
為什麼?
技術債:人工智慧產生的程式碼通常存在許多問題,例如效能欠佳、漏洞百出、難以維護、文件不完善、安全性低或可擴展性差。僅僅「能用」是不夠的。
除錯和修正:除錯、修復錯誤或稍後向此程式碼庫加入新功能比手動編寫乾淨的程式碼更費力。
缺乏理解:現實情況是,人們可能在第一次使用時會進行審查,但由於程式碼起初看起來運作正常,他們往往會在不理解實現決策的情況下盲目採用。這使得維護和變更風險很高。
重新開發:如果系統需要成長或擴展,vibe 程式碼可能會變得非常難以使用,以至於需要完全重新開發——從而抵消所有最初節省的時間。
眼前的生產力提升(快速原型製作)本質上是對程式碼庫未來的“高息貸款”,而這筆貸款日後將以高昂的維護成本的形式償還。
使用第三方函式庫(例如 Node.js 或框架)時也常會遇到相同的問題。它們確實能節省時間,但軟體開發只是開始,長期維護才是真正的挑戰。
還記得那些所謂的「無程式碼」騙局嗎?類似的糟糕承諾,不同的標籤,最後都以失敗告終。
METR 的一項有趣研究顯示:經驗豐富的開發人員認為使用 AI 後他們的開發速度提高了 24%,但實際上速度卻慢了約 20%。
如果你問那些人工智慧專家,他們會嚷嚷說這項研究是基於錯誤的假設,你需要好好學習如何使用「氛圍編碼」。還記得「你需要正確使用它」這句話嗎?
但行銷只談「智慧」。每家人工智慧編碼公司都告訴我們他們的工具多麼容易使用,並宣傳那些聲稱無需任何程式設計技能就能在幾天內完成大型專案的「用戶評價」。
但是,當你開始根據承諾來衡量一個工具時,如果它失敗了,藉口就會突然出現:你需要投入無數個小時和幾個月的時間來學習。

所以結論是什麼?難道你要花幾個月的時間學習,才能獲得那種感覺上比實際節省時間更值得懷疑的效果嗎?
你永遠不會從AI兄弟那裡讀到這篇文章。
你也從未讀到關於品質保證和程式碼維護的內容。
另一點也常被忽略。程式碼審查需要技巧、多年的經驗,甚至可能需要經歷一些失敗。
如果「感覺編碼」成為標準,初級開發人員該如何學習程式設計?你不可能學會如何審查你從未寫過的程式碼。我們將培養出一代只會提建議卻不會編程的開發人員。他們就像沒有專業知識的顧問。
LLM所謂的「革命」其實是基於海量資料的抓取、儲存與搜尋。那些被不明真相的人稱為人工智慧的東西,只不過是一個經過高度訓練的自動補全功能而已。
但Stack Overflow、YouTube和維基百科都只有一個,我們已經抓這些資源了,現在訓練資料也快用完了。 —— 《對話》(The Conversation) 、 《商業內幕》(Business Insider)
目前廣泛採用的解決方案是:使用合成資料,也就是利用 LLM 生成資料來訓練其他 LLM。英偉達已經在開發一款名為Nemotron的合成資料產生器。
同時,網路上越來越多的文本是由 LLM 產生的,幾乎不可能區分機器生成的文本和人類撰寫的內容。
這不難看出其後果嗎?用人工智慧生成的內容訓練人工智慧,必然會導致模型崩潰和效能退化。
AI Bros 對此避而不談,而那些追逐投資者資金的公司則不惜一切代價繼續推進他們的「革命」。
不幸的是,煽動者、行銷人員及其盲目追隨者的這種混合體,造成了無休止的炒作循環。
許多平庸的前經理人和過氣的企業高管都渴望獲得公眾關注。有些人受僱於人,兜售某種理念;有些人則真心認為自己是富有遠見的思想家,值得擁有大眾的關注。
他們張口就說,空洞無物,毫無意義。他們的追隨者也只是在附和。如果你表示懷疑,他們通常會反駁說:「嘿,比爾蓋茲是億萬富翁,他肯定知道發生了什麼事。」 不,他什麼都不知道。他和其他成千上萬的人一樣,只是在猜測而已。但不知為何,人們對富人的模糊預測深信不疑,彷彿財富等於專業知識。
這就造成了一種自我實現的預言:短視的決策者害怕如果不搭上人工智慧這趟順風車就會錯失良機。於是,他們開始把「人工智慧」貼在所有東西上,不管這是否合理。
最終,這種炒作只會助長一個肆意妄為、資源消耗龐大的產業,導致資金和電力的浪費。
我所在的行業是數位看板產業,雖然其他產業也面臨類似的荒謬情況,但在這裡,情況簡直荒謬至極。
公司不斷炮製毫無意義的“功能”,只是為了在產品首頁的某個地方貼上“人工智慧”的標籤。
喜歡
展示聊天機器人:因為顯然人們想要與顯示廣告的螢幕進行對話,而不是僅僅閱讀訊息。
「AI優化」廣告投放:演算法會根據用戶未要求的指標進行最佳化,完全忽略實際的廣告活動目標。 AI決定什麼是“最佳”,而不是您的業務目標。
預測性受眾人工智慧:聲稱能夠預測受眾行為並基於小得可笑的資料集產生令人印象深刻的預測結果的工具。輸入垃圾資料,輸出「洞察」。
年齡/性別估計:這項電腦視覺技術已經存在多年,現在被重新包裝成「人工智慧驅動」。它在嘈雜的環境中表現不佳,難以應對不同的視角,而且提供的資料也很少具有實際應用價值。
這些都無法解決實際問題。新軟體功能的開發應該以客戶痛點為導向,而不是為了迎合市場部門對流行語的渴望。
每當您看到數位看板公司大肆宣傳人工智慧時,請記住:它不是為了幫助您或您的企業而設計的,而是為了向您推銷產品。
我並不擔心會出現像《魔鬼終結者》那樣的未來。這種方法不會導致技術奇點。
這個行業現在遇到了問題,因為他們已經抓取了大部分可用的資料。
計劃產生合成資料進行訓練會導致退化。
邏輯邏輯模型(LLM)是一種非常有用的工具,它能夠出色地模擬人類行為。僅此而已。它可以執行一些看似聰明的任務。
但它們的能力只是資料和演算法的反映,並不代表真正的意識或類人智能。
事實是:LLM(LLMs)不過是會說話的計算器。沒人擔心計算器會取代數學家。別再幻想自動補全功能會取代工程師了。