近來,「人工智慧會取代我們嗎?」這個問題讓許多人憂心忡忡。我們看到,LLMs(LLM)在程式設計方面表現出色,能夠編寫中高級程度的程式碼。這讓許多軟體開發人員對自己的未來感到擔憂。
說實話,這篇文章我改了好幾遍,花的時間也比平常多。我不想站在反對人工智慧的人這邊,我並不這麼認為。我已經在日常工作中使用機器學習模型好幾年了,很難想像沒有它們我會怎麼運作。倒不是說我寫不了程式碼或解決不了複雜的問題,而是我的效率一定會降低很多。
人工智慧的發展速度遠超過大多數開發者的適應能力,IT產業正經歷著翻天覆地的變化。正因如此,許多人對人工智慧感到壓力、否認甚至敵視。但這些負面情緒大多並非源自於真正的威脅,而是大型人工智慧供應商的炒作和強力行銷所致。
本文的目的並非要證明人工智慧很弱或沒用,也不是要說我們不應該使用它。完全不是。我想強調的是人工智慧的另一面,一個人們很少提及的面向。人工智慧是強大的工具,但它也有局限性,需要具備相關技能的專業人員來運作。
現代程式碼管理軟體(LLM)已真正成為強大的軟體開發工具。 Claude Code 或 Codex 可以編寫高品質、結構良好且相當複雜的程式碼。它們能夠處理大型程式碼庫並理解專案上下文。
要了解人工智慧未來是否能夠取代軟體工程師,我們先來看一個主要問題: LLM(LLMs)真的理解為什麼需要這段程式碼嗎?
如您所知,邏輯邏輯模型(LLM)的工作原理是基於大量的訓練資料,預測一系列詞元最可能的後續變化。簡單來說,現代人工智慧並不“思考”,也不“理解”系統的目標。它只是透過統計方法決定接下來最合乎邏輯的書寫內容。
這就是為什麼LLM在典型且定義明確的任務中表現出色:
CRUD 應用、標準 REST API、使用 Angular 或 React 建立的簡單 SPA,以及基於模板的業務邏輯。所有這些都在訓練資料中多次出現,因此模型能夠自信地重現熟悉的模式。
當需要對領域和執行上下文有深入的理解時,問題就出現了。例如,在設計一個具有複雜容錯、資料一致性和業務約束要求的分散式系統時。在這些任務中,人工智慧可能會產生看起來「乾淨」且正確的程式碼,但是:
沒有考慮實際負載場景,
違反了重要的業務邏輯規則,
或提出了在給定環境下無法實現的建築解決方案。
系統越複雜,上下文越廣泛,請求越不正式,模型就越有可能出現混亂、產生幻覺或走向錯誤解決方案。
建立更強大的邏輯學習模型(LLM)面臨的最大挑戰之一是訓練資料的品質。即使我們不斷擴展模型規模,模型崩潰等問題也會限制進展。當模型使用包含人工智慧生成內容或低品質內容的資料進行訓練時,它們可能會放大錯誤、重複錯誤或學習不切實際的模式。僅僅擴大模型規模並不能解決根本問題,基礎資料本身必須乾淨可靠。

圖靈獎得主、現代人工智慧奠基者之一、Meta公司前首席人工智慧科學家Yann LeCun認為,僅僅增加LLM的規模和能力並不能解決問題。在他看來,這並非通往真正通用人工智慧(AGI)的正確道路。
他認為,真正的智能需要一個真實世界的模型,包括物理學、因果關係和目標。單靠語言是不夠的:
“我們需要的是能夠理解物理世界的系統,而不僅僅是能夠產生看似合理的文本的系統。”
程式設計需要規劃、推理和理解長遠後果。學習型學習者(LLM)可以幫助編寫程式碼,但他們無法真正設計系統或理解解決方案的運作原理。這就是為什麼無論新模型變得多麼強大,同樣的根本問題仍然存在。
同時,Yann LeCun正在開發一種名為VL-JEPA (視覺-語言聯合嵌入預測架構)的新型人工智慧架構。這並非像GPT模型那樣的傳統生成式方法。此模型並非逐個詞元預測文本,而是在語意表示層面進行工作。它並非逐字產生答案,而是預測答案的語意表示,一種「意義指紋」。如有需要,這種表示可以隨後被解碼成文字。
VL-JEPA 可能比傳統的多模態模型更有效率,因為它無需計算每個詞元。在分類、影片理解、影片搜尋和視覺問答等任務中,這種方法更輕、更快速。此外,此架構也更具通用性:同一個模型即可解決分類、搜尋和問答任務,無需為每個任務單獨訓練模型。

「vibe-coding」(直覺編碼)一詞出現在2025年2月,當時OpenAI的聯合創始人在推特上提到了它。他寫道,這是一種絕佳的方式,可以用自然語言編寫程式碼,並完全信任人工智慧,而不是傳統的手動編碼。此後,它迅速風靡一時。這也不難理解,畢竟現在你只需和人工智慧對話,它就能完成人們在大學裡學習多年、實踐的工作。
市場推廣非常成功。許多非IT從業人員開始搭建自己的網路服務。有些人甚至解雇了程式設計師,既然只需20美元就能訂閱服務並自己完成所有工作,何必多花錢呢?一段時間後,我們開始看到成效:AP密鑰被洩漏到公共程式碼庫,網站出現安全漏洞,甚至有人因為使用了過多的令牌,一個晚上就損失了300-400美元。在某些情況下,整個應用程式甚至會徹底癱瘓。
如果你認為這種情況只會發生在缺乏經驗的新手身上,那麼讓我們更深入地探討這個問題。
你可能聽說過,2025年夏天,德勤捲入了一場醜聞。原來,他們為澳洲政府撰寫的報告部分內容是由ChatGPT產生的,其中包含一些根本不存在的法律條文和虛假事實。我稱之為「氛圍律師」。該公司因此遭受了經濟和聲譽的雙重損失。要知道,這可是一家全球性公司。在這樣的公司裡,報告要經過許多部門和人員的審核。但我們最終還是看到了結果。

另一起案例則發生在2026年2月。 DeFi協議Moonwell發布了一次更新。更新後,該系統開始將代幣cbETH的價格定在1.12美元左右,而其實際市場價格約為2,200美元。
問題最終被證實是智能合約邏輯中的一個基本計算錯誤。儘管 Moonwell 團隊反應迅速,在四分鐘內修復了漏洞,但協議仍然遭受了約 170 萬美元的損失。
那麼,氛圍編碼在這裡又扮演什麼角色呢?
後來發現,引入漏洞的提交是用 Claude Code 產生的。當然,把責任全歸咎於人工智慧並不公平。開發人員在提交程式碼前進行了審查。但問題就出在這裡,人為因素不夠徹底,審查不夠全面,而且對這個「顛覆性」模式過於信任。
關鍵在於:無論 LLM 產生的程式碼看起來多麼簡潔或令人信服,你都應該始終進行批判性思考並考慮極端情況。

如果你在做個人專案,只是想驗證一個想法,那麼直覺式編碼是可以的。但對於大型複雜系統來說,直覺式編碼就不是一種可靠的方法了。
繼「氛圍編碼」之後,第二個熱門詞彙是「AI智能體」。除了行銷之外,它與普通AI有何不同?答案是:自主性。智能體可以規劃、執行並評估自身的工作。這類AI智能體通常可以存取你的程式碼、資料庫或其他開發工具。因此,與使用ChatGPT進行簡單的對話不同,智能體可以更獨立地規劃和完成任務。聽起來像是一項突破,對吧?
或許現在,有了基於 Anthropic 最新模型建置的強大自主人工智慧代理,程式設計師最終會消失?可惜,並非如此。
人工智慧代理並沒有解決根本問題:它們仍然是語言模型,並不真正理解目標,也不對最終結果負責。誠然,它們可以獨立處理某些任務,尤其是重複性的日常工作。但它們並非,也永遠無法等同於經驗豐富的軟體工程師。
這項職責仍然屬於人類。只有經驗豐富的工程師才能做到:
正確定義任務,
評估架構上的權衡取捨,
檢查解決方案是否符合實際業務背景,
並對最終產品負責。
因此,如今人工智慧並非發展的大腦,而是發展的雙手。它加快了進程,減少了重複性工作,並提高了生產力。但方向、控制和意義仍來自人類。
AI 代理程式(以及一般的 LLM)存在各種各樣的漏洞。
最近的一個例子表明,這些系統在現實生活中可能多麼難以預測。在 Meta 公司從事人工智慧安全工作的 Summer Yue 決定試用一款名為OpenClaw的開源人工智慧代理,並授予它存取自己郵箱的權限。她明確告知 OpenClaw 在採取任何行動之前必須先確認。
然而,這台機器卻開始自行刪除她的郵件,完全無視她停止的請求。她甚至無法透過手機阻止它,只好跑到電腦前手動關機。

這說明了一個簡單但重要的觀點:即使指令看起來很明確,人工智慧代理也並不總是遵循指令,並且可能會以意想不到的方式行事。
除此之外,你可能還聽過致命三連擊,它由以下三項組成:
存取您的私人資料—這正是這些工具存在的主要原因之一。
接觸不受信任的內容-任何攻擊者控制的文字或圖像能夠到達您的LLM的情況。
對外溝通的能力-這種能力可能被用來竊取你的資料。
人工智慧代理可能容易受到多種惡意攻擊,而最令人擔憂的是,它們甚至不會意識到這一點。
我們說的不僅僅是代理程式不小心將.env檔案洩漏到程式碼倉庫的情況。潛在的情況可能更糟。
我已經寫過一篇關於這個主題的短文—— 《智慧型瀏覽器很危險!人工智慧漏洞》 ,其中有更詳細的介紹。

儘管存在上述種種問題,人工智慧代理仍然是軟體開發的強大工具,尤其是在經驗豐富的工程師手中。然而,您始終應該保持謹慎,了解風險和可能造成的後果,並依靠自身的經驗和判斷。
讓我們設想一下,如果現代人工智慧真的取代了程式設計師,會是怎樣一番景象。
您是高負載雲端平台的負責人。數百家客戶使用您的服務,並為此支付高額費用,以確保服務的穩定性和可靠性。對他們而言,即使一分鐘的停機時間都意味著嚴重的財務損失,這也意味著您公司聲譽受損,並會遭受直接的財務損失。
然後,在一個看似「美好」的日子裡,系統突然停止運作。監控顯示異常,指標崩潰,部分服務無法使用。就在昨天,程式碼運作正常,測試通過,部署也一切正常。
你緊急聯繫了人工智慧部門,因為程式設計師已經全部離職。負責開發和維護的人工智慧主控系統已經成功取代了他們。你向你的人工智慧首席開發人員描述了這種情況。
人工智慧自信地回答:
“問題可能與配置錯誤或系統狀態異常有關。以下是一些可能的原因和解決方法示例…”
它產生了多個程式碼選項,建議重啟服務、更新依賴項和更改配置。你嘗試了所有方法,但都無濟於事。你提出更多問題,加入新的上下文、日誌和基礎架構細節。答案越來越籠統。上下文不斷擴展。最終,令牌耗盡,對話停止。
但即使代幣沒有用完,主要問題依然存在。
程式碼沒有真正的所有權。
沒有人:
記得當初為什麼會這樣設計建築;
知道哪些商業協議隱藏在「臨時措施」背後;
現在可以做出一個冒險但必要的決定。
人工智慧沒有責任感。它不明白系統宕機此刻正在對公司造成數十萬美元的損失。它無法召集緊急指揮中心,無法決定回滾所有操作,也無法拒絕一個形式上正確但卻危險的解決方案。它只會繼續產生統計上看似合理的答案。
系統仍然癱瘓。客戶很不滿意。經濟損失正在發生。
然後,一個簡單卻令人不安的問題出現了:
誰該為此負責?
人工智慧?
建立該模型的公司是哪一家?
或者,是那位認為「人工智慧已經夠智能,可以取代工程師」的導演嗎?
只要人工智慧不能承擔責任、擁有系統並在真實的商業環境中理解它,它就無法取代程式設計師。
我們已經知道,LLMs(LLM)無法取代經驗豐富的開發人員。但對於初級開發人員或想要在IT產業開啟職涯的人呢? IT產業的大規模裁員始於2022年,而人工智慧的出現又增添了更多不確定性。對於現在剛入行的人來說,還有哪些機會?
我認為答案很明確——是的,我們需要你!你絕對找不到比初級開發人員更有動力、更渴望學習新事物的人了。
我不再是程式新手了,但我仍然記得找到第一份工作時的興奮之情。在我的第一家公司,有一個很重要的原則叫做「T型人才」:你不僅精通某個領域,也要了解相關領域。在那裡工作了六個月後,我被邀請參與第二個專案,這次的技術堆疊完全不同。不再是WPF,而是React + TypeScript。你知道我當時是什麼感受嗎?我把它看作是一個學習新知識的絕佳機會。他們給了我一個月的時間來適應,但我只花了兩週就掌握了所有知識,並準備好承擔新功能的開發工作。
即使成為高級開發人員,對程式設計的熱情和動力也不會消失,但初級開發人員在這方面最為活躍。
關於競爭與人工智慧:那些了解自身領域、勇於承擔責任並持續學習的人才永遠不可或缺。即使是經驗尚淺、缺乏商業經驗的初級人才也具有價值。但你必須成為其中的佼佼者。到了2026年,僅僅掌握SOLID原則和基本的物件導向程式設計範式是遠遠不夠的。在人工智慧領域,你必須能夠解決中等難度的問題,努力做到獨立思考,並不斷學習。
你能成為最優秀的程式設計師嗎?如果你真心熱愛編程,並從中獲得靈感,並且覺得它很有趣——當然可以。但千萬不要停止成長:開發自己的專案,為開源專案做出貢獻,學習系統架構,並展現積極主動性。這樣,任何人工智慧都無法取代你。
邏輯邏輯模型(LLM)是優秀的軟體開發工具。現代模型確實能提高生產力,並減輕開發人員的許多重複性工作。但是,在真正的通用人工智慧(AGI)出現之前,說現代人工智慧可以取代程式設計師是錯誤的。只有真正了解軟體領域、熟悉業務流程並能每天有效使用邏輯邏輯模型的軟體工程師才能「取代」其他開發人員。
所以即使你是資深開發人員,也永遠不要停止學習!
感謝您閱讀到最後。如果您能分享您在開發中使用人工智慧的案例,例如您取得的成功、它在哪些方面幫助您以及在哪些方面阻礙了您,我將不勝感激。
原文出處:https://dev.to/empiree/will-ai-replace-software-developers-1fo0