站長阿川

站長阿川私房教材:
學 JavaScript 前端,帶作品集去面試!

站長精心設計,帶你實作 63 個小專案,得到作品集!

立即開始免費試讀!

為什麼AI會產生「看似真實的謊言」?

明明在講技術,為什麼還要談哲學呢?

在解釋AI的過程中,時常會見到如此的表情。
然而,當我們深入探討AI,特別是其被稱為「黑箱」的特性之謎時,我們會碰到技術性的方法無法解釋的瓶頸,不得不踏入哲學的領域。

這個現象的典型例子就是AI生成的「幻覺(ハルシネーション)」問題。

追溯這些幻覺的根源,最終必然會抵達「『知識』究竟是什麼意思?」這一古老的哲學問題。

在這裡,我們將按步驟深入探討這一深奧的主題。

AI的「幻覺」是什麼?

在AI中的幻覺,指的是生成基於事實並且與文脈無關的信息,卻看似真實的現象

這與簡單的「錯誤(エラー)」,如程式計算錯誤或程式漏洞,質上是不同的。

  • 錯誤(エラー)
    明確有正確答案的情況,如「2+2=5」,並給出不同的答案。其原因易於識別且修正也相對容易。

  • 幻覺(ハルシネーション)
    語言表達和文法完美,極其流暢且具說服力。然而經過驗證後,內容可能是虛假的,甚至完全是捏造的情況。

例如,當詢問「日本首都的歷史」時,AI可能會生成「在江戶時代,首都在京都,但德川家康將大阪定為經濟中心的新首都」這樣的解釋,表面上看似歷史說明,卻完全是虛構的案例。

為什麼稱之為「幻覺」而不是「錯誤」?

將這一現象稱之為「幻覺」,是因為它類似於人類的精神作用,暗示了問題的根深蒂固。

  • 與現實的無關性
    人類的幻覺是人無客觀刺激感知某些事物,AI的幻覺同樣是在沒有學習資料直接根據的情況下,僅靠內部計算過程生成信息。

  • 堅定的信念
    如同親身經歷幻覺的人會堅信其是真實,AI同樣對生成的信息沒有懷疑的自覺。自信滿滿的表達方式與人類的幻覺有很高的相似度。

  • 根植於AI的操作原理的問題
    「錯誤」表明系統的表面故障,而「幻覺」則是根植於AI的根本機制。AI並不「理解」詞語的意義,而是從大量數據中預測「在這個詞後,最有可能出現的詞是什麼」的統計模式來生成文本。這種概率鏈接有時會編織出與現實脫節的「看似合理的故事」。

問題的核心在於哲學框架

該問題的核心涉及哲學中的「認識論」。認識論是一門探討「知識是什麼」「知道是什麼」的學科。

在哲學的範疇內,「S知道P(S知道P)」這一狀態是如何成立的,這個問題已討論了幾個世紀。

  • S(主體):認識主體(人類、AI等)
  • P(命題):命題(如「地球是圓的」的真假問題)
  • knows:「知道」的狀態

為了成立「知道(knows)」,最有力的假設是「正當化的真信念(Justified True Belief, JTB理論)」。
根據這一理論,「知道」的前提需要滿足以下三個條件。

  1. 【真實(True)】
    該信息(P)作為客觀事實是真實的

  2. 【信念(Belief)】
    主體(S)必須相信該信息(P)。

  3. 【正當化(Justified)】
    主體(S)必須有足夠的正當理由去相信該信息。

那麼,我們將AI的幻覺用此框架進行分析。

  • (1) 真實 → ×
    幻覺的內容是「虛假」,因此不滿足第一條件。

  • (2) 信念 → △
    AI是否如人類一樣具有「信念」仍存爭議,但其毫不質疑地輸出生成內容的樣子可以被視為某種「信念」狀態。

  • (3) 正當化 → ◯(※AI的正當化)
    此處是最重要的。
    對AI來說,「正當理由」是學習數據內的海量統計模式。「在這個詞後最有可能出現的詞」的計算,便是AI的「正當化」。

AI只是在「假裝」自己是「知道的」

結論是,AI僅僅依賴(3)的AI式正當化(概率計算)來生成文本。
然而,這一過程並未保證信息是否為真實
AI原理上並不具備驗證其生成的信息在現實世界中是否正確的能力。
AI就像一個準確的占卜師,這比喻非常準確地描繪了其本質。

例如,如果我們讓AI學習大量關於「地球是平的」的文章,AI將學習到最可能的詞語連接,並會生成「地球是平的。因為…」這樣非常流暢且具說服力的文本。AI的「正當理由」僅存在於學習數據之中。

換句話說,AI並不真正「知道」某事。
AI只是通過概率計算**巧妙地「模仿」」了「知道」這一行為。

當這種模仿偶然與現實吻合時,我們會稱之為「正確的答案」。
然後,當AI在內部的概率邏輯中失控,脫離現實時,輸出便會成為「幻覺」。

幻覺是AI在未理解意義的情況下,僅依賴數據模式操控語言的機械本質最明顯的表現

那麼我們人類,是否真的「知道」呢?
不僅僅是通過查詢網路信息或引用權威書籍,真正理解並驗證地球不是平面的人有多少?
在沒有意義的情境中,僅憑概率進行表述的機器,和你知道的「知識」,真的能有本質上的區別嗎?

這一問題再一次讓我們重新思考「『知道』究竟是什麼」,這是一面哲學的鏡子。

另一個難題「偏見」

接下來,當我們關注JTB理論的第二個條件「信念」時,另一個重要議題浮現出來。
信念可以說是主體持有的「偏見」。

你認為,擁有偏見的AI和沒有偏見的AI,哪一個更有用呢?

許多人直覺上會回答「沒有偏見的AI更好」。然而,這裡提到的偏見,不僅僅是指種族歧視等壞的「成見」,而是用來判斷事物的「軸心」或「價值觀」本身。

若你問完全公平且無偏見的AI「晚餐的推薦是什麼?」它只會列出全球各種料理,而不會說「這個推薦」。因為「推薦」這一行為本身是基於某種標準(偏見)來判斷的,例如「健康意識」或「受歡迎程度」。

沒有任何偏見的AI,只不過是無法做出判斷的龐大數據庫。為了成為對人類真正「有用」的AI,必須需要某些「良好的偏見」,也就是作為「應該是這樣」的指引。

問題在於偏見的有無而是「」。該AI所持有的偏見,是有害的成見,還是有益的指導

那麼,「質」由誰來決定,根據什麼標準?
在整個人類歷史中,是否存在一個絕對的「正確」標準讓每個人都能認同?
什麼是有益或有害,該根據什麼標準進行判定,又該如何判斷灰色地帶呢?
是機器還是人類能做出目前人類尚未實現的事情?

當我們關注AI的幻覺問題時,最終都會面臨到「到底什麼才是真正的正確,為什麼我們能這樣說?」的哲學問題,而這是一個至今沒有完美答案的問題。

最後

想要透過「技術單獨」減少AI的幻覺,最終會轉向「讓機器擁有類似人類的『信念』」的問題。
然而,人類社會是否擁有這一前提的「統一且可表達的信念」,以及是否能讓機器模仿,至今無人知曉。

那麼,或許改變我們與AI的相處方式,即培養批判性思維,會是更現實的解決之道。

我們該如何使用技術進步帶來的「時間」這份禮物。

不只是任憑便捷而停止思考,而是要面對「什麼才是真正正確的?」這一AI對我們提出的根本性問題。

正因為在AI的時代,或許我們每一個人,都被要求對這一無法迴避的哲學課題進行深思。


原文出處:https://qiita.com/makotosaekit/items/472a74da335df64a2f09


共有 0 則留言


精選技術文章翻譯,幫助開發者持續吸收新知。
站長阿川

站長阿川私房教材:
學 JavaScript 前端,帶作品集去面試!

站長精心設計,帶你實作 63 個小專案,得到作品集!

立即開始免費試讀!