「明明在講技術,為什麼還要談哲學呢?」
在解釋AI的過程中,時常會見到如此的表情。
然而,當我們深入探討AI,特別是其被稱為「黑箱」的特性之謎時,我們會碰到技術性的方法無法解釋的瓶頸,不得不踏入哲學的領域。
這個現象的典型例子就是AI生成的「幻覺(ハルシネーション)」問題。
追溯這些幻覺的根源,最終必然會抵達「『知識』究竟是什麼意思?」這一古老的哲學問題。
在這裡,我們將按步驟深入探討這一深奧的主題。
在AI中的幻覺,指的是生成基於事實並且與文脈無關的信息,卻看似真實的現象。
這與簡單的「錯誤(エラー)」,如程式計算錯誤或程式漏洞,質上是不同的。
錯誤(エラー)
明確有正確答案的情況,如「2+2=5」,並給出不同的答案。其原因易於識別且修正也相對容易。
幻覺(ハルシネーション)
語言表達和文法完美,極其流暢且具說服力。然而經過驗證後,內容可能是虛假的,甚至完全是捏造的情況。
例如,當詢問「日本首都的歷史」時,AI可能會生成「在江戶時代,首都在京都,但德川家康將大阪定為經濟中心的新首都」這樣的解釋,表面上看似歷史說明,卻完全是虛構的案例。
將這一現象稱之為「幻覺」,是因為它類似於人類的精神作用,暗示了問題的根深蒂固。
與現實的無關性
人類的幻覺是人無客觀刺激感知某些事物,AI的幻覺同樣是在沒有學習資料直接根據的情況下,僅靠內部計算過程生成信息。
堅定的信念
如同親身經歷幻覺的人會堅信其是真實,AI同樣對生成的信息沒有懷疑的自覺。自信滿滿的表達方式與人類的幻覺有很高的相似度。
根植於AI的操作原理的問題
「錯誤」表明系統的表面故障,而「幻覺」則是根植於AI的根本機制。AI並不「理解」詞語的意義,而是從大量數據中預測「在這個詞後,最有可能出現的詞是什麼」的統計模式來生成文本。這種概率鏈接有時會編織出與現實脫節的「看似合理的故事」。
該問題的核心涉及哲學中的「認識論」。認識論是一門探討「知識是什麼」「知道是什麼」的學科。
在哲學的範疇內,「S知道P(S知道P)」這一狀態是如何成立的,這個問題已討論了幾個世紀。
為了成立「知道(knows)」,最有力的假設是「正當化的真信念(Justified True Belief, JTB理論)」。
根據這一理論,「知道」的前提需要滿足以下三個條件。
【真實(True)】
該信息(P)作為客觀事實是真實的。
【信念(Belief)】
主體(S)必須相信該信息(P)。
【正當化(Justified)】
主體(S)必須有足夠的正當理由去相信該信息。
那麼,我們將AI的幻覺用此框架進行分析。
(1) 真實 → ×
幻覺的內容是「虛假」,因此不滿足第一條件。
(2) 信念 → △
AI是否如人類一樣具有「信念」仍存爭議,但其毫不質疑地輸出生成內容的樣子可以被視為某種「信念」狀態。
(3) 正當化 → ◯(※AI的正當化)
此處是最重要的。
對AI來說,「正當理由」是學習數據內的海量統計模式。「在這個詞後最有可能出現的詞」的計算,便是AI的「正當化」。
結論是,AI僅僅依賴(3)的AI式正當化(概率計算)來生成文本。
然而,這一過程並未保證信息是否為真實。
AI原理上並不具備驗證其生成的信息在現實世界中是否正確的能力。
AI就像一個準確的占卜師,這比喻非常準確地描繪了其本質。
例如,如果我們讓AI學習大量關於「地球是平的」的文章,AI將學習到最可能的詞語連接,並會生成「地球是平的。因為…」這樣非常流暢且具說服力的文本。AI的「正當理由」僅存在於學習數據之中。
換句話說,AI並不真正「知道」某事。
AI只是通過概率計算**巧妙地「模仿」」了「知道」這一行為。
當這種模仿偶然與現實吻合時,我們會稱之為「正確的答案」。
然後,當AI在內部的概率邏輯中失控,脫離現實時,輸出便會成為「幻覺」。
幻覺是AI在未理解意義的情況下,僅依賴數據模式操控語言的機械本質最明顯的表現。
那麼我們人類,是否真的「知道」呢?
不僅僅是通過查詢網路信息或引用權威書籍,真正理解並驗證地球不是平面的人有多少?
在沒有意義的情境中,僅憑概率進行表述的機器,和你知道的「知識」,真的能有本質上的區別嗎?
這一問題再一次讓我們重新思考「『知道』究竟是什麼」,這是一面哲學的鏡子。
接下來,當我們關注JTB理論的第二個條件「信念」時,另一個重要議題浮現出來。
信念可以說是主體持有的「偏見」。
你認為,擁有偏見的AI和沒有偏見的AI,哪一個更有用呢?
許多人直覺上會回答「沒有偏見的AI更好」。然而,這裡提到的偏見,不僅僅是指種族歧視等壞的「成見」,而是用來判斷事物的「軸心」或「價值觀」本身。
若你問完全公平且無偏見的AI「晚餐的推薦是什麼?」它只會列出全球各種料理,而不會說「這個推薦」。因為「推薦」這一行為本身是基於某種標準(偏見)來判斷的,例如「健康意識」或「受歡迎程度」。
沒有任何偏見的AI,只不過是無法做出判斷的龐大數據庫。為了成為對人類真正「有用」的AI,必須需要某些「良好的偏見」,也就是作為「應該是這樣」的指引。
問題在於偏見的有無而是「質」。該AI所持有的偏見,是有害的成見,還是有益的指導。
那麼,「質」由誰來決定,根據什麼標準?
在整個人類歷史中,是否存在一個絕對的「正確」標準讓每個人都能認同?
什麼是有益或有害,該根據什麼標準進行判定,又該如何判斷灰色地帶呢?
是機器還是人類能做出目前人類尚未實現的事情?
當我們關注AI的幻覺問題時,最終都會面臨到「到底什麼才是真正的正確,為什麼我們能這樣說?」的哲學問題,而這是一個至今沒有完美答案的問題。
想要透過「技術單獨」減少AI的幻覺,最終會轉向「讓機器擁有類似人類的『信念』」的問題。
然而,人類社會是否擁有這一前提的「統一且可表達的信念」,以及是否能讓機器模仿,至今無人知曉。
那麼,或許改變我們與AI的相處方式,即培養批判性思維,會是更現實的解決之道。
我們該如何使用技術進步帶來的「時間」這份禮物。
不只是任憑便捷而停止思考,而是要面對「什麼才是真正正確的?」這一AI對我們提出的根本性問題。
正因為在AI的時代,或許我們每一個人,都被要求對這一無法迴避的哲學課題進行深思。
原文出處:https://qiita.com/makotosaekit/items/472a74da335df64a2f09