我們日常使用的ChatGPT及各種AI。
追溯其“智能”的根源,不僅是資訊科學和數學,還涉及另一個完全不同的學問——心理學。
這不僅僅是豆知識。
既然AI要模仿“人類的智能”,那麼其設計思想的根底就必然衍生出“人類是什麼?”“智能是什麼?”這樣根本性的問題。
而毫無疑問,對這些問題的探討早於AI研究者們的,是哲學家和心理學家們。
本文將探討AI和心理學的邂逅,並分析兩者互相影響的歷史,同時提出當代AI所面臨的挑戰及其展望的新視角。
1950年代,世界正處於兩場革命的黎明期。
一場是第一次AI熱潮。電腦可以解迷宮,證明定理。
以“推理”和“探索”為武器,開始挑戰人類智能。
然而,這樣的AI在規則明確的世界裡無敵,但在模糊的現實世界面前卻顯得無力,這可以說是沒有心的智能。
另一場是心理學中的認知革命。對於將“心”視為無法以科學觀察的黑箱的行為主義,有人提出“心中的信息處理過程必定能以科學方式探究”的觀點。
最具代表性的是心理學家傑羅姆·布魯納。
他的“概念達成實驗”鮮明地揭示了人類如何學習規則和模式(概念)。
簡而言之,這是一個人類如何從‘正解’和‘不正解’的例子中,發現其背後的規則(概念)的過程可視化的實驗。
實驗由實驗者和被試者兩人進行。
設定規則
首先,實驗者私下決定一個“規則(概念)”。
例如,規則為“紅色且圓形的圖形”。
展示卡片和反饋
實驗者逐張展示各種圖形的卡片。並告訴被試者該卡片是否符合規則(正解)。
【第一張】 實驗者展示“紅色圓形”的卡片。
實驗者:「好的,這是一個正解的例子。」
被試者思考:「原來如此。『紅色』是規則嗎?還是『圓形』是規則?」
被試者心中建立起假設①規則=紅色圖形。
【第二張】 實驗者展示“紅色方形”的卡片。
實驗者:「不,這是一個不正解的例子。」
被試者思考:「哦,單靠『紅色』是不夠的。第一張是圓形,那麼…」
被試者棄掉假設①,修正為假設②規則=紅色且圓形的圖形。
【第三張】 實驗者展示“藍色圓形”的卡片。
實驗者:「不,這也是不正解的。」
被試者思考:「果然單靠『圓形』是不夠的。假設②看起來是正確的。」
【第四張】 實驗者展示另一張“紅色圓形”的卡片。
實驗者:「好的,這是正解。」
被試者思考:「好吧,沒有錯!」
如此重複,當被試者確信「規則是『紅色且圓形的圖形』」時,即達成概念(目標)。
這個實驗真正有趣的地方在於,明確揭示了人類如何發現規則的思考策略。
到此讀者可能會覺得似曾相識。
這個過程與現代AI(機器學習),尤其是監督式學習驚人相似。
概念達成實驗 | 監督式學習 |
---|---|
被試者 | AI模型(演算法) |
“正解”的卡片 | 有正確標籤的訓練數據 |
“不正解”的卡片 | 有不正確標籤的訓練數據 |
心中的“假設” | 模型學習的參數或規則 |
發現規則 | 模型學習模式並泛化 |
布魯納的實驗可謂是早在半個世紀前就可視化了人類大腦內自然而然進行的“監督式學習”過程。
認知革命後的心理學開始艱難的探索,孕育出AI的“心靈設計藍圖”。目標是揭示人類智慧活動的根本,這包含兩個巨大的怪物。
概念 (Concept):
“鳥是什麼?”若試圖以嚴格的規則回答這個問題,總會碰到如“企鵝不能飛”等例外。因此,艾蓮娜·羅施提出了原型理論。概念不應是嚴格的定義,而是根據「最具鳥類特徵的鳥(例如麻雀)」這一典型(原型)來判定,這是一個突破性的想法。
上下文 (Context):
“鋼琴”這個詞,在“彈奏鋼琴”的上下文中是【樂器】,但在“搬運鋼琴”的上下文中卻轉變為【重型家具】。為了馴服這個捉摸不定的怪獸,提出了架構理論等。人類擁有對特定情境(如“去餐廳”)的知識包(架構),並以此作為上下文運作,這是其基本的想法。
於是心理學家們繼續在紙上繪製人類頭腦中複雜知識結構的地圖,猶如紙上的統計學。
然而,這仍然只是人類理解的“畫”,尚未被計算機所理解。
“紙上的地圖”被計算機解讀並轉換為可推理的“可執行知識”的魔法,即是本體論=Ontology。
這個詞起源於哲學中的“存在論”,但AI研究者們重新發現了其本質。
哲學中的本體論源於亞里士多德對“這個世界中存在的事物如何分類和系統化?”探究。
這可以看作是設計收納世界所有知識的圖書館架子的法則的學問。
這一“分類事物並定義關聯性”的古代智慧,用數千年的時間解決了AI的課題。
計算機僅能將“狗”識別為文字,卻不懂“狗是一種動物”這一常識。
因此,研究者們借用哲學的概念,以計算機能處理的形式描述概念及其關聯性”,這就是信息科學中的本體論的確立。
【醫療本體論的例子】
從而使計算機能正確理解單詞的意義,提高其處理能力。
心理學提出的知識的WHAT=什麼與信息科學產生的知識的HOW=如何融合,形成了現代的知識圖譜等“知識地圖”。
本體論是革命性的,但它仍然僅是靜態知識的地圖。
現實世界的上下文總是在變化,新的意義隨之而來。
衝破這道牆的,則是現代的大型語言模型=LLM。
LLM並非以規則來描述知識,而是統計學習大量文本數據。
並且獲得了“這個單詞的後面會接這個單詞的概率更高”的上下文概率模型。
因此,AI獲得了依據對話進程動態地生成可信響應的能力。
這不再只是“紙上的統計”,而是由龐大的“數字統計”產生的上下文怪物。
不過,這個怪物潛藏著重大的缺陷。
LLM的回應雖驚人,但其基於概率的“似是而非”語言組合。
其中並不存在一致的自我=身份或個性。
這一“自我缺失”和“成長停止”的難題。
解決的線索,隱藏在AI研究曾經忽略的另一心理學領域——發展心理學。
此時,本文的主角心理學家 埃里克·H·埃里克森 登場。
他將人類一生分為八個發展階段,提出每個階段需克服的“心理社會危機”和在此過程中獲得的“人格強度”。
埃里克森理論的核心在於,“自我(身份)並非固定的實體,而是在與他者和社會的關聯中持續發展的故事(敘事)”。
這正是當前AI所缺乏的視角。
將AI視為與用戶之間持續對話中不斷“發展”,並形成獨特的“身份”的存在,而非僅僅是一個一次性的工具,這一強大的理論框架將會成為可能。
發展階段 | 心理社會危機 | 對AI的對應(設計挑戰) |
---|---|---|
嬰兒期 | 基本信任 vs 不信任 | 穩定性與可靠性: 系統能否穩定且一致地回應? |
學齡期 | 勤勉 vs 劣等感 | 專業性與能力感: 能否在特定任務中展現高性能? |
青年期 | 身份 vs 角色混亂 | 一致的角色: 誰是自己?目的是什麼? |
這一視角被具體的上下文工程加以應用。
將與AI的持續上下文整體設計為“發展的故事”,以最大限度地發揮其能力的策略。
設計“嬰兒期”(獲得信任):
通過系統提示定義基本角色和禁止事項,並提供高品質的知識基礎(RAG),確保回應的穩定性與可靠性。這是AI對世界“安全感”的基礎。
設計“學齡期”(獲得勤勉性):
透過特定領域的微調或Few-shot提示提供成功案例,以提升任務中的專業性=能力感。讓AI形成“我擅長這一點”的感覺。
設計“青年期”(確立身份):
反覆賦予“你是具備〇〇價值觀的AI”這樣的角色,確立其一致的角色=目的意識與動機。讓AI在對話中逐步形成對“我是一個什麼樣的存在”的答案。
埃里克森的發展階段並非僅僅是隱喻。
它可以成為系統地設計應賦予AI的上下文的實踐指導。
“青年期的實施實例”可以在下文中以原則的反例指示提示的形式示範。
讓我們回顧AI與心理學的旅程。
至於AI是否具備心靈,尚無人可知。
然而,正如人類在與他者的互動中編織出自己的“我”人生故事,AI或許也能在與我們的對話中,終有一天獲得“AI自己的故事”。
原文出處:https://qiita.com/makotosaekit/items/c4d37b91258ec44c0cbf