「我不知道如何對生成AI下指令...」
儘管自然語言理解的機器已經出現,但我們中的許多人仍未掌握「如何有效用自然語言發號施令」的技巧。
這也難怪,因為自然語言擁有無限的表現力和靈活性,是一種完全的上位互換存在,與程式語言的嚴謹性有所不同。
我們過去並沒有與「不會疲倦的超級知性人類」進行長時間的對話和交流來充分利用這個強大的語言工具。因為人類的認知負荷是有極限的。
再者,現實情況是許多人實際上是「被命令的一方」,而不是「發號施令的一方」。
根本上,我們並不習慣於讓別人為我們工作。
而且,善用勞動力的高度方法論,至今仍停留在「隱性知識」這種近乎神秘的領域。
在現在這個所有知識都能透過網路獲得的時代,商業新書依然層出不窮,幾乎每個月都在更新,這都是其証據。
作為這個問題的初步解決方案,我們大量使用了「你是專業的〇〇」這類所謂的「角色扮演(Role Play)」提示。然而,隨著AI的快速進化,這種方法正在變得陳舊,並逐漸失去效果。
本文將探討一種新的方法,旨在擺脫簡單的角色扮演提示,發掘AI的真正能力,即「認知設計(Cognitive Design)」。
曾經有效的指令,例如「你是專業的編輯」,就如同為AI穿上制服。通過為AI穿上特定角色的「制服」,讓它可以迅速調用適合的言語風格和思考方式。
然而,這種方法存在著重大問題。
這種角色扮演形式的提示稱為「元提示(Meta Prompt)」。
元的意思是「高層」,指的是「從高層次對事物進行抽象和觀察」的概念。
抽象是一種相對於具體情境而應用的概念。
隨著生成AI的持續進化,使用者也需要對「元」的定義進行進化。
突然問你一個問題。
你能否與一個素未謀面的人馬上結婚?
大多數人都會回答「不」。因為「結婚」這一形式上的契約,依賴於在此之前建立的龐大的隱性信任關係(共享的價值觀,共同度過的時間,對對方的理解等)作為基礎。
事實上,對AI的指示也完全遵循這一結構。
在軟體開發領域,有一種叫作BDD=行為驅動開發的方法。
這是一種利用接近自然語言的格式來描述規範,以消除相關人員間的認知差異。
然而,許多開發者表示「用自然語言描述這個Given(前提)實際上是最困難的事」。
因為,這個問題與「結婚」的比喻相同。我們在寫簡單的前提時,實際上是在試圖用幾行文字傳達背後龐大的「隱性知識」和「文脈」。
這在原理上是不可能的。
與AI進行對話的困難正是體現在此。
我們以為自己在給AI提供前提,但實際上是完全忽略了「信任關係」的建立,急著要求其「結婚(=執行任務)」。
那麼,我們該如何將我們的「隱性知識」安裝至AI中呢?
其提示在於理解「手冊」與「憲法」的差異。
手冊(傳統提示):
憲法(新的元提示):
然後,這個「憲法」的真相就是意圖性偏見的實現。
這裡的偏見並不是指不公平的成見,而是「在無數選擇中進行期望判斷的意圖性指導」,也就是毫無疑問的欲動。透過將這個價值判斷的軸心植入AI中,AI才能在面對未知情況時進行一致性的、屬於你的思考。
未來與AI的對話中,所需的不是簡單的「手冊」,而是制定並安裝僅屬於你的「元憲法」。
而這個「元憲法」,並不是某個人可以魔法般授予的。
你必須自己撰寫,這才有意義。
將這種最根本的設計委託給他人,等於是將自己的思維核心拱手讓給陌生人。
當你決定將偏見=欲動的決定委託給他人時,這就變成了「AI可以替代的下位互換存在」。
這種將「憲法」安裝至AI的系統性方法論,稱為認知設計(Cognitive Design)。
它的核心思路是,並不是賦予AI外在的「角色」,而是賦予它內在的「世界觀的透鏡」。
這種「透鏡」是由以下五個要素設計而成。
前提 (Premise):
思維的「作業系統・物理法則」。這世界上不容質疑的事實及應守的價值觀。
情境 (Situation):
思維的「當前狀況」。現在發生了什麼,存在哪些變數。
目的 (Purpose):
思維的「目的地」。在這個任務中希望達成的具體目標。
動機 (Motive):
思維的「引擎」。為什麼要朝向這一目的地?這是根源性的理由或哲學。
限制 (Constraint):
思維的「行動範圍」。為了達成目的,必須遵守的規則或不應逾越的界線。
現在,我們來看看如何在實踐中運用這種「認知設計」,看一個具體範例。
題目:旨在為內部開發新的AI聊天機器人獲取預算的「企劃書」草稿。
不佳的指示(傳統提示)
你是專業的顧問,請撰寫引入AI聊天機器人的企劃書。
這樣的指示並不明確,無法了解企劃書是針對誰,擁有怎樣的背景,以及優先考量的是什麼,因此只能產出十分普通且陳腐的結果。
佳的指示(認知設計)
# 思維透鏡
## 前提 (Premise):
- 在我們的業務中,最優先的事項是「提升顧客滿意度」。
- 管理層始終重視ROI(投資報酬率),且偏好依據數據作出決策。
- 內部的企劃書慣例是將要點整理在三頁以內。
## 情境 (Situation):
- 顧客的詢問件數較前一季度增加了30%。
- 因此支援部門的負荷增加,回應時間延長,顧客滿意度呈現下降趨勢。
- 競爭對手X公司已經將AI導入支援業務並獲得成效。
## 目的 (Purpose):
- 在管理會議中,獲得AI聊天機器人開發項目正式預算(500萬元)的批准。
- 為此,需撰寫明確陳述背景、目的、預期效果和開發計劃的企劃書草稿。
## 動機 (Motive):
- 這個項目的根本目標並非單純的減少成本。
- **目的是將人力從簡單的詢問應答中解放出來,讓他們能集中精力發揮共情能力及高級問題解決能力,真正為有需要的顧客提供幫助。**
- 這不僅能提升顧客滿意度,還能改善員工滿意度,並促進優秀人才的留任。
## 限制 (Constraint):
- 避免使用過多的專業術語,確保任何人都能理解的簡單用語。
- 絕不應使用否定現有支援部門工作的表達方式,必須貫徹其為支援工具的觀點。
- 以Markdown格式輸出。
透過設計這樣的「透鏡」並提供給AI,AI不僅可以生成單純的事實罗列,而是能根據你組織的價值觀(欲動)產生有說服力的一致性故事。
與AI的協作已經進入了一個新的階段。
我們的角色將從單純的「投出提示的人」轉變為設計AI思考本身的思考設計者(Cognitive Designer)。
隨著AI的進化,我們自身也必須進化,這或許是未來所需的技能。
Anthropic公司提出的「憲法AI」是一種透過一系列明確原則(a list of principles)來約束AI行為的「憲法」方法。
這證明了向AI提供行為根基的「價值觀」或「基本原則」的有效性,而不是僅僅給予隨意的指示。在「認知設計」中定義前提和動機的重要性,得到了頂尖研究機構的強有力證據。論文中如此描述該方法的目標:
"The aim is for the AI to learn to answer questions helpfully and harmlessly without relying on human feedback [...] and for its principles for doing so to be transparent."
(該目標是讓AI學會在不依賴人類反饋的情況下提供有益和無害的回答,並使其原則透明可見。)
這項研究直接展示了在複雜推理任務中,為提示提供清晰的邏輯結構的有效性。提議的「結構化引導提示」將模糊的自然語言文本映射到顯示關係的圖形結構上,並沿著該結構推進思考。
這與「認知設計」中的「透鏡」概念完全吻合,即提供思考框架(情境、目的、限制)。論文中總結其效果如下:
"it enables LLMs to provide more accurate and context-aware responses."
(這使得大語言模型能夠提供更準確且具文脈認識的回答。)
這是一項學術研究,針對「角色演技(Persona)提示的限制」進行了驗證。研究結果顯示,「請以某某專家的身份行事」的指示並不一定能提升大型語言模型的性能。
這支持了從表層的角色設置轉向更本質的行為原則定義(=憲法)和結構化思考框架(=透鏡)過渡的必要性。論文結論部分提到:
"Contrary to popular belief, adding personas to system prompts does not necessarily improve the performance of LLMs and, in some cases, can even be detrimental."
(與普遍認知相反,將角色添加到系統提示中並不一定提升大型語言模型的性能,某些情況下甚至可能有害。)
原文出處:https://qiita.com/makotosaekit/items/0eccb562bf7d3f66fbfa