站長阿川

站長阿川私房教材:
學 JavaScript 前端,帶作品集去面試!

站長精心設計,帶你實作 63 個小專案,得到作品集!

立即開始免費試讀!

引言

我不知道如何對生成AI下指令...

儘管自然語言理解的機器已經出現,但我們中的許多人仍未掌握「如何有效用自然語言發號施令」的技巧。
這也難怪,因為自然語言擁有無限的表現力和靈活性,是一種完全的上位互換存在,與程式語言的嚴謹性有所不同。
我們過去並沒有與「不會疲倦的超級知性人類」進行長時間的對話和交流來充分利用這個強大的語言工具。因為人類的認知負荷是有極限的。

再者,現實情況是許多人實際上是「被命令的一方」,而不是「發號施令的一方」。
根本上,我們並不習慣於讓別人為我們工作
而且,善用勞動力的高度方法論,至今仍停留在「隱性知識」這種近乎神秘的領域。
在現在這個所有知識都能透過網路獲得的時代,商業新書依然層出不窮,幾乎每個月都在更新,這都是其証據。

作為這個問題的初步解決方案,我們大量使用了「你是專業的〇〇」這類所謂的「角色扮演(Role Play)」提示。然而,隨著AI的快速進化,這種方法正在變得陳舊,並逐漸失去效果。

本文將探討一種新的方法,旨在擺脫簡單的角色扮演提示,發掘AI的真正能力,即「認知設計(Cognitive Design)」。

「角色扮演提示」的限制

曾經有效的指令,例如「你是專業的編輯」,就如同為AI穿上制服。通過為AI穿上特定角色的「制服」,讓它可以迅速調用適合的言語風格和思考方式。

然而,這種方法存在著重大問題。

  1. 陳腐化·個性缺失:因為大家都為AI穿上相同的「制服」,所以輸出的結果只能收斂為刻板印象的「專業形象」。其中沒有你自身或你組織的獨特哲學。
  2. 效果稀薄化:隨著AI變得越來越智慧,它能從任務內容中自行推論出「需要編輯者的視角」,並開始自己穿上「制服」。結果是,特意下達指示的意義逐漸變薄。實際上,通過角色扮演的指示,AI會受到模式化的模仿所限,從而妨礙其本應具備的高級推理能力的例子層出不窮。

這種角色扮演形式的提示稱為「元提示(Meta Prompt)」。
元的意思是「高層」,指的是「從高層次對事物進行抽象和觀察」的概念。
抽象是一種相對於具體情境而應用的概念。
隨著生成AI的持續進化,使用者也需要對「元」的定義進行進化。

為何AI無法理解你的情境?

突然問你一個問題。

你能否與一個素未謀面的人馬上結婚?

大多數人都會回答「不」。因為「結婚」這一形式上的契約,依賴於在此之前建立的龐大的隱性信任關係(共享的價值觀,共同度過的時間,對對方的理解等)作為基礎。

事實上,對AI的指示也完全遵循這一結構。
在軟體開發領域,有一種叫作BDD=行為驅動開發的方法。
這是一種利用接近自然語言的格式來描述規範,以消除相關人員間的認知差異。
然而,許多開發者表示「用自然語言描述這個Given(前提)實際上是最困難的事」。
因為,這個問題與「結婚」的比喻相同。我們在寫簡單的前提時,實際上是在試圖用幾行文字傳達背後龐大的「隱性知識」和「文脈」。
這在原理上是不可能的。

與AI進行對話的困難正是體現在此。
我們以為自己在給AI提供前提,但實際上是完全忽略了「信任關係」的建立,急著要求其「結婚(=執行任務)」

提升到下一個層次:「手冊」到「憲法」

那麼,我們該如何將我們的「隱性知識」安裝至AI中呢?
其提示在於理解「手冊」與「憲法」的差異。

  • 手冊(傳統提示):

    • 具體指示「在這種情況下,應該這麼做」。
    • 對於已知問題很強,但對於手冊中未涵蓋的未知問題無法應對。
  • 憲法(新的元提示):

    • 作為所有判斷的根本最高基本原則
    • 當面對未知問題時,指示應依據哪些原則回溯作出判斷。

然後,這個「憲法」的真相就是意圖性偏見的實現
這裡的偏見並不是指不公平的成見,而是「在無數選擇中進行期望判斷的意圖性指導」,也就是毫無疑問的欲動。透過將這個價值判斷的軸心植入AI中,AI才能在面對未知情況時進行一致性的、屬於你的思考。

未來與AI的對話中,所需的不是簡單的「手冊」,而是制定並安裝僅屬於你的「元憲法」。

而這個「元憲法」,並不是某個人可以魔法般授予的。

你必須自己撰寫,這才有意義。

將這種最根本的設計委託給他人,等於是將自己的思維核心拱手讓給陌生人。
當你決定將偏見=欲動的決定委託給他人時,這就變成了「AI可以替代的下位互換存在」。

設計思維的透鏡:「認知設計」

這種將「憲法」安裝至AI的系統性方法論,稱為認知設計(Cognitive Design)
它的核心思路是,並不是賦予AI外在的「角色」,而是賦予它內在的「世界觀的透鏡」。

這種「透鏡」是由以下五個要素設計而成。

設計思維透鏡的五個要素

  1. 前提 (Premise):
    思維的「作業系統・物理法則」。這世界上不容質疑的事實及應守的價值觀。

  2. 情境 (Situation):
    思維的「當前狀況」。現在發生了什麼,存在哪些變數。

  3. 目的 (Purpose):
    思維的「目的地」。在這個任務中希望達成的具體目標。

  4. 動機 (Motive):
    思維的「引擎」。為什麼要朝向這一目的地?這是根源性的理由或哲學。

  5. 限制 (Constraint):
    思維的「行動範圍」。為了達成目的,必須遵守的規則或不應逾越的界線。

實踐範例:認知設計的示例

現在,我們來看看如何在實踐中運用這種「認知設計」,看一個具體範例。

題目:旨在為內部開發新的AI聊天機器人獲取預算的「企劃書」草稿。

不佳的指示(傳統提示)

你是專業的顧問,請撰寫引入AI聊天機器人的企劃書。

這樣的指示並不明確,無法了解企劃書是針對誰,擁有怎樣的背景,以及優先考量的是什麼,因此只能產出十分普通且陳腐的結果。

佳的指示(認知設計)

# 思維透鏡

## 前提 (Premise):
- 在我們的業務中,最優先的事項是「提升顧客滿意度」。
- 管理層始終重視ROI(投資報酬率),且偏好依據數據作出決策。
- 內部的企劃書慣例是將要點整理在三頁以內。

## 情境 (Situation):
- 顧客的詢問件數較前一季度增加了30%。
- 因此支援部門的負荷增加,回應時間延長,顧客滿意度呈現下降趨勢。
- 競爭對手X公司已經將AI導入支援業務並獲得成效。

## 目的 (Purpose):
- 在管理會議中,獲得AI聊天機器人開發項目正式預算(500萬元)的批准。
- 為此,需撰寫明確陳述背景、目的、預期效果和開發計劃的企劃書草稿。

## 動機 (Motive):
- 這個項目的根本目標並非單純的減少成本。
- **目的是將人力從簡單的詢問應答中解放出來,讓他們能集中精力發揮共情能力及高級問題解決能力,真正為有需要的顧客提供幫助。**
- 這不僅能提升顧客滿意度,還能改善員工滿意度,並促進優秀人才的留任。

## 限制 (Constraint):
- 避免使用過多的專業術語,確保任何人都能理解的簡單用語。
- 絕不應使用否定現有支援部門工作的表達方式,必須貫徹其為支援工具的觀點。
- 以Markdown格式輸出。

透過設計這樣的「透鏡」並提供給AI,AI不僅可以生成單純的事實罗列,而是能根據你組織的價值觀(欲動)產生有說服力的一致性故事。

總結

與AI的協作已經進入了一個新的階段。

  • 表面上的角色扮演=角色演技不再有效。
  • 其根本原因在於隱性知識的壁壘
  • 解決方案不在於個別的「手冊」,而在於向AI提供個性化的元憲法
  • 具體的設計方法是認知設計
  • 就如同透過實踐範例所展示的,可以將其系統化為具體的指示。

我們的角色將從單純的「投出提示的人」轉變為設計AI思考本身的思考設計者(Cognitive Designer)
隨著AI的進化,我們自身也必須進化,這或許是未來所需的技能。

參考文獻

  1. 論文名: "Constitutional AI: Harmlessness from AI Feedback"

Anthropic公司提出的「憲法AI」是一種透過一系列明確原則(a list of principles)來約束AI行為的「憲法」方法。
這證明了向AI提供行為根基的「價值觀」或「基本原則」的有效性,而不是僅僅給予隨意的指示。在「認知設計」中定義前提和動機的重要性,得到了頂尖研究機構的強有力證據。論文中如此描述該方法的目標:

"The aim is for the AI to learn to answer questions helpfully and harmlessly without relying on human feedback [...] and for its principles for doing so to be transparent."
(該目標是讓AI學會在不依賴人類反饋的情況下提供有益和無害的回答,並使其原則透明可見。)

  1. 論文名: "Structure Guided Prompt: Instructing Large Language Model in Multi-Step Reasoning by Exploring Graph Structure of the Text"

這項研究直接展示了在複雜推理任務中,為提示提供清晰的邏輯結構的有效性。提議的「結構化引導提示」將模糊的自然語言文本映射到顯示關係的圖形結構上,並沿著該結構推進思考。
這與「認知設計」中的「透鏡」概念完全吻合,即提供思考框架(情境、目的、限制)。論文中總結其效果如下:

"it enables LLMs to provide more accurate and context-aware responses."
(這使得大語言模型能夠提供更準確且具文脈認識的回答。)

  1. 論文名: "When 'A Helpful Assistant' Is Not Really Helpful: Personas in System Prompts Do Not Improve Performances of Large Language Models"

這是一項學術研究,針對「角色演技(Persona)提示的限制」進行了驗證。研究結果顯示,「請以某某專家的身份行事」的指示並不一定能提升大型語言模型的性能。
這支持了從表層的角色設置轉向更本質的行為原則定義(=憲法)和結構化思考框架(=透鏡)過渡的必要性。論文結論部分提到:

"Contrary to popular belief, adding personas to system prompts does not necessarily improve the performance of LLMs and, in some cases, can even be detrimental."
(與普遍認知相反,將角色添加到系統提示中並不一定提升大型語言模型的性能,某些情況下甚至可能有害。)


原文出處:https://qiita.com/makotosaekit/items/0eccb562bf7d3f66fbfa

按讚的人:

共有 0 則留言


精選技術文章翻譯,幫助開發者持續吸收新知。
站長阿川

站長阿川私房教材:
學 JavaScript 前端,帶作品集去面試!

站長精心設計,帶你實作 63 個小專案,得到作品集!

立即開始免費試讀!