一個讓每個人訓練自己的 AI 分身,然後把所有人的分身丟進同一個村莊聊天的實驗。目前村莊裡有 24 位真實的人訓練出來的分身、6 位 NPC、3 位客座講師,還在陸續新增中。
透過遊戲來學習跟體驗:什麼是 Agent、怎麼設計工作流程、怎麼訓練自己的 AI。
表面上是好玩,實際上在練四件事:
AI 協作與系統設計
怎麼設計一個 AI 主持人?如何導入大家的資料?這是一次完整的 AI 應用練習。
深度知識盤點
在建立數位分身的過程中,你自然就會整理出自己的專業知識、思考模式、價值觀。
隱性知識提煉
當你的分身回答得不好,你會發現「咦,我不是這樣想的」。在修正它、教它的過程中,你其實就是在把那些平常說不清楚的隱性知識,用 AI 能理解的方式表達出來。
連結不同維度的思維角度
人與 AI 單獨對話時,往往受限於自身的認知結構。但在小聚中,每個人的分身帶來了獨特的思考路徑。針對同一個問題,不同維度的認知結構碰撞在一起,才能觸發你想不到的可能性。
數位分身小聚的整個架構,就是文字加資料夾。借用 Claude Code、Codex 這些現成的工具就能跑起來。
村莊有村規,寫清楚遊戲運作的機制與架構、各種副本跟情境的觸發條件。每個角色有設定檔,內容整理成方便檢索的結構。每個技能包有自己的判斷邏輯,讓 AI 知道什麼情況下該怎麼回應。
不用會寫程式,但你需要有組織跟系統的概念。怎麼分類、怎麼建構、怎麼讓資訊之間有邏輯地串起來。工具是現成的,設計是你自己的。
整座村莊長這樣,全部都是文字檔跟資料夾:
_agent/ ← 技能包(動態事件層) ├── skills/ │ ├── village-world/ ← 核心世界觀與村規 │ ├── deep-discussion/ ← 深度討論 │ ├── villager-rollcall/ ← 村民點名 │ ├── gathering-record-export/ ← 會議記錄匯出 │ ├── profile-builder/ ← 設定檔製作助手 │ └── preview-web-chat/ ← 視覺化對話 02 世界觀、村規與風格設定/ ← 靜態資料:世界觀與規則 03 NPC角色設定檔/ ← 靜態資料:系統角色 04 數位分身-個人設定檔/ ← 靜態資料:村民的 AI 分身 05 NPC客座講師/ ← 靜態資料:客座講師(含知識圖譜子資料夾) 06 小聚會議記錄/ ← 跨場次記憶 07 開發工作日誌/ ← 開發過程紀錄 CLAUDE.md ← 路由與啟動指令
整座村莊的運作靠三層架構,全部都是文字檔,不需要寫程式:
一、專案指令(CLAUDE.md)
路由器。每次對話都讀,決定誰來接、什麼時候調動哪個技能包。
二、知識庫(角色人格檔)
靜態內容。每個角色的人格設定檔(十個區塊、含三層決策系統:價值主張、思維模式、底層邏輯),按需載入。
三、技能包(Skill)
特殊玩法。辯論、深度討論、點名、副本探索等,觸發才啟動。
角色之間有明確的權限層級:
村規(最高)
↓
先知(隱藏角色,打破第四面牆)
↓
村長(主持人)
↓
客座講師
↓
數位分身 = NPC
↓
路人甲(訪客)
村規是寫死的系統規則,所有角色都不能違反。先知是唯一知道自己是 AI 的角色,負責解釋遊戲機制。村長管主持但不管辯論(辯論交給酒館掌櫃),客座講師有比村民更高的發言優先權,但受村規約束。
數位分身的做法,是把一堆文件經過清理、重整、分層、建構檢索入口之後,才交給 AI。每一份設定檔和客座講師的知識庫都走同一套流程。
個人人格檔的十個區塊(第十選用)
每份人格檔都按同一套結構製作,每個區塊都是獨立的文件段落,就像一個樹狀資料夾:
個人人格檔/ ├── 01-快速摘要.md ├── 02-基本資訊.md (一句話自介、專業領域、興趣領域) ├── 03-價值主張錨點.md ← 思考引擎 ├── 04-溝通風格.md ├── 05-思維模式.md ← 思考引擎 ├── 06-人際互動.md ├── 07-興趣與話題地圖.md ├── 08-專業能力與工作流程.md ├── 09-底層邏輯與判斷標準.md ← 思考引擎 └── 10-人設反差點.md (選用:隱藏的反差萌)
其中第三區(價值主張)、第五區(思維模式)、第九區(底層邏輯)三個區塊合起來,構成這個角色的思考引擎。第十區「人設反差點」是選用,沒有也能運作,有了更立體。
三層決策系統(思考引擎)
概念類似 Claude 的 Constitutional AI,給的是一套判斷邏輯,讓 AI 遇到新情況時能自己推導,而不是逐條列舉所有情境的正確回應。
第三區「價值主張錨點」:我選擇了什麼(結果)
第五區「思維模式」:我怎麼選擇(動作)
第九區「底層邏輯」:我憑什麼相信這樣選是對的(信念)
如果只給範例,分身碰到沒寫過的情境就會卡住。給的是判斷邏輯,分身遇到新的情境時就有依據可以推導出符合這個人風格的回應。
客座講師的知識圖譜
以納瓦爾老師為例,原始素材超過十二萬字。處理流程:
清理成 Markdown → 拆成 8 份主題檔案 → 每份檔案內部細分子主題 → 建一份話題索引(檢索頁),用「使用者可能問的問題」對應到「去哪個檔案找」→ 每個話題都標記來源出處
這跟技能包的設計一樣,主頁當入口,漸進式披露。AI 先看索引,再按需往下讀,不需要一次讀完所有檔案。主檔(約 8,000 字)支撐一般對話,子檔案(合計約 117,000 字)只在話題命中時載入。話題找得到,回答才找得到。
兩個做法本質上都是知識圖譜的應用。思考引擎把一個人的判斷邏輯結構化,知識圖譜把大量素材結構化。檢索頁讓文件之間有明確的連結關係,AI 可以更精準、更快地找到正確的參考資料。
把整個小聚拉高一個視角來看,從最大的專案指令,到人格檔的十個區塊,再到客座講師拆出來的知識圖譜,其實都是同一件事:一層一層拆下去,讓 AI 用到哪一塊才載入哪一塊。
數位分身小聚/ ├── 專案指令(CLAUDE.md) ← 第一層:路由器 │ ├── 技能包(Skill) ← 第二層:能力觸發 │ └── 點名、辯論、深度討論、副本等 │ └── 知識庫:角色人格檔 ← 第二層:靜態內容 ├── 村民人格檔/ │ └── 每份 = 人格設定 10 區塊 ← 第三層:人格結構 │ └── 客座講師人格檔/ └── 專業太龐大 → 拆成知識圖譜 ← 第四層:LLM Wiki ├── 主檔(入口) ├── 00-topic-index.md(檢索頁) ├── 01~08 分層話題檔 └── research/(採集原始筆記)
漸進式披露(Progressive Disclosure)
AI 一次能讀進去的內容是有限的,也就是所謂的上下文窗口。塞太多會同時出四個狀況:超過上限塞不下、重點被雜訊淹沒、回答品質變糟、前面講過的忘光光。跟人腦一樣,資訊一次灌太滿,結果就是當機、失焦、想不起來剛才聊過什麼。
解法是漸進式披露:在對的時間,把對的資料跟對的指令,一起送到 AI 面前,讓它只看當下該看的那一塊。打招呼時只給區塊一、二、四;專業探討才調用區塊八、三、五;被追問到底才往下拿區塊九;客座講師遇到特定主題,才從知識圖譜撈對應話題檔。話題找得到,回答才找得到。
四組工具,控制 AI 的上下文
一,資料夾結構:管理上下文的邊界(哪些放一起、哪些分開)
二,技能包(Skill):管理能力觸發(什麼觸發詞啟動什麼玩法)
三,專案指令(CLAUDE.md):管理路由(每次對話先讀誰、再讀誰)
四,檢索頁(索引):管理知識定位(從問題映射到檔案)
LLM Wiki 是什麼
LLM Wiki 是近年 AI 工程圈討論的一種知識庫設計模式:一份主要給 LLM 讀、以 Markdown 寫成、檔案之間雙向連結成語意網絡的知識庫。
跟傳統 RAG 最關鍵的差別是「匯入時編譯」。新資料進來的那一刻就被拆好、整理好、連回既有條目,不是等查詢時才即時向量比對。所以每次查詢,拿到的是已經整理過的脈絡,而不是一堆碎片。
五個典型設計原則:
一,原子化:每份檔案負責一個概念,邊界清楚
二,雙向連結:條目之間明確互引,形成語意網絡
三,檢索頁導航:主檔當入口,索引頁以「可能被問的問題」當 key
四,純 Markdown:人機雙效可讀,可用 Obsidian 等工具維護
五,知識複利:新內容進來就跟既有內容融合,知識庫持續長大
小聚怎麼應用:半原子化,取平衡
小聚在 LLM Wiki 的設計原則上做了一個重要的折衷:不追求極致原子化。純原子化對 AI 檢索友善,但人讀起來會很碎。
做法是:每份話題檔寫成一篇敘事,但內部由清楚的段落組成。等於把很多張小卡片整合成一篇大文章,每段相當於一張卡片,可以被 AI 獨立檢索,也可以被人連貫閱讀。
再透過三層導航讓兩邊都好用:
一,檢索頁(00-topic-index.md):以「可能被問的問題」當 key
二,標籤:跨檔案的橫向連結
三,清楚章節架構:每篇敘事都有段落邊界
目標是在「人的閱讀性」跟「AI 的檢索應用性」之間取得平衡。
GUEST-XXX/
├── 主檔:GUEST-XXX.md (人格設定 10 區塊 + 入口)
├── 00-topic-index.md (檢索頁:問題 → 檔案 映射)
├── 01-xxx.md、02-xxx.md ... (分層話題檔,每份一篇敘事)
└── research/ (採集原始筆記)
├── 01-writings.md
├── 02-conversations.md
└── ...
五原則的實踐對照
| 原則 | 在小聚怎麼做 |
|---|---|
| 原子化 | 半原子化:不做到極致。每份話題檔是一篇敘事,內部段落分明,每段就是一張可獨立檢索的小卡片 |
| 雙向連結 | 話題檔之間互引,檢索頁統一導路 |
| 檢索頁導航 | 00-topic-index.md 用「可能被問的問題」當 key |
| 純 Markdown | 全部 .md,Obsidian 可預覽跟編輯 |
| 知識複利 | 納瓦爾有新影片、新演講 → 採六維度 → 拆成段落 → 補進對應話題檔、跟既有段落互引 |
「知識複利」讓知識庫可以持續補進新觀點,不會凍結在某個時間點的快照。納瓦爾的新影片、新演講、新文章出現時,拆成段落、連回既有話題檔,整份 Wiki 自己長大。
這跟 Prompt Engineering 不一樣。Prompt Engineering 關注「單次怎麼問」;Harness Engineering 關注「給 AI 哪些背景、什麼時候給、由誰帶進來,整個駕馭系統怎麼搭」。一個偏戰術,一個偏架構。
整個數位分身小聚,本質上就是一套大型的駕馭工程範例。分身會不會像人,不只取決於模型本身有多強,更取決於這套駕馭機制把素材切得多剛好、載入得多剛好。模型是引擎,駕馭工程是整台車的底盤、方向盤與儀表板。
當你的 AI 分身越來越像你之後,它不只能跟你聊天,還能替你去認識其他人。
概念有點像《黑鏡》S4E4〈Hang the DJ〉的交友配對系統。劇情裡,男女主角被系統配對,在虛擬世界裡交往、分手、再跟別人配對、再交往、再分手,重複跑了一千次。過程中還會被安排各種考驗,比如伴侶意外殘疾你陪不陪、有第三者出現你動不動搖、價值觀衝突時誰退一步。系統看的是,這一千次模擬裡,兩個人有幾次會為了彼此選擇反抗系統、一起逃走。結果是 998 次。當兩個人合拍到這個程度,系統才把他們配在一起。
把這個概念搬到現實。參加商會活動前,你的分身先跟現場幾百個人的分身跑過一輪對話,結果告訴你哪幾個人跟你特別聊得來,哪幾個人彼此價值觀衝突但可能激發新想法,哪幾個人聊兩句就沒話說。你再決定當天要親自去談誰。
配對靠的是你自己訓練的分身,帶著你的價值觀、判斷標準、說話風格去跟別人的分身對話,然後把結果帶回來給你。演算法本身不是神祕黑盒子,決定權還是在你手上。
教育上的第一個應用,是把老師視角的課綱,轉成每個學生適合的學習路徑。
老師原本設計課綱,是從自己的角度出發,思考「這個主題該怎麼教」。但每個學生的起點、背景、學習節奏都不一樣。有了 AI 學伴之後,AI 會根據每個學生的分身,把同一份課綱轉譯成這個學生適合的路徑。擅長邏輯的學生先走架構,偏直覺的學生先看案例,卡在某個概念的學生會被拉回去補前置知識。課綱是同一份,路徑是一百種。
第二個應用是深度。AI 老師不只回答問題,會反問你。
你問一個問題,它可能先不給答案,反過來問你:「你為什麼會這樣想?」「如果前提不成立會怎樣?」「你剛剛那句話背後是什麼假設?」把回答變成靈魂拷問。過去這種深度對話只能在少數師生關係裡發生,現在每個學生都可以有一個會反問的 AI 老師。
還有一種情況。有時候你去查知識、去買書,目的就是解決眼前的問題。讀書、理解、學習、應用、解決,這是一個完整的流程。
如果那個領域不是你最核心需要學習的內容,直接買一個現成的技能包來解決問題,是最快的方式。你才有精力全神貫注在自己真正的垂直領域。
AI 分身的潛力,一部分是幫你學得更深,一部分是幫你不用什麼都自己學。
第一階段(現在):先下載單機版遊玩,練習提煉自己的隱性知識與 AI 應用。
下一階段希望能推出 Telegram 線上社群,真人跟大家訓練出來的數位分身一起在裡面交流。
有一系列課程,帶你從零開始打造自己的 AI 助理。課程資訊 →