前言
寫在前面
綱要:
- 名詞解釋
- 如何用 LLM 進行RP。
- 進行一場簡單的RP。
- 為什麼要編寫prompt。
- 選擇Google Gemini的原因。
什麼是 RP
RP(Role-playing,角色扮演),泛指扮演特定角色,依照人設進行演出與他人互動。
詞語本身具多重歧義,但本系列文將聚焦於以LLM進行角色扮演遊戲的範疇。
尤其是對單人(或少數)角色的互動模擬。(原因於後說明)
參考資料:WIKI對角色扮演的介紹
什麼是 LLM
LLM(Large Language Model,大型語言模型)是一種基於人工神經網路與 Transformer 架構的深度學習 AI。它透過極為大量的文字數據訓練而成,能夠理解人類的自然語言(平常講話的方式)並進行對話。
其本質上是一個強大的 「文本生成器」 或 「機率預測機器」 。它就像一個讀過全世界所有書籍、且極度擅長玩「文字接龍」的超級大腦:
拆解與定位(Tokens & Vectors)
在訓練時,LLM 會將素材拆解成極細微的小區塊(Token),並轉換成數位世界的座標(向量)。這讓它能理解詞彙之間的語意關聯(例如「太陽」與「溫暖」在座標上會很接近)。建立規律(Transformer 架構)
透過繁複的演算法,它會找出詞彙之間隱藏的統計規律。譬如:當出現 「床前明月」 時,它知道下一個字出現 「光」 的機率最高。預測與生成
當你提問時,LLM 會拆解你的問題,並在龐大的「規律地圖」中定位,藉此預測下一個字、下一個片段最可能出現的內容,進而拼湊出完整的回答。核心是「機率」
LLM 的輸出,本質上是機率的選擇。
即使是同一個問題,它每次生成的路徑可能略有不同,因此不一定會得到完全相同的答案。
這也是為什麼 Prompt(提示詞) 的引導如此重要 —— 好的 Prompt 能將機率導向更準確的答案。
Token 是 LLM 處理文字的最小單位。(也是收費單位)
LLM 在讀取或生成文字之前,會先把所有文字切成一塊一塊的 token。大致上:
英文:
一個常見單字 ≈ 1 個 token。
長單字或複雜單字會被切開。(如 friendship 可能拆成 friend 和 ship)
中文:通常 1–2 個字 ≈ 1 個 token。(與模型版本有關,越新穎的編碼技術越高,轉換比也更高)
其他:空格、換行、標點符號也列入token計算。
參考資料:
- AWS對LLM的介紹
- WIKI對LLM的介紹
- 推薦影片:AI 的底層邏輯與機率預測
(雖然是以影片生成為例,但底層規律與 LLM 互通) - 推薦影片:從 LLM 一直到 Agent Skill 的簡介
(在30分鐘內快速建立對 LLM 的底層概念,涵蓋了常用的術語的解釋)
適合RP用途之 LLM
| 模型系列 | 免費可用版本 (2026) | 特色與 RP 表現 | 缺點 | 連結 |
|---|---|---|---|---|
| Claude (Anthropic) | Claude 4 Sonnet / 3.7 Sonnet | 文采之王。筆觸最細膩、具備極強的情感共鳴與文學修飾力,角色最不像機器人。 | 免費額度較嚴格(每幾小時僅數則),且對特定敏感題材有基礎攔截。 | 連結 |
| Grok (xAI) | Grok 3 (Limited) / Grok 4 Fast | 個性鮮明。原生語氣幽默、毒舌、叛逆,適合現代背景、反英雄或痞氣角色,審查相對寬鬆。 | 敘事風格較為直白、缺乏華麗辭藻;長篇劇本的邏輯一致性略遜於 Claude。 | 連結 |
| DeepSeek (深度求索) | DeepSeek-V3 | 高性價比/全能。對中文語境理解極佳,指令遵循度高,且對多種 RP 風格(古風、二次元)都有良好適配。 | 雖然海外可用,但尖峰時段 Web 版可能稍有延遲,情感深度略薄於 Claude。 | 連結 |
| Gemini (Google) | Gemini 3 Flash | 超長記憶。具備百萬級上下文,能記住極長篇幅的劇情伏筆與設定,環境描寫與分鏡感強。 | 語氣偶爾顯得過於「正經」或「AI 腔」,需要較強的 Prompt 引導才能進入狀態。 | 連結 |
| GPT (OpenAI) | GPT-5 mini / o3-mini | 邏輯大師。世界觀建構(World Building)與複雜規則執行力最強,不容易出現設定衝突或出戲。 | 文字風格較為公式化,且安全過濾機制較為繁瑣,容易導致劇情推進受阻。 | 連結 |
| Kimi (月之暗面) | Kimi-K2.5 | 檔案處理專家。適合丟入整本小說或設定集進行參考,對長篇劇情大綱的掌握度極高。 | 海外版功能更新速度略慢於國內版,文學張力屬於中規中矩。 | 連結 |
| Qwen (通義千問) | Qwen 3.5 (各尺寸) | 開源界標竿。對繁體中文及亞洲文化背景(修仙、武俠)的支持度是所有模型中最好的。 | 免費 Web 版的限制較多,通常需要透過 HuggingChat 或第三方平台調用。 | 連結 |
(260323現時點,AI整理)
如何用 LLM 進行RP
一句型RP
使用 LLM 進行RP非常簡單,在交談中指示要進行RP,並且與 LLM 討論角色與情境,即可開始RP。
譬如:
我想進行RP,LLM請扮演咬著土司趕上學的冒失女高中生,我(玩家)扮演男高中生。上學途中,兩人在街角撞在一起。
將上述指令貼入上面提到的各大 LLM 對話框中送出。
並正常與 LLM 交談進行RP。
除直接輸入台詞外,若須包含動作,可參考下述範例:
- 你沒怎樣吧 (從地上爬起來,拍拍衣服上的灰塵)
- 「你沒怎樣吧」 從地上爬起來,拍拍衣服上的灰塵
- 從地上爬起來,拍拍衣服上的灰塵,嘴裡說些安慰她的話。
恭喜你,開始了第一次的RP體驗。
這個結構簡單且定義清楚:
- LLM 應扮演的角色
- 使用者/我/玩家 扮演的角色
- 大致的情境
明確定義 LLM 與玩家各該扮演的角色,能有效的避免角色的混淆。
沒定義清楚時,偶爾會發生 LLM 自主性的扮演所有角色。
不斷地擅自推進故事的狀況。
改進RP品質
這樣像狀況劇一般,一句話型的RP很有趣。
但玩過幾次會發覺,由於指令過於簡單且籠統,導致生成內容充滿各種可能,
但變化大的結果是,生成內容良莠不齊,無法每次都滿足玩家的需求或喜好。
為了解決這個問題,可以進行設定的擴寫:
我想進行RP,以第三人稱,小說文體進行敘事。LLM請扮演咬著土司趕上學的冒失女高中生,小娜,髮型是高層次鮑伯頭,面容秀氣可愛,身材纖細,性格有些冒失且膽小,頭髮亂糟糟的,穿著急忙套上的水手服,鈕扣還扣錯。我(玩家)扮演男高中生,小明。上學途中,兩人在街角撞在一起。其實是女高中生看錯時間,真正上學的時間還沒到。兩個人是同校生,教室在隔壁班,小娜對玩家有些印象。
上述改進:
- 豐富女高中生的人設。
- 增加了背景設定。
- 增加了敘事風格、人稱的定義與人名。
豐富的人設與設定,能讓 LLM 在生成內容時,有更具體的參考。
而敘事的風格與人稱的指派,能讓敘事時,增加角色心聲的敘述。
雖然追加的設定,產生約束,進而降低了 LLM 自由的發揮可能性,
但追加的內容,反倒為兩人創造出新的火花,讓後續的發展更有戲。
可以說追加設定,能進行加味與調味,
讓產出內容更精緻化,更貼合玩家心中的期望。
什麼是 prompt
Prompt(提示詞)本質上和 「一般在對話框下指令」 是同一件事,
但 Prompt 背後代表著一套更進階、更準確的溝通思維。
目前的 LLM 基於機率生成回答。 同樣的問題,不同的問法會觸發模型內部的不同權重路徑。
提問的方式,會直接的影響產出的品質,因此如何編寫 Prompt,是與 LLM 溝通的一門藝術。
譬如:
- 直接在對話框下指令:什麼是小籠包?
- 使用prompt思維下指令:請用繁體中文寫一篇300字的小籠包介紹,內容包含由來、發展與特色,語氣親切端莊,目標是一般遊客。
就如同前面 「兩人上學相撞」 的例子一般,在進行詳細的定義後。
能產出更明確、品質更高、貼合需求的結果。
好的prompt能幫助使用者:
- 精確的獲得想要的答案:
精確的 Prompt 能透過設定邊界(例如要求「僅根據提供的文件回答」),
大幅降低 AI 幻覺,降低胡說八道的機率,提高資訊的準確性。 - 控制輸出格式:
直接指定回答的角色定位;內容結構、長度、表現風格,實現高度客製化的輸出。 - 解鎖的AI深層能力:
許多 AI 的進階能力(推理、角色扮演、多步驟分析)需要透過設計好的 Prompt 才能發揮。 - 節省來回溝通的時間:
減少往復修改與補充說明的次數。 - 提升自動化效率:
在開發層面,Prompt 是串接 AI API 與實際應用的橋樑。
標準化的prompt,能協助AI穩定執行高重複性工作。
要提高prompt的品質,可以參考下列幾個方向:
| 技巧 | 說明 | 範例 |
|---|---|---|
| 角色(Role) | 讓 AI 扮演特定專家 | 「你是一位行銷顧問⋯」 |
| 背景(Context) | 說明背景與目的 | 「我要準備一場對高中生的演講⋯」 |
| 格式(Format) | 指定輸出結構 | 「請用條列式回答,分三點」 |
| 範例(Example) | 提供樣本讓 AI 模仿 | 「請用以下風格改寫⋯」 |
| 限制(Constraints) | 設定邊界條件 | 「不超過 200 字,不要用專業術語」 |
延伸閱讀:Prompt工程(Prompt Engineering)
將 prompt 結構化
隨著需求而不斷追加設定,在對話框輸入的指令會逐漸地複雜。
最終,會開始因為文字過於冗長,難以進行閱讀、修改。
這個時候可以將prompt進行結構化,將敘述分門別類整理。
以上面 「兩人上學相撞」 的例子進行結構化的結果如下所示:
我想進行RP,以下是設定:
1.小娜(LLM扮演):
角色:冒失女高中生。
外觀:髮型是高層次鮑伯頭,面容秀氣可愛,身材纖細。
性格:冒失且膽小。
2.小明(玩家角色):
身份:男高中生。
3.故事梗概:
小娜咬著土司趕上學,頭髮亂糟糟、穿著急忙套上的水手服(鈕扣扣錯),與男主角在街角撞在一起。
4.背景設定:
小娜看錯時間,真正上學的時間還沒到。
兩個人是同校生,教室在隔壁班,小娜對玩家有些印象。
5.敘事風格:請以第三人稱,小說文體進行敘事。
結構化後,依據角色、事件、背景、敘事,將整個 prompt 進行分類整理。
提昇了可識性,也方便後續進行增改。
將 Prompt 結構化的好處:
- 對於下指令者:
- 消除重複、冗餘的敘述。
- 方便維護、版本控制。
- 模組化與可移植性。
結構化的 prompt 可以拆分成可替換的元件,方便在不同 prompt 甚至 LLM 間組合使用。 - 便於測試評估。
結構化後,各元件可以獨立替換測試,方便診斷影響輸出品質的關鍵變數。
- 對於 LLM:
- 能激發 LLM 進行「邏輯鏈思考」(Chain of Thought),處理複雜推理任務。
- 降低 prompt 的錯誤判讀。
- 明確 prompt 判讀時的權重。
讓 LLM 知道哪些設定比較重要、哪些是補充,避免關鍵指示被忽略。
這段 prompt 目前已稍具雛型,可以在 LLM 開新對話之後。
使用剪貼的方式,抑或存成文字檔,即上傳給 LLM 。
方便以相同條件,重複執行 RP。
使用 Google Gemini
但還有更方便的方式,便是透過 Google Gemini Gem 進行編寫、測試與實行。
Google Gemini Gem 是支援以 prompt 自定義 LLM 的設置檔,可以設置多組。
Gem 的 prompt 可以參照 Google文件,因此可以直接編輯、即時同步,甚至分享給他人。
可以多組設置、方便編輯,是本系列文選用 Google Gemini 的最大原因。
除此之外 Google Gemini 還有其他長處。
選擇Gemini之原因
- Gem Prompt可參照Google文件:
- 隨時編輯、即時同步
- 插件封包
將元件獨立放在其他文檔中,在Gem中直接替換。(後續說明)
- 超長上下文(Long Context):
- 目前 LLM RP 的通病:RM過程產生的大量內容,會導致失憶或錯亂。(後續說明)
- Gemini、ChatGPT 支持之文本長度遠優於其他模型。(2026.03.25 現時點)
- 原生多模態 (Native Multimodality):
- 使用同一個精神網絡建構跨媒介模型,能以低消耗進行複雜的任務處理。
- 這為提供了RP更大的可能性。(RP運用於後續舉例)
- Google 生態系整合(Google Ecosystem Integration):
- 與 Google Workspace 聯動。
- 能直接調用 Google 雲端硬碟、 Gmail、 GoogleMap 或 Youtuber 資源。
延伸閱讀:AI 的幻覺、失憶與錯亂
補充說明
雖然上面 LLM 的比較表格有提到,Gemini 須較多的 prompt 才能 「進入狀況」。
但這其實無妨,只要在 prompt 多下幾句敘述,協助RP內容生成時進行潤色即可。
接下來系列文的教學中,將會一一介紹潤色方法。
另,製作給 LLM 進行RP用的 prompt 其基本思路是共通的,
邏輯通達後,日後想轉換系統並不困難。
下一篇文章: Google Gemini Gem 介紹