前言

寫在前面

綱要:

  • 名詞解釋
  • 如何用 LLM 進行RP。
  • 進行一場簡單的RP。
  • 為什麼要編寫prompt。
  • 選擇Google Gemini的原因。

什麼是 RP

RP(Role-playing,角色扮演),泛指扮演特定角色,依照人設進行演出與他人互動。

詞語本身具多重歧義,但本系列文將聚焦於以LLM進行角色扮演遊戲的範疇。

尤其是對單人(或少數)角色的互動模擬。(原因於後說明)

參考資料:WIKI對角色扮演的介紹

什麼是 LLM

LLM(Large Language Model,大型語言模型)是一種基於人工神經網路與 Transformer 架構的深度學習 AI。它透過極為大量的文字數據訓練而成,能夠理解人類的自然語言(平常講話的方式)並進行對話。

其本質上是一個強大的 「文本生成器」 或 「機率預測機器」 。它就像一個讀過全世界所有書籍、且極度擅長玩「文字接龍」的超級大腦:

  1. 拆解與定位(Tokens & Vectors)
    在訓練時,LLM 會將素材拆解成極細微的小區塊(Token),並轉換成數位世界的座標(向量)。這讓它能理解詞彙之間的語意關聯(例如「太陽」與「溫暖」在座標上會很接近)。

  2. 建立規律(Transformer 架構)
    透過繁複的演算法,它會找出詞彙之間隱藏的統計規律。譬如:當出現 「床前明月」 時,它知道下一個字出現 「光」 的機率最高。

  3. 預測與生成
    當你提問時,LLM 會拆解你的問題,並在龐大的「規律地圖」中定位,藉此預測下一個字、下一個片段最可能出現的內容,進而拼湊出完整的回答。

  4. 核心是「機率」
    LLM 的輸出,本質上是機率的選擇。
    即使是同一個問題,它每次生成的路徑可能略有不同,因此不一定會得到完全相同的答案。
    這也是為什麼 Prompt(提示詞) 的引導如此重要 —— 好的 Prompt 能將機率導向更準確的答案。

Token 是 LLM 處理文字的最小單位。(也是收費單位)

LLM 在讀取或生成文字之前,會先把所有文字切成一塊一塊的 token。大致上:

    英文:
        一個常見單字 ≈ 1 個 token。
        長單字或複雜單字會被切開。(如 friendship 可能拆成 friend 和 ship)
    中文:通常 1–2 個字 ≈ 1 個 token。(與模型版本有關,越新穎的編碼技術越高,轉換比也更高)

    其他:空格、換行、標點符號也列入token計算。

參考資料:


適合RP用途之 LLM

模型系列免費可用版本 (2026)特色與 RP 表現缺點連結
Claude (Anthropic)Claude 4 Sonnet / 3.7 Sonnet文采之王。筆觸最細膩、具備極強的情感共鳴與文學修飾力,角色最不像機器人。免費額度較嚴格(每幾小時僅數則),且對特定敏感題材有基礎攔截。連結
Grok (xAI)Grok 3 (Limited) / Grok 4 Fast個性鮮明。原生語氣幽默、毒舌、叛逆,適合現代背景、反英雄或痞氣角色,審查相對寬鬆。敘事風格較為直白、缺乏華麗辭藻;長篇劇本的邏輯一致性略遜於 Claude。連結
DeepSeek (深度求索)DeepSeek-V3高性價比/全能。對中文語境理解極佳,指令遵循度高,且對多種 RP 風格(古風、二次元)都有良好適配。雖然海外可用,但尖峰時段 Web 版可能稍有延遲,情感深度略薄於 Claude。連結
Gemini (Google)Gemini 3 Flash超長記憶。具備百萬級上下文,能記住極長篇幅的劇情伏筆與設定,環境描寫與分鏡感強。語氣偶爾顯得過於「正經」或「AI 腔」,需要較強的 Prompt 引導才能進入狀態。連結
GPT (OpenAI)GPT-5 mini / o3-mini邏輯大師。世界觀建構(World Building)與複雜規則執行力最強,不容易出現設定衝突或出戲。文字風格較為公式化,且安全過濾機制較為繁瑣,容易導致劇情推進受阻。連結
Kimi (月之暗面)Kimi-K2.5檔案處理專家。適合丟入整本小說或設定集進行參考,對長篇劇情大綱的掌握度極高。海外版功能更新速度略慢於國內版,文學張力屬於中規中矩。連結
Qwen (通義千問)Qwen 3.5 (各尺寸)開源界標竿。對繁體中文及亞洲文化背景(修仙、武俠)的支持度是所有模型中最好的。免費 Web 版的限制較多,通常需要透過 HuggingChat 或第三方平台調用。連結

(260323現時點,AI整理)


如何用 LLM 進行RP

一句型RP

使用 LLM 進行RP非常簡單,在交談中指示要進行RP,並且與 LLM 討論角色與情境,即可開始RP。

譬如:

我想進行RP,LLM請扮演咬著土司趕上學的冒失女高中生,我(玩家)扮演男高中生。上學途中,兩人在街角撞在一起。

將上述指令貼入上面提到的各大 LLM 對話框中送出。

並正常與 LLM 交談進行RP。

除直接輸入台詞外,若須包含動作,可參考下述範例:

  • 你沒怎樣吧 (從地上爬起來,拍拍衣服上的灰塵)
  • 「你沒怎樣吧」 從地上爬起來,拍拍衣服上的灰塵
  • 從地上爬起來,拍拍衣服上的灰塵,嘴裡說些安慰她的話。

恭喜你,開始了第一次的RP體驗。

這個結構簡單且定義清楚:

  • LLM 應扮演的角色
  • 使用者/我/玩家 扮演的角色
  • 大致的情境

明確定義 LLM 與玩家各該扮演的角色,能有效的避免角色的混淆。

沒定義清楚時,偶爾會發生 LLM 自主性的扮演所有角色。

不斷地擅自推進故事的狀況。

改進RP品質

這樣像狀況劇一般,一句話型的RP很有趣。

但玩過幾次會發覺,由於指令過於簡單且籠統,導致生成內容充滿各種可能,

但變化大的結果是,生成內容良莠不齊,無法每次都滿足玩家的需求或喜好。

為了解決這個問題,可以進行設定的擴寫:

我想進行RP,以第三人稱,小說文體進行敘事。LLM請扮演咬著土司趕上學的冒失女高中生,小娜,髮型是高層次鮑伯頭,面容秀氣可愛,身材纖細,性格有些冒失且膽小,頭髮亂糟糟的,穿著急忙套上的水手服,鈕扣還扣錯。我(玩家)扮演男高中生,小明。上學途中,兩人在街角撞在一起。其實是女高中生看錯時間,真正上學的時間還沒到。兩個人是同校生,教室在隔壁班,小娜對玩家有些印象。

上述改進:

  • 豐富女高中生的人設。
  • 增加了背景設定。
  • 增加了敘事風格、人稱的定義與人名。

豐富的人設與設定,能讓 LLM 在生成內容時,有更具體的參考。

而敘事的風格與人稱的指派,能讓敘事時,增加角色心聲的敘述。

雖然追加的設定,產生約束,進而降低了 LLM 自由的發揮可能性,

但追加的內容,反倒為兩人創造出新的火花,讓後續的發展更有戲。

可以說追加設定,能進行加味與調味,

讓產出內容更精緻化,更貼合玩家心中的期望。

什麼是 prompt

Prompt(提示詞)本質上和 「一般在對話框下指令」 是同一件事,

但 Prompt 背後代表著一套更進階、更準確的溝通思維。

目前的 LLM 基於機率生成回答。 同樣的問題,不同的問法會觸發模型內部的不同權重路徑。

提問的方式,會直接的影響產出的品質,因此如何編寫 Prompt,是與 LLM 溝通的一門藝術。

譬如:

  • 直接在對話框下指令:什麼是小籠包?
  • 使用prompt思維下指令:請用繁體中文寫一篇300字的小籠包介紹,內容包含由來、發展與特色,語氣親切端莊,目標是一般遊客。

就如同前面 「兩人上學相撞」 的例子一般,在進行詳細的定義後。

能產出更明確、品質更高、貼合需求的結果。

好的prompt能幫助使用者:

  1. 精確的獲得想要的答案
    精確的 Prompt 能透過設定邊界(例如要求「僅根據提供的文件回答」),
    大幅降低 AI 幻覺,降低胡說八道的機率,提高資訊的準確性。
  2. 控制輸出格式
    直接指定回答的角色定位;內容結構、長度、表現風格,實現高度客製化的輸出。
  3. 解鎖的AI深層能力
    許多 AI 的進階能力(推理、角色扮演、多步驟分析)需要透過設計好的 Prompt 才能發揮。
  4. 節省來回溝通的時間
    減少往復修改與補充說明的次數。
  5. 提升自動化效率
    在開發層面,Prompt 是串接 AI API 與實際應用的橋樑。
    標準化的prompt,能協助AI穩定執行高重複性工作。

要提高prompt的品質,可以參考下列幾個方向:

技巧說明範例
角色(Role)讓 AI 扮演特定專家「你是一位行銷顧問⋯」
背景(Context)說明背景與目的「我要準備一場對高中生的演講⋯」
格式(Format)指定輸出結構「請用條列式回答,分三點」
範例(Example)提供樣本讓 AI 模仿「請用以下風格改寫⋯」
限制(Constraints)設定邊界條件「不超過 200 字,不要用專業術語」

延伸閱讀Prompt工程(Prompt Engineering)

將 prompt 結構化

隨著需求而不斷追加設定,在對話框輸入的指令會逐漸地複雜。

最終,會開始因為文字過於冗長,難以進行閱讀、修改。

這個時候可以將prompt進行結構化,將敘述分門別類整理。

以上面 「兩人上學相撞」 的例子進行結構化的結果如下所示:


我想進行RP,以下是設定:

1.小娜(LLM扮演):
    角色:冒失女高中生。
    外觀:髮型是高層次鮑伯頭,面容秀氣可愛,身材纖細。
    性格:冒失且膽小。

2.小明(玩家角色):
    身份:男高中生。

3.故事梗概:
    小娜咬著土司趕上學,頭髮亂糟糟、穿著急忙套上的水手服(鈕扣扣錯),與男主角在街角撞在一起。

4.背景設定:
    小娜看錯時間,真正上學的時間還沒到。
    兩個人是同校生,教室在隔壁班,小娜對玩家有些印象。

5.敘事風格:請以第三人稱,小說文體進行敘事。

結構化後,依據角色、事件、背景、敘事,將整個 prompt 進行分類整理。

提昇了可識性,也方便後續進行增改。

將 Prompt 結構化的好處:

  • 對於下指令者
    • 消除重複、冗餘的敘述。
    • 方便維護、版本控制。
    • 模組化與可移植性。
      結構化的 prompt 可以拆分成可替換的元件,方便在不同 prompt 甚至 LLM 間組合使用。
    • 便於測試評估。
      結構化後,各元件可以獨立替換測試,方便診斷影響輸出品質的關鍵變數。
  • 對於 LLM
    • 能激發 LLM 進行「邏輯鏈思考」(Chain of Thought),處理複雜推理任務。
    • 降低 prompt 的錯誤判讀。
    • 明確 prompt 判讀時的權重。
      讓 LLM 知道哪些設定比較重要、哪些是補充,避免關鍵指示被忽略。

這段 prompt 目前已稍具雛型,可以在 LLM 開新對話之後。

使用剪貼的方式,抑或存成文字檔,即上傳給 LLM 。

方便以相同條件,重複執行 RP。

使用 Google Gemini

但還有更方便的方式,便是透過 Google Gemini Gem 進行編寫、測試與實行。

Google Gemini Gem 是支援以 prompt 自定義 LLM 的設置檔,可以設置多組。

Gem 的 prompt 可以參照 Google文件,因此可以直接編輯、即時同步,甚至分享給他人。

可以多組設置、方便編輯,是本系列文選用 Google Gemini 的最大原因。

除此之外 Google Gemini 還有其他長處。

選擇Gemini之原因

  • Gem Prompt可參照Google文件
    • 隨時編輯、即時同步
    • 插件封包
      將元件獨立放在其他文檔中,在Gem中直接替換。(後續說明)
  • 超長上下文(Long Context)
    • 目前 LLM RP 的通病:RM過程產生的大量內容,會導致失憶或錯亂。(後續說明)
    • Gemini、ChatGPT 支持之文本長度遠優於其他模型。(2026.03.25 現時點)
  • 原生多模態 (Native Multimodality)
    • 使用同一個精神網絡建構跨媒介模型,能以低消耗進行複雜的任務處理。
    • 這為提供了RP更大的可能性。(RP運用於後續舉例)
  • Google 生態系整合(Google Ecosystem Integration)
    • 與 Google Workspace 聯動。
    • 能直接調用 Google 雲端硬碟、 Gmail、 GoogleMap 或 Youtuber 資源。

延伸閱讀:AI 的幻覺、失憶與錯亂

補充說明

雖然上面 LLM 的比較表格有提到,Gemini 須較多的 prompt 才能 「進入狀況」。

但這其實無妨,只要在 prompt 多下幾句敘述,協助RP內容生成時進行潤色即可。

接下來系列文的教學中,將會一一介紹潤色方法。

另,製作給 LLM 進行RP用的 prompt 其基本思路是共通的,

邏輯通達後,日後想轉換系統並不困難。


下一篇文章: Google Gemini Gem 介紹