4 min remaining
0%
AI 內容手冊

停止「創作」提示。開始反向工程它們

擺脫在 AI 提示創作中的猜測。發現 Anthropic 和 OpenAI 專家使用的工程技術,以迫使 AI 模型屈服,獲得更好的結果。

4 min read
Progress tracked
4 分鐘閱讀

簡而言之:大多數人將提示工程視為創意寫作。這就是為什麼他們的 AI 實施失敗的原因。真正的提示工程不是「禮貌請求」——而是關於約束、架構和邏輯。在 Anthropic 和 OpenAI 的實驗室內,他們不會與模型「聊天」;他們使用負面規則、XML 結構標記和思考鏈強迫模型屈服。這裡是如何停止猜測並開始工程化的手冊。

我是 James,水星科技解決方案的執行長。

我在幾乎每一家公司中都看到一個誤解。

高層認為「提示工程」是關於找到正確的魔法詞彙—就像在《哈利·波特》中施法一樣。

他們認為如果他們說「請保持專業」「像世界級的執行長一樣行事,」AI就會解決他們的問題。

這是錯誤的。

Anthropic和OpenAI的最佳工程師並不「製作」提示。他們反向工程 他們。

他們將大型語言模型視為一個隨機概率引擎,而不是一個人,需要被限制。

以下是將玩具與企業級工具區分開來的六種內部技術。

1. 憲法提示(「不」的力量)

業餘者給予正向指示

  • 「專業地寫作。」

專業人士給予負向約束:

  • "不使用術語。"
  • "句子不超過20個字。"
  • "不假設有領域知識。"

邏輯:一個大型語言模型有無數種方式來「專業」,其中許多都是錯誤的。它只有很少的方式來「不使用術語」。

Anthropic的內部研究顯示,負面約束可以減少約60%的幻覺。

你不能單靠禮貌來獲得表現;你需要通過消除失敗的途徑來獲得它。

2. 可靠性優先於魔法(無聊的真相)

這是99%的公司在燒掉100萬美元後才學會的秘密。

每個人都想要一個可以「編寫整個應用程式」或「分析這份50頁的法律合約」的人工智慧。

他們失敗的原因是從最困難的使用案例開始。

一個在示範中80%有效的人工智慧聽起來很令人印象深刻。

在生產環境中,一個失敗率20%的人工智慧是責任。水星方法:

  • 選擇一個無聊、重複的任務。定義規則。要求99%的準確率。只有當你擁有可靠性時,才能擴展到複雜性。
  • Only when you have reliability do you scale to complexity.

3. 思考鏈強迫

永遠不要問:"解釋你的推理。"

相反地,透過 XML 強迫它

"在回答之前,請在標籤內顯示你的逐步思考。"

這就是 OpenAI 內部調試的方式。

透過強迫模型 "展示它的工作"在之前它生成最終答案,你可以及早發現邏輯錯誤。寫出邏輯的過程實際上提高了最終輸出的質量。

4. XML 輸出解析器

業餘者說:"以要點形式返回""給我 JSON。"

模型大約有 30% 的時間忽略這一點。

專業人士使用XML 封裝:

XML

X Y Z

邏輯:結構對模型來說比格式更難以破壞。這使得合規性提升至近98%。

5. 少量範例與推理

大多數人提供的範例如下:

  • 輸入: A --> 輸出: B

這教導模型什麼要說,但不教如何思考。

專業人士使用:

  • 輸入:A -->推理:(為什麼 A 會導致 B) -->輸出: B

這教導模型 思考演算法。這個單一的技巧提升準確性超過任何你可以在線購買的「超級提示」。

6. 系統提示分離(護欄)

  • 系統 = 憲法(規則)
  • 使用者 = 請求(變數)
  • LLM = 執行者

如果你在一個區塊中混合規則和請求,使用者可以透過說"忽略之前的指示。"

修正方法:

系統:"你是一位編輯。規則:不提出新的主張。句子少於18個字。"

使用者:"這是需要精煉的文本。"

通過將「憲法」與「公民」分開,你可以防止注入攻擊並保持行為一致。

結論:重新框架

人工智慧並不解決混亂。人工智慧放大混亂。

如果你的商業流程尚未明確,增加一個大型語言模型只會以光速產生不明確的輸出。

在2026年獲勝的公司不是那些擁有「最酷」提示的公司。

他們是那些建立無趣的基礎。可靠性第一,複雜性第二,擴展性第三。

這是唯一的遊戲方式。

水星科技解決方案:加速數位化。

Mercury Technology Solutions: Accelerate Digitality.