在GitHub一個相對低調的角落,一份由前亞馬遜美國數據分析師Drona Reddy發布的Markdown文件引發了技術社區的關注。這份名為Claude.md的文件采用MIT開源協議,通過一套結構化指令對大語言模型Claude的輸出行為進行約束,聲稱能在不修改代碼的情況下將輸出Token使用量減少超過60%。
該文件的核心機制在于建立嚴格的輸出規范:限制響應長度、強化Token使用效率、禁止冗余表述、控制排版格式,并明確要求模型避免阿諛奉承式回答。具體措施包括剔除自動生成的客套話(如"當然可以")、樣板結束語(如"希望對您有所幫助"),禁止重復提示內容或提供非必要建議,同時規范標點符號使用(如禁用"em"破折號和智能引號),防止模型無條件認同存在缺陷的假設。
Reddy的模擬數據顯示,這套方法在高頻使用場景下效果顯著。在每日100次提示的場景中,每月可節省約0.86美元的Token成本;當提示次數提升至1000次時,節省金額達到8.64美元/月。更復雜的組合場景下,單個項目每月可減少近288000個Token消耗,相當于節省25.92美元。但研究者特別強調,該方案在低頻使用場景中可能適得其反——由于文件本身需要消耗輸入Token,當輸出量不足以抵消這部分成本時,整體開銷反而會增加。
這份文件明確列出了三大適用場景:首先是高容量自動化流程,如簡歷篩選機器人、智能體循環系統和代碼生成工具;其次是需要重復處理結構化任務的場景,數百次交互中的冗余積累會顯著影響效率;最后是團隊協作環境,嚴格的輸出控制能提升響應一致性和數據解析可靠性。相對的,單次探索性查詢、深度故障排查等需要靈活反饋的場景則不建議使用。
行業分析師對這項創新持謹慎樂觀態度。Forrester首席分析師Charlie Dai指出,63%的Token縮減率對運行大規模Claude工作負載的企業具有實際意義,既能降低推理成本,也能減少響應延遲。Pareekh Consulting首席分析師Pareekh Jain則補充稱,雖然這種方法能帶來操作層面的優勢(如輸出標準化和延遲優化),但對企業AI總成本的影響可能有限——輸入上下文、檢索系統和智能體編排通常才是成本的主要構成部分,因此多數企業可能僅能實現個位數的成本下降。
值得關注的是,Claude.md的設計具有模型普適性,理論上適用于所有能解析結構化指令的大語言模型。不過Reddy坦言,目前尚未在本地部署模型(如運行在llama.cpp或Mistral框架上的模型)上驗證其效果。這種通過行為約束而非代碼修改來優化模型輸出的思路,為AI效率提升提供了新的實踐路徑。










