當你看到 AI 瞬間生成一份排版精美、邏輯清晰的代碼或文檔時,是否會下意識地選擇直接信任?據 AIbase 報道,大模型巨頭Anthropic近日發布了一項名為“AI 流利度指數”(AI Fluency Index)的研究報告。該研究通過分析近萬個匿名Claude對話樣本后發現了一個令人警惕的現象:AI 生成的結果外觀越“精致”,用戶進行事實核查的意愿就越低。
報告指出,當Claude產出如小型應用、網頁代碼或格式化文檔等“人工制品”(Artifacts)時,用戶的批判性參與度會出現顯著下滑。數據顯示,在這類高質量視覺產出的場景下,用戶的事實核查行為下降了 3.7 個百分點,對論證過程的質疑減少了 3.1 個百分點,甚至對缺失背景的警覺性也降低了 5.2 個百分點。這種“精美即正確”的心理錯覺,正成為人類有效使用 AI 的隱形障礙。
然而,研究也揭示了“高效選手”的共性。數據顯示,約 85.7% 的高質量對話都經歷了反復的迭代與打磨。那些愿意通過多輪追問來引導 AI 的用戶,發現邏輯漏洞的概率比普通用戶高出 5.6 倍,識別背景缺失的能力也提升了 4 倍。
目前,Anthropic建議用戶在面對 AI 產出時應保持三個核心習慣:將首次回答視為“草稿”而非終稿、對看似完美的輸出保持懷疑,并在對話之初就明確合作規則(如要求 AI 列出推理過程)。真正的 AI 勝任力不僅在于指令的編寫,更在于人類在“精美輸出”面前能否守住最后一道審校防線。











