近日,媒體分析公司 Newsguard 發布的一項研究揭露了當前人工智能領域的一個尷尬現狀:盡管 AI 視頻生成技術日新月異,但主流 AI 聊天機器人卻幾乎無法識別這些“深度偽造”內容,甚至連開發者自家的工具也難以幸免。
研究顯示,在面對由 OpenAI 視頻生成模型Sora制作的虛假視頻時,OpenAI 旗下的ChatGPT表現令人失望,其識別錯誤率竟然高達 92.5%。這意味著,對于大多數由 Sora 生成的視頻,ChatGPT 都會將其誤認為真實記錄。其他巨頭同樣表現不佳,xAI 的 Grok 錯誤率更是高達 95%,表現相對較好的是 Google 的 Gemini,但錯誤率依然維持在 78%。
針對這一問題,OpenAI 方面坦言,ChatGPT目前確實不具備判斷內容是否由 AI 生成的能力。由于頂級 AI 視頻工具已經能拍出肉眼難辨的素材,而反制手段又滯后于技術發展,這無疑為虛假信息的傳播埋下了巨大隱患。










