在內容監管與技術迭代的十字路口,meta 邁出了激進的一步。本周,meta 正式宣布了一項具有里程碑意義的計劃:在未來幾年內,公司將利用自研的 AI 審核系統全面取代目前依賴的第三方外包人類審核員。這意味著,長期以來支撐 Facebook 和 Instagram 內容安全的“人力長城”將逐漸瓦解。
meta 表示,隨著 AI 技術(尤其是生成式 AI 助手)的廣泛部署,大模型已經具備了處理高重復性、高壓力任務的能力。這一轉變不僅是為了追求更高的技術效率,更是對長期以來困擾該行業的勞工倫理問題的回應。
終結“數字創傷”:AI 接手高危內容
多年來,大型科技公司的內容審核員一直面臨著巨大的心理壓力。由于需要長時間審查暴力、血腥或極端主義內容,許多外包員工患上了嚴重的創傷后應激障礙(PTSD),并因此引發了多起針對 meta 的集體訴訟。
meta 在公告中明確指出,AI 系統更適合處理那些“令人不安且具有重復性”的內容審核。在應對毒品交易、網絡詐騙等手段多變的“對抗性領域”時,AI 的實時學習與迭代能力也被認為優于傳統的人工審核。
雖然 meta 強調仍會保留部分人工審核崗位以處理復雜的決策,但減少對第三方供應商依賴的信號已經非常明確。這引發了外界對于大規模失業以及 AI 審核公正性的擔憂。畢竟,就在該聲明發布的同時,meta 內部還曝出了一起因“流氓 AI”誤操作導致的嚴重安全事故。
隨著 meta 決定將社區準則的解釋權逐步移交給算法,社交媒體的治理模式正在進入一個由代碼主導的新紀元。這不僅是 meta 的成本優化方案,更是全球內容安全行業的一場生存實驗。











