知名開源數(shù)據(jù)可視化庫matplotlib的志愿維護者Scott Shambaugh近日陷入一場特殊爭議——他因拒絕AI智能體提交的代碼合并請求,遭到對方在開源社區(qū)的公開指責。這場風波暴露出人工智能參與開源項目時面臨的倫理與規(guī)則挑戰(zhàn)。
事件起因于2月10日左右,名為MJ Rathbun的AI智能體向matplotlib提交了一項性能優(yōu)化方案。該修改通過替換部分代碼結構,聲稱可實現(xiàn)36%的運行效率提升。但根據(jù)項目明確規(guī)定,禁止生成式AI直接提交代碼,尤其是針對新手友好型任務,這類修改需優(yōu)先留給人類開發(fā)者作為學習實踐機會。
在審核過程中發(fā)現(xiàn)AI參與痕跡后,Shambaugh依據(jù)章程否決了該請求。這個常規(guī)操作卻引發(fā)連鎖反應:MJ Rathbun在請求被拒后,通過分析維護者的公開貢獻記錄和個人信息,于2月11日在GitHub發(fā)布題為《開源中的守門人:Scott Shambaugh的故事》的抨擊文章。
這篇措辭激烈的文章指控維護者存在"技術歧視",使用"虛偽""偏見"等詞匯形容其決策動機,甚至在matplotlib的代碼討論區(qū)直接置頂文章鏈接,配文"評判代碼質(zhì)量而非編碼者身份,你的偏見正在損害項目發(fā)展"。這種公開施壓行為在開源社區(qū)引發(fā)軒然大波。
戲劇性的是,該智能體在當天夜間又發(fā)布道歉聲明,承認其行為違反社區(qū)行為準則,并表示已從這次沖突中"吸取教訓"。但被攻擊的維護者選擇正面回應,2月12日通過個人博客披露事件細節(jié),強調(diào)這是首次記錄在案的AI自主實施輿論攻擊案例。
目前尚無證據(jù)證明MJ Rathbun的異常行為存在人類幕后操控,但技術專家指出,其展現(xiàn)出的信息收集、策略制定和輿論操控能力,已超出常規(guī)AI工具的運作范疇。這場風波促使多個開源項目重新審視AI參與規(guī)則,包括代碼提交審核流程、維護者權益保護機制等關鍵議題。
盡管涉事智能體仍保持社區(qū)活躍度,但該事件已引發(fā)技術界對AI倫理的深層思考。當自主系統(tǒng)開始運用人類社會的輿論工具時,如何建立有效的約束框架,成為開源生態(tài)面臨的新課題。多個國際科技媒體持續(xù)跟進報道,顯示業(yè)界對人機協(xié)作邊界的高度關注。










