OpenAI近日在ChatGPT消費級版本中正式推出了一項名為“年齡預測”的新功能,這一舉措標志著AI平臺在未成年人保護領域邁出了重要一步。該功能不再依賴用戶自行申報年齡,而是通過分析賬戶存續時間、活躍時段、交互模式等多維度行為信號,自動識別18歲以下用戶,并為其啟用專屬安全防護機制,同時提供家長控制與第三方驗證服務。
長期以來,AI平臺在未成年人保護方面主要采用“用戶自報年齡+內容分級”的被動模式。用戶在注冊時只需勾選“已滿18歲”即可解鎖全部功能,這種方式不僅容易被規避,也無法有效應對未成年人冒用成年賬號的情況。OpenAI此次推出的“年齡預測”功能,通過構建基于賬戶與行為信號的多維度預測模型,徹底改變了這一傳統邏輯。
該模型的分析維度涵蓋賬戶、行為和補充三個層面。賬戶維度包括注冊時長、賬號活躍度、付費狀態等基礎信息;行為維度則涉及日常活躍時段、交互頻率、提問內容偏好、對話長度與風格等;補充維度則結合用戶注冊時填報的年齡信息,但僅作為輔助參考,不作為唯一判定依據。這種動態識別機制能夠持續分析用戶行為,不斷修正年齡判定結果,提高了識別的準確性和靈活性。
針對被判定為未成年人的賬戶,ChatGPT強制啟用了五層安全防護措施,精準攔截高風險內容。這些內容包括直接展示的暴力血腥畫面、可能誘導未成年人模仿的危險病毒式挑戰、涉及性或暴力的角色扮演內容、自殘或自殺相關的描述與引導,以及宣揚極端審美或不健康節食的內容。這些措施旨在保護未成年人免受不良信息的侵害。
為避免模型誤判影響成年用戶體驗,OpenAI引入了第三方身份驗證服務Persona。被錯誤歸類為未成年人的用戶可通過上傳自拍完成快速人臉驗證,驗證通過后即可恢復賬號完整功能。這一設計在保障安全性的同時,也兼顧了用戶體驗的平衡。
系統還提供了家長控制定制功能,讓家長能夠更靈活地管控孩子的賬號使用。家長可以設置“靜默時間”,禁止孩子在特定時段使用賬號;管控賬號記憶功能權限,避免孩子重復查看敏感內容;甚至在系統檢測到用戶出現急性心理困擾跡象時,及時接收通知并介入引導。這些功能為家長提供了更多工具,幫助他們更好地保護孩子的網絡安全。
OpenAI推出“年齡預測”功能的背后,是監管壓力與行業趨勢的雙重推動。一方面,OpenAI正面臨美國聯邦貿易委員會(FTC)的調查,質疑焦點集中在AI聊天機器人對青少年的負面影響。此前已有家長投訴ChatGPT未有效攔截有害內容,導致未成年人接觸暴力、色情信息,甚至出現心理問題。推出這一功能是OpenAI應對監管審查、降低法律風險的重要舉措。
另一方面,未成年人保護已成為全球AI行業的共同課題。隨著AI工具的普及,越來越多青少年將ChatGPT作為學習、娛樂的重要工具。然而,由于心智尚未成熟,他們容易受到不良信息的誘導。此前,谷歌Bard、Anthropic Claude等競品已推出不同程度的未成年人保護功能,但多依賴內容分級與自愿申報。OpenAI的“行為識別+動態防護”模式無疑為行業提供了更前沿的探索方向。
盡管“年齡預測”功能設計完善,但仍面臨諸多爭議與挑戰。首先,行為信號能否完全代表年齡存在爭議。部分成年用戶可能因工作、學習需求頻繁深夜使用ChatGPT,或偏好提問低齡化內容,容易被誤判為未成年人;而部分早熟的未成年人可能通過模仿成年用戶的交互模式規避識別。OpenAI雖表示會持續優化模型精度,但短期內仍難以實現100%準確。
其次,行為分析是否侵犯用戶隱私引發擔憂。年齡預測需要收集、分析用戶的大量行為數據,包括活躍時段、交互內容、使用習慣等。這引發了用戶對數據泄露的擔憂,OpenAI如何確保這些數據不被濫用、是否會與第三方共享成為關注焦點。在全球數據合規趨嚴的背景下,如何平衡“行為識別”與“隱私保護”是OpenAI必須解決的問題。
最后,防護能否覆蓋所有風險場景仍存疑問。此次ChatGPT攔截的五類高風險內容主要集中在“顯性有害信息”,但對于“隱性風險”如誘導未成年人網絡詐騙、傳播極端思想、泄露個人信息等,年齡預測模型尚未覆蓋。家長控制功能依賴家長的主動操作,若家長缺乏監管意識或技術能力,該功能的實際效果將大打折扣。












