2 月 13 日消息,蘋果機器學習研究團隊于 2 月 7 日發布論文《繪制計算機操作智能體用戶體驗設計空間》,聚焦揭示用戶對 AI 智能體的真實期望及交互偏好。
研究人員指出,盡管市場在大力投資開發 AI 智能體,但關于界面形態及交互邏輯的探索仍顯不足。為此,團隊通過分析現有產品并開展實地用戶測試,試圖厘清這一新興領域的設計規范。
在研究的第一階段,援引博文介紹,團隊深入剖析了包括 Claude Computer Use、OpenAI Operator 及 AutoGLM 在內的 9 款主流桌面及移動端 AI 智能體。
研究通過咨詢 8 位資深從業者,研究人員構建了一套包含“用戶指令”、“活動可解釋性”、“用戶控制”及“心智模型”四大維度的分類體系。該體系涵蓋了從用戶如何下達命令,到 AI 如何展示其操作計劃、報錯及移交控制權的全過程。
研究的第二階段采用了經典的“綠野仙蹤法”(Wizard of Oz)。團隊招募了 20 名具有 AI 使用經驗的用戶,要求其通過聊天界面完成度假租賃或在線購物任務。
為了排除技術故障干擾,準捕捉用戶在面對 AI 決策時的真實心理反應與行為模式,蘋果采用真人模擬 AI 操作(包括故意犯錯或陷入死循環)的方法,用戶并不知道屏幕背后的“AI”實則是隔壁房間的研究員。
實驗結果表明,用戶對“透明度”有著微妙的需求:他們希望了解 AI 的動向,但拒絕微觀管理每一個步驟,否則便失去了使用智能體的意義。
這種需求隨場景而變:在探索性或不熟悉的任務中,用戶渴望看到更多中間步驟與解釋;而在高風險場景(如支付、修改賬戶信息)中,用戶要求擁有絕對的確認權。
研究最后強調,信任是人機交互的基石,但它極其脆弱。當 AI 智能體在遇到模糊選項時未做詢問便擅自做主(靜默假設),或者在未告知的情況下偏離原定計劃,用戶的信任感會迅速崩塌。
在 AI 遇到不確定情況后,用戶并不希望其為了追求“自動化”而隨機選擇,更傾向于 AI 暫停并尋求澄清,尤其當這些選擇可能導致買錯商品等實際損失時。











