AI硬件領域正經歷一場前所未有的變革,一款名為Tiiny AI Pocket Lab的智能體盒子引發了行業廣泛關注。這款重量僅300克、尺寸與手機相仿的設備,在Kickstarter眾籌平臺上已籌得280萬美元,預計最終金額將突破400萬美元。其核心賣點在于支持本地部署最高120B參數的大模型,且無需依賴云端服務或高端GPU,徹底消除了持續產生的Token費用。
傳統方案中,用戶若想在本地運行超過120B的大模型,需配備顯存達80GB的PC電腦,整機成本超過5萬元;即便選擇蘋果Mac Studio(96GB內存版),價格也需2萬元以上。更關鍵的是,這些設備在運行大模型時,內存與算力會被過度占用,導致無法同時進行網頁瀏覽、游戲或視頻播放等基礎操作。Tiiny AI副總裁Eco Lee指出:"用戶需要的是專用AI設備,而非用數萬元的電腦僅用來跑模型。"
Tiiny AI的解決方案是打造外接式獨立設備,通過系統級優化實現算力高效利用。其技術核心在于PowerInfer異構算力推理加速技術,該技術將大模型參數分為"熱激活參數"(占20%,每次交互必調)和"冷激活參數"(占80%,特定領域觸發)。通過這種冷熱分離機制,設備使用單顆SoC加dNPU的組合,即可實現媲美高端GPU的推理性能。團隊公開的測試數據顯示,在NVIDIA RTX 4090上運行175B模型時,該技術可使速度提升至傳統方案的11倍。
設備內置的Agent Store已適配OpenAI OSS、Qwen、GLM等50余款開源大模型,以及OpenClaw、n8n等超百款開發工具。為豐富生態,Tiiny計劃今年7月推出模型格式轉換工具,用戶可從Hugging Face等社區下載模型,經轉換后導入設備使用,并支持用戶間分享。Eco Lee比喻稱:"云端大模型像瓶裝礦泉水,而Tiiny是專屬的AI水龍頭,滿足高頻次、個性化的日常需求,且邊際成本為零。"
在隱私保護方面,設備采用端側部署模式,用戶數據、憑證和工作流默認存儲在本地,僅在需要調用更強云端模型時才會上傳敏感信息。系統引入的長期記憶功能,可將交互偏好、歷史文件和對話記錄加密存儲在硬件中,確保離線環境下仍能完成多步推理、Agent工作流和內容生成。這種"端云協同"模式,使云端專注處理高精度任務,本地則承擔持續交互場景。
盡管市場反響熱烈,但質疑聲同樣存在。海外Reddit論壇上,部分用戶通過拆解宣傳照認為,缺乏高端GPU的設備難以實現宣稱的功能。對此,Eco Lee強調:"我們是AI基礎設施公司,核心是通過系統性優化釋放硬件潛力,這與傳統硬件廠商的思路有本質區別。"他透露,團隊在芯片層、Agent調度層和模型訓練層積累了深厚技術,這是實現性能突破的關鍵。
從Kickstarter留言區反饋來看,目標用戶主要包括三類:使用開源應用的普通用戶、對數據隱私有剛需的專業人士,以及AI極客。這些用戶看重的不僅是"開箱即用"的便捷性和零Token成本,更是完全自主的控制權——即使在斷網環境下,設備仍能基于本地模型和長期記憶主動執行任務。Eco Lee坦言:"隱私是加分項,但真正價值在于本地部署帶來的個性化交互能力。"
按照規劃,Tiiny AI Pocket Lab將于2026年8月交付。作為由AI Agent團隊轉型硬件的創業公司,其面臨的最大挑戰并非融資,而是量產過程中的品質管控。如何在300克的輕量化機身中,實現算力自由、擺脫Token束縛、確保數據私密,將成為檢驗其技術實力的終極考驗。











