一款名為Tiiny AI Pocket Lab的外接設備在眾籌平臺Kickstarter上引發關注,上線僅5小時便突破百萬美元眾籌金額,截至目前累計支持金額已達295萬美元,擁有2093名支持者。這一成績讓人聯想到2022年拓竹Bambu Lab X1的爆火,而后者如今已成為營收百億的獨角獸企業。在AI PC市場尚未完全成熟的當下,這款主打本地AI推理的外接盒子率先打開市場缺口。
該產品的核心邏輯是解決用戶對隱私保護、部署便捷性和算力成本的痛點。傳統方案中,用戶若想搭建本地AI助手,要么購買昂貴的AI PC,要么依賴云端服務面臨隱私泄露風險,而Tiiny AI Pocket Lab通過外接設備的形式,將100B級別模型的本地推理能力獨立出來,既避免占用主機算力,又通過物理隔離保障數據安全。這種設計類似于為電腦外接移動硬盤,但專注于AI場景的深度優化。
產品背后的技術積累可追溯至團隊在GitHub開源的PowerInfer推理加速引擎。該引擎通過冷熱參數分離技術,將高頻調用的核心參數存儲在專用NPU芯片中,低頻參數則由CPU處理,實現異構算力的高效調度。實測數據顯示,在120B模型下,設備預填充速度達300 tokens/s,解碼輸出速度20 tokens/s,性能接近高端AI工作站水平。這種軟件優化策略使設備在30W功耗下實現緊湊設計,同時通過定制散熱模組解決發熱問題。
市場定位方面,團隊精準捕捉到專業用戶群體的迫切需求。金融、法律等行業的從業者因數據敏感無法上云,極客玩家不愿主機算力被大模型占用,而樹莓派等開發板又存在算力不足或成本過高的問題。Tiiny AI Pocket Lab通過預裝專用操作系統,支持Mac、Windows等主流平臺即插即用,用戶可一鍵部署主流開源模型。這種定位使其避開與AI PC的直接競爭,轉而填補專業級外接設備的市場空白。
盡管眾籌成績亮眼,但產品仍面臨技術細節的質疑。有海外觀察者指出,其宣稱的120B模型實際采用MoE架構,每次激活參數僅51億,與全參數模型存在技術差異;190TOPS算力指標可能涉及不同計算單元的簡單疊加。針對內存配置的爭議,團隊回應稱冷熱參數合并過程的數據傳輸量極小,PCIe帶寬不會成為性能瓶頸,以GPT-OSS-120B模型為例,跨芯片傳輸數據僅5.625KB,耗時可忽略不計。
關于交付周期,項目負責人解釋稱,從概念驗證到眾籌上線已歷時13個月研發,量產前需完成FCC、CE等國際認證,預計6月底前取得全部合規資質。生產環節將與全球PC制造龍頭LCFC合作,5月起在越南工廠啟動量產。這種合作模式既保障了品控標準,也借助成熟供應鏈縮短交付周期。
這款產品的走紅折射出AI硬件市場的結構性機會。當行業仍在探索通用型AI設備時,Tiiny AI通過聚焦專業場景,將復雜技術封裝為消費級產品,成功降低用戶決策門檻。其商業化路徑表明,在算力成本與隱私需求交織的當下,垂直領域的外接設備可能成為AI落地的重要載體,而這場由專業用戶驅動的變革,正在重新定義個人計算設備的形態邊界。






