一款名為Tiiny AI Pocket Lab的外接設(shè)備在Kickstarter平臺引發(fā)關(guān)注,這款定價1399美元起的產(chǎn)品上線5小時即突破百萬美元眾籌目標,成為繼2022年拓竹Bambu Lab X1后該平臺最快達成此成績的硬件項目。截至統(tǒng)計時點,項目已吸引2093名支持者,累計籌得295萬美元資金。
該產(chǎn)品的爆發(fā)式增長源于精準切入市場空白。在AI PC生態(tài)尚未成熟之際,Tiiny團隊通過模塊化設(shè)計滿足特定用戶群體的核心需求:既不愿承擔(dān)高昂的AI PC購置成本,又對云端服務(wù)的隱私風(fēng)險與持續(xù)訂閱模式心存顧慮。這款設(shè)備采用"外接移動硬盤"式設(shè)計理念,專注于100B參數(shù)級別模型的本地化推理運算,通過硬件減法與軟件優(yōu)化實現(xiàn)差異化競爭。
技術(shù)實現(xiàn)路徑上,研發(fā)團隊基于上海交通大學(xué)并行與分布式系統(tǒng)研究所的開源項目PowerInfer,開發(fā)出異構(gòu)算力調(diào)度系統(tǒng)。該方案創(chuàng)新性地將模型參數(shù)劃分為"熱激活"與"冷激活"兩類:占總量20%的核心參數(shù)由專用AI芯片(dNPU)處理,剩余80%的場景化參數(shù)則交由系統(tǒng)級芯片(SoC)運算。這種動態(tài)分配機制使設(shè)備在30W功耗下實現(xiàn)190TOPS(INT8)的峰值算力,性能接近主流桌面級AI顯卡。
實測數(shù)據(jù)顯示,在運行120B參數(shù)模型時,設(shè)備預(yù)填充階段處理速度達300 tokens/s,解碼輸出階段為20 tokens/s;35B參數(shù)模型下這兩項指標分別提升至2000 tokens/s和45 tokens/s。這種運算效率已超越人類閱讀速度(8-12 tokens/s),能夠支持連續(xù)24小時運行的智能代理任務(wù)。針對散熱挑戰(zhàn),團隊采用1mm超薄均熱板與雙風(fēng)扇設(shè)計,將運行噪音控制在35分貝以內(nèi)。
市場定位方面,產(chǎn)品刻意避開與傳統(tǒng)AI設(shè)備的正面競爭。其目標用戶包含三類群體:金融、法律等領(lǐng)域的專業(yè)人士需要處理敏感數(shù)據(jù);極客用戶希望釋放主力設(shè)備算力;科研機構(gòu)需要低成本的長文本處理方案。相較于樹莓派等開發(fā)板,該設(shè)備提供開箱即用的完整解決方案;對比NVIDIA Jetson系列,其價格降低60%以上,且無需額外配置存儲設(shè)備。
技術(shù)爭議伴隨產(chǎn)品熱度而來。行業(yè)觀察者指出,其宣稱的"120B大模型"實際采用混合專家(MoE)架構(gòu),單token激活參數(shù)約51億,這種表述方式雖屬行業(yè)慣例但存在概念模糊。關(guān)于算力宣傳,190TOPS指標系將不同計算單元的理論峰值簡單相加,未考慮異構(gòu)架構(gòu)間的協(xié)同效率損耗。內(nèi)存配置方面,80GB存儲空間分散在兩個芯片,實際可用內(nèi)存池受PCIe帶寬限制的說法引發(fā)討論。
針對技術(shù)質(zhì)疑,研發(fā)團隊公布了詳細測試數(shù)據(jù):在GPT-OSS-120B模型運行過程中,跨芯片傳輸?shù)臄?shù)據(jù)量僅為5.625KB,耗時遠低于PCIe Gen4 x4接口的帶寬上限。量產(chǎn)準備方面,產(chǎn)品已完成FCC、CE等國際認證,預(yù)計8月開始由全球頂級PC制造商LCFC在越南工廠生產(chǎn),該合作伙伴的品控體系為產(chǎn)品質(zhì)量提供保障。
資本市場對這類創(chuàng)新形態(tài)表現(xiàn)出濃厚興趣。項目負責(zé)人透露,自眾籌啟動以來平均每周收到20家投資機構(gòu)的接洽意向。這種熱度折射出AI硬件領(lǐng)域的結(jié)構(gòu)性機會:當通用計算設(shè)備陷入性能競賽紅海,垂直場景的專用設(shè)備正開辟新的價值賽道。該產(chǎn)品的市場表現(xiàn)或?qū)⒂绊懞罄m(xù)端側(cè)AI設(shè)備的研發(fā)方向,特別是在隱私計算與邊緣智能的交叉領(lǐng)域。











