HHPOKER是一款為德?lián)淙酆谜叽蛟斓脑诰€德?lián)淦脚_。我們應用了先進的技術和傳統(tǒng)德?lián)涞木?為您帶來蕞真實、驚心動魄的德州體驗。無論您是初學者還是職業(yè)玩家,撲克王都能滿足您的需求,讓您隨時隨地都能...
▲ 圖源Hugging Face(下同)
Hugging Face 援引自家進行的多項基準測試驗證SmolVLA 的性能,在 LIBERO 與 Meta-World 等模擬測試平臺上,SmolVLA 的表現(xiàn)據(jù)稱優(yōu)于Octo、OpenVLA 等業(yè)界競品,而在使用真實機器人 SO-100 和 SO-101 進行抓取、放置、堆疊與分類任務中,SmolVLA 也展現(xiàn)出更好的性能。
據(jù)介紹,SmolVLA 在模型架構上結合 Transformer 結構與 flow-matching 解碼器,并采用了四項關鍵優(yōu)化技術:一是跳過視覺模型中一半層數(shù),以提升推理速度并減小模型體積;二是交替融合自注意力與交叉注意力模塊,提高多模態(tài)信息整合效率;三是減少視覺 Token 數(shù)量以提升處理效率;四是采用更輕量的 SmolVLM2 作為視覺編碼器,從而進一步降低硬件要求。
當下,業(yè)界機器人模型通常采用“視覺-語言-行動”(Vision-Language-Action,VLA)設計,此類模型嘗試在單一架構中整合感知能力、語言理解與行動決策,從而讓機器人實現(xiàn)自主執(zhí)行復雜任務。不過相應模型訓練成本極高,目前大多數(shù)模型仍為閉源項目,訓練過程中依賴昂貴硬件、大量工程資源和大規(guī)模私有數(shù)據(jù)集。
此外,Hugging Face 透露 SmolVLA 還引入“異步推理架構”(Asynchronous Inference Stack),將感知處理(如視覺和語音理解)與動作執(zhí)行進行解耦,使機器人在面對快速變化的環(huán)境時能做出更及時的響應,大幅提升其實用性。
為此,Hugging Face 推出 SmolVLA 這一輕量級開源模型,使用公開數(shù)據(jù)集進行訓練,并可在消費級硬件設備上運行,旨在降低愛好者入門成本,推動通用機器人智能體的研究進展。
而在訓練策略方面,SmolVLA 首先通過通用操作數(shù)據(jù)進行預訓練,再針對特定任務進行微調,以提升適應能力。因此雖然 SmolVLA 的訓練數(shù)據(jù)遠少于現(xiàn)有其他 VLA 模型(僅包括不到 3 萬個任務記錄),但 Hugging Face 表示,該模型在模擬環(huán)境和真實場景中的表現(xiàn)與大型模型相當,甚至在部分任務上實現(xiàn)“超越”。
目前,SmolVLA 的基礎模型已在 Hugging Face 平臺上線,完整訓練方法也同步在 GitHub 上公開,IT之家附項目頁面如下(https://huggingface.co/lerobot/smolvla_base)。
Hugging Face 強調,用戶使用MacBook Pro 筆記本電腦等消費級硬件即可運行 SmolVLA-450M 模型,無需花費大成本采購專用AI訓練服務器。同時用戶也可以考慮采購 Hugging Face 推出的低成本機器人平臺(SO-100、SO-101 和 LeKiwi)等降低成本。
IT之家 6 月 9 日消息,Hugging Face現(xiàn)已公布 4.5 億參數(shù)開源機器人模型 SmolVLA,該模型主打高普適性,可在 MacBook Pro等的消費級硬件設備上運行,旨在幫助開發(fā)者降低入門成本。