傳動網 > 新聞頻道 > 行業資訊 > 資訊詳情

北京人形機器人創新中心開源 Pelican-VL 1.0 模型,號稱“全球最強”

時間:2025-11-17

來源:IT之家

導語:11 月 14 日消息,北京人形機器人創新中心昨晚宣布全面開源具身智能 VLM 模型 ——Pelican-VL 1.0。

  從官方介紹獲悉,該模型覆蓋 7B、72B 參數規模,是迄今為止“最大規模的開源具身多模態大模型”,同時,也是迄今為止全球性能最強大的具身智能 VLM 模型。根據測試,其性能超越 GPT-5 同類模型 15.79% ,與 Google gemini 系列模型相比提升 19.25%,同時也超越通義千問、書生萬象等國內模型,成為了目前最強的開源具身多模態大模型。

  文章稱,該團隊還提出了一套全新的 DPPO(刻意訓練)訓練范式,是全球首創的具身多模態大模型后訓練自進化算法框架。憑借 DPPO,Pelican-VL 實現‘性能最強’這一目標使用的數據量為 200K,僅僅是其他大模型的 1/10 甚至 1/50,是名副其實的開源 VLM 性價比之王。

  Pelican-VL 1.0 的開源,能夠大幅提升具身智能在商業服務、工業泛工業、高危特種作業、家庭服務等多種真實場景中,通過視覺-語言感知輔助多步任務規劃的能力。而 VLM 作為目前實現機器人全自主的核心,Pelican 的開源也將推動我國具身智能全自主發展。

  本次開源的 Pelican-VL 1.0 的核心優勢在于深度整合海量數據與自適應學習機制,在由 1000+ A800 GPU 組成的集群上訓練,單次檢查點訓練耗費超過 50,000 A800 GPU-小時;團隊從原始數據中蒸餾出的包含數億 token 的高質量元數據以做訓練基石。基于上述優勢,Pelican-VL 1.0 實現了在基線基礎上性能提升 20.3%,平均超過 Qwen3-VL 系列、InternVL3.5 系列等同級別開源模型 10.6%。

  得益于“刻意練習”DPPO(Deliberate Practice Policy Optimization)訓練范式,Pelican-VL 就像一名刻苦鉆研的學生:每次訓練循環都會“看視頻 — 自主練習 — 發現錯誤 — 糾正提升”。通過 DPPO 模仿人類元認知的學習方式,通過強化學習(RL)探索弱點、生成失敗樣本,再進行有針對性地監督微調(SFT),讓模型不斷自我糾錯和迭代進步。

  就像學生做錯題后總結經驗一樣,Pelican-VL 能在訓練中發現“薄弱知識點”并補齊,從而持續提高在視覺-語言和具身任務上的能力。通過這種機制,Pelican-VL 能夠更準確地理解圖像內容、語言指令和物理常識,最終在決策和操作執行環節中,實現了具身智能在空間-時間推理和動作規劃方面的大幅突破。

傳動網版權與免責聲明:

凡本網注明[來源:傳動網]的所有文字、圖片、音視和視頻文件,版權均為傳動網(www.cdcst56.com)獨家所有。如需轉載請與0755-82949061聯系。任何媒體、網站或個人轉載使用時須注明來源“傳動網”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯網或業內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發表之日起一周內與本網聯系,否則視為放棄相關權利。

關注伺服與運動控制公眾號獲取更多資訊

關注直驅與傳動公眾號獲取更多資訊

關注中國傳動網公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅系統
  • 工業電源
  • 電力電子
  • 工業互聯
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯接
  • 工業機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0