推動攻克難題,上海這家企業公布具身智能模型
靈波科技公布具身智能模型,推動攻克復雜場景空間感知難題
讓機器人“看清三維世界”
■本周內,靈波科技將陸續推出多款具身智能方向模型,覆蓋空間感知、智能交互等多個核心領域
昨天,上海靈波科技宣布開源高精度空間感知模型LingBot-Depth,這是靈波科技成立一年以來首次公布具身智能技術基座成果,也拉開了本周連續發布多款具身智能模型的序幕。
LingBot-Depth模型聚焦讓機器人“看清三維世界”這一關鍵難題。在家庭、工業場景中,玻璃器皿、鏡面、不鏽鋼設備等透明反光物體隨處可見,傳統深度相機對此長期“束手無策”,常因無法接收有效光學信號,導致機器人感知出現偏差、操作失誤。
此次開源的模型成功破解了這一痛點。通過融合彩色圖像中的紋理、輪廓及環境信息,它能智能補全傳統設備缺失的深度數據,輸出清晰完整的三維場景圖。即便面對透明玻璃、強逆光等復雜光學環境,搭載LingBot-Depth模型的設備也能精准捕捉物體輪廓,性能顯著優於業內主流產品。這意味著機器人在家庭服務、工業操作等場景中,抓取、避讓等動作的精准度將大幅提升。
基於靈波科技的模型能力,國內機器人視覺龍頭企業奧比中光計劃推出新一代深度相機,實現“算法+硬件”的協同創新,無需更換高端傳感器就能提升消費級設備性能。
在多項權威技術評測中,LingBot-Depth模型展現出代際級優勢。相比主流技術,該模型在室內場景感知誤差降低超70%,在復雜任務中的精度提升近五成。同時,靈波科技採集約1000萬份原始樣本,提煉出200萬組高價值深度配對數據用於訓練,支撐模型在極端環境下的泛化能力。這一核心數據資產將於近期開源,推動更快攻克復雜場景空間感知難題。
值得關注的是,本周內,靈波科技將陸續推出多款具身智能方向模型,覆蓋空間感知、智能交互等多個核心領域。
(來源:解放日報 記者 查睿)
分享讓更多人看到
- 評論
- 關注
































第一時間為您推送權威資訊
報道全球 傳播中國
關注人民網,傳播正能量