人民網
人民網>>上海頻道>>經濟中心

推動攻克難題,上海這家企業公布具身智能模型

2026年01月28日18:07 |
小字號

靈波科技公布具身智能模型,推動攻克復雜場景空間感知難題

讓機器人“看清三維世界”

■本周內,靈波科技將陸續推出多款具身智能方向模型,覆蓋空間感知、智能交互等多個核心領域

昨天,上海靈波科技宣布開源高精度空間感知模型LingBot-Depth,這是靈波科技成立一年以來首次公布具身智能技術基座成果,也拉開了本周連續發布多款具身智能模型的序幕。

LingBot-Depth模型聚焦讓機器人“看清三維世界”這一關鍵難題。在家庭、工業場景中,玻璃器皿、鏡面、不鏽鋼設備等透明反光物體隨處可見,傳統深度相機對此長期“束手無策”,常因無法接收有效光學信號,導致機器人感知出現偏差、操作失誤。

此次開源的模型成功破解了這一痛點。通過融合彩色圖像中的紋理、輪廓及環境信息,它能智能補全傳統設備缺失的深度數據,輸出清晰完整的三維場景圖。即便面對透明玻璃、強逆光等復雜光學環境,搭載LingBot-Depth模型的設備也能精准捕捉物體輪廓,性能顯著優於業內主流產品。這意味著機器人在家庭服務、工業操作等場景中,抓取、避讓等動作的精准度將大幅提升。

基於靈波科技的模型能力,國內機器人視覺龍頭企業奧比中光計劃推出新一代深度相機,實現“算法+硬件”的協同創新,無需更換高端傳感器就能提升消費級設備性能。

在多項權威技術評測中,LingBot-Depth模型展現出代際級優勢。相比主流技術,該模型在室內場景感知誤差降低超70%,在復雜任務中的精度提升近五成。同時,靈波科技採集約1000萬份原始樣本,提煉出200萬組高價值深度配對數據用於訓練,支撐模型在極端環境下的泛化能力。這一核心數據資產將於近期開源,推動更快攻克復雜場景空間感知難題。

值得關注的是,本周內,靈波科技將陸續推出多款具身智能方向模型,覆蓋空間感知、智能交互等多個核心領域。

(來源:解放日報 記者 查睿)

(責編:嚴遠、軒召強)

分享讓更多人看到

返回頂部