近日,螞蟻靈波科技宣布正式開源其自主研發的大規模RGB-D深度數據集——LingBot-Depth-Dataset,為具身智能、空間感知及三維視覺領域的研究注入新動能。該數據集以2.71TB的龐大體量,成為當前開源社區中真實場景覆蓋最廣的同類數據集之一。
據介紹,LingBot-Depth-Dataset包含300萬對高質量樣本,其中200萬對源自真實場景采集,涵蓋家庭、辦公、工業等多元環境;剩余100萬對通過高精度渲染生成,有效補充了極端場景數據。數據集全面兼容Orbbec 335、335L及Intel RealSense D405、D415、D435、D455等6款主流深度相機,為算法訓練提供了跨設備、跨場景的豐富素材。
該數據集已直接賦能螞蟻靈波此前開源的高精度空間感知模型LingBot-Depth。實驗數據顯示,以LingBot-Depth-Dataset為核心訓練數據的LingBot-Depth模型,在室內場景深度預測任務中,較業界主流方法PromptDA與PriorDA誤差降低超70%;在稀疏深度補全等復雜任務中,誤差率亦下降約47%,顯著提升了空間感知的精度與魯棒性。
業內專家指出,大規模、高質量的RGB-D數據集是推動三維視覺技術落地的關鍵基礎設施。螞蟻靈波此次開源的數據集,不僅填補了真實場景深度數據集的規模缺口,更通過多設備兼容性設計,為機器人導航、增強現實等應用場景提供了更貼近實際需求的數據支撐,有望加速相關技術的產業化進程。



















