新知特寫

首頁> 新知特寫> 新AI模型提升機器人對物品用途的理解能力
新AI模型提升機器人對物品用途的理解能力 AI Model Could Boost Robot Intelligence via Object Recognition
當前多數機器人雖能辨識物體外觀,但仍難以理解其實際用途。史丹佛大學視覺與學習實驗室(Stanford Vision and Learning Lab, SVL)研究團隊近日開發出一款創新的電腦視覺模型,能透過密集功能對應(dense functional correspondence)技術,逐一比對影像中的細節,找出不同物體在形狀或位置上相對應、且具相同用途的部分,進一步歸納出結構與用途的共通特徵,並推論不同工具之間的功能關聯。例如,模型能辨識出茶壺壺嘴與玻璃瓶瓶口在外觀結構上雖不相同,卻具備相似用途。研究團隊同時設計了一種讓AI自行學習的方法,使模型能自動產生辨識所需的資料,以減少人力依賴並加快訓練速度。實驗結果顯示,該模型能精確辨識多種類物體部件及其功能關聯,展現出高準確度的功能對應能力。雖然目前僅在影像資料上測試,尚未應用於實際機器人操作,但已顯示AI正從單純的影像辨識邁向理解與推理的階段。研究團隊未來規劃將模型整合進能與環境互動的AI系統,並建立更龐大的功能資料庫,期望進一步提升機器人對環境與物品用途的理解能力。
2025/10/23
https://news.stanford.edu/stories/2025/10/ai-model-functional-correspondence-tools-robot-autonomy
Stanford University
薛孝亭