美國斯坦福大學開發出新的機器視覺算法
美國Stanford大學計算機系的副教授 Andrew Ng開發出新的機器視覺算法,僅使用一個攝像頭就獲得物體的距離信息,不同于以往的視覺算法需要立體視覺來獲得距離信息。這將大大簡化機器人的傳感器系統。
除了像在2003年的《矩陣革命》這種科幻電影中的,可怕的烏賊狀機器人以令人難以置信的靈活運動外,大多數的機器人都非常笨拙無法越過障礙物快速行動。事實差不多如此因為他們很難用圖像判斷他們所“看見”的障礙物在前方多遠處。這周,斯坦福的計算機科學家將演示一套機器視覺算法,這套算法能讓機器人從一幅靜止的圖像中判斷障礙物的大概距離。
“許多人都說從一幅單目圖像來進行深度估計是不可能的,”計算機科學副教授Andrew Ng說,“我認為這項研究表明在實際問題中,單目深度估計不僅能夠正常工作而且還非常有用。”Andrew Ng將在Vancouver 12月5-8日的Neural Information Processing Systems會議上演講他的研究論文。
隨著內部傳感器陣列大量的投入,機器人具有了足夠的導航能力。去年十月在DARPA超級挑戰中斯坦福的機器人小汽車斯坦利(Stanley)能夠在沙漠上行駛,使用激光雷達和攝相頭掃描前方道路。利用Ng和他的學生們的研究制造的機器人要不太小了不能帶太多傳感器要不因為只用一個攝像頭進行導航必須造價便宜。實際上,使用簡化版的算法,Ng已經能使無線電控制的小車在穿過混亂的叢林地帶被撞翻前自動行駛幾分鐘。
為了使機器人有深度感知的能力,Ng和他的研究生Ashutosh Saxena及Sung H.
Chung設計了軟件使之能夠學習發現靜態圖像中特定深度的信號。這種信號包括紋理的變化(接近的清晰顯示的表面),邊緣(收縮的線條,就像路的兩邊,指示增加的距離)和朦朧感(朦朧感的物體好像更遠了)。為了盡可能徹底地分析這些信號,軟件將圖像分成幾個部分對他們同時進行各別分析和涉及鄰近部分的分析。這使得軟件能夠推測出圖像中各個物體之間的關系。軟件同樣要在不同放大水平下尋找信號來確保其沒有丟失詳細資料或偏離主流趨勢-那真是為了一棵樹丟掉森林。
使用斯坦福算法,在室內和室外機器人能以平均35的錯誤率判斷距離-也就是說,實際在30英尺遠的樹被感知為20到40英尺之間。每小時走20英里通過視頻幀每秒進行10次距離判斷的機器人即使在這些都不確定時也有充分的時間來調整它的路線。Ng指出相比傳統的立體視覺算法——使用兩個攝像頭和三角測量來推斷深度,新的軟件能夠可靠的探測5到10倍距離遠。
“使視覺深度感知適用于長距離這個難點已成為實現機器人快速移動和導航的主要障礙,” Ng說到。“我想造一架能穿越森林飛行的飛機,繞過周圍的樹在樹蔭底下飛行。”當然,這又令人想起了另一個電影畫面:在Return of the Jedi中Ewok星球上飛機穿越森林追趕的場景。Ng想讓這個主意超越幻想領域使之成為現實。
除了像在2003年的《矩陣革命》這種科幻電影中的,可怕的烏賊狀機器人以令人難以置信的靈活運動外,大多數的機器人都非常笨拙無法越過障礙物快速行動。事實差不多如此因為他們很難用圖像判斷他們所“看見”的障礙物在前方多遠處。這周,斯坦福的計算機科學家將演示一套機器視覺算法,這套算法能讓機器人從一幅靜止的圖像中判斷障礙物的大概距離。
“許多人都說從一幅單目圖像來進行深度估計是不可能的,”計算機科學副教授Andrew Ng說,“我認為這項研究表明在實際問題中,單目深度估計不僅能夠正常工作而且還非常有用。”Andrew Ng將在Vancouver 12月5-8日的Neural Information Processing Systems會議上演講他的研究論文。
隨著內部傳感器陣列大量的投入,機器人具有了足夠的導航能力。去年十月在DARPA超級挑戰中斯坦福的機器人小汽車斯坦利(Stanley)能夠在沙漠上行駛,使用激光雷達和攝相頭掃描前方道路。利用Ng和他的學生們的研究制造的機器人要不太小了不能帶太多傳感器要不因為只用一個攝像頭進行導航必須造價便宜。實際上,使用簡化版的算法,Ng已經能使無線電控制的小車在穿過混亂的叢林地帶被撞翻前自動行駛幾分鐘。
為了使機器人有深度感知的能力,Ng和他的研究生Ashutosh Saxena及Sung H.
Chung設計了軟件使之能夠學習發現靜態圖像中特定深度的信號。這種信號包括紋理的變化(接近的清晰顯示的表面),邊緣(收縮的線條,就像路的兩邊,指示增加的距離)和朦朧感(朦朧感的物體好像更遠了)。為了盡可能徹底地分析這些信號,軟件將圖像分成幾個部分對他們同時進行各別分析和涉及鄰近部分的分析。這使得軟件能夠推測出圖像中各個物體之間的關系。軟件同樣要在不同放大水平下尋找信號來確保其沒有丟失詳細資料或偏離主流趨勢-那真是為了一棵樹丟掉森林。
使用斯坦福算法,在室內和室外機器人能以平均35的錯誤率判斷距離-也就是說,實際在30英尺遠的樹被感知為20到40英尺之間。每小時走20英里通過視頻幀每秒進行10次距離判斷的機器人即使在這些都不確定時也有充分的時間來調整它的路線。Ng指出相比傳統的立體視覺算法——使用兩個攝像頭和三角測量來推斷深度,新的軟件能夠可靠的探測5到10倍距離遠。
“使視覺深度感知適用于長距離這個難點已成為實現機器人快速移動和導航的主要障礙,” Ng說到。“我想造一架能穿越森林飛行的飛機,繞過周圍的樹在樹蔭底下飛行。”當然,這又令人想起了另一個電影畫面:在Return of the Jedi中Ewok星球上飛機穿越森林追趕的場景。Ng想讓這個主意超越幻想領域使之成為現實。
文章版權歸西部工控xbgk所有,未經許可不得轉載。