機械知覚&ロボティクスグループ
中部大学

Deep Learning Robotics 口頭発表

画像生成ネットワークの逆伝播に基づく繰り返し更新による物体姿勢推定を用いた物体把持

Author
荒木諒介, 真野航輔, 大西剛史, 平野正徳, 平川翼, 山下隆義, 藤吉弘亘
Publication
日本ロボット学会学術講演会, 2020

Download: PDF (Japanese)

ロボットが物体を把持するためには,カメラで撮影したRGB画像から直接把持位置を推定して世界座標系に変換する方法や,何らかの方法で物体の姿勢を推定し,そこから把持可能な点を紐付ける方法がある.店舗で商品を陳列するロボットは,物体を把持するだけでなく,バーコードや賞味期限が表示されている面を認識する必要があるため,把持対象物体の姿勢を推定する手法が適している.コスト削減の観点では,高精度な距離センサを導入することが難しいため,安価な距離センサや単眼カメラのみで物体の姿勢を推定することが望ましい.本研究では,入力された姿勢パラメタの物体画像を生成するネットワークを構築し,ネットワークの逆伝播に基づく繰り返し処理による物体の6D姿勢推定を提案する.はじめに,中間表現ネットワークを用いて,姿勢推定対象物体の画像をセグメンテーションラベルなどの中間表現に置き換える.次に,画像生成ネットワークを用いて,ランダムな姿勢パラメタから中間表現画像を生成する.この2つの画像の誤差を画像生成ネットワークに逆伝播し,姿勢パラメタの更新量を求める.これにより,単眼カメラの画像のみを用いた姿勢推定を実現する.

前の研究 次の研究