研究の経過・概要
- 1999
CVL New Robot
- 1998年度
ロボットが人の作業の補助を行うとき,各時点でロボットは人により何が行わ
れているかを正確に理解し,それに合った補助を行う必要がある.このために,
人とロボットによるおもちゃパーツの組み立てを対象とし,タスクモデルの枠
組を定義した上で, 人間のデモよりタスクモデルを自動生成し,作業モデルと
補助動作計画に基づいて,人の動作に対応してロボットの協調動作を生成する
枠組を提案した.ロボットハンドを用いた実験により,ロボットは視覚により
現在の人間の動作を理解することで, 適切な補助動作を選択・実行することが
できることを示した.
Photo & Movie
- 1997年度
カラートラッキングビジョンシステム(CTRV)を用いた3次元追跡処理の基礎実
験を行った.ここでは,画像平面内とそれに垂直な方向の対象物の並進はステ
レオ計測を併用してCTRVで追跡され,対象物の回転は,
見え方モデルを用いて
計算機上のソフトウェアで認識された.
- 1996年度
オモチャパーツの組立てを対象とする.あらかじめ人の動作を視覚を用
いて観察し,パーツやその上に設定された機能(Function: 軸,穴,ネジ)への
ハンドの操作を自動抽出する[人の動作の解析(APO:Assembly Planning from
Observationi)].この知識に基づいて,人がオモチャパーツを把持したとき,
必要な補助操作をロボットハンドが自動で行う.
オモチャパーツの認識には見え方モデルと微小テンプレート・クラスタリング
を用い,位置・姿勢の測定には3眼ステレオを用いた.腕としてはPuma-560を
ハンドとしてはUtah-MIT-Handを用いた.
実験環境
-
ビデオ
- 人の把持するオモチャパーツを視覚により認識し,
ロボットハンドが適切な相手パーツを組み付け位置まで持っていく.
- 人が組み付けたオモチャパーツを視覚により認識し,
ロボットハンドがドライバを掴みネジ穴まで持っていく.
協調作業の写真
既発表論文,予稿集原稿