[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5221939B2 - 位置特定装置および動作指示装置並びに自走式ロボット - Google Patents

位置特定装置および動作指示装置並びに自走式ロボット Download PDF

Info

Publication number
JP5221939B2
JP5221939B2 JP2007301424A JP2007301424A JP5221939B2 JP 5221939 B2 JP5221939 B2 JP 5221939B2 JP 2007301424 A JP2007301424 A JP 2007301424A JP 2007301424 A JP2007301424 A JP 2007301424A JP 5221939 B2 JP5221939 B2 JP 5221939B2
Authority
JP
Japan
Prior art keywords
unit
instruction
image
pointing
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007301424A
Other languages
English (en)
Other versions
JP2009129058A (ja
Inventor
雅人 宅原
圭一 見持
義浩 古結
亮太 日浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2007301424A priority Critical patent/JP5221939B2/ja
Publication of JP2009129058A publication Critical patent/JP2009129058A/ja
Application granted granted Critical
Publication of JP5221939B2 publication Critical patent/JP5221939B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、指示対象物または指示対象位置の位置特定装置および動作指示装置並びに自走式ロボットに関するものである。
日常生活で利用される自走式ロボットに対し、ユーザからの指示によって物体の搬送作業等を行わせる場合、搬送する対象物や、対象物の位置・姿勢や、搬送先を人が指示する必要がある。
これらの指示を、レーザポインタを用いて行う技術が特許文献1に開示されている。この技術は、ユーザが被搬送物や搬送位置にレーザポインタを照射し、自走式ロボットがその位置を検出することにより指示された動作を実行するものである。
特開2006−231447号公報
しかしながら、上記技術では、レーザポインタの輝点の認識が困難な場合があり、特に、直射日光の環境下では輝点の認識精度が著しく低下するため、指示された位置を特定することができず、自走式ロボットに対して動作を正確に指示することができないという問題があった。
本発明は、上記問題を解決するためになされたもので、被搬送物等の指示対象物または搬送先等の指示対象位置の位置を特定する際の精度を向上させることができる位置特定装置および動作指示装置並びに自走式ロボットを提供することを目的とする。
上記課題を解決するために、本発明は以下の手段を採用する。
本発明は、作業空間である屋内における複数の対象物の画像から算出した特徴量と該対象物の位置を座標で示した位置情報とを関連付けて記憶する記憶部と、ユーザの操作によって、前記作業空間における指示対象物の方向にむけられ、該指示対象物の画像を取得する画像取得部と、該画像取得部により取得された前記指示対象物の画像から算出した特徴量と前記記憶部に記憶された複数の前記対象物の画像から算出した特徴量との比較を行う比較部と、該比較部による比較結果に基づいて前記指示対象物を特定する指示対象物特定部と、該指示対象物特定部により特定された前記指示対象物に対応する前記対象物の位置情報を、前記指示対象物の位置情報である前記座標を前記記憶部より抽出する位置情報抽出部とを備え、特定された前記指示対象物の位置情報に基づいた前記指示対象物に対する動作指示に基づいて、前記指示対象物に対する動作を実行する、前記作業空間を自律的に移動する自走式ロボットに用いられる位置特定装置を採用する。
本発明によれば、記憶部に記憶された作業空間である屋内における複数の対象物の画像から算出した特徴量および該対象物の位置を座標で示した位置情報に基づいて、ユーザの操作によって指示対象物の方向にむけられた画像取得部により取得された作業空間における指示対象物が指示対象物特定部により特定され、特定された指示対象物の位置情報が位置情報抽出部により抽出される。これにより、指示対象物の名称が明確でない場合や、指示対象物を言語で表現することが困難な場合においても、画像取得部により取得された指示対象物の画像を用いて、その位置情報を得ることができ、指示対象物の位置を容易に特定することが可能となる。
ここで、画像から算出した特徴量とは、比較処理をより正確・ロバスト・高速・小メモリでおこなうために画像から抽出した画像の特徴を示す情報のことであり、例えば、輪郭形状や色等をいう。
本発明は、作業空間における複数の対象物の画像コードの情報と該対象物の位置を座標で示した位置情報とを関連付けて記憶する記憶部と、ユーザの操作によって、前記作業空間における指示対象物の方向にむけられ、該指示対象物の画像コードの情報を取得する画像コード取得部と、該画像コード取得部により取得された前記指示対象物の画像コードの情報と前記記憶部に記憶された複数の前記対象物の画像コードの情報との比較を行う比較部と、該比較部による比較結果に基づいて前記指示対象物を特定する指示対象物特定部と、該指示対象物特定部により特定された前記指示対象物に対応する前記対象物の位置情報を、前記指示対象物の位置情報である前記座標を前記記憶部より抽出する位置情報抽出部とを備え、特定された前記指示対象物の位置情報に基づいた前記指示対象物に対する動作指示に基づいて、前記指示対象物に対する動作を実行する、前記作業空間を自律的に移動する自走式ロボットに用いられる位置特定装置を採用する。
本発明によれば、例えば、バーコードやQRコード等の画像コードに基づいて指示対象物を特定することができる。これにより、例えば、外観が類似している複数の対象物を識別することができ、指示対象物を特定する際の精度を向上させることが可能となる。また、例えば、バーコードは既に多くの製品に付されており、バーコードと指示対象物を関連付けたデータベースを用いることで、指示対象物の名称等の情報を取得することも可能となる。
なお、本発明と前述の画像を用いた指示対象物の位置特定装置とを組み合わせることにより、指示対象物の特定を容易に、かつ、高い精度で行うことが可能となる。
本発明は、作業空間である屋内における複数の画像から算出した特徴量と前記作業空間を座標で示した位置情報とを関連付けて記憶する記憶部と、ユーザの操作によって、前記作業空間における指示対象物の方向にむけられ、該指示対象物の画像を取得する画像取得部と、該画像取得部により取得された前記指示対象位置の画像から算出した特徴量と前記記憶部に記憶された前記作業空間における複数の画像から算出した特徴量との比較を行う比較部と、該比較部による比較結果に基づいて前記指示対象位置を特定する指示対象位置特定部と、該指示対象位置特定部により特定された前記指示対象位置に対応する前記作業空間の位置情報を、前記指示対象位置の位置情報である前記座標として前記記憶部より抽出する位置情報抽出部とを備え、特定された前記指示対象位置の位置情報に基づいた前記指示対象位置に対する動作指示に基づいて、前記指示対象位置に対する動作を実行する、前記作業空間を自律的に移動する自走式ロボットに用いられる位置特定装置を採用する。
本発明によれば、壁面、または床面、あるいは天井面等の作業が行われる空間の画像から算出した特徴量および位置情報に基づいて、画像取得部により取得された指示対象位置の位置情報を抽出することができる。また、作業が行われる空間の画像内における窓等の大きさや歪みから、位置特定装置自体の位置や向いている方向を推定することが可能となる。
また、上記発明において、前記画像取得部または前記画像コード取得部の撮影方向にレーザを照射するレーザ照射部を備えることとしてもよい。
このようにすることで、画像取得部または前記画像コード取得部の撮影方向に照射されたレーザの輝点をユーザが目視することができ、ユーザが意図する指示対象物または指示対象位置を確実に撮影することができる。
また、上記発明において、前記画像取得部または前記画像コード取得部が取得した画像を表示する表示部を備えることとしてもよい。
このようにすることで、画像取得部または画像コード取得部が取得した画像を、表示部にてユーザが目視することができ、ユーザが意図する指示対象物または指示対象位置を確実に撮影することができる。
また、上記発明において、前記表示部が、前記指示対象物または前記指示対象位置の候補が複数ある場合に、各前記候補を表示し、表示された各前記候補の中から前記指示対象物または前記指示対象位置の選択をユーザに促すこととしてもよい。
このようにすることで、ユーザが意図する指示対象物または指示対象位置を確実に選択することが可能となる。
また、上記発明において、前記指示対象物または前記指示対象位置までの距離を測定する距離測定部を備え、前記指示対象物特定部または前記指示対象位置特定部が、前記距離測定部により測定された距離をも用いて前記指示対象物または前記指示対象位置を特定することとしてもよい。
画像取得部または前記画像コード取得部により取得した画像だけでなく、距離測定部により測定した距離をも用いて指示対象物または指示対象位置の特定を行うことにより、大きさの異なる指示対象物または指示対象位置を識別することが可能となる。
本発明は、上記の位置特定装置により特定された前記指示対象物または前記指示対象位置の位置情報に基づいて、前記指示対象物または前記指示対象位置に対する動作指示を行う動作指示部を備える動作指示装置を採用する。
本発明によれば、指示対象物または指示対象位置の名称が明確でない場合や、指示対象物または指示対象位置を言語で表現することが困難な場合においても、指示対象物または指示対象位置に対する動作指示を容易に行うことが可能となる。
本発明は、上記の動作指示装置による指示に基づいて前記指示対象物または前記指示対象位置に対する動作を実行する自走式ロボットを採用する。
本発明によれば、指示対象物または指示対象位置の名称が明確でない場合や、指示対象物または指示対象位置を言語で表現することが困難な場合においても、指示対象物または指示対象位置に対する動作を実行することが可能となる。
本発明によれば、被搬送物等の指示対象物または搬送先等の指示対象位置の位置を特定する際の精度を向上させることができるという効果を奏する。
[第1の実施形態]
以下に、本発明に係る位置特定装置、動作指示装置、および自走式ロボット(以下「ロボット」という。)を具備するロボットシステムの第1の実施形態について、図面を参照して説明する。
図1に示すように、本実施形態に係るロボットシステム100は、ロボット1と、ロボット1に対して動作を指示する動作指示装置50とを備えている。
動作指示装置50は、指示対象物の画像を取得する画像取得部51と、ロボット1に対して動作指示を行う動作指示部52とを備えている。画像取得部51は、例えば、レンズおよびCCDを備えるカメラである。
ロボット1は、動作指示装置50からの指示に基づいてロボット1を制御する制御装置40を備えている。制御装置40は、動作指示装置50に備えられた画像取得部51により取得された指示対象物の画像に基づいて、指示対象物の位置を特定するようになっている。
以下に、ロボット1の構成について図2および図3を用いて説明する。
図2は、本実施形態に係るロボットの正面図、図3は、図2に示したロボットの左側面図である。
図2および図3に示すように、ロボット本体1には、頭部2と、この頭部2を下方から支持する胸部3と、この胸部3の右側に設けられた右腕部4a、胸部3の左側に設けられた左腕部4bと、胸部3の下方に接続された腰部5と、この腰部5の下方に接続されたスカート部6と、このスカート部6の下方に接続された脚部7とが設けられている。
頭部2には、頭頂部近傍に全方位カメラ11が一つ設けられている。この全方位カメラ11の外周に沿って複数の赤外線LED12が所定の間隔で円環上に配置されている。
頭部2の前面の中央近傍には、図1に示すように、前方を撮像するための前方カメラ13が正面視して右側に一つ、マイクロフォン14が正面視して左側に一つ、それぞれ設けられている。
胸部3の前面の中央近傍には、モニタ15が一つ設けられている。このモニタ15の上方には、人を検知するための超音波距離センサ16が一つ設けられている。モニタ15の下方には、電源スイッチ17が一つ設けられている。超音波距離センサ16の上方には、2つのスピーカ18が左右に一つずつ設けられている。また、図3に示すように、胸部3の背面には、荷物を収納することができるランドセル部33が設けられている。ランドセル部33には、上部に設けたヒンジ周りに回動可能な開閉扉33aが設けられている。図1に示すように、胸部3の左右の肩部には、マンマシンインターフェースとして機能する肩スイッチ19がそれぞれ一つずつ設けられている。肩スイッチ19には、例えば、タッチセンサが採用されている。
右腕部4aおよび左腕部4bには、多関節構造が採用されている。右腕部4a、左腕部4bにおいて、胸部3との接続部近傍には、体や物の挟み込みを検知して腕の動作を止めるための脇スイッチ20がそれぞれ設けられている。図2に示すように、右腕部4aの手のひら部分には、マンマシンインターフェースとして機能する握手スイッチ21が内蔵されている。これら脇スイッチ20や握手スイッチ21には、例えば、押圧センサが採用される。
腰部5の前面の中央近傍には、人を検知するための超音波距離センサ22が左右に一つずつ設けられている。これら超音波距離センサ22の下方には、複数の赤外センサ23が配列されたセンサ領域24が設けられている。これら赤外線センサ22は、ロボット本体1の下方前方にある障害物等を検出するためのものである。図2および図3に示すように、腰部5の下方には、前面および背面において、音源方向を検出するためのマイクロフォン25が左右に一つずつ、計4つ設けられている。図3に示すように、腰部5の側面の左右には、本体を持ち上げるときに使用する取手部26がそれぞれ一つずつ設けられている。取手部26は、凹所とされており、操作者の手が挿入できるようになっている。
スカート部6の前面下方には、段差を検出するための赤外線センサ27が、中央および左右に計3つ設けられている。図3に示すように、スカート部6の背面には、充電コネクタ28が設けられている。
図2に示すように、脚部7の前面には、側方の距離を検出するための赤外線センサ29が左右に一つずつ設けられている。これら赤外線センサ29は、主に段差検出に用いられるものである。
図3に示すように、脚部7の背面には、充電ステーションにロボット本体1を位置固定するためのフック30が設けられている。脚部7は、走行用車輪31および4つのボールキャスタ32を備えた台車とされている。
上述したロボットにおいて、胸部3の超音波距離センサ16、腰部5の超音波距離センサ22およびマイクロフォン25は、ロボット周辺にいる人物を検知する人検知センサ34として機能する。
このようなロボットは、ロボット本体1に内蔵されたバッテリからの電源供給により、作業空間を自立的に移動することが可能な構成を備えており、一般家庭等の屋内を作業空間として人間と共存し、例えば、一般家庭内でロボットの所有者や操作者などのユーザの生活を補助・支援・介護するための各種サービスを提供するために用いられる。そのため、ロボットは、ユーザとの会話を実現させる会話機能のほか、ユーザの行動を見守ったり、ユーザの行動を補助したり、ユーザと一緒に行動したりする機能を備えている。
このような機能は、例えば、ロボット本体1の内部に内蔵されたマイクロコンピュータ等からなる制御装置40により実現されるものである。制御装置40には、図2および図3に示した各種カメラや各種センサ等が接続されており、カメラからの画像情報やセンサからのセンサ検出情報を取得し、これらの情報に基づいて各種プログラムを実行することにより、上述した各種機能を実現させる。また、制御装置40は、動作指示装置50からの信号を取得し、該信号に基づいて指示対象物の位置特定を行う。以下では、この指示対象物の位置特定が、位置特定装置101により行われるとして説明する。
図4に、位置特定装置101が備える機能を展開して表した機能ブロック図を示す。
図4に示すように、位置特定装置101は、画像および位置情報を記憶する記憶部121と、指示対象物の画像を取得する画像取得部51と、複数の画像の比較を行う比較部122と、指示対象物を特定する指示対象物特定部123と、指示対象物の位置情報を抽出する位置情報抽出部124とを備えている。
記憶部121は、予め撮影した複数の対象物の画像から算出した特徴量と、該対象物の位置情報とを関連付けて記憶するようになっている。ここで、画像から算出した特徴量とは、比較処理をより正確・ロバスト・高速・小メモリでおこなうために、画像から抽出した画像の特徴を示す情報のことであり、例えば、輪郭形状や色等をいう。
画像取得部51は、ユーザの操作によって指示対象物の画像を取得し、取得した指示対象物の画像から算出した特徴量を比較部122に出力するようになっている。
比較部122は、記憶部121に記憶された複数の対象物の画像から算出した特徴量を読み出し、読み出した複数の対象物の画像から算出した特徴量と画像取得部51により取得された指示対象物の画像から算出した特徴量との比較を行い、比較結果を指示対象物特定部123に出力するようになっている。なお、比較に際しては、比較対象の画像の大きさや角度や歪みが異なっていても、例えば、US Patent 6,711,293, David G. Lowe,“Object recognition from local scale-invariant features,” International Conference on Computer Vision, Corfu, Greece (September 1999), pp.1150-1157.に示される公知の方法により、画像同士の類似度を算出することが可能である。
指示対象物特定部123は、比較部122による比較結果に基づいて指示対象物に最も一致する対象物を指示対象物として特定し、特定した結果を位置情報抽出部に出力するようになっている。
位置情報抽出部124は、指示対象物特定部123により特定された指示対象物に対応する対象物の位置情報を記憶部121より読み出し、読み出した対象物の位置情報を指示対象物の位置情報として動作指示部52に出力するようになっている。
動作指示部52は、位置情報抽出部124により抽出された指示対象物の位置情報および該位置情報に対する動作をロボット本体1に出力するようになっている。
このように構成された位置特定装置101の作用について、主に図5を用いて以下に説明する。
記憶部121には予め対象物Aの画像Pから算出した特徴量および対象物Bの画像Pから算出した特徴量が、それぞれの位置情報と関連付けられて記憶されている。
ここで、ユーザが指示対象物として対象物Bを選択した場合、ユーザの操作によって画像取得部51により指示対象物の画像Qが取得される。
次に、比較部122により、画像取得部51により取得された指示対象物の画像Qから算出した特徴量と記憶部121から読み出した対象物Aの画像Pから算出した特徴量および対象物Bの画像Pから算出した特徴量との比較が行われる。
次に、比較部122による比較結果に基づいて、指示対象物特定部123により画像Qに最も一致する画像として画像Pが選択され、画像Pに対応する対象物Bが指示対象物として特定される。
次に、位置情報抽出部により、指示対象物として特定された対象物Bの画像Pから算出した特徴量に関連付けられた位置情報、すなわち、図5においてテーブルの中央部の座標が、記憶部121より読み出される。
このように記憶部121より読み出された対象物Bの位置情報が、指示対象物の位置情報として抽出され、動作指示部52によりロボット本体1に対して搬送指示等の動作指示が行われる。
以上説明したように、本実施形態に係る位置特定装置101によれば、記憶部121に記憶された複数の対象物の画像から算出した特徴量および位置情報に基づいて、画像取得部51により取得された指示対象物が指示対象物特定部123により特定され、特定された指示対象物の位置情報が位置情報抽出部124により抽出される。これにより、指示対象物の名称が明確でない場合や、指示対象物を言語で表現することが困難な場合においても、画像取得部51により取得された指示対象物の画像を用いて、その位置情報を得ることができ、指示対象物の位置を容易に特定することが可能となる。
なお、本実施形態の第1の変形例として、図6に示すように、画像取得部51に代えてバーコードやQRコード等の画像コードの情報を取得する画像コード取得部54を設け、記憶部121には対象物の画像に代えて画像コードの情報を記憶させることとしてもよい。
このようにすることで、例えば、外観が類似している複数の対象物を識別することができ、指示対象物を特定する際の精度を向上させることが可能となる。また、例えば、バーコードは既に多くの製品に付されており、バーコードと指示対象物を関連付けたデータベースを用いることで、指示対象物の名称等の情報を取得することも可能となる。
また、画像取得部51と画像コード取得部54とを併用することで、指示対象物の特定を容易に、かつ、高い精度で行うことが可能となる。
また、本実施形態の第2の変形例として、図7に示すように、画像取得部51の撮影方向にレーザを照射するレーザ照射部55を備えてもよい。ここで、レーザ照射部55は、例えば、レーザポインタである。
このようにすることで、画像取得部51の撮影方向に照射されたレーザの輝点をユーザが目視することができ、ユーザが意図する指示対象物を確実に撮影することができる。
また、本実施形態の第3の変形例として、図8に示すように、指示対象物までの距離を測定する距離測定部56を備え、指示対象位置特定部123が、距離測定部56により測定された距離をも用いて指示対象物を特定することとしてもよい。ここで、距離測定部56は、例えば、レーザ測距機である。
画像取得部51により取得した画像だけでなく、距離測定部56により測定した距離をも用いて指示対象物の特定を行うことにより、大きさの異なる指示対象物を識別することが可能となる。
また、本実施形態の第4の変形例として、図9に示すように、画像取得部51が取得した画像を表示する表示部57を備えてもよい。ここで、表示部57は、例えば、CRT(cathode-ray tube)やLCD(liquid Crystal Display)等のモニタである。
このようにすることで、画像取得部51が取得した画像を、表示部57にてユーザが目視することができ、ユーザが意図する指示対象物を確実に撮影することができる。
また、本実施形態の第5の変形例として、図10に示すように、指示対象物の候補が複数ある場合に、各候補を表示部57に表示し、表示された各候補の中から指示対象物の選択をユーザに促すこととしてもよい。
このようにすることで、ユーザが意図する指示対象物を確実に選択することが可能となる。なお、各候補の表示を表示部57ではなく、動作指示装置60とは別に設けられたタッチパネル58に行うこととしてもよい。
〔第2の実施形態〕
次に、本発明の第2の実施形態について、図11から図15を用いて説明する。
本実施形態のロボットシステムが第1の実施形態と異なる点は、映写装置により位置に応じて異なるパターンを有する映像パターンを投影し、該映像パターンに基づいて指示対象物の位置情報を抽出する点である。以下、本実施形態のロボットシステムについて、第1の実施形態と共通する点については説明を省略し、異なる点について主に説明する。
図11に示すように、本実施形態に係るロボットシステム200は、ロボット1と、ロボット1に対して動作を指示する動作指示装置60と、位置に応じて異なるパターンを有する映像パターンを投影する映写装置63とを備えている。
ここでは、位置に応じて異なるパターンを有する映像パターンとして、例えば、図12に示すアノトパターン(登録商標)を用いることとして説明する。アノトパターン(登録商標)は、格子状の線分上に複数のドットが配置され、該ドットの配置が位置に応じて異なるパターンである。
映写装置63は、例えば、人には不可視な近赤外線を映写する映写装置であり、画像取得部61は、例えば、近赤外線の光を取得可能な近赤外線カメラである。これにより、映写装置63により投影される画像パターンを人に認識させることなく、画像取得部61により取得させることが可能となる。
上記構成を有するロボットシステム200において、映写装置63により指示対象物に投影された映像パターンを画像取得部61により取得し、取得した映像パターンに基づいて制御装置40により指示対象物の位置特定が行われる。以下では、この指示対象物の位置特定が、位置特定装置103により行われるとして説明する。
図13に、位置特定装置103が備える機能を展開して表した機能ブロック図を示す。
図13に示すように、位置特定装置103は、指示対象物に投影されたパターンを取得する画像取得部61と、指示対象物の位置情報を抽出する位置情報抽出部134とを備えている。
画像取得部61は、ユーザの操作によって、映写部63により指示対象物に投影された映像パターンを取得し、取得した映像パターンを位置情報抽出部134に出力するようになっている。
位置情報抽出部134は、画像取得部61により取得された映像パターンから指示対象物の位置情報を抽出し、抽出した指示対象物の位置情報を動作指示部62に出力するようになっている。
動作指示部62は、位置情報抽出部134により抽出された指示対象物の位置情報および該位置情報に対する動作をロボット本体1に出力するようになっている。
このように構成された位置特定装置102の作用について、主に図14を用いて以下に説明する。
映写装置63より、例えば、アノトパターン(登録商標)の映像パターンが、指示対象物を含む所定の領域に投影されている。
ここで、ユーザが指示対象物として対象物Bを選択した場合、ユーザの操作によって画像取得部61により対象物Bに投影された映像パターンの画像Rが取得される。
次に、位置情報抽出部134により、対象物Bに投影された映像パターンの画像Rの位置情報、すなわち、図14においてテーブルの中央部の座標が抽出される。
このように指示対象物の位置情報が抽出され、動作指示部62によりロボット本体1に対して搬送指示等の動作指示が行われる。
なお、第1の実施形態と同様に、複数の対象物の画像から算出した特徴量を画像DBに記憶させ、画像取得部61が映像パターンだけでなく対象物の画像をも取得することにより、指示対象物自体を特定することも可能となる。
以上説明したように、本実施形態に係る位置特定装置103によれば、画像取得部61により指示対象物に投影されたパターンを取得し、該パターンに基づいて指示対象物の位置情報を位置情報抽出部134により抽出することができる。これにより、指示対象物の位置情報を予め登録しておく必要がなく、任意の位置に置かれた指示対象物の位置情報を抽出することが可能となる。
なお、本実施形態の変形例として、図15に示すように、映写装置63が位置に応じて色が異なる映像パターンを投影し、画像取得部61が該パターンを取得することとしてもよい。
このようにすることで、指示対象物に投影された色パターンに基づいて、指示対象物の位置情報を抽出することができる。
〔第3の実施形態〕
次に、本発明の第3の実施形態について、図16および図17を用いて説明する。
本実施形態のロボットシステムが前述の各実施形態と異なる点は、作業が行われる空間の画像に基づいて指示対象位置の位置情報を抽出する点である。以下、本実施形態のロボットシステムについて、前述の各実施形態と共通する点については説明を省略し、異なる点について主に説明する。
図16に、指示対象位置の位置特定装置104が備える機能を展開して表した機能ブロック図を示す。
図16に示すように、位置特定装置104は、画像から算出した特徴量および位置情報を記憶する記憶部121と、指示対象位置の画像を取得する画像取得部51と、複数の画像から算出した特徴量の比較を行う比較部122と、指示対象位置を特定する指示対象位置特定部133と、指示対象位置の位置情報を抽出する位置情報抽出部124とを備えている。
記憶部121は、壁、天井、床面等の作業が行われる空間の画像から算出した特徴量と、該空間の位置情報とを関連付けて記憶するようになっている。
画像取得部51は、ユーザの操作によって指示対象位置の画像を取得し、取得した指示対象位置の画像から算出した特徴量を比較部122に出力するようになっている。
比較部122は、記憶部121に記憶された作業が行われる空間の画像から算出した特徴量を読み出し、読み出した空間の画像から算出した特徴量と画像取得部51により取得された指示対象位置の画像から算出した特徴量との比較を行い、比較結果を指示対象位置特定部133に出力するようになっている。
指示対象位置特定部133は、比較部122による比較結果に基づいて指示対象位置に最も一致する空間を指示対象位置として特定し、特定した結果を位置情報抽出部に出力するようになっている。
位置情報抽出部124は、指示対象位置特定部133により特定された指示対象位置に対応する空間の位置情報を記憶部121より読み出し、読み出した空間の位置情報を指示対象位置の位置情報として動作指示部52に出力するようになっている。
動作指示部52は、位置情報抽出部124により抽出された指示対象位置の位置情報および該位置情報に対する動作をロボット本体1に出力するようになっている。
このように構成された位置特定装置104の作用について、主に図17を用いて以下に説明する。
図17(a)に示すように、記憶部121には作業が行われる空間の壁面Aの画像Sから算出した特徴量、壁面Bの画像Sから算出した特徴量、および壁面Cの画像Sから算出した特徴量が、それぞれの位置情報と関連付けられて記憶されている。
ここで、図17(b)に示すように、ユーザが指示対象位置として、壁面Cの領域Xを選択した場合、ユーザの操作によって画像取得部51により指示対象位置の画像Tが取得される。
次に、比較部122により、画像取得部51により取得された指示対象位置の画像Tから算出した特徴量と記憶部121から読み出した壁面Aの画像Sから算出した特徴量、壁面Bの画像Sから算出した特徴量、および壁面Cの画像Sから算出した特徴量との比較が行われる。
次に、比較部122による比較結果に基づいて、指示対象位置特定部133により画像Tに最も一致する画像として画像Sの中の領域Xが選択され、領域Xの位置が指示対象位置として特定される。
次に、位置情報抽出部124により、指示対象位置として特定された領域Xに関連付けられた位置情報、すなわち、図17(b)において壁面Cに配置された棚の最上段左側部の座標が、記憶部121より読み出される。
このように記憶部121より読み出された領域Xの位置情報が、指示対象位置の位置情報として抽出され、動作指示部52によりロボット本体1に対して搬送指示等の動作指示が行われる。
以上説明したように、本実施形態に係る位置特定装置104によれば、壁面、または床面、あるいは天井面等の作業が行われる空間の画像から算出した特徴量および位置情報に基づいて、画像取得部51により取得された指示対象位置の位置情報を抽出することができる。
また、図17(c)に示すように、作業が行われる空間の画像内における窓等の大きさや歪みから、デバイスである動作指示装置70の位置や向いている方向を推定することが可能となる。
〔第4の実施形態〕
次に、本発明の第4の実施形態について、図18から図22を用いて説明する。
本実施形態のロボットシステムが前述の各実施形態と異なる点は、所定の位置に配置された複数の撮像装置により撮影された作業が行われる空間の画像に基づいて、指示対象物の位置を特定する点である。以下、本実施形態のロボットシステムについて、前述の各実施形態と共通する点については説明を省略し、異なる点について主に説明する。
図18に示すように、本実施形態に係るロボットシステム300は、ロボット1と、ロボット1に対して動作を指示する動作指示装置70と、作業が行われる空間を撮影する複数の撮像装置73とを備えている。
撮像装置73は、例えば、作業が行われる空間の隅部の天井面に配置され、レンズおよびCCDを備えるカメラである。
上記構成を有するロボットシステム300において、指示対象物の画像を画像取得部71により取得し、画像取得部71により取得された指示対象物の画像および撮像装置73により撮影された作業が行われる空間の画像に基づいて制御装置40により指示対象物の位置特定が行われる。以下では、この指示対象物の位置特定が、位置特定装置105により行われるとして説明する。
図19に、指示対象物の位置特定装置105が備える機能を展開して表した機能ブロック図を示す。
図19に示すように、位置特定装置105は、指示対象物の画像を取得する画像取得部71と、複数の画像から算出した特徴量の比較を行う比較部122と、指示対象物を特定する指示対象物特定部123と、指示対象物の位置情報を抽出する位置情報抽出部144とを備えている。
画像取得部71は、ユーザの操作によって指示対象物の画像を取得し、取得した指示対象物の画像から算出した特徴量を比較部122に出力するようになっている。
比較部122は、撮像装置73により撮影された作業が行われる空間の画像から算出した特徴量と画像取得部71により取得された指示対象物の画像から算出した特徴量との比較を行い、比較結果を指示対象物特定部123に出力するようになっている。
指示対象物特定部123は、比較部122による比較結果に基づいて指示対象物に最も一致する対象物を指示対象物として特定し、特定した結果を位置情報抽出部144に出力するようになっている。
位置情報抽出部144は、撮像装置73の位置関係と撮像装置73により撮影された作業が行われる空間の画像内における指示対象物の位置とに基づいて、指示対象物の位置情報を抽出し、抽出した指示対象物の位置情報を動作指示部72に出力するようになっている。
動作指示部72は、位置情報抽出部144により抽出された指示対象物の位置情報および該位置情報に対する動作をロボット本体1に出力するようになっている。
このように構成された位置特定装置105の作用について、主に図20を用いて以下に説明する。
撮像装置73(a)および撮像装置73(b)により、作業が行われる空間が撮影されている。撮像装置73(a)により撮影された画像が画像U、撮像装置73(b)により撮影された画像が画像Uである。
ここで、ユーザが指示対象物として対象物Dを選択した場合、ユーザの操作によって画像取得部71により指示対象物の画像Vが取得される。
次に、比較部122により、画像取得部71により取得された指示対象物の画像Vから算出した特徴量と、撮像装置73(a)により撮影された画像Uから算出した特徴量および撮像装置73(b)により撮影された画像Uから算出した特徴量との比較が行われる。
次に、比較部122による比較結果に基づいて、指示対象物特定部123により画像Vに一致する画像として、画像Uの中の領域Yおよび画像Uの中の領域Zが選択され、領域Yおよび領域Zに対応する対象物が指示対象物として特定される。
次に、位置情報抽出部144により、撮像装置73(a)と撮像装置73(b)との位置関係と、画像Uおよび画像Uにおける指示対象物の位置とに基づいて、指示対象物の位置情報が抽出される。この際、指示対象物の位置情報は、例えば、Richard
Hartley and Andrew Zisserman (2003). Multiple View Geometry in computer vision.
Cambridge University Press.
ISBN 0-521-54051-8.に示される公知のエピポーラ幾何を用いた算出方法により推定することができる。
以上説明したように、本実施形態に係る位置特定装置105によれば、撮像装置73(a)と73(b)との位置関係と、撮像装置73(a)および撮像装置73(b)により撮影された作業が行われる空間の画像とに基づいて、画像取得部71により取得された指示対象物の位置情報が位置情報抽出部144により抽出される。このように、複数の撮像装置により指示対象物の位置情報を抽出することで、指示対象物の位置情報を予め登録しておく必要がなく、任意の位置に置かれた指示対象物の位置を特定することが可能となる。
なお、本実施形態の第1の変形例として、図21に示すように、画像DBに指示対象物の画像から算出した特徴量を予め登録しておき、比較部122が、画像取得部71により取得された指示対象物の画像から算出した特徴量と撮像装置73(a)および撮像装置73(b)により撮影された作業が行われる空間の画像から算出した特徴量とを、画像DBの登録画像から算出した特徴量を介して間接比較を行い、指示対象物特定部123が、比較部122による間接比較結果に基づいて指示対象物を特定することとしてもよい。
撮像装置73(a)と撮像装置73(b)と画像取得部71とでは指示対象物を撮影する角度や位置が異なるため、各画像における指示対象物の歪み等が異なり、各画像から指示対象物を特定することが困難な場合がある。これに対し、予め画像DBに登録された指示対象物の画像を介して間接比較を行うことで、指示対象物を特定する際の精度を向上させることができる。
また、本実施形態の第2の変形例として、図22に示すように、画像DBに予め登録する指示対象物の画像から算出した特徴量を、複数の角度から撮影した指示対象物の画像から算出した特徴量としてもよい。
指示対象物が立体形状を有する場合には、撮影する角度や位置によって指示対象物の見え方が異なる。これに対し、指示対象物の登録画像として、複数の角度から撮影した指示対象物の画像とすることで、指示対象物を特定する際の精度を向上させることができる。
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
本発明の第1の実施形態に係るロボットシステムのハードウェア構成図である。 図1に示すロボット本体の正面図である。 図1に示すロボット本体の左側面図である。 図1に示すロボットシステムの機能ブロック図である。 図1に示すロボットシステムの作用を説明する図である。 図1に示すロボットシステムの第1の変形例の機能ブロック図である。 図1に示すロボットシステムの第2の変形例の作用を説明する図である。 図1に示すロボットシステムの第3の変形例の作用を説明する図である。 図1に示すロボットシステムの第4の変形例の作用を説明する図である。 図1に示すロボットシステムの第5の変形例の作用を説明する図である。 本発明の第2の実施形態に係るロボットシステムのハードウェア構成図である。 アノトパターン(登録商標)を説明する図である。 図11に示すロボットシステムの機能ブロック図である。 図11に示すロボットシステムの作用を説明する図である。 図11に示すロボットシステムの変形例の作用を説明する図である。 本発明の第3の実施形態に係るロボットシステムの機能ブロック図である。 図16に示すロボットシステムの作用を説明する図である。 本発明の第4の実施形態に係るロボットシステムのハードウェア構成図である。 図18に示すロボットシステムの機能ブロック図である。 図18に示すロボットシステムの作用を説明する図である。 図18に示すロボットシステムの第1の変形例の作用を説明する図である。 図18に示すロボットシステムの第2の変形例の作用を説明する図である。
符号の説明
1 ロボット本体
40 制御装置
50,60,70 動作指示装置
51,61,71 画像取得部
52,62,72 動作指示部
54 画像コード取得部
55 レーザ照射部
56 距離測定部
57 表示部
58 タッチパネル
63 映写装置
73,73(a),72(b) 撮像装置
100,200,300 ロボットシステム
101,103,104,105 位置特定装置
121 記憶部
122 比較部
123 指示対象物特定部
124,134,144 位置情報抽出部
133 指示対象位置特定部

Claims (9)

  1. 作業空間である屋内における複数の対象物の画像から算出した特徴量と該対象物の位置を座標で示した位置情報とを関連付けて記憶する記憶部と、
    ユーザの操作によって、前記作業空間における指示対象物の方向にむけられ、該指示対象物の画像を取得する画像取得部と、
    該画像取得部により取得された前記指示対象物の画像から算出した特徴量と前記記憶部に記憶された複数の前記対象物の画像から算出した特徴量との比較を行う比較部と、
    該比較部による比較結果に基づいて前記指示対象物を特定する指示対象物特定部と、
    該指示対象物特定部により特定された前記指示対象物に対応する前記対象物の位置情報を、前記指示対象物の位置情報である前記座標を前記記憶部より抽出する位置情報抽出部と
    を備え、
    特定された前記指示対象物の位置情報に基づいた前記指示対象物に対する動作指示に基づいて、前記指示対象物に対する動作を実行する、前記作業空間を自律的に移動する自走式ロボットに用いられる位置特定装置。
  2. 作業空間における複数の対象物の画像コードの情報と該対象物の位置を座標で示した位置情報とを関連付けて記憶する記憶部と、
    ユーザの操作によって、前記作業空間における指示対象物の方向にむけられ、該指示対象物の画像コードの情報を取得する画像コード取得部と、
    該画像コード取得部により取得された前記指示対象物の画像コードの情報と前記記憶部に記憶された複数の前記対象物の画像コードの情報との比較を行う比較部と、
    該比較部による比較結果に基づいて前記指示対象物を特定する指示対象物特定部と、
    該指示対象物特定部により特定された前記指示対象物に対応する前記対象物の位置情報を、前記指示対象物の位置情報である前記座標を前記記憶部より抽出する位置情報抽出部と
    を備え、
    特定された前記指示対象物の位置情報に基づいた前記指示対象物に対する動作指示に基づいて、前記指示対象物に対する動作を実行する、前記作業空間を自律的に移動する自走式ロボットに用いられる位置特定装置。
  3. 作業空間である屋内における複数の画像から算出した特徴量と前記作業空間を座標で示した位置情報とを関連付けて記憶する記憶部と、
    ユーザの操作によって、前記作業空間における指示対象物の方向にむけられ、該指示対象物の画像を取得する画像取得部と、
    該画像取得部により取得された前記指示対象位置の画像から算出した特徴量と前記記憶部に記憶された前記作業空間における複数の画像から算出した特徴量との比較を行う比較部と、
    該比較部による比較結果に基づいて前記指示対象位置を特定する指示対象位置特定部と、
    該指示対象位置特定部により特定された前記指示対象位置に対応する前記作業空間の位置情報を、前記指示対象位置の位置情報である前記座標として前記記憶部より抽出する位置情報抽出部と
    を備え、
    特定された前記指示対象位置の位置情報に基づいた前記指示対象位置に対する動作指示に基づいて、前記指示対象位置に対する動作を実行する、前記作業空間を自律的に移動する自走式ロボットに用いられる位置特定装置。
  4. 前記画像取得部または前記画像コード取得部の撮影方向にレーザを照射するレーザ照射部を備える請求項1から請求項3のいずれかに記載の位置特定装置。
  5. 前記画像取得部または前記画像コード取得部が取得した画像を表示する表示部を備える請求項1から請求項4のいずれかに記載の位置特定装置。
  6. 前記表示部が、前記指示対象物または前記指示対象位置の候補が複数ある場合に、各前記候補を表示し、表示された各前記候補の中から前記指示対象物または前記指示対象位置の選択をユーザに促す請求項5に記載の位置特定装置。
  7. 前記指示対象物または前記指示対象位置までの距離を測定する距離測定部を備え、
    前記指示対象物特定部または前記指示対象位置特定部が、前記距離測定部により測定された距離をも用いて前記指示対象物または前記指示対象位置を特定する請求項1から請求項6のいずれかに記載の位置特定装置。
  8. 請求項1から請求項7のいずれかに記載の位置特定装置により特定された前記指示対象物または前記指示対象位置の位置情報に基づいて、前記指示対象物または前記指示対象位置に対する動作指示を行う動作指示部を備える動作指示装置。
  9. 請求項8に記載の動作指示装置による指示に基づいて前記指示対象物または前記指示対象位置に対する動作を実行する自走式ロボット。
JP2007301424A 2007-11-21 2007-11-21 位置特定装置および動作指示装置並びに自走式ロボット Active JP5221939B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007301424A JP5221939B2 (ja) 2007-11-21 2007-11-21 位置特定装置および動作指示装置並びに自走式ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007301424A JP5221939B2 (ja) 2007-11-21 2007-11-21 位置特定装置および動作指示装置並びに自走式ロボット

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012083987A Division JP5536131B2 (ja) 2012-04-02 2012-04-02 位置特定装置および動作指示装置並びに自走式ロボット

Publications (2)

Publication Number Publication Date
JP2009129058A JP2009129058A (ja) 2009-06-11
JP5221939B2 true JP5221939B2 (ja) 2013-06-26

Family

ID=40819940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007301424A Active JP5221939B2 (ja) 2007-11-21 2007-11-21 位置特定装置および動作指示装置並びに自走式ロボット

Country Status (1)

Country Link
JP (1) JP5221939B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5213183B2 (ja) * 2009-07-14 2013-06-19 独立行政法人科学技術振興機構 ロボット制御システム及びロボット制御プログラム
JP2015225450A (ja) 2014-05-27 2015-12-14 村田機械株式会社 自律走行車、及び自律走行車における物体認識方法
JP6846897B2 (ja) * 2016-03-24 2021-03-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 位置指示方法、位置指示装置、自走式装置及びプログラム
CN107229274B (zh) * 2016-03-24 2022-06-28 松下电器(美国)知识产权公司 位置指示方法、终端装置、自行式装置以及程序
JP6980777B2 (ja) * 2016-10-09 2021-12-15 浙江国自機器人技術股▲ふん▼有限公司Zhejiang Guozi Robotics Co., Ltd. 在庫品管理システム、運送装置及び運送装置と運送対象物との結合方法
JP7338662B2 (ja) * 2019-12-24 2023-09-05 ソニーグループ株式会社 移動体、制御方法、およびプログラム
JP7540195B2 (ja) * 2020-05-19 2024-08-27 オムロン株式会社 移動ロボット
CN114633248B (zh) * 2020-12-16 2024-04-12 北京极智嘉科技股份有限公司 一种机器人及定位方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2921496B2 (ja) * 1996-07-15 1999-07-19 三菱電機株式会社 画像処理装置および物体移載装置
JP4097421B2 (ja) * 2001-11-20 2008-06-11 株式会社リコー 光学的形状測定装置
JP2003345815A (ja) * 2002-05-28 2003-12-05 Jiishisu:Kk Url検索サーバ及びurl検索システム並びに画像加工サーバ及び画像加工システム
JP4473849B2 (ja) * 2003-06-02 2010-06-02 パナソニック株式会社 物品取扱いシステムおよび物品取扱いサーバ
JP2005096956A (ja) * 2003-09-26 2005-04-14 Toshiba Digital Media Engineering Corp 書籍管理システム
JP2006202136A (ja) * 2005-01-21 2006-08-03 Fuji Photo Film Co Ltd 情報提供装置、プリントシステム、情報提供プログラム、および情報提供プログラム記憶媒体
JP2006231447A (ja) * 2005-02-23 2006-09-07 Mitsubishi Heavy Ind Ltd 指示位置または特定物の確認方法及び座標獲得方法並びに装置
JP2007098555A (ja) * 2005-10-07 2007-04-19 Nippon Telegr & Teleph Corp <Ntt> 位置指示方法とこの方法を実現するための指示装置及びプログラム
JP4715539B2 (ja) * 2006-02-15 2011-07-06 トヨタ自動車株式会社 画像処理装置、その方法、および画像処理用プログラム

Also Published As

Publication number Publication date
JP2009129058A (ja) 2009-06-11

Similar Documents

Publication Publication Date Title
JP5221939B2 (ja) 位置特定装置および動作指示装置並びに自走式ロボット
KR100328648B1 (ko) 핸드포인팅장치
CN108885459B (zh) 导航方法、导航系统、移动控制系统及移动机器人
US8265425B2 (en) Rectangular table detection using hybrid RGB and depth camera sensors
CN100369487C (zh) 物体检测装置、物体检测服务器以及物体检测方法
KR100790860B1 (ko) 사람 추적 장치 및 방법, 그 방법을 수행하기 위한프로그램이 저장된 기록매체와 그 장치를 포함하는 이동형전자기기
JP4264380B2 (ja) 自己位置同定方法及び該装置
US20130338525A1 (en) Mobile Human Interface Robot
Tölgyessy et al. Foundations of visual linear human–robot interaction via pointing gesture navigation
US20120101508A1 (en) Method and device for controlling/compensating movement of surgical robot
JP2019515407A (ja) ロボットが学習した経路を自律的に走行するように初期化するためのシステムおよび方法
US20150262002A1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
JP6771996B2 (ja) ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法
JP5001930B2 (ja) 動作認識装置及び方法
JP4042517B2 (ja) 移動体およびその位置検出装置
CN108154126A (zh) 虹膜成像系统及方法
Shen et al. A multi-view camera-projector system for object detection and robot-human feedback
KR20190036864A (ko) 가상현실 전망용 망원경, 이를 이용한 전망용 가상현실 구동 방법 및 매체에 기록된 어플리케이션
JP5536131B2 (ja) 位置特定装置および動作指示装置並びに自走式ロボット
KR20140053712A (ko) 센서 융합에 의한 실내로봇용 위치인식 방법
CN107538485B (zh) 一种机器人导引方法及系统
KR20120108277A (ko) 자연랜드마크와 인공랜드마크를 인식하는 지능형 이동로봇의 위치인식 방법
CN111736596A (zh) 有手势控制功能的车辆、车辆的手势控制方法和存储介质
JP2007156689A (ja) 光源位置検出装置、これを用いた顔認識装置及び自走式ロボット
Yoo et al. 20 human-friendly care robot system for the elderly

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130308

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5221939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3