JP5221939B2 - 位置特定装置および動作指示装置並びに自走式ロボット - Google Patents
位置特定装置および動作指示装置並びに自走式ロボット Download PDFInfo
- Publication number
- JP5221939B2 JP5221939B2 JP2007301424A JP2007301424A JP5221939B2 JP 5221939 B2 JP5221939 B2 JP 5221939B2 JP 2007301424 A JP2007301424 A JP 2007301424A JP 2007301424 A JP2007301424 A JP 2007301424A JP 5221939 B2 JP5221939 B2 JP 5221939B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- instruction
- image
- pointing
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 claims description 25
- 239000000284 extract Substances 0.000 claims description 14
- 238000003384 imaging method Methods 0.000 description 27
- 238000012986 modification Methods 0.000 description 16
- 230000004048 modification Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000000034 method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本発明は、作業空間である屋内における複数の対象物の画像から算出した特徴量と該対象物の位置を座標で示した位置情報とを関連付けて記憶する記憶部と、ユーザの操作によって、前記作業空間における指示対象物の方向にむけられ、該指示対象物の画像を取得する画像取得部と、該画像取得部により取得された前記指示対象物の画像から算出した特徴量と前記記憶部に記憶された複数の前記対象物の画像から算出した特徴量との比較を行う比較部と、該比較部による比較結果に基づいて前記指示対象物を特定する指示対象物特定部と、該指示対象物特定部により特定された前記指示対象物に対応する前記対象物の位置情報を、前記指示対象物の位置情報である前記座標を前記記憶部より抽出する位置情報抽出部とを備え、特定された前記指示対象物の位置情報に基づいた前記指示対象物に対する動作指示に基づいて、前記指示対象物に対する動作を実行する、前記作業空間を自律的に移動する自走式ロボットに用いられる位置特定装置を採用する。
ここで、画像から算出した特徴量とは、比較処理をより正確・ロバスト・高速・小メモリでおこなうために画像から抽出した画像の特徴を示す情報のことであり、例えば、輪郭形状や色等をいう。
なお、本発明と前述の画像を用いた指示対象物の位置特定装置とを組み合わせることにより、指示対象物の特定を容易に、かつ、高い精度で行うことが可能となる。
このようにすることで、画像取得部または前記画像コード取得部の撮影方向に照射されたレーザの輝点をユーザが目視することができ、ユーザが意図する指示対象物または指示対象位置を確実に撮影することができる。
このようにすることで、画像取得部または画像コード取得部が取得した画像を、表示部にてユーザが目視することができ、ユーザが意図する指示対象物または指示対象位置を確実に撮影することができる。
このようにすることで、ユーザが意図する指示対象物または指示対象位置を確実に選択することが可能となる。
画像取得部または前記画像コード取得部により取得した画像だけでなく、距離測定部により測定した距離をも用いて指示対象物または指示対象位置の特定を行うことにより、大きさの異なる指示対象物または指示対象位置を識別することが可能となる。
以下に、本発明に係る位置特定装置、動作指示装置、および自走式ロボット(以下「ロボット」という。)を具備するロボットシステムの第1の実施形態について、図面を参照して説明する。
図1に示すように、本実施形態に係るロボットシステム100は、ロボット1と、ロボット1に対して動作を指示する動作指示装置50とを備えている。
ロボット1は、動作指示装置50からの指示に基づいてロボット1を制御する制御装置40を備えている。制御装置40は、動作指示装置50に備えられた画像取得部51により取得された指示対象物の画像に基づいて、指示対象物の位置を特定するようになっている。
図2は、本実施形態に係るロボットの正面図、図3は、図2に示したロボットの左側面図である。
図2および図3に示すように、ロボット本体1には、頭部2と、この頭部2を下方から支持する胸部3と、この胸部3の右側に設けられた右腕部4a、胸部3の左側に設けられた左腕部4bと、胸部3の下方に接続された腰部5と、この腰部5の下方に接続されたスカート部6と、このスカート部6の下方に接続された脚部7とが設けられている。
頭部2の前面の中央近傍には、図1に示すように、前方を撮像するための前方カメラ13が正面視して右側に一つ、マイクロフォン14が正面視して左側に一つ、それぞれ設けられている。
図3に示すように、脚部7の背面には、充電ステーションにロボット本体1を位置固定するためのフック30が設けられている。脚部7は、走行用車輪31および4つのボールキャスタ32を備えた台車とされている。
上述したロボットにおいて、胸部3の超音波距離センサ16、腰部5の超音波距離センサ22およびマイクロフォン25は、ロボット周辺にいる人物を検知する人検知センサ34として機能する。
図4に示すように、位置特定装置101は、画像および位置情報を記憶する記憶部121と、指示対象物の画像を取得する画像取得部51と、複数の画像の比較を行う比較部122と、指示対象物を特定する指示対象物特定部123と、指示対象物の位置情報を抽出する位置情報抽出部124とを備えている。
画像取得部51は、ユーザの操作によって指示対象物の画像を取得し、取得した指示対象物の画像から算出した特徴量を比較部122に出力するようになっている。
動作指示部52は、位置情報抽出部124により抽出された指示対象物の位置情報および該位置情報に対する動作をロボット本体1に出力するようになっている。
記憶部121には予め対象物Aの画像PAから算出した特徴量および対象物Bの画像PBから算出した特徴量が、それぞれの位置情報と関連付けられて記憶されている。
次に、比較部122により、画像取得部51により取得された指示対象物の画像QBから算出した特徴量と記憶部121から読み出した対象物Aの画像PAから算出した特徴量および対象物Bの画像PBから算出した特徴量との比較が行われる。
また、画像取得部51と画像コード取得部54とを併用することで、指示対象物の特定を容易に、かつ、高い精度で行うことが可能となる。
このようにすることで、画像取得部51の撮影方向に照射されたレーザの輝点をユーザが目視することができ、ユーザが意図する指示対象物を確実に撮影することができる。
画像取得部51により取得した画像だけでなく、距離測定部56により測定した距離をも用いて指示対象物の特定を行うことにより、大きさの異なる指示対象物を識別することが可能となる。
このようにすることで、画像取得部51が取得した画像を、表示部57にてユーザが目視することができ、ユーザが意図する指示対象物を確実に撮影することができる。
このようにすることで、ユーザが意図する指示対象物を確実に選択することが可能となる。なお、各候補の表示を表示部57ではなく、動作指示装置60とは別に設けられたタッチパネル58に行うこととしてもよい。
次に、本発明の第2の実施形態について、図11から図15を用いて説明する。
本実施形態のロボットシステムが第1の実施形態と異なる点は、映写装置により位置に応じて異なるパターンを有する映像パターンを投影し、該映像パターンに基づいて指示対象物の位置情報を抽出する点である。以下、本実施形態のロボットシステムについて、第1の実施形態と共通する点については説明を省略し、異なる点について主に説明する。
ここでは、位置に応じて異なるパターンを有する映像パターンとして、例えば、図12に示すアノトパターン(登録商標)を用いることとして説明する。アノトパターン(登録商標)は、格子状の線分上に複数のドットが配置され、該ドットの配置が位置に応じて異なるパターンである。
図13に示すように、位置特定装置103は、指示対象物に投影されたパターンを取得する画像取得部61と、指示対象物の位置情報を抽出する位置情報抽出部134とを備えている。
動作指示部62は、位置情報抽出部134により抽出された指示対象物の位置情報および該位置情報に対する動作をロボット本体1に出力するようになっている。
映写装置63より、例えば、アノトパターン(登録商標)の映像パターンが、指示対象物を含む所定の領域に投影されている。
ここで、ユーザが指示対象物として対象物Bを選択した場合、ユーザの操作によって画像取得部61により対象物Bに投影された映像パターンの画像RBが取得される。
なお、第1の実施形態と同様に、複数の対象物の画像から算出した特徴量を画像DBに記憶させ、画像取得部61が映像パターンだけでなく対象物の画像をも取得することにより、指示対象物自体を特定することも可能となる。
このようにすることで、指示対象物に投影された色パターンに基づいて、指示対象物の位置情報を抽出することができる。
次に、本発明の第3の実施形態について、図16および図17を用いて説明する。
本実施形態のロボットシステムが前述の各実施形態と異なる点は、作業が行われる空間の画像に基づいて指示対象位置の位置情報を抽出する点である。以下、本実施形態のロボットシステムについて、前述の各実施形態と共通する点については説明を省略し、異なる点について主に説明する。
図16に示すように、位置特定装置104は、画像から算出した特徴量および位置情報を記憶する記憶部121と、指示対象位置の画像を取得する画像取得部51と、複数の画像から算出した特徴量の比較を行う比較部122と、指示対象位置を特定する指示対象位置特定部133と、指示対象位置の位置情報を抽出する位置情報抽出部124とを備えている。
画像取得部51は、ユーザの操作によって指示対象位置の画像を取得し、取得した指示対象位置の画像から算出した特徴量を比較部122に出力するようになっている。
指示対象位置特定部133は、比較部122による比較結果に基づいて指示対象位置に最も一致する空間を指示対象位置として特定し、特定した結果を位置情報抽出部に出力するようになっている。
動作指示部52は、位置情報抽出部124により抽出された指示対象位置の位置情報および該位置情報に対する動作をロボット本体1に出力するようになっている。
図17(a)に示すように、記憶部121には作業が行われる空間の壁面Aの画像SAから算出した特徴量、壁面Bの画像SBから算出した特徴量、および壁面Cの画像SCから算出した特徴量が、それぞれの位置情報と関連付けられて記憶されている。
次に、比較部122により、画像取得部51により取得された指示対象位置の画像TXから算出した特徴量と記憶部121から読み出した壁面Aの画像SAから算出した特徴量、壁面Bの画像SBから算出した特徴量、および壁面Cの画像SCから算出した特徴量との比較が行われる。
次に、位置情報抽出部124により、指示対象位置として特定された領域Xに関連付けられた位置情報、すなわち、図17(b)において壁面Cに配置された棚の最上段左側部の座標が、記憶部121より読み出される。
また、図17(c)に示すように、作業が行われる空間の画像内における窓等の大きさや歪みから、デバイスである動作指示装置70の位置や向いている方向を推定することが可能となる。
次に、本発明の第4の実施形態について、図18から図22を用いて説明する。
本実施形態のロボットシステムが前述の各実施形態と異なる点は、所定の位置に配置された複数の撮像装置により撮影された作業が行われる空間の画像に基づいて、指示対象物の位置を特定する点である。以下、本実施形態のロボットシステムについて、前述の各実施形態と共通する点については説明を省略し、異なる点について主に説明する。
撮像装置73は、例えば、作業が行われる空間の隅部の天井面に配置され、レンズおよびCCDを備えるカメラである。
図19に示すように、位置特定装置105は、指示対象物の画像を取得する画像取得部71と、複数の画像から算出した特徴量の比較を行う比較部122と、指示対象物を特定する指示対象物特定部123と、指示対象物の位置情報を抽出する位置情報抽出部144とを備えている。
比較部122は、撮像装置73により撮影された作業が行われる空間の画像から算出した特徴量と画像取得部71により取得された指示対象物の画像から算出した特徴量との比較を行い、比較結果を指示対象物特定部123に出力するようになっている。
動作指示部72は、位置情報抽出部144により抽出された指示対象物の位置情報および該位置情報に対する動作をロボット本体1に出力するようになっている。
撮像装置73(a)および撮像装置73(b)により、作業が行われる空間が撮影されている。撮像装置73(a)により撮影された画像が画像UA、撮像装置73(b)により撮影された画像が画像UBである。
次に、比較部122により、画像取得部71により取得された指示対象物の画像Vから算出した特徴量と、撮像装置73(a)により撮影された画像UAから算出した特徴量および撮像装置73(b)により撮影された画像UBから算出した特徴量との比較が行われる。
Hartley and Andrew Zisserman (2003). Multiple View Geometry in computer vision.
Cambridge University Press.
ISBN 0-521-54051-8.に示される公知のエピポーラ幾何を用いた算出方法により推定することができる。
指示対象物が立体形状を有する場合には、撮影する角度や位置によって指示対象物の見え方が異なる。これに対し、指示対象物の登録画像として、複数の角度から撮影した指示対象物の画像とすることで、指示対象物を特定する際の精度を向上させることができる。
40 制御装置
50,60,70 動作指示装置
51,61,71 画像取得部
52,62,72 動作指示部
54 画像コード取得部
55 レーザ照射部
56 距離測定部
57 表示部
58 タッチパネル
63 映写装置
73,73(a),72(b) 撮像装置
100,200,300 ロボットシステム
101,103,104,105 位置特定装置
121 記憶部
122 比較部
123 指示対象物特定部
124,134,144 位置情報抽出部
133 指示対象位置特定部
Claims (9)
- 作業空間である屋内における複数の対象物の画像から算出した特徴量と該対象物の位置を座標で示した位置情報とを関連付けて記憶する記憶部と、
ユーザの操作によって、前記作業空間における指示対象物の方向にむけられ、該指示対象物の画像を取得する画像取得部と、
該画像取得部により取得された前記指示対象物の画像から算出した特徴量と前記記憶部に記憶された複数の前記対象物の画像から算出した特徴量との比較を行う比較部と、
該比較部による比較結果に基づいて前記指示対象物を特定する指示対象物特定部と、
該指示対象物特定部により特定された前記指示対象物に対応する前記対象物の位置情報を、前記指示対象物の位置情報である前記座標を前記記憶部より抽出する位置情報抽出部と
を備え、
特定された前記指示対象物の位置情報に基づいた前記指示対象物に対する動作指示に基づいて、前記指示対象物に対する動作を実行する、前記作業空間を自律的に移動する自走式ロボットに用いられる位置特定装置。 - 作業空間における複数の対象物の画像コードの情報と該対象物の位置を座標で示した位置情報とを関連付けて記憶する記憶部と、
ユーザの操作によって、前記作業空間における指示対象物の方向にむけられ、該指示対象物の画像コードの情報を取得する画像コード取得部と、
該画像コード取得部により取得された前記指示対象物の画像コードの情報と前記記憶部に記憶された複数の前記対象物の画像コードの情報との比較を行う比較部と、
該比較部による比較結果に基づいて前記指示対象物を特定する指示対象物特定部と、
該指示対象物特定部により特定された前記指示対象物に対応する前記対象物の位置情報を、前記指示対象物の位置情報である前記座標を前記記憶部より抽出する位置情報抽出部と
を備え、
特定された前記指示対象物の位置情報に基づいた前記指示対象物に対する動作指示に基づいて、前記指示対象物に対する動作を実行する、前記作業空間を自律的に移動する自走式ロボットに用いられる位置特定装置。 - 作業空間である屋内における複数の画像から算出した特徴量と前記作業空間を座標で示した位置情報とを関連付けて記憶する記憶部と、
ユーザの操作によって、前記作業空間における指示対象物の方向にむけられ、該指示対象物の画像を取得する画像取得部と、
該画像取得部により取得された前記指示対象位置の画像から算出した特徴量と前記記憶部に記憶された前記作業空間における複数の画像から算出した特徴量との比較を行う比較部と、
該比較部による比較結果に基づいて前記指示対象位置を特定する指示対象位置特定部と、
該指示対象位置特定部により特定された前記指示対象位置に対応する前記作業空間の位置情報を、前記指示対象位置の位置情報である前記座標として前記記憶部より抽出する位置情報抽出部と
を備え、
特定された前記指示対象位置の位置情報に基づいた前記指示対象位置に対する動作指示に基づいて、前記指示対象位置に対する動作を実行する、前記作業空間を自律的に移動する自走式ロボットに用いられる位置特定装置。 - 前記画像取得部または前記画像コード取得部の撮影方向にレーザを照射するレーザ照射部を備える請求項1から請求項3のいずれかに記載の位置特定装置。
- 前記画像取得部または前記画像コード取得部が取得した画像を表示する表示部を備える請求項1から請求項4のいずれかに記載の位置特定装置。
- 前記表示部が、前記指示対象物または前記指示対象位置の候補が複数ある場合に、各前記候補を表示し、表示された各前記候補の中から前記指示対象物または前記指示対象位置の選択をユーザに促す請求項5に記載の位置特定装置。
- 前記指示対象物または前記指示対象位置までの距離を測定する距離測定部を備え、
前記指示対象物特定部または前記指示対象位置特定部が、前記距離測定部により測定された距離をも用いて前記指示対象物または前記指示対象位置を特定する請求項1から請求項6のいずれかに記載の位置特定装置。 - 請求項1から請求項7のいずれかに記載の位置特定装置により特定された前記指示対象物または前記指示対象位置の位置情報に基づいて、前記指示対象物または前記指示対象位置に対する動作指示を行う動作指示部を備える動作指示装置。
- 請求項8に記載の動作指示装置による指示に基づいて前記指示対象物または前記指示対象位置に対する動作を実行する自走式ロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007301424A JP5221939B2 (ja) | 2007-11-21 | 2007-11-21 | 位置特定装置および動作指示装置並びに自走式ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007301424A JP5221939B2 (ja) | 2007-11-21 | 2007-11-21 | 位置特定装置および動作指示装置並びに自走式ロボット |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012083987A Division JP5536131B2 (ja) | 2012-04-02 | 2012-04-02 | 位置特定装置および動作指示装置並びに自走式ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009129058A JP2009129058A (ja) | 2009-06-11 |
JP5221939B2 true JP5221939B2 (ja) | 2013-06-26 |
Family
ID=40819940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007301424A Active JP5221939B2 (ja) | 2007-11-21 | 2007-11-21 | 位置特定装置および動作指示装置並びに自走式ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5221939B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5213183B2 (ja) * | 2009-07-14 | 2013-06-19 | 独立行政法人科学技術振興機構 | ロボット制御システム及びロボット制御プログラム |
JP2015225450A (ja) | 2014-05-27 | 2015-12-14 | 村田機械株式会社 | 自律走行車、及び自律走行車における物体認識方法 |
JP6846897B2 (ja) * | 2016-03-24 | 2021-03-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 位置指示方法、位置指示装置、自走式装置及びプログラム |
CN107229274B (zh) * | 2016-03-24 | 2022-06-28 | 松下电器(美国)知识产权公司 | 位置指示方法、终端装置、自行式装置以及程序 |
JP6980777B2 (ja) * | 2016-10-09 | 2021-12-15 | 浙江国自機器人技術股▲ふん▼有限公司Zhejiang Guozi Robotics Co., Ltd. | 在庫品管理システム、運送装置及び運送装置と運送対象物との結合方法 |
JP7338662B2 (ja) * | 2019-12-24 | 2023-09-05 | ソニーグループ株式会社 | 移動体、制御方法、およびプログラム |
JP7540195B2 (ja) * | 2020-05-19 | 2024-08-27 | オムロン株式会社 | 移動ロボット |
CN114633248B (zh) * | 2020-12-16 | 2024-04-12 | 北京极智嘉科技股份有限公司 | 一种机器人及定位方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2921496B2 (ja) * | 1996-07-15 | 1999-07-19 | 三菱電機株式会社 | 画像処理装置および物体移載装置 |
JP4097421B2 (ja) * | 2001-11-20 | 2008-06-11 | 株式会社リコー | 光学的形状測定装置 |
JP2003345815A (ja) * | 2002-05-28 | 2003-12-05 | Jiishisu:Kk | Url検索サーバ及びurl検索システム並びに画像加工サーバ及び画像加工システム |
JP4473849B2 (ja) * | 2003-06-02 | 2010-06-02 | パナソニック株式会社 | 物品取扱いシステムおよび物品取扱いサーバ |
JP2005096956A (ja) * | 2003-09-26 | 2005-04-14 | Toshiba Digital Media Engineering Corp | 書籍管理システム |
JP2006202136A (ja) * | 2005-01-21 | 2006-08-03 | Fuji Photo Film Co Ltd | 情報提供装置、プリントシステム、情報提供プログラム、および情報提供プログラム記憶媒体 |
JP2006231447A (ja) * | 2005-02-23 | 2006-09-07 | Mitsubishi Heavy Ind Ltd | 指示位置または特定物の確認方法及び座標獲得方法並びに装置 |
JP2007098555A (ja) * | 2005-10-07 | 2007-04-19 | Nippon Telegr & Teleph Corp <Ntt> | 位置指示方法とこの方法を実現するための指示装置及びプログラム |
JP4715539B2 (ja) * | 2006-02-15 | 2011-07-06 | トヨタ自動車株式会社 | 画像処理装置、その方法、および画像処理用プログラム |
-
2007
- 2007-11-21 JP JP2007301424A patent/JP5221939B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009129058A (ja) | 2009-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5221939B2 (ja) | 位置特定装置および動作指示装置並びに自走式ロボット | |
KR100328648B1 (ko) | 핸드포인팅장치 | |
CN108885459B (zh) | 导航方法、导航系统、移动控制系统及移动机器人 | |
US8265425B2 (en) | Rectangular table detection using hybrid RGB and depth camera sensors | |
CN100369487C (zh) | 物体检测装置、物体检测服务器以及物体检测方法 | |
KR100790860B1 (ko) | 사람 추적 장치 및 방법, 그 방법을 수행하기 위한프로그램이 저장된 기록매체와 그 장치를 포함하는 이동형전자기기 | |
JP4264380B2 (ja) | 自己位置同定方法及び該装置 | |
US20130338525A1 (en) | Mobile Human Interface Robot | |
Tölgyessy et al. | Foundations of visual linear human–robot interaction via pointing gesture navigation | |
US20120101508A1 (en) | Method and device for controlling/compensating movement of surgical robot | |
JP2019515407A (ja) | ロボットが学習した経路を自律的に走行するように初期化するためのシステムおよび方法 | |
US20150262002A1 (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
JP6771996B2 (ja) | ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法 | |
JP5001930B2 (ja) | 動作認識装置及び方法 | |
JP4042517B2 (ja) | 移動体およびその位置検出装置 | |
CN108154126A (zh) | 虹膜成像系统及方法 | |
Shen et al. | A multi-view camera-projector system for object detection and robot-human feedback | |
KR20190036864A (ko) | 가상현실 전망용 망원경, 이를 이용한 전망용 가상현실 구동 방법 및 매체에 기록된 어플리케이션 | |
JP5536131B2 (ja) | 位置特定装置および動作指示装置並びに自走式ロボット | |
KR20140053712A (ko) | 센서 융합에 의한 실내로봇용 위치인식 방법 | |
CN107538485B (zh) | 一种机器人导引方法及系统 | |
KR20120108277A (ko) | 자연랜드마크와 인공랜드마크를 인식하는 지능형 이동로봇의 위치인식 방법 | |
CN111736596A (zh) | 有手势控制功能的车辆、车辆的手势控制方法和存储介质 | |
JP2007156689A (ja) | 光源位置検出装置、これを用いた顔認識装置及び自走式ロボット | |
Yoo et al. | 20 human-friendly care robot system for the elderly |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120402 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120717 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130308 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160315 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5221939 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160315 Year of fee payment: 3 |