JP6221158B2 - 自律行動ロボット、及び自律行動ロボットの制御方法 - Google Patents
自律行動ロボット、及び自律行動ロボットの制御方法 Download PDFInfo
- Publication number
- JP6221158B2 JP6221158B2 JP2014173147A JP2014173147A JP6221158B2 JP 6221158 B2 JP6221158 B2 JP 6221158B2 JP 2014173147 A JP2014173147 A JP 2014173147A JP 2014173147 A JP2014173147 A JP 2014173147A JP 6221158 B2 JP6221158 B2 JP 6221158B2
- Authority
- JP
- Japan
- Prior art keywords
- sound source
- unit
- sound
- robot
- map information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 76
- 230000004807 localization Effects 0.000 claims description 101
- 230000009471 action Effects 0.000 claims description 91
- 238000001514 detection method Methods 0.000 claims description 73
- 238000003384 imaging method Methods 0.000 claims description 35
- 238000005259 measurement Methods 0.000 claims description 22
- 230000001133 acceleration Effects 0.000 claims description 8
- 230000010354 integration Effects 0.000 claims description 6
- 230000005236 sound signal Effects 0.000 claims description 5
- 230000033001 locomotion Effects 0.000 description 25
- 238000012545 processing Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 18
- 238000012937 correction Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 13
- 238000002474 experimental method Methods 0.000 description 8
- 238000004519 manufacturing process Methods 0.000 description 8
- 238000012546 transfer Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 230000000052 comparative effect Effects 0.000 description 6
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000005070 sampling Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/80—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
- G01S3/802—Systems for determining direction or deviation from predetermined direction
- G01S3/808—Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
- G01S3/8083—Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems determining direction of source
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Acoustics & Sound (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
Description
(2)また、本発明の一態様に係る自律行動ロボットにおいて、前記第2の方向は、前記第1の方向より前記音源に向いた方向であるようにしてもよい。
(4)また、本発明の一態様に係る自律行動ロボットは、画像を撮像する撮像部と、前記生成された二次元地図情報と、前記撮像された画像に基づく三次元画像を用いた三次元地図情報とを統合する統合部と、を備え、前記行動生成部は、前記統合部によって統合された地図情報を用いて行動計画を生成するようにしてもよい。
本実施形態では、自律的に行動する自律行動可能なロボット(以下、自律行動ロボット、ロボットともいう)は、収録した音響信号を用いて音源の方向を推定する。また、自律行動ロボットは、センサを介して取得した情報を用いて、二次元地図情報を生成する。そして、自律行動ロボットは、生成した二次元地図情報を用いて、壁等の障害物を検出する。また、自律行動可能なロボットは、地図情報、音源定位の結果、障害物の有無に基づいて、音響信号が直接音であるか反射音であるかを判別する。そして、自律行動ロボットは、収録した音響信号が反射音である場合は、第1の方向に進むように制御し、収録した音響信号が直接音である場合は、第1の方向とは異なる音源の方向である第2の方向に進むように制御する。この結果、自律行動ロボットは、障害物を回避しつつ、音源の方向へスムーズに移動することができる。
図1は、本実施形態に係る自律行動可能なロボット1の構成を示すブロック図である。図1に示すように、ロボット1は、収音部10、第1音源定位部20(音源定位部;Local SSL)、第1センサ30(距離測定部)、第2センサ40(検出部)、第1地図情報生成部50(地図情報生成部)、撮像部60、第2音源定位部70(音源方向決定部;Global SSL)、反射物検出部80(音源方向決定部;Reflection Detection)、音源方向決定部90(Goal Decision)、コストマップ部100(Costmap)、行動生成部110、駆動制御部120(制御部)、及び駆動部130を含んで構成される。
また、図2に示したロボット1の外形は一例であり、ロボット1は、台座1001の代わりに脚部を備えていてもよい。
例えば、第1地図情報生成部50は、まず初期位置の座標を決定し、その位置から得られた第1検出情報を取得する。そして、取得された第1検出情報に対してサンプリング処理を行い、第1検出情報が得られた領域内で観察された物体の形状を推定し、地図情報を生成する。ロボット1は、移動しながら、例えば所定の時間間隔毎(フレーム毎)に第1検出情報を取得し、領域内で観察された物体の形状を推定する。そして、第1地図情報生成部50は、フレーム毎に生成した地図情報の特徴量を抽出し、特徴量を抽出した地図情報に対して相関計算によって合成した地図情報を生成する。第1地図情報生成部50は、合成した地図情報と、ロボット1が移動した軌跡とに対して再サンプリング処理を行う。第1地図情報生成部50は、以上の処理を繰り返すことで、地図情報の生成と自己位置推定とを同時に行う。
二次元地図情報生成部52は、図4に示すように、予め定められた大きさの格子(Grid)毎に自身のグローバル座標系における位置と傾きを推定して環境地図に登録する。図4は、本実施形態に係る二次元の格子地図情報の一例を説明する図である。図4において、例えばロボット1の進行方向をx軸方向、ロボット1の左右方向をy軸方向とする。そして、ロボット1は、例えばx1からx9の方向へ移動しながら、格子地図情報m101を生成する。また、図4において、符号m102は、障害物がない空間の領域を示す格子であり、符号m103は、障害物がある空間の領域を示す格子である。ここで、障害物とは、例えば通路の左右に存在する壁等である。二次元地図情報生成部52は、生成した二次元地図情報を反射物検出部80に出力する。
第2音源定位部70は、第1音源定位部20によって定位された音源方位と、第1地図情報生成部50によって推定された自己位置を示す情報を用いて、フレーム毎に自己推定位置と障害物との関係を示す線分を算出し、算出した線分を示す式を反射物検出部80に出力する。なお、線分の算出方法については後述する。
図5は、本実施形態に係る二次元地図にRGB−D画像を合成した地図情報の一例を説明する図である。図5において、符号m111が示す領域の画像は、二次元地図情報生成部52によって生成された二次元地図情報の図である。また、符号m112が示す領域の画像は、撮像部60によって撮像された画像である。
第2行動生成部112は、入力された自己位置情報pf wとコストマップの情報とに基づいて、障害物を回避するためのロボット1の第2の行動計画を生成する。
行動生成部110は、生成した第1の行動計画と第2の行動計画とを統合して行動計画を生成し、生成した行動計画を示す情報を駆動制御部120に出力する。
駆動部130は、駆動制御部120から入力された駆動信号に応じて、図2に示した台座1001に組み込まれている車輪等を駆動する。
ここで、第1音源定位部20が行う処理について説明する。
第1音源定位部20には、所定の空間において、収音部10によって収録された不図示の音源から発せられた音が入力され、不図示の伝達関数算出部によって算出された伝達関数A(ω、ψr)が記憶されている。ここで、ωは周波数を表し、ψrは、ロボット座標系から見た音源の方位角(以下、ロボット座標系から見た座標には、上付き文字rを付けて表す)である。
収音部10によって収録されたMチャネルの音響入力信号の相関行列R(ω、f)∈CM×M(なお、CM×MはM行M列の行列を表す)を、第1音源定位部20は、次式(2)のように固有値展開する。
空間スペクトルPは、次式(5)のように表される。
第1音源定位部20は、空間スペクトルPで検出されたL個のピークを音源の方向とし、音源の方向の方位角ψrを推定する。以下、fフレーム目の推定結果をψf rと表す。第1音源定位部20は、推定結果ψf rを第2音源定位部70に出力する。
次に、補正部53が行う補正について説明する。補正のための状態空間モデルは、次式(6)のように表される。
補正部53は、式(13)を用いて、ロボット座標系Crで推定した自己位置の補正と、座標系の変換とを行う。補正及び座標変換後のfフレーム目の自己位置情報pf wと方位角θf wは、次式(14)のように表される。
次に、第2音源定位部70が行う処理について説明する。
なお、本実施形態では、音の反射は、虚像モデル(参考文献2参照)に従うと仮定する。ここで、虚像モデルとは、壁等の障害物の向こう側に音源がある場合、壁を鏡のように見立て、この鏡面に音が反射しているとして、真の音源に対する鏡像(虚音源)を想定するモデルである。
図9の座標系は世界座標系Cwであり、ロボット1の進行方向(紙面の縦方向)をxw軸方向、ロボット1の左右方向(紙面の左右方向)をyw軸方向とする。符号Rfはfフレーム目におけるロボット1を表している。また、符号pf wは、世界座標系Cwにおけるfフレーム目のロボット1の位置(座標)を表している。符号m121の領域の図は、地図情報から障害物(例えば壁)と推定された格子を表している。またドット柄の格子(例えばm122)は、空間が障害物によって塞がれているグリッドを表し、黒色の格子m123は、1フレーム目における空間が障害物によって塞がれているグリッドを表している。白色の格子(例えばm124)は、障害物がない自由な空間を表している。
反射物検出部80には、第1地図情報生成部50から二次元地図情報、及び第2音源定位部70からfフレーム目の定位結果から生成された線分Гf wを示す式が入力される。
反射物検出部80は、入力された地図情報と1フレーム目の線分Г1 wを示す式を用いて、1フレーム目の線分Гf wと格子との交点p〜w(次式16)を算出する。なお、ここっで、1フレーム目は、任意に時刻におけるフレームであってもよい。
次に、反射物検出部80は、線分Г1 w上で、算出した交点p〜wの近傍にp− 〜W(x− 〜w、y− 〜w)とp+ 〜w(x+ 〜w、y+ 〜w)の2点を次式(17)のように算出する。
反射物検出部80は、式(17)で算出した2点からF本の線分Гf w(ただし、fは1以上かつF以下)までの距離の合計d− 〜wとd+ 〜wとを、次式(18)を用いて算出する。
反射物検出部80は、d− 〜wがd+ 〜w未満である場合、F本の線分から形成される焦点cpが壁の内側であると判別し、定位された音が直接音であると判定する。一方、反射物検出部80は、d− 〜wがd+ 〜w未満である場合以外、F本の線分から形成される焦点cpが壁の外側であると判別し、定位された音が反射音であると判定する。反射物検出部80は、反射音と判別した音源定位の結果を棄却することで、反射音にロバストな音源定位を得ることができる。
反射物検出部80は、音源定位した結果が、直接音であるか反射音であるかを示す情報を音源方向決定部90に出力する。
次に、音源方向決定部90が行う処理について説明する。
音源方向決定部90は、反射物検出部80から入力された音源定位の結果に基づいて、真の音源に対する音源がある方向を決定する。例えば、図7に示した例において、音源方向決定部90は、符号Sfの方向を真の音源の方向であると決定する。この場合、音源方向決定部90は、第1音源定位部20で推定されたfフレーム目の推定結果である方位角ψf rを世界座標系Cwに変換した結果であるψf wを行動生成部110に出力する。
一方、図8に示した例において、音源方向決定部90は、符号Sfの方向を真の音源の方向であると決定する。この場合、第1音源定位部20で推定されたfフレーム目の推定結果である方位角ψf rは反射音による鏡像であるため、音源方向決定部90は、推定した方位角ψf rと壁の位置に基づいて、真の音源の方位角ψf rを算出する。そして、音源方向決定部90は、算出した真の音源の方位角ψf rを世界座標系Cwに変換した結果であるψf wを行動生成部110に出力する。
次に、行動生成部110が行う処理の一例を説明する。
第1行動生成部111は、入力された自己位置情報pf w、音源の方位角ψf w、及びコストマップの情報に基づいて、図7及び図8の符号Rtrのようなロボット1の行動の軌跡を生成する。例えば図7に示す例において、第1行動生成部111は、推定された音源が真の音源であるため、音源Stに近づいていくような行動の軌跡Rtrを生成する。一方、図8に示す例において、第1行動生成部111は、音源方向決定部90によって決定された真の音源Stに近づいていくような行動の軌跡Rtrを生成する。これにより、ロボット1は、壁Wcによって直接音を収録できない場合であっても、真の音源の位置に向かって移動することができる。
図10は、本実施形態に係るロボット1が行う処理のフローチャートである。
(ステップS1)収音部10は、M個のチャネルの音響信号を収録し、収録したMチャネルの音響信号を第1音源定位部20に送信する。
(ステップS2)第1音源定位部20は、収音部10によって収録されたM個それぞれのFフレーム分の音響信号を用いて、記憶されている伝達関数Aによって、例えばMUSIC法、ビームフォーミング法等を用いて、fフレーム目の音源の方向である方位角ψf rを推定する。
(ステップS5)二次元自己位置推定部51は、例えばHector SLAM法によって、第1センサ30から入力された第1検出情報を用いて、自身のグローバル座標系における位置と傾きを推定する。
(ステップS7)補正部53は、第2センサ40から入力された第2検出情報を用いて、二次元自己位置推定部51が推定した自己位置を補正する。
(ステップS9)コストマップ部100は、第1地図情報生成部50から入力された二次元地図情報と、撮像部60から入力された画像情報とを統合して、コストマップである三次元地図情報を生成する。
(ステップS12)反射物検出部80は、線分Г1 w上で、算出した交点p〜wの近傍にp− 〜W(x− 〜w、y− 〜w)とp+ 〜w(x+ 〜w、y+ 〜w)の2点を、式(17)を用いて算出する。
(ステップS14)反射物検出部80は、F本の線分Гf wの焦点が障害物である壁の内側にあるか、または壁の外側にあるかを、算出したd− 〜wとd+ 〜wとの関係によって判別する。
(ステップS17)反射物検出部80は、F本の線分から形成される焦点が壁の外側であると判別し、定位された音が反射音であると判定する。反射物検出部80は、処理をステップS18に進める。
(ステップS19)駆動制御部120は、行動生成部110から入力される行動計画に応じて、ロボット1の動作を制御する駆動信号を生成し、生成した駆動信号を駆動部130に出力する。次に、駆動部130は、駆動制御部120から入力された駆動信号に応じて、台座1001(図2参照)に組み込まれている車輪等を駆動する。
なお、ロボット1は、以上の処理を、例えば所定の時間毎に繰り返して行う。
次に、本実施形態のロボット1を用いて行った実験結果の一例を説明する。
図11は、実験に用いた通路1を上から見た図である。図12は、実験に用いた通路2を上から見た図である。図11及び図12において、ロボット1の進行方向をx軸方向、ロボット1の左右方向をy軸方向とする。また、図11及び図12に示す通路の残響時間(RT20)は、0.4[秒]である。
図11に示す例において、ロボット1は、およそ座標(0,0)〜(1,0)の間、及びおよそ座標(5,0)〜(6,0)の間、音源Stの直接音を収録できない。ロボット1は、およそ座標(2,0)〜(5,0)の間、音源Stの直接音を収録できる。
また、図12において、座標が(0,0)である符号A21に示す位置は、ロボット1の移動開始位置である。座標が(4,0)である符号A22に示す位置は、ロボット1の移動終了位置である。行動計画により、ロボット1は、移動開始位置A21から、中間位置(座標(2,0))を経て、移動終了位置A22まで移動する。音源Stは、壁W21と壁W22との間の通路内の座標(6,0)に配置されている。なお、音源Stの位置は、固定されている。また、符号Sf1は、音源Stの鏡像であり、真の音源Stに対して壁W21を線対称とした位置である座標(6,1)に現れる。符号Sf2は、音源Stの鏡像であり、真の音源Stに対して壁W22を線対称とした位置である座標(6,−1)に現れる。
図12に示す例では、ロボット1は、移動開始位置A11〜移動終了位置A12において、音源Stの直接音を収録できるが、壁がガラスのため反射音も収録することになる。
また、図12において、移動開始位置A21から移動終了位置A22までロボット1を5回移動させて、距離の平均誤差を算出した。
図11及び図12に示したように、ロボット1は、壁(W11〜W13、W21、W22)それぞれから1[m]離れている。平均誤差は、法線方向のずれをフレーム毎に実験者が算出し、その平均を算出した。
図13において、符号g11〜g15が示す画像は、本実施形態による各試行回数における平均誤差を表し、符号g21〜g25が示す画像は、比較例による各試行回数における平均誤差を表す。また、図14において、符号g31〜g35が示す画像は、本実施形態による各試行回数における平均誤差を表し、符号g41〜g45が示す画像は、比較例による各試行回数における平均誤差を表す。ここで、比較例では、第2センサ40の測定結果によって自己位置の補正を行わず、Hector SLAM手法を用いて地図情報の作成及び自己位置推定を行った。
また、図14に示すように、通路2(図12)において、本実施形態の手法の5回の平均誤差の平均値は0.058[rad]であり、比較例の手法の5回の平均誤差の平均値は0.150[rad]であった。
図13及び図14に示した実験結果のように、本実施形態は、距離及び角度に関係なく、比較例と比べて50〜70[%]程度、平均誤差を軽減することができた。
図15において、ロボット1の移動距離が同じであっても音源定位したフレーム数が通路1と通路2とで異なっている理由は、実際にロボット1を移動開始位置から移動終了位置まで移動させた場合、制御によって移動速度に誤差が含まれているためである。
通路1において、反射物検出部80を用いないで音源定位処理を行った場合のフレーム正解率が84.1[%]、反射物検出部80を用いて音源定位処理を行った場合のフレーム正解率が92.5[%]であった。
また、通路2において、反射物検出部80を用いないで音源定位処理を行った場合のフレーム正解率が42.4[%]、反射物検出部80を用いて音源定位処理を行った場合のフレーム正解率が49.4[%]であった。
このように、通路1及び通路2において、反射音を含む音源定位において、本実施形態によればフレーム正解率を7〜8[%]向上させることができた。
図16は、本実施形態に係る二次元地図情報に撮像部60が撮像した3次元画像を投影した測定結果の一例を説明する図である。
図16において、符号Stは、音源を示し、符号m201が示す領域の画像は、二次元地図情報を示し、符号m202が示す領域の画像は、撮像部60が撮像した3次元画像を示す。また、符号m203が示す領域の画像は、地図情報が作成されていない領域の画像である。符号Rftで示す領域の画像は、ロボット1の移動した軌跡を示す画像である。
この構成によって、本実施形態のロボット1は、壁等によって音源からの音響信号を直接収録できない場合であっても残響音を用いて音源定位を行い、音源定位した音源が直接音か反射音かを判別する。この結果、本実施形態によれば、判別結果に応じてロボット1を行動させることができるので、ロボット1を音源の方向へスムーズに移動させることができる。
この構成によって、本実施形態のロボット1は、収録した音響信号の種類に応じてロボット1の移動速度を変えることができるので、ロボットを音源の方向へスムーズに移動させることができる。
例えば、第1地図情報生成部50は、撮像部60が撮像した画像を取得し、取得した画像を周知の手法を用いて画像認識を行うことで、壁等の障害物を判別して、図4等に示した格子地図情報を生成するようにしてもよい。
例えば、収音部10が集音した音響信号の特徴量を抽出し、音響信号の種類を推測する。そして、行動生成部110は、推測された音響信号が、例えば予め定められている記憶されている警告音などの場合、音源の方向へ移動させるのみではなく、アーム部等も制御して、所定の作業を行わせるような行動計画を生成するようにしてもよい。この場合、駆動部130は、左腕1003(含むハンド部)、右腕1004(含むハンド部)、及び頭部1005も駆動するようにしてもよい。
図17は、本実施形態に係る自律行動可能なロボット1Aの構成を示すブロック図である。図17に示すように、ロボット1Aは、収音部10、第1音源定位部20、第1センサ30(距離測定部)、第2センサ40(検出部)、第1地図情報生成部50(地図情報生成部)、撮像部60、第2音源定位部70(音源方向決定部)、反射物検出部80(音源方向決定部)、音源方向決定部90、コストマップ部100A、行動生成部110A、駆動制御部120、駆動部130、及び第2地図情報生成部140(地図情報生成部)を含んで構成される。なお、第1実施形態のロボット1(図1)と同じ機能を有する機能部については、同じ符号を用いて説明を省略する。
行動生成部110Aは、第1地図情報生成部50で生成された地図情報を主に用いる。そして、行動生成部110Aは、第1地図情報生成部50で生成された地図情報を用いて自己推定をしているときに、自己推定位置が大きく狂ってしまうキッドナップ問題の症状が発生した場合、第2地図情報生成部140から入力されたfフレーム目の自己位置情報pf wを用いて、地図情報や自己位置推定情報をリセットする。
第2行動生成部112Aは、自己位置情報pf wとコストマップの情報とに基づいて、障害物を回避するためのロボット1の第2の行動計画を生成する。
行動生成部110Aは、生成した第1の行動計画と第2の行動計画とを統合して行動計画を生成し、生成した行動計画を示す情報を駆動制御部120に出力する。
図19は、本実施形態に係るロボット1Aが行う処理のフローチャートである。なお、図10を用いて説明した第1実施形態と同じ処理については、同じ符号を用いて説明を省略する。
(ステップS101)三次元地図情報生成部142は、撮像部60から入力された画像を用いて、三次元のSLAM法を用いて、図18のように三次元の地図情報を生成し、生成した三次元地図情報をコストマップ部100Aに出力する。
(ステップS103)コストマップ部100Aは、入力された二次元地図情報と三次元地図情報とを統合して地図情報を生成し、生成した地図情報を行動生成部110Aに出力する。コストマップ部100Aは、処理をステップS10に進める。
(ステップS16)反射物検出部80は、F本の線分から形成される焦点が壁の内側であると判別し、定位された音が直接音であると判定する。反射物検出部80は、処理をステップS104に進める。
(ステップS17)反射物検出部80は、F本の線分から形成される焦点が壁の外側であると判別し、定位された音が反射音であると判定する。反射物検出部80は、処理をステップS104に進める。
(ステップS19)ロボット1は、ステップS19の処理を、第1実施形態の図10と同様に行う。
なお、ロボット1は、以上の処理を、例えば所定の時間毎に繰り返して行う。
また、本実施形態では、第1センサ30を用いて推定した自己位置情報を、第2センサ40が検出した第2検出情報を用いて補正するようにしたので、不整地であっても角度及び距離に関して、推測誤差を軽減することができる。
また本実施形態では、音源定位させた音響信号が障害物の向こう側にあるのか、ロボット側にあるのかを判別するため、上述したようにFフレーム分合計した2つの値の関係に基づいて判別するようにした。この結果、従来技術と比較して、反射音であるか直接音であるかを判別するための演算負荷を軽減することができる。
Claims (10)
- 音響信号を収録する収音部と、
前記収録された前記音響信号を用いて前記音響信号に対する音源の方向を推定する音源定位部と、
所定の範囲に対して距離に関する測定を行う距離測定部と、
前記距離の情報を用いて、二次元地図情報を生成かつ自律行動ロボットの自己位置を推定する地図情報生成部と、
前記二次元地図情報と、前記推定された自己位置の情報と、前記推定された音源方向とに基づいて、前記音響信号が反射物による反射音であるか前記音源からの直接音であるかを判別することで、前記音源の方向を推定し直す音源方向決定部と、
前記二次元地図情報と、前記音源方向決定部によって推定された音源の方向とに基づいて、前記音響信号が反射音であると判別した場合、第1の方向へ移動する行動計画を生成し、前記音響信号が直接音であると判別した場合、前記第1の方向とは異なる第2の方向へ移動する行動計画を生成する行動生成部と、
前記行動計画に応じて前記自律行動ロボットを制御する制御部と、
を備える自律行動ロボット。 - 前記第2の方向は、前記第1の方向より前記音源に向いた方向である請求項1に記載の自律行動ロボット。
- 前記自律行動ロボットの角速度と加速度とを検出する検出部、を備え、
前記地図情報生成部は、前記検出部が検出した検出結果を用いて、前記推定した自己位置を補正する請求項1または請求項2に記載の自律行動ロボット。 - 画像を撮像する撮像部と、
前記生成された二次元地図情報と、前記撮像された画像に基づく三次元画像を用いた三次元地図情報とを統合する統合部と、を備え、
前記行動生成部は、前記統合部によって統合された地図情報を用いて行動計画を生成する請求項1から請求項3のいずれか1項に記載の自律行動ロボット。 - 前記音源方向決定部は、
前記音源定位部によって定位された前記音源の方向と、前記地図情報生成部によって推定された自己位置を示す自己推定位置を用いて、フレーム毎に前記自己推定位置と障害物との関係を示す線分を算出し、任意のフレームにおける前記線分と前記障害物との交点を算出し、前記任意のフレームにおける前記線分上で前記算出した交点の近傍に2点を算出し、決定した前記2点からfフレーム(ただしfは2以上の整数)の前記線分までの距離の合計を算出し、前記算出した結果に基づいて、前記音響信号が直接音であるか反射音であるかを判別する請求項1から請求項4のいずれか1項に記載の自律行動ロボット。 - 前記音源方向決定部は、
前記音源定位部によって定位された前記音源の方向と、前記地図情報生成部によって推定された自己位置を示す情報を用いて、フレーム毎に前記自己推定位置と障害物との関係を示す前記線分Гf wを、次式を用いて算出する請求項5に記載の自律行動ロボット。
- 前記音源方向決定部は、
前記任意のフレームにおける前記線分上で前記算出した交点の近傍に、2点p+ 〜Wとp− 〜Wとを、次式を用いて算出する請求項5または請求項6に記載の自律行動ロボット。
- 前記音源方向決定部は、
算出した前記2点からfフレームの前記線分までの距離の合計d+ 〜Wとd− 〜Wとを、次式を用いて算出し、
- 前記第1の方向よりも前記第2の方向へ向かって進行しているときの方が移動速度の速い請求項1から請求項8のいずれか1項に記載の自律行動ロボット。
- 収音部が、音響信号を収録する収音手順と、
音源定位部が、前記収音手順によって収録された前記音響信号を用いて前記音響信号に対する音源の方向を推定する音源定位手順と、
距離測定部が、所定の範囲に対して距離に関する測定を行う距離測定手順と、
地図情報生成部が、前記距離測定手順によって測定された前記距離の情報を用いて、二次元地図情報を生成かつ自律行動ロボットの自己位置を推定する地図情報生成手順と、
音源方向決定部が、前記二次元地図情報と、前記推定された自己位置の情報と、前記推定された音源の方向とに基づいて、前記音響信号が反射物による反射音であるか前記音源からの直接音であるかを判別することで、前記音源の方向を推定し直す音源方向決定手順と、
行動生成部が、前記二次元地図情報と、前記音源方向決定部によって推定された音源の方向とに基づいて、前記音響信号が反射音であると判別した場合、第1の方向へ移動する行動計画を生成し、前記音響信号が直接音であると判別した場合、前記第1の方向とは異なる第2の方向へ移動する行動計画を生成する行動生成手順と、
制御部は、行動生成手順によって生成された前記行動計画に応じて前記自律行動ロボットを制御する制御手順と、
を含む自律行動ロボットの制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014173147A JP6221158B2 (ja) | 2014-08-27 | 2014-08-27 | 自律行動ロボット、及び自律行動ロボットの制御方法 |
US14/831,279 US9639084B2 (en) | 2014-08-27 | 2015-08-20 | Autonomous action robot, and control method for autonomous action robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014173147A JP6221158B2 (ja) | 2014-08-27 | 2014-08-27 | 自律行動ロボット、及び自律行動ロボットの制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016048464A JP2016048464A (ja) | 2016-04-07 |
JP6221158B2 true JP6221158B2 (ja) | 2017-11-01 |
Family
ID=55401449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014173147A Active JP6221158B2 (ja) | 2014-08-27 | 2014-08-27 | 自律行動ロボット、及び自律行動ロボットの制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9639084B2 (ja) |
JP (1) | JP6221158B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210045131A (ko) * | 2019-10-16 | 2021-04-26 | 엘지전자 주식회사 | 로봇 및 그의 제어 방법 |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6311197B2 (ja) * | 2014-02-13 | 2018-04-18 | 本田技研工業株式会社 | 音響処理装置、及び音響処理方法 |
JP6221158B2 (ja) * | 2014-08-27 | 2017-11-01 | 本田技研工業株式会社 | 自律行動ロボット、及び自律行動ロボットの制御方法 |
KR102314637B1 (ko) * | 2015-03-23 | 2021-10-18 | 엘지전자 주식회사 | 로봇 청소기 및 이를 구비하는 로봇 청소 시스템 |
CN106323289A (zh) * | 2016-08-23 | 2017-01-11 | 北京小米移动软件有限公司 | 平衡车的控制方法及装置 |
CN106406309A (zh) * | 2016-09-30 | 2017-02-15 | 广西大学 | 一种声音引导定位系统 |
CN106335062B (zh) * | 2016-11-11 | 2018-12-04 | 清研同创机器人(天津)有限公司 | 一种通用七轴冗余工业机器人作业规划方法 |
KR101966396B1 (ko) * | 2017-03-20 | 2019-04-17 | 서울대학교산학협력단 | 위치 판단 시스템, 방법 및 컴퓨터 판독 가능한 기록매체 |
JP6673276B2 (ja) * | 2017-03-28 | 2020-03-25 | カシオ計算機株式会社 | 音声検出装置、音声検出方法、及びプログラム |
JP6885160B2 (ja) | 2017-03-31 | 2021-06-09 | カシオ計算機株式会社 | 移動装置、移動装置の制御方法及びプログラム |
GB2565315B (en) * | 2017-08-09 | 2022-05-04 | Emotech Ltd | Robots, methods, computer programs, computer-readable media, arrays of microphones and controllers |
JP7147142B2 (ja) * | 2017-09-15 | 2022-10-05 | ソニーグループ株式会社 | 制御装置、および制御方法、プログラム、並びに移動体 |
CN107785029B (zh) * | 2017-10-23 | 2021-01-29 | 科大讯飞股份有限公司 | 目标语音检测方法及装置 |
CN109990889B (zh) * | 2017-12-29 | 2021-06-29 | 深圳市优必选科技有限公司 | 一种录音机器人的控制方法及装置 |
KR102115222B1 (ko) | 2018-01-24 | 2020-05-27 | 삼성전자주식회사 | 사운드를 제어하는 전자 장치 및 그 동작 방법 |
CN108885459B (zh) * | 2018-06-08 | 2021-02-19 | 珊口(深圳)智能科技有限公司 | 导航方法、导航系统、移动控制系统及移动机器人 |
US11216655B2 (en) | 2019-01-10 | 2022-01-04 | Samsung Electronics Co., Ltd. | Electronic device and controlling method thereof |
CN111860058A (zh) * | 2019-04-29 | 2020-10-30 | 杭州萤石软件有限公司 | 一种移动机器人室内功能区域的定位方法及系统 |
KR102280803B1 (ko) * | 2019-07-02 | 2021-07-21 | 엘지전자 주식회사 | 로봇 및 그의 구동 방법 |
KR20210029518A (ko) * | 2019-09-06 | 2021-03-16 | 삼성전자주식회사 | 멀티 센서 기반의 무인 비행체 및 그 제어 방법 |
DE102019217160A1 (de) * | 2019-11-07 | 2021-05-12 | Robert Bosch Gmbh | Computer-implementiertes Verfahren zum Erstellen einer Umgebungskarte für das Betreiben eines mobilen Agenten |
JP7250281B2 (ja) * | 2019-12-12 | 2023-04-03 | 本田技研工業株式会社 | 三次元構造復元装置、三次元構造復元方法、およびプログラム |
CN111007522A (zh) * | 2019-12-16 | 2020-04-14 | 深圳市三宝创新智能有限公司 | 一种移动机器人的位置确定系统 |
CN111638523A (zh) * | 2020-05-08 | 2020-09-08 | 哈尔滨工程大学 | 一种水下机器人对失踪者的搜寻和定位系统及方法 |
JP2023159898A (ja) * | 2020-09-15 | 2023-11-02 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
KR102218120B1 (ko) * | 2020-09-21 | 2021-02-22 | 주식회사 폴라리스쓰리디 | 자율 주행 모듈, 이를 포함하는 이동 로봇 및 이의 위치 추정 방법 |
CN112444247B (zh) * | 2020-11-19 | 2023-09-05 | 贵州北斗空间信息技术有限公司 | 一种基于矩阵变换的室内定位方法及系统 |
CN113607154B (zh) * | 2021-06-29 | 2024-05-24 | 广州大学 | 一种室内机器人二维自主定位方法、系统、设备及介质 |
US11854255B2 (en) * | 2021-07-27 | 2023-12-26 | Ubkang (Qingdao) Technology Co., Ltd. | Human-object scene recognition method, device and computer-readable storage medium |
CN116027341B (zh) * | 2021-10-25 | 2024-05-03 | 珠海一微半导体股份有限公司 | 基于激光观测方向的栅格和体素定位方法、机器人及芯片 |
WO2024034335A1 (ja) * | 2022-08-09 | 2024-02-15 | パナソニックIpマネジメント株式会社 | 自己位置推定システム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6459955B1 (en) * | 1999-11-18 | 2002-10-01 | The Procter & Gamble Company | Home cleaning robot |
JP4689107B2 (ja) | 2001-08-22 | 2011-05-25 | 本田技研工業株式会社 | 自律行動ロボット |
EP1439039A4 (en) * | 2001-10-22 | 2007-08-08 | Sony Corp | ROBOT DEVICE AND CONTROL PROCEDURE THEREFOR |
JP3627058B2 (ja) * | 2002-03-01 | 2005-03-09 | 独立行政法人科学技術振興機構 | ロボット視聴覚システム |
JP4079792B2 (ja) * | 2003-02-06 | 2008-04-23 | 松下電器産業株式会社 | ロボットの教示方法と教示機能付きロボット |
KR100953902B1 (ko) * | 2003-12-12 | 2010-04-22 | 닛본 덴끼 가부시끼가이샤 | 정보 처리 시스템, 정보 처리 방법, 정보 처리용 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체, 단말 및 서버 |
KR100754385B1 (ko) * | 2004-09-30 | 2007-08-31 | 삼성전자주식회사 | 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법 |
US20060111841A1 (en) * | 2004-11-19 | 2006-05-25 | Jiun-Yuan Tseng | Method and apparatus for obstacle avoidance with camera vision |
US20140012787A1 (en) * | 2009-12-18 | 2014-01-09 | Qin Zhang | System and method for information processing and motor control |
JP4872871B2 (ja) * | 2007-09-27 | 2012-02-08 | ソニー株式会社 | 音源方向検出装置、音源方向検出方法及び音源方向検出カメラ |
US7885145B2 (en) * | 2007-10-26 | 2011-02-08 | Samsung Electronics Co. Ltd. | System and method for selection of an object of interest during physical browsing by finger pointing and snapping |
WO2009090807A1 (ja) * | 2008-01-16 | 2009-07-23 | Nec Corporation | 移動装置、移動装置の移動方法、及び移動装置の移動制御プログラム |
JP5685177B2 (ja) * | 2011-12-12 | 2015-03-18 | 本田技研工業株式会社 | 情報伝達システム |
JP5952692B2 (ja) * | 2012-09-13 | 2016-07-13 | 本田技研工業株式会社 | 音源方向推定装置、音響処理システム、音源方向推定方法、及び音源方向推定プログラム |
JP6240995B2 (ja) * | 2013-01-15 | 2017-12-06 | 株式会社国際電気通信基礎技術研究所 | 移動体、音響源マップ作成システムおよび音響源マップ作成方法 |
ES2613138T3 (es) * | 2013-08-23 | 2017-05-22 | Lg Electronics Inc. | Robot limpiador y método para controlar el mismo |
JP6330200B2 (ja) * | 2013-10-22 | 2018-05-30 | 株式会社国際電気通信基礎技術研究所 | 音源位置推定装置、移動体および移動体の制御方法 |
JP6289936B2 (ja) * | 2014-02-26 | 2018-03-07 | 株式会社東芝 | 音源方向推定装置、音源方向推定方法およびプログラム |
US9302393B1 (en) * | 2014-04-15 | 2016-04-05 | Alan Rosen | Intelligent auditory humanoid robot and computerized verbalization system programmed to perform auditory and verbal artificial intelligence processes |
JP6221158B2 (ja) * | 2014-08-27 | 2017-11-01 | 本田技研工業株式会社 | 自律行動ロボット、及び自律行動ロボットの制御方法 |
-
2014
- 2014-08-27 JP JP2014173147A patent/JP6221158B2/ja active Active
-
2015
- 2015-08-20 US US14/831,279 patent/US9639084B2/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210045131A (ko) * | 2019-10-16 | 2021-04-26 | 엘지전자 주식회사 | 로봇 및 그의 제어 방법 |
KR102323946B1 (ko) * | 2019-10-16 | 2021-11-08 | 엘지전자 주식회사 | 로봇 및 그의 제어 방법 |
US11724397B2 (en) | 2019-10-16 | 2023-08-15 | Lg Electronics Inc. | Robot and method for controlling the same |
Also Published As
Publication number | Publication date |
---|---|
US9639084B2 (en) | 2017-05-02 |
US20160059418A1 (en) | 2016-03-03 |
JP2016048464A (ja) | 2016-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6221158B2 (ja) | 自律行動ロボット、及び自律行動ロボットの制御方法 | |
EP3321888B1 (en) | Projected image generation method and device, and method for mapping image pixels and depth values | |
US11320536B2 (en) | Imaging device and monitoring device | |
US20100148977A1 (en) | Localization and detection system applying sensors and method thereof | |
JP4871160B2 (ja) | ロボットおよびその制御方法 | |
JP4675381B2 (ja) | 音源特性推定装置 | |
JP6330200B2 (ja) | 音源位置推定装置、移動体および移動体の制御方法 | |
CN105979442B (zh) | 噪声抑制方法、装置和可移动设备 | |
JP2006524329A (ja) | 物体の位置を推定するシステム、装置及び方法 | |
Schillebeeckx et al. | Biomimetic sonar: Binaural 3D localization using artificial bat pinnae | |
JP6467736B2 (ja) | 音源位置推定装置、音源位置推定方法および音源位置推定プログラム | |
CN113568435B (zh) | 一种基于无人机自主飞行态势感知趋势的分析方法与系统 | |
US20100164807A1 (en) | System and method for estimating state of carrier | |
WO2008091714A1 (en) | Method and apparatus for localizing and mapping the position of a set of points on a digital model | |
US10094911B2 (en) | Method for tracking a target acoustic source | |
US12015908B2 (en) | Method and apparatus for recognizing sound source | |
KR20150125232A (ko) | 이동체의 위치감지장치, 이동체의 위치감지방법, 조명장치, 공조장치, 보안장치, 및 주차장관리장치 | |
KR102226405B1 (ko) | 음원 인식 방법 및 장치, 그리고 컴퓨터 판독가능 저장매체 | |
JP2015081824A (ja) | 放射音強度マップ作成システム、移動体および放射音強度マップ作成方法 | |
Even et al. | Probabilistic 3-D mapping of sound-emitting structures based on acoustic ray casting | |
Deshpande et al. | A next generation mobile robot with multi-mode sense of 3D perception | |
US11442463B1 (en) | System to determine stationary features by autonomous mobile device | |
JP7259878B2 (ja) | 収音装置、収音プログラム、及び収音方法 | |
Kallakuri et al. | Using sound reflections to detect moving entities out of the field of view | |
JP2021047744A (ja) | 情報処理装置、情報処理方法及び情報処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170823 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6221158 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |