JP2003291084A - Robot, its visual field control device and controlling method - Google Patents
Robot, its visual field control device and controlling methodInfo
- Publication number
- JP2003291084A JP2003291084A JP2002093093A JP2002093093A JP2003291084A JP 2003291084 A JP2003291084 A JP 2003291084A JP 2002093093 A JP2002093093 A JP 2002093093A JP 2002093093 A JP2002093093 A JP 2002093093A JP 2003291084 A JP2003291084 A JP 2003291084A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- robot
- visual field
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Manipulator (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は視覚機能を備え、人
間と協調して行動するようなロボット及びその視野制御
装置及び方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot having a visual function and acting in cooperation with a human, and a visual field control apparatus and method thereof.
【0002】[0002]
【従来の技術】社会生活を営む人間にとって相手が誰で
あるかということは不可欠な情報である。このため、人
間と協調して働くロボット等の機械にも視覚機能を設け
る必要性が認識されてきた。視覚機能のなかでも、とり
わけ顔画像認識技術は優れた個人識別機能として近年急
速に進歩しており、これをロボット等の機械に適用する
試みがなされている。2. Description of the Related Art Who is a partner is indispensable information for a person who is engaged in social life. Therefore, it has been recognized that it is necessary to provide a visual function to machines such as robots that work in cooperation with humans. Among the visual functions, face image recognition technology has been rapidly advancing in recent years as an excellent personal identification function, and attempts have been made to apply it to machines such as robots.
【0003】一般的な視覚機能を備えたロボットの従来
例としては、例えば愛玩用の犬型ロボットへのCCDカ
メラ等の搭載例がある。このロボットは、音声を発した
り特殊な動作をするなどして人間の注意を引き、その人
間を被写体として捉えて画像を撮影するというものであ
り、撮影画像を外部出力することもできる。たとえば、
着脱可能な小型メモリカードに撮影画像を記録したり、
通信機能を利用して携帯電話やパーソナルコンピュータ
(PC)等の別の機器に撮影画像を転送することができ
る。As a conventional example of a robot having a general visual function, for example, there is an example of mounting a CCD camera or the like on a pet dog robot. This robot draws a human's attention by uttering a voice or performing a special action, and captures the image by capturing the human as a subject, and the captured image can be output to the outside. For example,
You can record captured images on a removable small memory card,
The communication function can be used to transfer a captured image to another device such as a mobile phone or a personal computer (PC).
【0004】このような視覚機能を備えたロボットにあ
っては、ロボットならではの次のような問題点がある。
すなわち、小型で愛玩用ロボットなどが、いわゆる「盗
撮」に悪用されるといった公序良俗上の問題である。愛
玩用の犬型ロボットなどは公共場所等に持ち込まれる場
合が多いと想定され、例えば公園で散歩させているとき
に、その所有者らによって盗撮に悪用されるかもしれな
い。The robot having such a visual function has the following problems unique to the robot.
In other words, this is a public order and moral problem that small pet robots are misused for so-called “voyeurism”. It is assumed that pet dogs and the like for pets are often brought into public places and the like, and they may be abused for voyeur photography by their owners, for example, while taking a walk in a park.
【0005】人間が地面にはりついて上を見上げていた
ら、それはまさしく何かを覗いている様であるから、女
性は警戒感を抱くであろう。しかし、犬型など愛玩用の
ロボットがそのようにしている場合、外形が犬型である
ことなどから、生物の愛玩犬に対してそうであるのと同
様に警戒感が生じにくい。したがって、例えば女性の足
下に接近し、ロボットが備えるカメラによってスカート
下が覗き見されるといった不適切な使用が故意又は過失
によらず行われる可能性がある。この場合、特に問題と
なるのは、ロボットにて撮影された画像がその外部に取
り出されることである。If a person clings to the ground and looks up, the woman will be wary because it is looking into something. However, when a pet robot such as a dog type does so, since the outer shape is a dog type, it is unlikely that a vigilant feeling is generated as it is for pet dogs of living things. Therefore, there is a possibility that improper use, such as approaching the feet of a woman and peeping under the skirt by the camera of the robot, will be made intentionally or by mistake. In this case, a particular problem is that the image taken by the robot is taken out.
【0006】[0006]
【発明が解決しようとする課題】本発明はかかる事情を
考慮してなされたものであり、ロボットに搭載されたカ
メラによる視野を適切に制御でき、プライバシーを保護
しつつ必要なコミュニケーション情報を提供可能なロボ
ット及びその視野制御装置及び方法を提供することを目
的とする。SUMMARY OF THE INVENTION The present invention has been made in consideration of such circumstances, and it is possible to appropriately control the field of view by a camera mounted on a robot and provide necessary communication information while protecting privacy. PROBLEM TO BE SOLVED: To provide a robot and a visual field control device and method thereof.
【0007】[0007]
【課題を解決するための手段】上記課題を解決し目的を
達成するために本発明は次のように構成されている。In order to solve the above problems and achieve the object, the present invention is constructed as follows.
【0008】本発明に係るロボットは、画像を撮像する
カメラと、前記カメラの視線方向と所定の基準方向とが
なす視線角度を検出する検出手段と、前記検出手段によ
り検出された視線角度が一定角度以上である場合に、こ
のとき前記カメラにより撮像された画像を画像処理する
ことに基づいてロボットの視野を制御する視野制御手段
と、を具備することを特徴とする。A robot according to the present invention has a camera for picking up an image, a detection means for detecting a line-of-sight angle formed by the line-of-sight direction of the camera and a predetermined reference direction, and a line-of-sight angle detected by the detection means is constant. And a field-of-view control means for controlling the field of view of the robot based on the image processing of the image captured by the camera at this time when the angle is greater than or equal to the angle.
【0009】ここで、前記視野制御手段が、前記カメラ
により撮像された画像の解像度を低下させる画像処理手
段を具備する構成としてもよい。この場合、画像の解像
度を低下させる画像処理は、(1)全体の解像度を落と
す、又は(2)被写体の輪郭情報を抽出し、これを出力
画像とする、又は(3)予め用意された情報を出力する
といった処理を含む。Here, the visual field control means may be provided with an image processing means for reducing the resolution of the image picked up by the camera. In this case, the image processing for reducing the resolution of the image includes (1) reducing the overall resolution, or (2) extracting contour information of the subject and using this as an output image, or (3) information prepared in advance. Is output.
【0010】また、前記カメラにより撮像された画像か
ら人物の顔を認識する顔画像認識手段を具備し、前記視
野制御手段が、前記顔画像認識手段により認識された顔
及びその周辺部分のみを前記撮像画像から抽出して出力
画像とする構成としてもよい。Further, it is provided with face image recognition means for recognizing a person's face from the image picked up by the camera, and the visual field control means for the face recognized by the face image recognition means and only the peripheral portion thereof. A configuration may be used in which the output image is extracted from the captured image.
【0011】また、前記カメラにより撮像された画像を
ロボットから外部に出力する出力手段と、前記検出手段
により検出された視線角度が一定角度以上である場合
に、このとき前記カメラにより撮像された画像が前記出
力手段から出力されることを禁止する出力制御手段と、
を具備する構成としてもよい。Further, when the output means for outputting the image captured by the camera from the robot to the outside and the line-of-sight angle detected by the detection means are equal to or more than a certain angle, the image captured by the camera at this time Output control means for prohibiting output from the output means,
May be provided.
【0012】本発明に係るロボットの視野制御装置は、
画像を撮像するカメラを備え、該カメラの視線方向を変
更可能な視覚機能付きロボットの視野を制御する視野制
御装置であって、前記カメラの視線方向と所定の基準方
向とがなす視線角度を検出する検出手段と、前記検出手
段により検出された視線角度が一定角度以上である場合
に、このとき前記カメラにより撮像された画像を画像処
理することに基づいて前記ロボットの視野を制御する視
野制御手段と、を具備することを特徴とする。A view control device for a robot according to the present invention is
A visual field control device, comprising a camera for capturing an image, for controlling the visual field of a robot with a visual function capable of changing the visual line direction of the camera, wherein the visual line angle formed by the visual line direction of the camera and a predetermined reference direction is detected. And a visual field control means for controlling the visual field of the robot based on image processing of the image captured by the camera at this time when the line-of-sight angle detected by the detecting means is equal to or greater than a certain angle. And are provided.
【0013】また、本発明に係るロボットの視野制御方
法は、画像を撮像するカメラを備え、該カメラの視線方
向を変更可能な視覚機能付きロボットの視野を制御する
視野制御方法であって、前記カメラの視線方向と所定の
基準方向とがなす視線角度を検出するステップと、前記
ステップにおいて検出された視線角度が一定角度以上で
ある場合に、このとき前記カメラにより撮像された画像
を画像処理することに基づいて前記ロボットの視野を制
御する視野制御ステップと、を具備することを特徴とす
る。Further, a robot visual field control method according to the present invention is a visual field control method which comprises a camera for picking up an image, and which controls the visual field of a robot with a visual function capable of changing the line-of-sight direction of the camera. A step of detecting a line-of-sight angle formed by the line-of-sight direction of the camera and a predetermined reference direction, and when the line-of-sight angle detected in the step is equal to or greater than a certain angle, the image captured by the camera at this time is image-processed. Based on this, a visual field control step of controlling the visual field of the robot is provided.
【0014】[0014]
【発明の実施の形態】以下、図面を参照しながら本発明
の実施形態を説明する。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.
【0015】図1は本発明の一実施形態に係るロボット
視野制御システムの概略構成を示すブロック図、図2は
ロボット視野制御システムが適用された視覚機能を搭載
するロボットの一例を示す正面図(a)及び側面図
(b)である。図2に示すロボットは二足歩行型のもの
であるが、これに限定されず種々のロボット、例えば四
足歩行型、車輪駆動型、あるいは据え置き型で移動能力
を備えていないものなど、視線方向を移動可能な視覚機
能を備えているものであれば本発明に係るロボット視野
制御システムは適用可能である。FIG. 1 is a block diagram showing a schematic configuration of a robot visual field control system according to an embodiment of the present invention, and FIG. 2 is a front view showing an example of a robot equipped with a visual function to which the robot visual field control system is applied ( It is a) and a side view (b). The robot shown in FIG. 2 is of a bipedal type, but is not limited to this, and various robots such as a quadrupedal type, a wheel-driven type, or a stationary type that does not have a moving ability can be used in the direction of the line of sight. The robot visual field control system according to the present invention can be applied as long as it has a visual function capable of moving.
【0016】本実施形態に係るロボット視野制御システ
ムは、カメラ2及びセンサ6に接続されており、画像認
識部4、画像処理部8、カメラ角度判定部10、画像圧
縮部12、判定部14、出力制御部16、通信部17、
補助記憶装置19、小型メモリカード20から構成され
ている。本実施形態に係るロボットは、視覚機能を担う
カメラ2によって外界の画像(例えば人間等の被写体)
を静止画像又は動画像として撮影することができる。そ
して本実施形態に係るロボット視野制御システムは、こ
のようなカメラ2による視野を画像処理によって適切に
制御し、プライバシーを保護しつつ必要なコミュニケー
ション情報を提供するというものである。The robot visual field control system according to the present embodiment is connected to the camera 2 and the sensor 6, and the image recognition unit 4, the image processing unit 8, the camera angle determination unit 10, the image compression unit 12, the determination unit 14, Output control unit 16, communication unit 17,
It is composed of an auxiliary storage device 19 and a small memory card 20. The robot according to the present embodiment uses an image of the outside world (for example, a subject such as a human) by the camera 2 having a visual function.
Can be captured as a still image or a moving image. The robot view control system according to the present embodiment appropriately controls the view of the camera 2 by image processing and provides necessary communication information while protecting privacy.
【0017】本実施形態の視野制御システムにおいて、
本発明に直接的に対応する構成要素はカメラ角度判定部
10、画像処理部8、出力制御部16であり、その他の
構成要素は本発明を実施する上で適宜省略され得る。例
えば顔画像認識を行わない実施形態では、画像認識部4
や判定部14は必ずしも設けらる必要はない。In the visual field control system of this embodiment,
The components that directly correspond to the present invention are the camera angle determination unit 10, the image processing unit 8, and the output control unit 16, and the other components can be appropriately omitted when implementing the present invention. For example, in the embodiment in which face image recognition is not performed, the image recognition unit 4
The determination unit 14 does not necessarily have to be provided.
【0018】カメラ2及びセンサ6はロボットの基本構
成部として設けられる。カメラ2は例えばCCDカメラ
及びレンズ光学系等からなり、図2に示すようにロボッ
ト頭部1において外界を良く見渡せるような顔の位置に
配置される。同図に示すようにこのロボットは大別して
頭部1、本体部3、脚部5からなる。The camera 2 and the sensor 6 are provided as a basic constituent part of the robot. The camera 2 is composed of, for example, a CCD camera, a lens optical system, and the like, and is arranged at a position of the face of the robot head 1 that allows a good view of the outside world as shown in FIG. As shown in the figure, this robot is roughly divided into a head 1, a main body 3, and legs 5.
【0019】頭部1は本体部1に対して駆動機構部を介
して接続されていて上下又は左右に傾斜可能であり、ち
ょうど人間が頭を上下させたり左右を向いたりするよう
な動きをする。また本体部3は、脚部5に対して駆動機
構部を介して接続されていて前方又は後方に傾斜可能で
あり、ちょうど人間が腰を曲げるような動きをする。ま
た脚部5は人間の膝や足首の関節に相当する位置に駆動
機構部を有しており、人間が膝を屈伸させたりするよう
な動きをする。The head 1 is connected to the main body 1 through a drive mechanism and can be tilted up and down or left and right, so that the head 1 moves up and down or turns right and left. . Further, the main body 3 is connected to the leg 5 via a drive mechanism and can be tilted forward or backward, so that the main body 3 makes a movement just like a person bending his or her waist. Further, the leg portion 5 has a drive mechanism portion at a position corresponding to a joint of a human knee or ankle, and makes a movement such that the human bends and extends the knee.
【0020】図1に示すセンサ6は、このようなロボッ
トの各可動部分にそれぞれ設けられるロータリーエンコ
ーダ等の角度センサからなり、頭部1と本体部3との間
の駆動機構部に設けられる。このセンサ6は、本体部3
の主軸(長軸)に対して頭部1の主軸がなす角度θ4を
検出するセンサ60、脚部5の太股部分の主軸に対して
本体部3がなす角度θ3を検出するセンサ61、脚部5
の脛部分の主軸に対して太股部分の主軸がなす角度θ2
を検出するセンサ62、鉛直方向と脚部5の脛部分の主
軸がなす角度θ1を検出するセンサ63から構成されて
いる。これらのセンサからは、検出された角度に応じた
信号が出力され、図1に示すカメラ角度判定部10に送
られる。各駆動機構部により可動部分が駆動し、自律的
または外部からのコントロールによってロボットは歩行
や移動することができる。また、正面を向いたり、上方
を見上げたりといった様々な姿勢(体位)をとることが
できる。ロボットの姿勢変化に伴って、カメラ2の視線
方向も変わり、視野が変化する。The sensor 6 shown in FIG. 1 comprises an angle sensor such as a rotary encoder provided in each movable part of such a robot, and is provided in a drive mechanism portion between the head 1 and the main body 3. This sensor 6 has a main body 3
60 for detecting an angle θ4 formed by the main axis of the head 1 with respect to the main axis (long axis) of the head, a sensor 61 for detecting an angle θ3 formed by the main body 3 with respect to the main axis of the thigh of the leg 5, and a leg 5
Angle θ2 formed by the thigh main shaft with respect to the shin main shaft
And a sensor 63 for detecting the angle θ1 formed by the vertical direction and the main axis of the shin of the leg 5. Signals corresponding to the detected angles are output from these sensors and sent to the camera angle determination unit 10 shown in FIG. A movable part is driven by each drive mechanism part, and the robot can walk or move autonomously or under external control. Further, it is possible to take various postures (positions) such as facing the front and looking up. Along with the posture change of the robot, the line-of-sight direction of the camera 2 also changes, and the field of view changes.
【0021】図1に示す構成において、画像認識部4
は、カメラ2により得られた撮影画像から顔画像を認識
する部分である。顔画像認識については公知技術を利用
できる。例えばカメラ2から得られた1枚の静止画像を
用いるものや、異なる視点の複数画像を用いて認識を行
うものである。多視点画像を用いた顔画像認識処理で
は、まずカメラ2から得られた画像中から顔領域を抽出
する。次に、分離度フィルタとパターン認識の組み合わ
せにより両瞳(ひとみ)、両鼻孔を検出する。さらに、
検出されたこれらの特徴点を基準に正規化された顔パタ
ーンを抽出する。この一連の処理を視点移動しながら繰
り返し行い、正規化パターンが抽出されるたびに入力部
分空間を更新する。入力部分空間と辞書部分空間を制約
部分空間へ射影し、射影された二つの部分空間のなす正
準角を類似度とする。全登録人物に対してこのような類
似度算出を行い、得られた類似度のなかでもっとも類似
度が高い人物を本人と認識する。In the configuration shown in FIG. 1, the image recognition section 4
Is a part for recognizing a face image from a captured image obtained by the camera 2. Known techniques can be used for face image recognition. For example, the recognition is performed using one still image obtained from the camera 2 or using a plurality of images from different viewpoints. In the face image recognition processing using a multi-viewpoint image, first, a face area is extracted from the image obtained from the camera 2. Next, both pupils (pupils) and both nostrils are detected by the combination of the separability filter and pattern recognition. further,
A face pattern normalized based on these detected feature points is extracted. This series of processes is repeated while moving the viewpoint, and the input subspace is updated every time the normalized pattern is extracted. The input subspace and the dictionary subspace are projected onto the restricted subspace, and the canonical angle formed by the two projected subspaces is taken as the similarity. Such similarity calculation is performed for all registered persons, and the person having the highest similarity among the obtained similarities is recognized as the person.
【0022】このような画像認識部4は、撮影画像中に
顔画像が含まれているか否かを示すフラグ、撮影画像中
のどの領域に顔部分が存在するかを示す位置情報、およ
び顔画像の特徴量(顔インデックス)を出力する。The image recognition unit 4 as described above has a flag indicating whether or not a face image is included in the photographed image, position information indicating in which region of the photographed image the face portion exists, and the face image. The feature amount (face index) of is output.
【0023】図1に示す構成において、画像処理部8は
カメラ角度判定部10から出力されたカメラ2の視線角
度(θcamera)について角度条件の判定処理を行い、そ
の結果に応じてカメラ2から得られた撮影画像に対しロ
ボット視野制御に係る画像処理を施す部分である。この
画像処理部8から出力された画像は画像圧縮部12によ
り圧縮処理が施された後、出力制御部16に送られる。
画像処理部8における画像処理の内容は本発明の特徴に
係る事項であり、後に詳細に説明する。In the configuration shown in FIG. 1, the image processing unit 8 performs angle condition determination processing on the line-of-sight angle (θcamera) of the camera 2 output from the camera angle determination unit 10, and obtains from the camera 2 according to the result. This is a part that performs image processing related to robot view control on the captured image. The image output from the image processing unit 8 is subjected to compression processing by the image compression unit 12, and then sent to the output control unit 16.
The contents of the image processing in the image processing unit 8 are matters relating to the features of the present invention, and will be described in detail later.
【0024】判定部14は、家庭内利用におけるいわゆ
る番犬ロボットやロボット監視システムへの応用例に係
る構成要素であり、画像認識部4によって認識された被
写体の顔画像の特徴量に基づき、個人情報データベース
を参照して人識別を行う。個人情報データベースには、
事前に登録されたロボット所有者の家族や知人の個人情
報として、これらの人々の顔画像認識結果(特徴量)等
が記録されている。このような判定部14は、個人情報
データベースの参照結果に基づいて不審人物等を特定
し、その撮影画像情報(顔画像の特徴量を含む)を外部
に転送し、警報を発するよう出力制御部16に指示を与
える。また、いわゆる留守番ロボットへの応用例として
は、子供が外出から帰宅した際に、留守番ロボットが子
供をカメラで撮影して顔認識し、子供が帰宅した旨を外
出している母親に通知したり、その子供の顔画像を転送
したりすることなどが挙げられる。The determination unit 14 is a constituent element related to an application example to a so-called guard dog robot or a robot monitoring system in home use, and personal information based on the feature amount of the face image of the subject recognized by the image recognition unit 4. The person is identified by referring to the database. In the personal information database,
Face image recognition results (feature values) of these people are recorded as personal information of the family and acquaintances of the robot owners registered in advance. Such a determination unit 14 identifies a suspicious person or the like based on the reference result of the personal information database, transfers the captured image information (including the feature amount of the face image) to the outside, and outputs the alarm so as to issue an alarm. Give 16 instructions. In addition, as an example of application to so-called answering machine, when a child comes home from home, the answering robot takes a picture of the child with a camera and recognizes the face, and notifies the mother that the child is home to the fact that the child is home. , Transferring the child's face image, etc.
【0025】出力制御部16は、画像圧縮部12から出
力された圧縮処理後の撮影画像を通信部17や補助記憶
装置19、小型メモリカード20等へ出力する際の制御
を行う。また出力制御部16は、カメラ角度判定結果や
画像処理部8による画像処理の結果等に基づき、ロボッ
ト視野制御の一環として、特定の撮影画像が外部に出力
されないよう、通信部17、補助記憶装置19、小型メ
モリカード20等への出力(書き込み)動作を禁止する
ような制御を行うこともできる。The output control unit 16 controls the output of the compressed captured image output from the image compression unit 12 to the communication unit 17, the auxiliary storage device 19, the small memory card 20, and the like. The output control unit 16 also uses the communication unit 17 and the auxiliary storage device so that a specific captured image is not output to the outside as a part of the robot view control based on the camera angle determination result, the image processing result by the image processing unit 8, and the like. It is also possible to perform control such that the output (writing) operation to the small memory card 20 or the like is prohibited.
【0026】通信部17は、例えばブルートゥース
(R)やIEEE802.11、同802.11a、同
802.11b(及びそれ以降)等の無線通信規格に準
拠した通信機能部であり、出力制御部16から与えられ
た撮影画像等を無線通信によって外部機器に送信するた
めの部分である。外部機器は、LAN接続されたホーム
サーバやネット家電機器、セキュリティサーバ等に相当
する。なお、無線に加え、イーサネット(R)等による
有線通信機能を備えていても勿論良い。The communication unit 17 is a communication function unit conforming to a wireless communication standard such as Bluetooth (R), IEEE 802.11, 802.11a, 802.11b (and later), and the output control unit 16 This is a part for transmitting a captured image or the like given by the wireless communication to an external device. The external device corresponds to a home server connected to the LAN, a home electric appliance, a security server, or the like. It should be noted that a wired communication function such as Ethernet (R) may be provided in addition to the wireless communication.
【0027】補助記憶装置19は例えばハードディスク
装置等の大容量記憶装置からなる。また小型メモリカー
ド20は、スロットを介してロボットから着脱可能な記
録媒体からなる。The auxiliary storage device 19 comprises a mass storage device such as a hard disk device. The small memory card 20 is a recording medium that can be attached to and detached from the robot via the slot.
【0028】以上のように構成された本実施形態につい
て、カメラ角度検出に応じたロボット視野制御の手順を
図3のフローチャートを参照して説明する。With respect to the present embodiment configured as described above, the procedure of the robot visual field control according to the detection of the camera angle will be described with reference to the flowchart of FIG.
【0029】ロボット2のカメラ2が起動され撮影動作
が開始されると、先ずステップS1においてカメラ2の
角度が所定の角度以上であるか否か、すなわちカメラ2
の視線が異常に上向いているか否かを判定する。なお、
角度条件については、ロボットの外形寸法やカメラ2の
配置位置、ロボットが取り得る姿勢等に応じて適宜定め
れば良い。When the camera 2 of the robot 2 is activated and the photographing operation is started, first, at step S1, it is determined whether or not the angle of the camera 2 is a predetermined angle or more, that is, the camera 2
It is determined whether the line of sight of the person is abnormally upward. In addition,
The angle condition may be appropriately determined according to the outer dimensions of the robot, the arrangement position of the camera 2, the posture that the robot can take, and the like.
【0030】カメラ角度判定部10によるカメラ2の視
線角度(θcamera)の検出は次のようにして行われる。
図4は、図2に示した本実施形態のロボットが上方を見
上げている場合を示す図である。この例ではロボットの
接地面は水平である。カメラ2の視線角度(θcamera)
は、水平を基準方向とするとき、この基準方向とカメラ
2の視線方向とがなす角度とし、センサ60、61、6
2、および63からそれぞれ出力された角度信号θ4、
θ3、θ2、およびθ1を利用して、次のように幾何学
的に求めることができる。
θcamera = F(θ1,θ2,θ3,θ4)
通常、ロボットは運動制御のために傾斜計を備えてい
る。この場合を図5に示す。この例ではロボットの接地
面は斜面である。18は傾斜計であって、ロボットにお
いて最も質量が大きい本体部3に取り付けられている。
この傾斜計18は本体部3の主軸と鉛直方向のなす角度
θbを検出する。ここで、カメラ2の視線角度(θcame
ra)をセンサ60から出力された角度信号θ4と、傾斜
計18から出力されたθbを利用して次のように求める
ことができる。
θcamera = F(θb,θ4)
また、傾斜計18のみならずジャイロセンサーを併用す
ることでダイナミックレンジを広げているロボットもあ
り、カメラ2の視線角度(θcamera)をこれらの信号の
両者を利用して求めてもよい。The detection of the line-of-sight angle (θcamera) of the camera 2 by the camera angle determination unit 10 is performed as follows.
FIG. 4 is a diagram showing a case where the robot of this embodiment shown in FIG. 2 is looking up. In this example, the ground plane of the robot is horizontal. Line-of-sight angle of camera 2 (θcamera)
Is an angle formed by the reference direction and the line-of-sight direction of the camera 2 when the horizontal is the reference direction, and the sensors 60, 61, 6
2 and 63 respectively output angle signals θ4,
By utilizing θ3, θ2, and θ1, it can be geometrically obtained as follows. θ camera = F (θ1, θ2, θ3, θ4) Normally, the robot is equipped with an inclinometer for motion control. This case is shown in FIG. In this example, the ground plane of the robot is a slope. Reference numeral 18 denotes an inclinometer, which is attached to the main body 3 having the largest mass in the robot.
The inclinometer 18 detects an angle θb formed by the main axis of the main body 3 and the vertical direction. Here, the line-of-sight angle of the camera 2 (θcame
Ra) can be calculated as follows using the angle signal θ4 output from the sensor 60 and θb output from the inclinometer 18. θcamera = F (θb, θ4) In addition, not only the inclinometer 18 but also a robot that expands the dynamic range by using a gyro sensor together is used. You may ask.
【0031】図3のステップS1においてカメラ2の角
度が所定角度以上ではないと判定された場合、画像処理
部8はカメラ2から得られた被写体の撮影画像を原画像
のまま画像圧縮部12に送る。この場合、被写体の撮影
画像には視野制御に係る画像処理は何ら行われず、視野
全体の画像が出力されることになる。これを図6(a)
に示す。When it is determined in step S1 in FIG. 3 that the angle of the camera 2 is not equal to or larger than the predetermined angle, the image processing unit 8 sends the captured image of the subject obtained from the camera 2 to the image compression unit 12 as the original image. send. In this case, no image processing relating to the view control is performed on the captured image of the subject, and the image of the entire view is output. This is shown in FIG.
Shown in.
【0032】一方、ステップS1においてカメラ2の角
度が所定角度以上であると判定された場合、すなわち図
6(b)に示すようにカメラ2の視線が異常に上向いて
いると判定された場合、カメラ2から得られた撮影画像
に顔部分が含まれているか否かを判定する(ステップS
3)。これは画像認識部4による上述した顔認識処理の
結果に基づいて判定される。なお、顔認識を行わない実
施形態の場合、当該ステップは省略され、ステップ5に
移行する。On the other hand, when it is determined in step S1 that the angle of the camera 2 is equal to or larger than the predetermined angle, that is, when it is determined that the line of sight of the camera 2 is abnormally upward as shown in FIG. 6B, It is determined whether or not the captured image obtained from the camera 2 includes a face portion (step S
3). This is determined based on the result of the face recognition process described above by the image recognition unit 4. In the case of the embodiment in which face recognition is not performed, the step is omitted and the process proceeds to step 5.
【0033】ステップS3において撮影画像に顔部分が
含まれていると判定された場合、ステップS4において
顔の周辺より外側の画像解像度を低下させるための画像
処理を行う。かかる画像処理の一例を図7に示す。この
図において、I0はカメラ2による撮影画像の原画像を
示し、I1は処理後の画像を示している。なお、原画像
I0は厳密には図6(b)に示す視野全体の画像とは異
なっているが、説明の便宜上、このように示してある。
画像I1は、画像認識部4による顔画像の認識結果に基
づいて図に示すように被写体の顔の周辺部分(ここでは
楕円を境界としている)から外側の画像領域をマスク画
像Mによりマスクしたものである。これは当該外側の画
像領域の解像度を完全に消失させたものであるが、その
他、モザイク処理を施すなどして解像度を低下させても
よい。当該ステップS4における画像処理は、広義には
顔画像の抽出処理ということができる。かかる抽出処理
によれば、被写体のスカート下などが盗撮され、プライ
バシーが侵害されるといった事態を回避できる。しか
も、顔画像については視野制御に拘わらず必ず出力され
ることになるから、通信部17等を通じて撮影画像をリ
アルタイムで外部伝送するような場合に、被写体につい
ての必要なコミュニケーション情報をロボットから提供
可能になる。If it is determined in step S3 that the captured image includes a face portion, in step S4 image processing is performed to reduce the image resolution outside the periphery of the face. An example of such image processing is shown in FIG. In this figure, I0 indicates the original image of the image captured by the camera 2, and I1 indicates the processed image. Although the original image I0 is strictly different from the image of the entire field of view shown in FIG. 6B, it is shown in this way for convenience of explanation.
The image I1 is obtained by masking an image area outside the peripheral portion (here, an ellipse is a boundary) of the face of the subject with the mask image M as shown in the figure based on the recognition result of the face image by the image recognition unit 4. Is. Although this completely eliminates the resolution of the outer image area, the resolution may be reduced by performing mosaic processing or the like. The image processing in step S4 can be broadly called face image extraction processing. According to such extraction processing, it is possible to avoid a situation in which privacy is infringed due to a pirated image of the skirt of the subject or the like. Moreover, since the face image is always output regardless of the view control, the robot can provide necessary communication information about the subject when the captured image is externally transmitted in real time through the communication unit 17 or the like. become.
【0034】ステップS3において撮影画像に顔部分が
含まれていないと判定された場合は、ステップS5にお
いて視野制御に係る次のような画像処理が行われる。す
なわち、この画像処理は、カメラ2からの撮影画像につ
いて(1)全体の解像度を落とす、又は(2)被写体の
輪郭情報を抽出し、これを出力画像とする、又は(3)
予め用意された情報を出力するといった処理である。こ
れら画像処理例を図8に示す。画像I2は、撮影画像の
原画像I0の全画像領域にノイズパターンNを重畳して
解像度を下げたものであり、上記(1)の画像処理例で
ある。解像度を落とすことによれば、撮影画像の内容は
見づらくなる。When it is determined in step S3 that the photographed image does not include a face portion, the following image processing relating to the visual field control is performed in step S5. That is, in this image processing, (1) the overall resolution of the captured image from the camera 2 is reduced, or (2) the contour information of the subject is extracted and used as the output image, or (3)
This is a process of outputting information prepared in advance. An example of these image processes is shown in FIG. The image I2 is obtained by superimposing the noise pattern N on the entire image region of the original image I0 of the captured image to reduce the resolution, and is the image processing example of (1) above. By reducing the resolution, the content of the captured image becomes difficult to see.
【0035】画像I3は、原画像I0から被写体の外輪
郭線Oを抽出したものであり上記(2)に相当する。画
像から輪郭線を抽出する処理は公知の手法を利用でき
る。そして、画像I4は、原画像I0をキャンセルし、
これに代えて「画像は出力されません」といったメッセ
ージMの画像としたものである。これらの画像処理によ
れば、図6(b)のようにカメラ2の視線が異常に上向
いている場合に、被写体のスカート下などが盗撮され、
プライバシーが侵害されるといった事態を回避できる。
なお、これらステップS5の画像処理は、広義には、秘
匿されるべきものがロボットの視野に存在するかもしれ
ない場合に対応すべく、カメラ2の角度検出結果に応じ
てその視野を遮るような制御を画像処理に基づいて行う
ことに相当する。もちろん、このための画像処理として
は図8に例示したものに限定されない。The image I3 is obtained by extracting the outer contour line O of the subject from the original image I0 and corresponds to the above (2). A known method can be used for the process of extracting the contour line from the image. Then, the image I4 cancels the original image I0,
Instead of this, the image of the message M such as "No image is output" is used. According to these image processes, when the line of sight of the camera 2 is abnormally upward as shown in FIG.
It is possible to avoid a situation where privacy is violated.
In a broad sense, the image processing of these step S5 blocks the visual field according to the angle detection result of the camera 2 in order to deal with the case where something to be concealed may exist in the visual field of the robot. This is equivalent to performing control based on image processing. Of course, the image processing for this purpose is not limited to that illustrated in FIG.
【0036】なお、本発明に係るロボット視野制御は、
これまで述べたような画像処理のみに基づくもののみで
はない。例えば、カメラ角度判定部10から出力された
カメラ2の視線角度(θcamera)が所定角度以上であっ
て、かつ撮影画像に顔画像が含まれていることを認識し
たとき、カメラ2の視線方向がそれ以上の角度とならな
いようにロボットの駆動機構部の動作を規制してもよ
い。この場合、何らかの警告音声を発したり、特別な行
動シーケンスを実行させることも有効である。The robot view control according to the present invention is
It is not only based on the image processing as described above. For example, when it is recognized that the line-of-sight angle (θcamera) of the camera 2 output from the camera angle determination unit 10 is equal to or larger than a predetermined angle and the captured image includes a face image, the line-of-sight direction of the camera 2 is The operation of the drive mechanism section of the robot may be restricted so that the angle does not exceed that range. In this case, it is also effective to emit some warning sound or execute a special action sequence.
【0037】また、本発明に係るロボット視野制御は、
秘匿されるべきものがロボットの視野に存在し得る状況
をカメラ視線角度の検出及び顔画像の認識によって検知
した際に、このときカメラ2によって撮影された画像が
ロボットの外部に取り出されることを防止するための制
御動作も含む。これは、上述したように出力制御部16
が通信部17、補助記憶装置19、小型メモリカード2
0等への撮影画像の出力(書き込み)動作を禁止するよ
うな制御を行うことに相当する。Further, the robot view control according to the present invention is
When a situation where something to be concealed may exist in the field of view of the robot is detected by detecting the line-of-sight angle of the camera and recognizing the face image, the image captured by the camera 2 at this time is prevented from being taken out of the robot. It also includes a control operation for performing. This is the output control unit 16 as described above.
Is a communication unit 17, an auxiliary storage device 19, a small memory card 2
This corresponds to the control for prohibiting the output (writing) operation of the captured image to 0 or the like.
【0038】以上説明したように、本実施形態のロボッ
ト視野制御システムによれば、ロボットのカメラ2によ
る視野を画像処理によって適切に制御し、プライバシー
を保護しつつ必要なコミュニケーション情報を提供する
ことができる。As described above, according to the robot visual field control system of this embodiment, the visual field of the robot camera 2 can be appropriately controlled by image processing to provide necessary communication information while protecting privacy. it can.
【0039】なお、本発明は上述した実施形態に限定さ
れず種々変形して実施可能である。The present invention is not limited to the above-described embodiment and can be variously modified and carried out.
【0040】[0040]
【発明の効果】以上説明したように、本発明によれば、
ロボットに搭載されたカメラによる視野を適切に制御で
き、プライバシーを保護しつつ必要なコミュニケーショ
ン情報を提供可能なロボット及びその視野制御装置及び
方法を提供できる。As described above, according to the present invention,
(EN) A robot capable of appropriately controlling a visual field by a camera mounted on a robot and providing necessary communication information while protecting privacy, and a visual field control device and method therefor can be provided.
【図1】本発明の一実施形態に係るロボット視野制御シ
ステムの概略構成を示すブロック図FIG. 1 is a block diagram showing a schematic configuration of a robot visual field control system according to an embodiment of the present invention.
【図2】同実施形態に係るロボットの正面図および側面
図FIG. 2 is a front view and a side view of the robot according to the same embodiment.
【図3】同実施形態に係るロボット視野制御システムの
動作を示すフローチャートFIG. 3 is a flowchart showing an operation of the robot visual field control system according to the same embodiment.
【図4】同実施形態に係るロボットのカメラ角度を示す
図であって、同ロボットが上方を見上げている場合を示
す図FIG. 4 is a view showing a camera angle of the robot according to the embodiment, showing a case where the robot is looking up.
【図5】同実施形態に係るロボットのカメラ角度を示す
他の図であって、斜面において同ロボットが上方を見上
げている場合を示す図FIG. 5 is another view showing the camera angle of the robot according to the embodiment, showing a case where the robot is looking up on a slope.
【図6】同実施形態に係るロボットの視界及び被写体を
説明するための図FIG. 6 is a view for explaining a field of view and a subject of the robot according to the same embodiment.
【図7】同実施形態に係るロボット視野制御による出力
画像を説明するための図FIG. 7 is a diagram for explaining an output image by the robot visual field control according to the embodiment.
【図8】同実施形態に係るロボット視野制御による出力
画像の他の例を説明するための図FIG. 8 is a view for explaining another example of an output image by the robot visual field control according to the same embodiment.
1…ロボット頭部 2…カメラ 3…ロボット本体部 4…画像認識部 5…ロボット脚部 6…センサ 8…画像処理部 10…カメラ角度判定部 12…画像圧縮部 14…判定部 16…出力制御部 17…通信部 19…補助記憶装置 20…小型メモリカード 1 ... Robot head 2 ... camera 3 ... Robot body 4 ... Image recognition unit 5 ... Robot leg 6 ... Sensor 8 ... Image processing unit 10 ... Camera angle determination unit 12 ... Image compression unit 14 ... Judgment unit 16 ... Output control unit 17 ... Communication section 19 ... Auxiliary storage device 20 ... Small memory card
───────────────────────────────────────────────────── フロントページの続き (72)発明者 清水 秀夫 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 上林 達 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 鈴木 康彦 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 岡崎 彰夫 神奈川県川崎市幸区柳町70番地 株式会社 東芝柳町事業所内 (72)発明者 平松 憲一 神奈川県川崎市幸区柳町70番地 株式会社 東芝柳町事業所内 (72)発明者 和田 素直 東京都港区芝浦一丁目1番1号 株式会社 東芝本社事務所内 (72)発明者 三上 宏治 東京都港区芝浦一丁目1番1号 株式会社 東芝本社事務所内 (72)発明者 戸島 明 神奈川県川崎市幸区柳町70番地 株式会社 東芝柳町事業所内 (72)発明者 遠藤 直樹 東京都府中市東芝町1番地 株式会社東芝 府中事業所内 (72)発明者 野口 幸一 東京都港区芝浦一丁目1番1号 株式会社 東芝本社事務所内 Fターム(参考) 3C007 CS08 KS20 KS21 KS24 KT02 MT00 WA03 WA13 ─────────────────────────────────────────────────── ─── Continued front page (72) Inventor Hideo Shimizu 1st Komukai Toshiba-cho, Sachi-ku, Kawasaki-shi, Kanagawa Inside the Toshiba Research and Development Center (72) Inventor Tatsu Uebayashi 1st Komukai Toshiba-cho, Sachi-ku, Kawasaki-shi, Kanagawa Inside the Toshiba Research and Development Center (72) Inventor Yasuhiko Suzuki 1st Komukai Toshiba-cho, Sachi-ku, Kawasaki-shi, Kanagawa Inside the Toshiba Research and Development Center (72) Inventor Akio Okazaki 70 Yanagicho, Saiwai-ku, Kawasaki City, Kanagawa Prefecture Toshiba Yanagimachi Office (72) Inventor Kenichi Hiramatsu 70 Yanagicho, Saiwai-ku, Kawasaki City, Kanagawa Prefecture Toshiba Yanagimachi Office (72) Inventor Obama Wada 1-1 Shibaura, Minato-ku, Tokyo Co., Ltd. Toshiba headquarters office (72) Inventor Koji Mikami 1-1 Shibaura, Minato-ku, Tokyo Co., Ltd. Toshiba headquarters office (72) Inventor Akira Tojima 70 Yanagicho, Saiwai-ku, Kawasaki City, Kanagawa Prefecture Toshiba Yanagimachi Office (72) Inventor Naoki Endo No. 1 Toshiba-cho, Fuchu-shi, Tokyo Toshiba Corporation Fuchu Office (72) Inventor Koichi Noguchi 1-1 Shibaura, Minato-ku, Tokyo Co., Ltd. Toshiba headquarters office F-term (reference) 3C007 CS08 KS20 KS21 KS24 KT02 MT00 WA03 WA13
Claims (12)
度を検出する検出手段と、 前記検出手段により検出された視線角度が一定角度以上
である場合に、このとき前記カメラにより撮像された画
像を画像処理することに基づいてロボットの視野を制御
する視野制御手段と、を具備することを特徴とする視覚
機能を備えたロボット。1. A camera for capturing an image, a detection means for detecting a line-of-sight angle formed by the line-of-sight direction of the camera and a predetermined reference direction, and a line-of-sight angle detected by the detection means being equal to or greater than a certain angle. And a visual field control means for controlling the visual field of the robot based on image processing of the image captured by the camera at this time.
撮像された画像の解像度を低下させる画像処理手段を具
備することを特徴とする請求項1に記載のロボット。2. The robot according to claim 1, wherein the field-of-view control means includes image processing means for reducing the resolution of the image captured by the camera.
物の顔を認識する顔画像認識手段を具備し、 前記視野制御手段は、前記顔画像認識手段により認識さ
れた顔及びその周辺部分のみを前記撮像画像から抽出し
て出力画像とすることを特徴とする請求項1又は2のい
ずれか一項に記載のロボット。3. A face image recognition means for recognizing a face of a person from an image captured by the camera, wherein the visual field control means includes the face recognized by the face image recognition means and only a peripheral portion thereof. The robot according to claim 1, wherein the robot is extracted from a captured image and used as an output image.
ットから外部に出力する出力手段と、 前記検出手段により検出された視線角度が一定角度以上
である場合に、このとき前記カメラにより撮像された画
像が前記出力手段から出力されることを禁止する出力制
御手段と、を具備することを特徴とする請求項1ないし
3のいずれか一項に記載のロボット。4. An output unit for outputting an image captured by the camera from the robot to the outside, and an image captured by the camera at this time when the line-of-sight angle detected by the detection unit is a certain angle or more. 4. The robot according to claim 1, further comprising an output control unit that prohibits the output from the output unit.
の視線方向を変更可能な視覚機能付きロボットの視野を
制御する視野制御装置であって、 前記カメラの視線方向と所定の基準方向とがなす視線角
度を検出する検出手段と、 前記検出手段により検出された視線角度が一定角度以上
である場合に、このとき前記カメラにより撮像された画
像を画像処理することに基づいて前記ロボットの視野を
制御する視野制御手段と、を具備することを特徴とする
ロボットの視野制御装置。5. A visual field control device, comprising a camera for taking an image, for controlling the visual field of a robot with a visual function capable of changing the visual line direction of the camera, wherein the visual line direction of the camera and a predetermined reference direction are When the line-of-sight angle detected by the detecting unit and the line-of-sight angle detected by the detecting unit is a certain angle or more, the field of view of the robot is changed based on image processing of the image captured by the camera at this time. A visual field control device for a robot, comprising: a visual field control means for controlling.
撮像された画像の解像度を低下させる画像処理手段を具
備することを特徴とする請求項5に記載の視野制御装
置。6. The visual field control device according to claim 5, wherein the visual field control unit includes an image processing unit that reduces the resolution of an image captured by the camera.
物の顔を認識する顔画像認識手段を具備し、 前記視野制御手段は、前記顔画像認識手段により認識さ
れた顔及びその周辺部分のみを前記撮像画像から抽出し
て出力画像とすることを特徴とする請求項6又は7のい
ずれか一項に記載の視野制御装置。7. A face image recognition means for recognizing a face of a person from an image captured by the camera is provided, and the visual field control means includes only the face recognized by the face image recognition means and a peripheral portion thereof. The visual field control device according to claim 6, wherein the visual field control device extracts the captured image as an output image.
ロボットから外部に出力する出力手段と、 前記検出手段により検出された視線角度が一定角度以上
である場合に、このとき前記カメラにより撮像された画
像が前記出力手段から出力されることを禁止する出力制
御手段と、を具備することを特徴とする請求項5ないし
7のいずれか一項に記載の視野制御装置。8. An output unit for outputting an image captured by the camera from the robot to the outside, and a line-of-sight angle detected by the detection unit being a predetermined angle or more, the image captured by the camera at this time. The visual field control device according to any one of claims 5 to 7, further comprising: an output control unit that prohibits an image from being output from the output unit.
の視線方向を変更可能な視覚機能付きロボットの視野を
制御する視野制御方法であって、 前記カメラの視線方向と所定の基準方向とがなす視線角
度を検出するステップと、 前記ステップにおいて検出された視線角度が一定角度以
上である場合に、このとき前記カメラにより撮像された
画像を画像処理することに基づいて前記ロボットの視野
を制御する視野制御ステップと、を具備することを特徴
とするロボットの視野制御方法。9. A visual field control method for controlling a visual field of a robot having a visual function capable of changing a visual line direction of the camera, wherein the visual line direction of the camera and a predetermined reference direction are different from each other. A step of detecting the line-of-sight angle to be formed, and when the line-of-sight angle detected in the step is equal to or greater than a certain angle, the field of view of the robot is controlled based on image processing of an image captured by the camera at this time. A field-of-view control method for a robot, comprising: a field-of-view control step.
により撮像された画像の解像度を低下させる画像処理ス
テップを含むことを特徴とする請求項9に記載の視野制
御方法。10. The visual field control method according to claim 9, wherein the visual field control step includes an image processing step of reducing a resolution of an image captured by the camera.
人物の顔を認識する顔画像認識ステップを含み、 前記視野制御ステップは、前記顔画像認識ステップにお
いて認識された顔及びその周辺部分のみを前記撮像画像
から抽出して出力画像とすることを特徴とする請求項9
又は10のいずれか一項に記載の視野制御方法。11. A face image recognition step of recognizing a face of a person from an image captured by the camera, wherein the visual field control step captures only the face recognized in the face image recognition step and a peripheral portion thereof. 10. The image is extracted from an image and used as an output image.
Or the visual field control method according to any one of 10.
記ロボットから外部に出力する出力ステップと、 前記検出ステップにおいて検出された視線角度が一定角
度以上である場合に、このとき前記カメラにより撮像さ
れた画像が前記出力ステップにおいて出力されることを
禁止する出力制御ステップと、を含むことを特徴とする
請求項9ないし11のいずれか一項に記載の視野制御方
法。12. An output step of outputting an image captured by the camera from the robot to the outside, and when the line-of-sight angle detected in the detecting step is a certain angle or more, the image is captured by the camera at this time. 12. The visual field control method according to claim 9, further comprising: an output control step of prohibiting an image from being output in the output step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002093093A JP3910871B2 (en) | 2002-03-28 | 2002-03-28 | Robot and visual field control method of robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002093093A JP3910871B2 (en) | 2002-03-28 | 2002-03-28 | Robot and visual field control method of robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003291084A true JP2003291084A (en) | 2003-10-14 |
JP3910871B2 JP3910871B2 (en) | 2007-04-25 |
Family
ID=29237719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002093093A Expired - Fee Related JP3910871B2 (en) | 2002-03-28 | 2002-03-28 | Robot and visual field control method of robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3910871B2 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005305631A (en) * | 2004-03-25 | 2005-11-04 | Nec Corp | Robot and its controlling method |
WO2009011380A1 (en) * | 2007-07-19 | 2009-01-22 | Nec Corporation | Sensing device, system, control method and control program |
JP2009141501A (en) * | 2007-12-04 | 2009-06-25 | Fujitsu Ltd | Portable imaging device and computer program |
JP2010514316A (en) * | 2006-12-19 | 2010-04-30 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method for controlling an autonomous device |
JP2016203276A (en) * | 2015-04-17 | 2016-12-08 | トヨタ自動車株式会社 | Remote operation system |
US10178294B2 (en) | 2017-05-25 | 2019-01-08 | International Business Machines Corporation | Controlling a video capture device based on cognitive personal action and image identification |
EP3403146A4 (en) * | 2016-01-15 | 2019-08-21 | iRobot Corporation | Autonomous monitoring robot systems |
JP2019185202A (en) * | 2018-04-04 | 2019-10-24 | アルパイン株式会社 | Captured image data processing apparatus and captured image data processing method |
WO2019207891A1 (en) * | 2018-04-27 | 2019-10-31 | ソニー株式会社 | Information processing device and information processing method |
CN110809880A (en) * | 2018-10-31 | 2020-02-18 | 深圳市大疆创新科技有限公司 | Adjusting method of monitoring equipment, monitoring equipment and holder equipment |
JP2020119398A (en) * | 2019-01-25 | 2020-08-06 | 株式会社ソニー・インタラクティブエンタテインメント | Image analysis system |
DE102019117254B4 (en) * | 2018-07-30 | 2020-11-26 | Toyota Jidosha Kabushiki Kaisha | Image processing device, method for image processing |
US11153477B2 (en) | 2019-02-19 | 2021-10-19 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
-
2002
- 2002-03-28 JP JP2002093093A patent/JP3910871B2/en not_active Expired - Fee Related
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4595436B2 (en) * | 2004-03-25 | 2010-12-08 | 日本電気株式会社 | Robot, control method thereof and control program |
JP2005305631A (en) * | 2004-03-25 | 2005-11-04 | Nec Corp | Robot and its controlling method |
US8376803B2 (en) | 2004-03-25 | 2013-02-19 | Nec Corporation | Child-care robot and a method of controlling the robot |
JP2010514316A (en) * | 2006-12-19 | 2010-04-30 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method for controlling an autonomous device |
US8368506B2 (en) | 2007-07-19 | 2013-02-05 | Nec Corporation | Sensing device and system, controlling method and control program |
JP5246162B2 (en) * | 2007-07-19 | 2013-07-24 | 日本電気株式会社 | Sensing device, system, control method, and control program |
WO2009011380A1 (en) * | 2007-07-19 | 2009-01-22 | Nec Corporation | Sensing device, system, control method and control program |
JP2009141501A (en) * | 2007-12-04 | 2009-06-25 | Fujitsu Ltd | Portable imaging device and computer program |
JP2016203276A (en) * | 2015-04-17 | 2016-12-08 | トヨタ自動車株式会社 | Remote operation system |
EP3403146A4 (en) * | 2016-01-15 | 2019-08-21 | iRobot Corporation | Autonomous monitoring robot systems |
US11662722B2 (en) | 2016-01-15 | 2023-05-30 | Irobot Corporation | Autonomous monitoring robot systems |
US10609269B2 (en) | 2017-05-25 | 2020-03-31 | International Business Machines Corporation | Controlling a video capture device based on cognitive personal action and image identification |
US10178294B2 (en) | 2017-05-25 | 2019-01-08 | International Business Machines Corporation | Controlling a video capture device based on cognitive personal action and image identification |
US10306127B2 (en) | 2017-05-25 | 2019-05-28 | International Business Machines Corporation | Controlling a video capture device based on cognitive personal action and image identification |
JP2019185202A (en) * | 2018-04-04 | 2019-10-24 | アルパイン株式会社 | Captured image data processing apparatus and captured image data processing method |
JP7077106B2 (en) | 2018-04-04 | 2022-05-30 | アルパイン株式会社 | Captured image data processing device and captured image data processing method |
WO2019207891A1 (en) * | 2018-04-27 | 2019-10-31 | ソニー株式会社 | Information processing device and information processing method |
DE102019117254B4 (en) * | 2018-07-30 | 2020-11-26 | Toyota Jidosha Kabushiki Kaisha | Image processing device, method for image processing |
US11715047B2 (en) | 2018-07-30 | 2023-08-01 | Toyota Jidosha Kabushiki Kaisha | Image processing apparatus, image processing method |
CN110809880A (en) * | 2018-10-31 | 2020-02-18 | 深圳市大疆创新科技有限公司 | Adjusting method of monitoring equipment, monitoring equipment and holder equipment |
CN110809880B (en) * | 2018-10-31 | 2021-11-16 | 深圳市大疆创新科技有限公司 | Adjusting method of monitoring equipment, monitoring equipment and holder equipment |
JP2020119398A (en) * | 2019-01-25 | 2020-08-06 | 株式会社ソニー・インタラクティブエンタテインメント | Image analysis system |
JP7190919B2 (en) | 2019-01-25 | 2022-12-16 | 株式会社ソニー・インタラクティブエンタテインメント | Image analysis system |
US12103162B2 (en) | 2019-01-25 | 2024-10-01 | Sony Interactive Entertainment Inc. | Robotic device having an image analysis system |
US11153477B2 (en) | 2019-02-19 | 2021-10-19 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP3910871B2 (en) | 2007-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111383421B (en) | Privacy protection fall detection method and system | |
JP2003291084A (en) | Robot, its visual field control device and controlling method | |
KR100583936B1 (en) | Picture taking mobile robot | |
JP4949969B2 (en) | Communication robot and its operation method | |
US10169880B2 (en) | Information processing apparatus, information processing method, and program | |
WO2018008224A1 (en) | Robot, robot system, and recording medium | |
JP4797720B2 (en) | Monitoring device and method, image processing device and method, and program | |
JP6730236B2 (en) | Person identification system and person identification method | |
WO2015186447A1 (en) | Information processing device, photographing device, image sharing system, information processing method, and program | |
US20040190754A1 (en) | Image transmission system for a mobile robot | |
JP2004299025A (en) | Mobile robot control device, mobile robot control method and mobile robot control program | |
JP2015007952A (en) | Device and method to detect movement of face to create signal, and computer readable storage medium | |
JP7375770B2 (en) | Information processing device, information processing method, and program | |
JP2004298988A (en) | Picture image transmission device of mobile robot | |
WO2007063970A1 (en) | Monitor camera system and face image trace recording method | |
KR20040084994A (en) | Authentication object image pick-up device and method thereof | |
JP2011024015A (en) | Imaging system, moving body, and imaging control method | |
JP2009026146A (en) | Image processing apparatus and image processing method | |
TW201621759A (en) | Distant facial monitoring system, method, computer readable medium, and computer program products | |
KR20180057839A (en) | Intelligent robot capable of human recognition and operation method thereof | |
TWI474291B (en) | Somatosensory fall-detection method | |
JP2007303913A (en) | Foreign matter detecting device, robot device using the same, foreign matter detection method, and foreign matter detection program | |
WO2015121846A1 (en) | System and method for aiding a visually impaired person to navigate | |
JP4220857B2 (en) | Mobile robot image capturing device using portable terminal device | |
CN108986407B (en) | Safety detection system and method for solitary old people |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060516 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060815 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070125 |
|
LAPS | Cancellation because of no payment of annual fees |