JP7128409B2 - REMOTE CONTROL DEVICE, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD AND REMOTE CONTROL PROGRAM - Google Patents
REMOTE CONTROL DEVICE, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD AND REMOTE CONTROL PROGRAM Download PDFInfo
- Publication number
- JP7128409B2 JP7128409B2 JP2018122538A JP2018122538A JP7128409B2 JP 7128409 B2 JP7128409 B2 JP 7128409B2 JP 2018122538 A JP2018122538 A JP 2018122538A JP 2018122538 A JP2018122538 A JP 2018122538A JP 7128409 B2 JP7128409 B2 JP 7128409B2
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- area
- controlled
- remote control
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Selective Calling Equipment (AREA)
Description
本発明は、遠隔制御装置、遠隔制御システム、遠隔制御方法及び遠隔制御プログラムに関する。 The present invention relates to a remote control device, a remote control system, a remote control method and a remote control program.
従来、視線を検出する検出手段を有した撮像装置からの視線検出信号を受信する通信手段を備え、その撮像装置から送信された視線検出信号に基づいて被制御体の制御を行う視線制御装置が提案されていた(例えば、特許文献1)。 Conventionally, there has been provided a line-of-sight control apparatus that includes communication means for receiving a line-of-sight detection signal from an imaging device having detection means for detecting a line of sight, and that controls a controlled object based on the line-of-sight detection signal transmitted from the imaging device. It has been proposed (for example, Patent Document 1).
また、眼球トラッキングを用いて画像を操作するシステムも提案されている(例えば、特許文献2)。本システムでは、関心領域(ROI)の周りに、画像パラメータ調整に関連付けられた複数のホットスポットが配置され、ユーザの凝視ポイントがホットスポットに入っているときに、ホットスポットに関連付けられた画像調整を行う。 A system for manipulating images using eyeball tracking has also been proposed (eg, Patent Document 2). The system places a plurality of hotspots associated with image parameter adjustments around a region of interest (ROI), and performs image adjustments associated with the hotspots when the user's gaze point is within the hotspot. I do.
制御装置と無線接続又は有線接続される、マルチコプターや、多脚ロボット、車輪、クローラ等で走行するロボット等の被制御装置を、被制御装置の一人称視点で撮影された画像を見ながら操縦者が操縦する場合、操縦者の視線によって制御できると便利なことがある。すなわち、操縦者が手を使えないような場合にも被制御装置を操縦でき、また、被制御装置がロボットハンドのような操作対象をさらに備えている場合には、操縦者の手によって、ロボットハンド等の操作を行うこともできる。しかしながら、操縦者は、視線によってロボット等の周囲の状況の把握とロボット等の操縦とを同時に行うことになるため、操作が難しくなりがちであるという問題があった。 A controlled device such as a multi-copter, a multi-legged robot, a robot that runs on wheels, a crawler, etc., which is wirelessly or wiredly connected to the control device, is operated by the operator while viewing an image taken from the first-person viewpoint of the controlled device. It is sometimes convenient to be able to control by the driver's line of sight when the In other words, the controlled device can be operated even when the operator cannot use his/her hands. It is also possible to perform operations such as hands. However, there is a problem that the operation tends to be difficult because the operator simultaneously grasps the situation around the robot or the like and operates the robot or the like based on the line of sight.
本発明は、視線による遠隔制御の操作性を向上させることを目的とする。 An object of the present invention is to improve the operability of remote control by line of sight.
本発明に係る移動物体の遠隔制御装置は、制御対象の移動物体が備える撮像装置によって撮像された画像をユーザが見つつ、制御対象の移動物体を遠隔制御する制御装置であって、制御対象の移動物体が備える撮像装置によって撮像された画像を表示する表示装置に対向するユーザの視線を検出し、画像上におけるユーザの注視点を出力する視線検出装置から、注視点の情報を取得すると共に、取得した情報が示す注視点が所定の領域に含まれるか判断する操作検出部と、情報が示す注視点が所定の領域に含まれる場合は、当該領域に対応付けられた、制御対象の移動物体を制御するための信号を送信させる信号出力制御部とを備え、所定の領域は、画像のほぼ中央に、制御対象の移動物体を待機させるための待機領域を有し、当該待機領域の内部であって、当該待機領域の中央から所定の距離離間した位置に、制御対象の移動物体を前進させるための前進領域を含む。 A remote control apparatus for a moving object according to the present invention is a control apparatus for remotely controlling a moving object to be controlled while a user views an image captured by an imaging device included in the moving object to be controlled. Acquiring gaze point information from a gaze detection device that detects the gaze of a user facing a display device that displays an image captured by an imaging device provided on a moving object and outputs the user's gaze point on the image, An operation detection unit that determines whether the point of gaze indicated by the acquired information is included in a predetermined area, and if the point of gaze indicated by the information is included in the predetermined area, a moving object to be controlled that is associated with the area and a signal output control unit for transmitting a signal for controlling the predetermined area has a waiting area for waiting the moving object to be controlled in the approximate center of the image, and inside the waiting area An advance area for advancing the moving object to be controlled is included at a position spaced apart from the center of the standby area by a predetermined distance.
このようにすれば、ユーザは、画像のほぼ中央に配置される待機領域に視線の先を定めることで、制御対象の移動物体を待機させることができる。したがって、制御対象の移動物体を障害物等に接触させるような事故を起こすことなく、画像全体を認識することがで
きる。また、待機領域内において中央から所定距離離間した位置に配置される前進領域に視線を移すことにより、制御対象の移動物体を前進させることができる。このような位置関係で設けられる領域によれば、ユーザは、前進領域から周囲のいずれかの方向に視線を移すだけで制御対象の移動物体を待機させることができ、安全性が高まるとともに、視線による遠隔制御の操作性を向上させることができる。
In this way, the user can make the moving object to be controlled stand by by directing the user's line of sight to the waiting area arranged substantially in the center of the image. Therefore, the entire image can be recognized without causing an accident such as contacting the moving object to be controlled with an obstacle or the like. In addition, by moving the line of sight to the advance area arranged at a predetermined distance from the center in the standby area, the moving object to be controlled can be advanced. According to the area provided with such a positional relationship, the user can make the moving object to be controlled stand by only by moving the line of sight from the forward movement area to one of the surrounding directions. operability of remote control can be improved.
また、所定の領域の境界が、表示装置に画像として表示され、又は表示装置に重ねて配置されるシート若しくはパネルに表示されるようにしてもよい。このようにすれば、ユーザは、操作するための領域を明確に認識することができる。 Further, the boundary of the predetermined area may be displayed as an image on the display device, or may be displayed on a sheet or panel superimposed on the display device. In this way, the user can clearly recognize the area for operation.
また、前進領域は、眼球から画像上における注視点までの距離をlとし、眼球及び注視点を結ぶ直線と、眼球及び表示装置に表示される画像上における中心視可能な範囲の端を結ぶ直線とのなす角をθとしたときに得られる中心視可能な範囲の半径rを以下の式で求め、待機領域の中心から垂直下方向に3rの位置を中心に上下方向にrの長さの範囲に配置してもよい。
r=ltanθ
In addition, the forward region is defined by the distance l from the eyeball to the point of gaze on the image, the straight line connecting the eyeball and the point of gaze, and the straight line connecting the eyeball and the end of the central vision range on the image displayed on the display device. The radius r of the centrally visible range obtained when the angle between the Can be placed in range.
r = l tan θ
また、前進領域は、待機領域の中心から下方向の最下端から、上方向にrの長さの位置に配置されるようにしてもよい。また、θは、1~2度であってもよい。具体的にはこのような大きさを採用することで、一般的に中心視によって対象を明確に認識できると共に、固視において生じるマイクロサッケードによりユーザが意図しない制御がなされることを抑制できる。 Further, the advance area may be arranged at a position r in the upward direction from the lowermost end in the downward direction from the center of the standby area. Also, θ may be 1 to 2 degrees. Specifically, by adopting such a size, it is possible to generally clearly recognize an object by central vision, and to suppress unintended control by the user due to microsaccades that occur in fixation.
また、静止領域の左右に、それぞれ制御対象の移動物体を鉛直方向の回転軸を中心として左右に水平回転させるための領域を備えるようにしてもよい。このようにすれば、画像の左右にユーザの興味の対象が存在する場合、ユーザはこれらが存在する方向に視線を移すことにより、制御対象の装置の向きを変えるよう遠隔制御でき、直感的に操作できる。また、画像において中央よりも左右の状況は把握しづらいため、制御対象の装置を左右に平行移動させると、制御対象の装置を障害物等に接触させる可能性も高まる。したがって、制御対象の装置を左右に水平回転させることで、事故の発生を低減させることができる。 Also, on the left and right of the stationary area, areas may be provided for horizontally rotating the moving object to be controlled to the left and right around the vertical axis of rotation. In this way, when objects of interest of the user exist on the left and right sides of the image, the user can remotely control the apparatus to change the direction of the device to be controlled by moving the line of sight in the direction in which these objects exist. can be operated. In addition, since it is difficult to grasp the situation on the left and right sides of the image, it is more likely that the device to be controlled will come into contact with an obstacle or the like if the device to be controlled is moved in parallel to the left or right. Therefore, the occurrence of accidents can be reduced by horizontally rotating the device to be controlled to the left and right.
また、制御対象の移動物体は無人飛行物体であり、静止領域の上下に、それぞれ飛行物体を上昇・下降させるための領域を備えるようにしてもよい。なお、無人飛行物体は、マルチコプター、ドローン、ヘリコプター、飛行船のいずれか1つであってもよい。このようにすれば、無人飛行物体を上下に移動させたい場合、ユーザは静止領域の上下に視線を移すことにより遠隔制御でき、直感的に操作できるといえる。 Also, the moving object to be controlled is an unmanned flying object, and areas above and below the static area may be provided for raising and lowering the flying object. Note that the unmanned flying object may be any one of a multicopter, a drone, a helicopter, and an airship. In this way, when the user wants to move the unmanned flying object up and down, the user can remotely control the unmanned flying object by moving the line of sight up and down the stationary area, and can intuitively operate the unmanned flying object.
また、本発明に係る遠隔制御システムは、上述した遠隔制御装置と、視線検出装置と、制御対象の移動物体と、制御対象の移動物体を制御するための信号を送信するコントローラとを備える。このような遠隔制御システムによっても、ユーザは、前進領域から周囲のいずれかの方向に視線を移すだけで制御対象の装置を停止させることができ、安全性が高まるとともに、視線による遠隔制御の操作性を向上させることができる。 A remote control system according to the present invention includes the above-described remote control device, line-of-sight detection device, moving object to be controlled, and a controller for transmitting a signal for controlling the moving object to be controlled. With such a remote control system as well, the user can stop the device to be controlled simply by moving his or her line of sight from the forward movement area to any direction around the area. can improve sexuality.
上記課題を解決するための手段の内容は、本発明の課題や技術的思想を逸脱しない範囲で可能な限り組み合わせることができる。また、上記手段をコンピュータが実行する方法や、上記手段をコンピュータに実行させるプログラムとして実現してもよい。プログラムは、コンピュータが読み取り可能な記録媒体に記録して提供するようにしてもよい。 The contents of the means for solving the above problems can be combined as much as possible without departing from the scope of the problems and technical ideas of the present invention. Further, the means may be realized as a method executed by a computer or as a program causing a computer to execute the means. The program may be recorded on a computer-readable recording medium and provided.
本発明によれば、視線による遠隔制御の操作性を向上させることができる。 According to the present invention, it is possible to improve the operability of remote control by line of sight.
以下、本発明の実施形態に係る遠隔操作システムについて、図面を用いて説明する。 A remote control system according to an embodiment of the present invention will be described below with reference to the drawings.
<装置構成>
図1は、本実施形態に係る遠隔操作装置を備える遠隔操作システムの一例を示す構成図である。図1に示す遠隔操作システム1は、制御装置2と、表示装置3と、視線検出装置4と、コントローラ5と、マルチコプター6とを含む。遠隔操作システム1は、ユーザの視線に基づいて操作対象の移動物体を遠隔操作するためのシステムである。マルチコプター6は、複数の回転翼を有する回転翼機であり、本実施形態における操作対象の移動物体である。また、マルチコプター6は、デジタルカメラ等の撮像装置を備えており、例えばコントローラ5を介して表示装置3へ撮像した画像を表示させることができる。コントローラ5は、マルチコプター6の動作を無線により遠隔操作するための送信機である。表示装置3は、マルチコプター6が備える撮像装置から、例えば制御装置2を介して撮像データを取得し、表示する。視線検出装置4は、例えば赤外線を撮像するカメラを備え、ユーザの目の動きに基づいて視線を検出する。制御装置2は、表示装置3上においてユーザが注視(又は固視)している部分である注視点を示す情報を視線検出装置4から取得し、注視点の位置に応じて、マルチコプター6を操作するための信号をコントローラ5に出力させる。
<Device configuration>
FIG. 1 is a configuration diagram showing an example of a remote control system including a remote control device according to this embodiment. A
<機能構成>
図2は、遠隔操作システムの一例を示す機能ブロック図である。図2の遠隔操作システム1は、上述した制御装置2と、表示装置3と、視線検出装置4と、コントローラ5と、マルチコプター6とを含む。
<Functional configuration>
FIG. 2 is a functional block diagram showing an example of a remote control system. The
制御装置2は、一般的なコンピュータであり、例えばPC(Personal Computer)、ス
マートフォン、タブレット等である。また、制御装置2は、通信インターフェース(I/F)21と、記憶装置22と、入出力装置23と、プロセッサ24とを備え、これらがバス25を介して接続されている。通信I/F21は、Wi-Fi(登録商標)やBluetooth(登録商標)、その他のRF(Radio Frequency)信号を用いて通信を行うた
めの無線モジュールや、有線のネットワークカード、パラレルポート、シリアルポート等であり、他の装置と所定のプロトコルに基づいて通信を行う。記憶装置22は、RAM(Random Access Memory)やROM(Read Only Memory)等の主記憶装置及びHDD(Hard-disk Drive)やSSD(Solid State Drive)、フラッシュメモリ等の補助記憶装置(二次記憶装置)である。主記憶装置は、プロセッサ24が読み出したプログラムを一時的に記憶したり、プロセッサ24の作業領域を確保したりする。補助記憶装置は、プロセッサ24が実行するプログラム等を記憶する。入出力装置23は、例えばキーボードやマウス、タッチパネル等のユーザインターフェースである。なお、入出力装置23が、表示装置3を兼ねていてもよい。プロセッサ24は、CPU(Central Processing Unit)等の演
算処理装置であり、プログラムを実行することにより本実施の形態で説明する各処理を行う。また、図2の例では、プロセッサ24内に機能ブロックを示している。具体的には、プロセッサ24は、操作検出部241と、信号出力制御部242とを含む。操作検出部241は、通信I/F21を介して視線検出装置4からユーザの視線の動きに関する情報を取得し、注視点の位置に応じてユーザによる操作の指示を検出する。信号出力制御部242は、注視点の位置に応じた操作の指示に基づいて、マルチコプター6を操作するための信号の出力を指示するための情報を、入出力装置23を介してコントローラ5へ送信する。
The
表示装置3は、コンピュータ等が出力する画像(静止画又は動画)の映像信号を取得し表示する映像表示装置である。図2においては、表示装置3内にも機能ブロックを示している。表示装置3は、通信I/F31と、表示部32とを含む。通信I/F31は、HDMI(High-Definition Multimedia Interface,登録商標)端子、DVI(Digital Visual Interface)端子、VGA端子、無線通信モジュール等の、映像信号の入力を受けるためのインターフェースである。表示部32は、液晶ディスプレイ(LCD:Liquid Crystal Display)や、プラズマディスプレイ(PDP:Plasma Display Panel)、有機ELディスプレイ、ブラウン管(CRT:Cathode Ray Tube)等である。
The
視線検出装置4は、ユーザの視線の動きを検出し、注視点を特定する装置である。図2においては、視線検出装置4内にも機能ブロックを示している。視線検出装置4は、通信I/F41と、赤外線送受信部42と、視線検出部43とを備える。通信I/F41は、USB(Universal Serial Bus)等のインターフェースであり、制御装置2に対し注視点の情報を出力する。赤外線送受信部42は、視線検出装置4と対向するユーザに対し赤外線を照射すると共に、反射光を撮像する。視線検出部43は、ユーザの画像から目における瞳孔の位置に基づいて視線の向きを検出すると共に、表示装置上における注視点の位置を算出する。
The line-of-
コントローラ5は、マルチコプター6を遠隔操作するための無線信号を送信する送信機である。図2においては、コントローラ5内にも機能ブロックを示している。コントローラ5は、操作入力部51と、通信I/F52とを備える。操作入力部51は、例えばマルチコプター6に対して指示する、前進、後退、上昇、下降、左右への水平移動、左右への水平回転といった動作の種類、及び動作速度の入力を、制御装置2から受けるためのインターフェースである。なお、水平移動は、マルチコプター6が向いている方向を変えず、当該方向を基準としてマルチコプター6を左右に移動させる動作である。また、水平回転は、マルチコプター6の位置を変えず、鉛直方向の回転軸を中心にマルチコプター6が向いている方向を変更する動作である。すなわち、マルチコプター6は、上面視における左
方向又は右方向に、その場で水平に回転する。本実施形態では、これらの動作の種類が一部に制限されていてもよく、速度は一定としてもよい。また、通信I/F52は、例えばアンテナを含み、マルチコプター6に対し、所定の動作を指示するための無線信号を送信したり、マルチコプター6が撮像する映像を制御装置2へ中継したりする。
The
マルチコプター6は、複数の回転翼を有する回転翼機である。図2においては、マルチコプター6内にも機能ブロックを示している。マルチコプター6は、通信I/F61と、ロータ62と、センサ63と、撮像装置64と、制御部65とを備える。通信I/F61は、コントローラ5からの無線信号を受信する通信モジュールや、撮像装置64が出力する画像データを制御装置2等に送信する通信モジュールを含む。ロータ62は、サーボモータにより制御される回転翼であり、複数備えられる。センサ63は、ジャイロセンサや、GPS(Global Positioning System)受信機等であり、マルチコプター6の制御を支
援するための情報を取得する。撮像装置64は、例えばデジタルビデオカメラであり、撮像素子によって可視光を画像データに変換し、継続的に出力する。制御部65は、通信I/F61を介してコントローラ5から飛行動作等の指示を示す信号を受け、ロータ62の回転を制御する。このとき、センサ63が出力する情報を用いて飛行を安定させるようにしてもよい。
The
<遠隔操作処理>
図3は、遠隔操作システムが行う前処理の一例を示す処理フロー図である。本システムは、起動時に図3に示すような処理を行う。各装置が起動すると、例えば視線検出装置のキャリブレーションが行われる(図3:S1)。本ステップでは、ユーザの視線を適切に検出できるよう較正される。また、マルチコプター6とコントローラ5とは、所定の無線通信方式による接続を確立する(S2)。また、視線検出装置4と制御装置2とは、所定の無線又は有線による通信方式で接続を確立する(S3)。また、コントローラ5と制御装置2との間でも、所定の無線又は有線による通信方式で接続を確立する(S4)。なお、S1~S4の処理を行う順序はいずれであってもよく、並列に実行するようにしてもよい。
<Remote operation processing>
FIG. 3 is a processing flow diagram showing an example of preprocessing performed by the remote control system. The system performs processing as shown in FIG. 3 when it is started. When each device is activated, for example, the line-of-sight detection device is calibrated (FIG. 3: S1). This step is calibrated to properly detect the user's line of sight. Also, the
図4は、マルチコプターが行う処理の一例を示す処理フロー図である。マルチコプター6の撮像装置64は、マルチコプター6の前方の映像を撮像する(図4:S11)。その後、マルチコプター6は、通信I/F61を介して映像をコントローラ5に送信する(S12)。また、マルチコプター6は、通信I/F61を介してコントローラ5から操作信号を受信する(S13)。そして、マルチコプター6の制御部65が、操作信号に応じてロータ62の回転を制御することにより、マルチコプター6は、前進、上昇、下降、左右の水平回転、ホバリング等の動作を行う。また、マルチコプター6の制御部65は、動作を継続するか判断する(S15)。本ステップでは、例えばユーザから動作終了の指令を受けた場合、バッテリー残量が所定の基準よりも低下したことを検知した場合、コントローラからの制御信号が所定時間以上受信できない場合、強風や機体の損傷を検知した場合、機体の異常な傾きを検知した場合、例えば障害物センサが全方位に障害物を検知し、機体の進路がないと判断された場合等に、動作を終了すると判断する。動作を終了する場合は、その場で又はコントローラ5の近傍に戻り、着陸後に動作を停止するようにしてもよい。動作を継続する場合(S15:YES)は、S11に戻って処理を繰り返す。一方、動作を継続しない場合(S15:NO)は、処理を終了する。
FIG. 4 is a processing flow diagram showing an example of processing performed by the multicopter. The
図5は、コントローラが行う処理の一例を示す処理フロー図である。コントローラ5は、通信I/F52を介してマルチコプター6から映像信号を受信する(図5:S21)。その後、コントローラ5は、通信I/F52を介して表示装置3に映像信号を送信する(S22)。すなわち、コントローラ5は、マルチコプター6と表示装置3との間で、映像信号を中継する。また、コントローラ5の操作入力部51は、制御装置2の信号出力制御
部242から、マルチコプター6の操作を指示するためのデータを受信する(S23)。そして、コントローラ5は、通信I/F52を介してマルチコプター6へ操作を指示する信号を送信する(S24)。また、コントローラ5は、動作を継続するか判断する(S26)。本ステップでは、例えばユーザから動作終了の指令を受けた場合等に、動作を終了すると判断する。動作を継続する場合(S25:YES)は、S21に戻って処理を繰り返す。一方、動作を継続しない場合(S25:NO)は、処理を終了する。
FIG. 5 is a processing flow diagram showing an example of processing performed by the controller. The
図6は、表示装置が行う処理の一例を示す処理フロー図である。表示装置3は、通信I/F31を介してコントローラ5から映像信号を受信する(図6:S31)。その後、表示装置3の表示部32は、映像を表示する(S32)。また、表示部32は、動作を継続するか判断する(S33)。例えば、ユーザから動作終了の指令を受けた場合、所定時間以上、映像信号を受信しない場合等に、動作を終了すると判断する。動作を継続する場合(S33:YES)は、S31に戻って処理を繰り返す。一方、動作を継続しない場合(S33:NO)は、処理を終了する。
FIG. 6 is a processing flow diagram showing an example of processing performed by the display device. The
図7は、視線検出装置が行う処理の一例を示す処理フロー図である。視線検出装置4が表示装置3に設置された状態において、赤外線送受信部42は、表示装置3の前方に赤外線を送信すると共にその反射光を受信する(図7:S41)。その後、視線検出装置4の視線検出部43は、反射光からユーザの視線を検出できたか判断する(S42)。本ステップでは、視線検出装置4の視線検出部43は、例えばユーザの画像から目における瞳孔の位置を特定し、特定できた場合は視線を検出できたと判断する。視線を検出できた場合(S42:YES)は、視線検出部43は、例えば瞳孔の位置に基づいて注視点を算出する(S43)。本ステップでは、既存の視線検出技術を利用することができ、例えば目頭や角膜における赤外線の反射光等、何らかの基準に対する瞳孔の位置に基づいて、視線の向いている位置を算出する。注視点は、例えば、表示装置3上又は表示装置3に表示される画像上における座標として求めるものとする。また、視線検出部43は、通信I/F41を介して、注視点の位置を示す情報(注視点データ)を制御装置2へ送信する(S44)。S44の後、又はS42において視線を検出できなかった場合(S42:NO)、視線検出装置4は、動作を継続するか判断する(S45)。本ステップでは、例えばユーザから動作終了の指令を受けた場合等に、動作を終了すると判断する。動作を継続する場合(S45:YES)、S41に戻って処理を繰り返す。一方、動作を継続しない場合(S45:NO)は、処理を終了する。
FIG. 7 is a processing flow diagram showing an example of processing performed by the line-of-sight detection device. With the line-of-
図8は、制御装置が行う処理の一例を示す処理フロー図である。制御装置2の操作検出部241は、表示装置3の表示部32上又は表示部32に表示される画像上におけるユーザの注視点の位置を示す情報を、視線検出装置4から取得する(図8:S51)。また、操作検出部241は、取得した注視点の位置を示す情報が、表示装置3の表示部32上における所定の範囲内に含まれるか判断する(S52)。本実施形態では、表示部32上における注視点の位置に応じて、マルチコプター6に対し飛行動作を指示する。すなわち、表示部32上(換言すれば、マルチコプター6の一人称視点画像上)に、ユーザが注視することでマルチコプター6を操作するための操作領域が設けられている。
FIG. 8 is a processing flow diagram showing an example of processing performed by the control device. The
図9は、表示装置上に設定される操作領域の割り当ての一例を示す図である。図9の例では、表示装置3の表示部32上に、マルチコプター6に対し、直進、上昇、下降、左方向への水平回転、及び右方向への水平回転の各動作を指示するための操作領域が割り当てられている。表示部32のほぼ中央に配置された円形の領域321は、マルチコプター6をその場で静止(「ホバリング」又は「待機」とも呼ぶ)させるための待機領域(ニュートラル領域とも呼ぶ)である。待機領域321の内部であって、待機領域321の中央から所定の距離だけ離間した位置に配置された円形の領域322は、マルチコプター6に対して前進を指示するための前進領域322である。図9の例では、前進領域322は、待
機領域321の中央よりも下方に設けられている。また、待機領域321の外側であって、待機領域321の左側に配置された領域323は、マルチコプター6に対して左方向への水平回転を指示するための左回転領域である。図9の例では、正円である待機領域321の左側に接する接線を境界として、当該接線の左側に左回転領域323が設けられている。また、待機領域321の外側であって、待機領域321の右側に配置された領域324は、マルチコプター6に対して右方向への水平回転を指示するための右回転領域である。図9の例では、待機領域321の右側に接する接線を境界として、当該接線の右側に右回転領域324が設けられている。また、待機領域321の外側であって、待機領域321の上方に配置された領域325は、マルチコプター6対して上昇を指示するための上昇領域である。図9の例では、待機領域321と、待機領域321の左側に接する接線と、待機領域321の右側に接する接線と、表示部32の上部の縁とで囲まれるように、上昇領域325が設けられている。また、待機領域321の外側であって、待機領域321の下方に配置された領域326は、マルチコプター6対して下降を指示するための下降領域である。図9の例では、待機領域321と、待機領域321の左側に接する接線と、待機領域321の右側に接する接線と、表示部32の下部の縁とで囲まれるように、下降領域326が設けられている。なお、操作領域の境界は、例えば制御装置2が表示装置3に表示させる映像に重畳して出力するようにしてもよいし、操作領域の境界を透明なシートやパネル等に表示させたものを表示装置3の表示部32に重ねて貼付してもよい。
FIG. 9 is a diagram showing an example of allocation of operation areas set on the display device. In the example of FIG. 9, on the
したがって、図8のS51において取得したユーザの注視点が、前進領域322、左回転領域323、右回転領域324、上昇領域325、若しくは下降領域326、又は待機領域321に含まれる場合、S52において、操作検出部241は、ユーザの注視点が所定の範囲内に存在すると判断する。なお、注視点が表示部32の外である場合は、S52において注視点が所定の範囲内に存在しないと判断される。このとき、マルチコプター6が飛行している状態であれば、その場でホバリングさせる、コントローラ5の近傍まで戻って着陸及び待機させる、又はその場で着陸及び待機させるよう、例えばマルチコプター6の制御部65が自律的に制御するようにしてもよい。
Therefore, when the user's gaze point acquired in S51 of FIG. 8 is included in the
ユーザの注視点が所定の範囲内に存在すると判断された場合(S52:YES)、制御装置2の信号出力制御部242は、注視点の位置に応じて、コントローラ5に対し制御信号の送信を指示するための操作信号を生成する(S53)。また、信号出力制御部242は、生成した操作信号をコントローラ5に対し出力する(S54)。すなわち、ユーザの注視点が前進領域322内に存在する場合、信号出力制御部242は、通信I/F21を介してコントローラ5に、マルチコプター6を前進させるための信号を送信させる。また、ユーザの注視点が左回転領域323内に存在する場合、信号出力制御部242は、通信I/F21を介してコントローラ5に、マルチコプター6を左方向へ水平回転させるための信号を送信させる。また、ユーザの注視点が右回転領域324内に存在する場合、信号出力制御部242は、通信I/F21を介してコントローラ5に、マルチコプター6を右方向へ水平回転させるための信号を送信させる。また、ユーザの注視点が上昇領域325内に存在する場合、信号出力制御部242は、通信I/F21を介してコントローラ5に、マルチコプター6を鉛直上方へ移動させるための信号を送信させる。また、ユーザの注視点が下降領域326内に存在する場合、信号出力制御部242は、通信I/F21を介してコントローラ5に、マルチコプター6を鉛直下方へ移動させるための信号を送信させる。
When it is determined that the point of gaze of the user exists within the predetermined range (S52: YES), the signal
S54の後、又はS52においてユーザの注視点が所定の範囲内に存在しないと判断された場合(S52:NO)、制御装置2は、動作を継続するか判断する(S55)。本ステップでは、例えばユーザから動作終了の指令を受けた場合に、動作を終了すると判断する。なお、表示部32の操作領域に動作の終了を指示するための領域をさらに設け、ユーザが当該領域を所定時間以上見ることで動作を終了すると判断してもよい。また、制御装
置2が動作を終了する前に、マルチコプター6を着陸させるものとする。動作を継続する場合(S55:YES)、S51に戻って処理を繰り返す。一方、動作を継続しない場合(S55:NO)は、処理を終了する。
After S54, or when it is determined in S52 that the point of gaze of the user does not exist within the predetermined range (S52: NO), the
以上のような遠隔操作処理によれば、ユーザは、例えば、表示部32に表示されるマルチコプター6の一人称視点画像の中央付近(すなわち、待機領域321の中央付近)に視線の先を定めることで、マルチコプター6を静止させ、一人称視点画像の全体を認識することができる。すなわち、ユーザは表示部32の中央付近を注視した状態において、表示部32の全体を視野に収め得るようになっている。また、一人称視点画像の端又は外にユーザの興味の対象が存在する場合、ユーザは興味の対象が存在する方向に視線の先を移すことにより、興味の対象が存在する方向にマルチコプター6の向き及び位置を変えるよう遠隔操作することができる。
According to the above-described remote control processing, the user can set the line of sight near the center of the first-person viewpoint image of the
図10~図12は、マルチコプターの操作を説明するための、マルチコプターの一人称視点画像の一例を示す図である。例えば、図10に示すように、表示部32に表示された一人称視点画像の右上に、ユーザがマルチコプター6を近づけたいと考える目標7が存在する場合、ユーザは表示部32の右上に位置する目標7を注視する。このとき、操作検出部241は、右回転領域324内に注視点を検出する。その後、信号出力制御部242は、コントローラ5を介して、マルチコプター6へ右側への水平回転を指示する信号を出力する。マルチコプター6が右側へ水平回転すると、例えば図11に示すように、上述した目標7は表示部32に表示される一人称視点画像において左に移動する。そして、目標7が上昇領域325に移動すると、これに応じてユーザの注視点も例えば上昇領域325内に移動する。すると、操作検出部241は、上昇領域325内に注視点を検出する。その後、信号出力制御部242は、コントローラ5を介して、マルチコプター6へ上昇を指示する信号を出力する。そして、マルチコプター6が鉛直上方へ移動すると、例えば図12に示すように、上述した目標7は表示部32に表示される一人称視点画像において下方に移動する。目標7が待機領域321に移動すると、これに応じてユーザの注視点も例えば待機領域321内に移動する。すると、操作検出部241は、待機領域321内にユーザの注視点を検出する。この場合は、信号出力制御部242はマルチコプター6に動作を指示せず、その場でホバリングさせる。また、ユーザは、マルチコプター6を目標7に近づけたい場合は、前進領域322を注視することで、操作検出部241に注視点を検出させ、信号出力制御部242にコントローラ5へ前進を指示するための信号を出力させることができる。
10 to 12 are diagrams showing examples of first-person viewpoint images of a multicopter for explaining the operation of the multicopter. For example, as shown in FIG. 10, when the
以上のように、本実施形態に係る操作領域の配置、及び各領域に対するマルチコプター6への動作指示との対応付けによれば、ユーザは直感的にマルチコプター6を遠隔操作することができる。また、水平方向の移動のうち前進のみに限定することで、マルチコプター6の一人称画像からユーザが危険を認識し難い後退及び左右の平行移動を制限し、事故の発生を抑えることができる。
As described above, according to the arrangement of the operation areas and the association of operation instructions to the
<操作領域>
図13及び図14は、表示装置上に設定される操作領域の位置及び大きさを説明するための図である。本実施形態においては、人間の視野及び眼球運動に基づいて操作領域を設定している。図13は、ユーザの視点(眼球)と、表示部32上の注視点との関係を示している。一般的に、物体の形状等を高い解像力で人間が識別するためには、視角が1~2度程度の網膜中心部位に網膜像を映じるような中心視による必要がある。本実施形態では、操作領域(例えば前進領域322)の大きさを、少なくとも中心視によって捉えられる範囲程度の大きさとする。
<Operation area>
13 and 14 are diagrams for explaining the position and size of the operation area set on the display device. In this embodiment, the operation area is set based on the human visual field and eye movement. FIG. 13 shows the relationship between the user's viewpoint (eyeball) and the gaze point on the
また、人間が中心視で対象物を捉え続ける(固視する)場合、マイクロサッケード(固
視微動)という眼球運動が生じる。マイクロサッケードは、視線の振幅が1~2度程度の非随意的に生じる運動である。また、ばらつきはあるが、平均速度は10度/秒程度、頻度は1~3Hz程度である。視線検出装置4が、マイクロサッケードによる視線の変化を検出できるような場合、操作領域の配置又は大きさによっては、マイクロサッケードの影響でユーザは意識せずに誤操作を起こすおそれがある。そこで、本実施形態では、マイクロサッケードによってもユーザが注視している領域を外れないような配置及び大きさで、操作領域を設定する。
In addition, when a human keeps (fixes) an object with central vision, an eye movement called a microsaccade occurs. Microsaccades are involuntary movements of the order of magnitude of 1-2 degrees of gaze. Although there are variations, the average speed is about 10 degrees/second and the frequency is about 1 to 3 Hz. If the line-of-
図13に示す円形の前進領域322の半径rは、眼球から注視点までの距離をl、眼球及び注視点を結ぶ直線と、眼球及び表示部32に表示される画像上における中心視可能な範囲の端を結ぶ直線とのなす角をθとすると、以下の式(1)で求められる。すなわち、rは、中心視可能な範囲の半径である。また、θは、マイクロサッケードにより視線が動く角度でもある。
r=ltanθ ・・・(1)
例えば、lは550mmとし、θを2度とすると、rは19.2mmである。
The radius r of the
r=l tan θ (1)
For example, if l is 550 mm and θ is 2 degrees, r is 19.2 mm.
また、図14は、図9に示した操作領域と、上述した半径rとの関係を示す図である。前進領域322は、待機領域321の中央から所定の距離以上離間して配置されている。例えば、ユーザが待機領域321の中央に注視点を固定した場合に、検出される注視点がマイクロサッケードの影響により前進領域322内に入らないように、前進領域322は、待機領域321の中央に対し半径rの円内に入らないように配置する。すなわち、前進領域322は、待機領域321の中央を中心として中心視可能な範囲の外に設けられる。したがって、待機領域321の中心と前進領域322の中心との距離は、2r以上離間させる。換言すれば、待機領域321の中心と前進領域322との距離は、r以上である。図14の例では、待機領域321の中心と前進領域322の中心との距離を3rとしている。また、前進領域322と下降領域326との距離も、例えばマイクロサッケードの影響により相互に境界を超えて注視点の移動が検出されないよう、待機領域321を挟んで長さr以上、離間させている。
FIG. 14 is a diagram showing the relationship between the operation area shown in FIG. 9 and the radius r described above. The
以上のような操作領域の配置であれば、マイクロサッケードの影響による無意識的な誤操作(換言すれば、視線検出装置4による誤検出)を抑制することができる。 With the arrangement of the operation regions as described above, unconscious erroneous operations (in other words, erroneous detection by the line-of-sight detection device 4) due to the influence of microsaccades can be suppressed.
<実施例>
ユーザと表示装置3の表示部32との距離lを550mm、前進領域322の半径rを19.2mm、待機領域321の半径5rを96.0mmとして、上述の実施の形態に示す操作領域を設定した。また、被験者は、20歳代の成人12名であり、本システムを初めて使用する者である。本システムを用いて被験者にマルチコプターを遠隔操作させた結果、12名中、1名は、1回目の飛行でマルチコプターを墜落させたが、2回目の飛行では墜落させることなく所定の区間を飛行させることができた。また、他の11名はマルチコプターを墜落させることなく所定の区間を飛行させることができた。
<Example>
Setting the distance l between the user and the
<操作領域の変形例>
図15は、操作領域の配置の変形例を示す図である。本変形例においては、待機領域321及び前進領域322の形状を楕円とする。この形状は、両眼視における人間の視野に近づけたものであり、表示装置3の表示部32の横方向に長軸をとり、縦方向に短軸をとっている。また、単軸と長軸との比率も例えば視野に合わせる等して適宜決定することができる。
<Modified example of operation area>
FIG. 15 is a diagram showing a modification of the layout of the operation regions. In this modification, the shapes of the
本変形例においても、マイクロサッケードの影響により、操作領域の境界を超えて注視点の移動が検出されないように操作領域の位置、大きさ及び形状を設定することが望まし
い。例えば、前進領域322の短軸の長さrは、上述した中心視可能な範囲の半径又はマイクロサッケードによる視線の振幅であるθと、眼球から注視点までの距離lを用いて求められる値としてもよい。ただし、このように大きさを定める場合、表示部32の大きさによっては操作領域をバランスよく配置できないこともある。そこで、待機領域321の中心と前進領域322の中心との距離を3rでなく2rとしてもよいし、特に前進領域322の下端から待機領域の下端までの距離をr以下にしてもよい。また、このように定められる待機領域321及び前進領域322全体を縮小するようにしてもよい。
Also in this modification, it is desirable to set the position, size, and shape of the operation area so that the movement of the gaze point beyond the boundary of the operation area is not detected due to the influence of microsaccades. For example, the length r of the minor axis of the advancing
このような変形例に係る操作領域によっても、マイクロサッケードの影響による無意識的な誤操作を抑制することができる。 An operation area according to such a modified example can also suppress unconscious erroneous operations due to the influence of microsaccades.
<その他>
本システムにより遠隔操作される制御対象の移動物体は、マルチコプターには限定されない。例えば、ドローン(無人航空機)、ヘリコプター、飛行船、多脚ロボット、又は車輪若しくはクローラ等で走行するロボット等を制御対象としてもよい。制御対象が地上を移動する装置である場合は、上昇領域及び下降領域を設けなくてもよいし、上昇領域及び下降領域に代えて、他の動作を指示するための領域を割り当てるようにしてもよい。また、制御対象の装置は、無線で制御されるものには限定されず、有線で給電等されるものであってもよい。また、制御対象の装置は、ロボットハンド等のエンドエフェクタや、マイク、スピーカ、その他の装置をさらに備えるようにしてもよい。これらの装置についても視線で操作できるようにしてもよいし、コントローラを用いてユーザが手で操作できるようにしてもよい。また、装置等の物体の移動を制御するだけでなく、遠隔地にあるコンピュータや家電製品、工場の機械、医療機器等の操作に用いるようにしてもよい。なお、上述したシステムによれば遠隔操作を行うことができるため、無線操縦可能な装置の操作に好適であり、特に上昇及び下降が可能な無人飛行物体の操作に適している。
<Others>
A moving object to be remotely controlled by this system is not limited to a multicopter. For example, drones (unmanned aerial vehicles), helicopters, airships, multi-legged robots, or robots that run on wheels or crawlers may be controlled. If the object to be controlled is a device that moves on the ground, it is not necessary to provide the ascending area and descending area, or instead of the ascending area and descending area, an area for instructing other operations may be assigned. good. In addition, the device to be controlled is not limited to one that is wirelessly controlled, and may be one that receives power through a wire. Also, the device to be controlled may further include an end effector such as a robot hand, a microphone, a speaker, and other devices. These devices may also be operated by sight, or may be operated manually by the user using a controller. In addition to controlling the movement of objects such as devices, it may be used to operate remote computers, home electric appliances, factory machines, medical equipment, and the like. Since the system described above can be operated remotely, it is suitable for operating a device that can be controlled wirelessly, and is particularly suitable for operating an unmanned flying object capable of ascending and descending.
また、操作領域の位置、大きさ、形状、分割数は、図9等に示した例には限定されない。待機領域321の上側に接する接線を境界として、当該接線の上側に上昇領域325を設け、待機領域321の下側に接する接線を境界として、当該接線の下側に下降領域326を設けるようにしてもよい。この場合は、例えば、待機領域321と、待機領域321の上側に接する接線と、待機領域321の下側に接する接線と、表示部32の左側の縁とで囲まれるように、左回転領域323を設け、待機領域321と、待機領域321の上側に接する接線と、待機領域321の下側に接する接線と、表示部32の右側の縁とで囲まれるように、右回転領域324を設ける。また、左回転領域323と上昇領域325との境界、上昇領域325と右回転領域324との境界、右回転領域324と下降領域326との境界、下降領域326と左回転領域323との境界は、それぞれ待機領域321の接線には限定されない。例えば、これらの境界を、表示部32の中央から外側へ放射状に引かれる線によって定めるようにしてもよい。
Further, the position, size, shape, and number of divisions of the operation area are not limited to the examples shown in FIG. 9 and the like. With a tangent line in contact with the upper side of the
待機領域321や前進領域322の形状は、真円又は楕円には限定されず、多角形等であってもよい。また、操作領域の分割数を増やし、離着陸や動作速度の変更、その他の動作を視線の動きによって制御できるようにしてもよい。また、実施形態又は変形例に示した操作領域において、例えば、左方向の水平回転、右方向の水平回転、上昇、下降については、各操作領域において表示部32の中心からの距離が離れるほど、又は表示部32の左右・上下の縁に近づくほど、動作速度を大きくしてもよい。
The shape of the
また、表示装置3とユーザとの距離lも、上述した例には限定されない。また、表示装置3とユーザとの距離を既存の測距センサ等で測定し、距離の変化に応じて操作領域の大きさを変更してもよい。
Also, the distance l between the
また、待機領域321の外側であって、待機領域321の右側に配置された領域324は、マルチコプター6に対して右方向への水平回転を指示するための右回転領域である。図9の例では、待機領域321の右側に接する接線を境界として、当該接線の右側に右回転領域324が設けられている。また、待機領域321の外側であって、待機領域321の上方に配置された領域325は、マルチコプター6対して上昇を指示するための上昇領域である。図9の例では、待機領域321と、待機領域321の左側に接する接線と、待機領域321の右側に接する接線と、表示部32の上部の縁とで囲まれるように、上昇領域325が設けられている。また、待機領域321の外側であって、待機領域321の下方に配置された領域326は、マルチコプター6対して下降を指示するための下降領域である。図9の例では、待機領域321と、待機領域321の左側に接する接線と、待機領域321の右側に接する接線と、表示部32の下部の縁とで囲まれるように、下降領域326が設けられている。なお、操作領域の境界は、例えば制御装置2が表示装置3に表示させる映像に重畳して出力するようにしてもよいし、操作領域の境界を透明なシートやパネル等に表示させたものを表示装置3の表示部32に重ねて貼付してもよい。
An
図2に示した装置構成は一例であり、同様の処理部を複数の装置が分担して備えるようにしてもよい。例えばコントローラ5に代えて、制御装置2が撮像装置64の映像を中継してもよい。また、マルチコプター6の撮像装置64と連携して動作するFPV(First Person View)システムが、制御装置2とは別に設けられるようにしてもよい。また、制
御装置2、表示装置3、視線検出装置4及びコントローラ5の全部又は一部が、一体の装置であってもよい。
The device configuration shown in FIG. 2 is an example, and a plurality of devices may share the same processing units. For example, instead of the
また、視線検出装置4は、赤外線を利用してユーザの瞳孔の位置を検出するものには限定されない。例えば、可視光を撮像した画像を利用して光彩の位置を検出することにより、視線の向きを特定するものであってもよいし、所定の電位差を利用するユーザ接触型の方式であってもよい。
Moreover, the line-of-
なお、上述した構成は一例であり、本発明は例示した構成に限定されない。例えば、上述した事項は、本発明の課題や技術的思想を逸脱しない範囲で適宜組み合わせることができる。また、上述した処理のステップを、ソフトウェアによってコンピュータが実行する方法や、PLD(Programmable Logic Device)等のハードウェアによって装置が実行す
る方法、コンピュータに実行させるプログラムとして実現してもよい。プログラムは、コンピュータが読み取り可能な記録媒体に記録して提供するようにしてもよい。コンピュータが読み取り可能な記録媒体とは、情報を電気的、磁気的、光学的、機械的、又は化学的作用によって蓄積し、コンピュータによって読み取ることができる記録媒体をいう。このような記録媒体のうち、コンピュータから取り外し可能なものとしては、例えば光ディスク、光磁気ディスク、フレキシブルディスク、磁気テープ、メモリカード等がある。また、コンピュータに固定された記録媒体としてHDD(Hard Disk Drive)、SSD(Solid
State Drive)、ROM(Read Only Memory)等が挙げられる。
The configuration described above is an example, and the present invention is not limited to the illustrated configuration. For example, the matters described above can be appropriately combined without departing from the subject and technical idea of the present invention. Further, the steps of the processing described above may be implemented as a method executed by a computer using software, a method executed by a device using hardware such as a PLD (Programmable Logic Device), or a program executed by a computer. The program may be recorded on a computer-readable recording medium and provided. A computer-readable recording medium is a recording medium that can store information by electrical, magnetic, optical, mechanical, or chemical action and can be read by a computer. Examples of such recording media that can be removed from the computer include optical discs, magneto-optical discs, flexible discs, magnetic tapes, memory cards, and the like. In addition, HDDs (Hard Disk Drives) and SSDs (Solid Drives) are used as recording media fixed to computers.
State Drive), ROM (Read Only Memory), and the like.
1 :遠隔操作システム
2 :制御装置
21 :通信I/F
22 :記憶装置
23 :入出力装置
24 :プロセッサ
241 :操作検出部
242 :信号出力制御部
25 :バス
3 :表示装置
31 :通信I/F
32 :表示部
321 :待機領域
322 :前進領域
323 :左回転領域
324 :右回転領域
325 :上昇領域
326 :下降領域
4 :視線検出装置
41 :通信I/F
42 :赤外線送受信部
43 :視線検出部
5 :コントローラ
51 :操作入力部
52 :通信I/F
6 :マルチコプター
61 :通信I/F
62 :ロータ
63 :センサ
64 :撮像装置
65 :制御部
1: remote control system 2: control device 21: communication I/F
22: storage device 23: input/output device 24: processor 241: operation detection unit 242: signal output control unit 25: bus 3: display device 31: communication I/F
32: Display unit 321: Standby area 322: Advance area 323: Left rotation area 324: Right rotation area 325: Rising area 326: Falling area 4: Line of sight detection device 41: Communication I/F
42: Infrared transmission/reception unit 43: Line of sight detection unit 5: Controller 51: Operation input unit 52: Communication I/F
6: Multicopter 61: Communication I/F
62: rotor 63: sensor 64: imaging device 65: control unit
Claims (11)
前記制御対象の移動物体が備える前記撮像装置によって撮像された画像を表示する表示装置に対向する前記ユーザの視線を検出し、前記画像上における前記ユーザの注視点を出力する視線検出装置から、前記注視点の情報を取得すると共に、取得した情報が示す注視点が所定の領域に含まれるか判断する操作検出部と、
前記情報が示す注視点が前記所定の領域に含まれる場合は、当該領域に対応付けられた、前記制御対象の移動物体を制御するための信号を送信させる信号出力制御部と、
を備え、
前記所定の領域は、前記画像のほぼ中央に、前記制御対象の移動物体を待機させるための待機領域を有し、当該待機領域の内部であって、当該待機領域の中央から所定の距離離間した位置に、前記制御対象の移動物体を前進させるための前進領域を含む
移動物体の遠隔制御装置。 A control device for remotely controlling a moving object to be controlled while a user views an image captured by an imaging device provided in the moving object to be controlled,
from a line-of-sight detection device that detects a line of sight of the user facing a display device that displays an image picked up by the imaging device included in the moving object to be controlled, and that outputs the gaze point of the user on the image; an operation detection unit that acquires gaze point information and determines whether the gaze point indicated by the acquired information is included in a predetermined area;
a signal output control unit for transmitting a signal for controlling the moving object to be controlled, which is associated with the predetermined area when the point of gaze indicated by the information is included in the predetermined area;
with
The predetermined area has a standby area for waiting the moving object to be controlled in approximately the center of the image, and is inside the standby area and separated from the center of the standby area by a predetermined distance. A remote control device for a moving object, wherein the position includes an advance area for advancing the moving object to be controlled.
請求項1に記載の移動物体の遠隔制御装置。 2. The remote control device for a moving object according to claim 1, wherein the boundary of said predetermined area is displayed as an image on said display device, or displayed on a sheet or panel superimposed on said display device.
r=ltanθ ・・・(1)
前記待機領域の中心から垂直下方向に3rの位置を中心に上下方向にrの長さの範囲に配置される
請求項1又は2に記載の移動物体の遠隔制御装置。 The forward region is defined by a distance l from the eyeball to the point of gaze on the image, and a straight line connecting the eyeball and the point of gaze, and a line connecting the eyeball and the end of the central vision range on the image displayed on the display device. The radius r of the centrally visible range obtained when the angle with the straight line is θ is obtained by the following formula (1),
r=l tan θ (1)
3. The remote control device for a moving object according to claim 1, wherein the remote control device for a moving object is arranged in a range of length r in the vertical direction centered on a position 3r vertically downward from the center of the standby area.
請求項3に記載の移動物体の遠隔制御装置。 4. The remote control device for a moving object according to claim 3, wherein the forward movement area is arranged at a position r in the upward direction from the lowermost end in the downward direction from the center of the standby area.
請求項3又は4に記載の移動物体の遠隔制御装置。 5. The remote control device for a moving object according to claim 3, wherein said θ is 1 to 2 degrees.
請求項1から5のいずれか一項に記載の移動物体の遠隔制御装置。 6. The remote control of the moving object according to any one of claims 1 to 5, wherein areas for horizontally rotating the moving object to be controlled to the left and right around a vertical rotation axis are provided on the left and right sides of the standby area. Control device.
前記待機領域の上下に、それぞれ前記無人飛行物体を上昇・下降させるための領域を備える
請求項1から6のいずれか一項に記載の移動物体の遠隔制御装置。 the moving object to be controlled is an unmanned flying object;
The remote control device for a moving object according to any one of claims 1 to 6, further comprising areas for raising and lowering the unmanned flying object above and below the standby area.
請求項7に記載の移動物体の遠隔制御装置。 The remote control device for a moving object according to claim 7, wherein the unmanned flying object is any one of a multicopter, a drone, a helicopter, and an airship.
前記視線検出装置と、
前記制御対象の移動物体と、
前記制御対象の移動物体を制御するための信号を送信するコントローラと、
を備える遠隔制御システム。 A remote control device for a moving object according to any one of claims 1 to 7;
the line-of-sight detection device;
the moving object to be controlled;
a controller that transmits a signal for controlling the moving object to be controlled;
A remote control system with
前記制御対象の移動物体が備える前記撮像装置によって撮像された画像を表示する表示装置に対向する前記ユーザの視線を検出し、前記画像上における前記ユーザの注視点を出力する視線検出装置から、前記注視点の情報を取得すると共に、取得した情報が示す注視点が所定の領域に含まれるか判断するステップと、
前記情報が示す注視点が前記所定の領域に含まれる場合は、当該領域に対応付けられた、前記制御対象の移動物体を制御するための信号を送信させるステップと、
を遠隔制御装置が実行し、
前記所定の領域は、前記画像のほぼ中央に、前記制御対象の移動物体を待機させるための待機領域を有し、当該待機領域の内部であって、当該待機領域の中央から所定の距離離間した位置に、前記制御対象の移動物体を前進させるための前進領域を含む
移動物体の遠隔制御方法。 A control method for remotely controlling a moving object to be controlled while a user views an image captured by an imaging device included in the moving object to be controlled,
from a line-of-sight detection device that detects a line of sight of the user facing a display device that displays an image picked up by the imaging device included in the moving object to be controlled, and that outputs the gaze point of the user on the image; a step of acquiring information about the gaze point and determining whether the gaze point indicated by the acquired information is included in a predetermined area;
if the point of gaze indicated by the information is included in the predetermined area, transmitting a signal for controlling the moving object to be controlled, which is associated with the area;
is executed by the remote controller and
The predetermined area has a standby area for waiting the moving object to be controlled in approximately the center of the image, and is inside the standby area and separated from the center of the standby area by a predetermined distance. A moving object remote control method, wherein the position includes an advancing area for advancing the moving object to be controlled.
前記制御対象の移動物体が備える前記撮像装置によって撮像された画像を表示する表示装置に対向する前記ユーザの視線を検出し、前記画像上における前記ユーザの注視点を出力する視線検出装置から、前記注視点の情報を取得すると共に、取得した情報が示す注視点が所定の領域に含まれるか判断するステップと、
前記情報が示す注視点が前記所定の領域に含まれる場合は、当該領域に対応付けられた、前記制御対象の移動物体を制御するための信号を送信させるステップと、
を遠隔制御装置に実行させ、
前記所定の領域は、前記画像のほぼ中央に、前記制御対象の移動物体を待機させるための待機領域を有し、当該待機領域の内部であって、当該待機領域の中央から所定の距離離間した位置に、前記制御対象の移動物体を前進させるための前進領域を含む
移動物体の遠隔制御プログラム。 A control program for remotely controlling a moving object to be controlled while a user views an image captured by an imaging device included in the moving object to be controlled,
from a line-of-sight detection device that detects a line of sight of the user facing a display device that displays an image picked up by the imaging device included in the moving object to be controlled, and that outputs the gaze point of the user on the image; a step of acquiring information about the gaze point and determining whether the gaze point indicated by the acquired information is included in a predetermined area;
if the point of gaze indicated by the information is included in the predetermined area, transmitting a signal for controlling the moving object to be controlled, which is associated with the area;
is executed by the remote control device,
The predetermined area has a standby area for waiting the moving object to be controlled in approximately the center of the image, and is inside the standby area and separated from the center of the standby area by a predetermined distance. A remote control program for a moving object, wherein the position includes an advance area for advancing the moving object to be controlled.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018122538A JP7128409B2 (en) | 2018-06-27 | 2018-06-27 | REMOTE CONTROL DEVICE, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD AND REMOTE CONTROL PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018122538A JP7128409B2 (en) | 2018-06-27 | 2018-06-27 | REMOTE CONTROL DEVICE, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD AND REMOTE CONTROL PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020005114A JP2020005114A (en) | 2020-01-09 |
JP7128409B2 true JP7128409B2 (en) | 2022-08-31 |
Family
ID=69100636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018122538A Active JP7128409B2 (en) | 2018-06-27 | 2018-06-27 | REMOTE CONTROL DEVICE, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD AND REMOTE CONTROL PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7128409B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104781873A (en) | 2012-11-13 | 2015-07-15 | 索尼公司 | Image display device and image display method, mobile body device, image display system, and computer program |
US20170153701A1 (en) | 2015-12-01 | 2017-06-01 | Thalmic Labs Inc. | Systems, devices, and methods for wearable heads-up displays as wireless controllers |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102449439B1 (en) * | 2016-01-29 | 2022-09-30 | 한국전자통신연구원 | Apparatus for unmanned aerial vehicle controlling using head mounted display |
-
2018
- 2018-06-27 JP JP2018122538A patent/JP7128409B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104781873A (en) | 2012-11-13 | 2015-07-15 | 索尼公司 | Image display device and image display method, mobile body device, image display system, and computer program |
US20170153701A1 (en) | 2015-12-01 | 2017-06-01 | Thalmic Labs Inc. | Systems, devices, and methods for wearable heads-up displays as wireless controllers |
Non-Patent Citations (1)
Title |
---|
安達佳仁, 甲斐義弘,視線検出デバイスを用いたマルチコプタの操作システムの検討,日本機械学会関東支部総会講演会講演論文集,2017.23,日本,2017年03月16日 |
Also Published As
Publication number | Publication date |
---|---|
JP2020005114A (en) | 2020-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11422560B2 (en) | Flying camera and a system | |
US11340606B2 (en) | System and method for controller-free user drone interaction | |
US11106201B2 (en) | Systems and methods for target tracking | |
US11669987B2 (en) | Obstacle avoidance during target tracking | |
EP3494443B1 (en) | Systems and methods for controlling an image captured by an imaging device | |
US11383834B2 (en) | Unmanned flying object and method of controlling unmanned flying object | |
KR20180068411A (en) | Controlling method for operation of unmanned vehicle and electronic device supporting the same | |
KR102449439B1 (en) | Apparatus for unmanned aerial vehicle controlling using head mounted display | |
US20220317708A1 (en) | Unmanned aerial vehicle protection method and apparatus and unmanned aerial vehicle | |
WO2020233607A1 (en) | Unmanned aerial vehicle control method and apparatus and computer-readable storage medium | |
US20190317528A1 (en) | Drone maneuvering system, maneuvering signal transmitter set, and drone maneuvering method | |
KR20180025416A (en) | Drone flying control system and method using motion recognition and virtual reality | |
JP2019085041A (en) | Terminal and method for operating drone, and program therefor | |
JP7128409B2 (en) | REMOTE CONTROL DEVICE, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD AND REMOTE CONTROL PROGRAM | |
EP3288828B1 (en) | Unmanned aerial vehicle system and method for controlling an unmanned aerial vehicle | |
JP7092981B2 (en) | Mobile control program, mobile control method and information processing device | |
US20240370031A1 (en) | Control method for movable platform, head-mounted device, system, and storage medium | |
US20220234612A1 (en) | Location indicator devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210526 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220624 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7128409 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |