[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6470112B2 - Mobile device operation terminal, mobile device operation method, and mobile device operation program - Google Patents

Mobile device operation terminal, mobile device operation method, and mobile device operation program Download PDF

Info

Publication number
JP6470112B2
JP6470112B2 JP2015111398A JP2015111398A JP6470112B2 JP 6470112 B2 JP6470112 B2 JP 6470112B2 JP 2015111398 A JP2015111398 A JP 2015111398A JP 2015111398 A JP2015111398 A JP 2015111398A JP 6470112 B2 JP6470112 B2 JP 6470112B2
Authority
JP
Japan
Prior art keywords
moving
mobile device
touch panel
moving device
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015111398A
Other languages
Japanese (ja)
Other versions
JP2016225872A (en
Inventor
えりか 足利
えりか 足利
崇裕 松元
崇裕 松元
結城 遠藤
結城 遠藤
誉宗 巻口
誉宗 巻口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015111398A priority Critical patent/JP6470112B2/en
Publication of JP2016225872A publication Critical patent/JP2016225872A/en
Application granted granted Critical
Publication of JP6470112B2 publication Critical patent/JP6470112B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)
  • Telephone Function (AREA)
  • Toys (AREA)
  • Studio Devices (AREA)

Description

本発明は、移動装置を遠隔操作する技術に関する。   The present invention relates to a technique for remotely operating a mobile device.

現在、移動装置を遠隔操作するための技術が研究開発されている。非特許文献1によれば、小型飛行機を操作するため、飛行高度等のパラメータを調整するための入力画面を備えた操作端末や、任意の方向に回動可能なジョイステック及び機体模型が提案されている。   Currently, techniques for remotely operating mobile devices are being researched and developed. According to Non-Patent Document 1, an operation terminal having an input screen for adjusting parameters such as a flight altitude, a joystick and a body model that can be rotated in any direction are proposed for operating a small airplane. ing.

M. Quigley、“Semi-Autonomous Human-UAV Interfaces for Fixed-Wing Mini-UAVs”、Proc. of IEEE’04、Intelligent Robots and Systems, Vol.3、2005年、p.2457-p.2462M. Quigley, “Semi-Autonomous Human-UAV Interfaces for Fixed-Wing Mini-UAVs”, Proc. Of IEEE’04, Intelligent Robots and Systems, Vol.3, 2005, p.2457-p.2462

しかしながら、従来の操作端末の場合、入力された数値に基づいて移動装置を操作するため、飛行高度等を直感的に制御することは難しい。一方、ジョイステックや機体模型の場合、手首の動作で制御可能であり、操作端末よりも直感的な操作性を実現できる。しかし、大凡の感覚的な手首の回動動作で操作するため、飛行高度等を適切に調整することは困難である。つまり、従来の技術では、移動装置をどの程度移動させるかの操作を直感的に行うことが困難であった。   However, in the case of a conventional operation terminal, it is difficult to intuitively control the flight altitude and the like because the mobile device is operated based on the input numerical values. On the other hand, in the case of a joystick or an aircraft model, it can be controlled by the movement of the wrist and can realize intuitive operability compared to the operation terminal. However, it is difficult to adjust the flight altitude or the like appropriately because the operation is performed with a roughly sensory wrist rotation. That is, with the conventional technology, it is difficult to intuitively perform an operation of how much the moving device is moved.

本発明は、上記事情を鑑みてなされたものであり、移動装置の遠隔操作性を改善することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to improve the remote operability of a mobile device.

以上の課題を解決するため、請求項1に記載の移動装置操作端末は、移動装置の撮像手段で撮像された撮像画像を画面に表示する表示手段と、前記撮像画像に含まれる領域を指定する操作を受け付ける受付手段と、撮像画像が前記指定の領域に近づくように前記移動装置を移動させる制御手段と、を有することを要旨とする。   In order to solve the above problem, the mobile device operation terminal according to claim 1 designates a display unit that displays a captured image captured by an imaging unit of the mobile device on a screen, and an area included in the captured image. The gist of the invention is to include an accepting unit that accepts an operation, and a control unit that moves the moving device so that the captured image approaches the designated region.

本発明によれば、移動装置の撮像手段で撮像された撮像画像を画面に表示し、該撮像画像に含まれる領域を指定する操作を受け付け、撮像画像が該指定の領域に近づくように上記移動装置を移動させるため、移動装置の遠隔操作性を向上できる。   According to the present invention, the captured image captured by the imaging unit of the moving device is displayed on the screen, an operation for designating an area included in the captured image is received, and the movement is performed so that the captured image approaches the designated area. Since the device is moved, the remote operability of the moving device can be improved.

請求項2に記載の移動装置操作端末は、移動装置の撮像手段で撮像された撮像画像を画面に表示する表示手段と、前記撮像画像に含まれる領域を指定する操作を受け付ける受付手段と、撮像画像が前記指定の領域から遠ざかるように前記移動装置を移動させる制御手段と、を有することを要旨とする。   The mobile device operation terminal according to claim 2 includes a display unit that displays a captured image captured by an imaging unit of the mobile device on a screen, a reception unit that receives an operation for designating an area included in the captured image, and an imaging unit. And a control means for moving the moving device so that the image moves away from the designated area.

請求項3に記載の移動装置操作端末は、請求項1又は2に記載の移動装置操作端末において、前記表示手段と前記受付手段は、タッチパネルであって、前記領域を指定する操作は、前記タッチパネルに指をタッチして前記領域を囲む操作であることを要旨とする。   The mobile device operation terminal according to claim 3 is the mobile device operation terminal according to claim 1 or 2, wherein the display unit and the reception unit are touch panels, and the operation for designating the region is performed by the touch panel. The gist of the operation is to surround the region by touching the finger.

請求項4に記載の移動装置操作端末は、請求項1又は3に記載の移動装置操作端末において、前記表示手段と前記受付手段は、タッチパネルであって、前記制御手段は、前記タッチパネルに対するピンチアウトの操作に基づき前記移動装置を前進させることを要旨とする。   The mobile device operation terminal according to claim 4 is the mobile device operation terminal according to claim 1 or 3, wherein the display unit and the reception unit are touch panels, and the control unit pinches out the touch panel. The gist is to move the moving device forward based on the operation.

請求項5に記載の移動装置操作端末は、請求項2又は3に記載の移動装置操作端末において、前記表示手段と前記受付手段は、タッチパネルであって、前記制御手段は、前記タッチパネルに対するピンチインの操作に基づき前記移動装置を後退させることを要旨とする。   The mobile device operation terminal according to claim 5 is the mobile device operation terminal according to claim 2 or 3, wherein the display means and the reception means are touch panels, and the control means is a pinch-in to the touch panel. The gist is to retract the moving device based on the operation.

請求項6に記載の移動装置操作端末は、移動装置の撮像手段で撮像された撮像画像を画面に表示する表示手段と、前記撮像画像の移動方向を指定する操作を受け付ける受付手段と、前記移動方向が撮像されるように前記移動装置を移動させる制御手段と、を有することを要旨とする。   The mobile device operation terminal according to claim 6, a display unit that displays a captured image captured by an imaging unit of the mobile device on a screen, a reception unit that receives an operation for designating a moving direction of the captured image, and the movement And a control means for moving the moving device so that the direction is imaged.

請求項7に記載の移動装置操作端末は、請求項6に記載の移動装置操作端末において、前記表示手段と前記受付手段は、タッチパネルであり、
前記移動方向を指定する操作は、前記タッチパネルに指をタッチしてスライドさせるドラッグ操作であって、前記制御手段は、前記ドラッグ操作に基づき回転、上昇、又は下降のうち少なくとも1つを前記移動装置に実行させることを特徴とする。
The mobile device operation terminal according to claim 7 is the mobile device operation terminal according to claim 6, wherein the display unit and the reception unit are touch panels.
The operation for designating the moving direction is a drag operation in which a finger touches and slides on the touch panel, and the control means performs at least one of rotation, ascending or descending based on the drag operation on the moving device. It is made to perform.

請求項8に記載の移動装置操作方法は、移動装置操作端末で行う移動装置操作方法において、前記移動装置操作端末は、移動装置の撮像手段で撮像された撮像画像を画面に表示する表示ステップと、前記撮像画像に含まれる領域を指定する操作を受け付ける受付ステップと、撮像画像が前記指定の領域に近づくように前記移動装置を移動させる制御ステップと、を有することを要旨とする。   The mobile device operation method according to claim 8, wherein the mobile device operation terminal is a mobile device operation method performed by a mobile device operation terminal, wherein the mobile device operation terminal displays a captured image captured by an imaging unit of the mobile device on a screen. The gist of the invention is to include an accepting step for accepting an operation for designating an area included in the captured image, and a control step for moving the moving device so that the captured image approaches the designated area.

請求項9に記載の移動装置操作プログラムは、請求項1乃至7のいずれかに記載の移動装置操作端末としてコンピュータを機能させることを特徴とする。   A mobile device operation program according to a ninth aspect causes a computer to function as the mobile device operation terminal according to any one of the first to seventh aspects.

本発明によれば、移動装置の遠隔操作性を向上できる。   According to the present invention, the remote operability of the mobile device can be improved.

操作端末の機能ブロック構成を示す図である。It is a figure which shows the functional block structure of an operating terminal. カメラ映像表示部の処理フローを示す図である。It is a figure which shows the processing flow of a camera image display part. 移動装置制御部の処理フローを示す図である。It is a figure which shows the processing flow of a moving apparatus control part. 移動装置の操作例(ピンチアウト時)を示す図である。It is a figure which shows the operation example (at the time of a pinch out) of a moving apparatus. 移動装置の操作例(ピンチイン時)を示す図である。It is a figure which shows the operation example (at the time of pinch in) of a moving apparatus. 移動装置の操作例(右方向ドラッグ時)を示す図である。It is a figure which shows the operation example (at the time of a right direction drag) of a moving apparatus. 移動装置の操作例(下方向ドラッグ時)を示す図である。It is a figure which shows the example of operation of a moving apparatus (at the time of a downward drag).

以下、本発明を実施する一実施の形態について図面を用いて説明する。   Hereinafter, an embodiment for carrying out the present invention will be described with reference to the drawings.

図1は、本実施の形態に係る操作端末1の機能ブロック構成を示す図である。該操作端末1は、カメラを備えた移動装置2を遠隔操作するための端末であり、カメラ映像表示部11と、移動装置制御部12と、を備えて構成される。   FIG. 1 is a diagram showing a functional block configuration of operation terminal 1 according to the present embodiment. The operation terminal 1 is a terminal for remotely operating the mobile device 2 including a camera, and includes a camera video display unit 11 and a mobile device control unit 12.

カメラ映像表示部11は、タッチパネルを備え、移動装置2のカメラで撮影されたカメラ画像を該タッチパネルに表示するように構成されている。また、ユーザのタッチ操作を受け付け、該タッチ操作からジェスチャの種類を判別するように構成されている。   The camera video display unit 11 includes a touch panel, and is configured to display a camera image captured by the camera of the mobile device 2 on the touch panel. Further, it is configured to accept a user's touch operation and discriminate the type of gesture from the touch operation.

移動装置制御部12は、タッチパネルに対するジェスチャに基づき移動装置2を移動させるように構成されている。また、ジェスチャの種類に応じて移動装置2の移動方向を変え、該ジェスチャ操作の大きさに応じて移動装置2の移動量を変えるように構成されている。また、移動装置2を前進又は後退させる場合、ジェスチャを行ったタッチパネル上の操作位置に応じて進行方向に対する移動装置2の移動角度を変えるように構成されている。   The moving device control unit 12 is configured to move the moving device 2 based on a gesture on the touch panel. Further, the moving direction of the moving device 2 is changed according to the type of gesture, and the moving amount of the moving device 2 is changed according to the magnitude of the gesture operation. Further, when the moving device 2 is moved forward or backward, the moving angle of the moving device 2 with respect to the traveling direction is changed according to the operation position on the touch panel where the gesture is performed.

上述した複数の機能部を備える操作端末1は、タッチパネル、CPU、メモリ等を備えたコンピュータで実現可能である。例えば、スマートフォン、タブレット端末、パソコンを用いて実現する。また、操作端末1としてコンピュータを機能させるためのプログラムや該プログラムの記憶媒体を作成することも可能である。   The operation terminal 1 including the plurality of functional units described above can be realized by a computer including a touch panel, a CPU, a memory, and the like. For example, it is realized using a smartphone, a tablet terminal, or a personal computer. It is also possible to create a program for causing a computer to function as the operation terminal 1 and a storage medium for the program.

なお、移動装置2とは、例えば、ドローン(小型飛行機やヘリコプター等の無人飛行体)、自動車、海中船、作業用ロボットである。デジタルカメラを備え、自機で撮影したカメラ画像を送信可能であり、受信した制御信号に基づき自機を移動させる移動装置であればよい。また、操作端末1と移動装置2との間の通信路は、無線でもよいし有線でもよい。   The moving device 2 is, for example, a drone (unmanned aerial vehicle such as a small airplane or a helicopter), an automobile, an underwater ship, or a working robot. Any mobile device may be used as long as it is equipped with a digital camera, can transmit a camera image taken by the own device, and moves the own device based on the received control signal. The communication path between the operation terminal 1 and the mobile device 2 may be wireless or wired.

次に、操作端末1で行う移動装置2の遠隔操作方法について説明する。操作端末1は、移動装置2からカメラ画像を受信し、タッチパネルに表示しているものとする。   Next, a remote operation method of the mobile device 2 performed at the operation terminal 1 will be described. The operation terminal 1 receives a camera image from the mobile device 2 and displays it on the touch panel.

最初に、図2を参照しながら、カメラ映像表示部11の動作を説明する。   First, the operation of the camera video display unit 11 will be described with reference to FIG.

まず、ステップS101において、ユーザが指でカメラ画像表示中のタッチパネルにタッチすると、該ユーザの指の接触を検知する。タッチパネルへの接触の有無については、タッチパネルが提供する既存のインタフェースを用いて検知可能である。   First, in step S101, when the user touches the touch panel displaying a camera image with a finger, the touch of the user's finger is detected. The presence or absence of contact with the touch panel can be detected using an existing interface provided by the touch panel.

次に、ステップS102において、ユーザの指が接触した時のタッチ位置を記憶する。例えば、タッチパネルを二次元座標化し、ユーザの指が触れた位置座標を接触時のタッチ位置としてメモリに記憶する。   Next, in step S102, the touch position when the user's finger touches is stored. For example, the touch panel is converted into two-dimensional coordinates, and the position coordinates touched by the user's finger are stored in the memory as the touch position at the time of contact.

次に、ステップS103において、タッチパネル上での指の動作やタッチ数から、ユーザが行ったジェスチャの種類を判定する。例えば、タッチ数が2つであり、その2つのタッチ間の距離が次第に大きくなる場合には、ユーザのジェスチャをピンチアウトと判定する。例えば、タッチパネル上に親指と人差し指を乗せ、2つの指で囲まれた矩形領域を拡大する動作を行った場合にピンチアウトと判定される。   Next, in step S <b> 103, the type of gesture performed by the user is determined from the operation of the finger on the touch panel and the number of touches. For example, when the number of touches is two and the distance between the two touches gradually increases, the user's gesture is determined to be a pinch out. For example, when a thumb and an index finger are placed on the touch panel and an operation of enlarging a rectangular area surrounded by two fingers is performed, it is determined that the image is pinched out.

また、タッチ数が2つであり、その2つのタッチ間の距離が次第に小さくなる場合には、ピンチインと判定する。例えば、2つの指で囲まれた矩形領域を縮小する動作を行った場合にピンチインと判定される。   Further, when the number of touches is two and the distance between the two touches gradually decreases, it is determined that the pinch-in has occurred. For example, it is determined to be pinch-in when an operation of reducing a rectangular area surrounded by two fingers is performed.

一方、タッチ数が1つの場合は、ドラッグと判定する。例えば、タッチパネル上に乗せた人差し指を一定方向にスライドさせる動作を行った場合にジェスチャと判定される。   On the other hand, when the number of touches is one, it is determined as a drag. For example, a gesture is determined when an operation of sliding an index finger placed on the touch panel in a certain direction is performed.

そして、ジェスチャの種類が、ピンチアウト、ピンチイン、ドラッグのうちいずれかの場合は、ステップS104に進み、いずれでもない場合は、処理を終了する。なお、フリックやスワイプ等の操作も考えられるが、それらはドラッグと同義とする。   If the gesture type is any one of pinch-out, pinch-in, and drag, the process proceeds to step S104, and if not, the process ends. Although operations such as flicking and swiping can be considered, they are synonymous with dragging.

最後に、ステップS104において、ユーザの指が一定距離移動する毎に指の軌跡を繰り返しタッチパネルから離れるまで移動装置制御部12に送信する。具体的には、タッチパネルに接触しつつ移動しているタッチ位置の座標を一定距離毎又は一定時間毎に指の軌跡として送信する。また、ステップS103で判定したジェスチャの種類も移動装置制御部12に送信する。   Finally, in step S104, every time the user's finger moves by a certain distance, the locus of the finger is repeatedly transmitted to the moving device control unit 12 until it leaves the touch panel. Specifically, the coordinates of the touch position moving while touching the touch panel are transmitted as a finger trajectory at regular intervals or at regular intervals. The type of gesture determined in step S103 is also transmitted to the mobile device control unit 12.

続いて、図3を参照しながら、移動装置制御部12の動作を説明する。   Next, the operation of the mobile device control unit 12 will be described with reference to FIG.

まず、ステップS201において、指の軌跡とジェスチャの種類をカメラ映像表示部11から受信する。上述したように、該指の軌跡には、指の接触位置に対応するタッチパネル上の仮想的な二次元座標が含まれている。   First, in step S <b> 201, a finger trajectory and a gesture type are received from the camera image display unit 11. As described above, the finger trajectory includes virtual two-dimensional coordinates on the touch panel corresponding to the finger contact position.

次に、ステップS202において、カメラ映像表示部11で判定されたジェスチャの種類に基づいて移動装置2の移動方向(前進、後退、回転、上昇、下降)を決定し、指の移動量に基づき該移動装置2の移動量(移動距離、回転角度、高度)を算出する。特に、移動装置2の移動方向が前進又は後退の場合には、前進又は後退の進行方向に対する該移動装置2の移動角度も併せて決定する。   Next, in step S202, the movement direction (forward, backward, rotation, up, down) of the moving device 2 is determined based on the type of gesture determined by the camera image display unit 11, and based on the movement amount of the finger. The movement amount (movement distance, rotation angle, altitude) of the moving device 2 is calculated. In particular, when the moving direction of the moving device 2 is forward or backward, the moving angle of the moving device 2 with respect to the forward or backward moving direction is also determined.

例えば、ジェスチャの種類がピンチアウトの場合、タッチパネル上のカメラ画像は拡大表示されるので、図4(a)に示すように、カメラの実画像が該拡大表示に見合うように移動装置2を前進させる。また、図4(b)に示すように、指の軌跡の情報を用いてタッチパネル接触時の2つのタッチ位置間の距離dとピンチアウト後の距離d’とを求め、それら2つの距離の差に定数α(正の実数)を乗算した値{=α(d’−d)}を移動装置2の移動距離とする。さらに、指の軌跡の情報に含まれる全てのタッチ位置の平均座標を求め、タッチパネルの中心から左右方向及び/又は上下方向にどの程度ずれているかに基づき前進方向に対する移動装置2の移動角度を決定する。例えば、タッチパネルの中心座標を(0,0)とし、平均座標が(100,100)の場合、45°の右斜め前方向に移動させる。   For example, when the type of gesture is pinch out, the camera image on the touch panel is enlarged and displayed, so as shown in FIG. 4A, the moving device 2 is advanced so that the actual image of the camera matches the enlarged display. Let Further, as shown in FIG. 4B, the distance d between the two touch positions when the touch panel is touched and the distance d ′ after the pinch out are obtained using the information of the finger trajectory, and the difference between the two distances is obtained. A value {= α (d′−d)} obtained by multiplying the value by a constant α (positive real number) is set as a moving distance of the moving device 2. Further, the average coordinates of all touch positions included in the finger trajectory information are obtained, and the moving angle of the moving device 2 with respect to the forward direction is determined based on how far the touch panel is deviated in the horizontal direction and / or the vertical direction. To do. For example, when the center coordinate of the touch panel is (0, 0) and the average coordinate is (100, 100), the touch panel is moved in the diagonally forward right direction of 45 °.

また、ピンチインの場合、タッチパネル上のカメラ画像は縮小表示されるので、図5(a)に示すように、カメラの実画像が該縮小表示に見合うように移動装置2を後退させる。また、図5(b)に示すように、タッチパネル接触時の2つのタッチ位置間の距離dとピンチイン後の距離d’との差に定数β(正の実数)を乗算した値{=β(d’−d)}を移動装置2の移動距離とする。さらに、ピンチアウトの場合と同様の手法で後退の進行方向に対する移動角度も決定する。   In the case of pinch-in, since the camera image on the touch panel is reduced and displayed, the moving device 2 is moved backward so that the actual image of the camera matches the reduced display as shown in FIG. Further, as shown in FIG. 5B, a value {= β (positive real number) obtained by multiplying the difference between the distance d between the two touch positions when the touch panel is touched and the distance d ′ after the pinch-in is obtained by a constant β (positive real number). d′−d)} is the moving distance of the moving device 2. Furthermore, the movement angle with respect to the backward movement direction is also determined by the same method as in the case of pinch out.

また、ドラッグの場合、タッチパネル上のカメラ画像はドラッグした方向に移動するので、図6(a)又は図7(a)に示すように、カメラの実画像がドラッグ方向に見合うように移動装置2を動作させる。具体的には、ドラッグ方向が右方向(左方向)の場合、移動装置2をユーザから見て右回転(左回転)させる。また、ドラッグ方向が下方向(上方向)の場合には、移動装置2を上昇(下降)させる。   Further, in the case of dragging, the camera image on the touch panel moves in the dragged direction. Therefore, as shown in FIG. 6A or FIG. 7A, the moving device 2 so that the actual image of the camera matches the drag direction. To work. Specifically, when the drag direction is the right direction (left direction), the moving device 2 is rotated to the right (left rotation) as viewed from the user. When the drag direction is downward (upward), the moving device 2 is raised (lowered).

また、ドラッグ方向が右方向又は左方向の場合、図6(b)に示すように、ドラッグ開始時とドラッグ終了時の2つのタッチ位置から移動ベクトルν=(x,y)を求め、定数θと円周率πを乗算した値(=θπν.y)を移動装置2の回転角度とする。ドラッグ方向が下方向又は上方向の場合には、図7(b)に示すように、移動ベクトルν=(x,y)に定数γを乗算した値(=γν.y)を移動装置2の高度とする。   When the drag direction is right or left, as shown in FIG. 6B, a movement vector ν = (x, y) is obtained from two touch positions at the start and end of the drag, as shown in FIG. And the value obtained by multiplying the circumference ratio π (= θπν.y) as the rotation angle of the moving device 2. When the drag direction is downward or upward, as shown in FIG. 7B, a value (= γν.y) obtained by multiplying the movement vector ν = (x, y) by a constant γ is used as the movement device 2. Altitude.

なお、ドラッグ方向が左右方向であるか上下方向であるかについては、移動ベクトルνを用いて判定する。例えば、arctan(y/x)の値が一定範囲に収まる場合、つまり、移動ベクトルνが一定程度水平である場合には、左右方向のドラッグと判定し、移動装置2を回転させる。一方、該一定範囲に収まらない場合には、上下方向のドラッグと判定し、移動装置2を上昇又は下降させる。   Whether the drag direction is the horizontal direction or the vertical direction is determined using the movement vector ν. For example, when the value of arctan (y / x) is within a certain range, that is, when the movement vector ν is horizontal to a certain degree, it is determined that the drag is in the left-right direction, and the moving device 2 is rotated. On the other hand, when it does not fall within the predetermined range, it is determined that the drag is in the vertical direction, and the moving device 2 is raised or lowered.

最後に、ステップS203において、ステップS202で決定した移動方向及び移動量で移動させるための制御信号を生成し、移動装置2に送信する。移動装置2は、操作端末1からの制御信号を受信し、該制御信号に含まれる移動方向及び移動量で自機を移動させる。具体的には、ユーザのジェスチャがピンチアウトであれば前進する。このとき、ピンチアウトの移動量が大きいほど前進距離も大きくなる。また、ピンチインであれば後退する。ピンチインの移動量が大きいほど後退距離も大きくなる。また、ドラッグであれば、ドラッグ方向に応じて回転、上昇、又は下降する。ドラッグの移動量が大きいほど、回転量、上昇量、又は下降量も大きくなる。   Finally, in step S203, a control signal for moving in the moving direction and moving amount determined in step S202 is generated and transmitted to the moving device 2. The moving device 2 receives the control signal from the operation terminal 1 and moves the own device in the moving direction and the moving amount included in the control signal. Specifically, if the user's gesture is a pinch out, the user moves forward. At this time, the greater the movement amount of the pinch out, the greater the forward distance. Moreover, if it is pinch-in, it will move backward. The greater the amount of pinch-in movement, the greater the reverse distance. In the case of a drag, it is rotated, raised or lowered depending on the drag direction. The greater the amount of drag movement, the greater the amount of rotation, the amount of increase, or the amount of decrease.

以上より、本実施の形態によれば、操作端末1において、カメラ映像表示部11が、移動装置2のカメラで撮影されたカメラ画像をタッチパネルに表示し、該カメラ画像に対するユーザのジェスチャ(ピンチイン、ピンチアウト、又はドラッグ)を受け付け、移動装置制御部12が、該ユーザのジェスチャに基づき移動装置2を移動させるので、移動装置2の遠隔操作性を向上できる。つまり、移動装置2のカメラ画像を手元で見ながらタッチパネル上の指のジェスチャで遠隔操作可能となり、移動装置2をどの程度移動させるかの操作を直感的に行うことが可能となる。   As described above, according to the present embodiment, in the operation terminal 1, the camera video display unit 11 displays the camera image captured by the camera of the mobile device 2 on the touch panel, and the user's gesture (pinch-in, Since the moving device control unit 12 moves the moving device 2 based on the user's gesture, the remote operability of the moving device 2 can be improved. That is, it is possible to remotely control with a finger gesture on the touch panel while viewing the camera image of the mobile device 2 at hand, and it is possible to intuitively operate how much the mobile device 2 is moved.

最後に、本実施の形態では、タッチパネルを用いる場合を説明したが、カメラ画像の表示手段とタッチ操作の受付手段とを物理的に異なる手段で実現してもよい。例えば、汎用モニタとペンタブレットを用いることが考えられる。ペンタブレットの電子ペンを用いてモニタ上のカメラ画像をペンタブレット上で間接的にタッチ操作することにより、上記と同様の効果を得ることができる。具体的には、例えば、電子ペンを用いてカメラ画像上の一部を線で囲み、該囲まれた線の一部を外側に引っ張ることで実質的にピンチアウトと同じ操作を実現できる。また、画面の拡大ボタンや縮小ボタン、画面サイズ比率変更用のスライドバー、スライド方向の指示ボタン等、移動装置2の移動を制御するためのツールを表示して利用するようにしてもよい。   Finally, in the present embodiment, the case where a touch panel is used has been described. However, the camera image display unit and the touch operation reception unit may be realized by physically different units. For example, it is possible to use a general-purpose monitor and a pen tablet. An effect similar to the above can be obtained by indirectly touching the camera image on the monitor on the pen tablet using the electronic pen of the pen tablet. Specifically, for example, a part of the camera image is surrounded by a line using an electronic pen and a part of the surrounded line is pulled outward, so that substantially the same operation as that of pinch out can be realized. Further, tools for controlling the movement of the moving apparatus 2 such as a screen enlargement button, a reduction button, a slide bar for changing the screen size ratio, and a slide direction instruction button may be displayed and used.

1…操作端末(遠隔装置操作端末)
11…カメラ映像表示部(表示手段、受付手段)
12…移動装置制御部(制御手段)
2…移動装置
S101〜S104、S201〜S203…ステップ
1. Operation terminal (remote device operation terminal)
11 ... Camera image display section (display means, reception means)
12 ... Moving device control section (control means)
2 ... Mobile device S101-S104, S201-S203 ... Step

Claims (8)

移動装置の撮像手段で撮像された撮像画像を画面に表示する表示手段と、
前記撮像画像に含まれる領域を指定する操作を受け付ける受付手段と、
撮像画像が前記指定の領域に近づくように前記移動装置を移動させる制御手段と、を有し、
前記表示手段と前記受付手段は、タッチパネルであって、
前記制御手段は、
前記タッチパネルに対するピンチアウトの操作に基づき、前記移動装置を前進させるとともに、当該操作の軌跡に含まれる複数のタッチ位置の平均座標を求め、タッチパネルの中心座標に対する垂直方向及び水平方向でのずれ幅に基づき前進方向に対する前記移動装置の移動角度を決定する
ことを特徴とする移動装置操作端末。
Display means for displaying a captured image captured by the imaging means of the mobile device on a screen;
Accepting means for accepting an operation for designating an area included in the captured image;
Control means for moving the moving device so that the captured image approaches the designated area ,
The display means and the reception means are touch panels,
The control means includes
Based on a pinch-out operation on the touch panel, the moving device is advanced, average coordinates of a plurality of touch positions included in the locus of the operation are obtained, and a deviation width in the vertical direction and the horizontal direction with respect to the center coordinates of the touch panel is obtained. A moving device operation terminal, wherein a moving angle of the moving device with respect to a forward direction is determined .
移動装置の撮像手段で撮像された撮像画像を画面に表示する表示手段と、
前記撮像画像に含まれる領域を指定する操作を受け付ける受付手段と、
撮像画像が前記指定の領域から遠ざかるように前記移動装置を移動させる制御手段と、を有し、
前記表示手段と前記受付手段は、タッチパネルであって、
前記制御手段は、
前記タッチパネルに対するピンチインの操作に基づき、前記移動装置を後退させるとともに、当該操作の軌跡に含まれる複数のタッチ位置の平均座標を求め、タッチパネルの中心座標に対する垂直方向及び水平方向でのずれ幅に基づき後退方向に対する前記移動装置の移動角度を決定する
ことを特徴とする移動装置操作端末。
Display means for displaying a captured image captured by the imaging means of the mobile device on a screen;
Accepting means for accepting an operation for designating an area included in the captured image;
Control means for moving the moving device so that the captured image moves away from the designated area ,
The display means and the reception means are touch panels,
The control means includes
Based on a pinch-in operation on the touch panel, the moving device is retracted, an average coordinate of a plurality of touch positions included in the locus of the operation is obtained, and based on a deviation width in a vertical direction and a horizontal direction with respect to the center coordinate of the touch panel. A moving device operation terminal, wherein a moving angle of the moving device with respect to a backward direction is determined .
前記領域を指定する操作は、
前記タッチパネルに指をタッチして前記領域を囲む操作であることを特徴とする請求項1又は2に記載の移動装置操作端末。
The operation to specify the area is as follows:
The mobile device operation terminal according to claim 1, wherein the operation is performed by touching the touch panel with a finger to surround the area.
移動装置の撮像手段で撮像された撮像画像を画面に表示する表示手段と、Display means for displaying a captured image captured by the imaging means of the mobile device on a screen;
前記撮像画像の移動方向を指定する操作を受け付ける受付手段と、Accepting means for accepting an operation for designating a moving direction of the captured image;
前記移動方向が撮像されるように前記移動装置を移動させる制御手段と、を有し、Control means for moving the moving device so that the moving direction is imaged,
前記表示手段と前記受付手段は、タッチパネルであって、The display means and the reception means are touch panels,
前記制御手段は、The control means includes
前記タッチパネルに指をタッチしてスライドさせるドラッグ操作に基づき、タッチパネルの水平方向に対する指のスライド方向の角度が一定角度に含まれる場合、水平方向のドラッグ操作と判定して前記移動装置を回転させ、前記一定角度に含まれない場合、垂直方向のドラッグ操作と判定して前記移動装置を上昇又は下降させるBased on a drag operation in which the finger touches and slides on the touch panel, when the angle of the finger slide direction with respect to the horizontal direction of the touch panel is included in a certain angle, it is determined as a horizontal drag operation and the moving device is rotated, If it is not included in the certain angle, it is determined as a vertical drag operation and the moving device is raised or lowered.
ことを特徴とする移動装置操作端末。A mobile device operation terminal characterized by that.
移動装置操作端末で行う移動装置操作方法において、
前記移動装置操作端末は、
移動装置の撮像手段で撮像された撮像画像をタッチパネルに表示する表示ステップと、
前記撮像画像に含まれる領域を指定する操作をタッチパネルで受け付ける受付ステップと、
撮像画像が前記指定の領域に近づくように前記移動装置を移動させる制御ステップと、を行い
前記制御ステップでは、
前記タッチパネルに対するピンチアウトの操作に基づき、前記移動装置を前進させるとともに、当該操作の軌跡に含まれる複数のタッチ位置の平均座標を求め、タッチパネルの中心座標に対する垂直方向及び水平方向でのずれ幅に基づき前進方向に対する前記移動装置の移動角度を決定する
ことを特徴とする移動装置操作方法。
In the mobile device operation method performed at the mobile device operation terminal,
The mobile device operation terminal is
A display step for displaying a captured image captured by the imaging means of the mobile device on the touch panel;
An accepting step of accepting an operation for designating an area included in the captured image on a touch panel;
Performing a control step of moving the moving device so that the captured image approaches the designated area,
In the control step,
Based on a pinch-out operation on the touch panel, the moving device is advanced, average coordinates of a plurality of touch positions included in the locus of the operation are obtained, and a deviation width in the vertical direction and the horizontal direction with respect to the center coordinates of the touch panel is obtained. A moving device operating method, comprising: determining a moving angle of the moving device with respect to a forward direction.
移動装置操作端末で行う移動装置操作方法において、
前記移動装置操作端末は、
移動装置の撮像手段で撮像された撮像画像をタッチパネルに表示する表示ステップと、
前記撮像画像に含まれる領域を指定する操作をタッチパネルで受け付ける受付ステップと、
撮像画像が前記指定の領域から遠ざかるように前記移動装置を移動させる制御ステップと、を行い
前記制御ステップでは、
前記タッチパネルに対するピンチインの操作に基づき、前記移動装置を後退させるとともに、当該操作の軌跡に含まれる複数のタッチ位置の平均座標を求め、タッチパネルの中心座標に対する垂直方向及び水平方向でのずれ幅に基づき後退方向に対する前記移動装置の移動角度を決定する
ことを特徴とする移動装置操作方法。
In the mobile device operation method performed at the mobile device operation terminal,
The mobile device operation terminal is
A display step for displaying a captured image captured by the imaging means of the mobile device on the touch panel;
An accepting step of accepting an operation for designating an area included in the captured image on a touch panel;
Performing a control step of moving the moving device so that the captured image moves away from the designated region,
In the control step,
Based on a pinch-in operation on the touch panel, the moving device is retracted, an average coordinate of a plurality of touch positions included in the locus of the operation is obtained, and based on a deviation width in a vertical direction and a horizontal direction with respect to the center coordinate of the touch panel. A moving device operating method, wherein a moving angle of the moving device with respect to a backward direction is determined.
移動装置操作端末で行う移動装置操作方法において、
前記移動装置操作端末は、
移動装置の撮像手段で撮像された撮像画像をタッチパネルに表示する表示ステップと、
前記撮像画像の移動方向を指定する操作をタッチパネルで受け付ける受付ステップと、
前記移動方向が撮像されるように前記移動装置を移動させる制御ステップと、を行い
前記制御ステップでは、
前記タッチパネルに指をタッチしてスライドさせるドラッグ操作に基づき、タッチパネルの水平方向に対する指のスライド方向の角度が一定角度に含まれる場合、水平方向のドラッグ操作と判定して前記移動装置を回転させ、前記一定角度に含まれない場合、垂直方向のドラッグ操作と判定して前記移動装置を上昇又は下降させる
ことを特徴とする移動装置操作方法。
In the mobile device operation method performed at the mobile device operation terminal,
The mobile device operation terminal is
A display step for displaying a captured image captured by the imaging means of the mobile device on the touch panel;
An accepting step of accepting an operation for designating a moving direction of the captured image on a touch panel;
Performing a control step of moving the moving device so that the moving direction is imaged,
In the control step,
Based on a drag operation in which the finger touches and slides on the touch panel, when the angle of the finger slide direction with respect to the horizontal direction of the touch panel is included in a certain angle, it is determined as a horizontal drag operation and the moving device is rotated, When not included in the certain angle, it is determined as a drag operation in the vertical direction, and the moving device is raised or lowered.
請求項1乃至4のいずれかに記載の移動装置操作端末としてコンピュータを機能させることを特徴とする移動装置操作プログラム。A mobile device operating program for causing a computer to function as the mobile device operating terminal according to any one of claims 1 to 4.
JP2015111398A 2015-06-01 2015-06-01 Mobile device operation terminal, mobile device operation method, and mobile device operation program Active JP6470112B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015111398A JP6470112B2 (en) 2015-06-01 2015-06-01 Mobile device operation terminal, mobile device operation method, and mobile device operation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015111398A JP6470112B2 (en) 2015-06-01 2015-06-01 Mobile device operation terminal, mobile device operation method, and mobile device operation program

Publications (2)

Publication Number Publication Date
JP2016225872A JP2016225872A (en) 2016-12-28
JP6470112B2 true JP6470112B2 (en) 2019-02-13

Family

ID=57748736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015111398A Active JP6470112B2 (en) 2015-06-01 2015-06-01 Mobile device operation terminal, mobile device operation method, and mobile device operation program

Country Status (1)

Country Link
JP (1) JP6470112B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7274157B1 (en) 2022-08-01 2023-05-16 株式会社アルヴィオン Program for operating the target device

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6685742B2 (en) * 2016-02-02 2020-04-22 キヤノン株式会社 Operating device, moving device, and control system thereof
WO2018191840A1 (en) * 2017-04-17 2018-10-25 英华达(上海)科技有限公司 Interactive photographing system and method for unmanned aerial vehicle
CN106989730A (en) * 2017-04-27 2017-07-28 上海大学 A kind of system and method that diving under water device control is carried out based on binocular flake panoramic vision
JP6875269B2 (en) * 2017-12-22 2021-05-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Information processing equipment, flight control instruction method, program, and recording medium
JP6807343B2 (en) * 2018-04-16 2021-01-06 株式会社デンソーテン Deposit removal system and deposit removal method
CN112824183A (en) * 2019-11-20 2021-05-21 华为技术有限公司 Automatic parking interaction method and device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014108533A (en) * 2012-11-30 2014-06-12 Canon Inc Image processing device, image processing device control method, and program
JP5994019B2 (en) * 2013-03-22 2016-09-21 株式会社スクウェア・エニックス Video game processing apparatus, video game processing method, and video game processing program
US8903568B1 (en) * 2013-07-31 2014-12-02 SZ DJI Technology Co., Ltd Remote control method and terminal

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7274157B1 (en) 2022-08-01 2023-05-16 株式会社アルヴィオン Program for operating the target device
EP4318202A1 (en) 2022-08-01 2024-02-07 Alvion Inc. Program for manipulating manipulation target device
JP2024019758A (en) * 2022-08-01 2024-02-14 株式会社アルヴィオン Program for operating operation object apparatus

Also Published As

Publication number Publication date
JP2016225872A (en) 2016-12-28

Similar Documents

Publication Publication Date Title
JP6470112B2 (en) Mobile device operation terminal, mobile device operation method, and mobile device operation program
EP2954397B1 (en) Methods for system engagement via 3d object detection
US11354009B2 (en) Method and apparatus for using gestures across multiple devices
US20180314294A1 (en) Information processing apparatus, information processing method, and program
EP2539797B1 (en) Representative image
US20180043254A1 (en) Program, electronic device, and method that improve ease of operation for user input
CN102789327A (en) Method for controlling mobile robot on basis of hand signals
US20150186004A1 (en) Multimode gesture processing
US10191611B2 (en) Graphical user interface defined cursor displacement tool
US9880721B2 (en) Information processing device, non-transitory computer-readable recording medium storing an information processing program, and information processing method
US10839613B2 (en) Fast manipulation of objects in a three-dimensional scene
WO2018099258A1 (en) Method and device for flight control for unmanned aerial vehicle
US20160246434A1 (en) Information processing apparatus, information processing method, and program
US20130321350A1 (en) Virtual ruler for stylus input
CN104699249A (en) Information processing method and electronic equipment
US20170031587A1 (en) Electronic device and control program therefor
JP2015138360A (en) System, control program, and control method for object manipulation
US20160054879A1 (en) Portable electronic devices and methods for operating user interfaces
KR101233793B1 (en) Virtual mouse driving method using hand motion recognition
KR20160037901A (en) Method and device for displaying objects
EP2669783A1 (en) Virtual ruler for stylus input
US10444985B2 (en) Computing device responsive to contact gestures
JP6373710B2 (en) Graphic processing apparatus and graphic processing program
KR20140131072A (en) Electronic device and method for manipulaton screen of electronic device based control motion
TWI603226B (en) Gesture recongnition method for motion sensing detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190117

R150 Certificate of patent or registration of utility model

Ref document number: 6470112

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150