[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6473048B2 - Mobile device operation terminal, mobile device operation method, and mobile device operation program - Google Patents

Mobile device operation terminal, mobile device operation method, and mobile device operation program Download PDF

Info

Publication number
JP6473048B2
JP6473048B2 JP2015111407A JP2015111407A JP6473048B2 JP 6473048 B2 JP6473048 B2 JP 6473048B2 JP 2015111407 A JP2015111407 A JP 2015111407A JP 2015111407 A JP2015111407 A JP 2015111407A JP 6473048 B2 JP6473048 B2 JP 6473048B2
Authority
JP
Japan
Prior art keywords
mobile device
robot
captured image
display
device operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015111407A
Other languages
Japanese (ja)
Other versions
JP2016225875A (en
Inventor
崇裕 松元
崇裕 松元
えりか 足利
えりか 足利
結城 遠藤
結城 遠藤
誉宗 巻口
誉宗 巻口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015111407A priority Critical patent/JP6473048B2/en
Publication of JP2016225875A publication Critical patent/JP2016225875A/en
Application granted granted Critical
Publication of JP6473048B2 publication Critical patent/JP6473048B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Selective Calling Equipment (AREA)

Description

本発明は、移動装置を操作端末で遠隔操作する技術に関する。   The present invention relates to a technique for remotely operating a mobile device with an operation terminal.

現在、コミュニケーションを目的としたテレプレゼンスロボット(以下、ロボット)が研究開発されている。ユーザは、操作端末を用いてロボットの移動方向や回転方向を遠隔操作可能であり、ロボット周囲にいる人と会話したい場合、その人がカメラ画角に入るようにロボットを操作する。例えば、相手に対してロボットの正面が向くように操作し、その相手の近くにあるもの(人・物)について話したい場合はそれもカメラ画角に収まるように操作する。   Currently, telepresence robots (hereinafter referred to as robots) for communication purposes are being researched and developed. The user can remotely control the moving direction and the rotating direction of the robot using the operation terminal. When the user wants to talk with a person around the robot, the user operates the robot so that the person enters the camera angle of view. For example, if the robot is operated so that the front of the robot faces the other party and it is desired to talk about an object (person / thing) near the other party, the operation is performed so that the angle of view is within the camera angle.

橋本、外3名、“TouchMe:CG重畳表示を用いたロボットの直接操作手法”、情報処理学会、インタラクション、2011年Hashimoto, 3 others, “TouchMe: Direct Robot Operation Method Using CG Overlay Display”, Information Processing Society of Japan, Interaction, 2011

しかしながら、会話を行う毎にユーザが手動で対象が映像内に収まるようにロボットを操作することは面倒である。例えば、カメラ映像を見ながら周囲の人を探索しつつロボットの移動方向や回転方向を繰り返し調整するため、操作手順が煩雑となってしまう。非特許文献1にはコンピュータグラフィックスの重畳表示を用いてロボットを直感的に操作する方法が提案されているが、この場合でも対象物を映像内に瞬時に収めることは困難である。   However, it is troublesome for the user to manually operate the robot so that the target is within the video every time a conversation is performed. For example, since the robot movement direction and rotation direction are repeatedly adjusted while searching for surrounding people while watching the camera image, the operation procedure becomes complicated. Non-Patent Document 1 proposes a method of intuitively operating a robot using computer graphics superimposed display, but even in this case, it is difficult to instantaneously place an object in an image.

本発明は、上記事情を鑑みてなされたものであり、移動装置の操作効率を改善することを目的とする。   This invention is made | formed in view of the said situation, and aims at improving the operation efficiency of a moving apparatus.

以上の課題を解決するため、請求項1に記載の移動装置操作端末は、移動装置の撮像手段で撮像された撮像画像を画面に表示し、前記撮像画像の範囲外に存在する対象体に係る対象体情報を実空間上の位置に対応付けて前記撮像画像に重畳する表示手段、を有することを要旨とする。   In order to solve the above-described problem, the mobile device operation terminal according to claim 1 displays a captured image captured by an imaging unit of the mobile device on a screen, and relates to an object existing outside the range of the captured image. The gist of the invention is to include display means for superimposing the object information on the captured image in association with a position in the real space.

本発明によれば、移動装置の撮像手段で撮像された撮像画像を画面に表示し、該撮像画像の範囲外に存在する対象体に係る対象体情報を実空間上の位置に対応付けて上記撮像画像に重畳するため、移動装置の操作効率を向上できる。   According to the present invention, the captured image captured by the imaging unit of the mobile device is displayed on the screen, and the object information relating to the object existing outside the range of the captured image is associated with the position in the real space, and Since it is superimposed on the captured image, the operation efficiency of the mobile device can be improved.

請求項2に記載の移動装置操作端末は、請求項1に記載の移動装置操作端末において、前記画面上で選択された前記対象体情報の対象体が前記撮像手段の撮像範囲に入るように前記移動装置を移動させる制御手段、を更に有することを要旨とする。   The mobile device operation terminal according to claim 2 is the mobile device operation terminal according to claim 1, wherein the object of the target object information selected on the screen is within an imaging range of the imaging means. The gist of the present invention is to further include control means for moving the moving device.

請求項3に記載の移動装置操作端末は、請求項1に記載の移動装置操作端末において、前記撮像画像内の対象体及び/又は前記対象体情報に係る対象体のうち選択された複数の対象体が前記撮像手段の撮像範囲に入るように前記移動装置を移動させる制御手段、を更に有することを要旨とする。   The mobile device operation terminal according to claim 3 is the mobile device operation terminal according to claim 1, wherein a plurality of objects selected from the target object in the captured image and / or the target object related to the target object information are provided. The gist further includes control means for moving the moving device so that the body falls within the imaging range of the imaging means.

請求項4に記載の移動装置操作端末は、請求項2又は3に記載の移動装置操作端末において、選択された前記対象体は、少なくとも生命体であることを要旨とする。   The mobile device operation terminal according to claim 4 is the mobile device operation terminal according to claim 2 or 3, wherein the selected object is at least a living object.

請求項5に記載の移動装置操作端末は、請求項1乃至4のいずれかに記載の移動装置操作端末において、前記表示手段は、前記移動装置から前記対象体までの距離に応じて前記対象体情報の表示サイズを変えることを要旨とする。   The mobile device operation terminal according to claim 5 is the mobile device operation terminal according to any one of claims 1 to 4, wherein the display unit is configured to change the object according to a distance from the mobile device to the object. The gist is to change the display size of information.

請求項6に記載の移動装置操作方法は、移動装置操作端末で行う移動装置操作方法において、前記移動装置操作端末は、移動装置の撮像手段で撮像された撮像画像を画面に表示し、前記撮像画像の範囲外に存在する対象体に係る対象体情報を実空間上の位置に対応付けて前記撮像画像に重畳する表示ステップ、を有することを要旨とする。   The mobile device operation method according to claim 6, wherein the mobile device operation terminal displays a captured image captured by an imaging unit of the mobile device on a screen, and the imaging The gist of the invention is to include a display step of superimposing the object information relating to the object existing outside the range of the image on the captured image in association with the position in the real space.

請求項7に記載の移動装置操作プログラムは、請求項1乃至5のいずれかに記載の移動装置操作端末としてコンピュータを機能させることを要旨とする。   A gist of a mobile device operation program according to a seventh aspect is to cause a computer to function as the mobile device operation terminal according to any one of the first to fifth aspects.

本発明によれば、移動装置の操作効率を向上できる。   According to the present invention, the operation efficiency of the mobile device can be improved.

操作端末の機能ブロック構成を示す図である。It is a figure which shows the functional block structure of an operating terminal. ロボット操作方法の処理フロー(実施例1)を示す図である。It is a figure which shows the processing flow (Example 1) of the robot operation method. ロボットに対する周囲との位置関係(実施例1)を示す図である。It is a figure which shows the positional relationship (Example 1) with the periphery with respect to a robot. ショートカットボタンの表示例(実施例1)を示す図である。It is a figure which shows the example of a display of a shortcut button (Example 1). ショートカットボタンの選択例(実施例1)を示す図である。It is a figure which shows the example of selection of a shortcut button (Example 1). ロボットの制御例(実施例1)を示す図である。It is a figure which shows the example of control (Example 1) of a robot. ロボット制御後の画面例(実施例1)を示す図である。It is a figure which shows the example of a screen (Example 1) after robot control. ロボット操作方法の処理フロー(実施例2,動作例1)を示す図である。It is a figure which shows the processing flow (Example 2, operation example 1) of the robot operation method. ロボットに対する周囲との位置関係(実施例2)を示す図である。It is a figure which shows the positional relationship (Example 2) with the periphery with respect to a robot. ショートカットボタンの表示例(実施例2,動作例1)を示す図である。It is a figure which shows the example of a display of a shortcut button (Example 2, operation example 1). ショートカットボタンの選択例(実施例2,動作例1)を示す図である。It is a figure which shows the example of selection of a shortcut button (Example 2, operation example 1). ロボットの制御例(実施例2,動作例1)を示す図である。It is a figure which shows the example of control (Example 2, operation | movement example 1) of a robot. ロボット制御後の画面例(実施例2,動作例1)を示す図である。It is a figure which shows the example of a screen (Example 2, operation example 1) after robot control. ロボット操作方法の処理フロー(実施例2,動作例2)を示す図である。It is a figure which shows the processing flow (Example 2, operation example 2) of the robot operation method. ショートカットボタンの選択例(実施例2,動作例2)を示す図である。It is a figure which shows the selection example (Example 2, operation example 2) of a shortcut button. ロボットの制御例(実施例2,動作例2)を示す図である。It is a figure which shows the example of control (Example 2, operation | movement example 2) of a robot. ロボット制御後の画面例(実施例2,動作例2)を示す図である。It is a figure which shows the example of a screen (Example 2, operation example 2) after robot control. ロボット操作方法の処理フロー(実施例2,動作例3)を示す図である。It is a figure which shows the processing flow (Example 2, operation example 3) of the robot operation method. ショートカットボタンの選択例(実施例2,動作例3)を示す図である。It is a figure which shows the selection example (Example 2, operation example 3) of a shortcut button. ロボットの制御例(実施例2,動作例3)を示す図である。It is a figure which shows the example of control (Example 2, operation example 3) of a robot. ロボット制御後の画面例(実施例2,動作例3)を示す図である。It is a figure which shows the example of a screen (Example 2, operation example 3) after robot control.

以下、本発明を実施する一実施の形態について図面を用いて説明する。   Hereinafter, an embodiment for carrying out the present invention will be described with reference to the drawings.

〔第1の実施の形態〕
図1は、第1の実施の形態に係る操作端末1の機能ブロック構成を示す図である。該操作端末1は、テレプレゼンスロボット(ロボット)2を遠隔操作するための端末であり、カメラ映像表示部11と、ロボット制御部12と、を備えて構成される。
[First Embodiment]
FIG. 1 is a diagram illustrating a functional block configuration of the operation terminal 1 according to the first embodiment. The operation terminal 1 is a terminal for remotely operating a telepresence robot (robot) 2 and includes a camera image display unit 11 and a robot control unit 12.

カメラ映像表示部11は、タッチパネルを備え、ロボット2のカメラで撮影されたカメラ映像を該タッチパネルに表示するように構成されている。また、カメラ映像の範囲外に存在する対象(対象者・対象物)の位置方向と該対象までの距離を直感的に表したショートカットボタン(対象体情報)をカメラ映像に重畳表示するように構成されている。   The camera image display unit 11 includes a touch panel, and is configured to display a camera image captured by the camera of the robot 2 on the touch panel. In addition, a shortcut button (object information) that intuitively represents the position and direction of a target (subject / object) existing outside the range of the camera video and the distance to the target is displayed superimposed on the camera video. Has been.

ロボット制御部12は、選択されたショートカットの対象に対して正面かつ一定距離となるようにロボット2を移動させるように構成されている。   The robot controller 12 is configured to move the robot 2 so as to be in front and at a certain distance with respect to the selected shortcut target.

上述した複数の機能部を備える操作端末1は、タッチパネル、CPU、メモリ等を備えたコンピュータで実現可能である。例えば、スマートフォン、タブレット端末、パソコンを用いて実現する。また、操作端末1としてコンピュータを機能させるためのプログラムや該プログラムの記憶媒体を作成することも可能である。   The operation terminal 1 including the plurality of functional units described above can be realized by a computer including a touch panel, a CPU, a memory, and the like. For example, it is realized using a smartphone, a tablet terminal, or a personal computer. It is also possible to create a program for causing a computer to function as the operation terminal 1 and a storage medium for the program.

なお、ロボット2とは、スピーカー、マイク、撮影の正面方向を持つ360度デジタルカメラを備え、操作端末1からの制御信号に基づき自機の移動方向及び回転方向を制御可能な移動装置である。また、人の顔や物を認識する機能を備え、カメラ画像上の顔・物の位置や大きさから人・物の位置方向及び距離を検知可能である。さらに、撮影したカメラ映像及び検知した全てのデータを操作端末1に送信可能である。なお、テレプレゼンスロボットとはロボットの例であり、小型飛行機やヘリコプター等の無人飛行体(ドローン)等を用いてもよい。上述した機能や機構を具備する移動装置であればよい。また、操作端末1とロボット2との間の通信路は、無線でもよいし有線でもよい。   The robot 2 is a moving device that includes a speaker, a microphone, and a 360-degree digital camera having a front direction of photographing, and can control the moving direction and the rotating direction of the own device based on a control signal from the operation terminal 1. In addition, a function for recognizing a person's face or object is provided, and the position direction and distance of the person / object can be detected from the position and size of the face / object on the camera image. Furthermore, the captured camera image and all detected data can be transmitted to the operation terminal 1. The telepresence robot is an example of a robot, and an unmanned air vehicle (drone) such as a small airplane or a helicopter may be used. Any mobile device having the functions and mechanisms described above may be used. The communication path between the operation terminal 1 and the robot 2 may be wireless or wired.

次に、図2を参照しながら、操作端末1で行うロボット操作方法について説明する。ロボット2は、自機の周囲に存在する人の位置方向、自機から人までの距離を検知しているものとする。   Next, a robot operation method performed on the operation terminal 1 will be described with reference to FIG. It is assumed that the robot 2 detects the position and direction of a person existing around the own machine and the distance from the own machine to the person.

まず、ステップS101において、カメラ映像表示部11は、ロボット2で検知された人(対象者)の位置方向及び距離を取得する。例えば、ロボット2に対して図3に示す位置に三人の対象者HA〜HCが存在する場合、カメラの正面方向(図の上方向)から右回りで対象者HAまでの回転角度θHA、ロボット2から該対象者HAまでの距離LHAを取得する。同様に、対象者HBに関する回転角度θHB及び距離LHB、対象者HCに関する回転角度θHC及び距離LHCも取得する。 First, in step S <b> 101, the camera video display unit 11 acquires the position direction and distance of the person (target person) detected by the robot 2. For example, when there are three target persons HA to HC at the position shown in FIG. 3 with respect to the robot 2, the rotation angle θ HA from the front direction of the camera (upward in the figure) to the target person HA in the clockwise direction, A distance L HA from the robot 2 to the subject HA is acquired. Similarly, the rotation angle θ HB and distance L HB related to the subject HB , and the rotation angle θ HC and distance L HC related to the subject HC are also acquired.

次に、ステップS102において、カメラ映像表示部11は、取得したデータを用いて対象者の位置方向と該対象者までの距離を直感的に示したショートカットボタンを生成し、タッチパネル上のカメラ映像に重畳表示する。具体的には、顔を表現したボタン画像(アイコン)を生成し、対象者までの距離に応じて表示サイズを変更し、対象者の位置方向に対応する場所に表示する。   Next, in step S102, the camera image display unit 11 uses the acquired data to generate a shortcut button that intuitively indicates the position direction of the subject and the distance to the subject, and displays the shortcut button on the camera image on the touch panel. Superimposed display. Specifically, a button image (icon) representing the face is generated, the display size is changed according to the distance to the subject, and the button is displayed at a location corresponding to the position direction of the subject.

例えば、図4に示すように、タッチパネルの画面中央をロボット2の現在位置とみなし、上方向を基準に右回りでθHA°の軸方向の画面淵に対象者HAのショートカットボタンSBHAを表示し、同様に右回りでθHB°の軸方向の画面淵に対象者HBのショートカットボタンSBHBを表示する。また、ここではロボット2から対象者HAまでの距離の方が対象者HBまでよりも近いため(LHA<LHB)、ショートカットボタンSBHAを大きく表示し、ショートカットボタンSBHBを小さく表示する。なお、ボタン画像については、例えば、撮影された対象者の顔画像を縮小・拡大して用いてもよいし、規定の顔画像を用いてもよい。また、カメラ画角θcam内に収まる対象者(対象者HC)については、タッチパネル上に既に映し出されているため、そのショートカットボタンは表示しない。 For example, as shown in FIG. 4, the screen center of the touch panel is regarded as the current position of the robot 2, and the shortcut button SB HA of the subject HA is displayed on the screen の in the axial direction of θ HA ° clockwise relative to the upward direction. Similarly, the shortcut button SB HB of the subject HB is displayed on the screen 淵 in the clockwise direction of θ HB ° in the clockwise direction. Here, since the distance from the robot 2 to the subject person HA is closer to the subject person HB (L HA <L HB ), the shortcut button SB HA is displayed larger and the shortcut button SB HB is displayed smaller. As the button image, for example, a photographed face image of the subject may be used by reducing or enlarging it, or a prescribed face image may be used. In addition, since the target person (target person HC) that falls within the camera angle of view θ cam is already displayed on the touch panel, the shortcut button is not displayed.

次に、ステップS103において、表示中のショートカットボタンに対してユーザによる押し下げタッチ操作が検知されると、カメラ映像表示部11は、押し下げられたショートカットボタンのIDをロボット制御部12に送信する。ここでは、対象者HBとの会話を行うため、図5に示すようにショートカットボタンSBHBが選択されたものとする。 Next, in step S <b> 103, when a pressing touch operation by the user is detected for the shortcut button being displayed, the camera image display unit 11 transmits the ID of the pressed shortcut button to the robot control unit 12. Here, it is assumed that the shortcut button SB HB is selected as shown in FIG. 5 in order to have a conversation with the target person HB.

次に、ステップS104において、ロボット制御部12は、押し下げられたショートカットボタンの対象者に対して正面となり、かつ、該対象者から一定距離に位置するように移動させるための制御信号を生成し、ロボット2に送信する。上述のようにショートカットボタンSBHBが押し下げられた場合、図6に示すように、ロボット2を上方向(旧正面方向)からθHB°右回転させ、距離LHBから上記一定距離を差し引いた距離を前進させる。 Next, in step S104, the robot control unit 12 generates a control signal for moving the shortcut button so that the shortcut button is in front of the subject and located at a certain distance from the subject. Transmit to the robot 2. When the shortcut button SB HB is pressed down as described above, the robot 2 is rotated clockwise by θ HB ° from the upward direction (old front direction), and the distance obtained by subtracting the predetermined distance from the distance L HB as shown in FIG. Move forward.

また、ステップS105において、カメラ映像表示部11は、ロボット2の移動中のカメラ映像をタッチパネルに表示し、ロボット2の移動により刻々と変化する周囲の人の位置方向及び距離をもとにショートカットボタンの再生成・再表示を逐次行う。   In step S <b> 105, the camera image display unit 11 displays the camera image of the moving robot 2 on the touch panel, and uses shortcut buttons based on the position direction and distance of surrounding people that change every moment as the robot 2 moves. Re-generation / re-display is performed sequentially.

そして、移動完了後、ロボット2は自機の移動動作を停止する。ロボットの停止後、タッチパネル上には、図7に示すように、選択された対象者HBを映したカメラ映像が表示され、カメラ画角θcam外の対象者HA,HCについてはショートカットボタンSBHA,SBHCが表示される。 Then, after the movement is completed, the robot 2 stops its own movement operation. After the robot stops, as shown in FIG. 7, a camera image showing the selected target person HB is displayed on the touch panel. Shortcut buttons SB HA are displayed for the target persons HA and HC outside the camera angle of view θ cam. , SB HC is displayed.

なお、本実施の形態では、コミュニケーションを目的として人を選択する場合を例に説明したが、例えば障害調査等を目的として、木やパソコン、更には動物等を選択するようにしてもよい。その他、相手自身も通話機能等を具備するロボットであってもよい。   In the present embodiment, the case where a person is selected for the purpose of communication has been described as an example. However, for example, a tree, a personal computer, or an animal may be selected for the purpose of investigating a failure. In addition, the other party may be a robot having a call function or the like.

〔第2の実施の形態〕
第1の実施の形態では、タッチパネル上にショートカットボタンを表示する方法、一人の対象者を選択する方法について説明した。一方、複数の人と会話したい場合や、その近くにある物について話をしたい場合も考えられる。そこで、第2の実施の形態では、複数の対象(対象者・対象物)をカメラ画角に収めるようにロボット2を操作する方法について説明する。本実施の形態に係る操作端末1は、第1の実施の形態と同様に、カメラ映像表示部11と、ロボット制御部12と、を備えて構成される。
[Second Embodiment]
In the first embodiment, the method for displaying shortcut buttons on the touch panel and the method for selecting one target person have been described. On the other hand, there may be a case where one wants to talk with a plurality of people or another person who wants to talk about a nearby object. Therefore, in the second embodiment, a method of operating the robot 2 so that a plurality of objects (subjects / objects) are included in the camera angle of view will be described. As with the first embodiment, the operation terminal 1 according to the present embodiment includes a camera video display unit 11 and a robot control unit 12.

(動作例1)
最初に、図8を参照しながら、操作端末1で行う動作例1のロボット操作方法について説明する。
(Operation example 1)
First, the robot operation method of the operation example 1 performed on the operation terminal 1 will be described with reference to FIG.

まず、ステップS201において、カメラ映像表示部11は、ロボット2で検知された人(対象者)・木(対象物)の位置方向及び距離を取得する。例えば、ロボット2に対して図9に示す位置に一人の対象者HAと2つの対象物OA,OBが存在する場合、カメラの正面方向(図の上方向)から右回りで対象者HAまでの回転角度θHA、ロボット2から該対象者HAまでの距離LHAを取得する。同様に、対象物OAに関する回転角度θOA及び距離LOA、対象物OBに関する回転角度θOB及び距離LOBも取得する。 First, in step S <b> 201, the camera image display unit 11 acquires the position direction and distance of a person (subject) / tree (subject) detected by the robot 2. For example, when there is one target person HA and two objects OA and OB at the position shown in FIG. 9 with respect to the robot 2, from the front direction of the camera (upward in the figure) to the target person HA in the clockwise direction. The rotation angle θ HA and the distance L HA from the robot 2 to the subject HA are acquired. Similarly, the rotation angle theta OA and the distance L OA about the object OA, the rotation angle theta OB and the distance L OB regarding the object OB to retrieve.

次に、ステップS202において、カメラ映像表示部11は、取得したデータを用いて対象(対象者・対象物)の位置方向と該対象までの距離を直感的に表したショートカットボタンを生成し、タッチパネル上のカメラ映像に重畳表示する。ショートカットボタンの生成・表示方法は、第1の実施の形態と同様である。これにより、図10に示すように、カメラ画角θcam内の対象物OAについては、映像そのものが選択可能に表示される。また、カメラ画角θcam外の対象者HAと対象物OBについては、ショートカットボタンSBHA,SBOBが表示される。 Next, in step S202, the camera image display unit 11 generates a shortcut button that intuitively represents the position direction of the target (target person / target object) and the distance to the target using the acquired data, and the touch panel. Display superimposed on the upper camera image. The shortcut button generation / display method is the same as that of the first embodiment. As a result, as shown in FIG. 10, for the object OA within the camera angle of view θ cam , the image itself is displayed so as to be selectable. Shortcut buttons SB HA and SB OB are displayed for the subject HA and the subject OB outside the camera angle of view θ cam .

次に、ステップS203において、表示中の対象物・ショートカットボタンに対して押し下げタッチ操作が検知されると、カメラ映像表示部11は、押し下げられた複数の対象の各IDをロボット制御部12に送信する。ここでは、対象者HAとの間で対象物OAについての会話を行うため、図11に示すように、ショートカットボタンSBHAと対象物OAが選択されたものとする。例えば、ショートカットボタンSBHAを押下した状態で対象物OAの上までドラッグし、その後に指を離す。 Next, in step S <b> 203, when a push-down touch operation is detected with respect to the displayed object / shortcut button, the camera image display unit 11 transmits the IDs of the plurality of pushed down objects to the robot control unit 12. To do. Here, since the conversation about the target object OA is performed with the target person HA, it is assumed that the shortcut button SB HA and the target object OA are selected as shown in FIG. For example, the user drags the object OA while pressing the shortcut button SB HA , and then releases the finger.

次に、ステップS204〜ステップS206において、ロボット制御部12は、押し下げられた複数の対象がカメラ画角θcam内に収まるようにロボット2を操作する。 Next, in step S204 to step S206, the robot control unit 12 operates the robot 2 so that a plurality of depressed objects are within the camera angle of view θ cam .

具体的には、まず、ステップS204において、図12に示すように、選択された対象物OAに対するカメラ正面方向からの回転角度θ’OAと、ショートカットボタンSBHAの対象者HAに対するカメラ正面方向からの回転角度θ’HAとの加算値が0(=θ’OA+θ’HA)となるようにロボット2を回転させる。 Specifically, first, in step S204, as shown in FIG. 12, the rotation angle θ ′ OA from the camera front direction with respect to the selected object OA and the camera front direction with respect to the subject HA of the shortcut button SB HA. The robot 2 is rotated so that the added value with the rotation angle θ ′ HA is 0 (= θ ′ OA + θ ′ HA ).

続いて、ステップS205において、選択された対象物OA及び対象者HAが回転完了後のカメラ画角θcam内に収まるか否かを判定する。具体的には、|θ’OA|+|θ’HA|<θcamが成立するかを確認する。収まる場合は処理を終了し、収まらない場合はステップS206に進む。 Subsequently, in step S205, it is determined whether or not the selected object OA and the subject HA are within the camera angle of view θ cam after the rotation is completed. Specifically, it is confirmed whether | θ ′ OA | + | θ ′ HA | <θ cam is satisfied. If it does not fit, the process ends. If it does not fit, the process proceeds to step S206.

そして、ステップS206において、選択された対象物OA及び対象者HAがカメラ画角θcam内に収まるように、|θ’OA|+|θ’HA|<θcamが成立するまでロボット2を後退させる。ロボットの停止後、タッチパネル上には、図13に示すように、選択された対象物OA及び対象者HAを映したカメラ映像が表示され、カメラ画角θcam外の対象物OBについてはショートカットボタンSBOBが表示される。 In step S206, the robot 2 moves backward until | θ ′ OA | + | θ ′ HA | <θ cam is established so that the selected object OA and the subject HA are within the camera angle of view θ cam . Let After the robot stops, a camera image showing the selected target object OA and the target person HA is displayed on the touch panel as shown in FIG. 13, and a shortcut button is displayed for the target object OB outside the camera angle of view θ cam. SB OB is displayed.

(動作例2)
続いて、図14を参照しながら、動作例2について説明する。ステップS301とステップS302は、ステップS201とステップS202と同様である。また、ステップS303では、図15に示すように、対象者HAとの間で対象物OBについての会話を行うため、2つのショートカットボタンSBHA,SBOAが選択されたものとする。
(Operation example 2)
Subsequently, an operation example 2 will be described with reference to FIG. Step S301 and step S302 are the same as step S201 and step S202. In step S303, as shown in FIG. 15, it is assumed that two shortcut buttons SB HA and SB OA are selected in order to have a conversation about the object OB with the subject HA .

次に、ステップS304において、図16に示すように、選択されたショートカットボタンSBHAの対象者HAに対するカメラ正面方向からの回転角度θ’HAと、ショートカットボタンSBOBの対象物OBに対するカメラ正面方向からの回転角度θ’OBと、の加算値が0(=θ’HA+θ’OB)となるようにロボット2を回転させる。 Next, in step S304, as shown in FIG. 16, the rotation angle θ ′ HA from the camera front direction with respect to the subject HA of the selected shortcut button SB HA and the camera front direction of the shortcut button SB OB with respect to the object OB. The robot 2 is rotated so that the added value of the rotation angle θ ′ OB from the rotation angle becomes 0 (= θ ′ HA + θ ′ OB ).

続いて、ステップS305において、選択された対象者HA及び対象物OBが回転完了後のカメラ画角θcam内に収まるかを判定する。具体的には、|θ’HA|+|θ’OB|<θcamが成立するかを確認する。収まる場合は処理を終了し、収まらない場合はステップS306に進む。 Subsequently, in step S305, it is determined whether or not the selected subject HA and the subject OB are within the camera angle of view θ cam after the rotation is completed. Specifically, it is confirmed whether | θ ′ HA | + | θ ′ OB | <θ cam is satisfied. If it does not fit, the process ends. If it does not fit, the process proceeds to step S306.

そして、ステップS306において、選択された対象者HA及び対象物OBがカメラ画角θcam内に収まるように、|θ’HA|+|θ’OB|<θcamが成立するまでロボット2を後退させる。ロボットの停止後、タッチパネル上には、図17に示すように、選択された対象者HA及び対象物OBを映したカメラ映像が表示され、カメラ画角θcam外の対象物OAについてはショートカットボタンSBOAが表示される。 In step S306, the robot 2 moves backward until | θ ′ HA | + | θ ′ OB | <θ cam is established so that the selected subject HA and the subject OB are within the camera angle of view θ cam . Let After the robot is stopped, a camera image showing the selected target person HA and the target object OB is displayed on the touch panel as shown in FIG. 17, and a shortcut button is displayed for the target object OA outside the camera angle of view θ cam. SBOA is displayed.

(動作例3)
続いて、図18を参照しながら、動作例3について説明する。ステップS401とステップS402は、ステップS201とステップS202と同様である。また、ステップS403では、図19に示すように、対象者HAとの間で2つの対象物OA,OBについての会話を行うため、対象物OAと2つのショートカットボタンSBHA,SBOAが選択されたものとする。例えば、複数対象選択用のボタンを表示しておき、該ボタンを押し下げ、それら3つの対象を選択した後に該ボタンを再度押下することで、ユーザにより選択された複数の対象が特定される。
(Operation example 3)
Subsequently, an operation example 3 will be described with reference to FIG. Step S401 and step S402 are the same as step S201 and step S202. In step S403, as shown in FIG. 19, the object OA and the two shortcut buttons SB HA and SB OA are selected in order to have a conversation about the two objects OA and OB with the subject HA . Shall be. For example, a plurality of objects selected by the user are specified by displaying a button for selecting a plurality of objects, depressing the button, selecting these three objects, and then pressing the button again.

次に、ステップS404〜ステップS407において、ロボット制御部12は、押し下げられた複数の対象がカメラ画角θcam内に収まるようにロボット2を操作する。 Next, in step S404 to step S407, the robot control unit 12 operates the robot 2 so that the plurality of pushed objects are within the camera angle of view θ cam .

具体的には、まず、ステップS404において、選択された全ての対象群N〔={HA,OA,OB}〕における移動前の回転角度θ〔={θHA,θOA,θOB}〕から、最小の角度minθと最大の角度maxθを求める。ここでは、図9に示した回転前の位置関係より、minθ=θOA、maxθ=θOBとなる。 Specifically, first, in step S404, the rotation angles θ N [= {θ HA , θ OA , θ OB }] before movement in all the selected target groups N [= {HA, OA, OB}]]. from determining the minimum angle Minshita N and the maximum angle maxθ N. Here, minθ N = θ OA and maxθ N = θ OB from the positional relationship before rotation shown in FIG.

続いて、ステップS405において、minθの対象の移動前の角度をθmin、移動後の角度をθ’minとし、maxθの対象の移動前の角度をθmax、移動後の角度をθ’maxとすると、θ’minとθ’maxとの加算値が0(=θ’min+θ’max)となるようにロボット2を回転させる。具体的には、図20に示すように、|θ’OA|と|θ’OB|が等しくなるようにロボット2を回転する。 Subsequently, in step S405, the angle before movement of the object of minθ N is θ min , the angle after movement is θ ′ min , the angle before movement of the object of maxθ N is θ max , and the angle after movement is θ ′. If it is set to max , the robot 2 is rotated so that the added value of θ ′ min and θ ′ max becomes 0 (= θ ′ min + θ ′ max ). Specifically, as shown in FIG. 20, the robot 2 is rotated so that | θ ′ OA | and | θ ′ OB | are equal.

そして、ステップS406において、選択された対象者HA及び対象物OA,OBが回転完了後のカメラ画角θcam内に収まるか否かを判定する。具体的には、|θ’min|+|θ’max|<θcamが成立するかを確認する。収まる場合は処理を終了し、収まらない場合はステップS407に進む。 In step S406, it is determined whether or not the selected target person HA and the target objects OA and OB are within the camera angle of view θ cam after the rotation is completed. Specifically, it is confirmed whether or not | θ ′ min | + | θ ′ max | <θ cam holds. If it does not fit, the process ends. If it does not fit, the process proceeds to step S407.

その後、ステップS407において、選択された対象者HA及び対象物OA,OBがカメラ画角θcam内に収まるように、|θ’min|+|θ’max|<θcamが成立するまでロボット2を後退させる。ロボットの停止後、タッチパネル上には、図21に示すように、選択された全ての対象を映したカメラ映像が表示される。 Thereafter, in step S407, the selected subjects HA and the object OA, as OB fit the camera angle theta in cam, | θ 'min | + | θ' max | < robot until theta cam holds 2 Retreat. After the robot stops, a camera image showing all the selected objects is displayed on the touch panel as shown in FIG.

以上より、各実施の形態によれば、操作端末1において、カメラ映像表示部11が、ロボット2のカメラで撮像されたカメラ映像をタッチパネルに表示し、該カメラ映像の範囲外に存在する対象(対象者・対象物)に係るショートカットボタンを実空間上の位置及び距離に対応付けて上記カメラ映像の画面淵に重畳するので、ロボット2の操作効率を向上できる。つまり、ショートカットボタンの表示位置や表示サイズより、ロボット2をどの人に対してどの程度回転させ、どの程度移動させればよいかをタッチパネル上で直感的に確認可能となることから、その人やその近くにあるものをカメラ画角に収まるように簡便にロボット2を操作可能となる。   As described above, according to each embodiment, in the operation terminal 1, the camera image display unit 11 displays the camera image captured by the camera of the robot 2 on the touch panel, and the target (outside the range of the camera image) Since the shortcut button relating to the subject / object is associated with the position and distance in the real space and superimposed on the screen of the camera image, the operation efficiency of the robot 2 can be improved. That is, it is possible to intuitively confirm on the touch panel how much the robot 2 should be rotated and how much the robot 2 should be moved based on the display position and display size of the shortcut button. It is possible to easily operate the robot 2 so that a nearby object is within the camera angle of view.

また、ショートカットボタンには、対象の形(人の顔・木)を表示する機能と、該対象に対して正面かつ一定距離となるようにロボット2を移動させる機能とが一体化されているので、タッチパネル上の限られた表示領域を有効に活用し、効率よく表示できる。   In addition, the shortcut button has a function of displaying the shape of the object (human face / tree) and a function of moving the robot 2 so that it is in front and at a certain distance from the object. Effective use of the limited display area on the touch panel enables efficient display.

最後に、本実施の形態では、タッチパネルを用いる場合を説明したが、カメラ映像の表示手段とタッチ操作の受付手段とを物理的に異なる手段で実現してもよい。例えば、汎用モニタとペンタブレットを用いることが考えられる。ペンタブレットの電子ペンを用いてモニタ上のカメラ映像やショートカットボタンをペンタブレット上で間接的にタッチ操作することにより、上記と同様の効果を得ることができる。   Finally, in the present embodiment, the case where a touch panel is used has been described, but the camera image display means and the touch operation accepting means may be realized by physically different means. For example, it is possible to use a general-purpose monitor and a pen tablet. An effect similar to the above can be obtained by indirectly touching a camera image or shortcut button on the monitor on the pen tablet using the electronic pen of the pen tablet.

1…操作端末(移動装置操作端末)
11…カメラ映像表示部(表示手段)
12…ロボット制御部(制御手段)
2…テレプレゼンスロボット(移動装置)
S101〜S105、S201〜S206、S301〜S306、S401〜S407…ステップ
1 ... Operation terminal (mobile device operation terminal)
11 ... Camera image display section (display means)
12 ... Robot controller (control means)
2. Telepresence robot (mobile device)
S101-S105, S201-S206, S301-S306, S401-S407 ... step

Claims (6)

移動装置の撮像手段で撮像された撮像画像を画面に表示し、前記撮像画像の範囲外に存在する対象体に係る対象体情報を実空間上の位置に対応付けて前記撮像画像に重畳する表示手段と、
前記画面上でタッチ操作により選択された前記対象体情報の対象体が前記撮像手段の撮像範囲に入るように前記移動装置を移動させる制御手段と、を有し、
前記表示手段は、
前記移動装置から前記対象体までの距離に応じて前記対象体情報の表示サイズを変えることを特徴とする移動装置操作端末。
A display in which a captured image captured by an imaging unit of a mobile device is displayed on a screen, and object information relating to an object existing outside the range of the captured image is associated with a position in real space and superimposed on the captured image. Means,
Control means for moving the moving device so that a target object of the target object information selected by a touch operation on the screen falls within an imaging range of the imaging means ,
The display means includes
A mobile device operating terminal, wherein a display size of the target object information is changed according to a distance from the mobile device to the target object .
移動装置の撮像手段で撮像された撮像画像を画面に表示し、前記撮像画像の範囲外に存在する対象体に係る対象体情報を実空間上の位置に対応付けて前記撮像画像に重畳する表示手段と、
前記撮像画像内の対象体及び/又は前記対象体情報に係る対象体のうちタッチ操作により選択された複数の対象体が前記撮像手段の撮像範囲に入るように前記移動装置を移動させる制御手段と、を有し、
前記表示手段は、
前記移動装置から前記対象体までの距離に応じて前記対象体情報の表示サイズを変えることを特徴とする移動装置操作端末。
A display in which a captured image captured by an imaging unit of a mobile device is displayed on a screen, and object information relating to an object existing outside the range of the captured image is associated with a position in real space and superimposed on the captured image. Means,
Control means for moving the moving device so that a plurality of objects selected by a touch operation among objects in the captured image and / or objects related to the object information are within the imaging range of the imaging means; Have
The display means includes
A mobile device operating terminal, wherein a display size of the target object information is changed according to a distance from the mobile device to the target object .
選択された前記対象体は、
少なくとも生命体であることを特徴とする請求項1又は2に記載の移動装置操作端末。
The selected object is
The mobile device operation terminal according to claim 1, wherein the mobile device operation terminal is at least a living body.
移動装置操作端末で行う移動装置操作方法において、In the mobile device operation method performed at the mobile device operation terminal,
前記移動装置操作端末は、The mobile device operation terminal is
移動装置の撮像手段で撮像された撮像画像を画面に表示し、前記撮像画像の範囲外に存在する対象体に係る対象体情報を実空間上の位置に対応付けて前記撮像画像に重畳する表示ステップと、A display in which a captured image captured by an imaging unit of a mobile device is displayed on a screen, and object information relating to an object existing outside the range of the captured image is associated with a position in real space and superimposed on the captured image. Steps,
前記画面上でタッチ操作により選択された前記対象体情報の対象体が前記撮像手段の撮像範囲に入るように前記移動装置を移動させる制御ステップと、を行い、Performing a control step of moving the moving device so that a target object of the target object information selected by a touch operation on the screen falls within an imaging range of the imaging means,
前記表示ステップでは、In the display step,
前記移動装置から前記対象体までの距離に応じて前記対象体情報の表示サイズを変えることを特徴とする移動装置操作方法。A moving device operating method, wherein a display size of the object information is changed according to a distance from the moving device to the object.
移動装置操作端末で行う移動装置操作方法において、In the mobile device operation method performed at the mobile device operation terminal,
前記移動装置操作端末は、The mobile device operation terminal is
移動装置の撮像手段で撮像された撮像画像を画面に表示し、前記撮像画像の範囲外に存在する対象体に係る対象体情報を実空間上の位置に対応付けて前記撮像画像に重畳する表示ステップと、A display in which a captured image captured by an imaging unit of a mobile device is displayed on a screen, and object information relating to an object existing outside the range of the captured image is associated with a position in real space and superimposed on the captured image. Steps,
前記撮像画像内の対象体及び/又は前記対象体情報に係る対象体のうちタッチ操作により選択された複数の対象体が前記撮像手段の撮像範囲に入るように前記移動装置を移動させる制御ステップと、を行い、A control step of moving the moving device so that a plurality of objects selected by a touch operation among objects in the captured image and / or objects related to the object information are within the imaging range of the imaging means; , And
前記表示ステップでは、In the display step,
前記移動装置から前記対象体までの距離に応じて前記対象体情報の表示サイズを変えることを特徴とする移動装置操作方法。A moving device operating method, wherein a display size of the object information is changed according to a distance from the moving device to the object.
請求項1乃至3のいずれかに記載の移動装置操作端末としてコンピュータを機能させることを特徴とする移動装置操作プログラム。A mobile device operating program for causing a computer to function as the mobile device operating terminal according to any one of claims 1 to 3.
JP2015111407A 2015-06-01 2015-06-01 Mobile device operation terminal, mobile device operation method, and mobile device operation program Active JP6473048B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015111407A JP6473048B2 (en) 2015-06-01 2015-06-01 Mobile device operation terminal, mobile device operation method, and mobile device operation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015111407A JP6473048B2 (en) 2015-06-01 2015-06-01 Mobile device operation terminal, mobile device operation method, and mobile device operation program

Publications (2)

Publication Number Publication Date
JP2016225875A JP2016225875A (en) 2016-12-28
JP6473048B2 true JP6473048B2 (en) 2019-02-20

Family

ID=57748088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015111407A Active JP6473048B2 (en) 2015-06-01 2015-06-01 Mobile device operation terminal, mobile device operation method, and mobile device operation program

Country Status (1)

Country Link
JP (1) JP6473048B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6761990B2 (en) * 2017-05-22 2020-09-30 パナソニックIpマネジメント株式会社 Communication control method, communication control device, telepresence robot, and communication control program
US11212439B2 (en) 2018-07-24 2021-12-28 Ricoh Company, Ltd. Communication terminal, display method, and non-transitory computer-readable medium for displaying images and controller
JP7402784B2 (en) * 2020-11-13 2023-12-21 本田技研工業株式会社 Remote display systems, robots, and display terminals

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3177022B2 (en) * 1992-10-26 2001-06-18 キヤノン株式会社 Video conference equipment
JP3902904B2 (en) * 1999-03-23 2007-04-11 キヤノン株式会社 Information presenting apparatus, method, camera control apparatus, method, and computer-readable storage medium
JP2002046088A (en) * 2000-08-03 2002-02-12 Matsushita Electric Ind Co Ltd Robot device
JP2004325459A (en) * 2004-05-31 2004-11-18 Toshiba Corp Positional information display, positional information management system, and positional information managing method
JP5111343B2 (en) * 2008-12-02 2013-01-09 キヤノン株式会社 Playback device
JP2013106298A (en) * 2011-11-16 2013-05-30 Sony Corp Imaging controller, imaging control method, program for imaging control method, and imaging apparatus
JP6103526B2 (en) * 2013-03-15 2017-03-29 オリンパス株式会社 Imaging device, image display device, and display control method for image display device

Also Published As

Publication number Publication date
JP2016225875A (en) 2016-12-28

Similar Documents

Publication Publication Date Title
CN107528938B (en) Video call method, terminal and computer readable storage medium
EP2701152B1 (en) Media object browsing in a collaborative window, mobile client editing, augmented reality rendering.
US9794495B1 (en) Multiple streaming camera navigation interface system
JP6071866B2 (en) Display control device, display device, imaging system, display control method, and program
KR20180108739A (en) VR control method, apparatus, electronic apparatus, program and storage medium
KR20160087268A (en) Mobile terminal and control method for the same
CN106162150B (en) A kind of photographic method and mobile terminal
JP2017040687A (en) Image display system, information processor, image display method, and program
JP2018093361A (en) Communication terminal, communication system, video output method, and program
JP2019062575A (en) Control device, control method, and program
CN106412432A (en) Photographing method and mobile terminal
JP6524706B2 (en) Display control method, display control program, and information processing apparatus
JP6473048B2 (en) Mobile device operation terminal, mobile device operation method, and mobile device operation program
CN106791422A (en) A kind of image processing method and mobile terminal
JP2015005823A (en) Image processing apparatus and digital mirror system
KR20180017638A (en) Mobile terminal and method for controlling the same
CN107924272B (en) Information processing apparatus, information processing method, and program
JP2024103514A (en) Object posture control program and information processing device
JP7553853B2 (en) Object attitude control program and object attitude control system
JP2014062932A (en) Attitude control device, operation device, attitude control system, control method, control program, and recording medium
JP7574565B2 (en) COMMUNICATION TERMINAL, COMMUNICATION SYSTEM, COMMUNICATION METHOD, AND PROGRAM
KR101683130B1 (en) Method for providing user interface capable of allowing a user at local area and a user at remote area to interact each other, terminal, and computer-readable recording medium using the same
JP2022155135A (en) Electronic device and control method thereof, program, and recording medium
JP5229141B2 (en) Display control apparatus and display control method
JP2020086630A (en) Work assisting system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190124

R150 Certificate of patent or registration of utility model

Ref document number: 6473048

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150