JP6473048B2 - Mobile device operation terminal, mobile device operation method, and mobile device operation program - Google Patents
Mobile device operation terminal, mobile device operation method, and mobile device operation program Download PDFInfo
- Publication number
- JP6473048B2 JP6473048B2 JP2015111407A JP2015111407A JP6473048B2 JP 6473048 B2 JP6473048 B2 JP 6473048B2 JP 2015111407 A JP2015111407 A JP 2015111407A JP 2015111407 A JP2015111407 A JP 2015111407A JP 6473048 B2 JP6473048 B2 JP 6473048B2
- Authority
- JP
- Japan
- Prior art keywords
- mobile device
- robot
- captured image
- display
- device operation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 24
- 238000003384 imaging method Methods 0.000 claims description 20
- 238000011017 operating method Methods 0.000 claims 2
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000000881 depressing effect Effects 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Selective Calling Equipment (AREA)
Description
本発明は、移動装置を操作端末で遠隔操作する技術に関する。 The present invention relates to a technique for remotely operating a mobile device with an operation terminal.
現在、コミュニケーションを目的としたテレプレゼンスロボット(以下、ロボット)が研究開発されている。ユーザは、操作端末を用いてロボットの移動方向や回転方向を遠隔操作可能であり、ロボット周囲にいる人と会話したい場合、その人がカメラ画角に入るようにロボットを操作する。例えば、相手に対してロボットの正面が向くように操作し、その相手の近くにあるもの(人・物)について話したい場合はそれもカメラ画角に収まるように操作する。 Currently, telepresence robots (hereinafter referred to as robots) for communication purposes are being researched and developed. The user can remotely control the moving direction and the rotating direction of the robot using the operation terminal. When the user wants to talk with a person around the robot, the user operates the robot so that the person enters the camera angle of view. For example, if the robot is operated so that the front of the robot faces the other party and it is desired to talk about an object (person / thing) near the other party, the operation is performed so that the angle of view is within the camera angle.
しかしながら、会話を行う毎にユーザが手動で対象が映像内に収まるようにロボットを操作することは面倒である。例えば、カメラ映像を見ながら周囲の人を探索しつつロボットの移動方向や回転方向を繰り返し調整するため、操作手順が煩雑となってしまう。非特許文献1にはコンピュータグラフィックスの重畳表示を用いてロボットを直感的に操作する方法が提案されているが、この場合でも対象物を映像内に瞬時に収めることは困難である。 However, it is troublesome for the user to manually operate the robot so that the target is within the video every time a conversation is performed. For example, since the robot movement direction and rotation direction are repeatedly adjusted while searching for surrounding people while watching the camera image, the operation procedure becomes complicated. Non-Patent Document 1 proposes a method of intuitively operating a robot using computer graphics superimposed display, but even in this case, it is difficult to instantaneously place an object in an image.
本発明は、上記事情を鑑みてなされたものであり、移動装置の操作効率を改善することを目的とする。 This invention is made | formed in view of the said situation, and aims at improving the operation efficiency of a moving apparatus.
以上の課題を解決するため、請求項1に記載の移動装置操作端末は、移動装置の撮像手段で撮像された撮像画像を画面に表示し、前記撮像画像の範囲外に存在する対象体に係る対象体情報を実空間上の位置に対応付けて前記撮像画像に重畳する表示手段、を有することを要旨とする。 In order to solve the above-described problem, the mobile device operation terminal according to claim 1 displays a captured image captured by an imaging unit of the mobile device on a screen, and relates to an object existing outside the range of the captured image. The gist of the invention is to include display means for superimposing the object information on the captured image in association with a position in the real space.
本発明によれば、移動装置の撮像手段で撮像された撮像画像を画面に表示し、該撮像画像の範囲外に存在する対象体に係る対象体情報を実空間上の位置に対応付けて上記撮像画像に重畳するため、移動装置の操作効率を向上できる。 According to the present invention, the captured image captured by the imaging unit of the mobile device is displayed on the screen, and the object information relating to the object existing outside the range of the captured image is associated with the position in the real space, and Since it is superimposed on the captured image, the operation efficiency of the mobile device can be improved.
請求項2に記載の移動装置操作端末は、請求項1に記載の移動装置操作端末において、前記画面上で選択された前記対象体情報の対象体が前記撮像手段の撮像範囲に入るように前記移動装置を移動させる制御手段、を更に有することを要旨とする。
The mobile device operation terminal according to
請求項3に記載の移動装置操作端末は、請求項1に記載の移動装置操作端末において、前記撮像画像内の対象体及び/又は前記対象体情報に係る対象体のうち選択された複数の対象体が前記撮像手段の撮像範囲に入るように前記移動装置を移動させる制御手段、を更に有することを要旨とする。 The mobile device operation terminal according to claim 3 is the mobile device operation terminal according to claim 1, wherein a plurality of objects selected from the target object in the captured image and / or the target object related to the target object information are provided. The gist further includes control means for moving the moving device so that the body falls within the imaging range of the imaging means.
請求項4に記載の移動装置操作端末は、請求項2又は3に記載の移動装置操作端末において、選択された前記対象体は、少なくとも生命体であることを要旨とする。
The mobile device operation terminal according to
請求項5に記載の移動装置操作端末は、請求項1乃至4のいずれかに記載の移動装置操作端末において、前記表示手段は、前記移動装置から前記対象体までの距離に応じて前記対象体情報の表示サイズを変えることを要旨とする。
The mobile device operation terminal according to
請求項6に記載の移動装置操作方法は、移動装置操作端末で行う移動装置操作方法において、前記移動装置操作端末は、移動装置の撮像手段で撮像された撮像画像を画面に表示し、前記撮像画像の範囲外に存在する対象体に係る対象体情報を実空間上の位置に対応付けて前記撮像画像に重畳する表示ステップ、を有することを要旨とする。 The mobile device operation method according to claim 6, wherein the mobile device operation terminal displays a captured image captured by an imaging unit of the mobile device on a screen, and the imaging The gist of the invention is to include a display step of superimposing the object information relating to the object existing outside the range of the image on the captured image in association with the position in the real space.
請求項7に記載の移動装置操作プログラムは、請求項1乃至5のいずれかに記載の移動装置操作端末としてコンピュータを機能させることを要旨とする。 A gist of a mobile device operation program according to a seventh aspect is to cause a computer to function as the mobile device operation terminal according to any one of the first to fifth aspects.
本発明によれば、移動装置の操作効率を向上できる。 According to the present invention, the operation efficiency of the mobile device can be improved.
以下、本発明を実施する一実施の形態について図面を用いて説明する。 Hereinafter, an embodiment for carrying out the present invention will be described with reference to the drawings.
〔第1の実施の形態〕
図1は、第1の実施の形態に係る操作端末1の機能ブロック構成を示す図である。該操作端末1は、テレプレゼンスロボット(ロボット)2を遠隔操作するための端末であり、カメラ映像表示部11と、ロボット制御部12と、を備えて構成される。
[First Embodiment]
FIG. 1 is a diagram illustrating a functional block configuration of the operation terminal 1 according to the first embodiment. The operation terminal 1 is a terminal for remotely operating a telepresence robot (robot) 2 and includes a camera
カメラ映像表示部11は、タッチパネルを備え、ロボット2のカメラで撮影されたカメラ映像を該タッチパネルに表示するように構成されている。また、カメラ映像の範囲外に存在する対象(対象者・対象物)の位置方向と該対象までの距離を直感的に表したショートカットボタン(対象体情報)をカメラ映像に重畳表示するように構成されている。
The camera
ロボット制御部12は、選択されたショートカットの対象に対して正面かつ一定距離となるようにロボット2を移動させるように構成されている。
The
上述した複数の機能部を備える操作端末1は、タッチパネル、CPU、メモリ等を備えたコンピュータで実現可能である。例えば、スマートフォン、タブレット端末、パソコンを用いて実現する。また、操作端末1としてコンピュータを機能させるためのプログラムや該プログラムの記憶媒体を作成することも可能である。 The operation terminal 1 including the plurality of functional units described above can be realized by a computer including a touch panel, a CPU, a memory, and the like. For example, it is realized using a smartphone, a tablet terminal, or a personal computer. It is also possible to create a program for causing a computer to function as the operation terminal 1 and a storage medium for the program.
なお、ロボット2とは、スピーカー、マイク、撮影の正面方向を持つ360度デジタルカメラを備え、操作端末1からの制御信号に基づき自機の移動方向及び回転方向を制御可能な移動装置である。また、人の顔や物を認識する機能を備え、カメラ画像上の顔・物の位置や大きさから人・物の位置方向及び距離を検知可能である。さらに、撮影したカメラ映像及び検知した全てのデータを操作端末1に送信可能である。なお、テレプレゼンスロボットとはロボットの例であり、小型飛行機やヘリコプター等の無人飛行体(ドローン)等を用いてもよい。上述した機能や機構を具備する移動装置であればよい。また、操作端末1とロボット2との間の通信路は、無線でもよいし有線でもよい。
The
次に、図2を参照しながら、操作端末1で行うロボット操作方法について説明する。ロボット2は、自機の周囲に存在する人の位置方向、自機から人までの距離を検知しているものとする。
Next, a robot operation method performed on the operation terminal 1 will be described with reference to FIG. It is assumed that the
まず、ステップS101において、カメラ映像表示部11は、ロボット2で検知された人(対象者)の位置方向及び距離を取得する。例えば、ロボット2に対して図3に示す位置に三人の対象者HA〜HCが存在する場合、カメラの正面方向(図の上方向)から右回りで対象者HAまでの回転角度θHA、ロボット2から該対象者HAまでの距離LHAを取得する。同様に、対象者HBに関する回転角度θHB及び距離LHB、対象者HCに関する回転角度θHC及び距離LHCも取得する。
First, in step S <b> 101, the camera
次に、ステップS102において、カメラ映像表示部11は、取得したデータを用いて対象者の位置方向と該対象者までの距離を直感的に示したショートカットボタンを生成し、タッチパネル上のカメラ映像に重畳表示する。具体的には、顔を表現したボタン画像(アイコン)を生成し、対象者までの距離に応じて表示サイズを変更し、対象者の位置方向に対応する場所に表示する。
Next, in step S102, the camera
例えば、図4に示すように、タッチパネルの画面中央をロボット2の現在位置とみなし、上方向を基準に右回りでθHA°の軸方向の画面淵に対象者HAのショートカットボタンSBHAを表示し、同様に右回りでθHB°の軸方向の画面淵に対象者HBのショートカットボタンSBHBを表示する。また、ここではロボット2から対象者HAまでの距離の方が対象者HBまでよりも近いため(LHA<LHB)、ショートカットボタンSBHAを大きく表示し、ショートカットボタンSBHBを小さく表示する。なお、ボタン画像については、例えば、撮影された対象者の顔画像を縮小・拡大して用いてもよいし、規定の顔画像を用いてもよい。また、カメラ画角θcam内に収まる対象者(対象者HC)については、タッチパネル上に既に映し出されているため、そのショートカットボタンは表示しない。
For example, as shown in FIG. 4, the screen center of the touch panel is regarded as the current position of the
次に、ステップS103において、表示中のショートカットボタンに対してユーザによる押し下げタッチ操作が検知されると、カメラ映像表示部11は、押し下げられたショートカットボタンのIDをロボット制御部12に送信する。ここでは、対象者HBとの会話を行うため、図5に示すようにショートカットボタンSBHBが選択されたものとする。
Next, in step S <b> 103, when a pressing touch operation by the user is detected for the shortcut button being displayed, the camera
次に、ステップS104において、ロボット制御部12は、押し下げられたショートカットボタンの対象者に対して正面となり、かつ、該対象者から一定距離に位置するように移動させるための制御信号を生成し、ロボット2に送信する。上述のようにショートカットボタンSBHBが押し下げられた場合、図6に示すように、ロボット2を上方向(旧正面方向)からθHB°右回転させ、距離LHBから上記一定距離を差し引いた距離を前進させる。
Next, in step S104, the
また、ステップS105において、カメラ映像表示部11は、ロボット2の移動中のカメラ映像をタッチパネルに表示し、ロボット2の移動により刻々と変化する周囲の人の位置方向及び距離をもとにショートカットボタンの再生成・再表示を逐次行う。
In step S <b> 105, the camera
そして、移動完了後、ロボット2は自機の移動動作を停止する。ロボットの停止後、タッチパネル上には、図7に示すように、選択された対象者HBを映したカメラ映像が表示され、カメラ画角θcam外の対象者HA,HCについてはショートカットボタンSBHA,SBHCが表示される。
Then, after the movement is completed, the
なお、本実施の形態では、コミュニケーションを目的として人を選択する場合を例に説明したが、例えば障害調査等を目的として、木やパソコン、更には動物等を選択するようにしてもよい。その他、相手自身も通話機能等を具備するロボットであってもよい。 In the present embodiment, the case where a person is selected for the purpose of communication has been described as an example. However, for example, a tree, a personal computer, or an animal may be selected for the purpose of investigating a failure. In addition, the other party may be a robot having a call function or the like.
〔第2の実施の形態〕
第1の実施の形態では、タッチパネル上にショートカットボタンを表示する方法、一人の対象者を選択する方法について説明した。一方、複数の人と会話したい場合や、その近くにある物について話をしたい場合も考えられる。そこで、第2の実施の形態では、複数の対象(対象者・対象物)をカメラ画角に収めるようにロボット2を操作する方法について説明する。本実施の形態に係る操作端末1は、第1の実施の形態と同様に、カメラ映像表示部11と、ロボット制御部12と、を備えて構成される。
[Second Embodiment]
In the first embodiment, the method for displaying shortcut buttons on the touch panel and the method for selecting one target person have been described. On the other hand, there may be a case where one wants to talk with a plurality of people or another person who wants to talk about a nearby object. Therefore, in the second embodiment, a method of operating the
(動作例1)
最初に、図8を参照しながら、操作端末1で行う動作例1のロボット操作方法について説明する。
(Operation example 1)
First, the robot operation method of the operation example 1 performed on the operation terminal 1 will be described with reference to FIG.
まず、ステップS201において、カメラ映像表示部11は、ロボット2で検知された人(対象者)・木(対象物)の位置方向及び距離を取得する。例えば、ロボット2に対して図9に示す位置に一人の対象者HAと2つの対象物OA,OBが存在する場合、カメラの正面方向(図の上方向)から右回りで対象者HAまでの回転角度θHA、ロボット2から該対象者HAまでの距離LHAを取得する。同様に、対象物OAに関する回転角度θOA及び距離LOA、対象物OBに関する回転角度θOB及び距離LOBも取得する。
First, in step S <b> 201, the camera
次に、ステップS202において、カメラ映像表示部11は、取得したデータを用いて対象(対象者・対象物)の位置方向と該対象までの距離を直感的に表したショートカットボタンを生成し、タッチパネル上のカメラ映像に重畳表示する。ショートカットボタンの生成・表示方法は、第1の実施の形態と同様である。これにより、図10に示すように、カメラ画角θcam内の対象物OAについては、映像そのものが選択可能に表示される。また、カメラ画角θcam外の対象者HAと対象物OBについては、ショートカットボタンSBHA,SBOBが表示される。
Next, in step S202, the camera
次に、ステップS203において、表示中の対象物・ショートカットボタンに対して押し下げタッチ操作が検知されると、カメラ映像表示部11は、押し下げられた複数の対象の各IDをロボット制御部12に送信する。ここでは、対象者HAとの間で対象物OAについての会話を行うため、図11に示すように、ショートカットボタンSBHAと対象物OAが選択されたものとする。例えば、ショートカットボタンSBHAを押下した状態で対象物OAの上までドラッグし、その後に指を離す。
Next, in step S <b> 203, when a push-down touch operation is detected with respect to the displayed object / shortcut button, the camera
次に、ステップS204〜ステップS206において、ロボット制御部12は、押し下げられた複数の対象がカメラ画角θcam内に収まるようにロボット2を操作する。
Next, in step S204 to step S206, the
具体的には、まず、ステップS204において、図12に示すように、選択された対象物OAに対するカメラ正面方向からの回転角度θ’OAと、ショートカットボタンSBHAの対象者HAに対するカメラ正面方向からの回転角度θ’HAとの加算値が0(=θ’OA+θ’HA)となるようにロボット2を回転させる。
Specifically, first, in step S204, as shown in FIG. 12, the rotation angle θ ′ OA from the camera front direction with respect to the selected object OA and the camera front direction with respect to the subject HA of the shortcut button SB HA. The
続いて、ステップS205において、選択された対象物OA及び対象者HAが回転完了後のカメラ画角θcam内に収まるか否かを判定する。具体的には、|θ’OA|+|θ’HA|<θcamが成立するかを確認する。収まる場合は処理を終了し、収まらない場合はステップS206に進む。 Subsequently, in step S205, it is determined whether or not the selected object OA and the subject HA are within the camera angle of view θ cam after the rotation is completed. Specifically, it is confirmed whether | θ ′ OA | + | θ ′ HA | <θ cam is satisfied. If it does not fit, the process ends. If it does not fit, the process proceeds to step S206.
そして、ステップS206において、選択された対象物OA及び対象者HAがカメラ画角θcam内に収まるように、|θ’OA|+|θ’HA|<θcamが成立するまでロボット2を後退させる。ロボットの停止後、タッチパネル上には、図13に示すように、選択された対象物OA及び対象者HAを映したカメラ映像が表示され、カメラ画角θcam外の対象物OBについてはショートカットボタンSBOBが表示される。
In step S206, the
(動作例2)
続いて、図14を参照しながら、動作例2について説明する。ステップS301とステップS302は、ステップS201とステップS202と同様である。また、ステップS303では、図15に示すように、対象者HAとの間で対象物OBについての会話を行うため、2つのショートカットボタンSBHA,SBOAが選択されたものとする。
(Operation example 2)
Subsequently, an operation example 2 will be described with reference to FIG. Step S301 and step S302 are the same as step S201 and step S202. In step S303, as shown in FIG. 15, it is assumed that two shortcut buttons SB HA and SB OA are selected in order to have a conversation about the object OB with the subject HA .
次に、ステップS304において、図16に示すように、選択されたショートカットボタンSBHAの対象者HAに対するカメラ正面方向からの回転角度θ’HAと、ショートカットボタンSBOBの対象物OBに対するカメラ正面方向からの回転角度θ’OBと、の加算値が0(=θ’HA+θ’OB)となるようにロボット2を回転させる。
Next, in step S304, as shown in FIG. 16, the rotation angle θ ′ HA from the camera front direction with respect to the subject HA of the selected shortcut button SB HA and the camera front direction of the shortcut button SB OB with respect to the object OB. The
続いて、ステップS305において、選択された対象者HA及び対象物OBが回転完了後のカメラ画角θcam内に収まるかを判定する。具体的には、|θ’HA|+|θ’OB|<θcamが成立するかを確認する。収まる場合は処理を終了し、収まらない場合はステップS306に進む。 Subsequently, in step S305, it is determined whether or not the selected subject HA and the subject OB are within the camera angle of view θ cam after the rotation is completed. Specifically, it is confirmed whether | θ ′ HA | + | θ ′ OB | <θ cam is satisfied. If it does not fit, the process ends. If it does not fit, the process proceeds to step S306.
そして、ステップS306において、選択された対象者HA及び対象物OBがカメラ画角θcam内に収まるように、|θ’HA|+|θ’OB|<θcamが成立するまでロボット2を後退させる。ロボットの停止後、タッチパネル上には、図17に示すように、選択された対象者HA及び対象物OBを映したカメラ映像が表示され、カメラ画角θcam外の対象物OAについてはショートカットボタンSBOAが表示される。
In step S306, the
(動作例3)
続いて、図18を参照しながら、動作例3について説明する。ステップS401とステップS402は、ステップS201とステップS202と同様である。また、ステップS403では、図19に示すように、対象者HAとの間で2つの対象物OA,OBについての会話を行うため、対象物OAと2つのショートカットボタンSBHA,SBOAが選択されたものとする。例えば、複数対象選択用のボタンを表示しておき、該ボタンを押し下げ、それら3つの対象を選択した後に該ボタンを再度押下することで、ユーザにより選択された複数の対象が特定される。
(Operation example 3)
Subsequently, an operation example 3 will be described with reference to FIG. Step S401 and step S402 are the same as step S201 and step S202. In step S403, as shown in FIG. 19, the object OA and the two shortcut buttons SB HA and SB OA are selected in order to have a conversation about the two objects OA and OB with the subject HA . Shall be. For example, a plurality of objects selected by the user are specified by displaying a button for selecting a plurality of objects, depressing the button, selecting these three objects, and then pressing the button again.
次に、ステップS404〜ステップS407において、ロボット制御部12は、押し下げられた複数の対象がカメラ画角θcam内に収まるようにロボット2を操作する。
Next, in step S404 to step S407, the
具体的には、まず、ステップS404において、選択された全ての対象群N〔={HA,OA,OB}〕における移動前の回転角度θN〔={θHA,θOA,θOB}〕から、最小の角度minθNと最大の角度maxθNを求める。ここでは、図9に示した回転前の位置関係より、minθN=θOA、maxθN=θOBとなる。 Specifically, first, in step S404, the rotation angles θ N [= {θ HA , θ OA , θ OB }] before movement in all the selected target groups N [= {HA, OA, OB}]]. from determining the minimum angle Minshita N and the maximum angle maxθ N. Here, minθ N = θ OA and maxθ N = θ OB from the positional relationship before rotation shown in FIG.
続いて、ステップS405において、minθNの対象の移動前の角度をθmin、移動後の角度をθ’minとし、maxθNの対象の移動前の角度をθmax、移動後の角度をθ’maxとすると、θ’minとθ’maxとの加算値が0(=θ’min+θ’max)となるようにロボット2を回転させる。具体的には、図20に示すように、|θ’OA|と|θ’OB|が等しくなるようにロボット2を回転する。
Subsequently, in step S405, the angle before movement of the object of minθ N is θ min , the angle after movement is θ ′ min , the angle before movement of the object of maxθ N is θ max , and the angle after movement is θ ′. If it is set to max , the
そして、ステップS406において、選択された対象者HA及び対象物OA,OBが回転完了後のカメラ画角θcam内に収まるか否かを判定する。具体的には、|θ’min|+|θ’max|<θcamが成立するかを確認する。収まる場合は処理を終了し、収まらない場合はステップS407に進む。 In step S406, it is determined whether or not the selected target person HA and the target objects OA and OB are within the camera angle of view θ cam after the rotation is completed. Specifically, it is confirmed whether or not | θ ′ min | + | θ ′ max | <θ cam holds. If it does not fit, the process ends. If it does not fit, the process proceeds to step S407.
その後、ステップS407において、選択された対象者HA及び対象物OA,OBがカメラ画角θcam内に収まるように、|θ’min|+|θ’max|<θcamが成立するまでロボット2を後退させる。ロボットの停止後、タッチパネル上には、図21に示すように、選択された全ての対象を映したカメラ映像が表示される。 Thereafter, in step S407, the selected subjects HA and the object OA, as OB fit the camera angle theta in cam, | θ 'min | + | θ' max | < robot until theta cam holds 2 Retreat. After the robot stops, a camera image showing all the selected objects is displayed on the touch panel as shown in FIG.
以上より、各実施の形態によれば、操作端末1において、カメラ映像表示部11が、ロボット2のカメラで撮像されたカメラ映像をタッチパネルに表示し、該カメラ映像の範囲外に存在する対象(対象者・対象物)に係るショートカットボタンを実空間上の位置及び距離に対応付けて上記カメラ映像の画面淵に重畳するので、ロボット2の操作効率を向上できる。つまり、ショートカットボタンの表示位置や表示サイズより、ロボット2をどの人に対してどの程度回転させ、どの程度移動させればよいかをタッチパネル上で直感的に確認可能となることから、その人やその近くにあるものをカメラ画角に収まるように簡便にロボット2を操作可能となる。
As described above, according to each embodiment, in the operation terminal 1, the camera
また、ショートカットボタンには、対象の形(人の顔・木)を表示する機能と、該対象に対して正面かつ一定距離となるようにロボット2を移動させる機能とが一体化されているので、タッチパネル上の限られた表示領域を有効に活用し、効率よく表示できる。
In addition, the shortcut button has a function of displaying the shape of the object (human face / tree) and a function of moving the
最後に、本実施の形態では、タッチパネルを用いる場合を説明したが、カメラ映像の表示手段とタッチ操作の受付手段とを物理的に異なる手段で実現してもよい。例えば、汎用モニタとペンタブレットを用いることが考えられる。ペンタブレットの電子ペンを用いてモニタ上のカメラ映像やショートカットボタンをペンタブレット上で間接的にタッチ操作することにより、上記と同様の効果を得ることができる。 Finally, in the present embodiment, the case where a touch panel is used has been described, but the camera image display means and the touch operation accepting means may be realized by physically different means. For example, it is possible to use a general-purpose monitor and a pen tablet. An effect similar to the above can be obtained by indirectly touching a camera image or shortcut button on the monitor on the pen tablet using the electronic pen of the pen tablet.
1…操作端末(移動装置操作端末)
11…カメラ映像表示部(表示手段)
12…ロボット制御部(制御手段)
2…テレプレゼンスロボット(移動装置)
S101〜S105、S201〜S206、S301〜S306、S401〜S407…ステップ
1 ... Operation terminal (mobile device operation terminal)
11 ... Camera image display section (display means)
12 ... Robot controller (control means)
2. Telepresence robot (mobile device)
S101-S105, S201-S206, S301-S306, S401-S407 ... step
Claims (6)
前記画面上でタッチ操作により選択された前記対象体情報の対象体が前記撮像手段の撮像範囲に入るように前記移動装置を移動させる制御手段と、を有し、
前記表示手段は、
前記移動装置から前記対象体までの距離に応じて前記対象体情報の表示サイズを変えることを特徴とする移動装置操作端末。 A display in which a captured image captured by an imaging unit of a mobile device is displayed on a screen, and object information relating to an object existing outside the range of the captured image is associated with a position in real space and superimposed on the captured image. Means,
Control means for moving the moving device so that a target object of the target object information selected by a touch operation on the screen falls within an imaging range of the imaging means ,
The display means includes
A mobile device operating terminal, wherein a display size of the target object information is changed according to a distance from the mobile device to the target object .
前記撮像画像内の対象体及び/又は前記対象体情報に係る対象体のうちタッチ操作により選択された複数の対象体が前記撮像手段の撮像範囲に入るように前記移動装置を移動させる制御手段と、を有し、
前記表示手段は、
前記移動装置から前記対象体までの距離に応じて前記対象体情報の表示サイズを変えることを特徴とする移動装置操作端末。 A display in which a captured image captured by an imaging unit of a mobile device is displayed on a screen, and object information relating to an object existing outside the range of the captured image is associated with a position in real space and superimposed on the captured image. Means,
Control means for moving the moving device so that a plurality of objects selected by a touch operation among objects in the captured image and / or objects related to the object information are within the imaging range of the imaging means; Have
The display means includes
A mobile device operating terminal, wherein a display size of the target object information is changed according to a distance from the mobile device to the target object .
少なくとも生命体であることを特徴とする請求項1又は2に記載の移動装置操作端末。 The selected object is
The mobile device operation terminal according to claim 1, wherein the mobile device operation terminal is at least a living body.
前記移動装置操作端末は、The mobile device operation terminal is
移動装置の撮像手段で撮像された撮像画像を画面に表示し、前記撮像画像の範囲外に存在する対象体に係る対象体情報を実空間上の位置に対応付けて前記撮像画像に重畳する表示ステップと、A display in which a captured image captured by an imaging unit of a mobile device is displayed on a screen, and object information relating to an object existing outside the range of the captured image is associated with a position in real space and superimposed on the captured image. Steps,
前記画面上でタッチ操作により選択された前記対象体情報の対象体が前記撮像手段の撮像範囲に入るように前記移動装置を移動させる制御ステップと、を行い、Performing a control step of moving the moving device so that a target object of the target object information selected by a touch operation on the screen falls within an imaging range of the imaging means,
前記表示ステップでは、In the display step,
前記移動装置から前記対象体までの距離に応じて前記対象体情報の表示サイズを変えることを特徴とする移動装置操作方法。A moving device operating method, wherein a display size of the object information is changed according to a distance from the moving device to the object.
前記移動装置操作端末は、The mobile device operation terminal is
移動装置の撮像手段で撮像された撮像画像を画面に表示し、前記撮像画像の範囲外に存在する対象体に係る対象体情報を実空間上の位置に対応付けて前記撮像画像に重畳する表示ステップと、A display in which a captured image captured by an imaging unit of a mobile device is displayed on a screen, and object information relating to an object existing outside the range of the captured image is associated with a position in real space and superimposed on the captured image. Steps,
前記撮像画像内の対象体及び/又は前記対象体情報に係る対象体のうちタッチ操作により選択された複数の対象体が前記撮像手段の撮像範囲に入るように前記移動装置を移動させる制御ステップと、を行い、A control step of moving the moving device so that a plurality of objects selected by a touch operation among objects in the captured image and / or objects related to the object information are within the imaging range of the imaging means; , And
前記表示ステップでは、In the display step,
前記移動装置から前記対象体までの距離に応じて前記対象体情報の表示サイズを変えることを特徴とする移動装置操作方法。A moving device operating method, wherein a display size of the object information is changed according to a distance from the moving device to the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015111407A JP6473048B2 (en) | 2015-06-01 | 2015-06-01 | Mobile device operation terminal, mobile device operation method, and mobile device operation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015111407A JP6473048B2 (en) | 2015-06-01 | 2015-06-01 | Mobile device operation terminal, mobile device operation method, and mobile device operation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016225875A JP2016225875A (en) | 2016-12-28 |
JP6473048B2 true JP6473048B2 (en) | 2019-02-20 |
Family
ID=57748088
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015111407A Active JP6473048B2 (en) | 2015-06-01 | 2015-06-01 | Mobile device operation terminal, mobile device operation method, and mobile device operation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6473048B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6761990B2 (en) * | 2017-05-22 | 2020-09-30 | パナソニックIpマネジメント株式会社 | Communication control method, communication control device, telepresence robot, and communication control program |
US11212439B2 (en) | 2018-07-24 | 2021-12-28 | Ricoh Company, Ltd. | Communication terminal, display method, and non-transitory computer-readable medium for displaying images and controller |
JP7402784B2 (en) * | 2020-11-13 | 2023-12-21 | 本田技研工業株式会社 | Remote display systems, robots, and display terminals |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3177022B2 (en) * | 1992-10-26 | 2001-06-18 | キヤノン株式会社 | Video conference equipment |
JP3902904B2 (en) * | 1999-03-23 | 2007-04-11 | キヤノン株式会社 | Information presenting apparatus, method, camera control apparatus, method, and computer-readable storage medium |
JP2002046088A (en) * | 2000-08-03 | 2002-02-12 | Matsushita Electric Ind Co Ltd | Robot device |
JP2004325459A (en) * | 2004-05-31 | 2004-11-18 | Toshiba Corp | Positional information display, positional information management system, and positional information managing method |
JP5111343B2 (en) * | 2008-12-02 | 2013-01-09 | キヤノン株式会社 | Playback device |
JP2013106298A (en) * | 2011-11-16 | 2013-05-30 | Sony Corp | Imaging controller, imaging control method, program for imaging control method, and imaging apparatus |
JP6103526B2 (en) * | 2013-03-15 | 2017-03-29 | オリンパス株式会社 | Imaging device, image display device, and display control method for image display device |
-
2015
- 2015-06-01 JP JP2015111407A patent/JP6473048B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016225875A (en) | 2016-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107528938B (en) | Video call method, terminal and computer readable storage medium | |
EP2701152B1 (en) | Media object browsing in a collaborative window, mobile client editing, augmented reality rendering. | |
US9794495B1 (en) | Multiple streaming camera navigation interface system | |
JP6071866B2 (en) | Display control device, display device, imaging system, display control method, and program | |
KR20180108739A (en) | VR control method, apparatus, electronic apparatus, program and storage medium | |
KR20160087268A (en) | Mobile terminal and control method for the same | |
CN106162150B (en) | A kind of photographic method and mobile terminal | |
JP2017040687A (en) | Image display system, information processor, image display method, and program | |
JP2018093361A (en) | Communication terminal, communication system, video output method, and program | |
JP2019062575A (en) | Control device, control method, and program | |
CN106412432A (en) | Photographing method and mobile terminal | |
JP6524706B2 (en) | Display control method, display control program, and information processing apparatus | |
JP6473048B2 (en) | Mobile device operation terminal, mobile device operation method, and mobile device operation program | |
CN106791422A (en) | A kind of image processing method and mobile terminal | |
JP2015005823A (en) | Image processing apparatus and digital mirror system | |
KR20180017638A (en) | Mobile terminal and method for controlling the same | |
CN107924272B (en) | Information processing apparatus, information processing method, and program | |
JP2024103514A (en) | Object posture control program and information processing device | |
JP7553853B2 (en) | Object attitude control program and object attitude control system | |
JP2014062932A (en) | Attitude control device, operation device, attitude control system, control method, control program, and recording medium | |
JP7574565B2 (en) | COMMUNICATION TERMINAL, COMMUNICATION SYSTEM, COMMUNICATION METHOD, AND PROGRAM | |
KR101683130B1 (en) | Method for providing user interface capable of allowing a user at local area and a user at remote area to interact each other, terminal, and computer-readable recording medium using the same | |
JP2022155135A (en) | Electronic device and control method thereof, program, and recording medium | |
JP5229141B2 (en) | Display control apparatus and display control method | |
JP2020086630A (en) | Work assisting system and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170531 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180515 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6473048 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |