[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7402145B2 - 遠隔操作システム、移動ロボット、及び操作端末 - Google Patents

遠隔操作システム、移動ロボット、及び操作端末 Download PDF

Info

Publication number
JP7402145B2
JP7402145B2 JP2020189655A JP2020189655A JP7402145B2 JP 7402145 B2 JP7402145 B2 JP 7402145B2 JP 2020189655 A JP2020189655 A JP 2020189655A JP 2020189655 A JP2020189655 A JP 2020189655A JP 7402145 B2 JP7402145 B2 JP 7402145B2
Authority
JP
Japan
Prior art keywords
screen
mobile robot
sub
display
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020189655A
Other languages
English (en)
Other versions
JP2022078760A (ja
Inventor
裕貴 向井
正弥 本地
健 輿石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2020189655A priority Critical patent/JP7402145B2/ja
Priority to EP21205153.6A priority patent/EP4002046B1/en
Priority to US17/453,663 priority patent/US20220155780A1/en
Publication of JP2022078760A publication Critical patent/JP2022078760A/ja
Application granted granted Critical
Publication of JP7402145B2 publication Critical patent/JP7402145B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Telephonic Communication Services (AREA)
  • Manipulator (AREA)

Description

本発明は、遠隔操作システム、移動ロボット、及び操作端末に関する。
従来、カメラを備えた移動ロボットを、操作端末によって利用者が遠隔操作するシステムが提案されている(例えば、特許文献1参照)。
上記システムによれば、移動ロボットのカメラによる撮影画像が操作端末に送信され、利用者は、操作端末に表示される移動ロボットの移動先の周辺画像を認識しながら、移動ロボットを操作することができる。
特開2019-62293号公報
上述したような移動ロボットの遠隔操作システムにおいて、利用者は、移動ロボットの周辺の画像から移動ロボットがおかれている状況を認識して、状況に応じた適切な操作を行う必要がある。
本発明はかかる背景に鑑みてなさなれたものであり、移動ロボットの周囲状況に応じた、利用者による移動ロボットの遠隔操作を支援することができる遠隔操作システム、移動ロボット、及び操作端末を提供することを目的とする。
上記目的を達成するための第1態様として、移動ロボットと、前記移動ロボットとの間で相互に通信を行う操作端末と、を備え、前記移動ロボットは、前記移動ロボットの周辺を撮影するカメラを有して、前記カメラの撮影画像に基づくモニタ画像情報を前記操作端末に送信し、前記操作端末は、端末表示部を有し、前記モニタ画像情報を受信して、前記撮影画像に基づくモニタ画像を含む操作画面を、前記端末表示部に表示する、遠隔操作システムであって、前記移動ロボットの移動速度を含む前記移動ロボットの移動状況を認識する移動状況認識部と、前記モニタ画像を表示する第1サブ画面と、操作アイコンを表示する第2サブ画面とを含む前記操作画面を、前記端末表示部に表示し、所定の表示モードに応じて、前記第2サブ画面の表示内容を変更する画面表示制御部と、を備え、前記画面表示制御部は、前記移動ロボットが停止している状況に対応した停止表示モードであるときは、前記第2サブ画面に、通話相手とのコミュニケーションをサポートするためのコミュニケーションウインドウを表示し、前記移動ロボットが移動している状況に対応した移動表示モードであるときには、前記第2サブ画面に、前記移動ロボットの移動操作をサポートするための操作サポート情報を表示し、前記移動状況認識部により認識される前記移動ロボットの移動状況に応じて、前記操作サポート情報の内容を変更する遠隔操作システムが挙げられる。
上記遠隔操作システムにおいて前記移動ロボットの周辺に所在している人又は他のロボットである周辺対象物体を認識する周辺対象物体認識部と、前記周辺対象物体を対象とした、選択操作を受け付けるコミュニケーション対象選択受付部と、を備え、前記画面表示制御部は、前記停止表示モードにおいて、前記コミュニケーション対象選択受付部により選択が受け付けられた前記周辺対象物体とのコミュニケーションをサポートするための前記操作アイコン又は前記コミュニケーションウインドウの少なくともいずれか一方を、前記第2サブ画面に表示する構成としてもよい。
上記遠隔操作システムにおいて、前記画面表示制御部は、前記停止表示モードにおいて、複数の前記周辺対象物体の識別情報を、前記第2サブ画面に一覧表示し、前記コミュニケーション対象選択受付部は、前記一覧表示された前記識別情報に対する選択操作に応じて、前記周辺対象物体の選択を受け付ける構成としてもよい。
上記遠隔操作システムにおいて、前記コミュニケーション対象選択受付部は、前記第1サブ画面に表示される前記周辺対象物体の画像部分に対する選択操作に応じて、前記周辺対象物体の選択を受け付ける構成としてもよい。
上記遠隔操作システムにおいて、前記画面表示制御部は、前記コミュニケーション対象選択受付部により選択が受け付けられた前記周辺対象物体の前記画像部分を拡大した画像を、前記第1サブ画面又は前記第2サブ画面の前記コミュニケーションウインドウに表示し、前記コミュニケーション対象選択受付部により選択が受付けられた前記周辺対象物体のみを対象としたコミュニケーションを可能にするコミュニケーション制御部を備える構成としてもよい。
上記遠隔操作システムにおいて、前記周辺対象物体認識部は、前記移動ロボットの周辺に所在している前記周辺対象物体のうち、予め登録された前記周辺対象物体、又は前記移動ロボットから所定距離以内に所在している前記周辺対象物体を認識する構成としてもよい。
上記遠隔操作システムにおいて、前記画面表示制御部は、前記移動表示モードにおいて、前記カメラの撮影画像のうち、第1撮影範囲の画像部分を前記第1サブ画面に表示すると共に、前記第1撮影範囲と異なる第2撮影範囲の画像部分を、前記操作サポート情報として前記第2サブ画面に表示する構成としてもよい。
上記遠隔操作システムにおいて、前記移動ロボットの周囲に存在する障害物を認識する障害物認識部を備え、前記画面表示制御部は、前記移動表示モードにおいて、前記障害物が含まれる前記第2撮影範囲の画像部分を、前記障害物の画像部分を強調表示して、前記第2サブ画面に表示する構成としてもよい。
上記遠隔操作システムにおいて、前記画面表示制御部は、前記移動表示モードにおいて、前記移動ロボットの移動エリアの地図を、前記操作サポート情報として前記第2サブ画面に表示する構成としてもよい。
上記遠隔操作システムにおいて、前記画面表示制御部は、前記移動表示モードにおいて、前記移動エリアに存在する観光スポット、前記移動エリアに存在する施設、前記移動エリアで実施されるイベントのうちの少なくともいずれか一つに関する情報であるエリア付加情報を、前記操作サポート情報として前記第2サブ画面に表示する構成としてもよい。
上記遠隔操作システムにおいて、前記画面表示制御部は、前記地図に表示されている特定地点についての選択操作がなされたときに、前記特定地点に関連付けられた前記エリア付加情報を、前記操作サポート情報として前記第2サブ画面に表示する構成としてもよい。
上記遠隔操作システムにおいて、前記移動ロボットの現在位置を認識する現在位置認識部を備え、前記画面表示制御部は、前記移動表示モードにおいて、前記現在位置認識部により、前記移動ロボットが、観光エリアとして登録された登録済みエリアに位置していることが認識されたときに、前記登録済みエリアと関連付けられた前記エリア付加情報を、前記操作サポート情報として前記第2サブ画面に表示する構成としてもよい。
上記遠隔操作システムにおいて、前記移動ロボットの移動速度を認識する移動速度認識部を備え、前記画面表示制御部は、前記移動ロボットの移動速度が所定の低速判定速度以下であるときに、前記エリア付加情報を、前記操作サポート情報として前記第2サブ画面に表示する構成としてもよい。
上記遠隔操作システムにおいて、前記移動ロボットの現在位置を認識する現在位置認識部と、前記移動ロボットの目的地を認識する目的地認識部と、前記現在位置から前記目的地までの移動ルートを認識する移動ルート認識部と、を備え、前記画面表示制御部は、前記移動表示モードにおいて、前記現在位置から前記目的地までの前記移動ルートによる移動を案内するナビゲーション情報を、前記操作サポート情報として、前記第2サブ画面に表示する構成としてもよい。
上記遠隔操作システムにおいて、前記移動ロボットの移動速度を認識する移動速度認識部を備え、前記画面表示制御部は、前記移動ロボットの移動速度が所定速度以上であるときに、前記ナビゲーション情報を前記第2サブ画面に表示する構成としてもよい。
上記遠隔操作システムにおいて、前記移動ロボットは、ロボット表示部を備え、前記移動表示モードにおいて、前記ロボット表示部への前記操作端末の利用者の顔画像の表示を禁止するか、又は前記ロボット表示部の表示を所定の代替アイコンの表示に切り替える利用者顔画像表示制御部を備える構成としてもよい。
上記遠隔操作システムにおいて、前記操作端末の利用者による操作に応じて、前記表示モードを切り替える表示モード切替部を備える構成としてもよい。
上記遠隔操作システムにおいて、前記移動ロボットが屋内に所在しているか屋外に所在しているかを認識する屋内外所在認識部と、前記移動ロボットが屋内に所在しているか屋外に所在しているかに応じて、前記表示モードを切り替える表示モード切替部と、を備える構成としてもよい。
上記遠隔操作システムにおいて、前記操作端末の利用者による操作に応じて、前記操作画面の表示レイアウトを変更する表示レイアウト変更部を備える構成としてもよい。
上記遠隔操作システムにおいて、前記端末表示部はタッチパネルであり、前記画面表示制御部は、前記操作画面に表示される操作アイコンの内、前記表示モードに依存してタッチ操作が不能となっている第1の操作アイコンを、タッチ操作が可能である第2の操作アイコンと異なる表示態様で表示する構成としてもよい。
上記目的を達成するための第2態様として、周辺を撮影するカメラと、操作端末との間で通信を行うロボット通信部と、前記操作端末の端末表示部に表示させる操作画面を設定する画面表示制御部と、前記画面表示制御部により設定された前記操作画面のデータを、前記ロボット通信部により前記操作端末に送信する画面データ送信部と、を備える移動ロボットであって、前記移動ロボットの移動速度を含む前記移動ロボットの移動状況を認識する移動状況認識部を備え、前記画面表示制御部は、前記カメラの撮影画像に基づくモニタ画像を表示する第1サブ画面と、操作アイコンを表示する第2サブ画面とを含む、前記操作画面を設定し、所定の表示モードに応じて、前記第2サブ画面の表示内容を変更し、前記移動ロボットが停止している状況に対応した停止表示モードであるときは、前記第2サブ画面に、通話相手とのコミュニケーションをサポートするためのコミュニケーションウインドウを表示し、前記移動ロボットが移動している状況に対応した移動表示モードであるときには、前記第2サブ画面に、前記移動ロボットの移動操作をサポートするための操作サポート情報を表示し、前記移動状況認識部により認識される前記移動ロボットの移動状況に応じて、前記操作サポート情報の内容を変更する移動ロボットが挙げられる。
上記目的を達成するための第3態様として、移動ロボットを遠隔操作するための操作端末であって、端末表示部と、前記移動ロボットとの間で相互に通信を行う端末通信部と、前記移動ロボットから送信される前記移動ロボットの周辺の撮影画像に基づくモニタ画像情報を、前記端末通信部により受信するモニタ画像情報取得部と、前記移動ロボットの移動速度を含む前記移動ロボットの移動状況を認識する移動状況認識部と、前記端末表示部に、前記モニタ画像情報に基づくモニタ画像を表示する第1サブ画面と、操作アイコンを表示する第2サブ画面とを含む、操作画面を表示し、所定の表示モードに応じて、前記第2サブ画面の表示内容を変更する画面表示制御部と、を備え、前記画面表示制御部は、前記移動ロボットが停止している状況に対応した停止表示モードであるときは、前記第2サブ画面に、通話相手とのコミュニケーションをサポートするためのコミュニケーションウインドウを表示し、前記移動ロボットが移動している状況に対応した移動表示モードであるときには、前記第2サブ画面に、前記移動ロボットの移動操作をサポートするための操作サポート情報を表示し、前記移動状況認識部により認識される前記移動ロボットの移動状況に応じて、前記操作サポート情報の内容を変更する操作端末が挙げられる。
上記遠隔操作システムによれば、端末表示部に表示する操作画面に、移動ロボットの周辺のモニタ画像を表示する第1サブ画面に加えて、第1サブ画面と異なる第2サブ画面を表示することにより、移動ロボットの周囲状況に応じた、利用者による移動ロボットの遠隔操作を支援することができる。
図1は、遠隔操作システムの構成の説明図である。 図2は、移動ロボットの構成図である。 図3は、操作端末の構成図である。 図4は、表示モードに応じた操作画面の切替処理のフローチャートである。 図5は、停止表示モードにおける操作画面の表示処理のフローチャートである。 図6は、移動表示モードにおける操作画面の表示処理のフローチャートである。 図7は、移動ロボットが会議の場に所在している状況における、操作画面の表示態様の説明図である。 図8は、会議の場に新たな人が加わった状況における、操作画面の表示態様の説明図である。 図9は、会議の場に新たな人が加わった状況における、操作画面の別の表示態様の説明図である。 図10は、移動ロボットが屋内を移動している状況における、操作画面の表示態様の説明図である。 図11は、モニタ画像の一部を拡大表示する態様の説明図である。 図12は、移動ロボットが観光スポットを移動している状況における、操作画面の説明図である。 図13は、移動ロボットが屋外の道路を移動している状況における、操作画面の説明図である。 図14は、移動ロボットが傾斜地を移動している場合に、カメラの撮影方向を水平方向に制御する態様の説明図である。
[1.遠隔操作システムの構成]
図1を参照して、本実施形態の遠隔操作システム1の実施態様について説明する。遠隔操作システム1は、移動ロボット10と操作端末100とを備え、移動ロボット10と操作端末100は、通信ネットワーク200を介して相互に通信を行う。移動ロボット10は、頭部11、首部12、胴部13、及び走行ユニット14を備えている。
頭部11には、ロボット表示部61、ロボットスピーカー63、及びロボットマイク64が設けられている。首部12は、胴部13に対して、頭部11を上下及び左右にスイング動作(首振り動作)させる。胴部13には、ロボットカメラ62及びライダー65が設けられている。ロボットカメラ62は、移動ロボット10の周辺を撮影し、ライダー(LiDAR)は、レーザー照射により移動ロボット10の周辺に存在する物体までの距離を検出する。
操作端末100の端末表示部141(タッチパネル)には、移動ロボット10から送信されるモニタ画像を含む操作画面が表示され、遠隔操作システム1の利用者Uは、操作画面に表示される移動ロボット10の周辺のモニタ画像を視認して、移動ロボット10の移動先の状況を認識する。そして、利用者Uは、移動ロボット10の状況に応じて、操作端末100により移動ロボット10を遠隔操作する。
移動ロボット10は、いわゆるテレプレゼンスロボットであり、例えば、建物300内を移動して会議の場301で会議に参加し、或いは屋外を移動して観光スポット310や、ホテル等の目的地320に向かう。移動ロボット10のロボット表示部61には、利用者Uの顔画像或いは利用者Uの顔を模したアイコンが表示され、これにより、利用者U自身が、移動ロボット10の移動先に所在しているかのような感覚を、移動ロボット10の付近にいる人達に与えることができる。
また、利用者Uも、操作端末100に表示される移動ロボット10の周辺の画像を視認することにより、利用者U自身が移動ロボット10の移動先に所在しているかのような感覚を得ることができる。さらに、利用者Uは、操作端末100により、移動ロボット10の移動先にいる人或いは他のロボットとの間で、ビデオ通話やチャットによるコミュニケーションを行うことができる。
移動ロボット10は、通信ネットワーク200をして、エリア情報サーバー210から、移動ロボット10の移動エリア内の情報を取得すると共に、ロボット管理サーバー220から、移動ロボット10或いは他のロボットに関する情報を取得する。
[2.移動ロボットの構成]
図2を参照して、移動ロボット10の構成について説明する。移動ロボット10は、上述した構成要素の他に、ロボット通信部60、ロボットコントローラ20、GNSS(Global Navigation Satellite System)センサ66、速度センサ67、及び傾斜センサ68を備えている。
ロボット通信部60は、通信ネットワーク200を介して、操作端末100との間で通信を行う。なお、移動ロボット10と操作端末100との距離が短い状況では、ロボット通信部60が、操作端末100との間で直接通信を行うようにしてもよい。GNSSセンサ66は、GNSS衛星からの電波を受信して、移動ロボット10の現在位置を検出する。速度センサ67は、移動ロボット10の移動速度(走行速度)を検出する。傾斜センサ68は、水平方向に対する移動ロボット10の傾斜角度を検出する。
ロボットコントローラ20は、ロボットプロセッサ30、ロボットメモリ50、及び図示しないインターフェース回路等により構成されている。ロボットメモリ50には、ロボット制御用プログラム51、地図DB(database)52、建物DB53等が保存されている。地図DB52には、移動ロボット10の移動エリアの地図が記録されている。建物DB53には、移動ロボット10の移動エリア内に存在する建物のフロアレイアウト等が記録されている。
地図DB52、及び建物DB53は、エリア情報サーバー210から移動ロボット10にダウンロードされてもよい。ロボット制御用プログラム51は、ロボット管理サーバー220から移動ロボット10にダウンロードされてもよい。
ロボットプロセッサ30は、ロボット制御用プログラム51をロボットメモリ50から読み込んで実行することによって、画面表示制御部31、現在位置認識部32、移動状況認識部33、表示モード切替部34、周辺対象物体認識部35、コミュニケーション対象選択受付部36、コミュニケーション制御部37、障害物認識部38、動作中物体認識部39、目的地認識部40、移動ルート認識部41、表示画像範囲設定部42、カメラ撮影範囲制御部43、水平方向画像取得部44、利用者顔画像表示制御部45、及び表示レイアウト変更部46として機能する。
画面表示制御部31は、移動ロボット10が停止状態である場合に対応した停止表示モードと、移動ロボット10が移動状態(走行状態)である場合に対応した移動表示モードとに応じて、操作端末100に送信する操作画面のデータを変更することにより、操作端末100の端末表示部141に表示される操作画面を制御する。各表示モードにおける操作画面の表示態様の詳細については後述する。
現在位置認識部32は、GNSSセンサ66から出力される位置検出信号に基づいて、移動ロボット10の現在位置(緯度、経度)を認識する。移動状況認識部33は、現在位置認識部32により認識される移動ロボット10の現在位置の変化、速度センサ67により検出される移動ロボット10の移動速度、地図DB52から取得した地図データ、建物DB53から取得した建物のレイアウト等に基づいて、移動ロボット10の移動状況を認識する。現在位置認識部32は、移動ロボット10が屋内に位置している場合は、ライダー65による周囲物体の検出状況と、建物DB53から取得した屋内のレイアウトデータをマッチングさせて、屋内における移動ロボット10の現在位置を認識する。
表示モード切替部34は、利用者Uによる選択操作に応じて、表示端末100における操作画面の表示モードを、停止表示モードと移動表示モードとに切り替える。周辺対象物体認識部35は、ロボットカメラ62による撮影画像、ライダー65による物体検出信号、及びロボットマイク64による検出音に基づいて、移動ロボット10の周辺の所在する人及び他のロボットを、周辺対象物体として認識する。なお、人又はロボットが所持している発信機から送信される識別信号を、ロボット通信部60により受信することによって、移動ロボット10の周辺に所在する人及び他のロボットを認識してもよい。
コミュニケーション対象選択受付部36は、利用者Uによる操作画面の選択操作に応じて、利用者Uがコミュニケーションの実施を希望する周辺対象物体の選択を受け付ける。コミュニケーション制御部37は、コミュニケーション対象選択受付部36により選択が受付けられた周辺対象物体と、利用者Uとの間のコミュニケーションを制御する。コミュニケーション制御部37は、利用者Uと周辺対象物体とのビデオ通話、音声通話、チャットを可能にする。
障害物認識部38は、ロボットカメラ62による撮影画像、及びライダー65による物体検出信号に基づいて、移動ロボット10の周辺に存在する障害物を認識する。動作中物体認識部39は、ロボットカメラ62による撮影画像、ライダー65の物体検出信号、及びロボットマイク64の検出音に基づいて、移動ロボット10の周辺の動作中物体を認識する。動作中物体には、人及び移動ロボット10以外の他のロボットが含まれる。ここで、「動作」には、体を動かす行為の他に、発言等の声を発する行為も含まれる。
目的地認識部40は、利用者Uにより設定された移動ロボット10の移動の目的地を認識する。利用者Uは、操作端末100の操作によって、移動ロボット10の目的地を設定する。ここで、目的地には、移動ロボット10が向かう最終的な目的地の他に、最終的な目的地まで移動する途中で立ち寄る地点も含まれる。
移動ルート認識部41は、現在位置認識部32により認識された移動ロボット10の現在位置、目的地認識部40により認識された移動ロボット10の目的地、及び地図DB52から取得した地図データに基づいて、移動ロボット10の移動ルートを認識する。表示画像範囲設定部42、利用者Uによる操作に応じて、操作端末100の操作画面に表示するモニタ画像の範囲を設定する。
カメラ撮影範囲制御部43は、移動ロボット10の周辺に所在する全ての人及び他のロボットが、ロボットカメラ62の撮影範囲に含まれるように、移動ロボット10を移動させる。なお、ロボットカメラ62が、広角と望遠の切替が可能な構成になっている場合には、広角に切り替えて、移動ロボット10の周辺に所在する全ての人及び他のロボットが、ロボットカメラ62の撮影範囲に含まれるようにしてもよい。
水平方向画像取得部44は、ロボットカメラ62が撮影方向を変更する機能を有している場合に、図14のS1、S2に示したように、移動ロボット10が傾斜地に位置していて、ロボットカメラ62が水平方向よりも上向き或いは下向きになる状況で、S3、S4に示したように、ロボットカメラ62の撮影方向を水平方向に向ける処理を行う。これにより、移動ロボット10の進行方向の撮影画像を取得することができる。また、ロボットカメラ62が撮影方向を変更する機能を有していない場合には、水平方向画像取得部44は、S1、S2の状況でロボットカメラ62により撮影された上向き又は下向きの画像から、水平方向に相当する範囲の画像を抽出することにより、移動ロボット10の進行方向の撮影画像を取得する。
利用者顔画像表示制御部45は、利用者Uによる操作端末100の操作に応じて、ロボット表示部61に利用者Uの顔画像を表示させるか否かを制御する。利用者Uの顔画像は、端末カメラ142により撮影されて移動ロボット10に送信されるリアルタイムの画像でもよく、予め移動ロボット10のロボットメモリ50に保存された画像でもよい。利用者顔画像表示制御部45は、ロボット表示部61に利用者Uの顔画像を表示しないときには、利用者Uの操作に応じて、利用者Uの顔を模したアイコンをロボット表示部61に表示するか、或いは顔画像と顔を模したアイコンのいずれもロボット表示部61に表示しない状態とする。表示レイアウト変更部46は、利用者Uによる操作端末100の操作に応じて、操作端末100に表示される操作画面のレイアウトを変更する。
[3.操作端末の構成]
図3を参照して、操作端末100の構成について説明する。操作端末100は、端末コントローラ110、端末通信部140、端末表示部141、端末カメラ142、端末マイク143、及び端末スピーカー144を備えている。操作端末100は、移動ロボット10を操作するための専用端末であってもよく、スマートフォンやタブレット端末等の汎用の通信端末であってもよい。
端末通信部140は、通信ネットワーク200(図1参照)を介して、移動ロボット10との間で相互に通信を行う。端末表示部141はタッチパネルであり、端末コントローラ110から出力される画面データに応じた操作画面を表示すると共に、利用者Uのタッチ操作に応じた操作データを、端末コントローラ110に出力する。
端末カメラ142は、利用者Uの顔画像等を撮影して撮影画像のデータを端末コントローラ110に出力する。端末マイク143は、利用者Uの音声等を検出して音声データを端末コントローラ110に出力する。端末スピーカー144は、端末コントローラ110から出力される音データを入力して、移動ロボット10を介して通話を行っている相手の音声等を出力する。
端末メモリ130には、移動ロボット10の操作を実現するロボット操作アプリのプログラム131が保存されている。端末プロセッサ120は、ロボット操作アプリのプログラム131を読み込んで実行することにより、ロボット操作画面制御部121、及びロボット操作指示制御部122として機能する。
ロボット操作画面制御部121は、移動ロボット10から送信される移動ロボット10用の操作画面のデータを、端末通信部140により受信して、操作画面を端末表示部141に表示する。操作画面のデータには、ロボットカメラ62による撮影画像に基づくモニタ画像情報が含まれる。ロボット操作指示制御部122は、端末表示部141から出力される操作画面のタッチ操作に応じた操作信号から、利用者Uによる操作の指示内容を認識して、操作の指示内容を示す操作データを、端末通信部140により移動ロボット10に送信する。
[4.表示モードの切替処理]
図4に示したフローチャートに従って、移動ロボット10により実行される端末表示部141における操作画面の表示モードの切替処理について説明する。画面表示制御部31は、操作端末100に表示される操作画面を、図7~図9に例示した停止表示モードによる操作画面と、図10~図13に例示した移動表示モードによる表示画面とに切り替えて制御する。
図7を参照して、操作画面510には、ロボットカメラ62により撮影される移動ロボット10の周辺の撮影画像500から抽出されたモニタ画像を表示する第1サブ画面520と、移動ロボット10を操作するための第2サブ画面530とが含まれる。本実施形態では、第2サブ画面530は、操作画面510の第1サブ画面520以外の領域となっている。第2サブ画面530には、表示モードを切り替えるためのモード切替スイッチ531が表示される。
図7の操作画面510は、移動ロボット10が停止状態である場合に対応した停止表示モードによる操作画面であるため、移動ロボット10の頭部11の縦振りを指示する縦振りアイコン532と、頭部11の横振りを指示する横振りアイコン533が表示される。また、ビデオ通話、音声通話、チャット等によるコミュニケーションを行うためのコミュニケーションアイコン534と、コミュニケーションウィンドウ540が表示される。
コミュニケーションアイコン534には、音声通話を開始するための音声通話アイコン534a、ビデオ通話を開始するためのビデオ通話アイコン534b、チャットの開始等を行うためのオプションアイコン534c、通話を終了するための通話終了アイコン534dが含まれる。コミュニケーションウィンドウ540には、通話相手の顔画像541、チャットによるメッセージ542等が表示される。
図4のステップS1で、表示モード切替部34は、操作端末100から送信される操作データに基づいて、モード切替スイッチ531の操作状態を認識する。そして、表示モード切替部34は、モード切替スイッチ531による首振モードへの切替操作がなされたときに、ステップS10に処理を進めて停止表示モードに設定し、ステップS4に処理を進める。
一方、首振りモードへの切替操作がなかったときには、表示モード切替部34は、ステップS3に処理を進めて、モード切替スイッチ531の走行モードへの切替操作がなされたか否かを判断する。そして、表示モード切替部34は、走行モードへの切替操作がなされたときはステップS50に処理を進め、走行モードへの切替操作がなされなかったときには、ステップS4に処理を進める。ステップS4で、表示モード切替部34は、操作画面の表示モードを移動表示モードに設定する。
[5.停止表示モードによる操作画面の表示]
図7~図9に示した操作画面を参照しつつ、図5に示したフローチャートに従って、移動ロボット10により実行される、停止表示モードによる操作画面の表示の制御について説明する。
図5のステップS11で、画面表示制御部31は、図7に示したように、停止表示モードによる操作画面510の画面データを操作端末100に送信して、操作画面510を、操作端末100の端末表示部141に表示させる。操作画面510には、上述したように、ロボットカメラ62の撮影画像に500に基づくモニタ画像が表示される第1サブ画面520と、コミュニケーション用の操作部が表示される第2サブ画面530とが含まれる。
図7は、移動ロボット10が会議の場に所在している状況での撮影画像500と操作画面510とを示しており、撮影画像500には、会議の参加者の画像部分が含まれている。この場合、カメラ撮影範囲制御部43は、会議の参加している全ての人及び他のロボットの画像部分が含まれるように、移動ロボット10を移動させて、ロボットカメラ62の撮影範囲を調節する。なお、ロボットカメラ62に撮影方向の変更、或いはレンズの広角と標準の切替等の機能が備えられている場合には、カメラ撮影範囲制御部43は、これらの機能も活用してロボットカメラ62の撮影範囲を調節する。
画面表示制御部31は、ロボットカメラ62の撮影画像500から、会議の場に所在している全ての人及び他のロボットの画像部分が含まれるように設定した範囲501の画像部分を抽出したモニタ画像520aを、第1サブ画面520に表示する。利用者Uは、第1サブ画面520を視認することで、会議に参加している人及び他のロボットを確認することができる。
次のステップS12で、コミュニケーション対象選択受付部36は、第1サブ画面520に表示されている人の画像部分522~526のいずれかについて、利用者Uのタッチ操作がなされた否かを判断する。そして、コミュニケーション対象選択受付部36は、いずれかの人の画像部分がタッチされたときに、タッチされた画像部分に対応する人を、利用者Uとのコミュニケーション対象として設定し、ステップS20に処理を進める。
この場合、画面表示制御部31が、コミュニケーション対象として設定された人の画像部分を拡大した画像を、第1サブ画面520又は第2サブ画面530に表示するようにしてもよい。図7では、画面表示制御部31が、コミュニケーション対象として設定された人の画像部分を拡大した画像541を、第2サブ画面530のコミュニケーションウィンドウ540に表示する例を示している。また、コミュニケーション制御部37が、コミュニケーション対象として設定された人が使用している通信端末と操作端末100との通信を確立することによって、コミュニケーション対象として設定された人についてのみ、利用者Uとのコミュニケーション(音声通話、チャット等)を可能にするようにしてもよい。
ステップS20で、コミュニケーション制御部37は、利用者Uによるコミュニケーションアイコン534の操作に応じて、利用者Uとコミュニケーション対象との間で、音声通話、ビデオ通話、或いはチャットによるコミュニケーションの制御を実行し、ステップS13に処理を進める。
ステップS13で、動作中物体認識部39は、移動ロボット10の周辺に存在する動作中物体を探索し、動作中物体を認識したときにステップS21に処理を進める。ステップS21で、画面表示制御部31は、図8に示したように、ロボットカメラ62の撮影画像502から、動作中物体の画像部分503が含まれる範囲504の画像部分を抽出する。そして、範囲504の画像部分を拡大したモニタ画像520bを、第1サブ画面520に表示する。これにより、移動ロボット10に接近する動作中物体について、利用者Uによる認識を容易にすることができる。
また、図9に示したように、画面表示制御部31が、ロボットカメラ62の撮影画像502から、動作中物体の画像部分503と、会議に参加している全ての人の画像部分とが含まれる範囲505の画像部分を抽出するようにしてもよい。この場合、画面表示制御部31は、範囲505のモニタ画像を第1サブ画面520に表示する。これにより、利用者Uは、会議に参加している全ての人の様子を視認しつつ、移動ロボット10に接近している動作中物体を容易に認識することができる。
ここで、画面表示制御部31は、動作中物体認識部39により複数の動作中物体が認識されたときには、以下の優先順位1→優先順位2→優先順位3、の決定条件により、ステップS21による処理の対象とする動作中物体を決定する。
優先順位1:最も大きい声で発言中の動作中物体。
優先順位2:移動中の動作中物体。
優先順位3:起立して発言中の動作中物体。
なお、上記優先順位は一例にすぎず、例えば、利用者Uが操作端末100を操作して、優先順位をカスタマイズできるようにしてもよい。
[6.移動表示モードによる操作画面の表示]
図10~図13に示した操作画面を参照しつつ、図6に示したフローチャートに従って、移動ロボット10により実行される、移動表示モードによる操作画面の表示の制御について説明する。
図6のステップS51で、画面表示制御部31は、図10に示したように、移動表示モードによる操作画面510の画面データを操作端末100に送信して、操作画面510を、操作端末100の端末表示部141に表示させる。操作画面510には、ロボットカメラ62の撮影画像に基づくモニタ画像が表示される第1サブ画面520と、移動ロボット10の移動操作をサポートするための画像が表示される第2サブ画面530とが含まれる。
図10は、移動ロボット10が建物の中(屋内)を移動している状況での操作画面510を示している。移動表示モードでは、移動ロボット10の前後の移動を指示するための前後移動アイコン、及び左右の移動を指示するための左右移動アイコン602が表示される。また、移動ロボット10の移動速度を表示する速度メータ603が表示される。さらに、移動ロボット10が移動している建物のフロアレイアウト図610が表示される。
続くステップS52で、障害物認識部38は、移動ロボット10の周辺に存在する障害物を探索する。そして、障害物認識部38は、障害物を認識したときはステップS60に処理を進め、障害物を認識しなかったときにはステップS53に処理を進める。ステップS60で、画面表示制御部31は、図6に示したように、障害物の存在を報知する障害物報知ウィンドウ611を、第2サブ画面530に表示する。障害物報知ウィンドウ611には、注意喚起メッセージ(ここでは、「この先、段差があります」のメッセージ)、障害物の画像等が表示される。
次のステップS53で、画面表示制御部31は、移動ロボット10の移動速度が低速判定速度(例えば、数km/hourに設定される)である状態で、第1サブ画面520に表示されている画像部分の選択操作がなされたか否かを判断する。そして、画面表示制御部31は、画像部分の選択操作がなされたときはステップS61に処理を進め、画像部分の選択操作がなされていないときにはステップS54に処理を進める。
ステップS61で、画面表示制御部31は、図11に示したように、第1サブ画面520の画像部分612(ここでは、フロアガイドパネルの画像部分)が選択されたときに、画像部分612を拡大した拡大ウィンドウ620を第2サブ画面530に表示する。これにより、利用者Uは、第1サブ画面520により、移動ロボット10の前方を広範囲で確認しつつ、第2サブ画面530の拡大ウィンドウ620により、確認したい対象物の詳細を視認することができる。
続くステップS54で、移動状況認識部33は、移動ロボット10が観光スポットに所在しているか否かを判断する。そして、移動状況認識部33は、移動ロボット10が観光スポットに所在しているときはステップS62に処理を進め、移動ロボット10が観光スポットに位置していないときにはステップS55に処理を進める。
ステップS62で、画面表示制御部31は、図12に示したように、移動ロボット10の周辺の撮影画像520eを表示する第1サブ画面520と、観光スポット(ここでは動物園)の地図700を表示する第2サブ画面530とを含む操作画面510を表示する。さらに、画面表示制御部31は、移動ロボット10の所在地点或いは移動ロボット10の付近の付加情報を表示する付加情報701を表示する。
また、画面表示制御部31は、障害物認識部38により移動ロボット10の付近の障害物が認識されている場合は、ステップS60の処理により、障害物報知ウィンドウ702も表示する。
続くステップS55で、移動状況認識部33は、移動ロボット10の移動速度が高速判定速度(例えば、数10km/hourに設定される)以上であるか否かを判断する。そして、移動状況認識部33は、移動ロボット10の移動速度が高速判定速度以上であるときはステップS63に処理を進め、移動ロボット10の移動速度が高速判定速度未満であるときにはステップS56に処理を進める。
ステップS63で、画面表示制御部31は、図13に示したように、移動ロボット10の前方の撮影画像520fを表示する第1サブ画面520と、移動ロボット10の移動エリアの地図に、移動ロボット10の現在位置Sから目的地Gまでの経路Rtを示すルート案内ウィンドウ800を表示する第2サブ画面530とを含む、操作画面510を表示する。ルート案内ウィンドウ800の表示により、利用者Uによる移動ロボット10の目的地までの移動を支援することができる。
さらに、画面表示制御部31は、目的地への到着予測時刻801を第2サブ画面530に表示する。また、画面表示制御部31は、障害物認識部38により移動ロボット10の付近の障害物が認識されている場合は、ステップS60の処理により、障害物ウィンドウ802を第2サブ画面530に表示する。障害物ウィンドウ802には、障害物として認識された歩行者の画像部分が枠802aにより強調されて表示される。
また、移動ロボット10が高速判定速度以上で移動しているときには、コミュニケーションの操作は禁止されるため、画面表示制御部31は、図13に示したように、コミュニケーションアイコン514(タッチ操作が不能となっている第1の操作アイコン)の表示を、他の操作が可能な前後移動アイコン601,左右移動アイコン602(タッチ操作が可能である第2の操作アイコン)よりも暗くして(異なる表示態様で)表示する。これにより、コミュニケーションアイコン514の操作が不能であることを、利用者Uに認知させる。なお、異なる表示態様として、操作可能なアイコンをカラーで表示し、操作不能なアイコンをグレースケールで表示する等、他の表示態様を用いてもよい。
[7.他の実施形態]
上記実施形態では、表示モード切替部34は、図4に示したフローチャートによる処理により、利用者Uによるモード切替スイッチ531の操作に応じて、停止表示モードと移動表示モードとを切り替えた。他の実施形態として、移動状況認識部33により認識される移動ロボット10の移動状況に応じて、停止表示モードと移動表示モードとを切り替えるようにしてもよい。例えば、移動ロボット10が所定時間以上停止状態であるときに、停止表示モードに切り替えるようにしてもよい。また、移動ロボットが所定速度以上で移動しているときに、移動表示モードに切り替えるようにしてもよい。
上記実施形態では、図8、図9に示したように、停止表示モードにおいて、動作中物体認識部39により動作中物体が認識されたときに、第1サブ画面520の表示を、動作中物体の画像部分を含まない第1モニタ画面520aから、動作中物体の画像部分を含む第2モニタ画面520b,520cに切り替えた。他の実施形態として、第1サブ画面520の表示は変更せずに、動作中物体の画像部分を含む第2モニタ画面520b,520cを、第2サブ画面530に表示するようにしてもよい。
或いは、停止表示モードにおいては、第1サブ画面520を第1モニタ画面から第2モニタ画面に切替え、移動表示モードにおいては、第2モニタ画面を第2サブ画面530に表示するようにしてもよい。
上記実施形態において、コミュニケーション対象選択受付部36は、第1サブ画面520に表示されている人の画像部分がタッチ操作されたときに、タッチ操作された画像部分に対応した人をコミュニケーション対象として設定した。他の実施形態として、第1サブ画面520に表示されている画像部分に対応する人又はロボットの識別情報(氏名、ID等)を、第1サブ画面に一覧表示し、一覧表示された識別情報のタッチ操作により、コミュニケーション対象を選択できるようにしてもよい。
上記実施形態では、操作画面510の表示を、移動ロボット10のロボットプロセッサ30により、画面表示制御部31~利用者顔画像表示制御部45の処理によって制御した。他の実施形態として、画面表示制御部31~利用者顔画像表示制御部45の全部又は一部を、操作端末100の端末プロセッサ120により構成してもよい。この場合、端末プロセッサ120は、移動ロボット10から送信されるロボットカメラ62の撮影画像、ロボットマイク64により検出される音声のデータ、ライダー65により検出される物体のデータ等に基づいて、端末表示部141に表示される操作画面510を制御する。
また、画面表示制御部31~利用者顔画像表示制御部45の全部又は一部をロボット管理サーバー220により構成してもよい。この場合、ロボット管理サーバー220は、移動ロボット10及び操作端末100との間で通信を行って、ロボットカメラ62の撮影画像、操作端末100の操作データ等を受信し、操作端末100の端末表示部141の表示を制御する。
上記実施形態において、現在位置認識部32が地図DB52又は建物DB53に基づいて、移動ロボット10が部屋内に位置していることを認識するようにしてもよい。そして、現在位置認識部32により移動ロボット10が部屋内に位置していることが認識されている状態であるときに、ロボットカメラ62による撮影画像、ライダー65の物体検出信号、及びロボットマイク64の検出音等に基づいて、部屋内に進入する物体が検出された場合に、動作中物体認識部39が、当該物体を動作中物体として認識するようにしてもよい。
なお、図2、図3は、本願発明の理解を容易にするために、移動ロボット10と操作端末100の構成を、主な処理内容により区分して示した概略図であり、移動ロボット10と操作端末100の構成を、他の区分によって構成してもよい。また、各構成要素の処理は、1つのハードウェアユニットにより実行されてもよいし、複数のハードウェアユニットにより実行されてもよい。また、図4~図6に示した各構成要素による処理は、1つのプログラムにより実行されてもよいし、複数のプログラムにより実行されてもよい。
[8.上記実施形態によりサポートされる構成]
上記実施形態は、以下の構成の具体例である。
(第1項)移動ロボットと、前記移動ロボットとの間で相互に通信を行う操作端末と、を備え、前記移動ロボットは、前記移動ロボットの周辺を撮影するカメラを有して、前記カメラの撮影画像に基づくモニタ画像情報を前記操作端末に送信し、前記操作端末は、端末表示部を有し、前記モニタ画像情報を受信して、前記撮影画像に基づくモニタ画像を含む操作画面を、前記端末表示部に表示する、遠隔操作システムであって、前記端末表示部に、前記モニタ画像を表示する第1サブ画面と、前記第1サブ画面と異なる第2サブ画面とを含む、前記操作画面を表示し、所定の表示モードに応じて、前記第2サブ画面の表示内容を変更する画面表示制御部を備える遠隔操作システム。
第1項の遠隔操作システムによれば、端末表示部に表示する操作画面に、移動ロボットの周辺のモニタ画像を表示する第1サブ画面に加えて、第1サブ画面と異なる第2サブ画面を表示することにより、移動ロボットの周囲状況に応じた、利用者による移動ロボットの遠隔操作を支援することができる。
(第2項)前記表示モードとして、前記移動ロボットが停止している状況に対応した停止表示モードが設定され、前記移動ロボットの周辺に所在している人又は他のロボットである周辺対象物体を認識する周辺対象物体認識部と、前記周辺対象物体を対象とした、選択操作を受け付けるコミュニケーション対象選択受付部と、を備え、前記画面表示制御部は、前記停止表示モードにおいて、前記コミュニケーション対象選択受付部により選択が受け付けられた前記周辺対象物体とのコミュニケーションをサポートするための操作部を、前記第2サブ画面に表示する第1項に記載の遠隔操作システム。
第2項の遠隔操作システムによれば、操作端末の利用者と、利用者が選択した周辺対象物体(人又は他のロボット)との間のコミュニケーションをサポートすることができる。
(第3項)前記画面表示制御部は、前記停止表示モードにおいて、複数の前記周辺対象物体の識別情報を、前記第2サブ画面に一覧表示し、前記コミュニケーション対象選択受付部は、前記一覧表示された前記識別情報に対する選択操作に応じて、前記周辺対象物体の選択を受け付ける第2項に記載の遠隔操作システム。
第3項の遠隔操作システムによれば、操作端末の利用者は、移動ロボットの周辺に所在している人又は他のロボットの一覧表示を参照して、コミュニケーションを行う対象を選択することができる。
(第4項)前記コミュニケーション対象選択受付部は、前記第1サブ画面に表示される前記周辺対象物体の画像部分に対する選択操作に応じて、前記周辺対象物体の選択を受け付ける第2項又は第3項に記載の遠隔操作システム。
第4項の遠隔操作システムによれば、操作端末の利用者は、周辺対象物体の画像を確認して、コミュニケーションを行う対象を選択することができる。
(第5項)前記画面表示制御部は、前記コミュニケーション対象選択受付部により選択が受け付けられた前記周辺対象物体の前記画像部分を拡大した画像を、前記第1サブ画面又は前記第2サブ画面に表示し、前記コミュニケーション対象選択受付部により選択が受付けられた前記周辺対象物体のみを対象としたコミュニケーションを可能にするコミュニケーション制御部を備える第4項に記載の遠隔操作システム。
第5項の遠隔操作システムによれば、拡大画像によるコミュケーション相手の確認を容易にしつつ、特定の周辺対象物体との間で一対一のコミュニケーションを行うことができる。
(第6項)前記周辺対象物体認識部は、前記移動ロボットの周辺に所在している前記周辺対象物体のうち、予め登録された前記周辺対象物体、又は前記移動ロボットから所定距離以内に所在している前記周辺対象物体を認識する第2項から第5項のうちいずれか1項に記載の遠隔操作システム。
第6項の遠隔操作システムによれば、コミュニケーションを行う対象を、予め登録された周辺対象物体、又は移動ロボットから所定距離以内に所在する周辺対象物体に限定することにより、利用者によるコミュニケーション相手の選択を容易にすることができる。
(第7項)前記表示モードとして、前記移動ロボットが移動過程にある状況に対応した移動表示モードが設定され、前記画面表示制御部は、前記移動表示モードにおいて、移動過程にある前記移動ロボットの操作をサポートするための操作サポート情報を、前記第2サブ画面に表示する第1項から第6項のうちいずれか1項に記載の遠隔操作システム。
第7項の遠隔操作システムによれば、移動ロボットが移動過程であるときに、モニタ画像を表示する第1サブ画面と、移動過程にある移動ロボットの操作をサポートする別の第2サブ画面とを含む操作画面を表示することにより、利用者による移動ロボットの操作を容易にすることができる。
(第8項)前記画面表示制御部は、前記移動表示モードにおいて、前記カメラの撮影画像のうち、第1撮影範囲の画像部分を前記第1サブ画面に表示すると共に、前記第1撮影範囲と異なる第2撮影範囲の画像部分を、前記操作サポート情報として前記第2サブ画面に表示する第7項に記載の遠隔操作システム。
第8項の遠隔操作システムによれば、異なる撮影範囲に対応した画像部分を表示する第1サブ画面と第2サブ画面を含む操作画面を、端末表示部に表示することにより、利用者による移動ロボットの周囲状況の認識を容易にすることができる。
(第9項)前記移動ロボットの周囲に存在する障害物を認識する障害物認識部を備え、前記画面表示制御部は、前記移動表示モードにおいて、前記障害物が含まれる前記第2撮影範囲の画像部分を、前記障害物の画像部分を強調表示して、前記第2サブ画面に表示する第8項に記載の遠隔操作システム。
第9項の遠隔操作システムによれば、移動ロボットの周囲に存在する障害物に対する利用者の認識を容易にすることができる。
(第10項)前記画面表示制御部は、前記移動表示モードにおいて、前記移動ロボットの移動エリアの地図を、前記操作サポート情報として前記第2サブ画面に表示する第7項から第9項のうちいずれか1項に記載の遠隔操作システム。
第10項の遠隔操作システムによれば、移動エリアの地図を第2サブ画面に表示することにより、利用者による移動ロボットの移動先の認識を容易にすることができる。
(第11項)前記画面表示制御部は、前記移動表示モードにおいて、前記移動エリアに存在する観光スポット、前記移動エリアに存在する施設、前記移動エリアで実施されるイベントのうちの少なくともいずれか一つに関する情報であるエリア付加情報を、前記操作サポート情報として前記第2サブ画面に表示する第10項に記載の遠隔操作システム。
第11項の遠隔操作システムによれば、エリア付加情報を第2サブ画面に表示することにより、利用者による移動ロボットが移動する過程で立ち寄るポイントの選択を容易にすることができる。
(第12項)前記画面表示制御部は、前記地図に表示されている特定地点についての選択操作がなされたときに、前記特定地点に関連付けられた前記エリア付加情報を、前記操作サポート情報として前記第2サブ画面に表示する第11項に記載の遠隔操作システム。
第12項の遠隔操作システムによれば、利用者が選択した特定地点に関する情報を、第2サブ画面の表示によって利用者に提供することができる。
(第13項)前記移動ロボットの現在位置を認識する現在位置認識部を備え、前記画面表示制御部は、前記移動表示モードにおいて、前記現在位置認識部により、前記移動ロボットが、観光エリアとして登録された登録済みエリアに位置していることが認識されたときに、前記登録済みエリアと関連付けられた前記エリア付加情報を、前記操作サポート情報として前記第2サブ画面に表示する第11項又は第12項に記載の遠隔操作システム。
第13項の遠隔操作システムによれば、移動ロボットが、観光エリアとして登録された登録済みエリア内を移動しているタイミングで、移動ロボットが位置している地点に関連した状況を、第2サブ画面の表示によって利用者に提供することができる。
(第14項)前記移動ロボットの移動速度を認識する移動速度認識部を備え、前記画面表示制御部は、前記移動ロボットの移動速度が所定の低速判定速度以下であるときに、前記エリア付加情報を、前記操作サポート情報として前記第2サブ画面に表示する第11項から第13項のうちいずれか1項に記載の遠隔操作システム。
第14項の遠隔操作システムによれば、移動ロボットの移動速度が比較的低速であるときに限定して、エリア付加情報を利用者に提供することができる。
(第15項)前記移動ロボットの現在位置を認識する現在位置認識部と、前記移動ロボットの目的地を認識する目的地認識部と、前記現在位置から前記目的地までの移動ルートを認識する移動ルート認識部と、を備え、前記画面表示制御部は、前記移動表示モードにおいて、前記現在位置から前記目的地までの前記移動ルートによる移動を案内するナビゲーション情報を、前記操作サポート情報として、前記第2サブ画面に表示する第7項から第14項のうちいずれか1項に記載の遠隔操作システム。
第15項の遠隔操作システムによれば、ナビゲーション情報を第2サブ画面に表示することによって、利用者による目的地までの移動ロボットの操作を容易にすることができる。
(第16項)前記移動ロボットの移動速度を認識する移動速度認識部を備え、前記画面表示制御部は、前記移動ロボットの移動速度が所定の高速判定速度以上であるときに、前記ナビゲーション情報を前記第2サブ画面に表示する第15項に記載の遠隔操作システム。
第16項の遠隔操作システムによれば、移動ロボットの移動速度が高速判定速度以上であって、移動ロボットが目的地まで移動していることが想定されるときに、ナビゲーション情報を第2サブ画面に表示して、利用者による移動ロボットの操作を支援することができる。
(第17項)前記移動ロボットは、ロボット表示部を備え、前記移動表示モードにおいて、前記ロボット表示部への前記操作端末の利用者の顔画像の表示を禁止するか、又は前記ロボット表示部の表示を所定の代替アイコンの表示に切り替える利用者顔画像表示制御部を備える第7項から第16項のうちいずれか1項に記載の遠隔操作システム。
第17項の遠隔操作システムによれば、移動ロボットが移動中であって、利用者が、移動ロボットの周辺にいる人或いは他のロボットとのコミュニケーションを図る可能性が低いと想定される場合に、ロボットの表示部への利用者の顔画像の表示を禁止するか、又は代替アイコンの表示に切り替えることができる。
(第18項)前記操作端末の利用者による操作に応じて、前記表示モードを切り替える表示モード切替部を備える第1項から第17項のうちいずれか1項に記載の遠隔操作システム。
第18項の遠隔操作システムによれば、操作端末の表示モードを、利用者の希望する表示モードに切り替えることができる。
(第19項)前記移動ロボットが屋内に所在しているか屋外に所在しているかを認識する屋内外所在認識部と、前記移動ロボットが屋内に所在しているか屋外に所在しているかに応じて、前記表示モードを切り替える表示モード切替部と、を備える第1項から第17項のうちいずれか1項に記載の遠隔操作システム。
第19項の遠隔操作システムによれば、移動ロボットが屋内に所在しているか屋外に所在しているかに応じて、移動ロボットが所在している環境に応じた表示モードに切り替えることができる。
(第20項)前記操作端末の利用者による操作に応じて、前記操作画面の表示レイアウトを変更する表示レイアウト変更部を備える第1項から第19項のうちいずれか1項に記載の遠隔操作システム。
第20項の遠隔操作システムによれば、操作画面の表示レイアウトを、利用者の希望に応じたレイアウトにすることができる。
(第21項)前記端末表示部はタッチパネルであり、前記画面表示制御部は、前記操作画面に表示される操作アイコンの内、前記表示モードに依存してタッチ操作が不能となっている第1の操作アイコンを、タッチ操作が可能である第2の操作アイコンと異なる表示態様で表示する第1項から第20項のうちいずれか1項に記載の遠隔操作システム。
第21項の遠隔操作システムによれば、操作可能な操作アイコンと操作不能な操作アイコンとの、利用者による識別を容易にすることができる。
(第22項)周辺を撮影するカメラと、操作端末との間で通信を行うロボット通信部と、前記操作端末の端末表示部に表示させる操作画面を設定する画面表示制御部と、前記画面表示制御部により設定された前記操作画面のデータを、前記ロボット通信部により前記操作端末に送信する画面データ送信部と、を備える移動ロボットであって、前記画面表示制御部は、前記カメラの撮影画像に基づくモニタ画像を表示する第1サブ画面と、前記第1サブ画面と異なる第2サブ画面とを含む、前記操作画面を設定し、所定の表示モードに応じて、前記第2サブ画面の表示内容を変更する移動ロボット。
第22項の移動ロボットによれば、端末表示部に対して、移動ロボットの周辺のモニタ画像を表示する第1サブ画面に加えて、第1サブ画面と異なる第2サブ画面を表示する操作画面のデータを送信することにより、移動ロボットの周囲状況に応じた、利用者による移動ロボットの遠隔操作を支援することができる。
(第23項)移動ロボットを遠隔操作するための操作端末であって、端末表示部と、前記移動ロボットとの間で相互に通信を行う端末通信部と、前記移動ロボットから送信される前記移動ロボットの周辺の撮影画像に基づくモニタ画像情報を、前記端末通信部により受信するモニタ画像情報取得部と、前記端末表示部に、前記モニタ画像情報に基づくモニタ画像を表示する第1サブ画面と、前記第1サブ画面と異なる第2サブ画面とを含む、操作画面を表示し、所定の表示モードに応じて、前記第2サブ画面の表示内容を変更する画面表示制御部と、を備える操作端末。
第23項の操作端末によれば、移動ロボットから送信されるモニタ画像情報を受信して、端末表示部に表示する操作画面に、移動ロボットの周辺のモニタ画像を表示する第1サブ画面に加えて、第1サブ画面と異なる第2サブ画面を表示することにより、移動ロボットの周囲状況に応じた、利用者による移動ロボットの遠隔操作を支援することができる。
1…遠隔操作システム、10…移動ロボット、14…走行ユニット、20…ロボットコントローラ、30…ロボットプロセッサ、31…画面表示制御部、32…現在位置認識部、33…表示モード切替部、34…表示モード切替部、35…周辺対象物体認識部、36…コミュニケーション対象選択受付部、37…コミュニケーション制御部、38…障害物認識部、39…動作中物体認識部、40…目的地認識部、41…移動ルート認識部、42…表示画像範囲設定部、43…カメラ撮影範囲制御部、44…水平方向画像取得部、45…利用者顔画像表示制御部、61…ロボット表示部、62…ロボットカメラ、63…ロボットスピーカー、64…ロボットマイク、65…ライダー、66…GNSSセンサ、67…速度センサ、68…傾斜センサ、100…操作端末、110…端末コントローラ、120…端末プロセッサ、121…ロボット操作画面制御部、122…ロボット操作指示制御部、141…端末表示部、142…端末カメラ、143…端末マイク、144…端末スピーカー。

Claims (22)

  1. 移動ロボットと、前記移動ロボットとの間で相互に通信を行う操作端末と、を備え、
    前記移動ロボットは、前記移動ロボットの周辺を撮影するカメラを有して、前記カメラの撮影画像に基づくモニタ画像情報を前記操作端末に送信し、
    前記操作端末は、端末表示部を有し、前記モニタ画像情報を受信して、前記撮影画像に基づくモニタ画像を含む操作画面を、前記端末表示部に表示する、
    遠隔操作システムであって、
    前記移動ロボットの移動速度を含む前記移動ロボットの移動状況を認識する移動状況認識部と、
    前記モニタ画像を表示する第1サブ画面と、操作アイコンを表示する第2サブ画面とを含む前記操作画面を、前記端末表示部に表示し、所定の表示モードに応じて、前記第2サブ画面の表示内容を変更する画面表示制御部と、を備え
    前記画面表示制御部は、
    前記移動ロボットが停止している状況に対応した停止表示モードであるときは、前記第2サブ画面に、通話相手とのコミュニケーションをサポートするためのコミュニケーションウインドウを表示し、
    前記移動ロボットが移動している状況に対応した移動表示モードであるときには、前記第2サブ画面に、前記移動ロボットの移動操作をサポートするための操作サポート情報を表示し、前記移動状況認識部により認識される前記移動ロボットの移動状況に応じて、前記操作サポート情報の内容を変更する
    遠隔操作システム。
  2. 前記移動ロボットの周辺に所在している人又は他のロボットである周辺対象物体を認識する周辺対象物体認識部と、
    前記周辺対象物体を対象とした、選択操作を受け付けるコミュニケーション対象選択受付部と、を備え、
    前記画面表示制御部は、前記停止表示モードにおいて、前記コミュニケーション対象選択受付部により選択が受け付けられた前記周辺対象物体とのコミュニケーションをサポートするための前記操作アイコン又は前記コミュニケーションウインドウの少なくともいずれか一方を、前記第2サブ画面に表示する
    請求項1に記載の遠隔操作システム。
  3. 前記画面表示制御部は、前記停止表示モードにおいて、複数の前記周辺対象物体の識別情報を、前記第2サブ画面に一覧表示し、
    前記コミュニケーション対象選択受付部は、前記一覧表示された前記識別情報に対する選択操作に応じて、前記周辺対象物体の選択を受け付ける
    請求項2に記載の遠隔操作システム。
  4. 前記コミュニケーション対象選択受付部は、前記第1サブ画面に表示される前記周辺対象物体の画像部分に対する選択操作に応じて、前記周辺対象物体の選択を受け付ける
    請求項2又は請求項3に記載の遠隔操作システム。
  5. 前記画面表示制御部は、前記コミュニケーション対象選択受付部により選択が受け付けられた前記周辺対象物体の前記画像部分を拡大した画像を、前記第1サブ画面又は前記第2サブ画面の前記コミュニケーションウインドウに表示し、
    前記コミュニケーション対象選択受付部により選択が受付けられた前記周辺対象物体のみを対象としたコミュニケーションを可能にするコミュニケーション制御部を備える
    請求項4に記載の遠隔操作システム。
  6. 前記周辺対象物体認識部は、前記移動ロボットの周辺に所在している前記周辺対象物体のうち、予め登録された前記周辺対象物体、又は前記移動ロボットから所定距離以内に所在している前記周辺対象物体を認識する
    請求項2から請求項5のうちいずれか1項に記載の遠隔操作システム。
  7. 前記画面表示制御部は、前記移動表示モードにおいて、前記カメラの撮影画像のうち、第1撮影範囲の画像部分を前記第1サブ画面に表示すると共に、前記第1撮影範囲と異なる第2撮影範囲の画像部分を、前記操作サポート情報として前記第2サブ画面に表示する
    請求項1から請求項6のうちいずれか1項に記載の遠隔操作システム。
  8. 前記移動ロボットの周囲に存在する障害物を認識する障害物認識部を備え、
    前記画面表示制御部は、前記移動表示モードにおいて、前記障害物が含まれる前記第2撮影範囲の画像部分を、前記障害物の画像部分を強調表示して、前記第2サブ画面に表示する
    請求項に記載の遠隔操作システム。
  9. 前記画面表示制御部は、前記移動表示モードにおいて、前記移動ロボットの移動エリアの地図を、前記操作サポート情報として前記第2サブ画面に表示する
    請求項1から請求項8のうちいずれか1項に記載の遠隔操作システム。
  10. 前記画面表示制御部は、前記移動表示モードにおいて、前記移動エリアに存在する観光スポット、前記移動エリアに存在する施設、前記移動エリアで実施されるイベントのうちの少なくともいずれか一つに関する情報であるエリア付加情報を、前記操作サポート情報として前記第2サブ画面に表示する
    請求項に記載の遠隔操作システム。
  11. 前記画面表示制御部は、前記地図に表示されている特定地点についての選択操作がなされたときに、前記特定地点に関連付けられた前記エリア付加情報を、前記操作サポート情報として前記第2サブ画面に表示する
    請求項10に記載の遠隔操作システム。
  12. 前記移動ロボットの現在位置を認識する現在位置認識部を備え、
    前記画面表示制御部は、前記移動表示モードにおいて、前記現在位置認識部により、前記移動ロボットが、観光エリアとして登録された登録済みエリアに位置していることが認識されたときに、前記登録済みエリアと関連付けられた前記エリア付加情報を、前記操作サポート情報として前記第2サブ画面に表示する
    請求項10又は請求項11に記載の遠隔操作システム。
  13. 前記移動ロボットの移動速度を認識する移動速度認識部を備え、
    前記画面表示制御部は、前記移動ロボットの移動速度が所定の低速判定速度以下であるときに、前記エリア付加情報を、前記操作サポート情報として前記第2サブ画面に表示する
    請求項10から請求項12のうちいずれか1項に記載の遠隔操作システム。
  14. 前記移動ロボットの現在位置を認識する現在位置認識部と、
    前記移動ロボットの目的地を認識する目的地認識部と、
    前記現在位置から前記目的地までの移動ルートを認識する移動ルート認識部と、を備え、
    前記画面表示制御部は、前記移動表示モードにおいて、前記現在位置から前記目的地までの前記移動ルートによる移動を案内するナビゲーション情報を、前記操作サポート情報として、前記第2サブ画面に表示する
    請求項から請求項13のうちいずれか1項に記載の遠隔操作システム。
  15. 前記移動ロボットの移動速度を認識する移動速度認識部を備え、
    前記画面表示制御部は、前記移動ロボットの移動速度が所定の高速判定速度以上であるときに、前記ナビゲーション情報を前記第2サブ画面に表示する
    請求項14に記載の遠隔操作システム。
  16. 前記移動ロボットは、ロボット表示部を備え、
    前記移動表示モードにおいて、前記ロボット表示部への前記操作端末の利用者の顔画像の表示を禁止するか、又は前記ロボット表示部の表示を所定の代替アイコンの表示に切り替える利用者顔画像表示制御部を備える、
    請求項から請求項15のうちいずれか1項に記載の遠隔操作システム。
  17. 前記操作端末の利用者による操作に応じて、前記表示モードを切り替える表示モード切替部を備える
    請求項1から請求項1のうちいずれか1項に記載の遠隔操作システム。
  18. 前記移動ロボットが屋内に所在しているか屋外に所在しているかを認識する屋内外所在認識部と、
    前記移動ロボットが屋内に所在しているか屋外に所在しているかに応じて、前記表示モードを切り替える表示モード切替部と、を備える
    請求項1から請求項17のうちいずれか1項に記載の遠隔操作システム。
  19. 前記操作端末の利用者による操作に応じて、前記操作画面の表示レイアウトを変更する表示レイアウト変更部を備える
    請求項1から請求項18のうちいずれか1項に記載の遠隔操作システム。
  20. 前記端末表示部はタッチパネルであり、
    前記画面表示制御部は、前記操作画面に表示される操作アイコンの内、前記表示モードに依存してタッチ操作が不能となっている第1の操作アイコンを、タッチ操作が可能である第2の操作アイコンと異なる表示態様で表示する
    請求項1から請求項19のうちいずれか1項に記載の遠隔操作システム。
  21. 周辺を撮影するカメラと、
    操作端末との間で通信を行うロボット通信部と、
    前記操作端末の端末表示部に表示させる操作画面を設定する画面表示制御部と、
    前記画面表示制御部により設定された前記操作画面のデータを、前記ロボット通信部により前記操作端末に送信する画面データ送信部と、
    を備える移動ロボットであって、
    前記移動ロボットの移動速度を含む前記移動ロボットの移動状況を認識する移動状況認識部を備え、
    前記画面表示制御部は、
    前記カメラの撮影画像に基づくモニタ画像を表示する第1サブ画面と、操作アイコンを表示する第2サブ画面とを含む、前記操作画面を設定し、所定の表示モードに応じて、前記第2サブ画面の表示内容を変更し、
    前記移動ロボットが停止している状況に対応した停止表示モードであるときは、前記第2サブ画面に、通話相手とのコミュニケーションをサポートするためのコミュニケーションウインドウを表示し、
    前記移動ロボットが移動している状況に対応した移動表示モードであるときには、前記第2サブ画面に、前記移動ロボットの移動操作をサポートするための操作サポート情報を表示し、前記移動状況認識部により認識される前記移動ロボットの移動状況に応じて、前記操作サポート情報の内容を変更する
    移動ロボット。
  22. 移動ロボットを遠隔操作するための操作端末であって、
    端末表示部と、
    前記移動ロボットとの間で相互に通信を行う端末通信部と、
    前記移動ロボットから送信される前記移動ロボットの周辺の撮影画像に基づくモニタ画像情報を、前記端末通信部により受信するモニタ画像情報取得部と、
    前記移動ロボットの移動速度を含む前記移動ロボットの移動状況を認識する移動状況認識部と、
    前記端末表示部に、前記モニタ画像情報に基づくモニタ画像を表示する第1サブ画面と、操作アイコンを表示する第2サブ画面とを含む、操作画面を表示し、所定の表示モードに応じて、前記第2サブ画面の表示内容を変更する画面表示制御部と、を備え
    前記画面表示制御部は、
    前記移動ロボットが停止している状況に対応した停止表示モードであるときは、前記第2サブ画面に、通話相手とのコミュニケーションをサポートするためのコミュニケーションウインドウを表示し、
    前記移動ロボットが移動している状況に対応した移動表示モードであるときには、前記第2サブ画面に、前記移動ロボットの移動操作をサポートするための操作サポート情報を表示し、前記移動状況認識部により認識される前記移動ロボットの移動状況に応じて、前記操作サポート情報の内容を変更する
    操作端末。
JP2020189655A 2020-11-13 2020-11-13 遠隔操作システム、移動ロボット、及び操作端末 Active JP7402145B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020189655A JP7402145B2 (ja) 2020-11-13 2020-11-13 遠隔操作システム、移動ロボット、及び操作端末
EP21205153.6A EP4002046B1 (en) 2020-11-13 2021-10-28 Remote operation system comprising a robot and an operation terminal
US17/453,663 US20220155780A1 (en) 2020-11-13 2021-11-05 Remote operation system, robot, and operation terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020189655A JP7402145B2 (ja) 2020-11-13 2020-11-13 遠隔操作システム、移動ロボット、及び操作端末

Publications (2)

Publication Number Publication Date
JP2022078760A JP2022078760A (ja) 2022-05-25
JP7402145B2 true JP7402145B2 (ja) 2023-12-20

Family

ID=78649126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020189655A Active JP7402145B2 (ja) 2020-11-13 2020-11-13 遠隔操作システム、移動ロボット、及び操作端末

Country Status (3)

Country Link
US (1) US20220155780A1 (ja)
EP (1) EP4002046B1 (ja)
JP (1) JP7402145B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7524807B2 (ja) * 2021-03-24 2024-07-30 トヨタ自動車株式会社 ロボット、コミュニケーションシステム、コミュニケーション方法及びプログラム
US20240193955A1 (en) * 2022-12-12 2024-06-13 Honda Motor Co., Ltd. Mobile object control device, mobile object control method, and storage medium
CN115922731B (zh) * 2023-01-09 2023-05-30 深圳鹏行智能研究有限公司 一种机器人的控制方法以及机器人

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002239971A (ja) 2001-02-16 2002-08-28 Sanyo Electric Co Ltd ロボットシステム及びロボット
JP2004242244A (ja) 2003-02-10 2004-08-26 Sony Corp 通信ネットワークシステム、携帯端末装置、パノラマ画像の合成方法およびコンピュータプログラム
WO2016017367A1 (ja) 2014-07-30 2016-02-04 ヤンマー株式会社 遠隔操作装置
US20160139595A1 (en) 2014-11-17 2016-05-19 Lg Electronics Inc. Mobile terminal and controlling method thereof
JP2016208416A (ja) 2015-04-27 2016-12-08 日本電信電話株式会社 コミュニケーションシステムおよびその制御方法
JP2017509520A (ja) 2014-10-27 2017-04-06 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 飛行情報を提供する方法
JP2018081623A (ja) 2016-11-18 2018-05-24 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP2018171696A (ja) 2017-03-31 2018-11-08 大日本印刷株式会社 案内装置、案内方法、案内システム及びプログラム
JP2020022152A (ja) 2018-07-24 2020-02-06 株式会社リコー 通信端末、プログラム、表示方法、記録媒体
US20200183394A1 (en) 2017-07-07 2020-06-11 Zoox, Inc. Teleoperator situational awareness

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110263293A1 (en) * 2010-04-22 2011-10-27 Ford Global Technologies, Llc Mobile device interface for use in a vehicle
US9002535B2 (en) * 2010-05-11 2015-04-07 Irobot Corporation Navigation portals for a remote vehicle control user interface
KR20140040094A (ko) * 2011-01-28 2014-04-02 인터치 테크놀로지스 인코퍼레이티드 이동형 원격현전 로봇과의 인터페이싱
US9361021B2 (en) * 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US9283674B2 (en) * 2014-01-07 2016-03-15 Irobot Corporation Remotely operating a mobile robot
JP7187768B2 (ja) 2017-09-25 2022-12-13 富士フイルムビジネスイノベーション株式会社 カメラ装置、カメラ装置制御システム、及びプログラム
US11474527B2 (en) * 2017-12-13 2022-10-18 Sony Corporation Moving apparatus, information processing apparatus, and method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002239971A (ja) 2001-02-16 2002-08-28 Sanyo Electric Co Ltd ロボットシステム及びロボット
JP2004242244A (ja) 2003-02-10 2004-08-26 Sony Corp 通信ネットワークシステム、携帯端末装置、パノラマ画像の合成方法およびコンピュータプログラム
WO2016017367A1 (ja) 2014-07-30 2016-02-04 ヤンマー株式会社 遠隔操作装置
JP2017509520A (ja) 2014-10-27 2017-04-06 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 飛行情報を提供する方法
US20160139595A1 (en) 2014-11-17 2016-05-19 Lg Electronics Inc. Mobile terminal and controlling method thereof
JP2016208416A (ja) 2015-04-27 2016-12-08 日本電信電話株式会社 コミュニケーションシステムおよびその制御方法
JP2018081623A (ja) 2016-11-18 2018-05-24 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP2018171696A (ja) 2017-03-31 2018-11-08 大日本印刷株式会社 案内装置、案内方法、案内システム及びプログラム
US20200183394A1 (en) 2017-07-07 2020-06-11 Zoox, Inc. Teleoperator situational awareness
JP2020022152A (ja) 2018-07-24 2020-02-06 株式会社リコー 通信端末、プログラム、表示方法、記録媒体

Also Published As

Publication number Publication date
EP4002046A1 (en) 2022-05-25
US20220155780A1 (en) 2022-05-19
EP4002046B1 (en) 2024-04-03
JP2022078760A (ja) 2022-05-25

Similar Documents

Publication Publication Date Title
JP7402145B2 (ja) 遠隔操作システム、移動ロボット、及び操作端末
US20050057689A1 (en) Image distribution system
US9277178B2 (en) Information processing system and storage medium
US20220152836A1 (en) Robot
JP2007216363A (ja) コミュニケーションロボット
JP7400882B2 (ja) 情報処理装置、移動体、遠隔制御システム、情報処理方法およびプログラム
JP7402784B2 (ja) 遠隔表示システム、ロボット、及び表示端末
KR101260879B1 (ko) 이동로봇의 인물탐색 방법
CN112346459B (zh) 机器人运行方法、装置、机器人及存储介质
US20240104604A1 (en) Information management device, information management method and storage medium
US20240105052A1 (en) Information management device, information management method and storage medium
US20240107184A1 (en) Information management device, information management method, and storage medium
US20240087339A1 (en) Information processing device, information processing system, and information processing method
WO2019087577A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US12147595B2 (en) Information processing system
JP7553521B2 (ja) 情報処理システム
US20240323240A1 (en) Communication control server, communication system, and communication control method
JP2024039702A (ja) 情報処理システム
JP2007074081A (ja) 車載用通信装置
JP2024038605A (ja) 情報処理システム
JP2024039763A (ja) 情報処理システム
JP2024161224A (ja) 情報処理システム
JP2024057142A (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP2024131697A (ja) 通知装置、通知方法、及びプログラム
JP2023014867A (ja) コミュニケーションシステムおよび情報処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231208

R150 Certificate of patent or registration of utility model

Ref document number: 7402145

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150