JP7106097B2 - telepresence system - Google Patents
telepresence system Download PDFInfo
- Publication number
- JP7106097B2 JP7106097B2 JP2018103648A JP2018103648A JP7106097B2 JP 7106097 B2 JP7106097 B2 JP 7106097B2 JP 2018103648 A JP2018103648 A JP 2018103648A JP 2018103648 A JP2018103648 A JP 2018103648A JP 7106097 B2 JP7106097 B2 JP 7106097B2
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- user
- telepresence
- voice
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Description
特許法第30条第2項適用 平成29年12月1日掲載,URL:https://www.csie.ntu.edu.tw/~taai2017Application of Article 30,
本発明は、テレプレゼンスシステムに関する。 The present invention relates to telepresence systems.
近年、自宅で働く人が会社に居る社員との間で会議を行う場合や、離れた事業所どうしの間で会議を行う場合等に、TV会議システムが使用されつつある。TV会議システムにおいて、遠隔地に居るにも関わらず、現場にいるような感覚を相互に伝えるような臨場感を与えるロボットとして、テレプレゼンスシステムが知られている。他にも、離れて暮らす家族の間でコミュニケーションをとるためにのテレプレゼンスシステムも知られている。
テレプレゼンスシステムに関して、以下の技術が従来公知である。
2. Description of the Related Art In recent years, video conferencing systems are being used when a person working at home has a conference with an employee at a company, or when a conference is held between distant offices. A telepresence system is known as a teleconferencing system in which a robot gives a sense of realism such that the user can feel as if he or she is actually there even though the user is in a remote location. Telepresence systems are also known for communicating between family members living apart.
Regarding the telepresence system, the following techniques are conventionally known.
非特許文献1には、車輪を有する台車に、相手の顔が映し出されるモニターや、自身を写すためのカメラ、マイクロフォン(小型のスピーカおよびマイク)、ロボットアームやレーザーポインタ等が設置されたテレプレゼンスロボットが記載されている。非特許文献1に記載された技術では、テレプレゼンスロボットに映しだされた相手と会話をしたり、ロボットアームで単純なジェスチャーを行ったり、レーザーポインタで物を指し示したりすることが可能になっている。すなわち、視覚と聴覚を通じたコミュニケーションが可能である。
Non-Patent
非特許文献2には、ロボットを被験者が操縦して、前後移動や回転を行わせることで、遠隔地の相手と、同じ部屋の中で実際に会話をしたり、見られたりするように感じられることを目的としたテレプレゼンスロボットが記載されている。
非特許文献3には、遠隔参与者の頷きや相槌を検出して、テレプレゼンスロボットによって誇張表現を行う技術が記載されている。
In
Non-Patent Literature 3 describes a technique for detecting a nod or backtracking of a remote participant and performing an exaggerated expression using a telepresence robot.
(従来技術の問題点)
非特許文献1に記載の従来技術では、単純なジェスチャを相手方に伝達可能であるが、例えば、会話中の動作が自動的に相手に伝達されない。非特許文献2に記載の従来技術でも、被験者の操縦結果が相手方に伝達されるが、被験者の会話中の動作は自動的に相手に伝達されない。非特許文献1,2に記載の技術では、例えば、会話中に共感や同意等を示す頷き動作(首を縦に振る動作)や、否定や不同意等を示す首を横に振る動作は自動的には伝達されない。特に、遠隔対話において、頷き動作等が伝達されると、感情や意思の疎通が図られやすく、コミュニケーションがはかどりやすい。
(Problem of conventional technology)
In the prior art described in
非特許文献3に記載の技術のように、頷き等を検出して相手方のテレプレゼンスロボットで表現を行う技術では、感情や意思の疎通は図られやすくなる。ここで、テレプレゼンスロボットにおいて、相手の顔が表示されるモニタ(表示器)と、頷き等を表現するロボットの頭部とが異なる場合、すなわち、非特許文献2のようにモニタがロボットの胸部に設置されている場合、モニタで相手を見ている際に、ロボットの頭部が頷いても、頷きに気づかない場合もあり、コミュニケーションが図られにくい。したがって、相手の顔の映像が表示されているモニタを、相手の頷き動作に対応させて上下に振動させたり、否定等の意思表示に合わせて左右に振動させることが好ましい。しかしながら、利用者の頭部の動きに合わせてモニタを動かした場合、モニタが頻繁に動いてしまい、モニタを見ている利用者がストレスを感じたり、乗り物酔いのような状態になったりする恐れがある。
The technology described in Non-Patent Literature 3, in which a nod or the like is detected and the telepresence robot of the other party expresses itself, facilitates communication of emotions and intentions. Here, in the telepresence robot, when the monitor (display) that displays the other party's face is different from the head of the robot that expresses nodding, that is, the monitor is the chest of the robot as in Non-Patent
本発明は、テレプレゼンスシステムを利用して遠隔通話を行う場合、コミュニケーションを円滑にしつつ、利用者のストレスを軽減することを技術的課題とする。 SUMMARY OF THE INVENTION It is a technical object of the present invention to reduce the user's stress while facilitating communication when making a remote call using a telepresence system.
前記技術的課題を解決するために、請求項1に記載の発明のテレプレゼンスシステムは、
第1の利用者の映像を取得する第1の撮影部と、第1の利用者の音声を取得する第1の音声入力部と、映像を表示する第1の表示部と、前記第1の表示部を傾斜させる第1の傾斜部と、を有する第1の端末と、
前記第1の端末とは離間した場所に設置され、且つ、前記第1の端末とは情報の送受信が可能な第2の端末であって、第2の利用者の映像を取得する第2の撮影部と、第2の利用者の音声を取得する第2の音声入力部と、映像を表示する第2の表示部と、前記第2の表示部を傾斜させる第2の傾斜部と、を有する第2の端末と、
前記第1の撮影部および第2の撮影部のそれぞれの撮影した映像に基づいて、前記第1の利用者および前記第2の利用者のそれぞれの動作を判別する動作判別手段と、
前記第1の端末および前記第2の端末の一方において一方の利用者の音声が入力され、且つ、前記第1の端末および前記第2の端末の他方において他方の利用者が予め定められた動作を行った場合に、前記第1の端末および前記第2の端末の一方の端末の傾斜部を前記他方の利用者の動作に応じて傾斜させるとともに、前記第1の端末および前記第2の端末の他方の端末の傾斜部を動作させない傾斜制御手段と、
を備えたことを特徴とする。
In order to solve the technical problem, the telepresence system of the invention described in
a first imaging unit that acquires an image of the first user; a first audio input unit that acquires the audio of the first user; a first display unit that displays the image; a first terminal having a first slope that slopes the display;
A second terminal that is installed at a location separated from the first terminal and that is capable of transmitting and receiving information to and from the first terminal, and that acquires an image of a second user. a shooting unit, a second audio input unit that acquires the voice of the second user, a second display unit that displays an image, and a second tilt unit that tilts the second display unit a second terminal having
Action discrimination means for discriminating respective actions of the first user and the second user based on images taken by the first imaging unit and the second imaging unit ;
One user's voice is input to one of the first terminal and the second terminal, and the other user performs a predetermined operation on the other of the first terminal and the second terminal is performed, the inclined portion of one of the first terminal and the second terminal is inclined according to the motion of the other user, and the first terminal and the second terminal tilt control means for not operating the tilt portion of the other terminal of the
characterized by comprising
請求項2に記載の発明は、請求項1に記載のテレプレゼンスシステムにおいて、
前記第1の端末および前記第2の端末の他方の利用者が頷く動作を行った場合に、前記第1の端末および前記第2の端末の一方の端末を上下方向に傾斜させる前記傾斜制御手段
を備えたことを特徴とする。
The invention according to
said tilt control means for tilting one of said first terminal and said second terminal in a vertical direction when the other user of said first terminal and said second terminal performs a nodding motion; characterized by comprising
請求項3に記載の発明は、請求項1または2に記載のテレプレゼンスシステムにおいて、
前記第1の端末および前記第2の端末の他方の端末において、予め定められた時間に達しない音声が取得された場合に、音声の入力を無視する
ことを特徴とする。
The invention according to
When the other terminal of the first terminal and the second terminal acquires a voice that does not reach a predetermined time, the input of the voice is ignored.
請求項1に記載の発明によれば、一方の利用者の音声が入力され、且つ、他方において他方の利用者が予め定められた動作を行った場合に、前記一方の端末の傾斜部を前記他方の利用者の動作に応じて傾斜させるとともに、前記他方の端末の傾斜部を動作させないことで、テレプレゼンスシステムを利用して遠隔通話を行う場合、コミュニケーションを円滑にしつつ、利用者のストレスを軽減することができる。
請求項2に記載の発明によれば、会話の聞き手側が頷く動作を話し手側に伝えることができる。
請求項3に記載の発明によれば、短時間の発話がされた場合にも他方の端末の傾斜部が作動する場合に比べて、利用者のストレスを軽減できる。
According to the first aspect of the invention, when one user's voice is input and the other user performs a predetermined action on the other side, the inclined portion of the one terminal is By tilting according to the movement of the other user and not moving the tilting part of the other terminal, when making a remote call using the telepresence system, the user's stress can be reduced while smooth communication. can be mitigated.
According to the second aspect of the invention, the nodding action of the listener of the conversation can be conveyed to the speaker.
According to the third aspect of the present invention, it is possible to reduce the user's stress compared to the case where the inclined portion of the other terminal operates even when a short speech is made.
次に図面を参照しながら、本発明の実施の形態の具体例(以下、実施例と記載する)を説明するが、本発明は以下の実施例に限定されるものではない。
なお、以下の図面を使用した説明において、理解の容易のために説明に必要な部材以外の図示は適宜省略されている。
Next, specific examples of embodiments of the present invention (hereinafter referred to as examples) will be described with reference to the drawings, but the present invention is not limited to the following examples.
It should be noted that in the following explanation using the drawings, illustration of members other than those necessary for the explanation is omitted as appropriate for ease of understanding.
図1は本発明の実施例1のテレプレゼンスシステムの全体説明図である。
図1において、本発明のテレプレゼンスシステムの一例としての遠隔コミュニケーションシステムSは、利用者が利用可能な端末の一例としてのテレプレゼンスロボット1,2を有する。テレプレゼンスロボット1,2は、互いに離れた設置場所3,4に設置されている。例えば、第1のテレプレゼンスロボット(第1の端末)1は、利用者の一例としての孫の住宅(第1の設置場所)3に設置され、第2のテレプレゼンスロボット2(第2の端末)は、利用者の一例としての祖父母の住宅(第2の設置場所)4に設置することが可能である。
FIG. 1 is an overall explanatory diagram of a telepresence system according to
In FIG. 1, a remote communication system S as an example of the telepresence system of the present invention has
図2は実施例1のテレプレゼンスロボットの説明図である。
図1、図2において、第1のテレプレゼンスロボット1は、台座部11を有する。台座部11には、上方に延びる柱部12が支持されている。柱部12の上端部には、上下(チルト)左右(パン)に移動可能な首振りヘッド(第1の傾斜部)13が支持されている。首振りヘッド13は、図示しない駆動源の駆動により、作動可能な従来公知の構成である。首振りヘッド13には、端末本体の一例としてのタブレット14が支持されている。タブレット14は、第1の表示部の一例であって、入力部の一例としてのタッチパネル14aを有する。タッチパネル14aは、映像を表示可能であるとともに、指やペン等の入力手段で触れることで入力が可能に構成されている。
FIG. 2 is an explanatory diagram of the telepresence robot of the first embodiment.
1 and 2, the
また、タブレット14には、第1の音声入力部の一例としてのマイク14bが設けられている。マイク14bは、利用者の音声のようなタブレット14の周囲の音声を取得可能である。さらに、タブレット14には、第1の音声出力部の一例としてのスピーカ(図示せず)も設けられている。
また、実施例1の第1のテレプレゼンスロボット1では、柱部12に、第1の撮影部の一例としてのカメラ16が設置されている。カメラ16は、利用者の映像等を取得可能である。
Further, the
Further, in the
なお、第2のテレプレゼンスロボット2は、第1のテレプレゼンスロボット1と同様に構成されているため、詳細な説明は省略する。すなわち、第2のテレプレゼンスロボット2は、第2の傾斜部の一例としての首振りヘッドや、第2の表示部の一例としてのタッチパネル、第2の音声入力部の一例としてのマイク、第2の撮影部の一例としてのカメラ、第2の音声出力部の一例としてのスピーカ等を有する。
各テレプレゼンスロボット1,2は、公衆回線の一例としてのインターネット回線21を介して情報通信可能に接続されている。なお、インターネット回線21には、有線接続でも無線接続でも任意の接続方式を採用可能である。
Since the
Each of the
(実施例1のテレプレゼンスロボット1の制御部の説明)
図3は実施例1の遠隔コミュニケーションシステムにおけるテレプレゼンスロボットの機能ブロック図である。
図3において、実施例1のテレプレゼンスロボット1,2の制御部31は、外部との信号の入出力および入出力信号レベルの調節等を行うI/O(入出力インターフェース)、必要な起動処理を行うためのプログラムおよびデータ等が記憶されたROM(リードオンリーメモリ)、必要なデータ及びプログラムを一時的に記憶するためのRAM(ランダムアクセスメモリ)、ROM等に記憶された起動プログラムに応じた処理を行うCPU(中央演算処理装置)ならびにクロック発振器等を有するコンピュータ装置により構成されており、前記ROM及びRAM等に記憶されたプログラムを実行することにより種々の機能を実現することができる。
前記テレプレゼンスロボット1,2の制御部31には、基本動作を制御する基本ソフト、いわゆる、オペレーティングシステムOS、アプリケーションプログラムの一例としてのコミュニケーションプログラム、その他の図示しないソフトウェアが記憶されている。
なお、以下の説明において、第1のテレプレゼンスロボット1について説明するが、第2のテレプレゼンスロボット2については、第1のテレプレゼンスロボット1と同様であるため、詳細な説明は省略する。
(Description of the control unit of the
FIG. 3 is a functional block diagram of a telepresence robot in the remote communication system of
In FIG. 3, the
The
In the following description, the
(実施例1の制御部31に接続された要素)
第1のテレプレゼンスロボット1の制御部31には、タッチパネル14aやマイク14bやカメラ16等の信号出力要素からの出力信号が入力されている。
また、実施例1の制御部31は、タッチパネル14aや首振りヘッド13、スピーカ等の被制御要素へ制御信号を出力している。
(Elements connected to the
The
Further, the
(第1のテレプレゼンスロボット1の機能)
実施例1の第1のテレプレゼンスロボット1の制御部31のコミュニケーションプログラムは、下記の機能手段(プログラムモジュール)を有する。
撮影手段41は、カメラ16を介して、映像を撮影する。なお、撮影手段41で撮影された映像は、インターネット回線21を介して第2のテレプレゼンスロボット2に送信される。
音声取得手段42は、マイク14bを介して、音声を取得する。音声取得手段42で取得された音声はインターネット回線21を介して第2のテレプレゼンスロボット2に送信される。
(Function of first telepresence robot 1)
The communication program of the
A photographing means 41 photographs an image via the
The voice acquisition means 42 acquires voice through the
動作判別手段43は、カメラ16の撮影した映像に基づいて、利用者の動作を判別する。実施例1の動作判別手段43は、カメラ16の映像から画像解析を行って、利用者の頭部を特定(目や鼻、口の検出)し、頭部の動作(首を縦に振る(頷き)、首を横に振る、首をかしげる等)を判別する。
実施例1では、動作判別手段43の判別結果は、第1のテレプレゼンスロボット1で使用されるとともに、第2のテレプレゼンスロボット2にも送信されるが、これに限定されない。例えば、相手方のテレプレゼンスロボット2に送信せず、相手方のテレプレゼンスロボット2から送信された映像から、相手方の動作を判別する構成とすることも可能である。
The motion discrimination means 43 discriminates the motion of the user based on the image captured by the
In the first embodiment, the determination result of the action determination means 43 is used by the
発話判別手段44は、マイク14bの取得した音声に基づいて、利用者の発話を判別する。実施例1の発話判別手段44は、予め定められた時間に達しない音声が取得された場合は、発話がされていないと判別する。実施例1では、一例として、予め定められた時間として2秒間が設定されている。したがって、会話時に、「うん」とか「へえ~」、「いや」といった同意や共感、否定等を示す際に発せられることがある短時間の発話については、利用者の会話における発話として判別しない。そして、2秒間を超える発話は、利用者が相手方と会話するために発した発話と判別する。なお、発話判別手段44も、動作判別手段43と同様に、相手方から送信された音声情報から相手方の発話の有無を判別する構成とすることも可能である。
The utterance discriminating means 44 discriminates the utterance of the user based on the voice acquired by the
画像表示手段45は、第2のテレプレゼンスロボット2の撮影手段41が撮影し、インターネット回線21を介して受信したものを、タッチパネル14aに表示する。
音声出力手段46は、第2のテレプレゼンスロボット2の音声取得手段42が取得し、インターネット回線21を介して受信したものを、スピーカから出力する。なお、実施例1の音声出力手段46は、発話判別手段44が発話と判別しなかった短時間の発話についても、スピーカから出力する。
The image display means 45 displays the image captured by the image capturing means 41 of the
The voice output means 46 outputs the voice acquired by the voice acquisition means 42 of the
傾斜制御手段47は、首振りヘッド13を制御して、タブレット14を傾斜させる。実施例1の傾斜制御手段47は、第1のテレプレゼンスロボット1において設置場所3の利用者(自分)の音声が入力され、且つ、第2のテレプレゼンスロボット2において設置場所4の利用者(相手)が予め定められた動作(頷き等)を行った場合に、第1のテレプレゼンスロボット1の首振りヘッド13を相手の動作に応じて傾斜させる。また、実施例1の傾斜制御手段47は、第2のテレプレゼンスロボット2において相手の音声が入力され、且つ、第1のテレプレゼンスロボット1において自分が発話をしていない場合に、第2のテレプレゼンスロボット2で予め定められた動作(頷き等)がされても、第1のテレプレゼンスロボット1の首振りヘッド13を作動させない。すなわち、発話している側(話し手)の首振りヘッド13は相手(聞き手)の動作に応じて作動するが、聞き手の首振りヘッド13は(話し手が頷いたりしても)作動しない。なお、両方が発話している場合(両方が話し手)では、両方の首振りヘッド13が相手方の頭部の動きに応じて作動する。
The tilt control means 47 controls the
実施例1の傾斜制御手段47は、動作判別手段43が判別した動作、例えば、首を縦に振る動作(頷き)や首を横に振る動作、首をかしげる動作に応じて、首振りヘッド13を作動させて、タブレット14を上下動させたり、左右に移動させたり、傾斜させる。なお、首振りヘッド13の作動は、相手方の頭部の移動量(傾斜角や移動速度等)に応じて作動させることも可能であるが、これに限定されない。例えば、第2のテレプレゼンスロボット2の動作判別手段43で「頷き」と判別され、第1のテレプレゼンスロボット1に「頷き」動作を示す信号が入力された場合に、「傾斜角5°の上下動を2往復する」といったように、所定の利用者の動作に対して、首振りヘッド13が所定の動作を行うように構成することも可能である。
The tilt control means 47 of the first embodiment controls the tilting
また、実施例1の傾斜制御手段47は、発話判別手段44が発話と判別しない場合には、首振りヘッド13を作動させない。すなわち、前述のように「うん」等の短時間の発話が検出されても、話し手とは判別されず、聞き手として判断され、首振りヘッド13は作動しない。したがって、実施例1では、首振りヘッド13の作動について、短時間の発話は形式的には無視される。
Further, the tilt control means 47 of the first embodiment does not operate the swinging
(実施例1の作用)
前記構成を備えた実施例1の遠隔コミュニケーションシステムSでは、離れた場所にいる祖父と孫とがコミュニケーションを取る場合、お互いのテレプレゼンスロボット1のタブレット14に互いの顔が映し出され、お互いの声でコミュニケーションが可能である。すなわち、従来と同様に、視覚と聴覚によるコミュニケーションが可能となっている。
そして、聞き手側が頷き等の動作を行った場合には、話し手側の首振りヘッド13が作動する。したがって、話し手側では、相手側が頷いたり、首を傾けたりといった動作を行った場合に、タブレット14が移動することで、相手側の同意や共感、疑問、不同意等が視覚的に認識できる。よって、タブレット14が傾斜しない場合に比べて、コミュニケーションが図られる。
(Action of Example 1)
In the remote communication system S of the first embodiment having the above configuration, when the grandfather and the grandchild who are in distant places communicate with each other, their faces are displayed on the
When the listener performs an action such as nodding, the oscillating
一方で、聞き手側では、首振りヘッド13が作動しない。聞き手側は、発話していないので、タブレット14で相手(話し手)を見ながら、話し手の発話を聞いていることが多い。このとき、話し手の動きに応じてタブレット14が頻繁に動くと、聞き手側からみると注目している画面が移動することになる。したがって、聞き手が、ストレスを感じたり、不快になったり、乗り物酔いのような状況になることもある。これらに対して、実施例1では、聞き手側のテレプレゼンスロボット1,2の首振りヘッド13は作動しない。したがって、聞き手がタブレット14に注目していても聞き手のストレスが軽減される。
On the other hand, on the listener's side, the
また、実施例1の遠隔コミュニケーションシステムSでは、短時間の発話がされた場合は、聞き手から話し手になったと判別されず、首振りヘッド13が作動しない。したがって、「うん」とか「うんうん」とか、「へえ~」といった発話を聞き手がした場合に、首振りヘッド13が動き出して聞き手がストレスを感じることが軽減される。
Further, in the remote communication system S of the first embodiment, when a short speech is made, it is not determined that the listener has changed to the speaker, and the swinging
(変更例)
以上、本発明の実施例を詳述したが、本発明は、前記実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内で、種々の変更を行うことが可能である。本発明の変更例(H01)~(H08)を下記に例示する。
(H01)前記実施例において、各テレプレゼンスロボット1,2に制御部31を設ける構成を例示したがこれに限定されない。インターネット回線21に接続されたサーバに制御部を設置して、テレプレゼンスロボット1,2をサーバが管理、制御する構成としたり、一方のテレプレゼンスロボットを親機とし、他方のテレプレゼンスロボットを子機として、親機が子機を管理、制御するような構成とすることも可能である。他にも、インターネット回線21に接続された複数の情報処理端末で分散処理するような構成とすることも可能である。
(Change example)
Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the scope of claims. It is possible. Modified examples (H01) to (H08) of the present invention are exemplified below.
(H01) In the above embodiment, the configuration in which each of the
(H02)前記実施例において、遠隔コミュニケーションシステムSとして2台のテレプレゼンスロボット1,2を使用する構成を例示したがこれに限定されない。3台以上のテレプレゼンスロボットを有するシステムとすることも可能である。
(H03)前記実施例において、動作の一例として、頷き(首の縦振り)と首の横振り、首をかしげる(首の傾斜)の3つの動作を例示したが、これに限定されない。例えば、要求される機能や仕様に応じて、頷きだけを判別する構成とすることも可能であるし、逆に、4つ以上の動作を判別する構成とすることも可能である。
(H02) In the above-described embodiment, the remote communication system S has two
(H03) In the above embodiment, three motions of nodding (vertical swing of the neck), lateral swing of the neck, and tilting of the neck (inclination of the neck) are illustrated as examples of motions, but the present invention is not limited to these. For example, depending on the required functions and specifications, it is possible to adopt a configuration that distinguishes only nodding, or conversely, it is also possible to adopt a configuration that distinguishes four or more motions.
(H04)前記実施例において、首振りヘッド13として、上下左右、傾き(回転)が可能な構成を例示したが、これに限定されない。例えば、要求される機能や仕様に応じて、頷きだけ行うようなテレプレゼンスロボットでは、上下動だけが可能な首振りヘッド13を採用したり、逆に、複雑な頭部の動きも伝達することが機能上要求される場合には、高性能の首振りヘッドを採用することも可能である。
(H04) In the above embodiment, the oscillating
(H05)前記実施例において、カメラ16を柱部12に設置する構成を例示したが、これに限定されない。例えば、タブレット14に設けられたカメラを使用することも可能である。ただし、この場合、聞き手が頷き動作を行うと、話し手のタブレット14が作動し、タブレットのカメラ16も一体的に移動して、撮影される画像が移動することとなって、結果的に聞き手方の画面に表示される画像が変動することとなるため、あまり好ましくない。
(H05) In the above embodiment, the configuration in which the
(H06)前記実施例において、利用者の一例として、祖父と孫を例示したがこれに限定されない。例えば、事業所間の会議や、入院中の患者と自宅の家族とのコミュニケーション、独居の高齢者と介助者や家族とのコミュニケーション、老人ホームにおける個室の高齢者と介助者や家族とのコミュニケーション、旅行先の飼い主と自宅のペットとのコミュニケーション等、任意のコミュニケーションの場において適用可能である。
(H07)前記実施例において、頷き等の動作の判別や、短時間の発話の有無の判別は、各テレプレゼンスロボット1,2で行って相手方に結果を送信して、首振りの制御をする構成を例示したがこれに限定されない。判別結果を送信せず、各端末において、相手方から送信された映像や音声から判別を行う構成とすることも可能である。
(H06) In the above embodiment, a grandfather and a grandchild were exemplified as an example of users, but the present invention is not limited to this. For example, meetings between offices, communication between hospitalized patients and their families at home, communication between elderly people living alone and their caregivers and family members, communication between elderly people in private rooms in nursing homes and their caregivers and family members, etc. It can be applied in any place of communication such as communication between an owner at a travel destination and a pet at home.
(H07) In the above-described embodiment, each of the
(H08)前記実施例において、端末本体として表示部や音声入力部を有するタブレット14を利用する構成を例示したがこれに限定されない。市販のタブレットを利用するのではなく、首振りヘッドに支持された表示パネルや、柱部12にマイクを設置する等、任意の変更が可能である。
(H08) In the above embodiment, the configuration using the
1…第1の端末、
2…第2の端末、
13…第1の傾斜部、第2の傾斜部、
14a…第1の表示部、第2の表示部、
14b…第1の音声入力部、第2の音声入力部、
16…第1の撮影部、第2の撮影部、
43…動作判別手段、
47…傾斜制御手段、
S…テレプレゼンスシステム。
1... the first terminal,
2 ... second terminal,
13 ... the first inclined portion, the second inclined portion,
14a... first display unit, second display unit,
14b... first voice input unit, second voice input unit,
16... First imaging unit, second imaging unit,
43 ... motion determination means,
47 ... tilt control means,
S... Telepresence system.
Claims (3)
前記第1の端末とは離間した場所に設置され、且つ、前記第1の端末とは情報の送受信が可能な第2の端末であって、第2の利用者の映像を取得する第2の撮影部と、第2の利用者の音声を取得する第2の音声入力部と、映像を表示する第2の表示部と、前記第2の表示部を傾斜させる第2の傾斜部と、を有する第2の端末と、
前記第1の撮影部および第2の撮影部のそれぞれの撮影した映像に基づいて、前記第1の利用者および前記第2の利用者のそれぞれの動作を判別する動作判別手段と、
前記第1の端末および前記第2の端末の一方において一方の利用者の音声が入力され、且つ、前記第1の端末および前記第2の端末の他方において他方の利用者が予め定められた動作を行った場合に、前記第1の端末および前記第2の端末の一方の端末の傾斜部を前記他方の利用者の動作に応じて傾斜させるとともに、前記第1の端末および前記第2の端末の他方の端末の傾斜部を動作させない傾斜制御手段と、
を備えたことを特徴とするテレプレゼンスシステム。 a first imaging unit that acquires an image of the first user; a first audio input unit that acquires the audio of the first user; a first display unit that displays the image; a first terminal having a first slope that slopes the display;
A second terminal that is installed at a location separated from the first terminal and that is capable of transmitting and receiving information to and from the first terminal, and that acquires an image of a second user. a shooting unit, a second audio input unit that acquires the voice of the second user, a second display unit that displays an image, and a second tilt unit that tilts the second display unit a second terminal having
Action discrimination means for discriminating respective actions of the first user and the second user based on images taken by the first imaging unit and the second imaging unit ;
One user's voice is input to one of the first terminal and the second terminal, and the other user performs a predetermined operation on the other of the first terminal and the second terminal is performed, the inclined portion of one of the first terminal and the second terminal is inclined according to the motion of the other user, and the first terminal and the second terminal tilt control means for not operating the tilt portion of the other terminal of the
A telepresence system comprising:
を備えたことを特徴とする請求項1に記載のテレプレゼンスシステム。 said tilt control means for tilting one of said first terminal and said second terminal in a vertical direction when the other user of said first terminal and said second terminal performs a nodding motion; The telepresence system of claim 1, comprising:
ことを特徴とする請求項1または2に記載のテレプレゼンスシステム。 3. The apparatus according to claim 1 or 2, wherein when the other terminal of the first terminal and the second terminal acquires a voice that does not reach a predetermined time, the voice input is ignored. A telepresence system as described.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018103648A JP7106097B2 (en) | 2018-05-30 | 2018-05-30 | telepresence system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018103648A JP7106097B2 (en) | 2018-05-30 | 2018-05-30 | telepresence system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019208167A JP2019208167A (en) | 2019-12-05 |
JP7106097B2 true JP7106097B2 (en) | 2022-07-26 |
Family
ID=68767902
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018103648A Active JP7106097B2 (en) | 2018-05-30 | 2018-05-30 | telepresence system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7106097B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7544072B2 (en) | 2020-02-04 | 2024-09-03 | ソニーグループ株式会社 | Information processing device and information processing method |
JPWO2023095531A1 (en) * | 2021-11-25 | 2023-06-01 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000349920A (en) | 1999-06-01 | 2000-12-15 | Interrobot Inc | Intention transmitter |
JP2012147420A (en) | 2010-12-22 | 2012-08-02 | Ricoh Co Ltd | Image processing device and image processing system |
JP2016208416A (en) | 2015-04-27 | 2016-12-08 | 日本電信電話株式会社 | Communication system and control method therefor |
JP2017092509A (en) | 2015-08-31 | 2017-05-25 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Method for generating control signal used for telepresence robot, telepresence system and computer program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9821455B1 (en) * | 2015-08-08 | 2017-11-21 | X Development Llc | Replacing a first robot with a second robot during performance of a task by the first robot |
-
2018
- 2018-05-30 JP JP2018103648A patent/JP7106097B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000349920A (en) | 1999-06-01 | 2000-12-15 | Interrobot Inc | Intention transmitter |
JP2012147420A (en) | 2010-12-22 | 2012-08-02 | Ricoh Co Ltd | Image processing device and image processing system |
JP2016208416A (en) | 2015-04-27 | 2016-12-08 | 日本電信電話株式会社 | Communication system and control method therefor |
JP2017092509A (en) | 2015-08-31 | 2017-05-25 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Method for generating control signal used for telepresence robot, telepresence system and computer program |
Non-Patent Citations (2)
Title |
---|
松坂 要佐、東條 剛史、小林 哲則,グループ会話に参与する対話ロボットの構築,電子情報通信学会論文誌,日本,電子情報通信学会,2001年06月01日,第J84-D-II巻 第6号,pp. 898 - 908 |
長谷川 孔明、中内 靖,遠隔参与者の発話機会増加のために身ぶりを誇張する遠隔会話ロボットの提案,電子情報通信学会技術研究報告 CNR2014-9-CNR2014-15 クラウドネットワークロボット,日本,電子情報通信学会,2014年09月19日,第114巻 第227号,pp. 5 - 10 |
Also Published As
Publication number | Publication date |
---|---|
JP2019208167A (en) | 2019-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10075491B2 (en) | Directing communications using gaze interaction | |
EP3047356B1 (en) | Configuration of a touch screen display for conferencing | |
US9263044B1 (en) | Noise reduction based on mouth area movement recognition | |
US8264518B2 (en) | Gesture-based actions in a video communication session | |
US11503162B2 (en) | Information processing apparatus and information processing method | |
JP2018067785A (en) | Communication robot system | |
KR20150128386A (en) | display apparatus and method for performing videotelephony using the same | |
JP2539153B2 (en) | Virtual conference system terminal device and virtual conference system | |
JP7106097B2 (en) | telepresence system | |
JP2016189534A (en) | Program and server device | |
KR20070029794A (en) | A method and a system for communication between a user and a system | |
JP6149433B2 (en) | Video conference device, video conference device control method, and program | |
JP2016189121A (en) | Information processing device, information processing method, and program | |
JP6435701B2 (en) | Control device | |
WO2020095714A1 (en) | Information processing device and method, and program | |
JPH09107534A (en) | Video conference equipment and video conference system | |
JP7361460B2 (en) | Communication devices, communication programs, and communication methods | |
JP2019176386A (en) | Communication terminals and conference system | |
JP6787078B2 (en) | Communication equipment, methods and programs | |
JP2000217091A (en) | Video conference system | |
JP7306765B2 (en) | Communication device, communication program and storage medium | |
US20240339116A1 (en) | Mitigating Speech Collision by Predicting Speaking Intent for Participants | |
WO2023032736A1 (en) | Communication assistance system, communication assistance method, and communication assistance program | |
WO2024154626A1 (en) | Electronic apparatus and program | |
JP2024088982A (en) | Information processing device, information processing system, control program, and control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20180629 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210514 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220620 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220706 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7106097 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |