JPH08163122A - Remote conference method - Google Patents
Remote conference methodInfo
- Publication number
- JPH08163122A JPH08163122A JP6304573A JP30457394A JPH08163122A JP H08163122 A JPH08163122 A JP H08163122A JP 6304573 A JP6304573 A JP 6304573A JP 30457394 A JP30457394 A JP 30457394A JP H08163122 A JPH08163122 A JP H08163122A
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- user
- shared window
- cursor
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Communication Control (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は通信方法に係り、特に、
通信回線により結合された複数の端末のそれぞれの利用
者が、音声による対話を行いつつ、各端末間でデータ通
信を行って情報を共有することにより、共同で情報処理
を進めることを可能とする、いわゆる遠隔会議の方法に
関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a communication method, and more particularly,
Allows users of multiple terminals connected by a communication line to carry out information processing jointly by performing data communication between terminals while sharing information while performing dialogue by voice. , The so-called remote conference method.
【0002】[0002]
【従来の技術】従来、遠隔地間の迅速な連絡の手段とし
て電話が最もよく用いられてきた。電話の利点は通信者
間の反応をリアルタイムで伝達できることと、音声とい
う人間にとって非常に理解しやすい情報を用いる点にあ
る。しかし、電話による音声のみで複雑な図面について
議論しようとすると、意志の疎通が極めて困難になるこ
とが多い。2. Description of the Related Art In the past, a telephone has been most often used as a means for quick communication between remote places. The advantage of the telephone is that it can convey the reaction between the correspondents in real time, and uses voice, which is very easy for humans to understand. However, it is often very difficult to communicate when trying to discuss a complicated drawing only by telephone voice.
【0003】一方、電子メールやファクシミリでは文書
や図面の送受信ができることから、遠隔地での情報共有
の手段として広く用いられている。しかし、これらの手
段は送信者と受信者が異なる時点で情報にアクセスする
システムであり、リアルタイムで情報処理を進めること
ができない。On the other hand, since electronic documents and drawings can be transmitted and received by electronic mail and facsimile, they are widely used as a means for sharing information at remote locations. However, these means are systems in which the sender and the receiver access information at different times, and cannot process information in real time.
【0004】そこで、音声を送受信しつつ、通信回線で
結合された端末装置により文書データを共有して、リア
ルタイムで共同での情報処理を進めることを可能とする
システムが提案されている。Therefore, a system has been proposed in which, while transmitting and receiving voice, terminal devices connected by a communication line share document data to enable joint information processing in real time.
【0005】通信回線で接続された二つの端末装置がそ
れぞれ電話機を備え、双方の端末の表示装置に同一の画
面を表示し、各表示画面上に自端末が制御するカーソル
と、相手端末が制御するカーソルとを同時に表示するこ
とにより、画面を参照しながらリアルタイムで会議を行
えるように構成したシステムが、例えば、特開昭62−53
084 号公報に開示されている。Two terminal devices connected by a communication line each have a telephone set, the same screen is displayed on the display devices of both terminals, and the cursor controlled by the own terminal and the other terminal are controlled on each display screen. A system configured to hold a conference in real time while referring to the screen by simultaneously displaying a cursor for
It is disclosed in Japanese Patent No. 084.
【0006】上記システムでは、音声と同一文書を複数
端末上で表示するための制御情報のみを送受信するの
で、いわゆる、テレビ会議システムと異なり大量の画像
情報をリアルタイムで送受信する必要がないので、端末
装置の設置コストが安く、また公衆電話回線など既存の
通信設備の上で実現可能な点に特徴がある。In the above system, since only the control information for displaying the same document as the voice on a plurality of terminals is transmitted / received, it is not necessary to transmit / receive a large amount of image information in real time unlike the so-called TV conference system. It is characterized by low equipment installation costs and that it can be implemented on existing communication equipment such as public telephone lines.
【0007】半面、話者の表情や動作などを画像として
は常時送受信しないので、特に三人以上の間で遠隔会議
を行う場合、共有画面に表示されているカーソルの制御
者および現在の話者を特定するためのなんらかの手段を
提供する必要がある。On the other hand, since the facial expressions and movements of the speaker are not always transmitted and received as images, especially when a teleconference is held among three or more people, the controller of the cursor displayed on the shared screen and the current speaker. Need to provide some means to identify
【0008】カーソルの制御者を特定するための手段が
特開平1−276892 号公報に開示されている。この発明で
は、各会議参加者に形・色などマークの異なるカーソル
を割り振ることにより、各カーソルの制御者を識別する
手段が提供されている。A means for specifying the controller of the cursor is disclosed in Japanese Patent Laid-Open No. 1-276892. The present invention provides means for identifying the controller of each cursor by allocating cursors with different marks such as shapes and colors to each conference participant.
【0009】現在の話者を特定するための手段は特開昭
64−49465 号公報に開示されている。この発明では、各
参加者を特定するための文字列または図形情報を表示
し、発言中は発言マークがそれら文字列または図形情報
の近傍に表示されることにより、現在の話者を認識でき
る手段が提供されている。Means for identifying the current speaker are disclosed in
It is disclosed in Japanese Patent Publication No. 64-49465. According to the present invention, a character string or graphic information for identifying each participant is displayed, and a speech mark is displayed near the character string or graphic information during a speech so that the present speaker can be recognized. Is provided.
【0010】[0010]
【発明が解決しようとする課題】カーソルの制御者を特
定するために提案されている従来発明では、三人以上が
同時に討論に参加するようなケースでは、カーソルが入
り乱れて動くため、カーソルマークの違いをもってして
も、カーソルと制御者の対応付けを自然にかつ迅速に行
うことが困難になるという問題があった。In the conventional invention proposed to identify the controller of the cursor, in the case where three or more people participate in the discussion at the same time, the cursor moves disorderly and the cursor mark moves. Even if there is a difference, there is a problem that it is difficult to naturally and quickly associate the cursor with the controller.
【0011】また、実際の討論のプロセスを思い浮かべ
ると、通常は、話手の表情の動き、特に口元を中心とす
る動きに注目することによって自然に話者を認識してい
る。このため、人工的なマーク表示によって発言者を明
示しようとする従来発明では、発言者が頻繁に入れ替わ
る場合、スムーズに会話の流れに追随することが感覚的
に困難になってくるという問題があった。[0011] Further, when the actual process of debate is imagined, usually, the speaker is naturally recognized by paying attention to the movement of the speaker's facial expression, especially the movement centering around the mouth. Therefore, in the conventional invention in which the speaker is clearly indicated by the artificial mark display, there is a problem in that it becomes difficult to smoothly follow the flow of conversation when the speakers are frequently replaced. It was
【0012】[0012]
【課題を解決するための手段】そこで、本発明では、各
端末画面上に会議参加者の肖像(顔,半身像または全身
像)が表示され、この肖像画と各参加者が制御するカー
ソルを、実線などで結んで表示することにより、カーソ
ルの制御者が一目瞭然に認識される。Therefore, in the present invention, a portrait (face, half-body or full-body image) of a conference participant is displayed on each terminal screen, and the portrait and the cursor controlled by each participant are displayed as follows. By displaying by connecting with a solid line, the controller of the cursor can be recognized at a glance.
【0013】また、ユーザは自由に共有画面制御権を取
得または放棄できる。そして、ユーザが制御するカーソ
ルは、このユーザが共有画面制御権を有している場合に
のみ、他ユーザの端末上に表示されるので、会議の進行
にさし当り必要のないカーソルまでが表示されて画面が
見づらくなるということがない。Further, the user can freely obtain or abandon the shared screen control right. The cursor controlled by the user is displayed on the other user's terminal only when the user has the shared screen control right. It does not make the screen hard to see.
【0014】また、本発明では、会議参加者の肖像の静
止画像を各端末に予め配付しておき、通信回線を通じて
送られてくる音声情報やカーソルの移動情報に基づい
て、上記画像を各端末上でコンピュータグラフィックス
(CG)技術により変形して、話手の身振りや表情とし
て表示する。Further, in the present invention, a still image of a portrait of a conference participant is distributed to each terminal in advance, and the image is displayed on each terminal based on voice information and cursor movement information sent through a communication line. The above is transformed by computer graphics (CG) technology and displayed as a gesture or expression of the speaker.
【0015】[0015]
【作用】本発明によれば、会議参加者の肖像画とその参
加者の制御するカーソルが実線などで結んで表示される
ので、あたかも参加者が指示棒を持って画面を指示する
かのごとく自然に各カーソルと参加者の対応が表現され
る。According to the present invention, the portrait of the conference participant and the cursor controlled by the participant are displayed by connecting with a solid line or the like, so that it is natural as if the participant points the screen with the pointing stick. The correspondence between each cursor and the participant is expressed in.
【0016】また、参加者の身振りや表情がCG処理に
より疑似的に表現されるので、通常の討論におけるのに
近い形で話手を識別することが可能である。このCG処
理は、各端末上で独立に行われるので、この処理に際
し、画像データを送受信する必要はない。Further, since the gestures and facial expressions of the participants are pseudo-expressed by the CG processing, it is possible to identify the speaker in a form similar to that in a normal discussion. Since this CG processing is performed independently on each terminal, it is not necessary to send and receive image data during this processing.
【0017】これらの作用により、画像データを常時に
は送受信しない遠隔会議システムでも、実際の討論の自
然さを再現することができる。Due to these actions, the naturalness of the actual discussion can be reproduced even in the teleconferencing system that does not constantly send and receive image data.
【0018】[0018]
【実施例】図1は本発明の一実施例としての通信端末装
置のブロック図である。図1では、二つの端末装置10
1,102が通信回線103により接続されている。入
力装置104は、マイクロフォンなどの音声入力手段と
キーボードやマウスなどのテキスト,図形情報の入力手
段を構成する。入力手段104より入力された入力デー
タは、通常の端末装置と同様にまず出力装置制御手段1
05を通して、自端末の出力装置106へ出力される。
出力装置106は、ディスプレイおよびスピーカより構
成されている。他方、入力データの内、相手端末102
に送信する必要のあるものは、送信データ生成手段10
7により、送信用データパケットに変換され、通信制御
手段108により相手端末に向け送信される。1 is a block diagram of a communication terminal device as an embodiment of the present invention. In FIG. 1, two terminal devices 10
1, 102 are connected by a communication line 103. The input device 104 constitutes a voice input means such as a microphone and a text and graphic information input means such as a keyboard and a mouse. The input data input from the input means 104 is first output device control means 1 as in a normal terminal device.
It is output to the output device 106 of the own terminal through 05.
The output device 106 includes a display and a speaker. On the other hand, of the input data, the partner terminal 102
Need to be transmitted to the transmission data generating means 10
7, the data packet is converted into a data packet for transmission, and is transmitted to the partner terminal by the communication control means 108.
【0019】同様に、相手端末102からもデータパケ
ットが送信されてくる。受信データ解析手段109は、
データパケットを受信すると、自端末内の出力装置制御
手段105に受付可能な形態に変換し、出力装置制御手
段105を通して、出力装置106へ出力する。Similarly, a data packet is transmitted from the partner terminal 102. The received data analysis means 109 is
When the data packet is received, it is converted into a form that can be accepted by the output device control means 105 in the own terminal, and is output to the output device 106 through the output device control means 105.
【0020】図1に示す装置では、自端末からの入力を
相手端末の出力装置にも反映することによって、遠隔会
議が可能となっている。図1では図面を簡潔にするた
め、二端末が通信回線により接続される様子を示した
が、本図の構成は直ちにそれ以上の個数の端末が接続さ
れる形態に拡張できる。In the device shown in FIG. 1, a remote conference is possible by reflecting the input from the own terminal on the output device of the other terminal. For simplification of the drawing, FIG. 1 shows a state in which two terminals are connected by a communication line, but the configuration of this figure can be immediately expanded to a form in which more terminals are connected.
【0021】図2は本発明の方法および装置を用いた遠
隔会議の実行時に見られるディスプレイ上の代表的な表
示例を示したものである。ディスプレイ201上には、
自端末からのみ制御可能なローカルウィンドウ202
と、他端末からも制御可能な共有ウィンドウ203が表
示されている。遠隔会議の実行に先立って、全ユーザに
は同一の文書が配付されており、各ユーザの共有ウィン
ドウ203内には、この文書の同一箇所が表示されてい
る。また、各ユーザは共有ウィンドウ203内の文書を
編集したり、表示部分を変更したりすることが可能であ
り、あるユーザが共有ウィンドウ203内の文書に対し
て行った操作は、直ちに全ユーザの共有ウィンドウに反
映される。FIG. 2 shows a typical display example on the display that is seen when performing a teleconference using the method and apparatus of the present invention. On the display 201,
Local window 202 that can be controlled only from its own terminal
The shared window 203 that can be controlled from other terminals is displayed. Prior to the execution of the remote conference, the same document is distributed to all users, and the same portion of this document is displayed in the shared window 203 of each user. Further, each user can edit the document in the shared window 203 and change the display portion, and the operation performed by a user on the document in the shared window 203 is immediately performed by all users. It is reflected in the shared window.
【0022】共有ウィンドウ203の傍らには、各ユー
ザの肖像204,205,206…(表情,上半身像ま
たは全身像)が表示されている。これらの肖像の画像デ
ータは共有ウィンドウに表示されている文書と同様に、
遠隔会議に先だって予め全ユーザに配付されている。Next to the shared window 203, portraits 204, 205, 206 ... (Facial expressions, upper body image or whole body image) of each user are displayed. The image data of these portraits, like the document displayed in the sharing window,
It is distributed to all users in advance of the remote conference.
【0023】現在話中のユーザに対しては、このユーザ
の肖像画の背景の輝度を上げるなどして、話手を特定で
きるようになっている。例えば、図2は、ユーザ1が話
中であることを示している。For the user who is currently talking, the speaker can be specified by increasing the brightness of the background of the portrait of this user. For example, FIG. 2 shows that user 1 is busy.
【0024】各ユーザの制御下にあるカーソルは通常は
自端末ディスプレイ上にのみ表示され、他のユーザの端
末画面上には表示されない。例えば、図2がユーザ2の
ディスプレイ上の表示を示したものであるとする。この
場合、ユーザ2が制御するカーソル207は、他のユー
ザのディスプレイ上には表示されない。更に、この場
合、ユーザ2は共有ウィンドウの制御を行うことができ
ない。これは、会議中には特に意図がなくても何気なく
カーソルを移動させることが起こりうるため、同時に表
示されるカーソルの数を減らして画面を見やすくすると
共に、徒に共有ウィンドウが操作されるのを防ぐためで
ある。The cursor under the control of each user is normally displayed only on the display of the own terminal and not on the terminal screens of other users. For example, assume that FIG. 2 shows a display on the display of the user 2. In this case, the cursor 207 controlled by the user 2 is not displayed on the display of another user. Further, in this case, the user 2 cannot control the shared window. This is because it is possible to move the cursor casually during a meeting even if there is no intention, so reduce the number of cursors displayed at the same time to make the screen easier to see and to prevent the shared window from being operated. This is to prevent it.
【0025】そこで、ユーザ2が共有ウィンドウ203
に表示されている文書の特定の位置をポイントしなが
ら、他のユーザに説明を行いたい場合は、それを明示的
に宣言する。具体的には、共有ウィンドウ制御開始メニ
ュー208を選択する。このメニューを選択するとそれ
まで他端末上では表示されていなかったユーザ2のカー
ソル207が他ユーザの端末上に表示される。Then, the user 2 shares the shared window 203.
If you want to explain to other users while pointing to a specific position in the document displayed in, declare it explicitly. Specifically, the shared window control start menu 208 is selected. When this menu is selected, the cursor 207 of the user 2 which has not been displayed on the other terminal until then is displayed on the terminal of the other user.
【0026】図3に、その状態を示す。カーソル(図示
せず)の位置とユーザ2の肖像205を矢実線210で結
んだ形で表示されている。話手から書類への指示棒が伸
びているようにみえるので、話手とカーソルの対応は一
目瞭然である。同時に、ユーザ2に共有ウィンドウ制御
権が付与され、ユーザ2による共有ウィンドウの制御が
可能となる。即ち、ユーザ2が行った共有ウィンドウ内
の文書への操作、例えば、カーソルで選択した文書領域
の移動,削除やキーボードによるテキスト入力が、全ユ
ーザの端末画面上に反映される。図3は、ユーザ1とユ
ーザ2が会話中であり、かつ両者が共有ウィンドウの制
御権を獲得している状態を示している。FIG. 3 shows the state. The position of the cursor (not shown) and the portrait 205 of the user 2 are displayed in a form connected by a solid arrow line 210. Since it seems that the pointer sticks to the document from the speaker, the correspondence between the speaker and the cursor is obvious. At the same time, the shared window control right is given to the user 2, and the shared window can be controlled by the user 2. That is, an operation performed on the document in the shared window by the user 2, for example, movement or deletion of the document area selected by the cursor or text input by the keyboard is reflected on the terminal screens of all the users. FIG. 3 shows a state in which the user 1 and the user 2 are in a conversation and both of them have the control right of the shared window.
【0027】なお、特に会話をしていなかったユーザが
いきなり共有ウィンドウを操作し始めるのは、他ユーザ
にとって極めて唐突な印象をうけるので、このように共
有ウィンドウ制御メニューの選択が受付可能となるため
の一定の条件を設定しておくのが自然である。例えば、
ユーザが話中であるか、最後に音声を発してから所定の
時間以内である場合にのみ、このユーザによる共有ウィ
ンドウ制御開始メニューの選択を受付けるようにする。It should be noted that the fact that the user who did not have a conversation suddenly starts operating the shared window gives a very abrupt impression to other users, and thus the selection of the shared window control menu can be accepted. It is natural to set certain conditions for. For example,
Only when the user is busy or within a predetermined time since the last utterance, the selection of the shared window control start menu by the user is accepted.
【0028】更に、本発明では、会議の臨場感を高める
ため、オプションとして次のような二つのユーザインタ
ーフェースを備える。Further, in the present invention, in order to enhance the realism of the conference, the following two user interfaces are optionally provided.
【0029】第一のインターフェースでは、図4に示す
ように、各ユーザの発する音声に対応して、ユーザの肖
像の口元を動かして表示する。例えば、肖像画204よ
り口唇部401の画像を切り出し、音声の母音部に応じ
て、口唇部画像を縦あるいは横に伸縮させる。この処理
は、各端末上でコンピュータグラフィックス(CG)処
理により実行される。従って、音声の送信側は、口唇部
の画像データは送信する必要がない。通常の討論の場で
は、我々は話手の表情、特に口元の動きを無意識のうち
に注目することにより、話手の入れ替わりに追随してい
る。インターフェースはこのような環境を疑似的に生成
することにより、会話の流れをより自然に把握せしめる
ためのものである。In the first interface, as shown in FIG. 4, the mouth of the portrait of the user is moved and displayed in accordance with the voice uttered by each user. For example, an image of the lip portion 401 is cut out from the portrait 204, and the lip portion image is expanded or contracted vertically or horizontally depending on the vowel portion of the voice. This processing is executed by computer graphics (CG) processing on each terminal. Therefore, the voice transmitting side does not need to transmit the image data of the lips. In ordinary discussions, we follow the switch of speakers by unconsciously paying attention to the expression of the speaker, especially the movement of the mouth. The interface is intended to allow the flow of conversation to be grasped more naturally by artificially creating such an environment.
【0030】第二のインターフェースでは、図5のよう
に、CG画像による会議参加者の全身像501が表示さ
れる。共有ウィンドウ制御権を得たユーザに対しては、
この全身像の手先から、このユーザが制御するカーソル
の位置に向けて指示棒502が伸びているイメージで、
カーソル位置が表現される。そして、カーソル位置に合
わせて、このユーザの全身像501は、腕の角度を変え
たり、体の向きをかえたりするなどの動きを示す。この
動きの画像データは、静止画として予め配付されている
ユーザの全身像に基づいて、各端末上でCGとして疑似
的に生成される。On the second interface, as shown in FIG. 5, the whole body image 501 of the conference participants by the CG image is displayed. For users who have shared window control,
An image in which the pointer 502 extends from the hand of this whole body image toward the position of the cursor controlled by this user.
The cursor position is represented. Then, in accordance with the cursor position, this whole-body image 501 of the user shows a movement such as changing the angle of the arm or changing the direction of the body. The image data of this movement is pseudo-generated as CG on each terminal based on the whole-body image of the user distributed in advance as a still image.
【0031】このインターフェースにより、各ユーザの
端末画面上では、あたかも会議参加者がOHP表示画面
のような大画面で表示された書類の前に集まって、指示
棒をもって画面を指し示しつつ討論しているかのような
イメージを疑似生成することができる。With this interface, on the terminal screen of each user, whether the meeting participants gather in front of a document displayed on a large screen such as an OHP display screen and discuss while pointing the screen with a pointing stick. An image like can be pseudo-generated.
【0032】図6は図1に示す通信端末装置を、マイク
ロプロセッサを用いて構成した場合のブロック図であ
る。図6では、入力手段としてマイクロフォン601,
マウス602およびキーボード603が、出力手段とし
てディスプレイ604およびスピーカ605が提供され
ている。これらの装置は、各入力装置毎のインターフェ
ース606,607,608,609および610を介
して、バス611に接続されている。バス611を通じ
てこれらの装置と接続されているCPU612はRAM613内部の
プログラムと共に、図1の送信データ生成手段,受信デ
ータ解析手段を構成する。そして、端末装置600は通
信インターフェース614を介して、全2重回線615
によって、他の同様の端末装置と接続されている。FIG. 6 is a block diagram when the communication terminal device shown in FIG. 1 is configured by using a microprocessor. In FIG. 6, the microphone 601, as the input means,
A mouse 602 and a keyboard 603 are provided, and a display 604 and a speaker 605 are provided as output means. These devices are connected to the bus 611 via the interfaces 606, 607, 608, 609 and 610 for each input device. The CPU 612, which is connected to these devices through the bus 611, constitutes the transmission data generation means and the reception data analysis means of FIG. Then, the terminal device 600 transmits the full duplex line 615 via the communication interface 614.
Is connected to other similar terminal devices.
【0033】図6に示した構成の端末装置によって、図
2から図5に示したユーザインタフェースを実現する処
理方式を流れ図を用いて説明する。A processing method for realizing the user interface shown in FIGS. 2 to 5 by the terminal device having the configuration shown in FIG. 6 will be described with reference to a flowchart.
【0034】図7は、CPU612が実行する制御プログラム
のフローチャートである。端末装置が起動されると、ま
ず初期設定処理701が実行される。ここでは、他端末
との通信チャンネルの確保や、共有ウィンドウのオープ
ンと配付文書の表示および会議参加者の肖像画表示など
の、会議開始に先立つ各種設定が行われる。これが終わ
ると、プログラムは割り込み待ち状態に入る(ステップ
702)。もし、終了割り込みがあれば、ステップ70
3で、通信チャンネルの解除,共有ウィンドウのクロー
ズ,本プログラム終了などの一連の終了処理を行う。FIG. 7 is a flow chart of a control program executed by the CPU 612. When the terminal device is activated, the initial setting process 701 is first executed. Here, various settings are performed prior to the start of the conference, such as securing a communication channel with another terminal, opening a shared window and displaying distributed documents, and displaying portraits of conference participants. When this is finished, the program enters the interrupt wait state (step 702). If there is an end interrupt, step 70
In step 3, a series of termination processes such as releasing the communication channel, closing the shared window, and ending this program are performed.
【0035】終了以外の割り込み検出時には、割り込み
の種類に応じた処理が行われる。本実施例では、音声入
力割り込み(ステップ704),マウス割り込み(70
5),キーボード割り込み(706),データ受信割り
込み(707)を検知すると、それぞれの割り込みに対
応する処理が非同期に実行される。When an interrupt other than the end is detected, a process according to the type of interrupt is performed. In this embodiment, a voice input interrupt (step 704) and a mouse interrupt (70
5) When the keyboard interrupt (706) and the data reception interrupt (707) are detected, the processing corresponding to each interrupt is executed asynchronously.
【0036】図8は音声入力割り込みルーチンの内容を
示すフローチャートである。図6の端末装置のマイクロ
フォン601から入力された音声がデコーダ606によ
りデジタルデータに符号化され、バス611に入力され
ると、CPU612はこれを割り込み信号として検出し、本ル
ーチンを起動する。ステップ801でCPU612は入力され
た音声データを読み込み、ステップ802で他端末へ送
信するためのデータパケットを生成した後、ステップ8
03で他の端末に向けてデータパケットを送信する。最
後に、ステップ804でタイマをリセットして、本ルー
チンを終了する。ステップ804は、共有ウィンドウ制
御開始コマンドの受付条件を制御するために設けてあ
る。FIG. 8 is a flow chart showing the contents of the voice input interrupt routine. When the voice input from the microphone 601 of the terminal device of FIG. 6 is encoded into digital data by the decoder 606 and input to the bus 611, the CPU 612 detects this as an interrupt signal and activates this routine. In step 801, the CPU 612 reads the input voice data, generates a data packet to be transmitted to another terminal in step 802, and then executes step 8
At 03, a data packet is transmitted to another terminal. Finally, in step 804, the timer is reset and this routine is finished. Step 804 is provided to control the acceptance condition of the shared window control start command.
【0037】図9で、ステップ802で生成されるデー
タパケット900の形式を示す。CPU612により、ヘッダ
部に送信元端末を一意に識別する識別子901が付加さ
れる。続く領域には、受信側でデータのタイプ(この場
合は音声データであること)を一意に識別できるように
するためにデータ識別子902を付加する。それに引き
続いて音声データ902が連結されて、一つのデータパ
ケットが形成される。FIG. 9 shows the format of the data packet 900 generated in step 802. The CPU 612 adds an identifier 901 that uniquely identifies the source terminal to the header part. A data identifier 902 is added to the following area so that the receiving side can uniquely identify the type of data (in this case, the data is voice data). Then, the audio data 902 is concatenated to form one data packet.
【0038】図10は、マウス割り込みルーチンの内容
を示すフローチャートである。ステップ1001では、
マウスからの入力信号を解釈し、コマンド文字列に変換
する。ここで、コマンド文字列とは、例えば、マウスの
移動による信号に対しては、マウス移動コマンドとマウ
スの新しい座標値の組み合わせであり、メニュー上での
マウスボタン・クリックの信号に対しては、このメニュ
ーに対応するコマンドである。このコマンドが共有ウィ
ンドウ制御開始コマンドであれば、ステップ1003に
分岐する。FIG. 10 is a flow chart showing the contents of the mouse interrupt routine. In step 1001,
Interpret the input signal from the mouse and convert it to a command string. Here, the command character string is, for example, a combination of a mouse movement command and a new coordinate value of the mouse for a signal by moving the mouse, and for a signal of a mouse button click on the menu, This is the command corresponding to this menu. If this command is the shared window control start command, the process branches to step 1003.
【0039】ここでタイマ値が設定値以下である、即
ち、ユーザが最後に音声を発してから一定時間以内であ
れば、ステップ1004でユーザに共有ウィンドウ制御
権を付与して処理を終了し、そうでなければ直ちに処理
を終了する。コマンドが共有ウィンドウ制御終了コマン
ドであれば、ステップ1006でユーザの共有ウィンド
ウ制御権を取り消す。Here, if the timer value is equal to or less than the set value, that is, if it is within a certain time since the user last uttered a voice, in step 1004, the shared window control right is given to the user and the process is terminated. Otherwise, the processing is immediately ended. If the command is the shared window control end command, the shared window control right of the user is revoked in step 1006.
【0040】それ以外のコマンドに対しては、以下の処
理が行われる。まず、ステップ1007で、コマンドを実行
し、実行結果を自画面に出力する。そして、ユーザに共
有ウィンドウ制御権がなければ本ルーチンを終了する。
このユーザに共有ウィンドウ制御権がある場合には、ス
テップ1009で、ユーザが制御するカーソルの現在位
置とユーザの肖像画との間に実線を描画する。For other commands, the following processing is performed. First, in step 1007, the command is executed and the execution result is output on the self-view screen. If the user does not have the shared window control right, this routine is finished.
If the user has the shared window control right, in step 1009, a solid line is drawn between the current position of the cursor controlled by the user and the portrait of the user.
【0041】また、入力されたコマンドの実行結果を他
の端末上にも反映する必要があるので、ステップ101
0でコマンド文字列を送信用データパケットに変換す
る。このデータパケットは、図9に示されるものと同様
な形式であるが、データ識別子はマウス入力であること
を示す識別子であり、データ部はステップ1001で生
成されたコマンド文字列である。そして、ステップ10
11で各端末に向けデータパケットが送信される。Further, since it is necessary to reflect the execution result of the input command also on other terminals, step 101
When 0, the command character string is converted into a transmission data packet. This data packet has a format similar to that shown in FIG. 9, except that the data identifier is an identifier indicating mouse input and the data portion is the command character string generated in step 1001. And step 10
At 11, a data packet is transmitted to each terminal.
【0042】図11には、キーボード入力割り込みルー
チンの処理内容が示してある。ステップ1101で、キ
ーボードからの入力信号を解釈し、コマンド文字列に変
換する。具体的には、キーボードより入力されたテキス
トと現在のカーソル位置から、テキスト挿入コマンドと
テキスト挿入位置および入力テキストを連結した文字列
がコマンド文字列として生成される。ステップ1102
で、生成されたコマンドを実行し、実行結果を自端末画
面に表示する。そして、ステップ1103で、ユーザに
共有ウィンドウ制御権がなければ、本ルーチンを終了す
る。ユーザに共有ウィンドウ制御権があれば、入力を他
端末にも反映させる必要があるので、ステップ1104
で、他端末へ送信するためのデータパケットを生成し、
ステップ106で送信処理を行う。FIG. 11 shows the processing contents of the keyboard input interrupt routine. In step 1101, the input signal from the keyboard is interpreted and converted into a command character string. Specifically, a character string obtained by concatenating the text insertion command, the text insertion position, and the input text is generated as a command character string from the text input from the keyboard and the current cursor position. Step 1102
Then, the generated command is executed and the execution result is displayed on the terminal screen. Then, in step 1103, if the user does not have the shared window control right, this routine ends. If the user has the shared window control right, it is necessary to reflect the input to other terminals as well, so step 1104
To generate a data packet to send to another terminal,
In step 106, transmission processing is performed.
【0043】図12は、データ受信割り込みルーチンの
内容を示すフローチャートである。まず、ステップ12
01で、データの送信元を識別する。次に、ステップ12
02でデータ識別子を読み込み、データのタイプを識別す
る。以降の処理はデータのタイプに応じて分岐する。デ
ータが音声データであれば、ステップ1204でデータ
パケットのデータ部である音声信号を図6のデコーダを
通してスピーカへ出力する。引き続いて話者を強調する
処理を行う場合には、ステップ1205へ進む。ここで
は、話者の肖像の背景が強調されたり、または、図4に
関連して説明したように、話者の肖像の口元部の画像を
音声の種類に応じてCG処理により変形して、話者が実
際に話しかけているかのような臨場感を疑似的に表現す
るなどの処理が行われる。FIG. 12 is a flow chart showing the contents of the data reception interrupt routine. First, step 12
In 01, the transmission source of data is identified. Then step 12
At 02, the data identifier is read and the type of data is identified. Subsequent processing branches depending on the type of data. If the data is voice data, a voice signal, which is the data portion of the data packet, is output to the speaker through the decoder of FIG. 6 in step 1204. When the process of emphasizing the speaker is subsequently performed, the process proceeds to step 1205. Here, the background of the portrait of the speaker is emphasized, or as described with reference to FIG. 4, the image of the mouth of the portrait of the speaker is transformed by CG processing according to the type of voice, Processing such as pseudo-expressing a realistic sensation as if the speaker is actually speaking is performed.
【0044】データがキーボード入力であれば、ステッ
プ1207でデータパケットのデータ部であるコマンド
文字列を読み込み、ステップ1208でコマンドを実行
する。If the data is keyboard input, the command character string which is the data part of the data packet is read in step 1207, and the command is executed in step 1208.
【0045】データがマウス入力である場合には、コマ
ンド文字列の内容に応じて以下のように処理が分岐す
る。コマンドがカーソル移動コマンドであれば、ステッ
プ1212で新しい位置にカーソルを移動する。コマンドが
データ送信元のユーザより発信された共有ウィンドウ制
御開始コマンドであれば、ステップ1214で新規にカ
ーソルを描画する。ステップ1212および1214に
引き続き、カーソル制御元のユーザを明示するために、
ステップ1215で、カーソル位置とカーソル制御元の
ユーザの肖像とを実線で結んで表示する。When the data is mouse input, the process branches as follows according to the contents of the command character string. If the command is a cursor movement command, the cursor is moved to a new position in step 1212. If the command is the shared window control start command issued by the user who is the data transmission source, a new cursor is drawn in step 1214. Continuing with steps 1212 and 1214, in order to specify the user who controls the cursor,
In step 1215, the cursor position and the portrait of the user who controlled the cursor are connected by a solid line and displayed.
【0046】更に、図7に関連して説明したようなイン
ターフェースを実現する場合には、ステップ1216で
カーソル制御者強調処理を行う。即ち、ここではカーソ
ル位置に応じて、カーソル制御元ユーザの肖像の腕の振
り上げ角度を計算し、CG処理により、肖像の画像を更
新する処理を行う。コマンドが共有ウィンドウ制御終了
コマンドであれば、ステップ1218でデータ発信元ユ
ーザの制御下にあったカーソルを消去する。上記以外の
コマンドであれば、ステップ1219でそれを実行す
る。Further, when the interface as described with reference to FIG. 7 is realized, the cursor control person emphasizing process is performed in step 1216. That is, here, the arm-raising angle of the portrait of the cursor control source user is calculated according to the cursor position, and the image of the portrait is updated by CG processing. If the command is the shared window control end command, the cursor under the control of the data source user is deleted in step 1218. If it is a command other than the above, it is executed in step 1219.
【0047】[0047]
【発明の効果】本発明によれば、実際の会議に近い自然
な対話環境を実現するにあたり、参加者の表情などを動
画像として常時には送受信する必要がないので、端末の
設置コストが安価であり、かつ低速で安価な通信回線を
用いて実現可能な遠隔会議システムが提供される。According to the present invention, in realizing a natural dialogue environment close to an actual conference, it is not necessary to constantly send and receive the facial expressions of participants as moving images, so that the terminal installation cost is low. There is provided a remote conference system that can be realized by using a low-speed and inexpensive communication line.
【図1】本発明の遠隔会議用端末装置のブロック図。FIG. 1 is a block diagram of a remote conference terminal device of the present invention.
【図2】本発明の遠隔会議用端末装置を用いて遠隔会議
を実行中の、画面表示の一例の説明図。FIG. 2 is an explanatory diagram showing an example of a screen display during execution of a remote conference using the remote conference terminal device of the present invention.
【図3】本発明の遠隔会議用端末装置を用いて遠隔会議
を実行中の、画面表示の第二の例の説明図。FIG. 3 is an explanatory diagram of a second example of screen display during execution of a remote conference using the remote conference terminal device of the present invention.
【図4】ユーザの肖像の説明図。FIG. 4 is an explanatory diagram of a portrait of a user.
【図5】会議参加者の説明図。FIG. 5 is an explanatory diagram of conference participants.
【図6】通信端末装置を、マイクロプロセッサを用いて
構成した場合のブロック図。FIG. 6 is a block diagram when the communication terminal device is configured using a microprocessor.
【図7】CPU612が実行する制御プログラムのフローチャ
ート。FIG. 7 is a flowchart of a control program executed by a CPU 612.
【図8】音声入力割り込みルーチンの内容を示すフロー
チャート。FIG. 8 is a flowchart showing the contents of a voice input interrupt routine.
【図9】ステップ802で生成されるデータパケット9
00の形式を示す説明図。FIG. 9 is a data packet 9 generated in step 802.
Explanatory drawing which shows the format of 00.
【図10】マウス割り込みルーチンの内容を示すフロー
チャート。FIG. 10 is a flowchart showing the contents of a mouse interrupt routine.
【図11】キーボード入力割り込みルーチンの処理内容
の説明図。FIG. 11 is an explanatory diagram of processing contents of a keyboard input interrupt routine.
【図12】データ受信割り込みルーチンの内容を示すフ
ローチャート。FIG. 12 is a flowchart showing the contents of a data reception interrupt routine.
104…入力装置、106…出力装置。 104 ... Input device, 106 ... Output device.
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/15 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical indication H04N 7/15
Claims (6)
れ、上記端末装置のそれぞれが表示画面と、上記表示画
面上の位置を指示するためのポインティング手段と、デ
ータおよびコマンドの入力手段と、上記画面内に他端末
からも制御可能な共有ウィンドウを有し、上記各端末装
置の利用者は、コマンドを投入することにより、上記共
有ウィンドウの操作権を取得および放棄することがで
き、上記共有ウィンドウの操作権取得中は、この利用者
が上記ポインティング手段または上記入力手段を用いて
行った上記共有ウィンドウの操作手続きを自端末上で実
行し、上記共有ウィンドウの操作手続きをパケットデー
タとして他の端末にも送信し、他の端末上では、受信し
た上記パケットデータから上記共有ウィンドウの操作手
続きを復元して実行して、上記パケットデータの送信側
端末の共有ウィンドウの状態を他の端末の上記共有ウィ
ンドウにも再現することにより、上記共有ウィンドウ上
の情報を介して端末利用者間の意志の疎通を図ることを
特徴とする遠隔会議の方法。1. A plurality of terminal devices are connected by a communication line, and each of the terminal devices has a display screen, pointing means for indicating a position on the display screen, data and command input means, and There is a shared window that can be controlled from other terminals on the screen, and the user of each terminal device can obtain and abandon the operation right of the shared window by entering a command. While acquiring the operation right of the above, this user executes the operation procedure of the shared window performed by the user using the pointing means or the input means on his / her own terminal, and the operation procedure of the shared window is used as packet data in another terminal. On other terminals, the operation procedure of the shared window is restored from the received packet data and executed. By reproducing the state of the shared window of the terminal that transmits the packet data in the shared window of another terminal, communication between the users of the terminals can be achieved through information on the shared window. And the method of remote conference.
が、上記共有ウィンドウの操作権を取得している間は、
自端末だけでなく他の端末の表示画面上にも、上記ポイ
ンティング手段が指示する画面上の位置にカーソルが表
示され、共有ウィンドウ操作権を放棄した場合には、上
記カーソルが自端末の表示画面上にのみ表示される遠隔
会議の方法。2. The method according to claim 1, wherein while the user of the terminal device obtains the operation right of the shared window,
A cursor is displayed not only on the own terminal but also on the display screens of other terminals at the position on the screen instructed by the pointing means, and when the shared window operation right is abandoned, the cursor is displayed on the display screen of the own terminal. The method of teleconferencing that only appears above.
の入出力手段を有し、上記通信回線を介して、上記パケ
ットデータと上記音声とが並列的に送受信される遠隔会
議の方法。3. The remote conference method according to claim 1, wherein each of the terminal devices has voice input / output means, and the packet data and the voice are transmitted / received in parallel via the communication line.
マを有し、端末より音声が送信される度に上記タイマの
値がリセットされ、上記タイマの値が所定の値以上にな
った場合には、上記共有ウィンドウ制御権が取得できな
くなる遠隔会議の方法。4. The method according to claim 3, wherein each of the terminal devices has a timer, the value of the timer is reset every time a voice is transmitted from the terminal, and the value of the timer becomes a predetermined value or more. There is a method of remote conferencing in which the shared window control right cannot be acquired.
者の肖像画が上記共有ウィンドウの周囲に配置されて会
議の構成図を形成し、ある利用者が共有ウィンドウ操作
権を取得している場合には、各端末装置の表示画面上
で、この利用者が制御しているカーソル位置とこの利用
者の肖像画とが幾何学的に連結していることが明らかな
表示を描画することにより、カーソルとその制御者の対
応を明示する遠隔会議の方法。5. The portrait according to claim 2, wherein the portraits of the users of the respective terminal devices are arranged around the shared window to form a conference block diagram, and a certain user has acquired the shared window operation right. In this case, by drawing a display on the display screen of each terminal device, it is clear that the cursor position controlled by this user and the portrait of this user are geometrically connected, A teleconferencing method that specifies the correspondence between the cursor and its controller.
者の肖像画が上記共有ウィンドウの周囲に配置されて会
議の構成図を形成し、ある利用者が音声を送信中の場
合、または、上記共有ウィンドウを制御中の場合には、
この利用者の入力に応じて、この利用者の肖像画の全部
もしくは一部を、各端末側でコンピュータグラフィック
ス処理により変形処理して表示することにより、他の利
用者に対して、この利用者が入力動作を行っていること
を疑似的に表現する遠隔会議の方法。6. The method according to claim 3, wherein a portrait of the user of each of the communication terminals is arranged around the shared window to form a block diagram of the conference, and a user is transmitting voice, or If you are controlling the shared window,
According to this user's input, all or part of the portrait of this user is transformed and displayed by computer graphics processing on each terminal side, and is displayed to other users. A method of teleconferencing that artificially expresses that a person is performing an input operation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6304573A JPH08163122A (en) | 1994-12-08 | 1994-12-08 | Remote conference method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6304573A JPH08163122A (en) | 1994-12-08 | 1994-12-08 | Remote conference method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08163122A true JPH08163122A (en) | 1996-06-21 |
Family
ID=17934623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6304573A Pending JPH08163122A (en) | 1994-12-08 | 1994-12-08 | Remote conference method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08163122A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010219728A (en) * | 2009-03-16 | 2010-09-30 | Brother Ind Ltd | Display control unit, method of controlling and processing display, and control program |
US9001486B2 (en) | 2005-03-01 | 2015-04-07 | X2Y Attenuators, Llc | Internally overlapped conditioners |
US9019679B2 (en) | 1997-04-08 | 2015-04-28 | X2Y Attenuators, Llc | Arrangement for energy conditioning |
US9036319B2 (en) | 1997-04-08 | 2015-05-19 | X2Y Attenuators, Llc | Arrangement for energy conditioning |
US9054094B2 (en) | 1997-04-08 | 2015-06-09 | X2Y Attenuators, Llc | Energy conditioning circuit arrangement for integrated circuit |
WO2022249900A1 (en) * | 2021-05-26 | 2022-12-01 | Necソリューションイノベータ株式会社 | Information processing device |
-
1994
- 1994-12-08 JP JP6304573A patent/JPH08163122A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9019679B2 (en) | 1997-04-08 | 2015-04-28 | X2Y Attenuators, Llc | Arrangement for energy conditioning |
US9036319B2 (en) | 1997-04-08 | 2015-05-19 | X2Y Attenuators, Llc | Arrangement for energy conditioning |
US9054094B2 (en) | 1997-04-08 | 2015-06-09 | X2Y Attenuators, Llc | Energy conditioning circuit arrangement for integrated circuit |
US9373592B2 (en) | 1997-04-08 | 2016-06-21 | X2Y Attenuators, Llc | Arrangement for energy conditioning |
US9001486B2 (en) | 2005-03-01 | 2015-04-07 | X2Y Attenuators, Llc | Internally overlapped conditioners |
JP2010219728A (en) * | 2009-03-16 | 2010-09-30 | Brother Ind Ltd | Display control unit, method of controlling and processing display, and control program |
WO2022249900A1 (en) * | 2021-05-26 | 2022-12-01 | Necソリューションイノベータ株式会社 | Information processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5491743A (en) | Virtual conference system and terminal apparatus therefor | |
JP2537024B2 (en) | Audio conference system and control method thereof | |
US6100882A (en) | Textual recording of contributions to audio conference using speech recognition | |
JPH08509310A (en) | System for collaborative operation with computer support | |
JP2003345379A6 (en) | Audio-video conversion apparatus and method, audio-video conversion program | |
JP2539153B2 (en) | Virtual conference system terminal device and virtual conference system | |
KR20220104772A (en) | Interaction methods and electronic devices | |
CN110473550A (en) | Voice communication method, device and storage medium | |
JPH08163122A (en) | Remote conference method | |
EP0663771B1 (en) | Method of transmitting signals between communication stations | |
JP3283506B2 (en) | Multimedia telemeeting terminal device, terminal device system, and operation method thereof | |
CN116800706A (en) | Communication method, device, equipment and storage medium | |
JPH04339484A (en) | Remote conference device | |
US5801757A (en) | Interactive communication device | |
US20110249084A1 (en) | Method and Arrangement For Connecting At Least One Man-Machine Interface For Manipulating At Least One Data Source Connected To A Video Conferencing System Within The Scope Of Video Conferences | |
JP2001325202A (en) | Conversation method in virtual space and system therefor | |
JP3340497B2 (en) | Teleconference equipment | |
JP3449772B2 (en) | Multipoint conference equipment | |
JPH07298235A (en) | Video conference equipment and pointing cursor display control method | |
JP4776363B2 (en) | Communication terminal device and communication system | |
JPH07284076A (en) | Electronic conference display system | |
JP2003339034A (en) | Network conference system, network conference method, and network conference program | |
JP2001357414A (en) | Animation communicating method and system, and terminal equipment to be used for it | |
CN118018677B (en) | Video conference interaction method and system and electronic equipment | |
JPH08251566A (en) | Television conference device |