[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3466143B2 - Distributed virtual environment computer system for learning foreign languages - Google Patents

Distributed virtual environment computer system for learning foreign languages

Info

Publication number
JP3466143B2
JP3466143B2 JP2000271115A JP2000271115A JP3466143B2 JP 3466143 B2 JP3466143 B2 JP 3466143B2 JP 2000271115 A JP2000271115 A JP 2000271115A JP 2000271115 A JP2000271115 A JP 2000271115A JP 3466143 B2 JP3466143 B2 JP 3466143B2
Authority
JP
Japan
Prior art keywords
virtual environment
instruction
avatar
display
foreign language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000271115A
Other languages
Japanese (ja)
Other versions
JP2002083319A (en
Inventor
東平 新田
Original Assignee
東平 新田
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 東平 新田 filed Critical 東平 新田
Priority to JP2000271115A priority Critical patent/JP3466143B2/en
Publication of JP2002083319A publication Critical patent/JP2002083319A/en
Application granted granted Critical
Publication of JP3466143B2 publication Critical patent/JP3466143B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、コンピュータネ
ットワークにより実現される分散仮想環境において、外
国語によるコミュニケーション能力を修得するためのシ
ステムに関し、特に、日常空間とは感覚の異なる仮想空
間においていわゆるアバターを介して参加者同士が互い
に交流しあうことにより、当該の言語が有する本来のコ
ミュニケーションの機能を効果的に修得するのためのコ
ンピュータシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system for acquiring communication ability in a foreign language in a distributed virtual environment realized by a computer network, and more particularly to a so-called avatar in a virtual space having a different feeling from everyday space. The present invention relates to a computer system for effectively learning the original communication function of the relevant language by allowing participants to interact with each other through.

【0002】[0002]

【従来の技術】外国語の習得において最も効果的なの
は、その外国語が日常的に使用される環境に身を置くこ
とである。しかし、実際の問題としてそのような環境を
実現することは、経済的にも地理的にも困難が伴う。ま
して、学校など、ある規模の集団において外国語の修得
を行なう場合にそうした環境を日常的に実現することは
極めて難しい。
BACKGROUND OF THE INVENTION The most effective way to learn a foreign language is to put yourself in an environment where the foreign language is used on a daily basis. However, as a practical matter, achieving such an environment involves both economic and geographical difficulties. Moreover, it is extremely difficult to realize such an environment on a daily basis when a foreign language is acquired in a group of a certain size such as a school.

【0003】従来の語学学習で最もよく用いられている
手法は、一人の教師が多数の学習者を相手にして、会話
文を繰返し発音させる、というものである。単にこうし
た手法だけでは当該言語の語法の理解にはなっても、言
語本来の意思伝達能力の獲得には効果が少ないことはこ
れまで多くの機会に強調されてきた。そこで、副次的に
学習者同士で、または学習者のグループで、互いに外国
語で会話させることによって学習の効果をあげる手法も
試みられてきた。しかし、その場合にも、教室で買物の
会話をするなど会話の内容に合った環境や状況設定が出
来ないことが多いので、言語と、それが表現する概念の
結び付きが希薄である、学習者各々にとって自らのニー
ズがなく、単なる言葉の羅列になってしまう、などの理
由によって、効果的に外国語の修得を行なうことはでき
なかった。
The most commonly used method in the conventional language learning is that one teacher repeatedly speaks a conversational sentence against many learners. It has been emphasized on many occasions that even if such a method is sufficient for understanding the usage of the language, it is not effective for acquiring the original communication ability of the language. Therefore, there has also been attempted a method of enhancing the learning effect by having the learners or groups of learners secondarily talk with each other in a foreign language. However, even in that case, it is often impossible to set the environment and situation that match the conversation content, such as having a shopping conversation in the classroom, so the language and the concept expressed by it are weakly linked. It was not possible to effectively acquire a foreign language because, for example, each had no own needs and became a mere list of words.

【0004】最近では、コンピュータの性能の向上、お
よびCD−ROM(Compact Disc Read-Only Memory)
またはDVD(Digital Video Disc)などの記憶媒体の
記憶容量の増大により、予め様々なストーリーを設定
し、いわゆるインタラクティブな処理によって学習者の
反応を引き出し、その反応によってストーリーの展開を
変えるような学習システムも提供されている。
Recently, computer performance has been improved and CD-ROM (Compact Disc Read-Only Memory)
A learning system in which various stories are set in advance due to an increase in the storage capacity of a storage medium such as a DVD (Digital Video Disc), so that the learner's reaction is elicited by so-called interactive processing, and the development of the story is changed by the reaction. Is also provided.

【0005】[0005]

【発明が解決しようとする課題】しかし、コンピュータ
とCD−ROMなどを用いたシステムにおいても、学習
者の役割は単なるロールプレイであって、目的を持った
真のコミュニケーションが行なわれるのではない。結局
は予め準備された範囲での学習しか期待できない。
However, even in a system using a computer and a CD-ROM, the role of the learner is merely role play, and true communication with a purpose is not performed. After all, we can only expect learning within the range prepared in advance.

【0006】むしろ、多数の参加者が、それぞれの考え
と価値観とに基づいて、外国語で生活する場を実現し、
それによって効率的に外国語の習得を行えるようにする
ことが好ましい。
Rather, a large number of participants realize a place to live in a foreign language based on their thoughts and values,
Therefore, it is preferable that the foreign language can be efficiently acquired.

【0007】したがってこの発明の目的は、複数の参加
者が、自らの目的をもった真のコミュニケーションを行
なうことによって、当該の外国語で生活する体験を得る
場を分散仮想環境によるコンピュータシステムによって
提供することである。
Therefore, an object of the present invention is to provide a place in which a plurality of participants can gain the experience of living in the foreign language by performing true communication for their own purpose by a computer system in a distributed virtual environment. It is to be.

【0008】この発明の他の目的は、複数の参加者の間
の相互対話によって各参加者の外国語による生活体験を
支援するためのシステムにおいて、言語と、その背後の
コンセプトとの間の関係を現実のものとし、それによっ
て外国語の習得をするための分散仮想環境コンピュータ
システムを提供することである。
Another object of the present invention is to provide a system for supporting each participant's experience of living in a foreign language through interaction between the participants, the relationship between language and the concept behind it. To provide a distributed virtual environment computer system for learning foreign languages.

【0009】[0009]

【課題を解決するための手段】第1の発明にかかる、コ
ンピュータネットワーク上において、外国語で生活する
ための仮想の場を分散仮想環境により実現するためにコ
ンピュータネットワークに接続される、外国語修得のた
めの分散仮想環境コンピュータシステムは、使用者の発
する音声を電気信号に変換するための音声変換手段と、
電気信号を音声に変換するための音声再生手段と、使用
者の身体的動きを検知して、分散仮想環境に対する指示
を生成するための指示生成手段と、ディスプレイと、ネ
ットワーク、音声変換手段、音声再生手段、ディスプレ
イ、および指示生成手段に接続され、ネットワークを介
して受信した情報、あらかじめ準備される、仮想環境を
実現するために必要な情報、および指示生成手段から与
えられた指示を処理して仮想環境を維持するとともに、
ディスプレイおよび音声再生手段を駆動して、仮想環境
における参加者の活動を維持する機能、ならびに指示生
成手段から与えられる指示および音声変換手段から与え
られる電気信号に応答して、他のコンピュータシステム
に与えるべき情報をネットワーク上の予め定められた宛
先に送信する通信機能とを実現するようにプログラムさ
れたコンピュータとを含み、仮想環境における参加者の
活動を維持する機能は、分散仮想環境コンピュータシス
テムにより実現される仮想環境に対する参加者のアバタ
ーのアニメーション表示、および使用者のアバターに関
連して定められる視点からの仮想環境の表示をディスプ
レイ上に行なうための手段を含み、指示生成手段は、使
用者の手の動作を画像処理により認識して、使用者のア
バターに所定の動作をさせるための指示を生成するため
の手段を含む。コンピュータは、仮想環境内のいずれか
の参加者が指定した、仮想環境内の他の参加者に対して
提示すべき提示物をディスプレイ上に表示するようにさ
らにプログラムされている。またこのコンピュータは、
提示物の画像を、使用者のアバターの視点とは異なる
定の視点から見た形でディスプレイに表示するようにプ
ログラムされている。
According to the first aspect of the present invention, on a computer network, a foreign language acquisition, which is connected to a computer network to realize a virtual place for living in a foreign language by a distributed virtual environment, is acquired. A distributed virtual environment computer system for a voice conversion means for converting a voice emitted by a user into an electric signal,
A voice reproducing means for converting an electric signal into a voice, an instruction generating means for detecting a physical movement of a user and generating an instruction for a distributed virtual environment, a display, a network, a voice converting means, a voice It is connected to a reproducing means, a display, and an instruction generating means, and receives information received via a network, information prepared in advance, necessary for realizing a virtual environment, and an instruction given from the instruction generating means. While maintaining a virtual environment,
A function of driving a display and a sound reproducing means to maintain the activity of a participant in a virtual environment, and giving to another computer system in response to an instruction given from an instruction generating means and an electric signal given from a voice converting means. And a computer programmed to realize a communication function for transmitting necessary information to a predetermined destination on the network, and a function for maintaining the activity of the participants in the virtual environment is realized by the distributed virtual environment computer system. Of the participant's avatar to the virtual environment that is displayed and the avatar of the user.
The instruction generating means includes means for displaying on the display the virtual environment from the viewpoints defined consecutively , and the instruction generating means recognizes the motion of the user's hand by image processing, and performs a predetermined motion on the avatar of the user. And means for generating an instruction to The computer is further programmed to display on the display a presentation specified by any of the participants in the virtual environment to be presented to other participants in the virtual environment. This computer also
The image representations are programmed to display on a display in a form as viewed from the perspective of different single <br/> constant the viewpoint of the user's avatar.

【0010】第1の発明によれば、指示生成手段が使用
者の手の動作を認識し、使用者の意思を認知し、その認
知にしたがってアバターの行動に対する指示を生成す
る。使用者は、アバターに対する指示を出すためにディ
スプレイから目を離す必要がなく、簡単な手の操作で必
要な指示を行うことができる。また、参加者がアバター
でディスプレイにアニメーション表示されるとともに、
音声変換手段、音声再生手段によって参加者同士が外国
語で対話することができ、参加者が分散仮想環境で当該
外国語で交流するコミュニティを形成することができ
る。分散仮想環境は現実世界の延長ともいえる環境では
あるが、一方でその参加者がみな同じ外国語を話すこと
が想定されているという意味で現実社会とは区別された
環境であり、使用者が外国語のみを使用して他と対話を
試みるのが容易であるという特性を持つ。したがって、
この分散仮想環境コンピュータシステムによって分散仮
想環境によるコミュニティに参加し、アバターによって
現実と同様に活動することにより、外国語の習得がより
効率的に行なわれる。またこのシステムでは、仮想環境
への参加者によって指定された提示物を、他の参加者に
対して提示することができる。使用者は仮想空間で行な
われる他の参加者とのコミュニケーションに加え、他の
参加者により提示された物を認識しコミュニケーション
ンにより得られた外国語での知識とその提示物との間の
関連付けをすることが容易になる。その結果、仮想空間
において外国語の言葉の背後にあるコンセプトを容易に
理解することができ、外国語の修得が効率的に行える。
仮想環境は、使用者のアバターに関連して定められる視
点から表示されるのに対し、提示物はどの参加者に対し
ても、各参加者のアバターの視点とは異なる一定の視点
から見た形で表示される。現実の世界と異なり、全ての
参加者が同じ提示物を同じように見ながら外国語でその
提示物に関してコミュニケーションをすることができ
る。その結果、その外国語の言葉と、その背後にあるコ
ンセプトとを、提示物に関連してより容易に関係付け、
理解することが可能になる。
According to the first aspect of the invention, the instruction generating means recognizes the motion of the user's hand, recognizes the intention of the user, and generates an instruction for the action of the avatar according to the recognition. The user does not have to take his eyes off the display in order to give an instruction to the avatar, and can give the required instruction with a simple hand operation. In addition, participants will be animated on the display with avatars,
The voice conversion means and the voice reproduction means allow the participants to talk in a foreign language and form a community in which the participants can interact in the foreign language in a distributed virtual environment. The distributed virtual environment is an extension of the real world, but on the other hand, it is assumed that all the participants speak the same foreign language, so it is an environment distinct from the real world, and users are It has the property that it is easy to try to interact with others using only foreign languages. Therefore,
By using this distributed virtual environment computer system to participate in a community in a distributed virtual environment and to act in the same manner as reality by an avatar, learning of a foreign language can be performed more efficiently. Further, in this system, the presentation object designated by the participant in the virtual environment can be presented to other participants. In addition to communicating with other participants in the virtual space, the user recognizes the objects presented by the other participants and associates the knowledge in the foreign language acquired by communication with the objects presented. Will be easier to do. As a result, the concept behind the foreign language can be easily understood in the virtual space, and the foreign language can be efficiently acquired.
The virtual environment is a visual environment defined in relation to the user's avatar.
While the presentation is presented from a point, the presentation is for all participants a fixed viewpoint that is different from the viewpoint of each participant's avatar.
It is displayed as seen from . Unlike the real world, all participants can see the same presentation in the same way and communicate in that language in a foreign language. As a result, it is easier to relate the foreign language and the concept behind it in relation to the presentation,
It becomes possible to understand.

【0011】第2の発明にかかる外国語修得のための分
散仮想環境コンピュータシステムは、第1の発明の構成
に加えて、指示を生成するための手段は、使用者の手の
動作を認識して、使用者のアバターに所定の表情をさせ
るための指示を生成するための手段を含む。
In the distributed virtual environment computer system for foreign language learning according to the second invention, in addition to the configuration of the first invention, the means for generating an instruction recognizes the motion of the user's hand. And means for generating an instruction for causing the user's avatar to have a predetermined facial expression.

【0012】第2の発明によれば、使用者の手の動作に
よって、アバターに所定の表情をさせることができる。
使用者はディスプレイから目を離さずに、自己のアバタ
ーの表情で他の参加者のアバターと交渉を持つことがで
き、仮想空間での他の参加者とのコミュニケーションが
より容易になる。その結果、仮想空間において他の参加
者との外国語でのコミュニケーションが容易に行え、外
国語の修得が効率的に行える。
According to the second aspect of the invention, the avatar can be made to have a predetermined expression by the motion of the user's hand.
The user can negotiate with other participants' avatars with his / her own avatar's expression without taking his eyes off the display, which facilitates communication with other participants in the virtual space. As a result, it is possible to easily communicate with other participants in a foreign language in the virtual space, and efficiently learn the foreign language.

【0013】第3の発明にかかる外国語修得のための分
散仮想環境コンピュータシステムは、第1の発明の構成
に加えて、指示を生成するための手段は、使用者の手の
動作を認識して、ディスプレイに表示される仮想環境の
画像の生成時の視点を移動させるための指示を生成する
ための手段を含む。
In a distributed virtual environment computer system for foreign language acquisition according to a third aspect of the invention, in addition to the configuration of the first aspect of the invention, the means for generating an instruction recognizes the motion of the user's hand. And a means for generating an instruction for moving the viewpoint when the image of the virtual environment displayed on the display is generated.

【0014】第3の発明によれば、使用者の手の動作に
よって、仮想環境の画像の生成時の視点を移動させるこ
とができる。使用者はディスプレイから目を離さずに、
仮想環境に対する視点を変えることができ、仮想空間で
の他の参加者相互の位置関係および自分との相対的位置
ならびに環境を容易に理解することができる。他の参加
者とのコミュニケーションおよび仮想環境に存在する事
物に対する認識がより容易になる。その結果、仮想空間
において他の参加者との外国語でのコミュニケーション
が容易に行え、かつ外国語の言葉の背後にあるコンセプ
トを容易に理解することができ、外国語の修得が効率的
に行える。
According to the third invention, the viewpoint at the time of generating the image of the virtual environment can be moved by the motion of the hand of the user. The user does not take their eyes off the display,
The viewpoint of the virtual environment can be changed, and the positional relationship between other participants in the virtual space and their relative positions to themselves and the environment can be easily understood. Communication with other participants and recognition of things existing in the virtual environment become easier. As a result, it is possible to easily communicate with other participants in a foreign language in the virtual space, easily understand the concept behind the foreign language, and efficiently learn the foreign language. .

【0015】第4の発明にかかる外国語修得のための分
散仮想環境コンピュータシステムは、第1の発明の構成
に加えて、指示を生成するための手段は、使用者の手の
動作を認識して、ディスプレイに表示される仮想環境の
画像の生成時の視角を変化させるための指示を生成する
ための手段を含む。
In a distributed virtual environment computer system for foreign language acquisition according to a fourth aspect of the invention, in addition to the configuration of the first aspect of the invention, the means for generating an instruction recognizes the motion of the user's hand. And a means for generating an instruction for changing the viewing angle when the image of the virtual environment displayed on the display is generated.

【0016】第4の発明によれば、使用者の手の動作に
よって、仮想環境の画像の生成時の視角を変化させるこ
とができる。使用者はディスプレイから目を離さずに、
仮想環境を見る視角を変えることができ、仮想空間での
他の参加者の位置および環境を容易に理解することがで
きる。他の参加者とのコミュニケーションおよび仮想環
境に存在する事物に対する認識がより容易になる。その
結果、仮想空間において他の参加者との外国語でのコミ
ュニケーションが容易に行なえ、かつ外国語の言葉の背
後にあるコンセプトを容易に理解することができ、外国
語の修得が効率的に行える。
According to the fourth aspect of the invention, the viewing angle at the time of generating the image of the virtual environment can be changed by the motion of the hand of the user. The user does not take their eyes off the display,
The viewing angle of viewing the virtual environment can be changed, and the position and environment of other participants in the virtual space can be easily understood. Communication with other participants and recognition of things existing in the virtual environment become easier. As a result, it is possible to easily communicate with other participants in a foreign language in a virtual space, easily understand the concept behind the foreign language, and learn the foreign language efficiently. .

【0017】[0017]

【0018】[0018]

【0019】第の発明にかかる外国語修得のための分
散仮想環境コンピュータシステムは、第の発明の構成
に加えて、指示を生成するための手段は、使用者の手の
動作を認識して、ディスプレイに表示される画像を、仮
想環境の画像と、提示物の拡大表示との間で切り替える
ための指示を生成するための手段を含む。
In a distributed virtual environment computer system for foreign language acquisition according to a fifth aspect of the invention, in addition to the configuration of the first aspect of the invention, the means for generating an instruction recognizes the motion of the user's hand. And a means for generating an instruction to switch the image displayed on the display between the image of the virtual environment and the enlarged display of the presentation.

【0020】第の発明によれば、使用者は、手の動作
によって、ディスプレイから目を離さずに、仮想環境の
画像と提示物の拡大表示とを切り替えるように指示する
ことができる。提示物をより詳細に検討することがで
き、コミュニケーションにより得られた外国語での知識
とその提示物との間の関連付けをすることが容易にな
る。その結果、仮想空間において外国語の言葉の背後に
あるコンセプトを容易に理解することができ、外国語の
修得が効率的に行える。
According to the fifth aspect of the invention, the user can instruct the user to switch between the image of the virtual environment and the enlarged display of the presentation by keeping the eyes on the display by the action of the hand. Representations can be made to consider in more detail, it is easy to the association between knowledge and its presentation of a foreign language more obtained Communication. As a result, the concept behind the foreign language can be easily understood in the virtual space, and the foreign language can be efficiently acquired.

【0021】第の発明にかかる外国語修得のための分
散仮想環境コンピュータシステムは、第5の発明の構成
に加えて、コンピュータは、提示物の画像を仮想環境内
に参加者のアバターとともに表示するようにさらにプロ
グラムされている。
[0021] The sixth Distributed Virtual Environment computer system for foreign language acquisition in accordance with the invention of, in addition to the inventions of the configuration of the fifth, the computer, along with the avatars of the participants in the image of the presentation material in the virtual environment It is further programmed to display.

【0022】第の発明によれば、提示物の画像が参加
者のアバターとともに表示されるので、仮想環境がより
現実的となり、外国語の修得に好適な環境を提供でき
る。
According to the sixth aspect , since the image of the presentation item is displayed together with the avatars of the participants, the virtual environment becomes more realistic and an environment suitable for learning a foreign language can be provided.

【0023】[0023]

【0024】[0024]

【0025】[0025]

【発明の実施の形態】以下、本発明を大学のクラスにお
ける英語の修得に適用した一実施の形態にかかる英語修
得システムについて説明する。ただし、本発明は英語の
修得のみに適用可能なだけでなく、外国語一般の修得に
適用することができる。また、外国語の修得だけではな
く、個人が主体的に他の個人との対話に参加することに
よって、その個人の何らかの意味での「成長」が期待で
きるような修得システム全般に適用することができる。
BEST MODE FOR CARRYING OUT THE INVENTION An English learning system according to an embodiment in which the present invention is applied to English learning in a university class will be described below. However, the present invention can be applied not only to acquisition of English but also to acquisition of foreign languages in general. In addition to foreign language acquisition, it can be applied to general acquisition systems where individuals can be expected to "grow" in some sense by participating in dialogue with other individuals. it can.

【0026】最初に、本実施の形態のシステムの特徴に
ついて簡単に説明する。以下に述べる事項については、
後にさらに詳しく説明する。
First, the features of the system of this embodiment will be briefly described. Regarding the matters described below,
This will be described in more detail later.

【0027】[分散仮想環境とは?]分散仮想環境と
は、ネットワーク化されたコンピュータシステムで、各
端末にいる人々がネットワーク上で仮想の場(スペー
ス)を共有し、このスペースに集まって、共同で作業に
従事し、心を通じ合い、仲間を作って暮らす環境を言
う。以下に述べるように、この実施の形態の英語修得シ
ステムは、分散仮想環境によって実現される。
[What is a distributed virtual environment? ] A distributed virtual environment is a networked computer system in which people at each terminal share a virtual space on the network, gather in this space, work together, and communicate with each other. , Say the environment in which you make friends and live. As described below, the English acquisition system of this embodiment is realized by a distributed virtual environment.

【0028】このシステムでは、各参加者はアバターと
呼ばれる、主として人の形をしたアニメーションで仮想
の場に参加する。ただし、姿はアバターであっても、作
業に参加するのは各端末の前にいる生身の人間(参加
者、学習者)である。各参加者は、現実の世界に帰った
後にも仮想の場における自己の言動に責任を持つ。
In this system, each participant participates in a virtual place with an animation mainly in the shape of a person called an avatar. However, even if the figure is an avatar, it is the live humans (participants, learners) in front of each terminal who participate in the work. Each participant is responsible for his / her behavior in a virtual place even after returning to the real world.

【0029】[分散仮想環境の構造]分散仮想環境は以
下のような仕組みにより実現される。まず、各端末は仮
想の場の三次元データを持つ。各端末は、この三次元デ
ータを用いて、かつ自己のアバターの視点で仮想の場の
画像を構築する。このとき、同一グループに属するほか
のアバターのアニメーションも仮想の場の中に描画され
る。
[Structure of Distributed Virtual Environment] The distributed virtual environment is realized by the following mechanism. First, each terminal has virtual three-dimensional data. Each terminal uses this three-dimensional data and constructs a virtual field image from the viewpoint of its own avatar. At this time, animations of other avatars belonging to the same group are also drawn in the virtual space.

【0030】場の中にいるアバターが動くと、その位
置、姿勢などのデータが他の端末に送られる。各端末で
は、送られてきたデータに基づいて新たなアバターの位
置および姿勢を定め、その結果にしたがって再度場と各
アバターとの画像を構築し描画する。この場合、端末間
で通信されるのは、画像に関しては映像データ自体では
なく、アバターの位置、姿勢などを示すごく少量のデー
タである。したがってネットワーク上の通信のトラフィ
ックは大幅に制限され、3次元の映像をリアルタイムで
表示し更新することができる。
When the avatar in the field moves, data such as its position and posture is sent to another terminal. Each terminal determines the position and posture of a new avatar based on the sent data, and again constructs and draws the image of the field and each avatar according to the result. In this case, what is communicated between the terminals is not the video data itself for the image but a very small amount of data indicating the position, posture, etc. of the avatar. Therefore, communication traffic on the network is significantly limited, and three-dimensional images can be displayed and updated in real time.

【0031】[参加者の音声]外国語修得システムで
は、他の参加者の声を聞くことができ、かつ自己の声を
他のアバターに送ることが可能でなければならない。そ
こで、音声に関してもリアルタイムで各端末間で通信す
るものとする。音声の臨場感は、仮想の場において、話
者と聞き手との位置関係に対応して実現されなければな
らないので、送信される音声はモノラルであるが、音声
を受信した端末において仮想の場における話し手と聞き
手との位置関係をもとに左右の音量と時間差(位相差)
を計算して再生する。このような処理をすることによ
り、モノラルの音声のみを送信しても、臨場感のある仮
想空間音声を実現することができる。
[Participant's voice] In the foreign language acquisition system, it must be possible to hear the voices of other participants and to be able to send their own voices to other avatars. Therefore, it is assumed that voice communication is performed between the terminals in real time. Since the presence of voice must be realized in a virtual place in correspondence with the positional relationship between the speaker and the listener, the voice to be transmitted is monaural, but the terminal receiving the voice does not have a virtual presence. Left and right volume and time difference (phase difference) based on the positional relationship between the speaker and listener
Calculate and play. By performing such processing, even if only monaural sound is transmitted, it is possible to realize virtual space sound with a sense of presence.

【0032】[システム構築の考え方]本実施の形態の
システムでは、個々の参加者の考え、価値観、感覚など
メタフィジカルな面と、仮想空間で各参加者が互いに話
す内容および声とは、参加者自身に委ねられる。一方、
仮想空間内での各参加者の姿(アバター)、および仮想
空間自体の情景などビジュアルな部分はできるだけ簡単
なものにした。参加者の仮想空間内での姿などは、後に
も述べるように特に詳細にする必要がないと考えられる
ためである。またネットワーク上のトラフィックを減少
させる上でもこのようにした方が都合がよい。
[Concept of system construction] In the system of the present embodiment, the metaphysical aspects such as the thoughts, values, and feelings of each participant, and the content and voice of each participant speaking in the virtual space, It is up to the participants themselves. on the other hand,
The visual parts such as each participant's appearance (avatar) in the virtual space and the scene of the virtual space itself were made as simple as possible. This is because it is considered that the participants' appearance in the virtual space does not need to be detailed, as will be described later. This is also convenient for reducing the traffic on the network.

【0033】[外国語修得における困難]自国で外国語
を修得する上での困難として、次のようなものがある。 ・学んだ外国語を真のコミュニケーションに供する機会
がない。これが外国語修得の上での最大の困難である。 ・対象外国語を一度母国語に直してから理解するなら、
表現された内容のコミュニケーションは結局母国語でな
されているのと変わらない。そのようにして学んだ外国
語は単に知識としての言語であって、本当のコミュニケ
ーションの道具として利用することは難しく、真の外国
語の修得ということはできない。 ・真にコミュニケーションに使える言語を学ぶには、言
葉とその言葉の背後のコンセプトとの結びつきが当該の
言語で理解される環境が必要である。しかし現実の世界
ではそのような環境を実現するのは困難である。
[Difficulty in acquiring a foreign language] The following are the difficulties in acquiring a foreign language in one's own country.・ I do not have the opportunity to use the foreign language I learned for true communication. This is the biggest difficulty in acquiring a foreign language.・ If you want to understand the target foreign language once it has been changed to your native language,
Communication of the expressed content is no different from what is done in the native language. The foreign language learned in this way is merely a language as knowledge, it is difficult to use it as a tool for true communication, and it cannot be acquired as a true foreign language. -To truly learn a language that can be used for communication, we need an environment in which the connection between a word and the concept behind the word is understood in the language. However, it is difficult to realize such an environment in the real world.

【0034】[外国語修得における分散仮想環境の効
用]分散仮想環境では、現実の相手が直接見えるわけで
はない。そのため、分散仮想環境において外国語で話す
ことに少し慣れると、相手と話すときには半ば条件反射
的にその外国語で話すのが当然のようになることが観察
される。この傾向は、日本人が外国を訪れた場合と同じ
であって、その日本人がその外国語にどの程度習熟して
いるかとはほとんど関係がない。つまり、下手は下手な
りにその外国語を使用して話し出す。この環境が、外国
語習得のための環境として有用である。
[Effect of Distributed Virtual Environment in Acquisition of Foreign Language] In the distributed virtual environment, the actual partner is not directly visible. Therefore, it is observed that if you get used to speaking in a foreign language in a distributed virtual environment a little, it becomes natural to speak in that foreign language in a semi-conditional manner when speaking with the other party. This tendency is the same as when a Japanese visits a foreign country, and has little to do with how familiar the Japanese is with the foreign language. In other words, a poor person speaks in a foreign language as if he were poor. This environment is useful as an environment for learning foreign languages.

【0035】また仮想環境では母国語で話すことがなく
なるため、いちいち会話を母国語に直してから理解する
ことが少ない。そのため言葉の背後にある概念を、場、
場に提示された物と結び付けて理解することが容易にな
る。後述する実施の形態のシステムでは、提示物を仮想
環境内に示すことを可能とし、上に述べたような仮想環
境の特質を利用して当該言語の表現の背後にある概念の
理解を容易にしている。
In the virtual environment, since the user does not speak in his native language, it is rare to understand the conversation after it is converted into the native language. So the concept behind the words is
It becomes easy to understand by linking with the items presented on the spot. In the system of the embodiment described later, it is possible to show the presentation object in the virtual environment and use the characteristics of the virtual environment as described above to facilitate the understanding of the concept behind the expression of the language. ing.

【0036】[ミーティングマスター]会話の内容は各
参加者に任せるとしても、たとえば参加者の会う仮想空
間内の場所を定めたり、全参加者を別の場所に移動させ
たりする必要が生じる場合がある。そのような場所の選
定、移動などを手配し、各参加者に対して具体的にどの
ような操作をしたらよいかを指示する者がいる方が都合
がよい。そこで、いわば仮想空間でのアバターのミーテ
ィングの幹事役に相当する者をおくとよい。そうした者
をここではミーティングマスターと呼ぶ。ミーティング
マスターについては、他の参加者を一度に別の場所に移
動させたりする特別の権限を与えるようにしてもよい。
[Meeting Master] Even if the content of the conversation is left to each participant, it may be necessary to determine the place in the virtual space where the participants meet or move all the participants to another place. is there. It is more convenient to have a person who arranges such a place selection and movement, and instructs each participant what kind of operation should be performed. Therefore, it is better to have a person who is the secretary of the avatar meeting in the virtual space. Such a person is called a meeting master here. The meeting master may be given special privileges to move other participants at one time to another location.

【0037】[実施の形態のシステム構成]図1を参照
して、この英語修得システムの構成を説明する。このシ
ステムが設置されている大学内のローカルエリアネット
ワーク(LAN)に接続されたインテリジェントハブ5
6と、インテリジェントハブ56に接続され、後述する
種々の仮想空間およびその内部で活動する参加者を代理
するアバターの管理を行なうためのサーバ54と、イン
テリジェントハブ56に接続された教師用端末60と、
いずれもインテリジェントハブ56に接続された第1の
クラスタ50、第2のクラスタ52、第3のクラスタ5
8、第4のクラスタ62、および第5のクラスタ64と
を含む。第1のクラスタ50、第2のクラスタ52、第
3のクラスタ58、第4のクラスタ62、および第5の
クラスタ64はいずれも同様の構成を有する。
[System Configuration of Embodiment] The configuration of the English learning system will be described with reference to FIG. Intelligent hub 5 connected to the local area network (LAN) in the university where this system is installed
6, a server 54 that is connected to the intelligent hub 56 and manages various virtual spaces, which will be described later, and avatars that represent participants who are active in the virtual space, and a teacher terminal 60 that is connected to the intelligent hub 56. ,
First cluster 50, second cluster 52, third cluster 5 all connected to intelligent hub 56
8, a fourth cluster 62, and a fifth cluster 64. The first cluster 50, the second cluster 52, the third cluster 58, the fourth cluster 62, and the fifth cluster 64 all have similar configurations.

【0038】図2を参照して、たとえば第1のクラスタ
50は、インテリジェントハブ56に接続されたクライ
アントコンピュータシステム72から80を含む。クラ
イアントコンピュータシステム72から80はいずれも
同じ構成を有する。
With reference to FIG. 2, for example, first cluster 50 includes client computer systems 72-80 connected to intelligent hub 56. All client computer systems 72-80 have the same configuration.

【0039】図3および図4を参照して、たとえばクラ
イアントコンピュータシステム72は、サーバ54から
与えられる仮想空間の情報および仮想空間に設けられた
グループのうち、同じグループに属する参加者に関する
情報に基づき、参加者102に対して提示すべき仮想空
間および参加者のアバターの画像などを合成する処理、
ならびに参加者102から与えられる指示をサーバ54
に送信する処理を行なうコンピュータ90と、コンピュ
ータ90に接続され、参加者102の手104の動きを
撮影しそのジェスチャーの意味を解析し認識して参加者
102から仮想環境への指示として出力するカメラ94
と、コンピュータ90に接続され、コンピュータ90に
よって計算された仮想空間およびアバターの画像を表示
するモニタ92と、参加者102がシステムに対して何
らかの指示を与える際に使用するキーボード96と、他
の参加者から送信されてくる音声を再生するイアフォー
ン98と、参加者102の発する音声を電気信号に変換
してコンピュータ90に与えるためのマイク100と、
マウス106とを含む。
With reference to FIGS. 3 and 4, for example, the client computer system 72 is based on the information of the virtual space given from the server 54 and the information about the participants belonging to the same group among the groups provided in the virtual space. , A process of synthesizing a virtual space to be presented to the participant 102 and an image of the participant's avatar,
And an instruction given from the participant 102 to the server 54.
And a computer 90 that is connected to the computer 90 and that captures the movement of the hand 104 of the participant 102, analyzes and recognizes the meaning of the gesture, and outputs it as an instruction from the participant 102 to the virtual environment. 94
A monitor 92 connected to the computer 90 for displaying images of the virtual space and the avatar calculated by the computer 90, a keyboard 96 used by the participant 102 for giving some instructions to the system, and other participants. An earphone 98 for reproducing a voice transmitted from a person, a microphone 100 for converting a voice emitted by the participant 102 into an electric signal and giving the electric signal to the computer 90,
The mouse 106 is included.

【0040】カメラ94は人工網膜チップを用いたもの
である。人工網膜チップとは、生物の網膜のように面上
に投射された映像を高速に認識する撮像機能と、得られ
た画像信号を必要に応じて処理する機能とを備えたデバ
イスである。人工網膜チップは、1チップ上で画像検出
と同時に画像処理を行ない、画像の動きを認識できる点
が、従来使用されていたCCD(Charge-Coupled Devic
e)とは異なっている。
The camera 94 uses an artificial retina chip. The artificial retina chip is a device having an imaging function of recognizing an image projected on a surface at high speed like a retina of a living being, and a function of processing an obtained image signal as needed. The artificial retina chip is a CCD (Charge-Coupled Devic), which has been used in the past, because it can detect the movement of the image by performing image processing at the same time as image detection on one chip
different from e).

【0041】このようにカメラを用いて参加者からの指
示をシステム(クライアントコンピュータ)に与えるよ
うにすることにより、モニタ92から目を離さずにシス
テムを操作できる。しかも手の動きという人間にとって
自然な動きを用いるので、仮想環境に対する違和感を少
なくすることができる。
By using the camera to give instructions from the participants to the system (client computer) in this way, the system can be operated without keeping an eye on the monitor 92. Moreover, since the movement of the hand, which is natural to humans, is used, it is possible to reduce the discomfort in the virtual environment.

【0042】図4を参照して、コンピュータ90は、C
PU110と、メモリ112と、固定ディスク114
と、フレキシブルディスク(FD)140が装着される
FDドライブ116と、CD−ROM(Compact
Disc Read−Only Memory)14
2が装着されるCD−ROMドライブ118と、イアフ
ォーン98およびマイク100が接続されるサウンドボ
ード120と、コンピュータ90をネットワークに接続
するためのネットワークアダプタ130とを含む。
Referring to FIG. 4, the computer 90 has a C
PU 110, memory 112, fixed disk 114
And a FD drive 116 in which a flexible disk (FD) 140 is mounted, and a CD-ROM (Compact).
Disc Read-Only Memory) 14
2 includes a CD-ROM drive 118, a sound board 120 to which the earphone 98 and the microphone 100 are connected, and a network adapter 130 for connecting the computer 90 to the network.

【0043】なお、図1に示すサーバ54および教師用
端末60の構成もこのクライアントコンピュータシステ
ム72と同様であるので、ここではそれらについての詳
しい説明は繰返さない。
Since the configuration of server 54 and teacher terminal 60 shown in FIG. 1 is similar to that of client computer system 72, detailed description thereof will not be repeated here.

【0044】図5を参照して、サーバ54が管理するサ
ーバ管理情報150は、仮想空間内に用意された「部
屋」または「場」に相当するグループに関するグループ
情報152、および各部屋の仮想的な環境と各参加者に
対応するアバターの形状などに関する情報からなるスペ
ース関連情報154とを含む。
Referring to FIG. 5, the server management information 150 managed by the server 54 includes group information 152 regarding groups corresponding to “rooms” or “places” prepared in the virtual space, and virtual information about each room. It includes space-related information 154 including information on various environments and the shape of the avatar corresponding to each participant.

【0045】グループ情報152は、このシステムにお
いて用意されているグループの数だけのグループ別情報
156を含む。
The group information 152 includes group-specific information 156 as many as the groups prepared in this system.

【0046】図6を参照して、たとえば1番目のグルー
プに関するグループ別情報156は、当該グループに属
するアバターを特定するアバター情報170と、このグ
ループに与えられた「場(例えば部屋)」の背景を特定
する背景情報172と、このグループに与えられた場に
存在する物品を特定する物品物品情報174とを含む。
これら背景情報172および物品特定情報174の内容
は、必ずしもこのシステムに最初から組み込んでおく必
要はない。これら情報を他で準備し、必要に応じて自由
に交換ができるようにしておいてもよい。なお、同じ場
の別の部分を複数のグループで共用することもできる。
Referring to FIG. 6, for example, group-specific information 156 regarding the first group includes avatar information 170 that identifies an avatar belonging to the group, and a background of "place (for example, room)" given to this group. And background information 172 that identifies the item, and item information 174 that identifies the item existing in the place given to this group.
The contents of the background information 172 and the item specifying information 174 do not necessarily have to be incorporated in the system from the beginning. These pieces of information may be prepared by others so that they can be freely exchanged as needed. Note that another part of the same place can be shared by a plurality of groups.

【0047】アバター情報170は、このグループに属
するアバター1からアバターnaをそれぞれ特定する情
報を含む。背景情報172は、このグループに与えられ
た場(戸外が想定されてもよい。)の背景を構成する情
報背景1から背景nb(山、海、林など)を個々に特定
するための情報を含む。物品情報174は、このグルー
プに与えられた場の近くに存在することが想定される物
品1から物品nc(部屋のドア、机、椅子、照明など)
を個々に特定するための情報を含む。これら情報はそれ
ぞれ、いずれも図5に示されるアバター形状162、背
景情報158および物品形状160中へのポインタを含
み、そのポインタにより特定されるアバター形状、物品
形状、または背景形状がこのグループに与えられた仮想
空間内の場の形成に使用される。
The avatar information 170 includes information for specifying each of the avatars 1 to na belonging to this group. The background information 172 is information for individually specifying the background nb (mountain, sea, forest, etc.) from the information background 1 that constitutes the background of the place (outdoors may be assumed) given to this group. Including. The article information 174 includes articles 1 to nc (such as room doors, desks, chairs, and lighting) that are supposed to exist near the place given to this group.
It contains information to identify each individual. Each of these pieces of information includes a pointer into the avatar shape 162, the background information 158, and the article shape 160 shown in FIG. 5, and the avatar shape, the article shape, or the background shape specified by the pointer is given to this group. It is used to create a field in a virtual space.

【0048】なお、アバター形状、物品形状、背景形状
などについては、それほど精度の高いものを準備する必
要はない。その理由は以下のとおりである。
Note that it is not necessary to prepare highly accurate avatar shapes, article shapes, background shapes, and the like. The reason is as follows.

【0049】参加者が会う場所、雰囲気は、その集まり
のアウトプットに大きな影響を及ぼす。しかし一方で、
その場面の細部まで詳細に視覚化することはそれほど重
要ではない。どのみち人間は、目に見える事物の細部を
見ているわけではなく、自分の頭の中に既にあるイメー
ジにそって事物を眺めていることの方が多い。そしてそ
のため、仮想空間内の事物の形状が詳細でないとして
も、足りない部分については人間が補なうためである。
The place where the participants meet and the atmosphere greatly affect the output of the gathering. But on the other hand,
Visualizing every detail of the scene is not so important. In any case, humans are not looking at the visible details of things, but rather looking at things according to the image already in their head. Therefore, even if the shape of an object in the virtual space is not detailed, a human being compensates for the missing portion.

【0050】ただし、本当に事物の細部が必要な場面も
ありうる。そこで本実施の形態では、後に述べるように
物品の提示という仕組みを用意し、物品の映像などを、
仮想空間内にアバターなどとは別のものとして提示でき
るようにしている。
However, there may be a scene where details of things are really needed. Therefore, in the present embodiment, as will be described later, a mechanism for presenting an article is prepared, and an image of the article is displayed.
It can be presented as something other than an avatar in the virtual space.

【0051】また、アバターについても、アバターを本
人に似せようとすることなど無駄である。アバターは互
いに区別でき、かつ一目見てその人が分りさえすればよ
い。人の外見は、たとえば思わぬ場所でその人を識別す
るときには重要であるが、参加者の限定された分散仮想
環境ではアバターの外見は重要ではない。
In addition, it is wasteful to try to make the avatar look like the person himself. Avatars can be distinguished from each other, and only need to be known by the person at a glance. A person's appearance is important, for example, when identifying him or her in unexpected places, but in a limited distributed virtual environment of participants, the appearance of the avatar is not important.

【0052】図7を参照して、個別のアバター情報18
0は、このアバターのアバター識別子と、このアバター
が割当てられているクライアント識別子と、このアバタ
ーの形状が記憶されているアバター形状162内の領域
へのポインタと、このアバターの、仮想空間内における
位置情報および姿勢情報と、このアバターがグループ内
の各アバターに対して提示した提示物に関する情報とを
含む。アバターの形状も、プログラムとは独立させてお
き、自由に変えられるようにするとよい。
Referring to FIG. 7, individual avatar information 18
0 is the avatar identifier of this avatar, the client identifier to which this avatar is assigned, a pointer to the area within the avatar shape 162 in which the shape of this avatar is stored, and the position of this avatar in the virtual space. It includes information and posture information, and information about the presentation that this avatar presented to each avatar in the group. The shape of the avatar should be independent of the program so that it can be changed freely.

【0053】図8を参照して、各クライアントコンピュ
ータが管理するクライアント管理情報190は、自分に
対応するアバターの位置、視点(POV)および視野角
に関する情報200と、同一グループのクライアントの
リスト202と、同一グループのアバターの形状データ
204と、同一グループのアバターの座標、姿勢情報2
06と、スペースの三次元形状情報208とを含む。同
一グループのクライアントのリスト202、同一グルー
プのアバターの形状データ204、同一グループのアバ
ターの座標、姿勢情報206およびスペースの三次元形
状情報208は、このクライアントがシステムにログイ
ンしたときに、サーバから送信されてくる。これら情報
は、これ以後、このクライアントが他のクライアントか
ら受信する情報に応じて更新される。
Referring to FIG. 8, client management information 190 managed by each client computer is information 200 regarding the position, viewpoint (POV) and viewing angle of the avatar corresponding to itself, and a list 202 of clients in the same group. , Shape data 204 of avatars in the same group, and coordinate and posture information 2 of avatars in the same group
06, and three-dimensional shape information 208 of the space. A list 202 of clients in the same group, shape data 204 of avatars in the same group, coordinates of avatars in the same group, posture information 206, and three-dimensional shape information 208 of space are transmitted from the server when this client logs in to the system. Is coming. These pieces of information are thereafter updated according to the information that this client receives from other clients.

【0054】たとえば図9を参照して、あるユーザ(ク
ライアント)が自己のアバターに対して何らかの指示を
し、その結果そのアバターの位置または姿勢が変化した
場合、そのクライアントはそのアバターの位置または姿
勢の変化を示す情報(以下「移動情報」と呼ぶ。)をサ
ーバ54に送信する(220)。サーバ54はこの移動
情報を受けると、そのクライアントと同一グループに属
するほかのクライアントに対してその移動情報をクライ
アント識別子とともに送信する(222)。各クライア
ントは、サーバ54から送信されてくる各クライアント
からの移動情報に基づき、同一グループに属するクライ
アントに対応するアバターの位置情報および姿勢情報を
維持することができる。
For example, referring to FIG. 9, when a user (client) gives some instruction to his or her avatar and the position or posture of the avatar changes as a result, the client determines the position or posture of the avatar. The information indicating the change (hereinafter referred to as "movement information") is transmitted to the server 54 (220). When the server 54 receives the movement information, the server 54 transmits the movement information together with the client identifier to other clients belonging to the same group as the client (222). Each client can maintain the position information and the posture information of the avatars corresponding to the clients belonging to the same group based on the movement information transmitted from the server 54 from each client.

【0055】なお、グループに新しい参加者が加わった
り、参加者の一部が抜けるなど、参加者に変動があった
場合には、その情報がサーバを介して各参加者に送信さ
れる。
When there is a change in the participants such as a new participant joining the group or a part of the participants dropping out, the information is transmitted to each participant via the server.

【0056】外国語の修得の場合、ある参加者が発した
音声を他の参加者のクライアントに向けて送信し、音声
として再生する必要がある。音声の送信は広帯域を必要
とするので、サーバ54で集中的に管理することが困難
である。そこでこのシステムでは以下のようにして音声
を配信する。
In the case of learning a foreign language, it is necessary to transmit the voice uttered by one participant to the client of another participant and reproduce it as a voice. Since voice transmission requires a wide band, it is difficult for the server 54 to centrally manage it. Therefore, this system delivers audio as follows.

【0057】図10を参照して、各クライアントは、最
初にシステムにログインしたとき、およびその後定期的
にサーバ54に対して、自己と同じグループに属するク
ライアント(自己と同じスペースに存在するアバターに
対応するクライアント)を問い合わせる(230)。サ
ーバ54は、この問合せに対して、問合せを発したクラ
イアントと同じグループのクライアント(アバター)の
リスト(図6に示すアバター情報170)を返す(23
2)。このリストを受け取ったクライアントは、受け取
ったリストで自己の持つ同一グループのクライアントの
リスト202を更新する。そして、次の問合せを行なう
までの間、参加者が発した音声を、同一グループのクラ
イアントのリスト202にリストされているすべてのク
ライアントに対して直接送信する(234)。
Referring to FIG. 10, each client first asks the server 54 to log in to the system and then periodically to a client belonging to the same group as itself (to an avatar existing in the same space as itself). Inquiry (230) of the corresponding client. In response to this inquiry, the server 54 returns a list of clients (avatars) in the same group as the client that issued the inquiry (avatar information 170 shown in FIG. 6) (23).
2). The client that receives this list updates the list 202 of the clients of the same group that it has with the received list. Then, until the next inquiry is made, the voice uttered by the participant is directly transmitted to all the clients listed in the client list 202 of the same group (234).

【0058】上記した処理を行なうために、サーバ54
は、図5から図7に示したサーバ管理情報150を管理
する処理を行なう。スペース関連情報154は固定的な
ものであるから、維持する必要があるのはグループ情報
152のみである。この情報は各クライアントから送信
されてくる情報にしたがって更新し必要なクライアント
に更新情報を送信するだけでよいので、比較的簡単であ
る。また、会合の場を他の場所に移動するなどスペース
関連情報が全面的に変更される場合にはサーバ54はそ
のための処理を行ない、必要な変更情報を各クライアン
トに送信する。
In order to perform the above processing, the server 54
Performs processing for managing the server management information 150 shown in FIGS. 5 to 7. Since the space related information 154 is fixed, only the group information 152 needs to be maintained. This information is relatively simple because it is only necessary to update it according to the information sent from each client and send the updated information to the required clients. Further, when the space-related information is completely changed, such as when the meeting place is moved to another place, the server 54 performs a process therefor and transmits necessary change information to each client.

【0059】クライアントは、サーバまたは同一クライ
アントからの情報にしたがって仮想空間を視覚化して参
加者に対して提示し、参加者からの指示に応じて仮想空
間の更新とサーバおよび同一グループのクライアントへ
の送信を行なう。以下、この処理について説明する。
The client visualizes the virtual space according to the information from the server or the same client and presents it to the participants, and updates the virtual space according to the instructions from the participants and notifies the server and the clients of the same group. Send. Hereinafter, this process will be described.

【0060】図11に、クライアントコンピュータで動
作するプログラムにより実現されるクライアントシステ
ム240の機能的ブロック図を示す。図11を参照し
て、クライアントシステム240は、キーボード96、
マウス106、カメラ94などの入力装置からの入力を
処理してサーバに伝達すべきメッセージ252を発生す
るための入力処理部250と、ネットワーク242 を
介してサーバ54から送られてくる各アバターの座標、
回転、姿勢、空間情報、アドレス情報などに基づいて仮
想空間およびその中に存在する同じグループのアバター
を3次元的に可視化し、参加者に対してモニタ92を用
いて提示するとともに、可視化処理の結果サーバ54に
対して送信するメッセージ256を発生する処理を行な
うビジュアル処理部254と、ネットワーク242を介
して同一グループのクライアントから送信されてくる音
声関連のメッセージ262を処理して、仮想空間におけ
る環境音などの再生、アバターの発生する音声などのリ
アルタイムオーディオの再生などを行なうためのオーデ
ィオ処理部260と、入力処理部250、ビジュアル処
理部254、オーディオ処理部260およびネットワー
ク242に接続され、主として仮想空間に加えられた変
更に関する更新情報の転送とその保持とを行なうため
に、サーバ54および同一グループの各クライアントと
の間で通信を行なうトランスポート部264とを含む。
FIG. 11 is a functional block diagram of the client system 240 realized by the program operating on the client computer. Referring to FIG. 11, the client system 240 includes a keyboard 96,
An input processing unit 250 for processing an input from an input device such as the mouse 106 or the camera 94 to generate a message 252 to be transmitted to the server, and the coordinates of each avatar sent from the server 54 via the network 242. ,
The virtual space and the avatars of the same group existing in the virtual space are three-dimensionally visualized based on the rotation, the posture, the spatial information, the address information, etc., and presented to the participants using the monitor 92. A visual processing unit 254 that performs a process of generating a message 256 to be transmitted to the result server 54, and a voice-related message 262 transmitted from a client of the same group via the network 242 are processed to generate an environment in a virtual space. It is connected to an audio processing unit 260 for performing reproduction of sounds and the like and reproduction of real-time audio such as voice generated by an avatar, an input processing unit 250, a visual processing unit 254, an audio processing unit 260, and a network 242, and is mainly connected to a virtual unit. Update information about changes made to the space To perform the transfer and its holding, and a transport unit 264 that communicates with a respective client of the server 54 and the same group.

【0061】図12を参照して、クライアントで動作す
るプログラムは、まずサーバ54または同一グループの
クライアントからのメッセージを受信する(250)。
このメッセージがオーディオ関連のものか、ビジュアル
関連のものかを判定する(252)。メッセージがオー
ディオ関連の場合には制御はステップ254に、メッセ
ージがビジュアル関連の場合には制御はステップ256
に、それぞれ進む。
Referring to FIG. 12, the program running on the client first receives a message from server 54 or a client of the same group (250).
It is determined whether the message is audio-related or visual-related (252). If the message is audio-related, control proceeds to step 254; if the message is visual-related, control proceeds to step 256.
To, respectively.

【0062】ステップ254では、このプログラムはメ
ッセージをオーディオ処理部260に渡す。この後、制
御はステップ250に戻る。オーディオ処理部260で
は、受信した音声信号に基づいて参加者に提示すべき音
声を発生する。なお、メッセージとしてこのネットワー
ク上で送受信される音声はモノラルである。再生時に
は、オーディオ処理部260が、仮想空間においてその
クライアントに対応するアバターのいる場所の三次元的
形状に関する情報、自己のアバターの位置とメッセージ
を送信してきたクライアントに対応するアバターの位置
とに関する情報などに基づいて音声波の位相、大きさを
調整してステレオ音声化する。これにより、ネットワー
ク上のトラフィックを抑えつつ、仮想空間の臨場感を高
めることができる。
In step 254, the program passes the message to the audio processor 260. Thereafter, control returns to step 250. The audio processing unit 260 generates a voice to be presented to the participant based on the received voice signal. The voice transmitted and received on this network as a message is monaural. At the time of reproduction, the audio processing unit 260 causes the information about the three-dimensional shape of the position of the avatar corresponding to the client in the virtual space, the position of the own avatar, and the position of the avatar corresponding to the client that has transmitted the message. Based on the above, the phase and magnitude of the sound wave are adjusted to produce stereo sound. As a result, it is possible to increase the realism of the virtual space while suppressing the traffic on the network.

【0063】一方、メッセージがビジュアル関連のもの
であると判定された場合、ステップ256でメッセージ
に含まれる情報にしたがって、仮想空間を視覚化するた
めに必要な情報(視野内の各アバター、物品、背景の位
置、大きさなど)を計算し、計算結果を保持する処理が
行なわれる。ステップ258でこの計算結果をビジュア
ル処理部254に与えることにより、ビジュアル処理部
254によって仮想空間の視覚化が行なわれモニタに表
示される。
On the other hand, when the message is determined to be visual-related, in step 256, the information necessary for visualizing the virtual space (each avatar in the field of view, the article, The position of the background, the size, etc.) are calculated, and the calculation result is held. By giving this calculation result to the visual processing unit 254 in step 258, the visual processing unit 254 visualizes the virtual space and displays it on the monitor.

【0064】続いて、クライアントにおいて、参加者か
らのコマンドをその手のうごきによって入力する処理に
ついて説明する。既に述べたとおり、入力にはカメラ9
4が用いられる。
Next, a process of inputting a command from a participant by moving the hand at the client will be described. As already mentioned, the camera 9 is used for input.
4 is used.

【0065】図13に示すように、まずカメラ94の人
工網膜チップの画像処理により、入力画像の手の部分の
輪郭を抽出する(270)。以下は、リアルタイムにカ
メラ94から出力されるこの輪郭の情報に対するプログ
ラム処理である。
As shown in FIG. 13, first, the outline of the hand portion of the input image is extracted by image processing of the artificial retina chip of the camera 94 (270). The following is a program process for this contour information output from the camera 94 in real time.

【0066】ステップ272では、入力画像の差分を用
いて、手の形状と移動方向とを抽出する。この移動方向
に変化があるか否かを判定し(274)、変化があれば
引き続きステップ272の処理を行なう。変化がなけれ
ば、続いて手の移動が継続しているか否かを判定する
(276)。移動が継続している場合には引き続いて移
動が継続しているか否かの判定を行ない、移動が終了す
るとステップ278に進む。ステップ278では、ステ
ップ272から276の処理によって検出された手の移
動方向の組合せおよびステップ270で検出された輪郭
画像から検出された手の形状とが予め定められたどの組
合せと一致するかにしたがって、参加者からの指示を認
識し、アバターをどのように動作させるかを判定する。
In step 272, the shape of the hand and the moving direction are extracted using the difference between the input images. It is determined whether there is a change in this moving direction (274), and if there is a change, the process of step 272 is continuously performed. If there is no change, then it is determined whether the movement of the hand continues (276). When the movement is continued, it is continuously determined whether or not the movement is continued, and when the movement is completed, the process proceeds to step 278. In step 278, the combination of the movement directions of the hand detected by the processing of steps 272 to 276 and the shape of the hand detected from the contour image detected in step 270 are matched with a predetermined combination. , Recognize instructions from participants and determine how to operate the avatar.

【0067】手の移動方向の組合せまたは検出された手
の形状と、対応するアバターの動作(参加者からの指示
によるアクション)とを図14に示す。図14に示すよ
うに、アクションは手の移動方向によるアクション(枠
280で示す。)と、手の形状によるアクション(枠2
82で示す。)とに大別される。
FIG. 14 shows combinations of hand movement directions or detected hand shapes and corresponding avatar actions (actions instructed by participants). As shown in FIG. 14, the actions are an action depending on the moving direction of the hand (shown by a frame 280) and an action depending on the shape of the hand (frame 2).
Shown at 82. ) And roughly divided.

【0068】枠280に示される手の移動方向のアクシ
ョンは、大きくわけると手の単一方向への一度の移動に
よって決定されるアクション(枠290で示す。)と、
手を連続して動かすことによって決定されるアクション
(枠292で示す。)と、連続した2回の手の動きによ
って決定されるアクション(枠294および296で示
す。)とに分けられる。たとえば手を一度だけ上方向に
移動させれば「歩く」というアクションが指示される。
手を上下に動かせば「走る」というアクションが指示さ
れる。手をまず右方向に一度動かし、続いて上方向に移
動させれば「ジャンプ」というアクションが指示され
る。他のアクションについても同様である。
The action in the moving direction of the hand shown in the frame 280 is roughly divided into an action (indicated by a frame 290) determined by one movement of the hand in a single direction.
It is divided into an action determined by continuously moving the hand (shown by a frame 292) and an action determined by two consecutive hand movements (shown by frames 294 and 296). For example, if you move your hand upwards only once, you are instructed to walk.
If you move your hand up or down, you will be instructed to "run". If you move your hand to the right once and then move it upwards, you will be instructed to perform the "jump" action. The same applies to other actions.

【0069】なお図14に示した手の動きとアクション
との関係は一例に過ぎず、このほかにも種々の組合せが
考えられることはいうまでもない。
The relationship between the movement of the hand and the action shown in FIG. 14 is merely an example, and it goes without saying that various other combinations are possible.

【0070】このように手の動きによってアバターの動
きを制御するのは、慣れればキーボードを使用するのと
比較して容易に行える。しかも指示をする際に画面から
目を離す必要はない。そのため、参加者は常にモニタに
表示される仮想空間に集中することができ、外国語の修
得を効果的に行なうことができる。
In this way, controlling the movement of the avatar by the movement of the hand can be easily performed as compared with using a keyboard if used. Moreover, it is not necessary to take your eyes off the screen when giving instructions. Therefore, the participants can always concentrate on the virtual space displayed on the monitor and can effectively learn a foreign language.

【0071】本実施の形態のシステムの一つの特徴は、
仮想空間内に、一人の参加者が選択した画像などを他の
参加者に対する提示物として提示できるという点であ
る。提示物としては、たとえば写真、図表、文字などを
用いることができる。画像として表わすことができるも
のであればどのようなものであっても提示物として提示
することができる。本実施の形態では、モニタ92上に
おいて仮想空間が表示されるウィンドウとは別のウィン
ドウを開き、そこに提示物を表示する。
One feature of the system of this embodiment is that
This is that an image selected by one participant can be presented as a presentation object to other participants in the virtual space. As the presentation item, for example, a photograph, a chart, characters, etc. can be used. Whatever can be displayed as an image can be presented as a presentation item. In the present embodiment, a window different from the window in which the virtual space is displayed is opened on the monitor 92, and the presented item is displayed there.

【0072】この提示物は、普通の会議などで使われる
板書、写真、絵、OHPまたは実物若しくはモデルの展
示などに相当するものである。ただしこの提示物が現実
世界の提示物と異なるのは、仮想世界では提示物はアバ
ターに提示されるが、その内容を理解すべきなのは参加
者達であるということである。したがって、提示物は参
加者にハッキリと見えるように仮想世界において表現す
る必要がある。そこで、本実施の形態のシステムでは、
後述するようにたとえば仮想世界を表示するウィンドウ
とは別個のウィンドウを各クライアントシステムにおい
て開き、そのウィンドウに提示物を表示する。その結
果、提示物はすべての参加者に対して同じように提示さ
れることになる。こうした表示は、仮想空間においてア
バターと同じ空間に提示物を置く場合でも実現できる。
これについてはさらに後述する。
This presentation item corresponds to a display such as a blackboard, a photograph, a picture, an OHP, an actual object or a model used in an ordinary conference. However, what this presentation is different from the real world presentation is that in the virtual world the presentation is presented to the avatar, but it is the participants who should understand its content. Therefore, the presentation needs to be expressed in the virtual world so that it can be clearly seen by the participants. Therefore, in the system of the present embodiment,
As will be described later, for example, a window different from the window displaying the virtual world is opened in each client system, and the presentation is displayed in that window. As a result, the presentation will be presented to all participants equally. Such a display can be realized even when the presentation object is placed in the same space as the avatar in the virtual space.
This will be described further below.

【0073】図15に、あるクライアントが同一グルー
プのクライアントに対してある提示対象を提示する処理
(「提示処理」と呼ぶ。)を実現するプログラムのフロ
ーチャートを示す。図15を参照して、提示処理が起動
されるとまず、提示対象を選択する処理が実行される
(310)。この処理はたとえば、予めファイル形式で
固定ディスク114内またはネットワーク上の他の記憶
装置内に準備された提示対象の物品の形状を特定する情
報を、ダイアログで選択する、という形で実現される。
FIG. 15 shows a flowchart of a program for realizing a process in which a client presents a presentation target to clients in the same group (referred to as "presentation process"). With reference to FIG. 15, when the presentation process is activated, first, a process of selecting a presentation target is executed (310). This process is implemented, for example, by selecting, in a dialog, information that specifies the shape of the article to be presented, which is prepared in advance in the fixed disk 114 or another storage device on the network in a file format.

【0074】続いて、新たなウィンドウを開き、ステッ
プ310で選択された提示対象のコピーをこの新たなウ
ィンドウ内に表示する処理が行なわれる。このとき、サ
ーバ54に対してこの提示対象へのポインタ情報が送信
され、さらにサーバ54を介して同一グループの全ての
クライアントに対して送信される。各クライアントは、
このポインタを受け取るとそれぞれそのポインタによっ
て指し示されるファイルをネットワーク上から読込み、
新たなウィンドウを開いて表示する。
Subsequently, a process of opening a new window and displaying the copy of the presentation target selected in step 310 in this new window is performed. At this time, the pointer information to the presentation target is transmitted to the server 54, and further transmitted to all the clients in the same group via the server 54. Each client
When this pointer is received, the file pointed to by that pointer is read from the network,
Opens a new window for display.

【0075】さらに、ステップ314で、たとえば提示
対象の位置を移動させる指示、提示対象の姿勢を変化さ
せる指示、などの何らかのイベントが発生したか否かの
判定が行なわれる。もし何らかのイベントが発生した場
合には、イベントによって変化した提示対象の画像を計
算し、提示物用のウィンドウのみ画像処理して提示対象
を再表示する(316)。イベントがなければこのステ
ップの処理は行なわれない。
Further, in step 314, it is determined whether or not any event such as an instruction to move the position of the presentation target, an instruction to change the posture of the presentation target, or the like has occurred. If any event occurs, the image of the presentation target changed by the event is calculated, only the window for the presentation object is image-processed, and the presentation target is displayed again (316). If there is no event, the process of this step is not performed.

【0076】次に、参加者の手の動きによる指示、また
はキーボード96、マウス106などを用いて入力によ
って提示物用ウィンドウを閉じる要求が入力されたか否
かを判定する(318)。要求がなければ制御はステッ
プ314に戻り、以下ステップ314から318の処理
を繰返し実行する。要求があれば、ステップ320で提
示物用ウィンドウを閉じ、提示処理を終了する。
Next, it is determined whether or not a request to close the window for presenting items has been input by an instruction by the movement of the hands of the participants, or by using the keyboard 96, the mouse 106 or the like (318). If there is no request, the control returns to step 314, and the processes of steps 314 to 318 are repeated thereafter. If there is a request, the presentation object window is closed in step 320, and the presentation process ends.

【0077】このように、提示物を仮想空間表示のため
のウィンドウとは別個のウィンドウに表示すると、各ク
ライアントにとってはその提示物が仮想空間内のものと
は別個のものであることが容易に理解できるという利点
がある。また、提示対象を表示する処理も簡単なもので
よい。
When the presentation item is displayed in a window different from the window for displaying the virtual space in this manner, it is easy for each client that the presentation item is different from the item in the virtual space. It has the advantage of being understandable. Also, the process of displaying the presentation target may be simple.

【0078】なお、提示物自体は、その提示物を提示し
た参加者に所有権があり、他の参加者が提示物に変更を
加えたりすることはできない。ただし他の参加者が提示
物に何らかの事項の追加(たとえばテキストの追記)な
どを行なうことは可能である。こうした追加事項があっ
たときには、その追加事項のみを各クライアントに配信
すれば、各クライアントではその追記に対応した表示の
更新を行なうことができる。
The presentation itself is owned by the participant who presented the presentation, and other participants cannot change the presentation. However, it is possible for other participants to add something to the presentation (addition of text, for example). When there is such an additional item, by delivering only the additional item to each client, each client can update the display corresponding to the additional recording.

【0079】上記した実施の形態のシステムでは、提示
物のコピーを表示するので、各クライアントがそれぞれ
提示物に対して変更を行なったとしても、オリジナルに
は影響を与えない。そこで、追記に限らず、全ての参加
者が提示物に手を加え、新たな提示主体による新たな提
示物として登録し、管理することもできる。
In the system of the above embodiment, since a copy of the presentation item is displayed, even if each client changes the presentation item, the original item is not affected. Therefore, not only the postscript, but all the participants can also modify the presented item, register it as a new presented item by a new presenting entity, and manage it.

【0080】さて、次にこのシステムにおいて仮想空間
がどのように表示されるか、について説明する。図16
に仮想空間の表示例を示す。この表示例では、表示され
る画像に対する視点(POV)は参加者のアバターの視
点そのものである。この場合、仮想空間の広がりに対し
て参加者に提示される視野が狭くなるという問題があ
る。たとえば図16に示される例では参加者本人のアバ
ターの他に5人のアバターがこのスペースに集まってい
るが、そのうち4人しか表示されていない。その上、こ
の場合には参加者のアバター自体は参加者に提示されな
いことになる。仮想空間においては、見えないものの存
在を感じることは、たとえ自分のアバターであってもな
かなか困難なことが経験的に分かっている。
Now, how the virtual space is displayed in this system will be described. FIG.
Shows a display example of the virtual space. In this display example, the viewpoint (POV) for the displayed image is the viewpoint of the participant's avatar itself. In this case, there is a problem that the field of view presented to the participants becomes narrower with respect to the expansion of the virtual space. For example, in the example shown in FIG. 16, five avatars are gathered in this space in addition to the avatars of the participants themselves, but only four of them are displayed. Moreover, in this case, the participant's avatar itself will not be presented to the participant. It has been empirically known that it is very difficult for an avatar of oneself to feel the presence of something invisible in a virtual space.

【0081】そこで、本実施の形態のシステムでは、図
17に示されるように自己のアバターより少し後方でか
つ上に画像表示の際の視点を置くことができるように
し、かつ図16に示される表示方式と図17に示される
表示方式とを切り替えることができるようにした。
Therefore, in the system of the present embodiment, as shown in FIG. 17, it is possible to set the viewpoint at the time of image display a little behind and above the avatar of the user, and as shown in FIG. The display system and the display system shown in FIG. 17 can be switched.

【0082】図17に示される視点で仮想空間を表示す
ると、自己のアバターを参加者は表示画面で確認でき
る。そのため、自己が仮想空間内にいるという感覚を強
めることができる。さらに、視点を後方でかつ上方に置
いたため、視野が広がり、仮想空間内に集まっている同
一グループのすべてのアバターを表示で確認できる。
When the virtual space is displayed from the viewpoint shown in FIG. 17, the participants can check their avatars on the display screen. Therefore, it is possible to strengthen the feeling that the self is in the virtual space. Furthermore, since the viewpoint is placed behind and above, the field of view expands, and all avatars of the same group gathered in the virtual space can be confirmed on the display.

【0083】このような視点の切替は、クライアントが
維持しているアバターの座標自体には変更を加えず、単
にアバターを基準として予め設定された視点と、そのと
きの視線とに対して所定のベクトル演算を行なって新た
な視点を求めることにより、容易に行なうことができ
る。
Such switching of the viewpoint does not change the coordinates of the avatar itself maintained by the client, but simply sets a predetermined viewpoint with respect to the viewpoint previously set based on the avatar and the line of sight at that time. This can be easily performed by performing a vector operation to obtain a new viewpoint.

【0084】さらに、本実施の形態では、図18に示さ
れるようにさらに後方位置に視点を設定できるようにも
した。こうすることにより、集まっているアバターのみ
でなく、その周囲の比較的広い範囲まで見ることがで
き、たとえばアバターの数が多くなったとき、アバター
が比較的広い範囲に分散しているときにもアバターの集
まりの全体を確認することができる。
Further, in the present embodiment, the viewpoint can be set further rearward as shown in FIG. By doing this, you can see not only the avatars that are gathering but also a relatively wide area around it, for example, when the number of avatars is large, even when the avatars are dispersed in a relatively wide area. You can check the whole group of avatars.

【0085】なお、このような視点の位置の切替えだけ
でなく、視角を変更することもできる。さらに、視点の
位置の変更のトリガーとして参加者の指示によるだけで
はなく、参加者の人数によって自動的に切替えてもよ
い。また参加者の位置に応じて全ての参加者が視野内に
入るように自動的に視点位置を定めるようにしてもよ
い。視角についても、視点と対象物との距離により自動
的に切替えるようにしてもよい。
The viewing angle can be changed in addition to the switching of the viewpoint position. Furthermore, the change of the position of the viewpoint may be automatically switched according to the number of participants as well as according to the instructions of the participants. Further, the viewpoint position may be automatically determined so that all the participants are in the visual field according to the positions of the participants. The viewing angle may also be automatically switched depending on the distance between the viewpoint and the object.

【0086】上に述べた実施の形態のシステムでは、参
加者が提示物を他のアバターに対して提示するときに、
必ず提示対象用のウィンドウを開くようにした。しかし
本発明はそのような実施の形態には限定されない。たと
えば仮想空間内に、提示物を提示するための領域を、仮
想空間内の何らかの物品(たとえば黒板、ホワイトボー
ド、キャンバス、テーブル、台)の形で予め準備してお
き、そこに提示物を表示するようにしておいてもよい。
また、提示物を二次元図面、二次元写真、三次元モデ
ル、三次元実体写真の形で準備し、それらを壁に立て掛
けたり、机上に広げたりする形で提示するようにしても
よい。
In the system of the above-described embodiment, when a participant presents a presentation to another avatar,
Be sure to open the window for the presentation target. However, the present invention is not limited to such an embodiment. For example, an area for presenting a presentation is prepared in advance in the virtual space in the form of some article (eg, blackboard, whiteboard, canvas, table, table) in the virtual space, and the presentation is displayed there. You may leave it to do so.
Alternatively, the presentation items may be prepared in the form of a two-dimensional drawing, a two-dimensional photograph, a three-dimensional model, or a three-dimensional stereoscopic photograph, and they may be presented in the form of being leaned against a wall or spread on a desk.

【0087】その場合に、その提示物が仮想空間内にあ
たかも存在するかのように、各アバターの視点に応じて
異なる画像を各クライアントに表示するのが普通であ
る。
In this case, it is usual to display a different image on each client according to the viewpoint of each avatar, as if the presented object exists in the virtual space.

【0088】しかし、仮想空間では、提示物の表示をそ
のように行なう必然性はない。たとえば、提示物自体の
表示は仮想空間内に行なわれるが、その表示の視点を、
すべてのアバターに対して同一の視点とすることもでき
る。実際のホワイトボードはそれを見る人がどこにいる
か(たとえば表側にいるか、裏側にいるか)によって異
なって見える。しかし仮想空間では、仮想空間内のホワ
イトボードをはさんで一方にいる人と、その反対側にい
る人とでホワイトボードを全く同じように見ること(表
示すること)が可能である。
However, in the virtual space, it is not necessary to display the presentation item as such. For example, the presentation of the presentation itself is performed in the virtual space, but the viewpoint of the display is
The same viewpoint can be used for all avatars. The actual whiteboard will look different depending on where the viewer is (eg front side or back side). However, in the virtual space, it is possible to see (display) the whiteboard in exactly the same way by a person on one side of the whiteboard in the virtual space and a person on the other side.

【0089】そうした表示の例を図19に示す。図19
に示した例では、仮想空間表示用ウィンドウ330内
に、5人のアバター332、334、336、338お
よび340が存在している。そしてその中央に提示物表
示領域(「スタンド」と呼ぶ。)342が設けられ、そ
こに提示物が表示されている。ここで、たとえばアバタ
ー332から見た各アバターの配置と、アバター336
から見た各アバターの配置とは互いに異なっている。し
かし、スタンド342についてはアバター332から見
てもアバター336から見ても同じに見える。
An example of such a display is shown in FIG. FIG. 19
In the example shown in FIG. 5, five avatars 332, 334, 336, 338 and 340 are present in the virtual space display window 330. A presentation object display area (referred to as “stand”) 342 is provided in the center of the area, and the presentation object is displayed there. Here, for example, the arrangement of each avatar viewed from the avatar 332 and the avatar 336.
The arrangement of each avatar seen from is different from each other. However, the stand 342 looks the same from the avatar 332 and the avatar 336.

【0090】また、たとえば図19に示されるような表
示と、図20に示されるような提示物の拡大表示とを切
替えて行なうことも可能である。図20では、仮想空間
表示用ウィンドウ330の中にスタンド342が拡大表
示され、その結果提示物344がより分かりやすく表示
される。
It is also possible to switch between the display as shown in FIG. 19 and the enlarged display of the presentation as shown in FIG. 20, for example. In FIG. 20, the stand 342 is enlarged and displayed in the virtual space display window 330, and as a result, the presentation object 344 is displayed in a more understandable manner.

【0091】このような表示の切替は、視点の位置の変
更のみによって、通常の表示方法を用いて容易に実現で
きる。図21にこの表示の切替を行なって提示物を表示
するためのプログラムのフローチャートを示す。
Such switching of display can be easily realized by using a normal display method only by changing the position of the viewpoint. FIG. 21 shows a flowchart of a program for switching the display and displaying the presented object.

【0092】図21に示される処理に先立って、図19
に示されるような形式で表示が既に行なわれているもの
とする。まずステップ350で提示対象を選択する処理
が行なわれる。この処理は図15のステップ310で行
なわれる処理と同様である。続いて、ステップ352で
視点を提示物の近くに移動する処理を行ない、ステップ
350で選択された提示対象のコピーを高解像度で表示
する。このときの表示結果が図20に示したものであ
る。同一グループの全てのクライアントに対してこの提
示対象の、ネットワーク上の実体ファイルへのポインタ
が送信され、全てのクライアントでこの実体ファイルを
アクセスすることによりステップ352と同様の処理が
行なわれる。
Prior to the processing shown in FIG. 21, FIG.
It is assumed that the display has already been performed in the format shown in. First, in step 350, a process of selecting a presentation target is performed. This process is similar to the process performed in step 310 of FIG. Subsequently, in step 352, a process of moving the viewpoint to near the presentation object is performed, and the copy of the presentation target selected in step 350 is displayed in high resolution. The display result at this time is shown in FIG. The pointer to the entity file on the network, which is the presentation target, is transmitted to all the clients in the same group, and all clients access the entity file to perform the same processing as step 352.

【0093】続いてステップ354で、参加者によって
提示対象の拡大表示、回転、提示対象への追記処理が行
なわれるなど、何らかのイベントが発生したか否かの判
定が行なわれる。何らかのイベントが発生した場合に
は、ステップ356でそのイベントに対応して提示物の
拡大、回転、追記処理等を行ない、更新後の提示物の表
示を行なう。イベントがなかった場合には何も行なわれ
ない。
Subsequently, in step 354, it is determined whether or not any event has occurred, such as enlarging display of the presentation target, rotation of the presentation target, and additional recording processing on the presentation target. If any event occurs, in step 356, the presentation item is enlarged, rotated, or additionally recorded in response to the event, and the updated presentation item is displayed. If there is no event, nothing happens.

【0094】次にステップ358では、提示物表示モー
ドの終了が参加者によって指示されたか否かについての
判定が行なわれる。もし終了の指示がされていない場合
には制御はステップ354に戻り、ステップ354から
358の処理が繰返し行なわれる。もし終了の指示が行
なわれていれば、ステップ360で視点を元の位置に戻
す処理が行なわれて提示処理を終了する。
Next, in step 358, it is determined whether or not the participant has instructed the end of the presentation object display mode. If the end instruction has not been issued, the control returns to step 354, and the processing of steps 354 to 358 is repeated. If the end instruction has been issued, a process of returning the viewpoint to the original position is performed in step 360, and the presentation process ends.

【0095】なお、このような視点の切替は、参加者の
指示によってではなく、参加者の視線を観察して、参加
者が画像中のある部分に注目したときにその部分のクロ
ーズアップ表示が行なわれるように自動的に行なうよう
にしてもよい。ただしこの場合、たとえば参加者の注目
点を画像認識により特定するような装置が必要となる。
It should be noted that such switching of viewpoints is not performed by the participant's instruction, but by observing the line of sight of the participant and when the participant pays attention to a certain part in the image, a close-up display of the part is displayed. It may be performed automatically as is done. However, in this case, for example, a device that identifies the point of interest of the participant by image recognition is required.

【0096】以上のように本実施の形態によると、アバ
ターを用いて仮想空間で外国語修得のためのコミュニケ
ーションを行なう。このように仮想空間を外国語の修得
に用いることにより、参加者は日常生活の延長でありな
がら、日常生活とは異なる感覚を持ち、積極的に他の参
加者との会話を修得対象の言語で行なうようになる。そ
のため、単純に教室で他の参加者と顔を合わせながら会
話学習を行なう場合と比較してより効率的に外国語を習
得することができる。
As described above, according to the present embodiment, communication for foreign language learning is performed in the virtual space using the avatar. By using the virtual space to learn foreign languages in this way, participants have a different feeling from their daily lives even though they are extensions of their daily lives, and actively learn conversations with other participants. Will be done in. Therefore, it is possible to learn a foreign language more efficiently as compared with a case where conversation learning is simply performed while face-to-face with other participants in the classroom.

【0097】また手を用いて簡略な形式でアバターのア
クションが指定できる上に、視線をモニタから他に移動
させることが不要なため、モニタ上に表示される仮想空
間に集中でき、外国語の修得がより効率的となった。
Also, since the action of the avatar can be specified in a simple format by using the hand and it is not necessary to move the line of sight from the monitor to another, it is possible to concentrate on the virtual space displayed on the monitor, and the foreign language Learning has become more efficient.

【0098】なお、同一のクラスターのクライアントコ
ンピュータ同士は、パーティションなどで区切るように
し、さらに隣り合う参加者同士は必ず別々のグループに
属するようにすると、隣同士の参加者が仮想空間を通す
ことなく直接話してしまうことが防止できる。
If the client computers in the same cluster are partitioned by partitions, etc., and the adjoining participants must belong to different groups, the adjoining participants do not pass through the virtual space. You can prevent talking directly.

【0099】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
The embodiments disclosed this time are to be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description but by the claims, and is intended to include meanings equivalent to the claims and all modifications within the scope.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の一実施の形態にかかる英語修得シス
テムの全体構成を示す図である。
FIG. 1 is a diagram showing an overall configuration of an English learning system according to an embodiment of the present invention.

【図2】 図1に示されるシステムの一クラスタをより
詳細に示す図である。
2 is a more detailed diagram of a cluster of the system shown in FIG. 1. FIG.

【図3】 このシステムで使用されるコンピュータシス
テムの外観を示す図である。
FIG. 3 is a diagram showing the external appearance of a computer system used in this system.

【図4】 このシステムで使用されるコンピュータシス
テムのハードウェア構成を示す図である。
FIG. 4 is a diagram showing a hardware configuration of a computer system used in this system.

【図5】 サーバ管理情報を示す図である。FIG. 5 is a diagram showing server management information.

【図6】 サーバ管理情報のうち、個々のグループ情報
の構成を示す図である。
FIG. 6 is a diagram showing a configuration of individual group information in the server management information.

【図7】 サーバ管理情報の、個々のグループ情報のう
ち、個々のアバター情報の構成を示す図である。
FIG. 7 is a diagram showing a configuration of individual avatar information among individual group information of server management information.

【図8】 クライアント管理情報の構成を示す図であ
る。
FIG. 8 is a diagram showing a structure of client management information.

【図9】 アバターの位置情報などに関するサーバとク
ライアントとの間の通信シーケンスを示す図である。
FIG. 9 is a diagram showing a communication sequence between a server and a client regarding position information of an avatar and the like.

【図10】 音声の通信に関するサーバとクライアント
との間の通信シーケンスを示す図である。
FIG. 10 is a diagram showing a communication sequence between a server and a client regarding voice communication.

【図11】 クライアントシステムの機能的構成を示す
図である。
FIG. 11 is a diagram showing a functional configuration of a client system.

【図12】 クライアントにおいてメッセージ処理のた
めに実行されるプログラムのフローチャートである。
FIG. 12 is a flowchart of a program executed for message processing in a client.

【図13】 クライアントにおいてカメラを用いた手の
動きによる指示を入力するためのプログラムのフローチ
ャートである。
FIG. 13 is a flowchart of a program for inputting an instruction by a hand movement using a camera in a client.

【図14】 手の動きの組合せおよび指の本数によるア
クションを示す図である。
FIG. 14 is a diagram showing an action depending on a combination of hand movements and the number of fingers.

【図15】 提示物を提示するための処理を実行するプ
ログラムのフローチャートである。
FIG. 15 is a flowchart of a program that executes a process for presenting a presentation item.

【図16】 アバターの視点で描画された仮想空間を示
す図である。
FIG. 16 is a diagram showing a virtual space drawn from the viewpoint of an avatar.

【図17】 アバターよりやや後方かつ上方の視点で描
画された仮想空間を示す図である。
FIG. 17 is a diagram showing a virtual space drawn from a viewpoint slightly behind and above the avatar.

【図18】 アバターよりさらに後方かつ上方の視点で
描画された仮想空間を示す図である。
FIG. 18 is a diagram showing a virtual space drawn from a viewpoint behind and above the avatar.

【図19】 アバターとともに提示物を仮想空間内に描
画したときのモニタ表示を示す図である。
FIG. 19 is a diagram showing a monitor display when a presentation is drawn in a virtual space together with an avatar.

【図20】 提示物を拡大表示したときのモニタ表示を
示す図である。
FIG. 20 is a diagram showing a monitor display when a presentation object is enlarged and displayed.

【図21】 提示物をアバターとともに表示する方法
と、提示物のみを拡大して表示する方法とを切り替える
処理のフローチャートである。
FIG. 21 is a flowchart of a process of switching between a method of displaying a presentation item together with an avatar and a method of enlarging and displaying only the presentation item.

【符号の説明】[Explanation of symbols]

54 サーバ、50から64 クラスタ、72から80
クライアントコンピュータシステム、90 コンピュ
ータ、92 モニタ、94 カメラ、96 キーボー
ド、98 ヘッドホン、100 マイクロホン、106
マウス、140FD、142 CD−ROM、150
サーバ管理情報。
54 servers, 50 to 64 clusters, 72 to 80
Client computer system, 90 computer, 92 monitor, 94 camera, 96 keyboard, 98 headphones, 100 microphone, 106
Mouse, 140FD, 142 CD-ROM, 150
Server management information.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平7−255044(JP,A) 特開 平6−27874(JP,A) 特開 平8−314625(JP,A) 特開 平11−249779(JP,A) 特開2000−172740(JP,A) 特開 平8−6965(JP,A) 特開2000−90285(JP,A) 特開 平8−329282(JP,A) 特開2001−338077(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 G06T 11/60 - 17/50 G06F 3/00 G09B 1/00 - 9/56 G09B 17/00 - 19/26 H04N 7/10 - 7/22 ─────────────────────────────────────────────────── ─── Continuation of the front page (56) Reference JP-A-7-255044 (JP, A) JP-A-6-27874 (JP, A) JP-A-8-314625 (JP, A) JP-A-11- 249779 (JP, A) JP 2000-172740 (JP, A) JP 8-9665 (JP, A) JP 2000-90285 (JP, A) JP 8-329282 (JP, A) JP 2001-338077 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G06T 1/00 G06T 11/60-17/50 G06F 3/00 G09B 1/00-9/56 G09B 17 / 00-19/26 H04N 7/10-7/22

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 コンピュータネットワーク上において、
外国語で生活するための仮想の場を分散仮想環境で実現
するためにコンピュータネットワークに接続される、外
国語修得のための分散仮想環境コンピュータシステムで
あって、 使用者の発する音声を電気信号に変換するための音声変
換手段と、 電気信号を音声に変換するための音声再生手段と、 前記使用者の身体的動きを検知して、前記分散仮想環境
に対する指示を生成するための指示生成手段と、 ディスプレイと、 前記ネットワーク、前記音声変換手段、前記音声再生手
段、前記ディスプレイ、および前記指示生成手段に接続
され、前記ネットワークを介して受信した情報、あらか
じめ準備される、仮想環境を実現するために必要な情
報、および前記指示生成手段から与えられた指示を処理
して仮想環境を維持するとともに、前記ディスプレイお
よび前記音声再生手段を駆動して、仮想環境における参
加者の活動を維持する機能、ならびに前記指示生成手段
から与えられる指示および前記音声変換手段から与えら
れる電気信号に応答して、他のコンピュータシステムに
与えるべき情報を前記ネットワーク上の予め定められた
宛先に送信する通信機能とを実現するようにプログラム
されたコンピュータとを含み、 前記仮想環境における参加者の活動を維持する機能は、
前記分散仮想環境コンピュータシステムにより実現され
る仮想環境に対する参加者のアバターのアニメーション
表示、および前記使用者のアバターに関連して定められ
る視点からの仮想環境の表示を前記ディスプレイ上に行
なうための手段を含み、 前記指示生成手段は、前記使用者の手の動作を画像処理
により認識して、前記使用者のアバターに所定の動作を
させるための指示を生成するための手段を含み、 前記コンピュータは、前記仮想環境内のいずれかの参加
者が指定した、前記仮想環境内の他の参加者に対して提
示すべき提示物を前記ディスプレイ上に表示するように
さらにプログラムされており、 前記コンピュータは、さらに、前記提示物の画像を、前
記使用者のアバターの視点とは異なる一定の視点から見
た形で前記ディスプレイに表示するようにプログラムさ
れている、外国語修得のための分散仮想環境コンピュー
タシステム。
1. On a computer network,
A distributed virtual environment computer system for learning a foreign language, which is connected to a computer network to realize a virtual place for living in a foreign language in a distributed virtual environment. A voice converting means for converting, a voice reproducing means for converting an electric signal into a voice, and an instruction generating means for detecting a physical movement of the user and generating an instruction for the distributed virtual environment. A display, and a network connected to the network, the voice conversion unit, the voice reproduction unit, the display, and the instruction generation unit, information received via the network, prepared in advance, for realizing a virtual environment. The virtual environment is maintained by processing the necessary information and the instruction given from the instruction generating means, and Another computer in response to the function of driving the play and the voice reproducing means to maintain the activity of the participant in the virtual environment, and the instruction given from the instruction generating means and the electric signal given from the voice converting means. And a computer programmed to realize a communication function of transmitting information to be given to a system to a predetermined destination on the network, and a function of maintaining the activity of the participants in the virtual environment,
It is defined in relation to the animation display of the avatar of the participant in the virtual environment realized by the distributed virtual environment computer system , and the avatar of the user.
The instruction generation means recognizes the motion of the user's hand by image processing, and performs a predetermined motion on the avatar of the user. The computer includes a presentation item to be presented to other participants in the virtual environment specified by any participant in the virtual environment. The computer is further programmed to be displayed on the display, and the computer further displays the image of the presentation on the display from a certain viewpoint different from the viewpoint of the avatar of the user. A distributed virtual environment computer system for learning foreign languages.
【請求項2】 前記指示を生成するための手段は、前記
使用者の手の動作を認識して、前記使用者のアバターに
所定の表情をさせるための指示を生成するための手段を
含む、請求項1に記載の外国語修得のための分散仮想環
境コンピュータシステム。
2. The means for generating the instruction includes a means for recognizing a motion of the user's hand and generating an instruction for causing the avatar of the user to have a predetermined facial expression. A distributed virtual environment computer system for acquiring a foreign language according to claim 1.
【請求項3】 前記指示を生成するための手段は、前記
使用者の手の動作を認識して、ディスプレイに表示され
る仮想環境の画像の生成時の視点を移動させるための指
示を生成するための手段を含む、請求項1に記載の外国
語修得のための分散仮想環境コンピュータシステム。
3. The means for generating the instruction recognizes the movement of the user's hand and generates an instruction for moving the viewpoint when the image of the virtual environment displayed on the display is generated. The distributed virtual environment computer system for learning a foreign language according to claim 1, further comprising:
【請求項4】 前記指示生成手段は、前記使用者の手の
動作を認識して、前記ディスプレイに表示される仮想環
境の画像の生成時の視角を変化させるための指示を生成
するための手段を含む、請求項1に記載の外国語修得の
ための分散仮想環境コンピュータシステム。
4. The instruction generating means recognizes the movement of the user's hand, and generates an instruction for changing the viewing angle when the image of the virtual environment displayed on the display is generated. A distributed virtual environment computer system for learning a foreign language according to claim 1, comprising:
【請求項5】 前記指示を生成するための手段は、前記
使用者の手の動作を認識して、前記ディスプレイに表示
される画像を、前記仮想環境の画像と、前記提示物の拡
大表示との間で切り替えるための指示を生成するための
手段を含む、請求項に記載の外国語修得のための分散
仮想環境コンピュータシステム。
5. The means for generating the instruction recognizes the motion of the user's hand and displays an image displayed on the display as an image of the virtual environment and an enlarged display of the presentation. The distributed virtual environment computer system for foreign language learning according to claim 1 , including means for generating an instruction for switching between.
【請求項6】 前記コンピュータは、前記提示物の画像
を前記仮想環境内に前記参加者のアバターとともに表示
するようにさらにプログラムされている、請求項5に
載の外国語修得のための分散仮想環境コンピュータシス
テム。
6. The foreign language acquisition of claim 5, wherein the computer is further programmed to display an image of the presentation with the participant's avatar in the virtual environment. Virtual environment computer system for Linux.
JP2000271115A 2000-09-07 2000-09-07 Distributed virtual environment computer system for learning foreign languages Expired - Fee Related JP3466143B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000271115A JP3466143B2 (en) 2000-09-07 2000-09-07 Distributed virtual environment computer system for learning foreign languages

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000271115A JP3466143B2 (en) 2000-09-07 2000-09-07 Distributed virtual environment computer system for learning foreign languages

Publications (2)

Publication Number Publication Date
JP2002083319A JP2002083319A (en) 2002-03-22
JP3466143B2 true JP3466143B2 (en) 2003-11-10

Family

ID=18757447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000271115A Expired - Fee Related JP3466143B2 (en) 2000-09-07 2000-09-07 Distributed virtual environment computer system for learning foreign languages

Country Status (1)

Country Link
JP (1) JP3466143B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104556A (en) * 2002-09-11 2004-04-02 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for reproducing video, and recording medium for video reproduction program
US20050222801A1 (en) * 2004-04-06 2005-10-06 Thomas Wulff System and method for monitoring a mobile computing product/arrangement
KR100768991B1 (en) 2006-09-28 2007-10-22 유인자 Training apparatus for foreign language and control method thereof
JP5647813B2 (en) * 2010-05-12 2015-01-07 シャープ株式会社 Video presentation system, program, and recording medium
KR101743230B1 (en) 2016-04-18 2017-06-05 (주)케이디엠티 Apparatus and method for providing realistic language learning contents based on virtual reality and voice recognition
JP7173249B2 (en) * 2017-05-09 2022-11-16 ソニーグループ株式会社 CLIENT DEVICE, DISPLAY SYSTEM, CLIENT DEVICE PROCESSING METHOD AND PROGRAM

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0627874A (en) * 1992-07-08 1994-02-04 Sony Corp Language learning method
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2832678B2 (en) * 1994-06-16 1998-12-09 株式会社エイ・ティ・アール通信システム研究所 Information retrieval device
US5757360A (en) * 1995-05-03 1998-05-26 Mitsubishi Electric Information Technology Center America, Inc. Hand held computer control device
JP3193263B2 (en) * 1995-06-05 2001-07-30 日本電信電話株式会社 3D image display system
JP2874865B1 (en) * 1998-03-03 1999-03-24 株式会社エイ・ティ・アール知能映像通信研究所 Visitor guide support apparatus and method
JP2000172740A (en) * 1998-12-10 2000-06-23 Matsushita Electric Works Ltd Design supporting system with viewpoint information display function
JP3341734B2 (en) * 1999-09-13 2002-11-05 凸版印刷株式会社 Video display device
JP2001338077A (en) * 2000-05-24 2001-12-07 Digital Passage:Kk Language lesson method through internet, system for the same and recording medium

Also Published As

Publication number Publication date
JP2002083319A (en) 2002-03-22

Similar Documents

Publication Publication Date Title
Machidon et al. Virtual humans in cultural heritage ICT applications: A review
Lanier Virtually there
Greenhalgh et al. MASSIVE: a collaborative virtual environment for teleconferencing
Steed et al. Collaboration in immersive and non-immersive virtual environments
Benford et al. Networked virtual reality and cooperative work
WO2003058518A2 (en) Method and apparatus for an avatar user interface system
Greenhalgh et al. Virtual reality tele-conferencing: Implementation and experience
Röber et al. Playing audio-only games a compendium of interacting with virtual, auditory worlds
JP3466143B2 (en) Distributed virtual environment computer system for learning foreign languages
Johnson et al. Tele-immersive collaboration in the CAVE research network
Agamanolis et al. Reflection of Presence: Toward more natural and responsive telecollaboration
JP2005055846A (en) Remote educational communication system
Jin et al. A live speech-driven avatar-mediated three-party telepresence system: design and evaluation
Leung et al. Creating a multiuser 3-D virtual environment
Letellier et al. Visualization and interaction techniques in virtual reality for guided tours
CN117806457A (en) Presentation in a multi-user communication session
Goebel et al. Today's VR
Billinghurst et al. Collaboration with wearable computers
Wang et al. Co-Presence in mixed reality-mediated collaborative design space
US20240211093A1 (en) Artificial Reality Coworking Spaces for Two-Dimensional and Three-Dimensional Interfaces
WO2024009653A1 (en) Information processing device, information processing method, and information processing system
US20240013488A1 (en) Groups and Social In Artificial Reality
CN118691718A (en) Lightweight conversation using avatar user representations
Bartlett et al. Using games as a means for collaboration
Noevo Collaborative interaction in immersive 360º experiences

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees