[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH0773338A - Virtual reality apparaus mainly based on vision - Google Patents

Virtual reality apparaus mainly based on vision

Info

Publication number
JPH0773338A
JPH0773338A JP6138502A JP13850294A JPH0773338A JP H0773338 A JPH0773338 A JP H0773338A JP 6138502 A JP6138502 A JP 6138502A JP 13850294 A JP13850294 A JP 13850294A JP H0773338 A JPH0773338 A JP H0773338A
Authority
JP
Japan
Prior art keywords
environment
user
soft robot
unit
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6138502A
Other languages
Japanese (ja)
Other versions
JP3105131B2 (en
Inventor
Nobuhiro Hattori
宜弘 服部
Tsuneko Okada
常子 岡田
Sachio Nagamitsu
左千男 長光
Hisashi Kodama
久 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to US08/263,187 priority Critical patent/US5590062A/en
Priority to JP06138502A priority patent/JP3105131B2/en
Priority to DE69433191T priority patent/DE69433191T2/en
Priority to EP94304840A priority patent/EP0633549B1/en
Publication of JPH0773338A publication Critical patent/JPH0773338A/en
Application granted granted Critical
Publication of JP3105131B2 publication Critical patent/JP3105131B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

PURPOSE:To provide a virtual reality apparatus mainly based on vision so as to facilitate operability by intuitively providing layout materials. CONSTITUTION:A user wears a stereoscopic viewing means 11 to both the eyes by using any holder or belt. A storage means stores the materials required for generating the plural environments which is the target for visually experiencing virtual reality after they are inputted before the simulation. An in-view menu generating means generates a menu inside the view of the stereoscopic viewing device so that the user can select desired virtual reality. The menu selecting means can select any menu intended by the user out of the menus generated inside the view corresponding to the operation of one hand of the user. Based on the materials stored by the memory, a stereoscopic environment generating means generates the stereoscopic environment selected by the menu selecting means inside the stereoscopic viewing means 11. The simulating person can perform the input operation only by one hand.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、擬似体験装置に関し、
特に住宅設計時に各種の住環境を視覚を中心として、更
に聴覚により予測し、確認する擬似体験装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a simulated experience device,
In particular, the present invention relates to a simulated experience device for predicting and confirming various living environments mainly by sight and auditorily when designing a house.

【0002】[0002]

【従来の技術】近年、住宅に対する消費者の要求も多種
多様となってきている。一方、住宅においては、空調機
器等の住宅関連設備、機器の高機能・高性能化は著し
い。特に近年はハウジングエアコン(家屋と一体的に装
備される空調機)のように躯体一体型のものが増加して
きており、かかる場合には一般に住宅設計時に住宅関連
設備機器を同時に選定する必要がある。更に、窓、照明
具等はもとよりTV受像機、勉強机の位置等の点からも
室内の光環境を設計時から充分考慮する必要性が増大し
ている。
2. Description of the Related Art In recent years, the demands of consumers for houses have become diverse. On the other hand, in the case of homes, high-performance and high-performance home-related facilities and equipment such as air conditioners are remarkable. Especially in recent years, housing-type air conditioners (air conditioners integrated with a house) have been increasing, and in such cases, it is generally necessary to simultaneously select housing-related equipment when designing a house. . Furthermore, it is becoming more and more necessary to consider the indoor light environment from the time of designing, not only in terms of the positions of TV receivers, study desks, etc., as well as windows and lighting equipment.

【0003】他方、アメニティ(amenity,場所、空調、
視覚等の快適さ)志向は依然として高く、このため単な
る物理的な面からの居住性に加えて狭い空間を有効に利
用しつつその室内空間の美観も優れ、精神面、気分面か
らも居住者が十分に満足する住環境を迅速に提供可能な
住宅設計も望まれている。また、新築時のみならず、改
修の場合にもこれらのことは重要である。
On the other hand, amenities (amenity, place, air conditioning,
(Comfort such as visual sense) is still high, and therefore, in addition to the habitability only from the physical side, the aesthetics of the indoor space is excellent while effectively utilizing the narrow space, and from the mental and mood aspects There is also a demand for a housing design that can promptly provide a living environment that is sufficiently satisfied with. Moreover, these things are important not only for new construction but also for renovation.

【0004】また、住宅のみならず、店舗、事務所など
多数の人々が作業をし、利用するところでも、このよう
なことは重要となりつつある。ところが、住宅設計に際
して、個々の物件毎に使用者、居住者の様々な要求仕様
を満足させつつ最適なものとするためには、従来の如く
縮小模型を用いた実験的手法では人件費の高い欧米や日
本では特にコスト高になり、更に現実の問題として迅速
な対応も困難である。そこで、近年発達の著しい計算機
技術を採用することにより、その住宅環境を仮想的に構
成した上で3次元住環境評価を実施するがなされてい
る。そして、これにより短時間、低コストで空調、照
明、音響等の評価を行うことが可能となっている。いわ
ゆる、一種のコンピュータシミュレーションである。し
かも、このシミュレーション結果をバーチャルリアリテ
ィと呼ばれる仮想空間として形成した上で、擬似体験装
置により実際に近い状態で体験可能とすることまでも容
易になってきている。このため、設計段階において必要
な大量の解析データを効率的に把握でき、さらに最終需
要者等、例えば顧客たる居住者や販売者(セールスマ
ン)に建物の住宅環境を実際に建築する前に擬似体験を
してもらう等の提案型営業にも採用されようとしてい
る。そして、これは特に同一規格の住宅を多量に生産、
販売することとなるマンション、建売住宅、事務用ビル
等で重要である。さて、従来はこの住環境のシミュレー
ション結果をCRTやドーム状のディスプレイ上に2次
元表示するか、或は立体メガネを用いて立体視差により
3次元表示するのが一般的であり、その上で完成した住
宅の性能評価に用いられることが多かった。この場合に
は、ハードウェアの進歩により擬似体験装置のコストパ
フォーマンスが向上し、例えば図1に示すようにゴーグ
ル型立体表示装置11と演算制御装置13と3次元入力
装置12を装備した上で、ゴーグル型立体表示装置に仮
想的かつ立体的に構成された室内を、見る角度や見る位
置に応じて変化させることにより、これらを変更すれば
室内の様子がどのようになるかを実際に近い状態で擬似
的に観察することが可能となってきた。なお、ここで、
ゴーグル型立体表示装置11とは、左右両眼各々用に小
型の画像形成装置を有し、更にこの左右の両眼用として
形成される画像は、単に遠方の機器等は距離に応じて小
さく表示されるだけでなく、左右で所定の視差を与えて
表示することにより、あたかも実際の環境で実物を肉眼
で視ているかのごとき立体的、遠近的間隔が得られるも
のである。また必要に応じて、メニュー等も表示可能と
なっている。更に、3次元入力装置12は、両眼をゴー
グル型立体表示装置11でふさがれているため、一般に
は図1に示したようなデータグローブと呼ばれるものが
使用されている。ここにデータグローブ12とは、伸縮
可能な波状若しくは螺線状の金属細線を多数埋め込んだ
手袋であり、手、特に指で各種のスイッチ操作やこれに
類似した動作を行うと、上記金属細線が伸縮したりする
ことによりその動作内容を検出可能とするものである。
そして、あらかじめ手、指の動作に対応して、擬似体験
装置へ入力される指示が定められており、このため手、
指の動作により各種指示が入力可能、ひいては仮想的に
構成される空間内を擬似体験可能となる。更に、擬似体
験者の頭部には磁気検出端15が上下、左右、前後の3
方向に向けて装備され、これが別途備えられた磁場発生
装置14による磁場の三方向の強さの変化を検出するこ
とにより、頭部の傾きをも検出した上で、この傾きをも
ゴーグル型立体表示装置に形成される仮想空間の視野に
反映可能となっている。ここで、磁気検出としているの
は、光による検出は室内照明の影響を受け易いこと、音
による検出は外部からの騒音に影響され易いことを考慮
したものである。
[0004] In addition to housing, such things are becoming important not only in shops and offices where many people work and use. However, when designing a house, in order to optimize it while satisfying various specifications of users and residents for each individual property, the conventional experimental method using a reduced model requires a high labor cost. Costs are particularly high in Europe, the United States and Japan, and it is difficult to respond quickly as a real problem. Therefore, by adopting a computer technology which has been remarkably developed in recent years, the three-dimensional living environment evaluation is carried out after the housing environment is virtually constructed. This makes it possible to evaluate air conditioning, lighting, sound, etc. in a short time and at low cost. This is a kind of computer simulation. Moreover, it is becoming easier to form the simulation result as a virtual space called virtual reality and then make it possible to experience it in a state close to reality by using a simulated experience device. For this reason, it is possible to efficiently grasp a large amount of analysis data required in the design stage, and also to simulate the residential environment of the building before the actual construction of the residential environment for the final user such as a resident or sales person (salesman) who is a customer. It is about to be adopted in proposal-based sales, such as for people to experience it. And this is a large amount of production of houses of the same standard,
It is important for condominiums, houses for sale, office buildings, etc. that will be sold. By the way, conventionally, it is general that the simulation result of the living environment is two-dimensionally displayed on a CRT or a dome-shaped display, or three-dimensionally by stereoscopic parallax using stereoscopic glasses, and then completed. It was often used to evaluate the performance of existing houses. In this case, the cost performance of the simulated experience device is improved by the progress of the hardware, and, for example, as shown in FIG. 1, the goggle type stereoscopic display device 11, the arithmetic and control unit 13, and the three-dimensional input unit 12 are installed, By changing the virtual and three-dimensional interior of the goggles type stereoscopic display device according to the viewing angle and viewing position, it is possible to see what the room looks like by changing them. It has become possible to observe artificially. Here,
The goggle type stereoscopic display device 11 has a small image forming device for each of the left and right eyes, and an image formed for the left and right eyes is simply displayed in a small size according to the distance in a distant device or the like. Not only is it displayed, but by giving a predetermined parallax on the left and right sides, it is possible to obtain a stereoscopic and perspective distance as if an actual object is viewed with the naked eye in an actual environment. In addition, menus and the like can be displayed if necessary. Further, since the three-dimensional input device 12 has both eyes closed by the goggle type stereoscopic display device 11, generally, what is called a data glove as shown in FIG. 1 is used. Here, the data glove 12 is a glove in which a large number of expandable and contractible corrugated or spiral metal thin wires are embedded, and when various switch operations or similar operations are performed with a hand, especially a finger, the metal thin wires are By expanding or contracting, the operation content can be detected.
Then, the instructions to be input to the simulated experience device are set in advance corresponding to the movements of the hands and fingers.
Various instructions can be input by the movement of a finger, and it is possible to experience a virtual experience in a virtually constructed space. In addition, the magnetic detection end 15 is placed on the head of the simulated person in three directions of up, down, left and right, and front and back.
By detecting the change in the strength of the magnetic field in the three directions by the magnetic field generator 14 separately provided for the direction, the tilt of the head is also detected, and this tilt is also a goggle type solid. It can be reflected in the visual field of the virtual space formed on the display device. Here, the magnetic detection is taken into consideration that the detection by light is easily affected by the indoor lighting, and the detection by sound is easily affected by noise from the outside.

【0005】なお、立体表示するのに必要な手段として
は、東西方向をX座標、南北方向をY座標、上下方向を
Z座標として各機器、家屋やその壁や窓等の位置や形状
等を3次元座標で与え、これを基準とした目の高さhを
z=hとした上で、視差や見える形状や見える大きさを
計算する等の手法が採用されている。図1の1300に
入力された形状等を概念的に示す。
As means necessary for three-dimensional display, the position and shape of each device, house, its wall, window, etc. are defined with X coordinate in the east-west direction, Y coordinate in the north-south direction, and Z coordinate in the vertical direction. A method is used in which parallax, a visible shape, and a visible size are calculated after the eye height h based on the three-dimensional coordinates is set as z = h. The shape etc. input into 1300 of FIG. 1 are shown notionally.

【0006】また、人が装着したまま移動することによ
り視覚、聴覚が変化する様子もある程度体験可能とされ
る。この場合の人の移動は、同じく検出端の必要数や構
成が少なくてすむ上に音と光に無関係な磁気検出端15
による磁気発生装置14の発生する磁場の検出によりな
される等されている。以上のもとで、単に室内の機器が
立体的に表示されるだけでなく、図2に示すように、温
熱環境や照明による光環境等も立体的に表示される。図
2のAにエアコン21から吹き出される空気流の表示2
2と温度分布解析性指標の等高線23を示す。図2のB
にシャンデリア24からの照明による照度分布の等高線
25を示す。図2のCにステレオ型ヘッドホーン26に
より聴覚的な環境を体験している様子を示す。
[0006] Further, it is possible to experience, to some extent, how the sight and hearing change when a person moves while wearing it. In this case, the movement of the person is the same as the required number of detectors or the number of detectors is small, and the magnetic detector 15 is independent of sound and light.
Is performed by detecting the magnetic field generated by the magnetic generator 14. Based on the above, not only the equipment in the room is stereoscopically displayed, but also the thermal environment and the light environment due to the illumination are stereoscopically displayed as shown in FIG. Display 2 of the air flow blown out from the air conditioner 21 in A of FIG.
2 and the contour line 23 of the temperature distribution analytic index are shown. B of FIG.
A contour line 25 of the illuminance distribution due to the illumination from the chandelier 24 is shown in FIG. FIG. 2C shows how the stereo headphones 26 experience an auditory environment.

【0007】これらの計算のために必要な法則や事実
は、たとえば以下のようなものである。 (1)機器の視野に占める立体角は目からの距離の自乗
に逆比例する。 (2)両眼の視差は距離に逆比例する。 (3)光源から受ける光量や音源からの音量は距離の自
乗に逆比例する。
The laws and facts necessary for these calculations are as follows, for example. (1) The solid angle in the visual field of the device is inversely proportional to the square of the distance from the eye. (2) Binocular parallax is inversely proportional to distance. (3) The amount of light received from the light source and the volume from the sound source are inversely proportional to the square of the distance.

【0008】(4)照明機器、音源から発せられる光や
音の指向性や周波数等の内容、反射面における入射角の
如何による反射率の変化、光や音の各機器による吸収率
や空気、ガラスでの減衰率等は、条件を与えれば定まっ
ている。 (5)同じく、空気の比熱や粘性、熱源からの放熱量、
各機器等の熱的性質等も条件を与えれば定まっている。
(4) Illumination equipment, contents such as directivity and frequency of light and sound emitted from a sound source, change in reflectance due to incident angle on a reflecting surface, absorption of light and sound by each equipment, and air, Attenuation rate and the like in glass are fixed if conditions are given. (5) Similarly, the specific heat and viscosity of air, the amount of heat released from the heat source,
The thermal properties of each device, etc. are also determined if conditions are given.

【0009】(6)EULERの式、連続の式等各種の
解析用の式。 ただし、これらは本発明の要旨そのものではなく、学校
の数学や図学や物理の教科書にも掲載されたものであ
る。また、三次元の視覚表示に音響をも反映させたりす
る応用例や、家屋のような実体物でなくプログラム選択
のためのメニュー等を表示させる等のプログラム技術の
一般的な説明は、例えば服部 桂著 K.K. 工学調
査会刊「人工現実感の世界」等に紹介されているいわば
周知の技術である。また、補間法、数値微分及び数値積
分、差分法、遷移行列法、有限要素法等各種の式や解析
方法も広く知られたものである。このため、それらにつ
いての説明は省略する。
(6) Various analysis formulas such as the EULER formula and the continuous formula. However, these are not the gist of the present invention per se, and have been published in school mathematics, graphic arts, and physics textbooks. In addition, general examples of programming technology such as application examples that reflect sound in three-dimensional visual display and displaying menus for program selection instead of physical objects such as houses are described in Hattori Katsura K. K. It is a so-called well-known technology introduced in "World of Artificial Reality" published by Engineering Research Society. In addition, various formulas and analysis methods such as interpolation method, numerical differentiation and numerical integration, difference method, transition matrix method, and finite element method are widely known. Therefore, the description thereof will be omitted.

【0010】[0010]

【発明が解決しようとする課題】しかしながら、上記従
来のデータグローブを使用した3次元入力装置12で
は、対象とする建物、部屋、或は評価する環境要素等を
メニュー選択するためには、3次元空間内に描画された
データグローブ12が選択するメニューを掴むことがで
きる位置にまでデータグローブ12を移動させなければ
ならない。このため、両眼にゴーグル型立体表示装置1
1をつけた状態で体の重心をとりつつ上腕を動かすこと
が必要である。
However, in the three-dimensional input device 12 using the above-mentioned conventional data globe, in order to select the target building, room, or environmental element to be evaluated from the menu, the three-dimensional input device 12 is used. The data globe 12 must be moved to a position where the menu selected by the data globe 12 drawn in the space can be grabbed. Therefore, the goggles-type stereoscopic display device 1 for both eyes
It is necessary to move the upper arm while keeping the center of gravity of the body while wearing 1.

【0011】また、通常あまり採用されていない、指の
動作による入力のための規則もおぼえておかねばならな
い。このため、操作性は非常に低い。そして、これは初
心の設計事技術者はもとより、セールスエンジニアリン
グにおいて、顧客が擬似体験を欲する場合には重大であ
る。また、室内の什器(壁、窓等の固定的な機器類)、
或は変更したい設備機器(照明具、エアコン、洗濯機等
の動かしたり取りかえたりすることが可能な機器類)等
を選択するためには、仮想空間内を移動しなければなら
ない。ひいては、そのために実際にゴーグル型立体表示
装置11を装着したまま歩く必要がある。しかしなが
ら、ゴーグル型立体表示装置11の位置を検出している
磁場の範囲はせいぜい2m程度であり、それ以上の距離
を移動する必要がある場合には、あらかじめデータグロ
ーブ12による移動コマンドを決めて歩行動作を指定す
る等の方法を採用せねばならない。たとえば、表示され
た指の指示する方向に移動せねばならないなどである。
そして、各種の擬似体験の対象を増加させるためには、
おぼえておかねばならない規則も多くなり、最適なマン
マシンインターフェースとは言えない。
In addition, it is necessary to remember a rule for inputting by finger movement, which is not usually adopted. Therefore, the operability is very low. And, this is important not only for a design engineer in the beginning but also for sales engineering when the customer wants a simulated experience. In addition, furniture in the room (fixed equipment such as walls and windows),
Alternatively, in order to select an equipment device (a lighting device, an air conditioner, a washing machine, or the like that can be moved or replaced) and the like to be changed, it is necessary to move in the virtual space. Consequently, it is necessary to actually walk while wearing the goggles type stereoscopic display device 11 for that purpose. However, the range of the magnetic field that detects the position of the goggle type stereoscopic display device 11 is at most about 2 m, and when it is necessary to move a distance more than that, a movement command by the data glove 12 is decided in advance to walk. You must adopt a method such as specifying the action. For example, the user must move in the direction indicated by the displayed finger.
And in order to increase the target of various simulated experiences,
There are many rules that need to be remembered, and it cannot be said that it is the optimum man-machine interface.

【0012】また、データグローブ12もあまり使用さ
れないものであるだけに複雑、高価となる。また、住環
境のシミュレーション結果を設計資料として評価する等
のためには、前述の方法で体験者が仮想空間内の評価位
置にまで仮想的に移動して行くようにするか、或は空間
内の仮想断面に照度等の物理量を等高線で表示するなど
して観察する等の手段を講じねばならない。しかし、両
眼をゴーグル型立体表示装置11でふさがれた状態で歩
くのは、たとえ室内といえども好ましくない。そうでな
くても視野が回転したり上下したりする操作は、極力す
わったままでする必要がある。このため、どうしてもそ
ちらに注意がいってしまい、肝腎の観察等は不充分とな
りがちである。
Further, since the data globe 12 is also rarely used, it is complicated and expensive. In addition, in order to evaluate the simulation result of the living environment as a design material, the experiencer can virtually move to the evaluation position in the virtual space by the above-mentioned method, or It is necessary to take measures such as observing by displaying physical quantities such as illuminance in contour lines on the virtual cross section. However, it is not preferable to walk with both eyes blocked by the goggle type stereoscopic display device 11, even in a room. Even if this is not the case, the operation to rotate or move the field of view up or down needs to be kept as close as possible. For this reason, it is unavoidable to pay attention to them, and observation of the liver and kidney tends to be insufficient.

【0013】特に、住宅建設会社や住宅販売会社が、最
終需要者たる居住予定者、購入予定者に、建設若しくは
販売対象とする住宅環境を充分に擬似体験してもらうこ
となどは不可能とまではいえないまでも大変困難とな
る。また、空調機器等の配置や選定では不可欠である移
動に伴って人が感じるであろう温度や風等についての体
感を観察するのも困難である。しかし、これは居住者用
の一般住宅のみならず、営業用の店舗でも絶対に必要な
ことである。
[0013] In particular, it is impossible for a home construction company or a home sales company to allow a prospective resident or a purchaser who is the final consumer to fully simulate the housing environment to be constructed or sold. If not, it will be very difficult. In addition, it is difficult to observe the sensation of temperature, wind, etc. that a person may feel with the movement, which is indispensable for the placement and selection of air conditioners and the like. However, this is absolutely necessary not only in ordinary housing for residents but also in shops for business.

【0014】また、風、温熱、光、音等について室内に
おける全体的または断面的な情報は得られるが、快適住
空間を設計するのに欠かせない局所的な情報は得にく
い。また、店舗はもとより住宅においても多数の人間が
在室することが多いが、この様子や相互の影響を擬似体
験することは考慮されていない。特に、通常時はもとよ
り非常時の相互の動きやその影響、効果についての設計
資料、体験の入手は全くなしえない。しかし、このこと
は、住居、店舗等では大変重大なことである。
Although information about the wind, heat, light, sound, etc. can be obtained in the room as a whole or in sections, it is difficult to obtain the local information that is indispensable for designing a comfortable living space. In addition, many people are often present not only in stores but also in homes, but simulating this situation and mutual influences is not considered. In particular, it is completely impossible to obtain design data and experiences regarding mutual movements, their effects, and effects not only during normal times but also during emergencies. However, this is very important in houses, stores, etc.

【0015】また、家屋及び内部の機器への光の影響が
正確には表示されず、輝度の表示も有効なものでないた
め陰影感の評価が難しい。また、室外から室内を見る際
や逆の際に、外壁若しくは内壁しか見えず、室外や屋外
との関係で住居や室内全体の評価ができ難い。そしてこ
れは、庭付き住宅、鑑賞用の庭付きレストラン等におい
ては大変重要な欠点である。
Further, the influence of light on the house and the internal equipment is not accurately displayed, and the display of the brightness is not effective, so that it is difficult to evaluate the feeling of shading. Further, when viewing the room from the outside or vice versa, only the outer wall or the inner wall can be seen, and it is difficult to evaluate the house or the whole room in relation to the outside or the outside. And this is a very important drawback in houses with gardens, restaurants with gardens for viewing, etc.

【0016】また、窓の開閉に伴う外部騒音の影響も都
会では重要であるが、直観的な評価が困難である。ま
た、初心者にあっては何しろプログラムで生成された境
界内を動きまわるのであるから誤操作で室外に出てしま
うことも多いが、プログラムで生成された空間での位置
関係の把握は非常に困難であり、室内へもどるのも困難
である。
The influence of external noise caused by opening and closing windows is also important in urban areas, but intuitive evaluation is difficult. In addition, since beginners move around in the boundaries created by the program, they often go out of the room by mistake, but it is very difficult to grasp the positional relationship in the space created by the program. Yes, it is difficult to return to the room.

【0017】また、住宅設計技術者にあっては、設計条
件の変更による各種住宅環境の変化は頭ではわかってい
ても、直観的な理解が困難である。ことに、これは初心
の設計技術者にとって重要である。そうでなくても、直
観的な設計データを得るにも不便である。また、セール
スエンジニアリングにおいては、照明の点滅、窓の開閉
等に基づく室内の明度等の環境条件の変化の様子等、各
種各様の顧客の要望に対して迅速かつ直観的に体験させ
ることは困難である。
Further, it is difficult for a house design engineer to intuitively understand the changes in various house environments due to changes in design conditions, even though he or she may know them. In particular, this is important for novice design engineers. Even if not, it is inconvenient to obtain intuitive design data. Also, in sales engineering, it is difficult to quickly and intuitively experience various customer requests, such as changes in environmental conditions such as the brightness of the room due to blinking lights and opening / closing windows. Is.

【0018】また、店舗においては、鏡の配置、ショウ
ウィンドウのガラスの色彩、照明の色彩の如何等の評価
も不可欠であるが、迅速かつ直観的な体験は困難であ
る。このため、十分なマンマシンインターフェース仕様
による住環境評価が可能な3次元入力装置とゴーグル型
立体表示装置の実現が望まれている。本発明は、これら
従来例における問題点を解決することを目的として行わ
れたものである。
Further, in a store, it is indispensable to evaluate the arrangement of mirrors, the color of the glass of the show window, and the color of the lighting, but it is difficult to have a quick and intuitive experience. Therefore, it is desired to realize a three-dimensional input device and a goggle type stereoscopic display device capable of evaluating the living environment with sufficient man-machine interface specifications. The present invention has been made for the purpose of solving the problems in these conventional examples.

【0019】[0019]

【課題を解決するための手段】上記目的を達成するた
め、請求項1の発明においては、ユーザの操作に従って
ユーザが存在することとなる別異の環境条件を視覚的に
擬似体験可能とさせる擬似体験装置において、ユーザの
両眼に装着するCRTや液晶表示部を有する立体視手段
と、視覚的に擬似体験する対象たる複数の環境を生成す
るために必要な資料を擬似体験に先立って入力された上
記憶するディスクや高速半導体メモリからなる記憶手段
と、記憶する複数の環境の中からユーザに自分が擬似体
験を欲するものを選択可能とさせるべく擬似体験の対象
となる環境のメニューを立体視装置の視野の中に生成す
る視野内メニュー生成手段と、視野内に生成されたメニ
ューの中からユーザの擬似体験を意図するものをユーザ
の片手のみの運動にて選択可能とさせるメニュー選択手
段と、記憶手段が記憶する資料をもとに前記メニュー選
択手段にて選択された環境を立体視手段内に生成する立
体環境生成手段とを有することを特徴としている。請求
項2の発明においては、メニュー選択手段は、立体視野
内に片手運動のみにて方向を変化させることが可能なビ
ーム光を発生させるビーム光発生部と、メニューの中か
らビーム光により指定されたものをユーザの意図するも
のとして選択指定可能とさせるメニュー選択指定部とを
有していることを特徴としている。
In order to achieve the above-mentioned object, in the invention of claim 1, a pseudo that enables a user to visually experience different environmental conditions in which the user will exist according to the operation of the user. In the experience device, a CRT to be worn on both eyes of the user and a stereoscopic means having a liquid crystal display unit, and materials necessary for generating a plurality of environments to be visually simulated are input prior to the simulated experience. In addition, the storage means consisting of a disk and a high-speed semiconductor memory to be stored and the menu of the environment to be simulated are stereoscopically displayed so that the user can select the one that he / she wants to simulate. In-field menu generation means generated in the field of view of the device, and from the menus generated in the field of view, the one intended for the simulated experience of the user is converted into the motion of only one hand of the user. And menu selection means for enabling selection storage means is characterized by having a three-dimensional environment generation means for generating in the stereoscopic means selected environment by the menu selection means based on the material to be stored. In the invention of claim 2, the menu selecting means is designated by a beam light from a menu, and a beam light generating portion for generating a beam light whose direction can be changed only by one hand movement within the stereoscopic field of view. It is characterized in that it has a menu selection designating section that enables the user to select and designate what is intended.

【0020】請求項3の発明においては、立体視手段に
て生成された環境内に仮想的に存在することとなるユー
ザがその環境内にて動作することに関するデータを入力
可能とさせるユーザ動作入力操作手段と、ユーザの環境
内での仮想的な動作についてユーザ動作入力操作手段か
ら入力されたデータと記憶手段が記憶している現在前記
立体視手段内に生成されている環境に関する資料をもと
に、立体視手段内に仮想的に生成されている環境に対し
てユーザの動作に応じての視野等の必要な修正を行わさ
せる立体環境ユーザ動作反映手段とを有していることを
特徴としている。
According to the third aspect of the present invention, the user operation input for allowing the user who virtually exists in the environment generated by the stereoscopic means to input the data relating to the operation in the environment. Based on the operation means and the data about the virtual operation in the environment of the user, the data inputted from the user operation input operation means, and the environment-related data currently stored in the stereoscopic means stored in the storage means. In addition, the stereoscopic environment user motion reflecting means for making necessary corrections of the visual field and the like according to the motion of the user with respect to the environment virtually created in the stereoscopic vision means There is.

【0021】請求項4の発明においては、ユーザ動作入
力操作手段は、ユーザの片手の運動のみにてユーザが運
動することに関する入力操作が可能であるべく、磁気変
化をもたらす操作、加速度(含む、傾き)をもたらす操
作、押ボタン操作、スイッチ操作の少なくも一を検出す
る検出部と、検出部の検出結果を入力操作の内容に変換
する入力操作変換部とを有していることを特徴としてい
る。
In the invention of claim 4, the user operation input operation means includes an operation for causing a magnetic change and an acceleration (including an acceleration, in order to enable an input operation relating to the user exercising only by exercising one hand of the user. It is characterized by having a detection unit that detects at least one of an operation that causes a tilt), a push button operation, and a switch operation, and an input operation conversion unit that converts the detection result of the detection unit into the content of the input operation. There is.

【0022】請求項5の発明においては、入力操作変換
部は、検出部の検出結果を立体視手段内に生成された環
境条件内に存在することとされているユーザの歩行、首
振りの少なくも一についての入力に変換する第1変換部
を有し、立体環境ユーザ動作反映手段は、第1変換部の
変換結果を受けて、必要な修正として、ユーザの歩行、
首振りの少なくも一に伴う視野の変化の修正を行う歩
行、首振り修正部を有していることを特徴としている。
According to the fifth aspect of the invention, the input operation conversion unit reduces the walking and head swing of the user who is supposed to have the detection result of the detection unit within the environmental conditions generated in the stereoscopic means. Also, the three-dimensional environment user action reflection means receives the conversion result of the first conversion portion, and performs a necessary correction as the user's walking,
It is characterized by having a walking and swing correction unit that corrects a change in the visual field associated with at least one swing.

【0023】請求項6の発明においては、入力操作変換
部は検出部の検出結果を受けて立体視手段内に生成され
た環境内に存在する窓、電灯等の光源、壁、カーテン等
の仕切面、反射面、透過面、テレビジョン受像機等の機
器の少なくも一に対する光環境条件若しくは視野内の光
景の少なくも一を変動させることとなる操作についての
入力に変換する第2変換部を有し、立体環境ユーザ動作
反映手段はユーザの光環境条件を変動させることとなる
操作に伴う視野内の照度、色彩、機器の配置、機器の表
示、仕切面の少なくも一に対する修正を行う光操作入力
修正部を有していることを特徴としている。
According to the sixth aspect of the invention, the input operation conversion section receives the detection result of the detection section and divides windows, light sources such as electric lights, walls, curtains and the like existing in the environment created in the stereoscopic means. A second conversion unit for converting the input to an operation that will change the light environment condition for at least one of the devices such as a surface, a reflective surface, a transmissive surface, and a television receiver, or at least one of the scenes in the field of view. The three-dimensional environment user action reflection means has a light for correcting at least one of illuminance, color, equipment arrangement, equipment display, and partition surface in the visual field associated with the operation that changes the light environment condition of the user. It is characterized by having an operation input correction unit.

【0024】請求項7の発明においては、入力操作変換
部は、検出部の検出結果を受けて立体視手段内に生成さ
れた環境内に存在する音環境、パネルヒータ等の温熱環
境、扇風機やダクト等空気流環境の少なくも一に影響す
る視野内の機器の発停、戸の開閉等の仕切面の存在状態
の変更の少なくも一についての操作についての入力に変
換する第3変換部を有し、前記立体環境ユーザ動作反映
手段は、第3変換部の変換結果を受けてユーザの操作に
伴う視野内の照度、色彩、機器の配置、機器の表示、機
器の発停、仕切面の存在状態の少なくも一に対する修正
を行う音、温度、空気流入力修正部を有していることを
特徴としている。
In the seventh aspect of the invention, the input operation converting section receives the detection result of the detecting section, the sound environment existing in the environment generated in the stereoscopic means, the thermal environment such as the panel heater, the fan, A third conversion unit for converting the input / output of the operation of at least one of the changes in the existence state of the partition surface such as the start / stop of the device in the field of view and the opening / closing of the door that affects at least one of the air flow environment such as the duct. The stereoscopic environment user action reflection means receives the conversion result of the third conversion unit, and the illuminance in the visual field according to the user's operation, the color, the arrangement of the device, the display of the device, the start / stop of the device, and the partition surface. It is characterized by having a sound, temperature, and airflow input correction unit that corrects at least one of the existing states.

【0025】請求項8の発明においては、ユーザ動作入
力手段はユーザの音声入力を受付け可能とする音声入力
部と、音声入力部の受付けた入力をユーザの動作の指示
の内容に変換する音声入力変換部とを有していることを
特徴としている。請求項9の発明においては、ユーザの
操作に従ってユーザが存在することとなる別異の環境を
擬似体験させる擬似体験装置において、ユーザの両眼に
装着する立体視手段と、視覚的に擬似体験する対象たる
環境を生成するために必要な資料を擬似体験に先立って
入力された上記憶する記憶手段と、記憶手段の記憶する
資料をもとに環境を立体視手段内に生成するCPU等を
含む立体環境生成手段と、立体環境生成手段の作用のも
とで立体視手段内に生成された環境内にソフトロボット
を発生させるソフトロボット発生手段と、ソフトロボッ
ト発生手段の発生させるソフトロボットの環境内での所
在位置をユーザに指定、変更操作可能とさせるソフトロ
ボット所在位置指示手段と、記憶手段の記憶することと
なる環境内の温度、照度等の物理的な条件を定めるため
に必要な資料を入力された上記憶する高速半導体メモリ
等からなる物理的資料記憶手段と、物理的資料記憶手段
が記憶する物理的な条件を定めるために必要な資料の少
なくも一部を使用して、環境内のソフトロボット所在位
置指示手段にて指示された位置の物理的な環境条件を計
算した上記憶する物理的条件計算記憶手段と、ソフトロ
ボットの所在位置における環境の物理的な条件の値とこ
の値に応じてのソフトロボットの表示態様との関係を定
める規則をソフトロボットの発生に先立って入力された
上記憶するソフトロボット表示規則記憶手段と、物理的
条件計算記憶手段の記憶している計算結果と前記ソフト
ロボット表示規則記憶手段が記憶する規則をもとにソフ
トロボットの表示態様を決定するソフトロボット表示態
様決定手段と、ソフトロボット発生手段の発生させたソ
フトロボットを立体視手段内に生成された環境に合成し
て発生表示するに際して、ソフトロボット表示態様決定
手段が決定した態様で表示させるソフトロボット表示態
様制御手段とを有していることを特徴としている。
In the invention of claim 8, the user operation input means is a voice input section capable of accepting a user's voice input, and a voice input for converting the input accepted by the voice input section into the content of the user's operation instruction. And a converter. According to a ninth aspect of the invention, in a simulated experience device that simulates a different environment in which the user will exist in accordance with a user's operation, the user can visually experience the experience with stereoscopic means worn on both eyes of the user. It includes a storage means for storing the material required to generate the target environment prior to the simulated experience, and a CPU for generating the environment in the stereoscopic means based on the material stored in the storage means. In the environment of the three-dimensional environment generating means, the soft robot generating means for generating the soft robot in the environment generated in the three-dimensional viewing means under the action of the three-dimensional environment generating means, and the soft robot environment generated by the soft robot generating means The physical location of the robot such as the temperature and illuminance in the environment to be stored in the storage means, and the soft robot location position instructing means that allows the user to specify and change the location. A physical material storage means, such as a high-speed semiconductor memory, which stores the materials required to determine the conditions, and at least the materials required to determine the physical conditions stored by the physical material storage means. A part is used to calculate and store the physical environmental conditions of the position instructed by the soft robot location position instructing means in the environment and the physical condition calculation storage means and the environment in the soft robot's location. Soft robot display rule storage means for storing and storing a rule defining the relationship between the value of the physical condition and the display mode of the soft robot in accordance with this value, and storing the rule, prior to the generation of the soft robot. Soft robot display for determining the display mode of the soft robot based on the calculation result stored in the storage means and the rule stored in the soft robot display rule storage means When the soft robot generated by the soft robot generating means is combined with the environment generated in the stereoscopic means and generated and displayed, the soft robot display is displayed in the mode determined by the soft robot display mode determining means. It has a mode control means.

【0026】請求項10の発明においては、物理的資料
記憶手段が記憶している物理的な条件を定めるために必
要な資料のうち、ソフトロボットの所在位置における環
境の物理的な条件の計算に使用されているものの少なく
も一部を他の資料若しくは新規に入力された資料の少な
くも一に変更可能とさせる物理的資料変更操作手段と、
物理的資料変更操作手段による資料の変更があったなら
ば、物理的条件計算記憶手段、ソフトロボット表示態様
決定手段及びソフトロボット表示態様制御手段にその変
更に応じての再計算等の必要な修正作用をなさしめる物
理的条件変更操作実効化手段とを有していることを特徴
としている。
According to the tenth aspect of the present invention, among the materials necessary for determining the physical conditions stored in the physical material storage means, the calculation of the physical conditions of the environment at the location of the soft robot is performed. A physical material change operation means that enables at least a part of the used material to be changed to other material or at least one newly input material,
When the material is changed by the physical material change operation means, the physical condition calculation storage means, the soft robot display mode determination means and the soft robot display mode control means are required to make necessary corrections such as recalculation according to the change. It is characterized by having a physical condition changing operation execution means for effecting the action.

【0027】請求項11の発明においては、ソフトロボ
ット所在位置指示手段は、ユーザの片手の運動による磁
気変化をもたらす操作、加速度をもたらす操作、押ボタ
ン操作、スイッチ操作の少なくも一を検出する検出部
と、検出部の検出結果をユーザの指示の内容に変換する
変換部とを有していることを特徴している。請求項12
の発明においては、ソフトロボット所在位置指示手段
は、ユーザの音声入力を受付け可能とするマイクロフォ
ン等を含む音声入力部と、音声入力部の受け付けた入力
を指示に変換するMCPU等を有する音声指示変換部と
を有することを特徴としている。
According to the eleventh aspect of the present invention, the soft robot location position indicating means detects at least one of an operation that causes a magnetic change due to the movement of one hand of the user, an operation that causes an acceleration, a push button operation, and a switch operation. And a conversion unit that converts the detection result of the detection unit into the content of the user's instruction. Claim 12
In the invention described above, the soft robot location-instructing means has a voice input section including a microphone or the like capable of accepting a voice input of the user, and a voice instruction conversion including an MCPU or the like for converting the input accepted by the voice input section into an instruction. It is characterized by having a part.

【0028】請求項13の発明においては、物理的資料
記憶手段は空気流に関係する条件を定める資料を入力さ
れた上記憶する空気流資料記憶部を有し、物理的条件計
算記憶手段は環境内の風向及び風速の分布を計算する風
向及び風速分布計算記憶部を有し、ソフトロボット表示
態様決定手段はソフトロボットの少なくも一カ所に付さ
れた紐(含む,頭部の長めの髪)の風向及び風速に応じ
てのたなびく方向とたなびく具合の関係を入力される紐
規則記憶部を有し、ソフトロボット表示態様決定手段は
ソフトロボットの少なくも一カ所に付された紐のたなび
く方向とたなびき具合を当該部の風向と風速に応じたも
のとして表示させる紐表示態様決定部とを有しているこ
とを特徴としている。
According to the thirteenth aspect of the present invention, the physical material storage means has an air flow material storage portion for receiving and storing material for defining conditions relating to the air flow, and the physical condition calculation storage means is the environment. It has a wind direction and wind speed distribution calculation storage unit for calculating the wind direction and wind speed distribution inside, and the soft robot display mode determining means is a string attached to at least one place of the soft robot (including long hair of the head) It has a string rule storage unit for inputting the relationship between the fluttering direction and the fluttering condition according to the wind direction and the wind speed of the It is characterized in that it has a string display mode deciding unit for displaying the fluttering condition as a wind direction and a wind speed of the unit.

【0029】請求項14の発明においては、物理的資料
記憶手段は電灯の出力や位置等環境内の照度に関係する
条件を定める資料を入力された上記憶する照度資料記憶
部を有し、物理的条件計算記憶手段は環境内の照度を計
算した上記憶する照度計算記憶部を有し、ソフトロボッ
ト表示規則記憶手段はソフトロボットの顔面部における
照度に応じてのソフトロボットの顔面の表示、顔面に付
される陰影の少なくも一の内容についての規則を入力さ
れた上記憶する顔面表示規則記憶部を有し、ソフトロボ
ット表示態様決定手段はソフトロボットの顔面を当該部
の照度に応じて表示すること、顔面に当該部の照度に応
じて陰影を付すことの少なくも一を決定する顔面表示態
様決定部とを有していることを特徴としている。
In the fourteenth aspect of the present invention, the physical material storage means has an illuminance material storage section for receiving and storing materials for defining conditions related to the illuminance in the environment such as the output and position of the light, and the physical material storage means. The dynamic condition calculation storage means has an illuminance calculation storage section for calculating and storing the illuminance in the environment, and the soft robot display rule storage means displays the face of the soft robot according to the illuminance on the face part of the soft robot, the face. A face display rule storage unit for storing and storing a rule about at least one of the shadows attached to the soft robot display mode determining unit displays the face of the soft robot according to the illuminance of the unit. In addition, it has a face display mode determination unit that determines at least one of which is not shaded according to the illuminance of the part.

【0030】請求項15の発明においては、物理的資料
記憶手段は環境内の音響に関係する条件についての資料
を入力された上記憶する音響条件記憶部を有し、物理的
条件計算記憶手段は定められた音源からの音響の強度を
計算した上記憶する音響強度計算記憶部を有し、ソフト
ロボット表示態様決定手段はソフトロボットの耳の部分
における定められた音源からの音響の強度に応じてのソ
フトロボットに付される音量表示面部分の内容について
の規則を入力された上記憶する音量表示面記憶部を有
し、ソフトロボット表示態様決定手段はソフトロボット
の耳の部分の音量に応じて音量表示面部分を変化させて
表示させる音量表示面部決定部とを有していることを特
徴としている。
In the fifteenth aspect of the present invention, the physical material storage means has an acoustic condition storage portion for inputting and storing the material concerning the condition related to the sound in the environment, and the physical condition calculation storage means is The soft robot display mode determining means has a sound intensity calculation storage unit for calculating and storing the sound intensity from a predetermined sound source, and the soft robot display mode determining means is responsive to the sound intensity from the predetermined sound source in the ear part of the soft robot. A volume display surface storage unit for inputting and storing a rule regarding the content of the volume display surface portion attached to the soft robot, and the soft robot display mode determining means determines the volume according to the volume of the ear portion of the soft robot. It is characterized in that it has a volume display surface section determining section for changing and displaying the volume display surface section.

【0031】請求項16の発明においては、物理的資料
記憶手段は扇風機の出力やエアコンの出力等環境内の温
度に関係する条件を定める資料を入力された上記憶する
温度条件記憶部を有し、物理的条件計算記憶手段は、環
境内の温度若しくは体感温度を計算した上記憶する温度
計算記憶部を有し、ソフトロボット表示規則記憶手段は
ソフトロボットの定められた少なくも一の部分において
その部分の温度若しくは体感温度といずれかの温度に応
じて当該部に付される色彩の内容についての規則を入力
された上記憶する色彩表示規則記憶部を有し、ソフトロ
ボット表示態様決定手段はソフトロボットの少なくも一
の定められた部分に当該部のいずれかの温度に応じての
色彩を付して表示させる色彩表示決定部とを有している
ことを特徴としている。
According to the sixteenth aspect of the present invention, the physical material storage means has a temperature condition storage unit for inputting and storing a material for determining a condition relating to the temperature in the environment such as the output of the fan or the output of the air conditioner. The physical condition calculation storage means has a temperature calculation storage portion for calculating and storing the temperature in the environment or the sensible temperature, and the soft robot display rule storage means is provided in at least one part of the soft robot which is defined. The soft robot display mode determining means includes a color display rule storage unit that stores and stores a rule regarding the content of the color attached to the part according to the temperature of the part or the sensible temperature and any of the temperatures. Characterized by having a color display determination unit for displaying at least one predetermined part of the robot with a color according to any temperature of the part That.

【0032】請求項17の発明においては、ユーザの操
作に従ってユーザが存在することとなる別異の環境を擬
似体験させる擬似体験装置において、ユーザの両眼に装
着する立体視手段と、視覚的に擬似体験する対象たる環
境を生成するために必要な資料を擬似体験に先立って入
力された上記憶する記憶手段と、記憶手段により入力さ
れた資料をもとに環境を立体視手段内に生成する立体環
境生成手段と、立体環境生成手段の作用のもとで立体視
手段内に生成された環境内に環境内の物理的な条件の値
を視覚的に表示するシンボル(記号を付されたり彩色さ
れたりした所定の形状の図形等)を発生させるシンボル
発生手段と、シンボル発生手段の発生可能とさせるシン
ボルの環境内での所在位置をユーザに指定、変更操作可
能とさせるシンボル所在位置指示手段と、記憶手段が記
憶する環境内の物理的な条件を定めるために必要な資料
を入力された上記憶する物理的資料記憶手段と、物理的
資料記憶手段にて入力された物理的な条件を定めるため
に必要な資料の少なくも一部を使用して環境内のシンボ
ル所在位置指示手段にて指示された位置の物理的な環境
条件を計算した上記憶する物理的条件計算記憶手段と、
シンボルの所在位置における環境の物理的な条件の値と
シンボルの表示態様との関係を定める規則をシンボルの
発生に先立って入力された上記憶するシンボル表示規則
記憶手段と、物理的条件計算記憶手段の記憶する計算結
果と前記シンボル表示規則記憶手段が記憶する規則をも
とにシンボルの表示態様を決定するシンボル表示態様決
定手段と、シンボル発生手段の発生させたシンボルを立
体視手段内に生成された環境に合成して発生表示するに
際して、シンボル表示態様決定手段が決定した態様で表
示させるシンボル表示態様制御手段とを有していること
を特徴としている。
According to a seventeenth aspect of the present invention, in a simulated experience device that simulates a different environment in which the user will exist in accordance with the user's operation, the stereoscopic viewing means worn on both eyes of the user and the A storage means for storing the material necessary for generating the environment to be simulated to be input prior to the simulated experience, and an environment is generated in the stereoscopic means based on the material input by the storage means. A symbol for visually displaying the value of the physical condition in the environment in the environment generated in the stereoscopic means under the effect of the stereoscopic environment generating means and the stereoscopic environment generating means (with a symbol or coloring A symbol generating means for generating a predetermined shape or a symbol having a predetermined shape, and a symbol for enabling the user to specify and change the location of the symbol in the environment that the symbol generating means can generate. The physical location input means, the physical material storage means for storing the material necessary for determining the physical conditions in the environment stored by the storage means, and the physical material input by the physical material storage means Physical condition calculation memory for calculating and storing the physical environmental condition of the position instructed by the symbol location instructing means in the environment by using at least a part of the material required to determine the physical condition Means and
A symbol display rule storage means for storing and storing a rule defining the relationship between the value of the physical condition of the environment and the display mode of the symbol at the location of the symbol prior to the generation of the symbol, and the physical condition calculation storage means. Symbol display mode determining means for determining the display mode of the symbol based on the calculation result stored in the symbol display rule storage means and the rule stored in the symbol display rule storage means, and the symbol generated by the symbol generating means is generated in the stereoscopic viewing means. It is characterized in that it has a symbol display mode control means for displaying in the mode determined by the symbol display mode determining means when it is combined with the environment and generated and displayed.

【0033】請求項18の発明においては、物理的資料
記憶手段にて既に入力された上記憶されている物理的な
条件を定めるために必要な資料のうち、シンボルの所在
位置における環境の物理的な条件の計算に使用されてい
るものの少なくも一部を他の資料若しくは新規に入力さ
れた資料の少なくも一に変更可能とさせる物理的資料変
更操作手段と、物理的資料変更操作手段による資料の変
更があったならば、物理的条件計算手段、シンボル表示
態様決定手段及びシンボル表示態様制御手段にその変更
に応じての再計算、再表示等の必要な修正作用をなさし
める物理的資料変更操作実効化手段とを有していること
を特徴としている。
According to the eighteenth aspect of the present invention, among the materials necessary for defining the physical conditions already input and stored in the physical material storage means, the physical environment of the environment at the location of the symbol is defined. Physical material change operation means for changing at least a part of the materials used for calculation of various conditions to other materials or at least one newly input material, and materials by physical material change operation means If there is any change in the physical condition, the physical condition calculation means, the symbol display mode determination means and the symbol display mode control means perform the necessary correction action such as recalculation and redisplay according to the change. It is characterized by having an operation execution means.

【0034】請求項19の発明においては、シンボル所
在位置指示手段は、ユーザの片手の運動のみにて機能の
発揮が可能であるべく、磁気変化をもたらす操作、加速
度をもたらす操作、押ボタン操作、スイッチ操作の少な
くも一を検出する加速度計や磁場内での三方向への磁気
検出端からなる検出部と、検出部の検出結果をユーザの
指示の内容に変換する変換部とを有していることを特徴
としている。
In the nineteenth aspect of the present invention, the symbol location position indicating means is capable of exerting its function only by the movement of one hand of the user, so that an operation for causing a magnetic change, an operation for causing acceleration, a push button operation, It has an accelerometer that detects at least one switch operation and a detection unit that consists of magnetic detection ends in three directions in a magnetic field, and a conversion unit that converts the detection result of the detection unit into the content of the user's instruction. It is characterized by being.

【0035】請求項20の発明においては、シンボル所
在位置指示手段は、ユーザの音声入力を受付るマイクロ
フォン等を含む音声入力部と、音声入力部の受け付けた
音声を指示の内容に変換する音声指示変換部とを有する
ことを特徴としている。請求項21の発明においては、
シンボル表示規則記憶手段は、15℃、50フォーン等
の物理的な値そのものを数値として表示するという規則
を入力された上記憶する数値表示規則記憶部を有してい
ることを特徴としている。
In the twentieth aspect of the present invention, the symbol location instructing means is a voice input section including a microphone or the like for receiving a voice input of the user, and a voice instruction for converting the voice received by the voice input section into the content of the instruction. And a converter. In the invention of claim 21,
The symbol display rule storage means is characterized by having a numerical value display rule storage section for storing the inputted rule for displaying the physical value itself such as 15 ° C., 50 phones, etc. as a numerical value.

【0036】請求項22の発明においては、ユーザの操
作に従ってユーザが存在することとなる別異の環境条件
を視覚的に擬似体験させる擬似体験装置において、ユー
ザの両眼に装着する立体視手段と、ユーザが視覚的に擬
似体験することとなる環境を生成するために必要な資料
を擬似体験に先立って入力された上記憶する記憶手段
と、環境内におけるユーザの所在位置を指定、変更する
ことを可能とさせるユーザ位置入力操作手段と、ユーザ
位置入力操作手段にて入力されたユーザの所在位置に応
じて記憶手段が記憶している資料をもとに立体視手段内
に擬似体験する環境を生成する立体環境生成手段と、記
憶手段が記憶している資料をもとにユーザが擬似体験を
する対象としている環境の境界壁を認識している境界壁
認識手段と、ユーザ位置入力操作手段への入力操作をも
とに立体視手段内に立体環境生成手段の作用のもとで擬
似体験の対象として生成されている環境内でのユーザの
所在する位置を認識しており、更に境界壁認識手段の認
識している境界壁をもとにユーザの所在する位置が誤操
作等で擬似体験する対象とされている環境の外部となっ
た場合にはこのことを検知すると共に、現在のユーザの
位置(環境外)とユーザが直前に擬似体験をしていた環
境内の位置との相互関係をもとめる境界壁外所在ユーザ
認識手段と、ユーザの所在位置が境界壁外となった場合
には境界壁外所在ユーザ認識手段から現在のユーザの位
置と直前に擬似体験をしていた境界内の位置との相互関
係の通知を受けて、記憶手段の記憶する資料を参照して
立体視手段内に両方の位置の相互関係についての情報を
ユーザのために生成するユーザ環境内帰還促進手段とを
有していることを特徴としている。
According to a twenty-second aspect of the invention, in the simulated experience device for visually simulating different environmental conditions in which the user is to exist in accordance with the user's operation, stereoscopic means to be mounted on both eyes of the user. Specifying and changing the storage means for storing the materials necessary to generate the environment in which the user will visually experience the simulated experience, and the location of the user in the environment. The user position input operation means that enables the user position and the environment for a simulated experience in the stereoscopic viewing means based on the material stored in the storage means according to the user's position input by the user position input operation means. A three-dimensional environment generating means for generating, a boundary wall recognizing means for recognizing a boundary wall of an environment to be simulated by the user based on the material stored in the storage means, and a user It recognizes the position of the user in the environment created as the target of the simulated experience in the stereoscopic means based on the input operation to the position input operation means under the action of the stereoscopic environment generation means. Further, when the position of the user based on the boundary wall recognized by the boundary wall recognition means is outside the environment that is the target of the simulated experience due to an erroneous operation, etc., this is detected, The user recognition means outside the boundary wall, which finds the correlation between the current position of the user (outside the environment) and the position in the environment where the user had just had a simulated experience, and the position of the user outside the boundary wall In this case, the user recognizing means outside the boundary wall receives a notification of the mutual relationship between the current user position and the position within the boundary where the user had a pseudo-experience immediately before, and refers to the material stored in the storing means to see the three-dimensional shape. The interrelationship of both positions in the visual means It is characterized by having a user environment in a feedback enhancing means for generating information about the order of the user.

【0037】請求項23の発明においては、ユーザ位置
入力操作手段はユーザの片手の運動のみにて入力操作が
可能であるべく磁気変化をもたらす操作、加速度をもた
らす操作、押しボタン操作、スイッチ操作の少なくも一
を検出する検出部と、検出部の検出結果を入力操作の内
容に変換する操作内容変換部とを有していることを特徴
としている。
According to the twenty-third aspect of the present invention, the user position input operation means includes an operation that causes a magnetic change, an operation that causes acceleration, a push button operation, and a switch operation so that the input operation can be performed only by the movement of one hand of the user. It is characterized in that it has a detection unit that detects at least one and an operation content conversion unit that converts the detection result of the detection unit into the content of the input operation.

【0038】請求項24の発明においては、ユーザ環境
条件内帰還促進手段は現在のユーザの所在する環境壁外
の位置から、環境壁外にユーザが出る直前に擬似体験し
ていた環境内の位置(含内面の視覚的環境)を両方の位
置間に存在している境界壁を透明なものとして見た景観
を表示させる環境内景観透視表示部を有しているもので
あることを特徴としている。
[0038] In the twenty-fourth aspect of the present invention, the return-in-promotion means within the user's environmental condition is a position in the environment that the user has experienced from the position outside the environmental wall where the current user is, immediately before the user leaves the environmental wall. It is characterized by having an in-environmental landscape perspective display part that displays a landscape in which the boundary wall existing between both positions (including the visual environment of the inner surface) is transparent. .

【0039】請求項25の発明においては、ユーザの操
作に従ってユーザが存在することとなる別異の環境を擬
似体験させる擬似体験装置において、ユーザの両眼に装
着する立体視手段と、視覚的に擬似体験する対象たる環
境を生成するために必要な資料を擬似体験に先立って入
力された上記憶する記憶手段と、記憶手段が記憶してい
る資料をもとに立体視手段内に環境を生成する立体環境
生成手段と、記憶手段が記憶する環境内の物理的な条件
を定めるために必要な資料を入力された上記憶する物理
的資料記憶手段と、物理的資料記憶手段の記憶する資料
をもとに環境内の物理的な条件の分布を計算した上記憶
する物理的条件分布計算記憶手段と、立体視手段内に生
成された環境内にユーザの指示のもと少なくも一の仮想
的な平面を設定する仮想的平面設定操作手段と、仮想的
平面設定操作手段にて設定された仮想的な平面上に物理
的条件分布計算記憶手段の計算した環境内の物理的な条
件の分布をもとにして環境内の物理的な条件の等高線図
を描いて立体視手段内に立体環境と併せてこれを表示さ
せる等高線図作成手段とを有していることを特徴として
いる。
In a twenty-fifth aspect of the present invention, in a simulated experience device that simulates a different environment in which the user will exist in accordance with the user's operation, the stereoscopic vision means worn by both eyes of the user and the A storage means for storing the material required to generate the environment to be simulated to be input prior to the simulated experience, and an environment is generated in the stereoscopic means based on the material stored in the storage means. The three-dimensional environment generating means, the physical material storage means for storing the material necessary for determining the physical conditions in the environment stored by the storage means, and the material stored by the physical material storage means. A physical condition distribution calculation storage means for calculating and storing the distribution of physical conditions in the environment based on the virtual condition, and at least one virtual condition in the environment generated in the stereoscopic means under the instruction of the user. Set a flat plane An environment based on the virtual plane setting operation means and the distribution of physical conditions in the environment calculated by the physical condition distribution calculation storage means on the virtual plane set by the virtual plane setting operation means It is characterized in that it has a contour map creating means for drawing a contour map of the physical conditions inside and displaying this together with the stereoscopic environment in the stereoscopic means.

【0040】請求項26の発明においては、仮想的平面
設定操作手段にて設定された仮想的な平面の位置、方向
(含む傾き)の少なくも一をユーザの片手の運動のみに
て変更可能とさせる仮想的平面移動手段を有しているこ
とを特徴としている。請求項27の発明においては、仮
想的平面設定手段は複数の仮想的な平面を設定可能とす
る複数仮想平面設定部を有し、等高線図作成手段は複数
仮想平面設定部の作用のもと設定された複数の各仮想的
な平面に等高線図を描いて表示させる際に、各仮想的な
平面毎に色彩を変更することにより各等高線図を区分け
して立体表示させる等高線図色分け表示部とを有するこ
とを特徴としている。
In the twenty-sixth aspect of the invention, at least one of the position and direction (including inclination) of the virtual plane set by the virtual plane setting operation means can be changed only by the movement of one hand of the user. It is characterized in that it has a virtual plane moving means for causing it. In the invention of claim 27, the virtual plane setting means has a plurality of virtual plane setting parts capable of setting a plurality of virtual planes, and the contour map creating means sets under the action of the plurality of virtual plane setting parts. When drawing and displaying a contour map on each of a plurality of virtual planes that have been displayed, the contour map color-coded display unit that divides each contour map by three-dimensionally by changing the color for each virtual plane is displayed. It is characterized by having.

【0041】請求項28の発明においては、物理的資料
記憶手段は照度に関する条件を定める資料を入力された
上記憶する照度条件記憶部を有し、物理的条件分布計算
記憶手段は、環境内の照度の分布を計算した上記憶する
照度分布計算記憶部を有し、等高線図作成手段は照度の
等高線図を作成する照度等高線図作成部を有しているこ
とを特徴としている。
In the twenty-eighth aspect of the present invention, the physical material storage means has an illuminance condition storage part for storing the material for determining the condition regarding the illuminance, and the physical condition distribution calculation storage means is provided in the environment. An illuminance distribution calculation storage unit for calculating and storing the illuminance distribution is provided, and the contour map creating means is provided with an illuminance contour map creating unit for creating an illuminance contour map.

【0042】請求項29の発明においては、物理的資料
記憶手段は温度に関する条件を定めるのに必要な資料を
入力された上記憶する温度条件入力部を有し、物理的条
件分布計算記憶手段は温度分布を計算した上記憶する温
度分布計算記憶部を有し、等高線図作成手段は温度の等
高線図を作成する温度等高線図作成部を有していること
を特徴としている。
In the twenty-ninth aspect of the present invention, the physical material storage means has a temperature condition input section for storing the material necessary for determining the conditions relating to temperature, and the physical condition distribution calculation storage means is It is characterized in that it has a temperature distribution calculation storage section for calculating and storing the temperature distribution, and the contour map creating means has a temperature contour map creating section for creating a temperature contour map.

【0043】請求項30の発明においては、物理的資料
記憶手段は外部騒音やステレオ、その他機器等の所定の
性質の音若しくは音源からの音の少なくも一に関する条
件を定めるために必要な資料を入力された上記憶する音
条件記憶部を有し、物理的条件分布計算記憶手段は所定
の性質の音若しくは音源からの音の少なくも一の音量の
分布を計算した上記憶する音量分布計算記憶部を有し、
等高線図作成手段は音量の等高線図を作成する音量等高
線図作成部とを有していることを特徴としている。
According to the thirtieth aspect of the present invention, the physical material storage means stores the material necessary for determining a condition related to at least one of external noise, sound having a predetermined property such as stereo, other equipment or sound from the sound source. The physical condition distribution calculation storage means has a sound condition storage unit for inputting and storing, and the physical condition distribution calculation storage unit calculates and stores a volume distribution of at least one sound of a sound having a predetermined property or a sound from a sound source Has a section,
The contour map creating means is characterized by including a volume contour map creating unit for creating a volume contour map.

【0044】請求項31の発明においては、ユーザの操
作に従ってユーザが存在することとなる別異の環境を擬
似体験させる擬似体験装置において、ユーザの両眼に装
着する立体視手段と、視覚的に擬似体験する対象たる環
境を生成するために必要な資料を擬似体験に先立って入
力された上記憶する記憶手段と、記憶手段が記憶する環
境内の光環境条件を評価するためにユーザが室内照明の
各原色毎の強度、ガラス面の各原色毎の透過率及び鏡面
の反射率の少なくも一についての選択可能な数値資料を
入力された上記憶する選択可能光資料記憶手段と、選択
可能光資料記憶手段が記憶する数値資料のうちユーザが
光環境条件の評価に使用するものを選択可能とさせる選
択操作手段と、記憶手段が記憶する資料と選択可能光条
件記憶手段が記憶する選択可能な数値資料のうち選択操
作手段により選択された数値資料をもとに環境内に生成
すべき光環境条件を生成し、これを立体視手段内に表示
させる立体環境生成手段とを有していることを特徴とし
ている。
According to the thirty-first aspect of the invention, in the simulated experience device for making the user experience a different environment in which the user exists in accordance with the operation of the user, the stereoscopic vision means to be worn on both eyes of the user and the A storage means for storing the material required to generate the environment to be simulated to be input prior to the simulated experience, and a user illuminating the room to evaluate the light environment condition in the environment stored by the storage means. Of each primary color, the transmittance of each primary color of the glass surface, and the reflectance of the mirror surface of at least one of the selectable numerical data for inputting and storing the selectable numerical data, and the selectable light. The selection operation means that allows the user to select, from the numerical materials stored in the material storage means, the one used for the evaluation of the optical environment conditions, the material stored in the storage means, and the selectable light condition storage means are stored. A three-dimensional environment generating means for generating a light environment condition to be generated in the environment on the basis of the numerical material selected by the selecting operation means among the selectable numerical materials, and displaying it in the stereoscopic means. It is characterized by doing.

【0045】請求項32の発明においては、立体視手段
内に生成された環境中にソフトロボットを発生させるソ
フトロボット発生手段と、ソフトロボット発生手段の作
用のもとで発生されるソフトロボットの環境内における
所在位置をユーザに指定、変更操作可能とさせるソフト
ロボット所在位置指示手段と、ソフトロボット所在位置
指示手段にて指示操作された位置におけるソフトロボッ
トの表示に際して、立体環境生成手段がもとめた環境中
での光環境条件を反映させる光環境条件評価用ソフトロ
ボット表示制御手段とを有していることを特徴としてい
る。
According to a thirty-second aspect of the invention, the soft robot generating means for generating the soft robot in the environment generated in the stereoscopic vision means, and the environment of the soft robot generated by the action of the soft robot generating means. The environment determined by the three-dimensional environment generation means when displaying the soft robot location position indicating means for allowing the user to specify and change the location position in the inside and the soft robot at the position designated and operated by the soft robot location position indicating means. It is characterized by having a soft robot display control means for light environment condition evaluation that reflects the light environment conditions therein.

【0046】請求項33の発明においては、前記ソフト
ロボット所在位置指示操作手段は、ユーザの片手運動に
よる磁気変化をもたらす操作、加速度をもたらす操作、
押ボタン操作、スイッチ操作の少なくも一を検出する検
出部と、検出部の検出結果を指示の内容に変換する指示
変換部とを有していることを特徴としている。請求項3
4の発明においては、ソフトロボトの少なくも一部分の
白色光(太陽光)下での色彩をユーザに指定変更可能と
させた上記憶するソフトロボット色彩指定操作手段と、
光環境評価用ソフトロボット表示制御手段がソフトロボ
ット色彩指定操作手段にて指定されたソフトロボットの
少なくも一部の表示に際して、その所在する位置におけ
る環境中の光環境条件を反映させて表示させる色彩指定
ソフトロボット表示制御手段を有していることを特徴と
している。
According to a thirty-third aspect of the present invention, the soft robot location position instructing and operating means is an operation for causing a magnetic change due to a one-handed motion of the user, an operation for causing an acceleration,
It is characterized in that it has a detection unit that detects at least one of push button operation and switch operation, and an instruction conversion unit that converts the detection result of the detection unit into the content of the instruction. Claim 3
In the invention of 4, the soft robot color designation operation means for storing and storing the color of at least a part of the soft robot under white light (sunlight) on the user.
When the soft robot display control means for light environment evaluation displays at least a part of the soft robot specified by the soft robot color specification operation means, the color to be displayed by reflecting the light environment conditions in the environment at the position where it is located. It is characterized by having designated software robot display control means.

【0047】請求項35の発明においては、複数のユー
ザに、その操作に従ってユーザが存在することとなる別
異の環境を同時かつ独立して擬似体験させる擬似体験装
置において、各ユーザがその両眼に装備する立体視手段
と、視覚的に擬似体験する対象たる環境を生成するため
に必要な資料を擬似体験に先立って入力された上記憶す
る記憶手段と、各ユーザに対して擬似体験中の環境条件
内における自分の所在する位置を指定、変更操作可能と
させる各ユーザ用の所在位置指示手段と、各ユーザが装
備する立体視手段内に記憶手段に記憶されている環境を
生成するための資料と所在位置指示手段により入力され
た位置により定まる環境を生成させる各ユーザ用環境生
成手段と、各ユーザ用の所在位置指示手段からの入力を
もとに各ユーザが擬似体験中の所在位置を認識するユー
ザ位置認識手段と、各ユーザ用の立体視手段内に生成さ
れる環境中にユーザ位置認識手段の認識結果をもとに他
のユーザの所在位置に該ユーザに相当するソフトロボッ
トを生成の上表示させる他ユーザ相当ソフトロボット生
成手段とを有していることを特徴とする擬似体験装置と
している。
According to the thirty-fifth aspect of the invention, in the simulated experience device that allows a plurality of users to simultaneously and independently experience different environments in which the users will exist in accordance with the operation, each user uses both eyes. Equipped with a stereoscopic viewing means, a storage means for storing the materials necessary to generate the environment to be visually simulated to be input prior to the simulated experience, and a simulated experience for each user. A location position indicating means for each user that allows the user to specify and change his / her location within the environmental conditions, and an environment stored in the storage means in the stereoscopic means equipped to each user. Each user's environment generation means for generating an environment defined by the material and the position input by the location position designating means, and each user based on the input from the location position designating means for each user A user position recognition means for recognizing a location position during similar experience, and the user at the location position of another user based on the recognition result of the user position recognition means in the environment generated in the stereoscopic viewing means for each user. The virtual experience device is characterized by having a soft robot generating means for generating and displaying a soft robot corresponding to the other user.

【0048】請求項36の発明においては、前記各ユー
ザ用の位置入力手段は、片手の運動による磁気変化をも
たらす操作、加速度をもたらす操作、押ボタン操作、ス
イッチ操作の少なくも一を検出する検出部と、検出部の
検出結果を入力操作の内容に変換する変換部とを有して
いることを特徴としている。
In the thirty-sixth aspect of the present invention, the position input means for each user detects at least one of an operation that causes a magnetic change due to the movement of one hand, an operation that causes an acceleration, a push button operation, and a switch operation. And a conversion unit that converts the detection result of the detection unit into the content of the input operation.

【0049】[0049]

【作用】上記構成により、請求項1の発明においては、
ユーザの操作に従ってユーザが存在することとなる別異
の環境を視覚的に擬似体験可能とさせる擬似体験装置に
おいて、ユーザが保持具やベルト等で立体視手段を両眼
に装着する。記憶手段が、視覚的に擬似体験する対象た
る複数の環境を生成するために必要な資料を擬似体験に
先立って入力された上記憶する。視野内メニュー生成手
段が、記憶手段の記憶する複数の環境の中から、ユーザ
に自分が擬似体験を欲するものを選択可能とさせるべく
立体視装置の視野の中にメニューを生成する。メニュー
選択手段が、視野内に生成されたメニューの中からユー
ザの意図するものをユーザの片手の運動にて選択可能と
させる。立体環境生成手段が、記憶が記憶する資料をも
とにメニュー選択手段にて選択された環境を立体視手段
内に生成する。
With the above structure, in the invention of claim 1,
In a simulated experience device that allows a user to visually experience a different environment in which a user exists in accordance with a user's operation, the user wears stereoscopic means on both eyes with a holder, a belt, or the like. The storage means stores the material necessary for generating a plurality of environments to be visually simulated as input prior to the simulated experience. The in-field-of-view menu generating means generates a menu in the visual field of the stereoscopic device so that the user can select the one he / she wants to have a simulated experience from a plurality of environments stored in the storage means. The menu selection means allows the user to select a menu intended by the user from the menus generated in the field of view by the exercise of the user's one hand. The three-dimensional environment generating means generates the environment selected by the menu selecting means in the three-dimensional viewing means based on the material stored in the memory.

【0050】請求項2の発明においては、メニュー選択
手段のビーム光発生部が、立体視野内に片手運動のみに
て方向を変化させることが可能なビーム光を発生させ
る。同じく、メニュー選択指定用ビーム光生成部が表示
された各環境のメニューの中からビーム光により指定さ
れたものをユーザの意図するものとしてスイッチ操作な
どにより選択指定可能とさせる。
In the second aspect of the invention, the beam light generator of the menu selection means generates a beam light whose direction can be changed only by one-handed movement within the stereoscopic field of view. Similarly, the menu selection designation beam light generation unit allows the user to select and designate a menu item designated by the beam light from the menu of each environment in which the menu item is designated by a user's switch operation.

【0051】請求項3の発明においては、ユーザ動作入
力操作手段が前記立体視手段にて生成された環境内に仮
想的に存在することとなるユーザがその環境内にて動作
することに関するデータを入力可能とさせる。立体環境
ユーザ動作反映手段が、ユーザの環境内での動作につい
てユーザ動作入力操作手段から入力されたデータと記憶
手段に記憶されている資料をもとに、現在立体視手段内
に生成されている環境に対して視界の変更等のユーザの
動作に応じての必要な修正を行わさせる。
According to the third aspect of the present invention, the data relating to the user operating in the environment in which the user operation input operation means is virtually present in the environment generated by the stereoscopic means is provided. Allow input. The stereoscopic environment user action reflection means is currently generated in the stereoscopic vision means based on the data input from the user action input operation means regarding the movement in the user's environment and the material stored in the storage means. The environment is modified as necessary according to the user's action such as changing the field of view.

【0052】請求項4の発明においては、ユーザ動作入
力操作手段内の検出部が、ユーザの片手の運動による磁
気変化をもたらす操作、加速度をもたらす操作、押ボタ
ン操作、スイッチ操作の少なくも一を検出する。同じ
く、入力操作変換部が、検出部の検出結果を所定のプロ
グラム手順に従って入力操作の内容に変換する。請求項
5の発明においては、入力操作変換部内の第1変換部
が、検出部の検出結果を立体視手段内に生成された環境
条件内に存在することとされているユーザの歩行、首振
りの少なくも一についての入力操作に変換する。立体環
境ユーザ動作反映手段内の歩行、首振り修正部が、第1
変換部の変換結果を受けて必要な修正としてユーザの歩
行、首振りの少なくも一に伴う視野の変化の修正を行
う。
In the invention of claim 4, the detection unit in the user operation input operation means is at least one of an operation that causes a magnetic change due to the movement of one hand of the user, an operation that causes acceleration, a push button operation, and a switch operation. To detect. Similarly, the input operation conversion unit converts the detection result of the detection unit into the content of the input operation according to a predetermined program procedure. According to the invention of claim 5, the first conversion unit in the input operation conversion unit is a user's walking or swinging movement, in which the detection result of the detection unit exists within the environmental condition generated in the stereoscopic means. Convert to at least one input operation. In the three-dimensional environment user movement reflection means, the walking and head swing correction unit is the first
Upon receiving the conversion result of the conversion unit, the change of the visual field due to at least one of the walking and the head swing of the user is corrected as a necessary correction.

【0053】請求項6の発明においては、入力操作変換
手段内の第2変換部が、検出部の検出結果を立体視手段
内に生成された環境内に存在する光源、仕切面、反射
面、透過面、機器の少なくも一に対する光環境条件若し
くは視野内の光景の少なくも一を変動させることとなる
操作についての入力に変換する。立体環境ユーザ動作反
映手段内の光操作入力修正部が、第2変換部の変換結果
を受けて、ユーザの光環境条件を変動させることとなる
操作に伴う視野内の照度、色彩、機器の配置、機器の表
示、仕切面の少なくも一に対する修正を行う。
In the sixth aspect of the present invention, the second conversion section in the input operation conversion means includes a light source, a partition surface, a reflection surface existing in the environment in which the detection result of the detection section is generated in the stereoscopic viewing means, It is converted into an input for a transparent surface, a light environment condition for at least one of the devices, or an operation for changing at least one of the scenes in the visual field. The light operation input correction unit in the three-dimensional environment user action reflection unit receives the conversion result of the second conversion unit and changes the light environment condition of the user. , Display of equipment, at least one of the partitions is corrected.

【0054】請求項7の発明においては、入力操作変換
手段内の第3変換部が、検出部の検出結果を立体視手段
内に生成された環境内に存在する音環境、温熱環境、空
気流環境の少なくも一に影響する視野内の機器の発停、
仕切面の存在状態の変更の少なくも一についての操作に
ついての入力に変換する。立体環境ユーザ動作反映手段
内の音、温度、空気流入力修正部は、第3変換部の変換
結果を受けてユーザの操作に伴う視野内の照度、色彩、
機器の配置、機器の表示、機器の発停、仕切面の存在状
態の少なくも一に対する修正を行う。
According to the invention of claim 7, the third conversion section in the input operation conversion means has a sound environment, a thermal environment and an air flow existing in the environment in which the detection result of the detection section is generated in the stereoscopic means. Start and stop of devices in the field of view that affect at least one of the environment
It is converted into an input about an operation about at least one of the change of the existence state of the partition surface. The sound, temperature, and airflow input correction unit in the three-dimensional environment user action reflection unit receives the conversion result of the third conversion unit, and receives the illuminance, color, and
Arrangement of equipment, display of equipment, start / stop of equipment, and correction of at least one of the existence states of partition surfaces.

【0055】請求項8の発明においては、ユーザ動作入
力手段内の音声入力部は、「止れ」、「動け」等のユー
ザの音声による入力を受付け可能とする。同じく、音声
入力変換部が音声入力部の受付けた入力をユーザの動作
の指示の内容に変換する。請求項9の発明においては、
ユーザの操作に従って人が所在する環境を擬似体験可能
とさせる擬似体験装置において、立体視手段がユーザの
両眼にベルト等で装着される。記憶手段が、視覚的に擬
似体験する対象たる環境を生成するために必要な資料を
擬似体験に先立ってキーボード等で入力された上記憶す
る。立体環境生成手段が、記憶手段が記憶する資料をも
とに擬似体験する環境を立体視手段内に生成する。ソフ
トロボット発生手段が、立体環境生成手段の作用のもと
で立体視手段内に生成された環境内にソフトロボットを
発生させる。ソフトロボット所在位置指示手段が、ソフ
トロボット発生手段の発生させるソフトロボットの環境
内での所在位置をユーザに指定、変更操作可能とさせ
る。物理的資料記憶手段が、記憶手段に記憶されている
こととなる環境内の物理的な条件を定めるために必要な
資料を入力された上記憶する。物理的条件計算記憶手段
が、物理的資料記憶手段にて記憶されている物理的な条
件を定めるために必要な資料の少なくも一部を使用し
て、環境内の前記ソフトロボット所在位置指示手段にて
指示された位置の物理的な環境条件を所定の手順で計算
した上で記憶する。ソフトロボット表示規則記憶手段
が、ソフトロボットの所在位置における環境の物理的な
条件の値とソフトロボットの表示態様との関係を定める
規則をソフトロボットの発生に先立って入力された上記
憶する。ソフトロボット表示態様決定手段が、物理的条
件計算記憶手段の記憶する計算結果とソフトロボット表
示規則記憶手段により入力された規則をもとに、ソフト
ロボットの表示態様を決定する。ソフトロボット表示態
様制御手段が、ソフトロボット発生手段の発生可能とさ
せたソフトロボットを立体視手段内に生成された環境に
発生表示するに際して、ソフトロボット表示態様決定手
段が決定した態様で表示させる。
In the eighth aspect of the present invention, the voice input section in the user action input means can accept the user's voice input such as "stop" or "move". Similarly, the voice input conversion unit converts the input received by the voice input unit into the content of the operation instruction of the user. In the invention of claim 9,
In a simulated experience device that enables a simulated experience of an environment in which a person is located according to a user's operation, stereoscopic means is attached to both eyes of the user with belts or the like. The storage means stores, in advance, the material necessary for generating an environment as a target to be visually simulated by inputting it with a keyboard or the like prior to the simulated experience. The stereoscopic environment generating means generates an environment for a pseudo experience in the stereoscopic viewing means based on the material stored in the storage means. The soft robot generating means generates a soft robot in the environment generated in the stereoscopic viewing means under the action of the stereoscopic environment generating means. The soft robot location position instructing means allows the user to designate and change the location of the soft robot in the environment generated by the soft robot generating means. The physical material storage means inputs and stores the material necessary for defining the physical condition in the environment to be stored in the storage means. The physical condition calculation storage means uses at least a part of the material necessary for defining the physical condition stored in the physical material storage means, and uses the soft robot location position indicating means in the environment. The physical environmental conditions at the position designated by are calculated by a predetermined procedure and then stored. The soft robot display rule storage means stores a rule that defines the relationship between the value of the physical condition of the environment at the location of the soft robot and the display mode of the soft robot, which is input prior to the generation of the soft robot. The soft robot display mode determination means determines the display mode of the soft robot based on the calculation result stored in the physical condition calculation storage means and the rule input by the soft robot display rule storage means. When the soft robot display mode control means causes the soft robot generated by the soft robot generation means to be generated and displayed in the environment generated in the stereoscopic means, the soft robot display mode control means causes the soft robot display mode determination means to display the soft robot.

【0056】請求項10の発明においては、物理的資料
変更操作手段が前記物理的資料記憶手段に記憶されてい
る物理的な条件を定めるために必要な資料のうち、ソフ
トロボットの所在位置における環境の物理的な条件の計
算に使用されているものの少なくも一部を他の資料若し
くは新規に入力された資料の少なくも一に変更(含む、
出力の変化)可能とさせる。物理的資料変更操作実効化
手段が、物理的資料変更操作手段による資料の変更があ
ったならば、物理的条件計算記憶手段、ソフトロボット
表示態様決定手段及びソフトロボット表示態様制御手段
にその変更に応じての必要な再計算、再記憶、再表示等
の修正作用をなさしめる。
According to the tenth aspect of the invention, among the materials necessary for the physical material change operation means to determine the physical conditions stored in the physical material storage means, the environment at the location of the soft robot is set. Change at least part of what is used to calculate the physical conditions of to other materials or at least one of the newly entered materials (including,
Output change). When the physical material change operation execution means changes the material by the physical material change operation means, the physical condition calculation storage means, the soft robot display mode determination means and the soft robot display mode control means are changed. Corrective actions such as necessary recalculation, re-memorization, and redisplay are performed.

【0057】請求項11の発明においては、ソフトロボ
ット所在位置指示手段内の検出部が、ユーザの片手の運
動による磁気変化をもたらす操作、加速度をもたらす操
作、押ボタン操作、スイッチ操作の少なくも一を検出す
る。同じく、変換部が検出部の検出結果を指示の内容に
変換する。請求項12の発明においては、ソフトロボッ
ト所在位置指示手段内の音声入力部が、ユーザの音声入
力を受付け可能とする。同じく、音声指示変換部が音声
入力部の受け付けた入力を指示の内容に変換する。
In the eleventh aspect of the present invention, the detecting section in the soft robot location position indicating means is at least one of an operation that causes a magnetic change due to the movement of one hand of the user, an operation that causes acceleration, a push button operation, and a switch operation. To detect. Similarly, the conversion unit converts the detection result of the detection unit into the content of the instruction. According to the twelfth aspect of the invention, the voice input unit in the soft robot location-instructing means can accept the voice input of the user. Similarly, the voice instruction conversion unit converts the input accepted by the voice input unit into the content of the instruction.

【0058】請求項13の発明においては、物理的資料
記憶手段内の空気流資料記憶部が、空気流に関係する条
件を定める資料を入力された上記憶する。物理的条件計
算記憶手段内の風向及び風速分布計算記憶部が、環境内
の風向及び風速の分布を計算して記憶する。ソフトロボ
ット表示規則記憶手段内の紐規則入力部が、ソフトロボ
ットの少なくも一カ所に付された紐の風向及び風速に応
じてのたなびく方向とたなびく具合の関係を入力する。
ソフトロボット表示態様決定手段内の紐表示態様決定部
が、ソフトロボットの少なくも一カ所に付された紐のた
なびく方向とたなびき具合を当該部の風向と風速に応じ
たものとして表示させる。
In the thirteenth aspect of the present invention, the air flow material storage unit in the physical material storage means receives and stores the material that defines the conditions related to the air flow. A wind direction and wind speed distribution calculation storage unit in the physical condition calculation storage unit calculates and stores the wind direction and wind speed distribution in the environment. A string rule input unit in the soft robot display rule storage means inputs the relationship between the fluttering direction and the fluttering condition according to the wind direction and the wind speed of the string attached to at least one place of the soft robot.
The string display mode determining unit in the soft robot display mode determining means displays the fluttering direction and the fluttering condition of the string attached to at least one position of the soft robot as a wind direction and a wind speed of the part.

【0059】請求項14の発明においては、物理的資料
記憶手段内の照度資料記憶部は、環境内の照度に関係す
る条件を定める資料を入力された上記憶する。物理的条
件計算記憶手段内の照度計算記憶部は、環境内の照度を
計算して記憶する。ソフトロボット表示規則記憶手段内
の顔面表示規則記憶部は、ソフトロボットの顔面部にお
ける照度に応じてのソフトロボットの顔面の表示、顔面
に付される陰影の少なくも一の内容についての規則を入
力された上記憶する。ソフトロボット表示態様決定手段
内の顔面表示態様決定部は、ソフトロボットの顔面を当
該部分の照度に応じて表示すること、顔面に当該部分の
照度に応じて陰影を付すことの少なくも一を決定する。
In the fourteenth aspect of the present invention, the illuminance material storage unit in the physical material storage means receives and stores a material that defines a condition related to the illuminance in the environment. The illuminance calculation storage unit in the physical condition calculation storage unit calculates and stores the illuminance in the environment. The face display rule storage unit in the soft robot display rule storage means inputs a rule for displaying the face of the soft robot according to the illuminance on the face part of the soft robot and at least one content of the shadow attached to the face. I remembered it. The face display mode determination unit in the soft robot display mode determination means determines at least one of displaying the face of the soft robot according to the illuminance of the portion and shading the face according to the illuminance of the portion. To do.

【0060】請求項15の発明においては、物理的資料
記憶手段内の音響条件記憶部は、環境内の音響に関係す
る条件についての資料を入力された上記憶する。物理的
条件計算記憶手段内の音強度計算記憶部は、定められた
音源からの音響の強度を計算した上記憶する。ソフトロ
ボット表示規則記憶手段内の音量表示面部分表示規則記
憶部は、ソフトロボットの耳の部分における定められた
音源からの音響の強度に応じてのソフトロボットに付さ
れる音量表示面部の内容についての規則を入力された上
記憶する。ソフトロボット表示態様決定手段内の音量表
示面部決定部は、ソフトロボットの耳の部分の音量に応
じて音量表示面部分を変化させて表示させることを決定
する。
According to the fifteenth aspect of the present invention, the acoustic condition storage unit in the physical material storage means stores the material concerning the condition related to the sound in the environment after being input. The sound intensity calculation storage unit in the physical condition calculation storage unit calculates and stores the intensity of the sound from the determined sound source. The volume display surface portion display rule storage unit in the soft robot display rule storage means is related to the contents of the volume display surface portion attached to the soft robot according to the intensity of sound from a predetermined sound source in the ear portion of the soft robot. The rules of are input and stored. The volume display surface section determination unit in the soft robot display mode determination means determines to change and display the volume display surface section according to the volume of the ear portion of the soft robot.

【0061】請求項16の発明においては、物理的資料
記憶手段内の温度条件記憶部は、環境内の温度に関係す
る条件を定める資料を入力された上記憶する。物理的条
件計算記憶手段内の温度計算記憶部は、環境内の温度若
しくは体感温度を計算した上記憶する。ソフトロボット
表示規則記憶手段内の色彩表示規則記憶部は、ソフトロ
ボットの定められた少なくも一の部分において、その部
分の温度若しくは体感温度とその温度若しくは体感温度
に応じて当該部に付される色彩の内容についての規則を
入力された上記憶する。ソフトロボット表示態様決定手
段内の色彩表示決定部は、ソフトロボットの少なくも一
の定められた部分に当該部の温度に応じての色彩を付し
て表示させることを決定する。
In the sixteenth aspect of the present invention, the temperature condition storage unit in the physical material storage means receives and stores the material for defining the condition related to the temperature in the environment. The temperature calculation storage unit in the physical condition calculation storage means calculates and stores the temperature in the environment or the sensible temperature. The color display rule storage unit in the soft robot display rule storage unit is attached to at least one predetermined portion of the soft robot according to the temperature or the sensible temperature of the portion and the temperature or the sensible temperature. The rule about the contents of color is input and stored. The color display determination unit in the soft robot display mode determination means determines to display at least one determined portion of the soft robot with a color according to the temperature of the portion.

【0062】請求項17の発明においては、ユーザの操
作に従ってユーザが所在することとなる別異の環境を擬
似体験させる擬似体験装置において、立体視手段がユー
ザの両眼にバンド等で装着される。記憶手段が、視覚的
に擬似体験する対象たる環境を生成するために必要な資
料を擬似体験に先立って入力された上記憶する。立体環
境生成手段が、記憶手段に記憶されている資料をもとに
環境を立体視手段内に生成する。シンボル発生手段が、
立体環境生成手段の作用のもとで立体視手段内に生成さ
れた環境内に環境内の物理的な条件の値を視覚的に表示
するシンボルを発生させる。シンボル所在位置指示手段
が、シンボル発生手段の発生させるシンボルの環境内で
の所在位置をユーザに指定、変更操作可能とさせる。物
理的資料記憶手段が、記憶手段に記憶されていることと
なる環境内の物理的な条件を定めるために必要な資料を
入力された上記憶する。物理的条件計算記憶手段が、物
理的資料記憶手段にて入力された上記憶している物理的
な条件を定めるために必要な資料の少なくも一部を使用
して、環境内のシンボル所在位置指示手段にて指示され
た位置の物理的な環境条件を計算した上記憶する。シン
ボル表示規則記憶手段が、シンボルの所在位置における
環境の物理的な条件の値とシンボルの表示態様との関係
を定める規則をシンボルの発生に先立って入力された上
記憶する。シンボル表示態様決定手段が、物理的条件計
算記憶手段の記憶する計算結果とシンボル表示規則記憶
手段が記憶する規則をもとに、シンボルの表示態様を決
定する。シンボル表示態様制御手段が、シンボル発生手
段の発生させたシンボルを立体視手段内に生成された環
境に合成して発生表示するに際して、シンボル表示態様
決定手段が決定した態様で表示させる。
According to the seventeenth aspect of the present invention, in the simulated experience device for simulated experience of another environment where the user is located according to the user's operation, the stereoscopic means is attached to both eyes of the user with a band or the like. . The storage means stores the material necessary for generating the environment that is the target of the simulated experience, which is input and stored prior to the simulated experience. The stereoscopic environment generation means generates an environment in the stereoscopic vision means based on the material stored in the storage means. The symbol generation means
A symbol for visually displaying the value of a physical condition in the environment is generated in the environment generated in the stereoscopic means under the action of the stereoscopic environment generating means. The symbol location position designating means allows the user to designate and change the location of the symbol generated by the symbol generating means in the environment. The physical material storage means inputs and stores the material necessary for defining the physical condition in the environment to be stored in the storage means. The physical condition calculation storage means uses at least a part of the material necessary for determining the physical condition stored in the physical material storage means, and determines the symbol location in the environment. The physical environmental conditions at the position designated by the designating means are calculated and stored. The symbol display rule storage means stores a rule that defines the relationship between the value of the physical condition of the environment at the location of the symbol and the display mode of the symbol, which is input prior to the generation of the symbol. The symbol display mode determination means determines the symbol display mode based on the calculation result stored in the physical condition calculation storage means and the rule stored in the symbol display rule storage means. When the symbol display mode control means synthesizes the symbol generated by the symbol generating means with the environment generated in the stereoscopic vision means and generates and displays the symbol, the symbol display mode determining means causes the symbol display mode determining means to display the symbol.

【0063】請求項18の発明においては、物理的資料
変更操作手段が、物理的資料記憶手段にて既に入力され
た上記憶されている物理的な条件を定めるために必要な
資料のうち、シンボルの所在位置における環境の物理的
な条件の計算に使用されているものの少なくも一部を他
の資料若しくは新規に入力された資料の少なくも一に変
更可能とさせる。物理的資料変更操作実効化手段が、物
理的資料変更操作手段による資料の変更があったなら
ば、物理的条件計算記憶手段、シンボル表示態様決定手
段及びシンボル表示態様制御手段にその変更に応じての
必要な修正作用をなさしめる。
According to the eighteenth aspect of the present invention, the physical material change operation means is a symbol among the materials necessary for determining the physical condition already stored in the physical material storage means and stored. At least part of what is used to calculate the physical conditions of the environment at the location of the can be changed to at least one other material or newly entered material. If the physical material change operation implementation means changes the material by the physical material change operation means, it responds to the physical condition calculation storage means, the symbol display mode determination means and the symbol display mode control means according to the change. To make the necessary corrections.

【0064】請求項19の発明においては、シンボル所
在位置指示手段内の検出部が、ユーザの片手の運動のみ
にて機能の発揮が可能であるべく、磁気変化をもたらす
操作、加速度をもたらす操作、押ボタン操作、スイッチ
操作の少なくも一を検出する。同じく、変換部が検出部
の検出結果を指示の内容に変換する。請求項20の発明
においては、シンボル所在位置指示手段内の音声入力部
が、ユーザの音声入力を受付る。同じく音声指示変換部
が、音声入力部の受け付けた音声を指示の内容に変換す
る。
According to the nineteenth aspect of the present invention, the detection unit in the symbol location position indicating means can perform its function only by the movement of one hand of the user, so that an operation that causes a magnetic change and an operation that causes acceleration, Detects at least one of push button operation and switch operation. Similarly, the conversion unit converts the detection result of the detection unit into the content of the instruction. In the twentieth aspect of the invention, the voice input unit in the symbol location instructing means receives the voice input of the user. Similarly, the voice instruction conversion unit converts the voice received by the voice input unit into the content of the instruction.

【0065】請求項21の発明においては、シンボル表
示規則記憶手段内の数値表示規則記憶部が、物理的な値
そのものを数値として表示するという規則を入力された
上記憶する。請求項22の発明においては、ユーザの操
作に従って人が所在する環境条件を視覚的に擬似体験可
能とさせる擬似体験装置において、立体視手段がユーザ
の両眼に止め具等にて装着される。記憶手段が、ユーザ
が視覚的に擬似体験することとなる環境を生成するため
に必要な資料を擬似体験に先立って入力された上記憶す
る。ユーザ位置入力操作手段が、環境内におけるユーザ
の所在位置を指定、変更することを可能とさせる。立体
環境生成手段が、ユーザ位置入力操作手段にて入力され
たユーザの所在位置に応じて記憶手段に記憶されている
資料をもとに立体視手段内に擬似体験する環境を生成す
る。境界壁認識手段が、記憶手段へ入力されている資料
をもとにユーザが擬似体験をする対象としている環境の
境界壁(住居なら壁の位置)を認識している。境界壁外
所在ユーザ認識手段が、ユーザ位置入力操作手段への入
力操作をもとに、立体視手段内に立体環境生成手段の作
用のもとで擬似体験の対象として生成されている環境内
でのユーザの所在する位置を認識しており、更に境界壁
認識手段の認識している境界壁をもとにユーザの所在す
る位置が誤操作等で擬似体験する対象とされている環境
の外部となった場合には、このことを検知すると共に、
現在のユーザの位置とユーザが直前に擬似体験をしてい
た環境内の位置との相互関係をもとめる。ユーザ環境内
帰還促進手段が、ユーザの所在位置が境界壁外となった
場合には、境界壁外所在ユーザ認識手段から現在のユー
ザの位置とユーザが直前に擬似体験をしていた境界内の
位置との相互関係の通知を受けて、記憶手段の記憶内容
をも考慮して立体視手段内に両方の位置の相互関係につ
いての情報を視覚的に生成することにより、もとの位置
への帰還を促進する。
According to the twenty-first aspect of the invention, the numerical value display rule storage unit in the symbol display rule storage means stores the inputted rule for displaying the physical value itself as a numerical value. According to the twenty-second aspect of the present invention, in the simulated experience device that allows the user to visually experience the environmental conditions in which the person is located in accordance with the user's operation, the stereoscopic means is attached to both eyes of the user with a stopper or the like. The storage means stores the material necessary for generating the environment in which the user will experience the simulated experience, which is input and stored prior to the simulated experience. The user position input operation means makes it possible to specify and change the position of the user in the environment. The three-dimensional environment generating means generates an environment for a simulated experience in the three-dimensional viewing means based on the material stored in the storage means according to the user's location input by the user position input operation means. The boundary wall recognition means recognizes the boundary wall (in the case of a house, the position of the wall) of the environment that the user is to make a simulated experience based on the material input to the storage means. In the environment where the user recognition means located outside the boundary wall is generated as a simulated experience target under the action of the stereoscopic environment generation means in the stereoscopic means based on the input operation to the user position input operation means. The location of the user is recognized, and the location of the user based on the boundary wall recognized by the boundary wall recognition means is outside the environment where the user experiences a simulated experience due to an erroneous operation. If this happens, it will detect this and
The relationship between the current position of the user and the position in the environment where the user had a simulated experience immediately before is sought. When the user's location is outside the boundary wall, the in-user environment return facilitating means recognizes the current position of the user from the user recognizing means outside the boundary wall and the boundary within the boundary that the user was experiencing immediately before. In response to the notification of the mutual relationship with the position, the information about the mutual relationship between the two positions is visually generated in the stereoscopic means in consideration of the stored content of the storage means. Promote return.

【0066】請求項23の発明においては、ユーザ位置
入力操作手段内の検出部は、ユーザの片手の運動のみに
て入力操作が可能であるべく、ユーザの片手の運動によ
る磁気変化をもたらす操作、加速度をもたらす操作、押
ボタン操作、スイッチ操作の少なくも一を検出する。同
じく入力操作変換部は、検出部の検出結果を入力操作の
内容に変換する。
According to the twenty-third aspect of the present invention, the detection unit in the user position input operation means can perform an input operation only by the movement of one hand of the user, so that an operation that causes a magnetic change due to the movement of the one hand of the user, Detects at least one of acceleration, push button operation, and switch operation. Similarly, the input operation conversion unit converts the detection result of the detection unit into the content of the input operation.

【0067】請求項24の発明においては、前記ユーザ
環境条件内帰還促進手段内の環境内景観透視表示部は、
現在のユーザの所在する環境壁外の位置から、環境壁外
にユーザが出る直前に擬似体験していた環境内の位置を
両方の位置間に存在している境界壁を透明なものとして
見た景観を表示させる。請求項25の発明においては、
ユーザの操作に従って人が所在する環境を擬似体験可能
とさせる擬似体験装置において、立体視手段がユーザの
両眼に装着される。記憶手段が、視覚的に擬似体験する
対象たる環境を生成するために必要な資料を擬似体験に
先立って入力された上記憶する。立体環境生成手段が、
記憶手段が記憶する資料をもとに立体視手段内に環境を
生成する。物理的資料記憶手段が、記憶手段が記憶する
環境内の物理的な条件を定めるために必要な資料を入力
された上記憶する。物理的条件分布計算記憶手段が、物
理的資料記憶手段が記憶する物理的環境条件についての
資料をもとに環境内の物理的な条件の分布を計算した上
記憶する。仮想的平面設定操作手段が、立体視手段内に
生成された環境内にユーザの指示のもと少なくも一の仮
想的な平面を設定する。等高線図作成手段が、仮想的平
面設定操作手段にて設定された仮想的な平面上に、物理
的条件分布計算記憶手段の計算した上記憶する環境内の
物理的な条件の分布をもとに、環境内の物理的な条件の
等高線図を描いて立体視手段内に立体環境と併せて表示
する。
In the twenty-fourth aspect of the present invention, the in-environmental landscape perspective display section in the user environmental condition return promotion means is
From the current location outside the environment wall where the user is located, we saw the location in the environment that was simulated just before the user left the environment wall as a transparent boundary wall between both locations. Display the landscape. In the invention of claim 25,
In a simulated experience device that enables a simulated experience of an environment in which a person is located according to a user's operation, stereoscopic vision means is attached to both eyes of the user. The storage means stores the material necessary for generating the environment that is the target of the simulated experience, which is input and stored prior to the simulated experience. 3D environment generation means
An environment is created in the stereoscopic means based on the material stored in the storage means. The physical material storage means stores the material necessary for determining the physical condition in the environment stored by the storage means after the input. The physical condition distribution calculation storage means calculates and stores the distribution of the physical condition in the environment based on the material about the physical environment condition stored in the physical material storage means. The virtual plane setting operation means sets at least one virtual plane in the environment generated in the stereoscopic means under the instruction of the user. Based on the distribution of the physical conditions in the environment that the contour map creating means calculates and stores in the physical condition distribution calculation storage means on the virtual plane set by the virtual plane setting operation means. , A contour map of physical conditions in the environment is drawn and displayed in the stereoscopic means together with the stereoscopic environment.

【0068】請求項26の発明においては、仮想的平面
移動手段が、仮想的平面設定操作手段にて設定された仮
想的な平面の位置、方向の少なくも一をユーザの片手の
運動のみにて変更可能とさせる。請求項27の発明にお
いては、仮想的平面設定手段内の複数仮想平面部が、仮
想的な平面を複数設定する。等高線図作成手段内の等高
線図色分け表示部が、各仮想的な平面に等高線図を描い
て表示させる際に、各仮想的な平面毎に色彩を変更する
ことにより各等高線図を区分けして立体表示させる。
In the twenty-sixth aspect of the present invention, the virtual plane moving means uses at least one of the position and direction of the virtual plane set by the virtual plane setting operation means by the movement of one hand of the user. It can be changed. In the twenty-seventh aspect of the invention, the plurality of virtual plane portions in the virtual plane setting means set a plurality of virtual planes. When the contour map color-coded display unit in the contour map creating means draws and displays the contour map on each virtual plane, the contour map is divided into three-dimensional shapes by changing the color for each virtual plane. Display it.

【0069】請求項28の発明においては、物理的資料
記憶手段内の照度条件記憶部が、照度に関する資料を入
力された上記憶する。物理的条件分布計算記憶手段内の
照度分布計算記憶部は、環境内の照度の分布を計算して
記憶する。等高線図作成手段内の照度等高線作成部が、
仮想的な平面上に照度の等高線図を作成する。請求項2
9の発明においては、物理的資料記憶手段内の温度条件
記憶部が、温度に関する資料を入力された上記憶する。
物理的条件分布計算記憶手段内の温度分布計算記憶部
が、温度分布を計算して記憶する。等高線図作成手段内
の温度等高線作成部が、仮想的な平面上に温度の等高線
図を描いて表示させる。
In the twenty-eighth aspect of the present invention, the illuminance condition storage section in the physical material storage means receives and stores the material related to the illuminance. The illuminance distribution calculation storage unit in the physical condition distribution calculation storage unit calculates and stores the distribution of illuminance in the environment. The illuminance contour line creation unit in the contour map creation means
Create a contour map of illuminance on a virtual plane. Claim 2
In the ninth aspect of the invention, the temperature condition storage unit in the physical material storage means stores the material related to the temperature after being input.
A temperature distribution calculation storage unit in the physical condition distribution calculation storage means calculates and stores the temperature distribution. A temperature contour line creating unit in the contour line drawing means draws and displays a temperature contour map on a virtual plane.

【0070】請求項30の発明においては、物理的資料
記憶手段内の音条件記憶部は、所定の性質の音若しくは
音源からの音の少なくも一に関するものを入力された上
記憶する。物理的条件分布計算記憶手段内の音条件記憶
部は、所定の性質の音若しくは音源からの音の少なくも
一の音量の分布を計算した上記憶する。等高線図作成手
段内の音量等高線図作成部が、仮想的な平面上に音量の
等高線図を表示させる。
In the thirtieth aspect of the invention, the sound condition storage unit in the physical material storage means stores the sound of a predetermined characteristic or the sound from the sound source related to at least one of the input sounds. The sound condition storage unit in the physical condition distribution calculation storage means calculates and stores at least one volume distribution of sounds of a predetermined characteristic or sounds from a sound source. The volume contour map creation unit in the contour map creation means displays the volume contour map on a virtual plane.

【0071】請求項31の発明においては、ユーザの操
作に従って人が所在する環境を擬似体験可能とさせる擬
似体験装置において、立体視手段がユーザの両眼に装着
される。記憶手段が、視覚的に擬似体験する対象たる環
境を生成するために必要な資料を擬似体験に先立って入
力された上記憶する。選択可能光資料記憶手段が、記憶
手段が記憶する環境内の光環境条件を評価するために、
ユーザにより室内照明の各原色毎の強度、ガラス面の各
原色毎の透過率及び鏡面の反射率の少なくも一について
の選択可能な数値資料を入力された上記憶する。選択操
作手段が、選択可能光資料記憶手段にて入力された数値
資料のうち、ユーザが光環境条件の評価に使用するもの
を選択可能とさせる。立体環境生成手段が、記憶手段が
記憶する資料と選択可能光資料記憶手段に記憶する選択
可能な数値資料のうち選択操作手段により選択された数
値資料をもとに環境内に生成すべき光環境条件を生成
し、これを立体視手段内に表示させる。
According to the thirty-first aspect of the invention, in the simulated experience device that enables the simulated experience of the environment where the person is located according to the user's operation, the stereoscopic means is attached to both eyes of the user. The storage means stores the material necessary for generating the environment that is the target of the simulated experience, which is input and stored prior to the simulated experience. A selectable optical material storage means for evaluating the light environmental conditions in the environment stored by the storage means,
The user inputs and stores selectable numerical data for at least one of the intensity of each primary color of the room lighting, the transmittance of each primary color of the glass surface, and the reflectance of the mirror surface. The selection operation means enables the user to select, from the numerical data input by the selectable optical data storage means, the one used for the evaluation of the optical environment condition. Optical environment to be generated in the environment by the three-dimensional environment generation means based on the numerical material selected by the selection operation means from the material stored in the storage means and the selectable numerical material stored in the selectable optical material storage means The condition is generated and displayed in the stereoscopic means.

【0072】請求項32の発明においては、ソフトロボ
ット発生手段が立体視手段内に生成された環境中にソフ
トロボットを発生させる。ソフトロボット所在位置指示
手段が、ソフトロボット発生手段の作用のもとで発生さ
れるソフトロボットの環境内における所在位置をユーザ
に指定、変更操作可能とさせる。光環境条件評価用ソフ
トロボット表示制御手段が、ソフトロボット所在位置指
示手段にて指示操作された位置におけるソフトロボット
の表示に、立体環境生成手段がもとめた環境中での光環
境条件を反映させる。
In the thirty-second aspect of the invention, the soft robot generating means causes the soft robot to generate in the environment generated in the stereoscopic means. The soft robot location position instructing means allows the user to specify and change the location of the soft robot generated in the environment under the action of the soft robot generating means. The light environment condition evaluation soft robot display control means reflects the light environment condition in the environment obtained by the three-dimensional environment generation means on the display of the soft robot at the position designated and operated by the soft robot location position designating means.

【0073】請求項33の発明においては、ソフトロボ
ット所在位置指示操作手段内の検出部が、ユーザの片手
運動による磁気変化をもたらす操作、加速度をもたらす
操作、押ボタン操作、スイッチ操作の少なくも一を検出
する。請求項34の発明においては、ソフトロボット色
彩指定操作手段がソフトロボトの少なくも一部分の白色
光下での色彩をユーザに指定変更可能とさせた上記憶す
る。光環境評価用ソフトロボット表示制御手段内の色彩
指定ソフトロボット表示制御手段が、ソフトロボット色
彩指定操作手段にて指定されたソフトロボットの少なく
も一部の表示に際して、その所在する位置における環境
中の光環境条件を反映させて表示させる。
In a thirty-third aspect of the present invention, the detecting unit in the soft robot location-position instructing and operating means is at least one of operations for causing a magnetic change, acceleration, push button operation, and switch operation by a user's one-handed movement. To detect. In the invention of claim 34, the soft robot color designation operation means allows the user to designate and change the color of at least a part of the soft robot under white light and stores the color. When the soft robot display control means in the soft robot display control means for light environment evaluation displays at least part of the soft robot designated by the soft robot color designation operation means, The light environment conditions are reflected and displayed.

【0074】請求項35の発明においては、複数のユー
ザに、その操作に従って人が所在する環境を同時かつ独
立して擬似体験可能とさせる擬似体験装置において、各
ユーザがその両眼に立体視手段を装備する。記憶手段
が、視覚的に擬似体験する対象たる環境を生成するため
に必要な資料を擬似体験に先立って入力された上記憶す
る。各ユーザ用の所在位置指示手段が、各ユーザに対し
て擬似体験中の環境条件内における自分の所在する位置
を原則として他のユーザとは独立に指定、変更操作可能
とさせる。各ユーザ用環境生成手段が、各ユーザが装備
する立体視手段内に、記憶手段に記憶されている環境を
生成するための資料と、所在位置指示手段により入力さ
れた位置により定まる環境を生成させる。ユーザ位置認
識手段が、各ユーザ用の所在位置指示手段からの入力を
もとに、各ユーザが擬似体験中の所在位置を認識する。
他ユーザ相当ソフトロボット生成手段が、各ユーザ用の
立体視手段内に生成される環境中にユーザ位置認識手段
の認識結果をもとに、他のユーザの所在位置に該ユーザ
に相当するソフトロボットを生成の上表示させる。
According to a thirty-fifth aspect of the present invention, in a simulated experience device that allows a plurality of users to simultaneously and independently experience the environment in which a person is located in accordance with the operation, each user has stereoscopic vision means for both eyes. Equip. The storage means stores the material necessary for generating the environment that is the target of the simulated experience, which is input and stored prior to the simulated experience. The location indicating means for each user allows each user to specify and change the location of the user in the environmental condition during the simulated experience, in principle, independently of other users. Each user's environment generation means generates, in the stereoscopic means equipped to each user, a material for generating the environment stored in the storage means and an environment determined by the position input by the location position instructing means. . The user position recognizing unit recognizes the position of each user during the simulated experience based on the input from the position locating unit for each user.
Based on the recognition result of the user position recognizing means in the environment generated in the stereoscopic means for each user, the soft robot generating means corresponding to the other user corresponds to the user's location. Is generated and displayed.

【0075】請求項36の発明においては、各ユーザの
位置入力手段内の検出部が、片手の運動による磁気変化
をもたらす操作、加速度をもたらす操作、押ボタン操
作、スイッチ操作の少なくも一を検出する。同じく変換
部が、検出部の検出結果を入寮操作の内容に変換する。
In the thirty-sixth aspect of the present invention, the detection unit in the position input means of each user detects at least one of the operation that causes a magnetic change due to the movement of one hand, the operation that causes acceleration, the push button operation, and the switch operation. To do. Similarly, the conversion unit converts the detection result of the detection unit into the content of the dormitory operation.

【0076】[0076]

【実施例】以下、本発明の実施例を図面を参照しつつ説
明する。図3は、本発明の擬似体験装置の第1実施例の
概略構成図である。本図は、データグローブ12が3D
(3 dimentions)マウスと呼ばれる3次元入力装置30
というものにかわっている他は、基本的には図1と同じ
である。本図において、擬似体験者がゴーグル型立体表
示装置11を視認しつつ3次元入力装置30から入力す
る信号は、演算制御部13を経て、再びゴーグル型立体
表示装置11へ出力される。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 3 is a schematic configuration diagram of the first embodiment of the simulated experience device of the present invention. In this figure, the data globe 12 is 3D.
(3 dimentions) Three-dimensional input device 30 called a mouse
It is basically the same as that of FIG. 1 except that it is changed. In the figure, a signal input from the three-dimensional input device 30 while the simulated user visually recognizes the goggle type stereoscopic display device 11 is output to the goggle type stereoscopic display device 11 again via the arithmetic control unit 13.

【0077】図4は、本実施例における3次元入力装置
30の作用、操作を説明するために、その外観を拡大し
た図である。本装置は、ピストル(拳銃)のグリップに
似た形状であり、引金部分にはトリガースイッチ31
が、上部には右ボタン32と中央ボタン33と左ボタン
34とが設けられている。これらのスイッチ、ボタン等
は、操作目的に応じて使い分けられるが、その内容は後
述する。また、上下、左右、前後の3次元の各方向につ
いての磁気検出端35と加速度計36を内蔵して設け、
この磁気検出端35の検出した三方向の磁場の強度の差
を比較すること及び加速度計36により重力方向と加速
度の方向を検出すること等により、図4の矢印に示すよ
うな磁場に対する3次元入力装置30の回転角の変化や
動き等を検出可能としている。更に、本3次元入力装置
30自体が、擬似体験する内容の如何に応じて、スイッ
チの切換等により使い分けがなされる。そして、これに
ついては後の実施例で説明する。
FIG. 4 is an enlarged view of the appearance of the three-dimensional input device 30 in order to explain the operation and operation of the three-dimensional input device 30. This device has a shape similar to the grip of a pistol (handgun), and the trigger switch 31
However, a right button 32, a center button 33, and a left button 34 are provided on the upper part. These switches, buttons, etc. are used properly according to the purpose of operation, but the contents will be described later. Further, a magnetic detecting end 35 and an accelerometer 36 for each of the three-dimensional directions of up and down, left and right, and front and back are built in,
By comparing the differences in the strengths of the magnetic fields in the three directions detected by the magnetic detection end 35 and detecting the direction of gravity and the direction of acceleration by the accelerometer 36, etc. It is possible to detect a change in the rotation angle and movement of the input device 30. Further, the three-dimensional input device 30 itself is properly used by switching a switch or the like according to the contents to be simulated. Then, this will be described in a later embodiment.

【0078】図5は、演算制御装置13の内部構成を示
す。ゴーグル型立体表示装置11を使用しているユーザ
により3次元入力装置30から入力された信号は、入力
コントロール部130に入る。そして、回転角等につい
てのアナログ信号はデジタル信号に変換される。勿論、
スイッチやボタンからの信号はそのまま入力される。更
に、その内容に応じて各演算部に送られた上で処理され
ることとなる。すなわち、その情報が、ゴーグル型立体
表示装置11に描画されている建物、部屋、環境要素や
機器の発停等についてのメニューを選択するための操作
やそのために使用する半無限長の3次元ビームの操作に
関するものである場合には、3次元メニュー・3次元ビ
ーム座標演算部131、3次元メニュー・3次元ビーム
表示データ演算部132へ送られる。また、室内をウォ
ークスルーすることに関する場合には、3次元空間移動
速度ベクトル演算部133、3次元空間表示データ演算
部134へ送られる。さらにゴーグル型立体表示装置1
1の視野にソフトロボットを描画形成した上で動作させ
る場合には、ソフトロボット移動速度ベクトル演算部1
35、ソフトロボット表示データ演算部136へ送られ
る。
FIG. 5 shows the internal structure of the arithmetic and control unit 13. A signal input from the three-dimensional input device 30 by the user using the goggles type stereoscopic display device 11 enters the input control unit 130. Then, the analog signal regarding the rotation angle and the like is converted into a digital signal. Of course,
Signals from switches and buttons are input as they are. Further, it is sent to each arithmetic unit and processed according to its contents. That is, the information is an operation for selecting a menu about buildings, rooms, environmental elements and start / stop of devices drawn on the goggle type stereoscopic display device 11, and a semi-infinite length three-dimensional beam used for that operation. If it is related to the operation of, the data is sent to the three-dimensional menu / three-dimensional beam coordinate calculation unit 131, the three-dimensional menu / three-dimensional beam display data calculation unit 132. Further, in the case of walking through the room, it is sent to the three-dimensional space movement velocity vector calculation unit 133 and the three-dimensional space display data calculation unit 134. Further goggles type stereoscopic display device 1
In the case of operating after drawing and forming the soft robot in the visual field of 1, the soft robot moving speed vector calculation unit 1
35, and is sent to the soft robot display data calculation unit 136.

【0079】以上の他、各種の操作に応じてそのための
処理部や演算部へ送られるが、これについては、後にそ
の都度必要に応じて説明する。そして、これらの信号は
全て、最終的には表示コントロール部137へ送られ
る。この上で、各操作内容に応じて、ゴーグル型立体表
示装置11に所定の映像を生成して表示するために必要
な電気信号に変換され、再びゴーグル型立体表示装置1
1へ送られる。
In addition to the above, various operations are sent to a processing section and an arithmetic section therefor, which will be described later as needed each time. Then, all of these signals are finally sent to the display control unit 137. Then, it is converted into an electric signal necessary for generating and displaying a predetermined image on the goggle type stereoscopic display device 11 according to each operation content, and the goggle type stereoscopic display device 1 again.
Sent to 1.

【0080】以上の他、擬似体験やその選択の対象とす
る住宅、室内機器、照明具の幾何学的形状や配置、各部
の反射率等の物理的性質等の入力部や記憶部、それらの
解析のために必要なメッシュ分割や演算を行うためのプ
ログラムの記憶部やユーザによる入力操作部等を有して
いる。そして、これらについては、後の実施例で必要に
応じて順次説明する。また、一定の環境条件について
は、迅速な対応を可能とすべくあらかじめ精密若しくは
概略の計算や解析を行った上記憶しており、このために
必要な記憶部をも有するが、これについても後の実施例
で必要に応じて順次説明する。
In addition to the above, the input part and the storage part of the geometrical shape and arrangement of the house, the indoor equipment, the lighting equipment, the physical properties such as the reflectance of each part, which are objects of the simulated experience and the selection thereof, It has a storage unit of a program for performing mesh division and calculation necessary for analysis, an input operation unit by a user, and the like. Then, these will be sequentially described as needed in later embodiments. In addition, certain environmental conditions are stored after performing precise or rough calculations and analyzes in advance to enable swift response, and also have a storage unit necessary for this purpose. The embodiments will be sequentially described as needed.

【0081】以下具体的な動作及び効果を、図を参照し
つつ説明する。最初に、メニュー選択に関して図6を参
照しつつ説明する。本図には、ゴーグル型立体表示装置
11の生成した空間内に描画された3次元メニューを示
す。本図では、室内環境を擬似体験するに際して、その
対象とする住宅を選択するために、候補となる住宅が画
面に表示されている。ユーザは、アイコンとして表示さ
れた6戸のうちから、擬似体験したい住宅を3次元入力
装置30を使用して選択する。画面には、この選択に使
用するため、選択対象の住宅とは別に半無限長の3次元
ビーム61、62が描画されている。この3次元ビーム
61、62は、3次元入力装置30の移動、回転、傾斜
操作に応じてその向き等が変化するものであり、これを
画面に見える住宅のいずれかに照射することにより、擬
似体験を欲する住宅を選択可能とするものである。
Specific operations and effects will be described below with reference to the drawings. First, menu selection will be described with reference to FIG. This figure shows a three-dimensional menu drawn in the space created by the goggle type stereoscopic display device 11. In the figure, candidate homes are displayed on the screen in order to select a target home when the indoor environment is simulated. The user uses the three-dimensional input device 30 to select a house that he / she wants to experience as a simulated experience from the six houses displayed as icons. On the screen, three-dimensional beams 61 and 62 having semi-infinite length are drawn on the screen separately from the house to be selected for use in this selection. The directions of the three-dimensional beams 61 and 62 change according to the movement, rotation, and tilting operation of the three-dimensional input device 30, and by irradiating this on any of the houses visible on the screen, the pseudo beam is simulated. It is possible to select the house that you want to experience.

【0082】具体的には、室内のウォークスルーに先立
って、3次元ビーム装置30の中央ボタン33の押操作
により3次元メニューを表示させた後、描画された3次
元ビーム61を擬似体験を希望する住宅の3次元アイコ
ンに照射し、この状態でトリガースイッチ31により確
定指示を行う。これにより、選定された住宅環境が仮想
的に表示されることとなる。これにより、ユーザが自ら
移動したり、データグローブ12を操作する必要がなく
なる。
Specifically, prior to the walk-through in the room, after pressing the center button 33 of the three-dimensional beam device 30 to display a three-dimensional menu, a simulated experience of the drawn three-dimensional beam 61 is desired. The three-dimensional icon of the house to be illuminated is irradiated, and in this state, the trigger switch 31 issues a confirmation instruction. As a result, the selected housing environment is virtually displayed. This eliminates the need for the user to move by himself or operate the data globe 12.

【0083】次に、この際の、3次元メニュー・3次元
ビーム座標演算部131と3次元メニュー・3次元ビー
ム表示データ演算部132の演算内容について説明す
る。本実施例では、3次元ビーム61、62は、3次元
入力装置30を起点とする半無限長の棒として表示され
る。また、表示等に際しては、その横断面の中心座標が
3次元の極座標で定められる。このため、三方向の直交
座標で表される3次元の仮想空間上に表示されたアイコ
ンとの交点は、両座標の原点をあわせ、座標軸を調整し
た後、3次元入力装置30の磁場に対する角度から簡単
な計算で容易に求められる。そして、確定指示がなされ
れば、その状態での3次元入力装置30の磁場に対する
角度に相当したアイコン、図6の場合には住宅が選択さ
れる。
Next, the calculation contents of the three-dimensional menu / three-dimensional beam coordinate calculation unit 131 and the three-dimensional menu / three-dimensional beam display data calculation unit 132 at this time will be described. In the present embodiment, the three-dimensional beams 61 and 62 are displayed as semi-infinitely long bars starting from the three-dimensional input device 30. Further, when displaying or the like, the center coordinates of the cross section are determined by three-dimensional polar coordinates. Therefore, the intersection with the icon displayed in the three-dimensional virtual space represented by the three-dimensional orthogonal coordinates is adjusted to the angle with respect to the magnetic field of the three-dimensional input device 30 after the origins of both coordinates are aligned and the coordinate axes are adjusted. Can be easily obtained from a simple calculation. Then, when the confirmation instruction is given, the icon corresponding to the angle of the three-dimensional input device 30 with respect to the magnetic field in that state, in the case of FIG. 6, the house is selected.

【0084】このため、丁度、棒(タクト)か指かで商
店に並べられた特定の商品を指すのと同じ感覚でメニュ
ーを選択するのが可能となる。なお、本実施例では、別
途ユーザの手にした3次元入力装置30の選択操作によ
り、3次元ビームがユーザの両眼の中心を起点とするこ
とも可能としている。これにより、店舗等で首を左右に
ふりつつこれに応じて目についた商品等を購買のため選
択(指示)するのと同じ感覚でメニューの選択をするこ
とも可能となっている。
Therefore, it is possible to select a menu with the same feeling as if the user points a specific product lined up in a store with a stick (tact) or a finger. In the present embodiment, it is also possible for the three-dimensional beam to start from the center of both eyes of the user by the selection operation of the three-dimensional input device 30 that the user has separately. As a result, it is possible to make a menu selection in the same manner as when a user or the like swings his or her head to the left or right while selecting (instructing) a product or the like that is noticeable for purchase.

【0085】これらの動作は、3次元入力装置30を持
つユーザの手首や頭部の回転操作と指による押ボタン等
の操作だけで行われる。このため、複雑な操作を覚える
必要はないだけでなく、日常の動作にも近い。ひいて
は、修得し易い。また、両眼をゴーグル型立体表示装置
11でふさがれた状態での体の重心の調整をとる必要も
なくなる。
These operations are performed only by the rotation operation of the wrist or head of the user having the three-dimensional input device 30 and the operation of the push button or the like by the finger. For this reason, it is not only necessary to learn complicated operations, but also it is close to daily operations. As a result, it is easy to learn. Further, it becomes unnecessary to adjust the center of gravity of the body when both eyes are covered with the goggle type stereoscopic display device 11.

【0086】なお、この3次元ビームによる選択は、建
物だけでなく、室内での空調機器の機種の選択やその発
停等他の評価したい環境要素の選択にも使用し得るのは
勿論である。またユーザの希望により、室内をウォーク
スルーしている際に目についた機器等の移動、変更、発
停の選択や窓の開閉等一部環境条件そのものの選択、変
更にも使用しえるのは勿論である。 (第2実施例)本発明の他の実施例について図面を参照
しつつ説明する。
It is needless to say that the selection by the three-dimensional beam can be used not only for the building but also for the selection of the model of the air conditioning equipment in the room and the selection of other environmental elements to be evaluated such as the start and stop of the air conditioning equipment. . Also, depending on the user's wishes, it can be used to move or change equipment that is noticeable while walking through the room, select start / stop, open / close windows, or select or change some environmental conditions themselves. Of course. (Second Embodiment) Another embodiment of the present invention will be described with reference to the drawings.

【0087】本実施例は、先の第1実施例において選択
された住宅環境のもとでのウォークスルーといわれる擬
似体験の仕方あるいは擬似体験方法に関する。このた
め、基本的な構成等は先の第1実施例と同じである。従
って、共通の構成要素の説明は省略し、本実施例固有の
構成、作用のみ説明する。ここに、ウォークスルーと
は、ユーザが仮想的に形成された室内各部を見てまわ
り、また備えつけられた機器の発停等をも行うことによ
り、現実に居住しているのと同じ室内、照明、音響等の
環境を擬似体験することをいう。以下、そのための処理
を説明する。
The present embodiment relates to a pseudo experience method or a pseudo experience method called a walkthrough under the residential environment selected in the first embodiment. Therefore, the basic configuration and the like are the same as those of the first embodiment. Therefore, description of common components will be omitted, and only the configuration and operation unique to this embodiment will be described. Here, the walk-through means that the user looks around each part of the virtually formed room, and also starts and stops the installed equipment, so that the same room and lighting as the actual living , To experience the environment such as sound. The processing for that will be described below.

【0088】図7は、本実施例における三次元の視覚情
報処理を示す図である。本図において、13は演算制御
装置であり、11はゴーグル型立体表示装置である。7
1に示すように、住宅環境は3次元座標にてあらかじめ
仮想環境表示用の主記憶部に入力されている。そして人
の目は、72に示すように利き目である左眼を基準とし
て同じく副記憶部内の同じ方向、尺度の3次元座標に入
力される。そして、この位置、視線方向等は3次元入力
装置30により操作される。すなわち、この3次元マウ
スと呼ばれる3次元ビーム装置30を図4に示したよう
に各方向に傾けるだけで、その回転角度情報が演算制御
装置13内の入力コントロール部130を経て3次元空
間移動速度ベクトル演算部133に入力され、回転角度
の大きさ、方向に応じてウォークスルーの移動速度、方
向が、ひいては始点からの両眼の位置が算出される。
FIG. 7 is a diagram showing three-dimensional visual information processing in this embodiment. In the figure, 13 is an arithmetic and control unit, and 11 is a goggle type stereoscopic display unit. 7
As shown in FIG. 1, the housing environment is input in advance in the main storage unit for displaying the virtual environment in three-dimensional coordinates. Then, as shown by 72, the human eye is input in the same direction and three-dimensional coordinates of the scale in the sub-storage unit with the left eye, which is the dominant eye, as a reference. The position, line-of-sight direction, etc. are operated by the three-dimensional input device 30. That is, simply by inclining the three-dimensional beam device 30 called this three-dimensional mouse in each direction as shown in FIG. 4, the rotation angle information is transferred to the three-dimensional space moving speed via the input control unit 130 in the arithmetic and control unit 13. It is input to the vector calculation unit 133, and the moving speed and direction of the walkthrough are calculated according to the magnitude and direction of the rotation angle, and the position of both eyes from the starting point is calculated.

【0089】次に、位置調整73は、両記憶部の座標の
原点、座標軸線を一致させて、左眼からみた住宅環境を
生成することによりなされる。距離計算74は、左眼か
らの室内各部の距離を計算するものである。この上で、
住宅内の各機器等の立体角の計算75がなされる。ま
た、左右両眼の距離dと機器等との距離計算の結果をも
とに室内各部の視差計算76がなされる。視野調整77
は、立体角計算と視差計算の結果をもとに、右眼からみ
た視野を生成することによりなされる。この上で、左視
野78としては立体角計算結果がそのまま出力され、右
視野79としては視野調整結果が出力され、これらは更
に各々ゴーグル型立体表示装置11内のLCRT111
とRCRT112に送られ、これにより人の移動に伴う
立体表示がなされる。
Next, the position adjustment 73 is performed by matching the origins of the coordinates of both the storage units and the coordinate axis lines to generate a housing environment viewed from the left eye. The distance calculation 74 is to calculate the distance of each part of the room from the left eye. On this,
A solid angle calculation 75 of each device in the house is performed. Further, the parallax calculation 76 of each part in the room is performed based on the result of the distance calculation between the left and right eyes and the device. Field of view adjustment 77
Is performed by generating a visual field viewed from the right eye based on the results of solid angle calculation and parallax calculation. On this, the solid angle calculation result is output as it is for the left visual field 78, and the visual field adjustment result is output for the right visual field 79.
Is sent to the RCRT 112, and a three-dimensional display is made by the movement of the person.

【0090】そして、これら各処理は、主に3次元空間
表示データ演算部134と三次元空間移動速度ベクトル
演算部133にてなされる。この際、室内各部の照度等
は、そもそも多人数が居る場合等を除きユーザの有無、
位置座標にほぼ無関係である。このため、本実施例では
あらかじめ計算されており、ユーザの視野に相応して表
示に使用される。
Each of these processes is mainly performed by the three-dimensional space display data operation unit 134 and the three-dimensional space movement velocity vector operation unit 133. At this time, the illuminance and the like of each part of the room, whether or not there is a user, unless there are many people in the first place,
Almost irrelevant to position coordinates. Therefore, in this embodiment, it is calculated in advance and used for display according to the visual field of the user.

【0091】次に、上記構成のもとでユーザが仮想住宅
をウォークスルーする際の視野の変化の様子を示す。図
8は、これを示すものである。本図のAは、ゴーグル型
立体表示装置11に描画されたメニューにより擬似体験
の対象として選択された住宅の外観である。手前にはド
アが見える。図8のBには、3次元入力装置30を前方
へ傾けることにより、ドアに接近した状態が表示されて
いる。図8のCではさらにドアから室内に入った状態が
表示されており、反対側の壁の窓が見えている。その
後、図8のDでは手首を右に捻ることにより3次元入力
装置30を右へ回転させ、これにより室内において入室
したドアを右手に、窓を左手に見えるように簡単に方向
転換した状態が表示されている。
Next, a change in the field of view when the user walks through the virtual house with the above configuration will be described. FIG. 8 shows this. A of the figure is the appearance of the house selected as the target of the simulated experience by the menu drawn on the goggle type stereoscopic display device 11. You can see the door in the foreground. In FIG. 8B, a state in which the door is approached by tilting the three-dimensional input device 30 forward is displayed. In FIG. 8C, the state of entering the room through the door is further displayed, and the window on the opposite wall is visible. After that, in FIG. 8D, the three-dimensional input device 30 is rotated to the right by twisting the wrist to the right, so that the door entered in the room is easily turned to the right hand and the window to the left hand. It is displayed.

【0092】もちろん、3次元入力装置30を上下に移
動することで、天井や床近傍をクローズアップ表示する
ことも可能である。また、本実施例では手にした3次元
入力装置30への回転角による入力操作にかえて、頭部
に装着した磁気検出端15から入力操作することも可能
としている。なお、上述の3次元メニューの選択モード
と区別するために、3次元入力装置30の操作は、その
トリガースイッチ31を押しながら操作するようにして
いる。
Of course, by moving the three-dimensional input device 30 up and down, it is possible to display the ceiling and the vicinity of the floor in a close-up manner. Further, in the present embodiment, instead of the input operation by the rotation angle to the three-dimensional input device 30 which is held in hand, the input operation can be performed from the magnetic detection end 15 attached to the head. In order to distinguish from the selection mode of the above-mentioned three-dimensional menu, the three-dimensional input device 30 is operated while pressing the trigger switch 31 thereof.

【0093】これらのため、丁度TVゲームのジョイス
ティック、或はヘリコプターの操縦桿のように自然な感
覚で操作できる。以上の他、本実施例では、3次元入力
装置30の傾き或は回転によるその回転角度の絶対値や
大きさに応じて人の移動する速度を可変としているが、
これらについては、原理が簡単なので説明は省略する。
For these reasons, it can be operated with a natural feeling just like a joystick of a TV game or a control stick of a helicopter. In addition to the above, in the present embodiment, the moving speed of the person is variable according to the absolute value and the size of the rotation angle due to the inclination or rotation of the three-dimensional input device 30.
Since the principle of these is simple, the description is omitted.

【0094】次に、ゴーグル型立体表示装置や3次元入
力装置に一体的に設けられたマイクロフォンを通じて、
音声によりソフトロボットを動かすようにしてもよい。
なお、この場合、命令に使用される単語は、「進め」、
「止れ」、「右向け」等簡単かつ種類も限られているた
めユーザにとって記憶し易い上、音声認識も容易とな
る。このため、操作性は一層向上する。ただし、音声認
識技術そのものは本発明の趣旨ではないので、その説明
は省略する。 (第3実施例)本発明の他の実施例について図面を参照
しつつ説明する。なお、先の第2実施例と同じく本実施
例も第1実施例の構成を前提としたものである。このた
め、先の第1実施例と共通する部分についての説明は省
略する。
Next, through a microphone provided integrally with the goggle type stereoscopic display device and the three-dimensional input device,
The soft robot may be moved by voice.
In this case, the word used in the instruction is “advance”,
Simple and limited types such as "stop" and "to the right" make it easy for the user to memorize and facilitate voice recognition. Therefore, the operability is further improved. However, since the voice recognition technology itself is not the gist of the present invention, its description is omitted. (Third Embodiment) Another embodiment of the present invention will be described with reference to the drawings. Like the second embodiment, this embodiment is based on the configuration of the first embodiment. Therefore, the description of the parts common to the first embodiment will be omitted.

【0095】一般ユーザ、特に住宅居住者、住宅購入者
等の顧客を対象とするセールスエンジニアリングにおい
ては、照明による室内雰囲気の確認や、ウォークスルー
による部屋の見え方が最重要と思われる。しかし、建築
設計者或は設備設計者がこの擬似体験装置を使用する場
合には、より詳細な物理現象まで可視化した上で表示す
る必要が生じる。更に、喫茶店、映画館、ダンスホール
等営業用の建築物においては、この喫茶店の経営者等に
とっても、室内に設けられた室内機器、照明機器等が利
用者にどのように感じられているか、あるいはどのよう
な影響を及ぼすか等は重大関心事である。このため、数
値シミュレーション結果による膨大な3次元データを具
象化して示す手段としては、例えば図2のAに示すよう
に室内に仮想の断面を描画した上で温度分布を等高線に
より表示する、図2のBに示すように風速は室内にて小
さい粒子を飛ばしたパーティクルパス表示(小さい粒子
の軌跡を種々細工して表示すること)により可視化する
等の手法が採用されている。また、局所的に詳細に評価
した値を得る手段としては、3次元入力装置30を仮想
のセンサーとみなして実際にその位置にまで移動させ、
その位置の温度等を計算して表示させる、あるいはあら
かじめ計算してある値を仮想的に測定した値として表示
する方法もある。しかし、これらの方法では、人がそれ
らの温度等を実際にどのように感じているかや人の位置
との関係でどのような値となっているかを、直観的に理
解し、把握するのは困難である。
In sales engineering targeted at general users, particularly customers such as house residents and home buyers, it is considered that the confirmation of the indoor atmosphere by lighting and the view of the room by walk-through are the most important. However, when an architect or equipment designer uses this simulated experience device, it becomes necessary to visualize and display even more detailed physical phenomena. Furthermore, in commercial buildings such as coffee shops, movie theaters, and dance halls, how the owners of this coffee shop feel the indoor equipment and lighting equipment installed in the room, etc. Or what kind of effect it has is of great concern. Therefore, as a means for concretely showing a huge amount of three-dimensional data obtained as a result of the numerical simulation, for example, as shown in FIG. 2A, a virtual cross section is drawn and then the temperature distribution is displayed by contour lines. As shown in B of No. 2, a method of visualizing the wind speed by displaying a particle path in which small particles are blown in the room (displaying loci of small particles by variously working) is adopted. Further, as a means for locally obtaining a detailed evaluated value, the three-dimensional input device 30 is regarded as a virtual sensor and actually moved to that position,
There is also a method of calculating and displaying the temperature at that position, or displaying a value calculated in advance as a virtually measured value. However, with these methods, it is not possible to intuitively understand and understand how a person actually feels their temperature, etc., and what value they have in relation to the position of the person. Have difficulty.

【0096】本実施例では、その解決手段として図9に
示すようにソフトロボット90を使用する。ソフトロボ
ット90とは、観測者であるユーザの分身或は第3者と
して表示された、しかも人が感じる温度等を視覚的に表
現することが可能な仮想的な人間である。本実施例で
は、これを室内空間に生成させ、この仮想の人間が感じ
る環境の様子を設計者等が視覚的に観察可能とすること
により、この問題の解決を図る。具体的には、このソフ
トロボット90が、ユーザに代わって室内全域をウォー
クスルーして行き、室内での位置や機器の発停に応じて
の環境条件の物理的値やその変化に応じて体の各部の色
を変化させたりするようにしている。そして、これによ
り、単に位置する場所の室内温度や風速等の物理的な値
を表示するのみならず、風速、情況によっては湿度をも
考慮した温度たる体感温度の分布を表示したり、髪のゆ
れ具合や顔の表情を変化させて風量、風向等を表示する
ことにより、人との関係において効率的、客観的かつ視
覚的に評価可能とするものである。更にこの場合、ロボ
ットの各部毎に体感温度、温度のみならず風速、湿度、
体の部位をも考慮した体感温度、風量等の表示を行うこ
とにより、実際に即したものとなるだけでなく、有効な
ものとなる。喫茶店におけるテーブルや空調機器の配置
の検討等では、これは重要である。
In this embodiment, a soft robot 90 as shown in FIG. 9 is used as a solution. The soft robot 90 is a virtual person who is displayed as the alter ego of the user who is the observer or as a third party, and is capable of visually expressing the temperature felt by the person. In the present embodiment, this problem is solved by generating this in an indoor space and allowing a designer or the like to visually observe the state of the environment felt by the virtual person. Specifically, the soft robot 90 walks through the entire room on behalf of the user, and responds to physical values of environmental conditions and changes in the physical conditions according to the position in the room and the start / stop of devices. I try to change the color of each part. This allows not only to display physical values such as the indoor temperature and wind speed of the place where it is located, but also to display the distribution of the sensible temperature, which is a temperature that also considers humidity depending on the wind speed and circumstances, and By displaying the amount of wind, the direction of wind, etc. by changing the shaking condition and facial expression, it is possible to evaluate efficiently, objectively and visually in relation to a person. Furthermore, in this case, the perceived temperature of each part of the robot, not only the temperature but also the wind speed, the humidity,
By displaying the sensible temperature, the air volume, etc. in consideration of the body part as well, it becomes effective as well as the actual one. This is important when considering the arrangement of tables and air conditioning equipment in coffee shops.

【0097】以下、本実施例の基本となるソフトロボッ
ト90の室内移動について簡単に説明する。このソフト
ロボット90の室内移動の様子を、図9のAとBに示
す。その操作は、基本的には前述のユーザ自身のウォー
クスルーと同じであり、このため3次元入力装置30に
よりなされる。更に、ソフトロボット90の移動方向
は、ユーザの選択によりユーザ若しくはソフトロボット
の視線の方向を基準にして判断される。また、ソフトロ
ボット移動速度ベクトル演算部135、ソフトロボット
表示データ演算部136は、ソフトロボットの移動に伴
って各種表示に必要な処理も行う。
The indoor movement of the soft robot 90, which is the basis of this embodiment, will be briefly described below. 9A and 9B show how the soft robot 90 moves indoors. The operation is basically the same as the above-mentioned user's own walk-through, and therefore is performed by the three-dimensional input device 30. Further, the moving direction of the soft robot 90 is determined by the user's selection based on the direction of the line of sight of the user or the soft robot. In addition, the soft robot movement speed vector calculation unit 135 and the soft robot display data calculation unit 136 also perform processing necessary for various displays as the soft robot moves.

【0098】以下、その内容を具体的に説明する。図1
0は、本実施例におけるソフトロボット90のウォーク
スルーに伴う視覚情報の処理の様子を示すものである。
本図において、13は演算制御装置であり、11はゴー
グル型立体表示装置である。71に示すように住宅環境
は、3次元座標にてあらかじめ仮想環境表示用の主記憶
部に形成されている。そして、視覚環境については、こ
の記憶内容は左眼用の視野751としてはそのまま、右
眼用には視差調整を経て生成される。一方、ソフトロボ
ット90の基点からの位置は、72に示すように左眼を
中心に3次元座標にて副記憶部に形成されている。そし
て、ソフトロボット90についての視覚信号は、表示処
理771を経た後、左眼用の視野78としてはそのまま
使用され、右眼用の視野79としては視差調整処理76
1、762を経て使用される。この後、左右の視覚信号
は各々左右のCRT111、112に送られ立体的な環
境を形成する。
The contents will be specifically described below. Figure 1
0 indicates a state of processing of visual information accompanying the walk-through of the soft robot 90 in the present embodiment.
In the figure, 13 is an arithmetic and control unit, and 11 is a goggle type stereoscopic display unit. As shown at 71, the housing environment is formed in advance in the main storage unit for displaying the virtual environment in three-dimensional coordinates. With regard to the visual environment, this stored content is generated as it is as the visual field 751 for the left eye, and after parallax adjustment for the right eye. On the other hand, the position from the base point of the soft robot 90 is formed in the sub storage unit in three-dimensional coordinates with the left eye as the center, as shown at 72. Then, after passing through the display processing 771, the visual signal of the soft robot 90 is used as it is as the visual field 78 for the left eye, and the parallax adjustment processing 76 as the visual field 79 for the right eye.
It is used after 1, 762. After that, the left and right visual signals are sent to the left and right CRTs 111 and 112, respectively, to form a stereoscopic environment.

【0099】なお、本実施例では、図4の3次元入力装
置30のボタン押の切換え操作によりソフトロボットの
移動とユーザの移動動作とを区別するものとしている
が、別途専用の3次元入力装置に取換える等他の手段を
採用してもよい。また、ソフトロボット90をウォーク
スルーさせることにより室内の視覚的環境のみを擬似体
験するのであれば、ソフトロボット90の表示は、その
輪郭線のみが黒く太く表示されるようにしてもよい。
In the present embodiment, the movement of the soft robot and the movement movement of the user are distinguished by switching the button press of the three-dimensional input device 30 of FIG. 4, but a separate dedicated three-dimensional input device is used. Other means such as replacement with the above may be adopted. Further, if only the visual environment in the room is to be simulated by walking through the soft robot 90, the soft robot 90 may be displayed with only its outline being black and thick.

【0100】次に、ソフトロボットの表情、色彩の変化
等により位置する室内環境の物理的条件を表示させるた
めに必要な構成、作用について図面を参照しつつ説明す
る。図11は、このためのデータの入力や処理を示す。
本図において、環境データ1101として、部屋の大き
さや幾何学的な形状等、エアコンの取り付け位置、送風
方向、家具の大きさや位置、照明器具の位置や照度、窓
の大きさや位置等その部屋における環境に関する各種の
データが入力される。
Next, the structure and operation necessary for displaying the physical conditions of the indoor environment in which the robot is located due to facial expressions, color changes, etc. of the soft robot will be described with reference to the drawings. FIG. 11 shows data input and processing for this purpose.
In the figure, as the environmental data 1101, the size and geometrical shape of the room, the installation position of the air conditioner, the blowing direction, the size and position of the furniture, the position and illuminance of the lighting equipment, the size and position of the window, etc. in the room. Various environmental data is entered.

【0101】環境解析1102として、これらの環境デ
ータをもとに、室内環境条件が計算される。シンボルデ
ータ1103として、ソフトロボットやその各種の表情
等のシンボルそのものの内容についてのデータやシンボ
ルが部屋の物理的環境に応じてどのように変化するかの
内容についてのデータが入力される。具体的には、室内
の体感温度に応じてどのように色彩や明度を変化させる
か、風速に応じて髪や髪に換えての紐をどのように棚引
かせるか、外部雑音の如何によって表情をどのように変
化させるか等である。
As the environmental analysis 1102, indoor environmental conditions are calculated based on these environmental data. As the symbol data 1103, data about the contents of the symbol itself such as the soft robot and its various facial expressions and data about how the symbol changes according to the physical environment of the room are input. Specifically, how to change the color and brightness according to the sensible temperature in the room, how to shelve hair or strings in place of hair according to wind speed, and how external noise makes it look Is how to change.

【0102】シンボル指示1104として、ソフトロボ
ット等のシンボルの存在する位置や表示対象とする住環
境の位置や物理値等の指定がキーボード、マウス等にて
入力操作される。シンボル演算1105としては、入力
された環境データをもとに計算した環境解析結果とシン
ボルに関するデータとに基づき、その指示された環境を
シンボルで表示するのに必要な演算、例えば、ソフトロ
ボットの体感温度の分布の表示、同じく外部雑音に応じ
たソフトロボット表情の決定や形成等に必要な演算であ
る。
As the symbol instruction 1104, designation of a position where a symbol such as a soft robot exists, a position of a living environment to be displayed, a physical value or the like is input by a keyboard, a mouse or the like. The symbol calculation 1105 is a calculation necessary for displaying the designated environment as a symbol based on the environmental analysis result calculated based on the input environmental data and the data regarding the symbol, for example, the feeling of the soft robot. This is a calculation necessary for displaying the temperature distribution and also for determining and forming a soft robot facial expression according to external noise.

【0103】事前記憶1106とは、入力された住環境
のデータ等をもとにあらかじめ室内各部の熱的、光学
的、音響的諸条件を計算し、別途の記憶部に記憶するも
のである、これにより、ユーザによる各種の表示要求に
迅速な対応を可能としている。更に、この場合、照明や
空調等は各機器の単位出力毎に、例えば、空調機器の出
力が500W、1kW、1.5kW毎、かつ外部環境と
して外気温が10℃、5℃、0℃、−5℃毎に室内各部
の温度が計算され、あらかじめ記憶されている。また、
ソフトロボットの数が少ない場合には、これによる環境
条件への影響は少ない(100w/h人)ため、その移
動等は環境条件に反映しないものとしている。
The pre-storing 1106 is to preliminarily calculate various thermal, optical and acoustic conditions of each part of the room based on the inputted living environment data and the like and store them in a separate storage part. This makes it possible to promptly respond to various display requests by the user. Furthermore, in this case, for lighting, air conditioning, etc., for each unit output of each device, for example, the output of the air conditioning device is every 500 W, 1 kW, 1.5 kW, and the outside temperature is 10 ° C., 5 ° C., 0 ° C., The temperature of each part of the room is calculated every -5 ° C and stored in advance. Also,
When the number of soft robots is small, this has little influence on the environmental conditions (100 w / h person), and therefore the movement thereof is not reflected in the environmental conditions.

【0104】シンボル演算表示1107とは、シンボル
演算の結果に応じて、対応するシンボルの内容を画面に
視認しえるように形成するものである。具体的には、C
RT画面に音の強さの演算結果をdb単位で数値的に表
示したり、あるいはソフトロボットの顔の表情を快適な
ようにあるいは不愉快なように表示することにより体感
音量を示すものである。これらについては後に詳しく説
明する。
The symbol calculation display 1107 is formed so that the contents of the corresponding symbol can be visually recognized on the screen according to the result of the symbol calculation. Specifically, C
The sensation volume is displayed by numerically displaying the calculation result of the sound intensity in dB units on the RT screen, or by displaying the facial expression of the soft robot in a comfortable or unpleasant manner. These will be described in detail later.

【0105】次に、ソフトロボットを使用しての計算結
果の表示処理について図12に基づいて説明する。本図
に示すように、本実施例では環境解析及び事前記憶処理
(1201)、ソフトロボットを作成するソフトロボッ
ト作成処理(1202)、これら両ステップをふまえて
ソフトロボットの位置する環境解析の結果をソフトロボ
ットによって表示するための計算結果−ソフトロボット
合成処理(1203)、その結果を表示するソフトロボ
ット表示(1204)からなる。
Next, the display processing of the calculation result using the soft robot will be described with reference to FIG. As shown in the figure, in the present embodiment, the results of the environmental analysis and pre-storing process (1201), the soft robot creating process for creating the soft robot (1202), and the environmental analysis result of the position of the soft robot are taken into consideration based on these both steps. Calculation result for display by soft robot-soft robot synthesis processing (1203) and soft robot display (1204) for displaying the result.

【0106】そして、このうち、環境解析事前記憶12
01は図11の環境解析1102及び事前記憶1106
に、計算結果─ソフトロボット合成処理1203は、同
じくシンボル演算1105に、同じくソフトロボット表
示1204はシンボル表示1107に相当する。環境解
析では汎用ワークステーションを用いて、例えば、以下
のシミュレーション計算を行う。
Of these, the environmental analysis pre-storage 12
01 is the environment analysis 1102 and the pre-storage 1106 of FIG.
Similarly, the calculation result—soft robot synthesis processing 1203 corresponds to the symbol calculation 1105, and the soft robot display 1204 also corresponds to the symbol display 1107. In the environment analysis, for example, the following simulation calculation is performed using a general-purpose workstation.

【0107】室内の温度分布(定常状態及び非定常状
態)。空調機器から発生する暖気、冷気の流れの軌跡。
人間の快適性指標であるPMVの分布等の計算。光環境
に関する室内の景観評価、照明機器による室内の照度分
布、輝度分布等の計算。
Indoor temperature distribution (steady state and unsteady state). The locus of the flow of warm air and cold air generated from air conditioners.
Calculation of PMV distribution, which is a human comfort index. Evaluate the indoor landscape regarding the light environment, and calculate the illuminance distribution and brightness distribution in the room by lighting equipment.

【0108】音環境に関する室内での音の響き具合を評
価する残響特性、外部騒音に対する遮音特性評価等の計
算。これらの解析、計算の手順は本発明の主旨そのもの
ではないので、詳細な説明は省略する。次に図13を用
いて本実施例固有の計算であるソフトロボットによる各
種の計算結果の表示を行うために必要なソフトロボット
作成、計算結果−ソフトロボット合成及びソフトロボッ
ト表示について詳細に説明する。
Calculation of reverberation characteristics for evaluating the degree of sound reverberation in a room regarding sound environment, evaluation of sound insulation characteristics for external noise, and the like. Since these analysis and calculation procedures are not the main purpose of the present invention, detailed description thereof will be omitted. Next, the soft robot creation, calculation result-soft robot synthesis, and soft robot display necessary for displaying various calculation results by the soft robot, which are calculations unique to this embodiment, will be described in detail with reference to FIG.

【0109】本図において、実線は計算処理の流れを、
また点線はデータの流れを示す。また、ステップ(s
1)〜(s4)はソフトロボット作成に属する処理であ
り、ステップ(s5)、(s61)、(s62)、(s
63)及び(s64)は計算結果−ソフトロボット合成
に属する処理であり、(s7)はソフトロボット表示に
属する計算処理である。
In this figure, the solid line indicates the flow of calculation processing,
The dotted line shows the flow of data. In addition, step (s
1) to (s4) are processes belonging to soft robot creation, and include steps (s5), (s61), (s62), and (s).
63) and (s64) are processes belonging to the calculation result-soft robot composition, and (s7) is a calculation process belonging to the soft robot display.

【0110】ソフトロボット作成では、まず、ソフトロ
ボットオブジェクトデータを入力する(s1)。ソフト
ロボットオブジェクトデータ(D2)は、CADによる
ソフトロボットオブジェクト作成を行い(s8)、CA
Dデータを作成し(D1)、前期CADデータ擬似体験
用オブジェクトデータに変換して(s9)、得るもので
ある。
In creating a soft robot, first, soft robot object data is input (s1). For the soft robot object data (D2), a soft robot object is created by CAD (s8), CA
D data is created (D1), converted into object data for CAD data pseudo experience (s9), and obtained.

【0111】次に、室内オブジェクトデータを入力する
(s2)。室内オブジェクトデータ(D3)は環境解析
シミュレーションを行う際に用いるメッシュ座標ファイ
ル(D4)を共有することによって作成する(s1
0)。次に、ソフトロボットの移動に関して、3次元入
力装置1330によるソフトロボット120の移動方向
の入力を行い(s3)、その後、前期入力情報に基づい
てソフトロボットを移動させる(s4)。
Next, the indoor object data is input (s2). The indoor object data (D3) is created by sharing the mesh coordinate file (D4) used when performing the environmental analysis simulation (s1).
0). Next, regarding the movement of the soft robot, the moving direction of the soft robot 120 is input by the three-dimensional input device 1330 (s3), and then the soft robot is moved based on the input information of the previous period (s4).

【0112】計算結果−ソフトロボット合成では、ま
ず、ソフトロボットによる表示内容の選択を行う(s
5)。ここで、例えば、温熱環境に関する温度分布や快
適性評価指標PMV分布及び光環境に関する照度分布や
輝度分布等、カラーコンター図で表示する内容を選択し
た場合には、ソフトロボットのカラー分布化を行い(s
61)、また温熱環境に関する空調機器からの気流を評
価する場合にはソフトロボットの頭につけた紐を棚引か
せるソフトロボットのタフト化を行い(s2)、また光
環境に関するソフトロボットの顔面の陰影を評価する場
合にはソフトロボットの顔面陰影付加を行い(s6
3)、さらに音響環境に応じてソフトロボットの顔面の
表情を変化させる場合にはソフトロボットの顔面の表情
の付加を行う(s64)。これらのステップ(s31)
〜(s64)を行うためには、ステップ(s2)の室内
オブジェクトデータ入力処理と同様、メッシュ座標ファ
イルD4を環境解析シミュレーション計算工程と共有
し、また、環境解析シミュレーションデータD5を要す
る さらに、ステップ(s31)のソフトロボットのカラー
分布においては、カラー分布テーブルD6が必要であ
り、ソフトロボットの位置における環境解析シミュレー
ションデータを読み込んだ後、このデータに基づいて前
期カラー分布テーブルD6より予め設定したカラー値を
取り出して、ソフトロボットの各部位毎に色付けすると
いう処理を行う。
Calculation Result-In soft robot synthesis, first, the display contents of the soft robot are selected (s
5). Here, for example, when the contents to be displayed in the color contour diagram such as the temperature distribution related to the thermal environment, the comfort evaluation index PMV distribution, the illuminance distribution related to the light environment, and the brightness distribution are selected, the color distribution of the soft robot is performed. (S
61) In addition, when evaluating the air flow from the air conditioner related to the thermal environment, the soft robot is tufted by pulling the string attached to the head of the soft robot (s2). When evaluating, the face shadow of the soft robot is added (s6
3) Further, when the facial expression of the soft robot is changed according to the acoustic environment, the facial expression of the soft robot is added (s64). These steps (s31)
To perform (s64), the mesh coordinate file D4 is shared with the environmental analysis simulation calculation step and the environmental analysis simulation data D5 is required, as in the indoor object data input processing of step (s2). In the color distribution of the soft robot in s31), the color distribution table D6 is necessary, and after reading the environmental analysis simulation data at the position of the soft robot, the color value preset from the color distribution table D6 in the previous period based on this data is read. Is taken out, and a process of coloring each part of the soft robot is performed.

【0113】また、ステップ(s62)のソフトロボッ
トのタフト化においては、ソフトロボットの位置におけ
る環境解析シミュレーションデータを読み込んだ後、そ
の位置での気流ベクトルの方向及び大きさに基づいて、
ソフトロボットに付けた紐を棚引かせるという処理を行
う。また、ステップ(s63)のソフトロボットの顔面
陰影付加においては、カラー分布テーブルD7が必要で
あり、ソフトロボットの位置における環境解析シミュレ
ーションデータを読み込んだ後、その位置での照度、輝
度に基づいて、前記顔面に陰影をつけるという処理を行
う。
In the tufting of the soft robot in step (s62), after reading the environmental analysis simulation data at the position of the soft robot, based on the direction and magnitude of the air flow vector at that position,
The process of shelving the string attached to the soft robot is performed. In addition, in the face shadow addition of the soft robot in step (s63), the color distribution table D7 is required, and after reading the environmental analysis simulation data at the position of the soft robot, based on the illuminance and the brightness at that position, A process of shading the face is performed.

【0114】さらに、ステップ(s64)のソフトロボ
ットの顔面表情付加においては、表情テーブルD8が必
要であり、ソフトロボットの位置における環境解析シミ
ュレーションデータを読み込んだ後、その位置での音の
聞こえ方に基づいて、前期表情テーブルD8より予め設
定した表情を選んで、ソフトロボットの顔面に貼り付け
るという処理を行う。
Furthermore, in the facial expression addition of the soft robot in step (s64), the facial expression table D8 is necessary, and after reading the environmental analysis simulation data at the position of the soft robot, how to hear the sound at that position is read. Based on this, a preset facial expression is selected from the facial expression table D8 in the previous term and is attached to the face of the soft robot.

【0115】最後に、ソフトロボット表示に際しては、
前期各計算処理を基に、擬似体験装置を用いて環境解析
シミュレーション結果をソフトロボットにより表示す
る。図14は、ソフトロボット90により室内の温度分
布を表示している画面を示す。本図において、室内の左
側壁には壁掛け式エアコン21が設置してあり、エアコ
ン21下部の吹き出し口より温風を出して暖房している
状態である。また、エアコン21向かいの右側壁には窓
1421がある。そして、住環境のこれらによる温度、
風等の値は既述のごとく予め、計算された上記憶されて
いる。今、エアコンの出力が500W、外気温0℃の条
件で3次元入力装置30によって、この室内でソフトロ
ボット90をウォークスルーさせ、エアコン21に近い
部屋中央から離れた窓1421の側に立った状態で移動
させたとする。本実施例では、ソフトロボット90の頭
部、胴部、下肢部の3部位の色によって室内に位置する
部分の温度分布及び快適指数PMVを知ることができる
ようにしている。さて、ソフトロボット90が部屋の中
央にいるときは、部屋の環境データに基づきソフトロボ
ット90の体の色が3部位でほぼ同じく明るい色彩(図
では白)に表示され、これにより温度、PMVとも快適
であるという結果が表示されている。他方、窓側では頭
部及び胴部に比べ下肢部1422が暗く(図では斜線)
表示され、これにより下肢部はやや寒いといった結果が
表示されている。これは、エアコン21から吹き出した
暖気が部屋中央ではほぼ均等に分布しているが、窓14
21際では足元まで届かないため高低での温度差が生じ
たことによる。このため、エアコン21の出力を1kW
へ上げて、再度温度分布を観察し、これでも不足ならば
再度出力を上げる等して確認し、必要最小限のエアコン
の出力を求められることが可能となる。更に、顔面、衣
服を着ている胴、スカートをはいた女性の足部等体の各
部による気温、湿度、風に対する感じ方の相違を反映さ
せて一層良好な体感温度の表示を得られるようにしても
よい。
Finally, when displaying the soft robot,
Based on each calculation process in the previous term, the result of environmental analysis simulation is displayed by the soft robot using the simulated experience device. FIG. 14 shows a screen displaying the temperature distribution in the room by the soft robot 90. In the figure, a wall-mounted air conditioner 21 is installed on the left side wall of the room, and is in a state of being heated by blowing hot air from an air outlet below the air conditioner 21. Further, there is a window 1421 on the right side wall opposite the air conditioner 21. And the temperature due to these in the living environment,
The value of wind or the like is calculated and stored in advance as described above. Now, under the condition that the output of the air conditioner is 500 W and the outside temperature is 0 ° C., the soft robot 90 is walked through in this room by the three-dimensional input device 30 and is standing on the side of the window 1421 that is close to the air conditioner 21 and away from the center of the room. Suppose you moved it with. In the present embodiment, the temperature distribution and comfort index PMV of the portion located in the room can be known by the colors of the three parts of the soft robot 90, the head, the body, and the lower limbs. Now, when the soft robot 90 is in the center of the room, the body color of the soft robot 90 is displayed in almost the same bright color (white in the figure) based on the environmental data of the room. The result that it is comfortable is displayed. On the other hand, on the window side, the lower limbs 1422 are darker than the head and torso (hatched in the figure)
As a result, the result that the lower limbs are slightly cold is displayed. This is because the warm air blown out from the air conditioner 21 is distributed almost evenly in the center of the room.
It is because the temperature difference between high and low occurred because it could not reach the feet at 21:00. Therefore, the output of the air conditioner 21 is 1 kW.
Then, the temperature distribution is observed again, and if it is still insufficient, the output can be checked again by increasing the output again, and the minimum required output of the air conditioner can be obtained. In addition, it is possible to obtain a better sensible temperature display by reflecting the differences in how to feel the temperature, humidity, and wind depending on the body parts such as the face, the torso wearing clothes, and the legs of a woman wearing a skirt. May be.

【0116】このように、室内の温度分布を局所的に詳
細かつ直観的に確認することができる。このため、室内
を快適に空調するために必要な設備機器等の設計が容易
となる。図15は、エアコンによる空気流を表示した画
面を示す。本図において、基本的な条件は先の図14と
同じであり室内の左側の壁掛け式エアコン21はその下
部の吹き出し口より温風を出して部屋を暖房している。
また、エアコン21の向かいの右側壁には窓1421が
あるのは同じである。今、3次元入力装置30によって
ソフトロボット90を、エアコン21吹き出し口の真下
の位置から窓1421の側にウォークスルーさせる。さ
て、ソフトロボット90はその頭部に、頭髪に似せた紐
1501を付けて表示されており、この紐の1501が
棚引く方向と棚引く角度から、ソフトロボット90の位
置におけるエアコン21による風の流れの方向及び強さ
を知ることができる。本図において、エアコン21の下
部にはソフトロボット90の頭部の紐が窓1421の方
向に向かって非常に強く棚引き、窓1421近くではほ
とんど下がっている。このため、室内の空調機器による
空気の流れの状態をソフトロボット90に対応づけて局
所的に詳細かつ直観的に確認することもできる。更に
は、体の各部に紐を付して、各部にあたる風を観察する
ことも可能である。ひいては、温度分布と空気流れの両
方から室内を快適に空調する設計が容易となる。勿論、
この表示は冷房の場合にも応用しえ、またこの場合には
扇風機等が別途設けられていてもよい。
Thus, the temperature distribution inside the room can be locally confirmed in detail and intuitively. For this reason, it becomes easy to design equipment and the like necessary for comfortably air conditioning the room. FIG. 15 shows a screen displaying the airflow by the air conditioner. In this figure, the basic conditions are the same as in FIG. 14 described above, and the wall-mounted air conditioner 21 on the left side of the room heats the room by blowing warm air from the air outlet at the bottom thereof.
Further, the window 1421 is the same on the right side wall opposite the air conditioner 21. Now, the three-dimensional input device 30 causes the soft robot 90 to walk through from the position directly below the outlet of the air conditioner 21 to the side of the window 1421. By the way, the soft robot 90 is displayed with a string 1501 resembling hair on its head, and the wind flow of the air conditioner 21 at the position of the soft robot 90 at the position of the soft robot 90 can be determined from the shelving direction and the shelving angle of the string 1501. You can know the direction and strength. In the figure, the cord of the head of the soft robot 90 is very strongly shelved in the lower part of the air conditioner 21 in the direction of the window 1421, and is almost lowered near the window 1421. For this reason, the state of the air flow by the air conditioner in the room can be associated with the soft robot 90 and locally and in detail confirmed. Furthermore, it is also possible to attach a string to each part of the body and observe the wind hitting each part. As a result, it becomes easy to design the room for comfortable air conditioning from both the temperature distribution and the air flow. Of course,
This display can be applied to the case of cooling, and in this case, a fan or the like may be separately provided.

【0117】図16は、室内の照明による影響を表示し
た画面を示す。本図において、室内の天井には1つのシ
ャンデリア24とその周りに4つのスポットライト16
21が設置してある。ソフトロボット90を部屋中央の
位置に立たせ、シャンデリア24のみで照明した場合が
図16のAである。シャンデリア24のみで照明をした
場合、部屋全体は非常に明るく、団欒をするには充分な
明るさが得られているが、ソフトロボット90の顔面に
は陰の部分が存在している。これに対し、図16のBに
シャンデリア24とスポットライト1621とを使用し
て照明をした場合には、ソフトロボット90顔面の陰は
ほとんど無くなっているのが示されている。これによ
り、実際に部屋中央のソファー1622に座って向かい
合って団欒するのにはシャンデリア24のみの照明環境
でも充分であるが、シャンデリア24とスポットライト
1621を併用することにより、相手の表情を鮮明に見
ながら団欒ができることから、より優れた照明環境であ
ると評価できる。この場合、図16のAでは示されては
いないが、実際にはゴーグル型立体表示装置11内に陰
影まで付されて顔面が表示されるが故に、実際に近い照
明環境での擬似体験がなしえる。勿論、別途の操作で顔
面のみ拡大して表示し、詳細に観察することも可能であ
る。
FIG. 16 shows a screen displaying the effect of indoor lighting. In the figure, one chandelier 24 and four spotlights 16 around it are provided on the ceiling in the room.
21 is installed. FIG. 16A shows the case where the soft robot 90 is erected at the center of the room and is illuminated only by the chandelier 24. When only the chandelier 24 is used for illumination, the entire room is very bright and bright enough to be in harmony with each other, but there is a shadow on the face of the soft robot 90. On the other hand, in FIG. 16B, when the chandelier 24 and the spotlight 1621 are used for illumination, the shadow of the face of the soft robot 90 is almost eliminated. As a result, the lighting environment of only the chandelier 24 is sufficient to actually sit on the sofa 1622 in the center of the room and face each other, but by using the chandelier 24 and the spotlight 1621 together, the facial expression of the other party becomes clear. It is possible to evaluate it as a better lighting environment because it is possible to get together while watching. In this case, although not shown in FIG. 16A, since the face is actually displayed in the goggle type stereoscopic display device 11 with the shadow even, there is no simulated experience in a lighting environment that is actually close. Get Of course, it is possible to magnify and display only the face and observe it in detail by a separate operation.

【0118】次に、この場合の室内照度の表示である
が、あらかじめシャンデリア24単独と各スポットライ
ト1621単独の場合のしかも各単位出力(1W)での
照度を計算した上記憶しておき、ユーザによる照明条件
の選択如何によって、記憶している一方のみの照度、若
しくは両方の照度を採り出して、別途与えられた出力値
に必要な修正を行ない、この上でソフトロボット90の
表示に使用する。このため、シャンデリア24単独では
あるがその出力照度が大きい場合の評価も可能としてい
る。この際、必要に応じて発光源や人の視覚の非線形性
の修正がなされるのは勿論である。
Next, regarding the display of the indoor illuminance in this case, the illuminance at each unit output (1 W) in the case of the chandelier 24 alone and each spotlight 1621 alone is calculated and stored in advance. Depending on how the illumination conditions are selected, the stored illuminance of only one or both illuminances are taken out, the output value given separately is corrected as necessary, and then used for the display of the soft robot 90. . Therefore, the chandelier 24 alone can be evaluated even when the output illuminance is large. At this time, it is needless to say that the non-linearity of the light source and human vision is corrected as necessary.

【0119】図17は、音響解析に使用した場合の表示
画面を示す。本図において、室内の前方には床置き式ス
ピーカ1701が2台設置してあり、音楽が流れてい
る。室内の右側壁には窓1421があり、外部にかなり
の騒音源があるという音響環境条件があらかじめ入力さ
れている。本表示例では、騒音による音楽鑑賞の妨げの
度合いを4段階にわけ、各段階に応じてソフトロボット
90の顔面表情を変化させるようにしている。いわゆる
シンボルによる表示である。そして、評価結果の把握を
容易にするため、それぞれの段階でのソフトロボット9
0の顔面の表情1702を画面右上に参考として表示し
ている。今、ソフトロボット90を部屋中央の位置に立
たせ、窓1421を遮音度約60dBの防音サッシにて
閉めた場合と、遮音度約30dBの一般の窓にした場合
と、開放状態にした場合の3通りにおける顔面表情によ
り音楽鑑賞における音響条件の評価結果を表示するもの
である。本図のAは、窓1421を防音サッシにした場
合であり、騒音がほとんど室内には透過せず、快く音楽
鑑賞をしているのを示す。同じくBは、窓1421を一
般のものにした場合であり、多少騒音による音楽鑑賞の
妨げが生じるという結果を示している。同じくCは、窓
1421を開放状態にしたものであり、音楽鑑賞がほと
んど不可能という結果を示している。
FIG. 17 shows a display screen when used for acoustic analysis. In this figure, two floor-mounted speakers 1701 are installed in front of the room, and music is playing. There is a window 1421 on the right side wall of the room, and the acoustic environment condition that there is a considerable noise source outside is input in advance. In this display example, the degree of hindrance to music listening due to noise is divided into four levels, and the facial expression of the soft robot 90 is changed according to each level. This is a so-called symbol display. Then, in order to facilitate understanding of the evaluation result, the soft robot 9 at each stage
A facial expression 1702 of 0 is displayed on the upper right of the screen for reference. Now, the soft robot 90 is set up at the center of the room, and the window 1421 is closed by a soundproof sash with a sound insulation of about 60 dB, a general window with a sound insulation of about 30 dB, and an open state. The result of evaluation of the acoustic condition in listening to music is displayed by the facial expression on the street. A in the figure shows a case where the window 1421 is a soundproof sash, and almost no noise is transmitted to the room, and the user is listening to music comfortably. Similarly, B shows the case where the window 1421 is a general window, and shows the result that the noise is somewhat obstructed in listening to music. Similarly, C shows that the window 1421 is opened, and it is almost impossible to listen to music.

【0120】従来の音環境評価は全て、観測者自身がヘ
ッドフォン等を使用して実際に音を聞くという方法で行
っていた。このため、2種類以上の音を同時に聞いて、
一方の音が他方の音によってどの程度妨げられるかとい
ったような遮音評価は、ハードウェア上の問題があり非
常に困難であった。しかし、本実施例では、体感的に音
環境評価が可能となっている。勿論、別途ヘッドフォン
を両耳にあてて実際に音響環境を耳により体験しえるよ
うにしてもよい。この場合には、視覚的な評価も同時に
得られるため、一層直観的な擬似体験となる。更に、セ
ールスエンジニアリングにおいては、外部騒音とスピー
カ1701からの音楽音各々の音量を数値的に表示する
ことを併用すれば、一層効果的となる。 (第4実施例)以下、本発明の他の実施例を図面に基づ
いて説明する。
All conventional sound environment evaluations have been performed by a method in which the observer himself / herself actually listens to sound using headphones or the like. Therefore, you can listen to two or more sounds at the same time,
Sound insulation evaluation, such as how much one sound is disturbed by the other sound, was very difficult due to hardware problems. However, in the present embodiment, the sound environment evaluation can be performed sensuously. Of course, separate headphones may be applied to both ears so that the user can actually experience the acoustic environment. In this case, a visual evaluation can be obtained at the same time, which is a more intuitive pseudo experience. Further, in sales engineering, it is more effective if the external noise and the volume of each music sound from the speaker 1701 are numerically displayed together. (Fourth Embodiment) Another embodiment of the present invention will be described below with reference to the drawings.

【0121】本実施例に限らず、視覚的に擬似体験する
ためには、家屋および内部の機器の表示に照度等を反映
する必要がある。更に、現実の問題としてセールスエン
ジニアリングでは、視覚が最重要となる。本実施例は、
各種の視覚環境の擬似体験に関する。以下、各種の視覚
による擬似体験の前提となる光環境解析の、基本となる
手順について図18のフローチャートを参照しつつ説明
する。なお、本フローチャートは、図11に示した環境
解析1102の一部となるものである。先に記述したよ
うにあらかじめ固体壁、天井、床さらに内部機器の幾何
学形状等や反射率等の光学的性質は入力されている(t
1)。また、その外面の光学的性質も3原色(RGB)
毎の値で入力され、定められるようになっている。この
上で、入力された幾何学的形状は図19に示すようにメ
ッシュ分割される(t2)。また、必要に応じて図19
のAに示すように仮想仕切面1901や図19のBに示
すように仮想鏡面1902も入力される。前者は、部屋
の何も存在しない中間点、例えば人の目の位置等の明る
さを求めたりするのに利用され、後者は面対称な部屋を
効率よく解析したりするために利用される。そして、各
メッシュ毎に入力された各原色毎の反射率等が計算機に
設定される(t3)。各原色毎に、光源の光学的性質、
例えば単位出力あたりの光量、射照方向や光量の分布
(指向性についての情報)が入力される(t4)。各原
色毎に、各メッシュの受光量及び反射光量が計算される
(t5)。なお、この計算の基本は、各メッシュが照射
された光を今度は光源になったものとしてあらかじめ定
められた反射率等に応じて他のメッシュへ反射する。そ
して、各メッシュがこの反射を繰り返すごとに本来の光
源から初期値として与えられた光量は減衰していく。そ
して、その減衰量が初期値に対してある定められた値と
なるまで繰り返すものである。そして、各メッシュの明
るさは、そこから各回毎の反射により放出される光量の
総和として求められる。なお、仮想仕切面上のメッシュ
については、当該メッシュを通過する光の量がその明る
さとなる。本実施例では、各原色毎かつ各反射回数毎に
反射光量の総和は光源からの当初の光量の0.5%以内
か否かが判断される(t6)。もし、0.5%を越えて
おれば、反射光はこのメッシュから反射されて室内各部
の他のメッシュを照らすこととなる(t7)。また、
0.5%以下であれば、本来の光源からの光が各部(各
メッシュ)で繰り返し反射されて室内各部(各メッシ
ュ)の照明に寄与しつつ減衰するとした繰り返し計算は
終了する。
Not limited to this embodiment, in order to make a simulated experience visually, it is necessary to reflect the illuminance and the like on the display of the house and the equipment inside. Furthermore, as a practical matter, in sales engineering, vision is of paramount importance. In this example,
Regarding simulated experiences of various visual environments. Hereinafter, a basic procedure of the light environment analysis, which is a prerequisite for various visual experiences, will be described with reference to the flowchart of FIG. The flowchart is a part of the environment analysis 1102 shown in FIG. As described above, the optical properties such as the geometrical shape of the solid wall, the ceiling, the floor, and the internal equipment and the reflectance are input in advance (t
1). In addition, the optical properties of its outer surface are also three primary colors (RGB).
Each value is entered and set. On this, the input geometric shape is mesh-divided as shown in FIG. 19 (t2). In addition, if necessary, FIG.
A virtual partition surface 1901 as shown in A and a virtual mirror surface 1902 as shown in B of FIG. 19 are also input. The former is used to find the brightness of the midpoint of the room where nothing exists, for example, the position of the human eye, and the latter is used to efficiently analyze a plane-symmetric room. Then, the reflectance or the like for each primary color input for each mesh is set in the computer (t3). For each primary color, the optical properties of the light source,
For example, the amount of light per unit output, the irradiation direction, and the distribution of the amount of light (information about directivity) are input (t4). The amount of received light and the amount of reflected light of each mesh are calculated for each primary color (t5). The basis of this calculation is that the light emitted from each mesh is reflected to other meshes according to a predetermined reflectance and the like as a light source this time. Then, each time each mesh repeats this reflection, the light amount given as the initial value from the original light source is attenuated. Then, it is repeated until the attenuation amount reaches a predetermined value with respect to the initial value. Then, the brightness of each mesh is obtained as the total sum of the amount of light emitted by the reflection from each mesh. The brightness of the mesh on the virtual partition surface is the amount of light passing through the mesh. In this embodiment, it is determined whether or not the total sum of the amount of reflected light is within 0.5% of the initial amount of light from the light source for each primary color and for each number of reflections (t6). If it exceeds 0.5%, the reflected light is reflected from this mesh and illuminates other meshes in each part of the room (t7). Also,
If it is 0.5% or less, the repeated calculation that the light from the original light source is repeatedly reflected by each part (each mesh) and contributes to the illumination of each part (each mesh) in the room and is attenuated is completed.

【0122】この状態で、照明シミュレーションの計算
結果である各物体外表面のメッシュ毎の明るさが読み込
まれて、ディスプレイに表示されることとなる。この
際、計算はその費用節減の目的から物体外表面を計算精
度が損なわれない程度の粗さに分割を行い、その各分割
されたメッシュは、同じ明るさとされる。ただし、視覚
環境の表示にあたっては、ゴーグル型立体表示装置11
の画素ごとに所定の補正を行う。更に、立体表示のた
め、必要な部分は視差の調整も行われる(t8)。この
結果、図20のように現実の陰影感がついた室内環境を
見渡すことになる。
In this state, the brightness of each mesh on the outer surface of each object, which is the calculation result of the illumination simulation, is read and displayed on the display. At this time, for the purpose of cost reduction, the calculation divides the outer surface of the object into coarseness that does not impair the calculation accuracy, and the respective divided meshes have the same brightness. However, when displaying the visual environment, the goggle type stereoscopic display device 11 is used.
A predetermined correction is performed for each pixel. Further, for stereoscopic display, the parallax is adjusted in the necessary part (t8). As a result, as shown in FIG. 20, the indoor environment with a real sense of shading is overlooked.

【0123】次に、本実施例の応用例としての仮想仕切
面1901及び仮想鏡面1902の取扱いを説明する。
図19のAに示すように、仮想仕切面1901では、入
射された光はその方向を維持しつつ100%通過する。
図19のBに示すように、仮想鏡面1902では、ニュ
ートンの法則(フェルマーの原理)に従って方向を変化
させた上で100%反射する。この他、ガラスでは仮想
仕切面に似るも透過率は100%でなく、ニュートンの
法則に従っての反射と多少の乱反射とがある。更に、色
付きガラスでは、その色彩により各原色に対する透過
率、反射率等が異なる。また鏡面では、仮想鏡面と異な
り反射率は95%とされる。また、多少の乱反射もある
ものとされる。これらにより、床面上のある与えられた
高さの物体が何もない空間の照度、具体的には人の目に
入る光量等を求めえるのみならず、店舗における各種の
色彩を有する光源のもとでの色付きガラスを採用したシ
ョウウィンドウ、大きな鏡があちこちに設けられた大広
間等の様子も視覚的に擬似体験可能となる。勿論、色付
きガラスの色彩の選定等にも使用しうる。
Next, the handling of the virtual partition surface 1901 and the virtual mirror surface 1902 as an application example of this embodiment will be described.
As shown in A of FIG. 19, on the virtual partition surface 1901, the incident light passes 100% while maintaining its direction.
As shown in FIG. 19B, the virtual mirror surface 1902 reflects 100% after changing the direction according to Newton's law (Fermat's principle). In addition, glass is similar to a virtual partition surface, but the transmittance is not 100%, and there are reflection according to Newton's law and some diffuse reflection. Further, in colored glass, the transmittance, reflectance, etc. for each primary color differ depending on the color. On the mirror surface, unlike the virtual mirror surface, the reflectance is 95%. In addition, it is assumed that there is some diffuse reflection. With these, not only can the illuminance of a space on the floor surface where there is no object of a given height, specifically, the amount of light entering the human eye, etc. It is also possible to visually simulate the appearance of the original show windows using colored glass and the halls with large mirrors installed here and there. Of course, it can also be used for selecting the color of colored glass.

【0124】次に、他の応用例について説明する。セー
ルスエンジニアリングや初心者による擬似体験では、ど
うしても、ウォークスルー等の際の誤操作で擬似体験者
が室外に飛び出てしまうことがある。この場合、特にセ
ールスエンジニアリングにおいては、外壁しか見えない
ならば、顧客はゴーグル型立体表示装置11内に生成さ
れた外部の視野と住宅との位置関係の把握が困難であ
り、室内へ戻り難かった。そこで、本実施例では、ユー
ザが外部に出たこととなったときは、室の外壁を仮想仕
切面とみなして透明にすることで室内の位置を把握し易
くし、再度室内へ戻る操作がやりやすくしている。この
際、外壁の表示を透明にするだけでなく、別途作成した
庭等の景観をも併せて表示することにより、外部から室
内を見渡すことも可能としている。これにより、誤操作
の修正をし易くするだけでなく、室内全般を一層明白に
評価することも可能にしている。
Next, another application example will be described. In sales engineering or a simulated experience by a beginner, the simulated experience person may inevitably jump out of the room due to an erroneous operation such as a walkthrough. In this case, particularly in sales engineering, if only the outer wall can be seen, it is difficult for the customer to grasp the positional relationship between the house and the external visual field generated in the goggle type stereoscopic display device 11, and it is difficult to return to the room. . Therefore, in the present embodiment, when the user goes outside, the outside wall of the room is regarded as a virtual partition surface and made transparent so that the position inside the room can be easily grasped and the operation for returning to the room again can be performed. It's easy to do. At this time, it is possible not only to make the display of the outer wall transparent, but also to display the landscape of the garden etc., which was created separately, so that the interior can be seen from the outside. This not only makes it easier to correct erroneous operations, but also makes it possible to evaluate the entire room more clearly.

【0125】勿論、庭等の外部環境を視覚による擬似体
験の対象としても入力した上で、窓を開けた室内から室
内と併せて観察しうるようにしてもよい。これにより、
セールスエンジニアリングの効果も増大する。なお、こ
の場合には、窓の開閉による室内の明るさの変化や外界
と室内の明るさの大きな相違から生じる視認の困難性を
補償すべく、必要な照度の修正がなされる。具体的に
は、人の視覚は照度の対数に比例する、必要に応じて外
部の照度を下げる等も考慮される。
Of course, an external environment such as a garden may be input as a target for a visual simulation experience, and then observed from inside the room with the window opened together with the room. This allows
The effect of sales engineering also increases. In this case, the necessary illuminance is corrected to compensate for the difficulty of visual recognition caused by the change in the indoor brightness due to the opening and closing of the window and the large difference between the external environment and the indoor brightness. Specifically, human vision is proportional to the logarithm of the illuminance, and it is possible to consider reducing the external illuminance as necessary.

【0126】図21は室外から見た仮想住宅の室内と庭
の植木が併せて表示されている様子を示すものである。 (第5実施例)次に、本発明の他の実施例について説明
する。一般的にはユーザは、住環境の評価で、照明によ
る室内雰囲気の確認や、ウォークスルーによる部屋の見
え方に最も関心を持つ。しかし、この擬似体験装置を建
築設計者或いは設備設計者が直観的な設計資料を入手す
るために使用する場合には、より詳細な物理現象まで可
視化して表示する必要が生じる。特に、美術品の展示場
における光環境、音楽ホールにおける音環境等の設計で
はこれは重要である。本実施例では、室内に仮想の断面
を設け、数値シミュレーションによる温度分布などの膨
大な3次元データをその仮想断面上に等温線等のスカラ
ー情報として表示することにより、直観的な設計資料を
入手可能としたものである。この場合、3次元データ、
ベクトル情報等を2次元データたる等高線図にて表示す
るが故にユーザの印象に残り易い。また、室内環境は立
体表示であるが故に直観的となり、表示結果を各種の設
計により有効に反映させ易い。
FIG. 21 shows a state in which the indoor plants of the virtual house and the plants in the garden are displayed together when viewed from the outside. (Fifth Embodiment) Next, another embodiment of the present invention will be described. Generally, the user is most interested in the confirmation of the indoor atmosphere by lighting and the appearance of the room by the walk-through in the evaluation of the living environment. However, when the architect or equipment designer uses this simulated experience device to obtain intuitive design materials, it becomes necessary to visualize and display even more detailed physical phenomena. This is especially important in the design of the light environment in the art exhibition space, the sound environment in the music hall, and the like. In this embodiment, an intuitive design material is obtained by providing a virtual cross section in a room and displaying enormous three-dimensional data such as temperature distribution by numerical simulation as scalar information such as isotherms on the virtual cross section. It was possible. In this case, three-dimensional data,
Since the vector information and the like are displayed in a contour map which is two-dimensional data, it is easy to leave an impression on the user. Moreover, since the indoor environment is three-dimensionally displayed, it is intuitive, and it is easy to effectively reflect the display result in various designs.

【0127】次に、そのデータ処理の基本について説明
する。既述のごとく、環境解析、そしてこれに続く事前
記憶により室内各点の温度、風向及び風速等はあらかじ
め計算されて記憶されている。このため、等温線図の対
象となる二次元平面が定まれば、この平面に最も近い計
算済の各点の計算結果を記憶部から採り出して、同じ温
度の点を補間曲線で結ぶ等により作成される。また、例
えば照度については、光源の単位出力あたりの室内各部
の解析値を記憶しておき、各種光源の出力や内容に応じ
て簡単な計算で修正して表示させるようにすることによ
り、迅速な対応も可能としている。室内の床面上1.5
mの何もないところの照度は、先の実施例で説明した仮
想仕切面を設定することにより求められる。
Next, the basics of the data processing will be described. As described above, the temperature, the wind direction, the wind speed, and the like at each point in the room are calculated and stored in advance by environmental analysis and subsequent storage. Therefore, if the two-dimensional plane that is the target of the isotherm diagram is determined, the calculation result of each calculated point closest to this plane is taken from the storage unit, and the points of the same temperature are connected by an interpolation curve. Created. In addition, for example, for illuminance, analysis values of each part of the room per unit output of the light source are stored, and the output is corrected and displayed by a simple calculation according to the output and contents of various light sources, thereby making it possible to speed up the operation. Correspondence is also possible. On the floor of the room 1.5
The illuminance at a place where nothing is present in m is obtained by setting the virtual partition surface described in the previous embodiment.

【0128】図22は、仮想仕切面及び室内壁面におけ
る照度の等高線図である。次に、本実施例では、3次元
入力装置30によって、2次元的な等高線図をあらゆる
方向に移動、回転させ、室内の環境を評価、観察するこ
とを可能としている。勿論、立体表示であるが故に、多
層的に表示することも可能である。具体的には、ユーザ
から見て1mの位置の縦方向仕切部は赤色、2mの位置
は黄色、3mの位置は青色にて等高線を示し、各等高線
の示す数値は数字として所定間隔毎に若しくは所定位置
に表示されるようにする等である。ただし、図22にお
いて、等高線に付された数字は省略してある。
FIG. 22 is a contour map of illuminance on the virtual partition surface and the indoor wall surface. Next, in the present embodiment, the three-dimensional input device 30 makes it possible to move and rotate the two-dimensional contour map in all directions to evaluate and observe the indoor environment. Of course, since it is a stereoscopic display, it is possible to display it in multiple layers. Specifically, the vertical partition at the position of 1 m from the user is red, the position of 2 m is yellow, the position of 3 m is blue, and the contour lines are blue, and the numerical values shown by the contour lines are numbers at predetermined intervals or For example, it is displayed at a predetermined position. However, in FIG. 22, the numbers attached to the contour lines are omitted.

【0129】なお、本実施例では図示しない音声認識装
置によっても等高線の表示位置の移動を可能としてい
る。これは、両眼をゴーグルでおおわれている状態で、
等高線図が回転したりすることとなるため、極力身体の
動きを少なくするようにしたものである。なお、「回
転」、「右」、「上昇」等の命令に使用される単語の認
識技術そのものは、本発明の趣旨ではないので説明を省
略する。
In the present embodiment, the display position of the contour line can be moved also by a voice recognition device (not shown). This is a state where both eyes are covered with goggles,
Since the contour map will rotate, the movement of the body is minimized. Note that the word recognition technology itself used for the commands such as “rotate”, “right”, and “up” is not the purpose of the present invention, and therefore its description is omitted.

【0130】次に、局所的かつ詳細な評価について説明
する。ホールの貴賓席等については、その詳細な設計デ
ータを得るべく実際にその位置に移動していき、具体的
には3次元入力装置30を仮想のセンサーとして測定対
象の位置を指定して、その位置のみの詳細な温度等を求
めたりすることも必要となる。この際、温度、流速等は
座標ごとのデータが存在するため外挿により求めること
や近い点のデータをもとに詳細に計算することのいずれ
も可能としている。
Next, the local and detailed evaluation will be described. The guest seats in the hall are actually moved to the position to obtain the detailed design data, and specifically, the position of the measuring object is designated by using the three-dimensional input device 30 as a virtual sensor, and It is also necessary to obtain the detailed temperature and the like of only the position. At this time, since the temperature, the flow velocity, and the like have data for each coordinate, they can be obtained by extrapolation or can be calculated in detail based on the data of the close points.

【0131】輝度については、視点の位置と視線の角度
が必要である。従って、3次元入力装置30及びゴーグ
ル型表示装置11の角度を読み取り、演算にてその位置
の輝度値を計算し、図23のようにゴーグル型立体表示
装置11内の指定された位置に数値で表示を行う。図2
3において、Aは温度と照度を数値で、Bは風量と風向
を数値とベクトルで表示している。
Regarding the brightness, the position of the viewpoint and the angle of the line of sight are necessary. Therefore, the angles of the three-dimensional input device 30 and the goggle type display device 11 are read, the brightness value at that position is calculated by calculation, and a numerical value is displayed at a designated position in the goggle type stereoscopic display device 11 as shown in FIG. Display. Figure 2
In FIG. 3, A indicates temperature and illuminance by numerical values, and B indicates air volume and direction by numerical values and vectors.

【0132】本実施例では、この場合の便宜等のため、
図3に示すようにゴーグル型立体装置11に入力装置1
5を付設し、これによる環境要素の選択や時間的条件の
変更等も可能としている。この原理は、図24に示すよ
うに、ゴーグル型立体装置11内に上下、左右、前後の
3次元の各方向についての磁気検出端等を内蔵させ、磁
場や重力方向に対する3次元入力装置の速度、加速度及
びそれらの方向によって選択、変更操作を可能としてい
るものである。この場合、頭部そして両眼に固定されて
いるため、精密に位置を指定すること等が容易となる。 (第6実施例)本実施例は、複数のソフトロボットの発
生と表示に関する。
In this embodiment, for convenience of this case,
As shown in FIG. 3, the goggle type stereoscopic device 11 is connected to the input device 1
5 is attached, which enables selection of environmental elements and change of temporal conditions. This principle is that, as shown in FIG. 24, the goggle-type three-dimensional device 11 has a magnetic detection end or the like in each of the three-dimensional directions of up, down, left and right, front and back, and the speed of the three-dimensional input device with respect to the magnetic field and the direction of gravity. It is possible to make selection and change operations according to acceleration, acceleration, and their directions. In this case, since it is fixed to the head and both eyes, it becomes easy to specify the position precisely. (Sixth Embodiment) This embodiment relates to generation and display of a plurality of soft robots.

【0133】住宅、店舗、事務所等では、通例複数の人
が存在する。このため、実際により近い状態で視覚的に
擬似体験しようとする場合には、他の人の存在等をも考
慮した方が好ましい。ところで、各人は別個独立に行動
していることもあれば、相互に影響しあうこともある。
本実施例は、いずれの場合でも擬似体験できるのみなら
ず各人の相互の影響の解析を行うことも可能としている
ものである。
In a house, a shop, an office, etc., there are usually a plurality of people. For this reason, it is preferable to consider the presence of other people when visually trying to experience the situation more closely. By the way, each person may act independently and may interact with each other.
In this embodiment, not only can a simulated experience be made in any case, but it is also possible to analyze the mutual influence of each person.

【0134】次に、図25をもとに、各ゴーグル型立体
表示装置11の一つに三つのソフトロボット91、9
2、93が表示される様子、原理等について説明する。
本図26のソフトロボット91、92、93は、相応す
るゴーグル型立体表示装置11と、3次元入力装置3
0、演算装置13、磁場発生装置14等のセットに一対
一で対応している。この立体表示装置11には、同一セ
ットの3次元入力装置30からの操作に従って、ウォー
クスルーするソフトロボット91が表示可能なだけでな
く、他のセットによって同一室内をウォークスルーして
いるソフトロボット92、93も表示可能である。
Next, referring to FIG. 25, three soft robots 91, 9 are provided in one of the goggle type stereoscopic display devices 11.
The manner in which 2, 93 are displayed, the principle, and the like will be described.
The soft robots 91, 92, and 93 of FIG. 26 are the goggles-type stereoscopic display device 11 and the three-dimensional input device 3 corresponding thereto.
0, the arithmetic unit 13, the magnetic field generator 14, and the like are in a one-to-one correspondence. On this stereoscopic display device 11, not only a soft robot 91 that walks through can be displayed according to an operation from the same set of three-dimensional input devices 30, but a soft robot 92 that walks through the same room by another set. , 93 can also be displayed.

【0135】このため、自分が操るソフトロボット91
以外に、他のユーザに擬されたソフトロボット92、9
3が、ウォークスルーする際の環境要素を視覚的、客観
的に評価可能としている。この際、自分が操る以外のソ
フトロボット92、93は、他のユーザの所在位置に表
示されているのは勿論である。このため、単に他のユー
ザの存在をも考慮して擬似体験するだけでなく、火災時
における人の挙動や店舗での客の挙動の解析等にも使用
可能である。なお、これらの場合には、火煙の発生やシ
ョウウィンドウ内の物品の表示等のため必要なプログラ
ム等が組み込まれることとなるのは勿論である。 ま
た、火煙の発生等については、実験データを使用しても
よい。更にまた、多人数の挙動を解析対象とするため必
要な各種の設備を有しているのも勿論である。図26
は、そのための構成を示す。
For this reason, the soft robot 91 that the user manipulates
Besides, soft robots 92, 9 imitated by other users
3 makes it possible to visually and objectively evaluate the environmental factors when walking through. At this time, it goes without saying that the soft robots 92 and 93 other than the ones operated by themselves are displayed at the positions of other users. Therefore, it is possible to use not only for the simulated experience in consideration of the existence of other users, but also for the analysis of the behavior of a person at the time of a fire or the behavior of a customer at a store. In these cases, it goes without saying that necessary programs and the like for generating smoke and displaying articles in the show window are installed. Moreover, you may use experimental data about the generation of smoke. Furthermore, it is needless to say that it has various equipments necessary for analyzing the behavior of a large number of people. FIG. 26
Indicates a configuration therefor.

【0136】本図において、261、262、…はゴー
グル型立体表示装置、三次元入力装置、磁場発生装置か
らなる各ユーザ若しくは被験者毎に専用に設けられた設
備であり、基本的には図3に示す演算制御装置13を除
く構成と同じである。2613は、演算制御装置であ
り、図3に示すものと比較した場合、複数のユーザの同
時使用を可能とすべく一部構成部は各ユーザ用として複
数有し、同じく位置視差調整部2611を設けているの
が異なる。すなわち、ソフトロボット表示データ演算部
136、ソフトロボット移動速度ベクトル演算部13
5、三次元空間移動速度ベクトル演算部133は各ユー
ザ用に有している。
In the figure, reference numerals 261, 262, ... Are equipments provided exclusively for each user or subject, which are composed of a goggle type stereoscopic display device, a three-dimensional input device, and a magnetic field generator, and are basically shown in FIG. It is the same as the configuration excluding the arithmetic and control unit 13 shown in FIG. Reference numeral 2613 denotes an arithmetic and control unit, and when compared with that shown in FIG. 3, some component parts are provided for each user in order to enable simultaneous use by a plurality of users, and the position parallax adjusting part 2611 is also provided. The provision is different. That is, the soft robot display data calculation unit 136 and the soft robot movement speed vector calculation unit 13
5. The three-dimensional space movement velocity vector calculation unit 133 is provided for each user.

【0137】その他に各ユーザからの矛盾した要求を調
整する調整部260を有している。一方、共通のものと
しては、共通する室内環境等を計算する演算部134が
ある。調整部260は、同一の位置に複数のソフトロボ
ット91、92、93が表示されたりすることがないよ
う、各ユーザの矛盾する要求を調整し、また、各ユーザ
の位置等についての情報を各セットの位置、視差調整部
2611に流す。位置、視差調整部2611は、各ユー
ザ用のゴーグル型立体表示装置11に三次元空間表示デ
ータ演算部134が計算した室内環境を形成するに際し
て、各ユーザの位置等に応じての修正を行い、併せて他
のユーザに相当するソフトロボットを視野に発生させる
ための資料を調整部260から受け取り、併せて自分の
担当するユーザについての情報を流す。
In addition, it has an adjusting unit 260 for adjusting contradictory requests from each user. On the other hand, the common one is a calculation unit 134 that calculates a common indoor environment and the like. The adjustment unit 260 adjusts the conflicting requests of each user so that the plurality of soft robots 91, 92, and 93 are not displayed at the same position, and also provides information about the position of each user. The position of the set is passed to the parallax adjustment unit 2611. The position / parallax adjustment unit 2611 performs correction according to the position of each user when forming the indoor environment calculated by the three-dimensional space display data calculation unit 134 in the goggle type stereoscopic display device 11 for each user, At the same time, the material for generating a soft robot corresponding to another user in the field of view is received from the adjusting unit 260, and at the same time, information about the user in charge of the user is sent.

【0138】次に、本実施例の他の用途、使用方法等に
ついて説明する。住宅の営業において、顧客に販売(購
入)対象の住宅の環境を擬似体験してもらう等の場合に
は、顧客は擬似体験装置の体験できる内容や3次元入力
装置30の操作に不慣れであり、そのままではどうして
も体験内容が不充分なものとなりがちである。このため
別途、住宅建築、販売会社のセールスマンもゴーグル型
立体表示装置11を装着し、顧客が現に擬似体験してい
るのと同じ仮想的な住宅環境を体験しつつ、顧客の操
作、擬似体験の手助けをする必要がある。あるいは、そ
のようにした方が、擬似体験のみならず住宅の販売の効
果も大きい。そこで、顧客とセールスマンとが一体的に
なって擬似体験装置を使用可能とする。この場合には、
顧客とセールスマンに相応した2つのソフトロボット9
1、92が表示されるようにしてもよいし、顧客の装備
したゴーグル型立体表示装置11には実際にウォクスル
ーする顧客の視野が形成され、その中にセールスマンに
相当したソフトロボット92が表示され、一方セールス
マンの装備したゴーグル型立体表示装置11には、顧客
の視覚や意図を中心にした仮想空間等が表示されるよう
にしてもよい。そして後者の場合には、セールスマン用
の位置、視差調整部2611、ソフトロボット表示デー
タ演算部136等を不作動とした上で、顧客の擬似体験
用の映像信号等をセールスマン用に2分割し、供給する
ことによりなされる。また、いずれの表示を採用するに
しても、顧客とセールスマンの所有する3次元入力装置
30の操作の調整等は、必要に応じて両者の会話による
了解の上で、切り換えられることともなる。
Next, other uses and usages of this embodiment will be described. In sales of a house, when the customer has a simulated experience of the environment of the house to be sold (purchased), the customer is unfamiliar with the contents that the simulated experience device can experience and the operation of the three-dimensional input device 30. As it is, the experience content tends to be inadequate. For this reason, separately, a salesman of a home building and a sales company also wears the goggle type stereoscopic display device 11 to experience the same virtual housing environment as the customer is actually experiencing, while operating and simulating the customer. Need to help. Alternatively, doing so is more effective not only in the simulated experience but also in the sale of the house. Therefore, the customer and the salesman can be integrated to use the simulated experience device. In this case,
Two soft robots suitable for customers and salesmen 9
1 or 92 may be displayed, or the goggle type stereoscopic display device 11 equipped with the customer is formed with a field of view of the customer who is actually waking through, in which the soft robot 92 corresponding to the salesman is displayed. On the other hand, the goggle type stereoscopic display device 11 equipped by the salesman may display a virtual space centered on the customer's vision and intention. In the latter case, the position for the salesman, the parallax adjustment unit 2611, the soft robot display data operation unit 136, etc. are deactivated, and the video signal for the customer's simulated experience is divided into two for the salesman. And supply. In addition, whichever display is used, adjustment of the operation of the three-dimensional input device 30 owned by the customer and the salesman may be switched as necessary with the understanding of the conversation between the two.

【0139】以上、本発明を実施例にもとづき説明して
きたが、本発明は何も上記実施例に限定されないのは勿
論である。すなわち、例えば、 (1)室内空間を対象としているが、視覚を中心とした
擬似体験の対象となるならば航空機の内部、屋外劇場、
ジャングル、北極や南極はもとより宇宙空間、海中等他
の3次元空間に適用してもよい。あるいは、本発明にい
う「室内」とは、3次元空間内とでもいう意味であり、
「住宅」や「機器」は3次元空間内の種類、内容やその
内部に存在する各種条件発生要素というような意味であ
る。より具体的には、中世代の恐竜が存在する平原を娯
楽として擬似体験するものであってもよい。この場合に
は、ユーザが恐竜を見る場合もあれば、恐竜の目を通し
て中世代の世界を見るようにしてもよい。更には、ゴー
グル型立体視装置には、人の目でなく、爬虫類や虫の目
を通して見た世界が生成されるようにしてもよい。
Although the present invention has been described above based on the embodiments, it goes without saying that the present invention is not limited to the above embodiments. That is, for example, (1) if the target is an indoor space, but if it is a target of a simulated experience centered on vision, the interior of an aircraft, an outdoor theater,
It may be applied not only to the jungle, the North Pole and the South Pole but also to other three-dimensional spaces such as outer space and the sea. Alternatively, the term “indoor” as used in the present invention means in a three-dimensional space,
The terms "house" and "equipment" mean the types and contents in the three-dimensional space, and various condition generating elements existing inside them. More specifically, the plains where middle-aged dinosaurs are present may be simulated as entertainment. In this case, the user may see the dinosaur or may see the middle-aged world through the eyes of the dinosaur. Further, the goggle-type stereoscopic device may generate a world viewed through the eyes of reptiles and insects instead of the eyes of humans.

【0140】(2)評価するための物理的なデータは、
コンピュータシミュレーション結果のみでなく、実験に
よる実測結果を反映させたものでもよい。この場合に
は、その実測結果はあらかじめ入力されているのは勿論
である。 (3)3次元入力装置は、片手操作でなく、両手に持つ
ものとし、左手で大まかな操作や指示、右手で細かい指
示をなす等されていてもよい。また、別途の操作装置を
併用していてもよい。特に、セールスエンジニアリング
においては、セールスマンが別途の操作装置で複雑な条
件設定をなし、顧客が扱う3次元入力装置は簡単なもの
にするのが便利であろう。また、セールスエンジニアリ
ングにおいては、「止れ」、「動け」等の顧客の簡単な
単語による音声入力を採用してもよい。これにより、実
用性が一層向上する。
(2) Physical data for evaluation is
Not only the computer simulation result but also the actual measurement result of the experiment may be reflected. In this case, the actual measurement result is, of course, input in advance. (3) The three-dimensional input device may be held in both hands instead of being operated by one hand, and rough operations and instructions may be performed with the left hand, and detailed instructions may be given with the right hand. Also, a separate operating device may be used in combination. Particularly in sales engineering, it may be convenient for the salesman to set complicated conditions with a separate operating device and to make the three-dimensional input device handled by the customer simple. Further, in sales engineering, voice input by a customer's simple words such as “stop”, “move” may be adopted. This further improves the practicality.

【0141】(4)3次元入力装置は、手に持ったもの
と頭部に装備したものを紹介したが、両方同一機能でな
くてもよい。すなわち、手に持ったものを主とし、頭部
に装置したものは首をまわしたり頭をかたむけたりする
ことに応じて仮想的な室内空間の映像が変化するのに使
用すること及びウォークスルーの方向を指定すること専
用としてもよい。セールスエンジニアリングにおける顧
客の擬似体験では、この方がより実用的であろう。
(4) As the three-dimensional input device, the one held in the hand and the one mounted on the head have been introduced, but both do not have to have the same function. That is, what is mainly held in the hand, and what is mounted on the head is used for changing the image of the virtual indoor space in response to turning the neck or bending the head, and of walking through. It may be dedicated to specifying the direction. This would be more practical for a simulated customer experience in sales engineering.

【0142】(5)洗濯機、空調機器等の運転に伴う騒
音等をも擬似体験できるように、ステレオ型ヘッドホー
ンをも装備してもよい。 (6)3次元入力装置は、拳銃のにぎり部様でなく、銃
身部に相当する部分に細長い棒を有し、これにより、手
による3次元ビームの指向感覚をえられるようにしても
よい。
(5) Stereo type headphones may also be provided so that the noise and the like associated with the operation of the washing machine, the air conditioner, etc. can be simulated. (6) The three-dimensional input device may have an elongated rod at a portion corresponding to the barrel portion, not at the grip portion of the pistol, so that the sense of directivity of the three-dimensional beam by the hand can be obtained.

【0143】(7)別途CRTとCPU等を装備し、第
三者が机上でCRTの表示を参照することにより、擬似
体験者の視覚用として形成された仮想住宅環境や擬似体
験者の操作、擬似体験内容を解析したり変化させたりで
きるようにしてもよい。更に、各ユーザのゴーグル型立
体表示装置11には自分のウォークスルーする視野と併
せて他のユーザに相当したソフトロボットと火煙等が表
示され、各ユーザは安全をもとめて逃げまわるという表
示内容にしての、人の挙動の実験解析も可能である。こ
れは、災害時の人の挙動の解析等では特に有効である。
(7) A CRT and CPU are separately provided, and a third party refers to the CRT display on a desk so that the virtual house environment and the operation of the simulated experience person, which are formed for the visual experience of the simulated experience person, The simulated experience content may be analyzed or changed. Furthermore, the goggles-type stereoscopic display device 11 of each user is displayed with his / her own field of view through which the user walks through, as well as the soft robots and smoke corresponding to other users, and the display contents that each user runs away for safety. It is also possible to perform experimental analysis of human behavior. This is particularly effective in analysis of human behavior at the time of disaster.

【0144】(8)3次元入力装置の回転角度の変化の
検出等は、重力のみとしてもよい。また、高価、複雑と
なるが超音波や赤外線を併用する等他の手段を併用して
もよい。これにより、より精密な入力操作が可能にな
る。 (9)多数の者がゴーグル型立体表示装置を装着し、そ
れら各装置に形成されるのは同一の室内環境であり、た
だ各自の頭の振り方、向きによりその視線位置に応じた
部分の室内痛感の映像が仮想的に構成されるようにして
もよい。これにより、一人のセールスマンで多数の顧客
を対象として、販売対象とする住宅の内部を視覚的に擬
似体験してもらうことが可能となる。
(8) The change in the rotation angle of the three-dimensional input device may be detected only by gravity. Further, although it becomes expensive and complicated, other means such as ultrasonic wave and infrared ray may be used together. This enables more precise input operation. (9) Many people wear goggles-type stereoscopic display devices, and it is the same indoor environment that is formed in each of these devices, but only in the part corresponding to the line-of-sight position depending on how each person's head is swung and oriented. The image of the indoor pain may be virtually configured. As a result, it becomes possible for one salesman to give a large number of customers a visual experience of the interior of a house to be sold.

【0145】(10)喫茶店、ダンスホール等の環境を
擬似体験する場合には、必ずしも擬似体験者に対応しな
い複数あるいは多数のソフトロボットを発生させる機能
が付加されていてもよい。この場合、ソフトロボットの
数に比例して発熱量(60〜100W/h人)が増大す
るものとして熱的条件が解析され、また風向き等は条件
によっては無視する、あるいは解析的に取り扱う、ある
いは個々に検討する等が適宜採用されよう。また、ソフ
トロボットの発熱量も、条件によって変化させてもよ
い。(小児や大人でも静止しておれば、当然少なくな
る。) (11)メニューの選択は、選定対応を、特定の色彩の
枠を付加表示させるようにしてもよい。
(10) When an environment such as a coffee shop or a dance hall is to be simulated, a function of generating a plurality or a plurality of soft robots not necessarily corresponding to the simulated experience may be added. In this case, the thermal condition is analyzed assuming that the heat generation amount (60 to 100 W / h person) increases in proportion to the number of soft robots, and the wind direction or the like is ignored or treated analytically depending on the condition, or Individual examinations will be adopted as appropriate. Also, the heat generation amount of the soft robot may be changed depending on the conditions. (Of course, even children and adults will be less if they are stationary.) (11) In the selection of the menu, the selection correspondence may be additionally displayed with a frame of a specific color.

【0146】(12)顧客や初心者のために、三次元入
力装置の操作案内がゴーグル型立体表示装置の視野内に
表示されるようにしてもよい。 (13)空気流、風量、風向はこれに似たものであって
もよく、また空気流の源はエアコンでなくこれと同じ作
用をなすもの、例えば、扇風機等であってもよい。この
ため、エアコンからの空気流の吹き出しの演算表示等の
手法等は、タバコやその他異臭物発生源からの異臭、火
災源からの火煙の流れなどに流用してもよい。
(12) For a customer or a beginner, the operation guide of the three-dimensional input device may be displayed within the visual field of the goggle type stereoscopic display device. (13) The air flow, the air volume, and the wind direction may be similar to this, and the source of the air flow may be not an air conditioner but one having the same function as this, for example, a fan or the like. For this reason, a method such as calculation display of the blowing of the air flow from the air conditioner may be applied to an offensive odor from a cigarette or other offensive odor source, a flow of smoke from a fire source, or the like.

【0147】(14)ソフトロボットは、環境内の物理
的条件を視覚的に表示するものなら、人型でなくてよ
く、また視覚的表示には物理的条件の計算値そのものを
数値で表示してもよい。更に、人形のソフトロボットが
すわったり、立ったり、手をあげたりする操作が入力可
能とされていてもよい。
(14) The soft robot does not have to be humanoid as long as it visually displays the physical conditions in the environment, and the calculated values of the physical conditions are displayed numerically on the visual display. May be. Further, the doll soft robot may be allowed to input operations such as sitting, standing, and raising hands.

【0148】[0148]

【発明の効果】以上説明してきたように、本発明は基本
的には、操作性と擬似体験の内容そのものの優れた、か
つ安価な住環境の視覚を中心とし、併せて聴覚を対象と
し、併せて音響をも対象とした擬似体験装置を提供す
る。具体的には、以下の効果を有する。
As described above, the present invention basically focuses on the visual sense of the living environment, which is excellent in operability and the contents of the simulated experience itself, and is inexpensive, and also targets the hearing sense. In addition, we will provide a simulated experience device for acoustics. Specifically, it has the following effects.

【0149】室内の機器、設備等の選択、変更等に際し
て記憶しておかねばならない操作に関する規則の少ない
住環境の視覚を中心とした併せて音響をも対象とした擬
似体験装置を提供する。住居、店舗、事務室等多種、多
様の住環境に対して、視覚を中心とした擬似体験装置を
提供する。
Provided is a simulated experience device which mainly focuses on the visual sense of the living environment, which has few rules regarding the operations that must be remembered when selecting and changing the equipment and facilities in the room, and which also targets the sound. Provide a simulated experience device centered on vision for various living environments such as residences, shops, and offices.

【0150】室内での人の移動に伴って感じるであろう
温度、風、快適度等についての人との関係で局部的な体
感が得られる住環境の視覚を中心とした擬似体験装置を
提供する。多数の人間が存在する、そしてそれら多数の
人間相互の影響まで考慮した住環境の視覚を中心とした
擬似体験装置を提供する。
Provided is a simulated experience device centered on the visual sense of the living environment in which a local experience can be obtained in relation to the temperature, wind, comfort level, etc. that may be felt as a person moves indoors. To do. Provided is a simulated experience device centered on the visual sense of a living environment in which a large number of human beings exist and the mutual influence of the large number of humans is taken into consideration.

【0151】室内及び室外の関係、影響をも考慮した住
環境の視覚及び聴覚を中心として視覚的かつ直観的な擬
似体験装置を提供する。セールスエンジニアリングにお
ける顧客はもとより設計技術者にとっても、各種体感は
もとより機器の変更等に伴う住環境の変化の様子や各種
の設計データが迅速かつ直観的に得られる住環境の視覚
を中心とした擬似体験装置を提供する。
Provided is a visual experience device which is visually and intuitively focused on the visual sense and the auditory sense of the living environment in consideration of the indoor and outdoor relations and influences. Not only for customers in sales engineering but also for design engineers, it is possible to obtain not only various experiences but also changes in the living environment due to changes in equipment, etc., and various design data can be obtained quickly and intuitively. Provide experience device.

【0152】通常の人の操作に近く、操作に何の危険
性、習熟性、困難性もなく、その上操作ミスからの修復
も容易となり、このためセールスエンジニアリングに対
して非常に有効な住環境の視覚を中心とした擬似体験装
置を提供する。住宅技術者の教育、技術資料の取得に対
して直観的であるため有効な住環境の視覚を中心とした
擬似体験装置を提供する。
It is close to normal human operation, there is no danger, proficiency, and difficulty in operation, and repair from operation mistakes is easy. Therefore, a living environment very effective for sales engineering. Provide a simulated experience device centered on the visual sense of. Provide a simulated experience device centering on the visual sense of the living environment because it is intuitive for the education of housing engineers and acquisition of technical materials.

【0153】単に居住用のみならず、店舗、事務所等に
対しても適用しうる住環境の視覚を中心とした擬似体験
装置を提供する。住環境の視覚を中心とした安価な擬似
体験装置を提供する。住環境の音響に対しても充分に有
効かつ視覚的な擬似体験装置を提供する。両眼をふさが
れた状態で、片手の運動のみ、音声のみにて視野が回転
等複雑に変化する操作を行なうことが可能が擬似体験装
置を提供する。
Provided is a simulated experience device centering on the visual sense of the living environment, which is applicable not only to residential use but also to stores, offices and the like. Provide an inexpensive simulated experience device centered on the visual environment. Provide a simulated experience device that is sufficiently effective and effective for the acoustics of the living environment. Provided is a simulated experience device capable of performing a complicated operation such as rotation of a visual field only by exercising one hand and only by sound with both eyes closed.

【図面の簡単な説明】[Brief description of drawings]

【図1】従来の住宅環境用の擬似体験装置の概略構成図
である。
FIG. 1 is a schematic configuration diagram of a conventional simulated experience device for a residential environment.

【図2】従来の住宅環境用の擬似体験装置の体験内容を
示すものである。本図において、Aは温熱環境の解析結
果の表示例であり、Bは光環境の解析結果の表示例であ
り、Cは音環境の解析結果を音響により出力している様
子である。
FIG. 2 shows the contents of experience of a conventional simulated experience device for a residential environment. In the figure, A is a display example of the analysis result of the thermal environment, B is a display example of the analysis result of the light environment, and C is a state in which the analysis result of the sound environment is output acoustically.

【図3】本発明の擬似体験装置の第1実施例の概略構成
図である。
FIG. 3 is a schematic configuration diagram of a first embodiment of the simulated experience device of the present invention.

【図4】上記実施例におけるメニュー選択用の3次元入
力装置30の外観及び操作説明用図である。
FIG. 4 is an external view and operation explanatory diagram of a three-dimensional input device 30 for menu selection in the above embodiment.

【図5】上記実施例における演算制御装置3の内部構成
を示す図である。
FIG. 5 is a diagram showing an internal configuration of an arithmetic and control unit 3 in the embodiment.

【図6】上記実施例における3次元メニューとメニュー
選択用の3次元ビームの様子を示す図である。
FIG. 6 is a diagram showing a state of a three-dimensional menu and a three-dimensional beam for selecting a menu in the above embodiment.

【図7】第2実施例における擬似体験者のウォークスル
ーに伴う室内の立体的な視覚環境を生成する際の処理の
様子を示す図である。
FIG. 7 is a diagram showing a state of processing when generating a three-dimensional visual environment in a room accompanying a walk-through of a simulated experiencer in the second embodiment.

【図8】上記実施例における室内をウォークスルーする
際の表示される室内外の例である。
FIG. 8 is an example of indoor and outdoor displayed when walking through the room in the above embodiment.

【図9】第3実施例におけるソフトロボットが室内にて
移動表示される例を示すものである。
FIG. 9 shows an example in which the soft robot in the third embodiment is moved and displayed indoors.

【図10】上記実施例におけるソフトロボットの移動に
伴う視覚情報の処理の様子を示す図である。
FIG. 10 is a diagram showing how visual information is processed according to the movement of the soft robot in the above embodiment.

【図11】本発明の第3実施例の固有のデータの大まか
な入力、処理を示す図である。
FIG. 11 is a diagram showing rough input and processing of unique data according to the third embodiment of the present invention.

【図12】本実施例の計算処理の内容を示す図である。FIG. 12 is a diagram showing the contents of calculation processing of the present embodiment.

【図13】本実施例のソフトロボットに関係した表示動
作のための処理の流れを示す図である。
FIG. 13 is a diagram showing a flow of processing for a display operation related to the soft robot of this embodiment.

【図14】上記実施例において、ソフトロボットがその
各部位の色の相違により室内温度分布を人との関係で理
解し易く表示する様子を示した図である。
FIG. 14 is a diagram showing a manner in which the soft robot displays the indoor temperature distribution in an easy-to-understand manner in relation to a person due to the difference in color of each part in the above-described embodiment.

【図15】上記実施例において、ソフトロボットの頭部
に付けた紐の棚引く様子により、エアコンから吹き出さ
れる暖気の様子を示す図である。
FIG. 15 is a diagram showing a state of warm air blown out from an air conditioner according to a state of pulling a shelf attached to a head of a soft robot in the above embodiment.

【図16】上記実施例において、照明の変化による室内
の明るさの変化を示す図である。本図のAはシャンデリ
アのみで照明したためソフトロボットの顔面に陰影が生
じた様子を表示したものであり、Bはシャンデリアとス
ポットライトを併用して照明したためソフトロボットの
顔面が明るく表示された様子を示すものである。
FIG. 16 is a diagram showing a change in indoor brightness due to a change in illumination in the above-described embodiment. A in the figure shows the appearance of the shadow of the soft robot's face as it was illuminated only by the chandelier, and B shows the appearance of the soft robot's face as it was illuminated by using the chandelier and spotlights together. It is shown.

【図17】上記実施例において、音環境の如何によるソ
フトロボットの顔面の表情の違いを示したものである。
本図のAは窓を防音サッシにしたときを、Bは窓を一般
のものにしたときを、Cは窓を開放状態にしたときを示
す。
FIG. 17 shows the difference in facial expression of the soft robot depending on the sound environment in the above embodiment.
In the figure, A shows the case where the window is made a soundproof sash, B shows the case where the window is general, and C shows the case where the window is opened.

【図18】第4実施例における室内の光、照明環境を擬
似体験可能とすべくなされる解析処理の流れ図である。
FIG. 18 is a flow chart of an analysis process for making it possible to experience simulated indoor light and lighting environment in the fourth embodiment.

【図19】上記実施例において、解析のために室内の内
表面をメッシュ分割した様子を示す図である。本図にお
いて、Aには仮想仕切面が、Bには仮想鏡面が設けられ
ている。
FIG. 19 is a diagram showing a state in which the inner surface of the room is divided into meshes for analysis in the above example. In this figure, A is a virtual partition surface, and B is a virtual mirror surface.

【図20】上記実施例において、解析結果たる仮想の室
内空間が立体表示されている様子を示す。
FIG. 20 shows how the virtual indoor space, which is the analysis result, is stereoscopically displayed in the above embodiment.

【図21】上記実施例における仮想空間上での透明にさ
れた外壁と室外の庭の植木が併せて表示されている様子
を示す図である。
FIG. 21 is a diagram showing a state in which a transparent outer wall and an outdoor garden plant in a virtual space are displayed together in the embodiment.

【図22】本発明の第5実施例において、仮想空間内の
仮想平面や内表面の照度の等高線の表示例である。
FIG. 22 is a display example of illuminance contour lines on a virtual plane or an inner surface in a virtual space in the fifth example of the present invention.

【図23】上記実施例において、仮想センサーを設定し
たときの当該位置における仮想空間の物理値の表示例で
ある。本図において、Aは室内温度が、Bは室内照度が
示されている。
FIG. 23 is a display example of the physical value of the virtual space at the position when the virtual sensor is set in the above embodiment. In this figure, A indicates the indoor temperature and B indicates the indoor illuminance.

【図24】上記実施例において、ゴーグル型立体表示装
置11の外観と操作に関係した動き、回転を示す図であ
る。
FIG. 24 is a diagram showing movement and rotation related to the appearance and operation of the goggle type stereoscopic display device 11 in the above embodiment.

【図25】本発明の第6実施例において、複数のソフト
ロボットがウォークスルーしている際の表示例である。
FIG. 25 is a display example when a plurality of soft robots are walking through in the sixth embodiment of the present invention.

【図26】上記実施例において、複数のソフトロボット
を表示するため必要な演算制御装置の固有の構成を示す
図である。
FIG. 26 is a diagram showing a specific configuration of the arithmetic and control unit necessary for displaying a plurality of soft robots in the above embodiment.

【符号の説明】[Explanation of symbols]

11 ゴーグル型立体表示装置 13 演算制御装置 130 入力コントロール部 131 3Dメニュー・ビーム座標演
算部 132 3Dメニュー・ビーム表示デ
ータ演算部 133 3D室内移動速度ベクトル演
算部 134 3D室内表示データ演算部 135 ソフトロボット移動速度ベク
トル演算部 136 ソフトロボット表示データ演
算部 137 表示コントロール部 14 磁場発生装置 15 磁気検出端 30 3次元入力装置 31 トリガースイッチ 32 右ボタン 33 中ボタン 34 左ボタン 35 磁気検出端 36 加速度計 61、62 3次元光ビーム 90、91、92、93 ソフトロボット 1501 紐 1901 仮想仕切面 1902 仮想鏡面 2613 複数ソフトロボット用演算制
御装置 260 調整部
11 goggle type stereoscopic display device 13 arithmetic control device 130 input control unit 131 3D menu / beam coordinate calculation unit 132 3D menu / beam display data calculation unit 133 3D indoor movement speed vector calculation unit 134 3D indoor display data calculation unit 135 soft robot movement Velocity vector calculation unit 136 Soft robot display data calculation unit 137 Display control unit 14 Magnetic field generator 15 Magnetic detection end 30 Three-dimensional input device 31 Trigger switch 32 Right button 33 Middle button 34 Left button 35 Magnetic detection end 36 Accelerometer 61, 62 Three-dimensional light beam 90, 91, 92, 93 Soft robot 1501 String 1901 Virtual partition surface 1902 Virtual mirror surface 2613 Multi-software robot arithmetic and control unit 260 Adjustment unit

フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 9381−5H G10K 15/00 L (72)発明者 児玉 久 大阪府門真市大字門真1006番地 松下電器 産業株式会社内Continuation of the front page (51) Int.Cl. 6 Identification number Reference number within the agency FI Technical indication location 9381-5H G10K 15/00 L (72) Inventor Hisashi Kodama 1006 Kadoma, Kadoma-shi, Osaka Matsushita Electric Industrial Co., Ltd. Within

Claims (36)

【特許請求の範囲】[Claims] 【請求項1】 ユーザの操作に従ってユーザが存在する
こととなる別異の環境を視覚的に擬似体験可能とさせる
擬似体験装置において、 ユーザの両眼に装着する立体視手段と、 視覚的に擬似体験する対象たる複数の環境を生成するた
めに必要な資料を擬似体験に先立って入力された上記憶
する記憶手段と、 前記記憶手段の記憶する複数の環境の中から、ユーザに
自分が擬似体験を欲するものを選択可能とさせるべく擬
似体験の対象となる環境のメニューを前記立体視装置の
視野の中に生成する視野内メニュー生成手段と、 視野内に生成されたメニューの中からユーザの意図する
ものをユーザの片手の運動にて選択可能とさせるメニュ
ー選択手段と、 前記記憶手段にて記憶されている資料をもとに前記メニ
ュー選択手段にて選択された環境を立体視手段内に生成
する立体環境生成手段とを有することを特徴とする擬似
体験装置。
1. A pseudo-experience device that allows a user to visually experience a different environment in which a user will exist according to a user's operation, and stereoscopic vision means to be worn on both eyes of the user, and a visual simulation. A storage means for storing the materials necessary to generate a plurality of environments to be experienced, which are input prior to the simulated experience, and a plurality of environments stored by the storage means, and the user is given a simulated experience. In-field menu generating means for generating in the visual field of the stereoscopic device a menu of an environment that is a target of a pseudo-experience so that the user can select what he / she wants, and the user's intention from the menu generated in the visual field. The menu selection means that allows the user to select what to do with one-handed exercise of the user, and the environment selected by the menu selection means based on the material stored in the storage means. Pseudo experience apparatus characterized by having a three-dimensional environment generation means for generating within a visual means.
【請求項2】 前記メニュー選択手段は、 立体視野内に片手運動のみにて方向を変化させることが
可能なビーム光を発生させるビーム光発生部と、 表示された各環境のメニューの中から、ビーム光により
指定されたものをユーザの意図するものとして選択指定
可能とさせるビーム光利用メニュー選択指定部とを有し
ていることを特徴とする請求項1記載の擬似体験装置。
2. The menu selection means includes: a beam light generator that generates a beam light whose direction can be changed only by one-handed movement within a stereoscopic field; and a menu for each environment displayed, The simulated experience device according to claim 1, further comprising: a beam light use menu selection designation unit that enables selection and designation of a light beam designation as a user's intention.
【請求項3】 前記立体視手段にて生成された環境内に
仮想的に存在することとなるユーザがその環境内にて動
作することに関するデータを入力可能とさせるユーザ動
作入力操作手段と、 ユーザの環境内での動作について前記ユーザ動作入力操
作手段から入力されたデータと前記記憶手段に記憶され
ている資料をもとに、現在立体視手段内に生成されてい
る環境に対してユーザの動作に応じての必要な修正を行
わさせる立体環境ユーザ動作反映手段とを有しているこ
とを特徴とする請求項2記載の擬似体験装置。
3. A user operation input operation means for allowing a user, who virtually exists in the environment generated by the stereoscopic means, to input data related to operation in the environment, and a user. In the environment of the user, based on the data input from the user operation input operation means and the material stored in the storage means, the user's operation with respect to the environment currently generated in the stereoscopic viewing means. 3. The simulated experience device according to claim 2, further comprising a three-dimensional environment user action reflection means for making necessary correction according to the above.
【請求項4】 前記ユーザ動作入力操作手段は、 ユーザの片手の運動による磁気変化をもたらす操作、加
速度をもたらす操作、押ボタン操作、スイッチ操作の少
なくも一を検出する検出部と、 前記検出部の検出結果を入力操作の内容に変換する入力
操作変換部とを有していることを特徴とする請求項3記
載の擬似体験装置。
4. The detection unit, wherein the user operation input operation unit detects at least one of an operation that causes a magnetic change due to the movement of one hand of the user, an operation that causes acceleration, a push button operation, and a switch operation. 4. The simulated experience device according to claim 3, further comprising an input operation conversion unit that converts the detection result of 1. into the content of the input operation.
【請求項5】 前記入力操作変換部は、前記検出部の検
出結果を前記立体視手段内に生成された環境条件内に存
在することとされているユーザの歩行、首振りの少なく
も一についての入力操作に変換する第1変換部を有し、 前記立体環境ユーザ動作反映手段は、前記第1変換部の
変換結果を受けて必要な修正としてユーザの歩行、首振
りの少なくも一に伴う視野の変化の修正を行う歩行、首
振り修正部を有していることを特徴とする請求項4記載
の擬似体験装置。
5. The input operation conversion unit is based on at least one of a walking and a head swing of a user who is supposed to exist in an environmental condition generated in the stereoscopic means based on the detection result of the detection unit. The three-dimensional environment user action reflection means receives the conversion result of the first conversion portion and is accompanied by at least one of the walking and head swing of the user as a necessary correction. The simulated experience device according to claim 4, further comprising a walking and swinging correction unit that corrects a change in the visual field.
【請求項6】 前記入力操作変換手段は、前記検出部の
検出結果を前記立体視手段内に生成された環境内に存在
する光源、仕切面、反射面、透過面、機器の少なくも一
に対する光環境条件若しくは視野内の光景の少なくも一
を変動させることとなる操作についての入力に変換する
第2変換部を有し、 前記立体環境ユーザ動作反映手段は、前記第2変換部の
変換結果を受けて、ユーザの光環境条件を変動させるこ
ととなる操作に伴う視野内の照度、色彩、機器の配置、
機器の表示、仕切面の少なくも一に対する修正を行う光
操作入力修正部を有していることを特徴とする請求項4
記載の擬似体験装置。
6. The input operation conversion means applies the detection result of the detection section to at least one of a light source, a partition surface, a reflection surface, a transmission surface, and a device existing in the environment generated in the stereoscopic viewing means. A second conversion unit for converting into an input of an operation that changes at least one of the light environment condition or the scene in the field of view, and the stereoscopic environment user action reflection unit is a conversion result of the second conversion unit. In response, the illuminance within the field of view, the color, the arrangement of the devices, which accompanies the operation that changes the user's light environment conditions,
5. An optical operation input correction unit for correcting the display of the device and at least one of the partition surfaces is provided.
The simulated experience device described.
【請求項7】 前記入力操作変換手段は、前記検出部の
検出結果を前記立体視手段内に生成された環境内に存在
する音環境、温熱環境、空気流環境の少なくも一に影響
する視野内の機器の発停、仕切面の存在状態の変更の少
なくも一についての操作についての入力に変換する第3
変換部を有し、 前記立体環境ユーザ動作反映手段は、前記第3変換部の
変換結果を受けてユーザの操作に伴う視野内の照度、色
彩、機器の配置、機器の表示、機器の発停、仕切面の存
在状態の少なくも一に対する修正を行う音、温度、空気
流入力修正部を有していることを特徴とする請求項4記
載の擬似体験装置。
7. The visual field in which the input operation conversion means influences at least one of a sound environment, a thermal environment, and an airflow environment existing in an environment generated in the stereoscopic viewing means based on the detection result of the detection section. Converting to an input for operation of at least one of the start / stop of the device in the inside and the change of the existence state of the partition surface.
The three-dimensional environment user action reflection means has a conversion unit, and the three-dimensional environment user action reflection unit receives the conversion result of the third conversion unit and the illuminance in the visual field, the color, the arrangement of the device, the display of the device, and the start / stop of the device according to the user's operation The simulated experience device according to claim 4, further comprising a sound, temperature, and airflow input correction unit that corrects at least one of the existing states of the partition surface.
【請求項8】 前記ユーザ動作入力手段は、 ユーザの音声入力を受付け可能とする音声入力部と、 前記音声入力部の受付けた入力をユーザの動作の指示の
内容に変更する音声入力変換部とを有していることを特
徴とする請求項3記載の擬似体験装置。
8. The user action input means includes: a voice input unit capable of accepting a voice input of the user; and a voice input conversion unit for changing the input accepted by the voice input unit into the content of a user's operation instruction. The simulated experience device according to claim 3, further comprising:
【請求項9】 ユーザの操作に従ってユーザが存在する
こととなる別異の環境を擬似体験可能とさせる擬似体験
装置において、 ユーザの両眼に装着する立体視手段と、 視覚的に擬似体験する対象たる環境を生成するために必
要な資料を擬似体験に先立って入力された上記憶する記
憶手段と、 前記記憶手段が記憶する資料をもとに環境を前記立体視
手段内に生成する立体環境生成手段と、 前記立体環境生成手段の作用のもとで前記立体視手段内
に生成された環境内にソフトロボットを発生させるソフ
トロボット発生手段と、 前記ソフトロボット発生手段の発生させるソフトロボッ
トの環境内での所在位置をユーザに指定、変更操作可能
とさせるソフトロボット所在位置指示手段と、 前記記憶手段に記憶されていることとなる環境内の物理
的な条件を定めるために必要な資料を入力された上記憶
する物理的資料記憶手段と、 前記物理的資料記憶手段にて記憶されている物理的な条
件を定めるために必要な資料の少なくも一部を使用し
て、環境内の前記ソフトロボット所在位置指示手段にて
指示された位置の物理的な環境条件を計算した上記憶す
る物理的条件計算記憶手段と、 ソフトロボットの所在位置における環境の物理的な条件
の値とソフトロボットの表示態様との関係を定める規則
をソフトロボットの発生に先立って入力された上記憶す
るソフトロボット表示規則記憶手段と、 前記物理的条件計算記憶手段の記憶している計算結果と
前記ソフトロボット表示規則記憶手段により記憶されて
いる規則をもとに、ソフトロボットの表示態様を決定す
るソフトロボット表示態様決定手段と、 前記ソフトロボット発生手段の発生させたソフトロボッ
トを前記立体視手段内に生成された環境に合成して発生
表示するに際して、前記ソフトロボット表示態様決定手
段が決定した態様で表示させるソフトロボット表示態様
制御手段とを有していることを特徴とする擬似体験装
置。
9. A simulated experience device for enabling a simulated experience of a different environment in which the user will exist according to a user's operation, and a stereoscopic vision means to be worn on both eyes of the user, and an object to be simulated visually. Storage means for storing the material necessary for generating the sagging environment prior to the simulated experience, and three-dimensional environment generation for generating the environment in the stereoscopic means based on the material stored in the storage means Means, a soft robot generation means for generating a soft robot in the environment generated in the stereoscopic vision means under the action of the three-dimensional environment generation means, and an environment of the soft robot generated by the soft robot generation means And a physical location in the environment to be stored in the storage means, and a soft robot location position indicating means for allowing the user to specify and change the location position A physical material storage means for inputting and storing the necessary material for defining the conditions; and at least a part of the material necessary for defining the physical conditions stored in the physical material storage means. By using the physical condition calculation storage means for calculating and storing the physical environment condition of the position instructed by the soft robot location position instructing means in the environment, and the environment physics at the location of the soft robot. And a soft robot display rule storage means for storing a rule that defines the relationship between the value of the conditional condition and the display mode of the soft robot, which is input prior to the generation of the soft robot, and the physical condition calculation storage means. Based on the calculated result and the rule stored by the soft robot display rule storage means, the soft robot display mode determining means for determining the display mode of the soft robot. And a soft robot display which is displayed in the mode determined by the soft robot display mode determination means when the soft robot generated by the soft robot generation means is combined with the environment generated in the stereoscopic vision means and generated and displayed. A simulated experience device having a mode control means.
【請求項10】 前記物理的資料記憶手段にて既に入力
された上記憶されている物理的な条件を定めるために必
要な資料のうち、ソフトロボットの所在位置における環
境の物理的な条件の計算に使用されているものの少なく
も一部を他の資料若しくは新規に入力された資料の少な
くも一に変更可能とさせる物理的資料変更操作手段と、 前記物理的資料変更操作手段による資料の変更があった
ならば、前記物理的条件計算記憶手段、前記ソフトロボ
ット表示態様決定手段及び前記ソフトロボット表示態様
制御手段にその変更に応じての必要な修正作用をなさし
める物理的資料変更操作実効化手段とを有していること
を特徴とする請求項9記載の擬似体験装置。
10. Calculation of the physical condition of the environment at the location of the soft robot, out of the materials necessary for defining the physical condition already stored in the physical material storage means. The physical material change operation means for changing at least a part of the material used for the other material or the newly input material to at least one, and the change of the material by the physical material change operation means If there is, a physical material change operation execution means for performing the necessary correction action in response to the change in the physical condition calculation storage means, the soft robot display mode determination means and the soft robot display mode control means. The simulated experience device according to claim 9, further comprising:
【請求項11】 前記ソフトロボット所在位置指示手段
は、 ユーザの片手の運動による磁気変化をもたらす操作、加
速度をもたらす操作、押ボタン操作、スイッチ操作の少
なくも一を検出する検出部と、 前記検出部の検出結果を指示の内容に変換する変換部と
を有していることを特徴とする請求項8若しくは請求項
10記載の擬似体験装置。
11. The detection unit for detecting at least one of the operations for causing a magnetic change, an acceleration, a push button operation, and a switch operation for causing the soft robot location position instructing means to move the user's one hand. 11. The simulated experience device according to claim 8 or 10, further comprising: a conversion unit that converts the detection result of the unit into the content of the instruction.
【請求項12】 前記ソフトロボット所在位置指示手段
は、 ユーザの音声入力を受付け可能とする音声入力部と、 前記音声入力部の受け付けた入力を指示の内容に変換す
る音声指示変換部とを有することを特徴とする請求項1
1記載の擬似体験装置。
12. The soft robot location instructing means includes a voice input unit capable of accepting a voice input of a user, and a voice instruction converting unit converting an input accepted by the voice input unit into instruction content. Claim 1 characterized by the above.
The simulated experience device according to 1.
【請求項13】 前記物理的資料記憶手段は、空気流に
関係する条件を定める資料を入力された上記憶する空気
流資料記憶部を有し、 前記物理的条件計算記憶手段は、環境内の風向及び風速
の分布を計算して記憶する風向及び風速分布計算記憶部
を有し、 前記ソフトロボット表示規則記憶手段は、ソフトロボッ
トの少なくも一カ所に付された紐の風向及び風速に応じ
てのたなびく方向とたなびく具合の関係を入力する紐規
則入力部を有し、 前記ソフトロボット表示態様決定手段は、ソフトロボッ
トの少なくも一カ所に付された紐のたなびく方向とたな
びき具合を当該部の風向と風速に応じたものとして表示
させる紐表示態様決定部を有していることを特徴とする
請求項9若しくは請求項10若しくは請求項11若しく
は請求項12記載の擬似体験装置。
13. The physical material storage means has an airflow material storage part for storing the material for determining the conditions related to the airflow, and the physical condition calculation storage means stores the physical condition calculation storage means. There is a wind direction and wind speed distribution calculation storage unit that calculates and stores the distribution of wind direction and wind speed, and the soft robot display rule storage means is according to the wind direction and wind speed of the string attached to at least one place of the soft robot. A string rule input unit for inputting the relationship between the fluttering direction and the fluttering condition, and the soft robot display mode determining means determines the fluttering direction and the fluttering condition of the string attached to at least one location of the soft robot. The pseudo display according to claim 9, 10 or 11 or 12, further comprising: a string display mode deciding unit for displaying as a display according to a wind direction and a wind speed. Experience device.
【請求項14】 前記物理的資料記憶手段は、環境内の
照度に関係する条件を定める資料を入力された上記憶す
る照度資料記憶部を有し、 前記物理的条件計算記憶手段は、環境内の照度を計算し
た上記憶する照度計算記憶部を有し、 前記ソフトロボット表示規則記憶手段は、ソフトロボッ
トの顔面部における照度に応じてのソフトロボットの顔
面の表示、顔面に付される陰影の少なくも一の内容につ
いての規則を入力された上記憶する顔面表示規則記憶部
を有し、 前記ソフトロボット表示態様決定手段は、ソフトロボッ
トの顔面を当該部分の照度に応じて表示すること、顔面
に当該部分の照度に応じて陰影を付すことの少なくも一
を決定する顔面表示態様決定部を有していることを特徴
とする請求項9若しくは請求項10若しくは請求項11
若しくは請求項12記載の擬似体験装置。
14. The physical material storage means has an illuminance material storage section for receiving and storing a material that defines a condition related to illuminance in the environment, and the physical condition calculation storage means is in the environment. Of the soft robot display rule storage means for calculating and storing the illuminance of the soft robot, the soft robot display rule storage means displays the face of the soft robot according to the illuminance in the face part of the soft robot, and displays the shadow attached to the face. It has a face display rule storage unit for inputting and storing a rule about at least one content, wherein the soft robot display mode determining means displays the face of the soft robot according to the illuminance of the part, The face display mode determining unit that determines at least one of which is not shaded according to the illuminance of the portion, is included in claim 9.
Alternatively, the simulated experience device according to claim 12.
【請求項15】 前記物理的資料記憶手段は、環境内の
音響に関係する条件についての資料を入力された上記憶
する音響条件記憶部を有し、 前記物理的条件計算記憶手段は、定められた音源からの
音響の強度を計算した上記憶する音強度計算記憶部を有
し、 前記ソフトロボット表示規則記憶手段は、ソフトロボッ
トの耳の部分における定められた音源からの音響の強度
に応じてのソフトロボットに付される音量表示面部の内
容についての規則を入力された上記憶する音量表示面部
分表示規則記憶部を有し、 前記ソフトロボット表示態様決定手段は、ソフトロボッ
トの耳の部分の音量に応じて音量表示面部分を変化させ
て表示させる音量表示面部決定部を有していることを特
徴とする請求項9若しくは請求項10若しくは請求項1
1若しくは請求項12記載の擬似体験装置。
15. The physical material storage means has an acoustic condition storage part for storing the input material for the condition related to the sound in the environment, and the physical condition calculation storage means is defined. A sound intensity calculation storage unit for calculating and storing the intensity of the sound from the sound source, wherein the soft robot display rule storage means is in accordance with the intensity of the sound from the predetermined sound source in the ear part of the soft robot. Of the volume display surface part attached to the soft robot has a volume display surface part display rule storage unit for inputting and storing the rule, wherein the soft robot display mode determining means is a part of the ear part of the soft robot. The volume display surface section determining unit for changing and displaying the volume display surface section according to the volume is provided.
The simulated experience device according to claim 1 or 12.
【請求項16】 前記物理的資料記憶手段は、環境内の
温度に関係する条件を定める資料を入力された上記憶す
る温度条件記憶部を有し、 前記物理的条件計算記憶手段は、環境内の温度若しくは
体感温度を計算した上記憶する温度計算記憶部を有し、 前記ソフトロボット表示規則記憶手段は、ソフトロボッ
トの定められた少なくも一の部分において、その部分の
温度若しくは体感温度とその温度若しくは体感温度に応
じて当該部に付される色彩の内容についての規則を入力
された上記憶する色彩表示規則記憶部を有し、 前記ソフトロボット表示態様決定手段は、ソフトロボッ
トの少なくも一の定められた部分に当該部の温度若しく
は体感温度に応じての色彩を付して表示させる色彩表示
決定部を有していることを特徴とする請求項9若しくは
請求項10若しくは請求項11若しくは請求項12記載
の擬似体験装置。
16. The physical material storage means has a temperature condition storage part for storing the material for determining a condition related to the temperature in the environment, and the physical condition calculation storage means is provided in the environment. Of the soft robot display rule storage means for calculating and storing the temperature or the sensible temperature of the soft robot. The soft robot display mode determining means has a color display rule storage unit that stores and stores a rule regarding the content of the color to be applied to the part according to the temperature or the sensible temperature. 10. The color display determining section for displaying a color according to the temperature or the sensible temperature of the section at a predetermined portion of the color display determining section. The simulated experience device according to claim 10, 11 or 12.
【請求項17】 ユーザの操作に従ってユーザが存在す
ることとなる別異の環境を擬似体験させる擬似体験装置
において、 ユーザの両眼に装着する立体視手段と、 視覚的に擬似体験する対象たる環境を生成するために必
要な資料を擬似体験に先立って入力された上記憶する記
憶手段と、 前記記憶手段が記憶する資料をもとに環境を前記立体視
手段内に生成する立体環境生成手段と、 前記立体環境生成手段の作用のもとで前記立体視手段内
に生成された環境内に環境内の物理的な条件の値を視覚
的に表示するシンボルを発生させるシンボル発生手段
と、 前記シンボル発生手段の発生させるシンボルの環境内で
の所在位置をユーザに指定、変更操作可能とさせるシン
ボル所在位置指示手段と、 前記記憶手段に記憶されていることとなる環境内の物理
的な条件を定めるために必要な資料を入力された上記憶
する物理的資料記憶手段と、 前記物理的資料記憶手段が記憶する物理的な条件を定め
るために必要な資料の少なくも一部を使用して、環境内
の前記シンボル所在位置指示手段にて指示された位置の
物理的な環境条件を計算した上記憶する物理的条件計算
記憶手段と、 シンボルの所在位置における環境の物理的な条件の値と
シンボルの表示態様との関係を定める規則をシンボルの
発生に先立って入力された上記憶するシンボル表示規則
記憶手段と、 前記物理的条件計算記憶手段の記憶している計算結果と
前記シンボル表示規則記憶手段が記憶する規則をもと
に、シンボルの表示態様を決定するシンボル表示態様決
定手段と、 前記シンボル発生手段の発生させたシンボルを前記立体
視手段内に生成された環境に合成して発生表示するに際
して、前記シンボル表示態様決定手段が決定した態様で
表示させるシンボル表示態様制御手段とを有しているこ
とを特徴とする擬似体験装置。
17. A simulated experience device for simulated experience of a different environment in which a user will exist in accordance with a user's operation, and stereoscopic means attached to both eyes of the user, and an environment as a target to be visually simulated. And a storage means for storing the material necessary for generating the above, which is input prior to the simulated experience, and a stereoscopic environment generating means for generating an environment in the stereoscopic means based on the material stored in the storage means. Symbol generating means for generating a symbol for visually displaying a value of a physical condition in the environment in the environment generated in the stereoscopic means under the action of the stereoscopic environment generating means, A symbol location-position instructing unit that allows the user to specify and change the location of the symbol generated by the generation unit in the environment; A physical material storage means for storing the material required to determine the physical condition upon input, and at least a part of the material required to determine the physical condition stored by the physical material storage means Using the physical condition calculation storage means for calculating and storing the physical environment condition of the position instructed by the symbol location position instructing means in the environment, and the physical condition of the environment in the location of the symbol. Symbol display rule storage means for storing a rule for defining the relationship between the condition value and the display mode of the symbol, which is inputted prior to the generation of the symbol, and the calculation result stored in the physical condition calculation storage means, and Symbol display mode determining means for determining the display mode of the symbol based on the rule stored in the symbol display rule storing means, and the symbol generated by the symbol generating means in the stereoscopic view. A simulated experience device, comprising: symbol display mode control means for displaying in a mode determined by the symbol display mode determination means when the generated and displayed image is combined with the environment generated in the means.
【請求項18】 前記物理的資料記憶手段に記憶されて
いる物理的な条件を定めるために必要な資料のうち、シ
ンボルの所在位置における環境の物理的な条件の計算に
使用されているものの少なくも一部を他の資料若しくは
新規に入力された資料の少なくも一に変更可能とさせる
物理的資料変更操作手段と、 前記物理的資料変更操作手段による資料の変更があった
ならば、前記物理的条件計算記憶手段、前記シンボル表
示態様決定手段及び前記シンボル表示態様制御手段にそ
の変更に応じての必要な修正作用をなさしめる物理的資
料変更操作実効化手段とを有していることを特徴とする
請求項17記載の擬似体験装置。
18. Among the materials necessary for defining the physical conditions stored in the physical material storage means, few of the materials used for calculating the physical conditions of the environment at the location of the symbol. Physical material change operation means for changing a part of other material or newly input material to at least one, and if the physical material change operation means changes the material, the physical material change operation means And a physical material change operation execution means for performing a necessary correcting action on the symbol display mode determining means and the symbol display mode control means according to the change. The simulated experience device according to claim 17.
【請求項19】 前記シンボル所在位置指示手段は、 ユーザの片手の運動のみにて機能の発揮が可能であるべ
く、磁気変化をもたらす操作、加速度をもたらす操作、
押ボタン操作、スイッチ操作の少なくも一を検出する検
出部と、 前記検出部の検出結果を指示の内容に変換する変換部と
を有していることを特徴とする請求項18記載の擬似体
験装置。
19. The symbol position-indicating means is capable of exerting a function only by exercising one hand of a user, so that an operation of causing a magnetic change and an operation of causing acceleration,
The simulated experience according to claim 18, further comprising: a detection unit that detects at least one of a push button operation and a switch operation, and a conversion unit that converts the detection result of the detection unit into the content of the instruction. apparatus.
【請求項20】 前記シンボル所在位置指示手段は、 ユーザの音声入力を受付る音声入力部と、 前記音声入力部の受け付けた音声を指示の内容に変換す
る音声指示変換部とを有していることを特徴とする請求
項19記載の擬似体験装置。
20. The symbol location instructing means includes a voice input unit that receives a voice input of a user, and a voice instruction conversion unit that converts the voice received by the voice input unit into instruction content. 20. The simulated experience device according to claim 19, wherein:
【請求項21】 前記シンボル表示規則記憶手段は、物
理的な値そのものを数値として表示するという規則を入
力された上記憶する数値表示規則記憶部を有しているこ
とを特徴とする請求項19若しくは請求項20記載の擬
似体験装置。
21. The symbol display rule storage means has a numerical value display rule storage unit for storing the inputted rule for displaying the physical value itself as a numerical value. Alternatively, the simulated experience device according to claim 20.
【請求項22】 ユーザの操作に従ってユーザが存在す
ることとなる別異の環境条件を視覚的に擬似体験させる
擬似体験装置において、 ユーザの両眼に装着する立体視手段と、 ユーザが視覚的に擬似体験することとなる環境を生成す
るために必要な資料を擬似体験に先立って入力された上
記憶する記憶手段と、 環境内におけるユーザの所在位置を指定、変更すること
を可能とさせるユーザ位置入力操作手段と、 前記ユーザ位置入力操作手段にて入力されたユーザの所
在位置に応じて前記記憶手段が記憶している資料をもと
に前記立体視手段内に擬似体験する環境を生成する立体
環境生成手段と、 前記記憶手段が記憶している資料をもとにユーザが擬似
体験をする対象としている環境の境界壁を認識している
境界壁認識手段と、 前記ユーザ位置入力操作手段への入力操作をもとに、前
記立体視手段内に前記立体環境生成手段の作用のもとで
擬似体験の対象として生成されている環境内でのユーザ
の所在する位置を認識しており、更に前記境界壁認識手
段の認識している境界壁をもとにユーザの所在する位置
が擬似体験する対象とされている環境の外部となった場
合には、このことを検知すると共に、現在のユーザの位
置とユーザが直前に擬似体験をしていた環境内の位置と
の相互関係をもとめる境界壁外所在ユーザ認識手段と、 ユーザの所在位置が境界壁外となった場合には、前記境
界壁外所在ユーザ認識手段から現在のユーザの位置と直
前に擬似体験をしていた境界内の位置との相互関係の通
知を受けて、前記記憶手段の記憶内容を参照して、前記
立体視手段内に両方の位置の相互関係についての情報を
表示生成するユーザ環境内帰還促進手段とを有している
ことを特徴とする擬似体験装置。
22. A simulated experience device for visually simulating different environmental conditions in which a user is to exist according to a user's operation, and a stereoscopic means worn on both eyes of the user, A storage means for storing the materials necessary for generating the environment to be simulated, which is input prior to the simulated experience, and a user position that allows the user's location in the environment to be specified and changed. Input operation means, and a stereoscopic body that creates an environment for a simulated experience in the stereoscopic means based on the material stored in the storage means according to the user's location input by the user position input operation means. Environment generating means, boundary wall recognizing means for recognizing a boundary wall of the environment for which the user has a simulated experience based on the material stored in the storage means, and the user position Recognizing the position of the user in the environment generated as the target of the simulated experience in the stereoscopic viewing means under the action of the stereoscopic environment generating means based on the input operation to the position input operation means. If the position of the user based on the boundary wall recognized by the boundary wall recognizing means is outside the environment that is the target of the simulated experience, this is detected. At the same time, when the user's location is outside the boundary wall, the user recognition means outside the boundary wall that finds the mutual relationship between the current position of the user and the position in the environment that the user had just had a pseudo experience with. Is notified of the mutual relationship between the current position of the user and the position within the boundary where the user had a pseudo experience immediately before from the user outside the boundary wall recognizing unit, and refers to the stored content of the storage unit, Phases of both positions in the stereoscopic means A simulated experience device having a user environment return promotion means for displaying and generating information on mutual relationships.
【請求項23】 前記ユーザ位置入力操作手段は、 ユーザの片手の運動のみにて入力操作が可能であるべ
く、磁気変化をもたらす操作、加速度をもたらす操作、
押ボタン操作、スイッチ操作の少なくも一を検出する検
出部と、 前記検出部の検出結果を入力操作の内容に変換する操作
内容変換部とを有していることを特徴とする請求項22
記載の擬似体験装置。
23. The user position input operation means is capable of performing an input operation only by exercising one hand of a user, so that an operation of causing a magnetic change, an operation of causing an acceleration,
23. A detection unit that detects at least one of a push button operation and a switch operation, and an operation content conversion unit that converts the detection result of the detection unit into the content of the input operation.
The simulated experience device described.
【請求項24】 前記ユーザ環境条件内帰還促進手段
は、現在のユーザの所在する環境壁外の位置から、環境
壁外にユーザが出る直前に擬似体験していた環境内の位
置を両方の位置間に存在している境界壁を透明なものと
して見た景観を表示させる環境内景観透視表示部を有し
ていることを特徴とする請求項22若しくは請求項23
記載の擬似体験装置。
24. The user's environmental return return promoting means determines, from the position outside the environment wall where the user is currently located, the position within the environment that the user had simulated before the user left the environment wall. 24. An environment landscape perspective display unit for displaying a landscape in which a boundary wall existing between them is seen as transparent is provided.
The simulated experience device described.
【請求項25】 ユーザの操作に従ってユーザが存在す
ることとなる別異の環境を擬似体験させる擬似体験装置
において、 ユーザの両眼に装着する立体視手段と、 視覚的に擬似体験する対象たる環境を生成するために必
要な資料を擬似体験に先立って入力された上記憶する記
憶手段と、 前記記憶手段が記憶する資料をもとに前記立体視手段内
に環境を生成する立体環境生成手段と、 前記記憶手段が記憶している環境内の物理的な条件を定
めるために必要な資料を入力された上記憶する物理的資
料記憶手段と、 前記物理的資料記憶手段が記憶する資料をもとに環境内
の物理的な条件の分布を計算した上記憶する物理的条件
分布計算記憶手段と、 前記立体視手段内に生成された環境内にユーザの指示の
もと少なくも一の仮想的な平面を設定する仮想的平面設
定操作手段と、 前記仮想的平面設定操作手段にて設定された仮想的な平
面上に、前記物理的条件分布計算記憶手段の記憶する環
境内の物理的な条件の分布をもとに、環境内の物理的な
条件の等高線図を描いて前記立体視手段内に立体環境と
併せてこれを表示させる等高線図作成手段とを有してい
ることを特徴とする擬似体験装置。
25. In a simulated experience device for simulating a different environment in which a user will exist in accordance with a user's operation, a stereoscopic means mounted on both eyes of the user, and an environment as a target to be visually simulated. And a storage means for storing the material necessary to generate the above, which is input prior to the simulated experience, and a stereoscopic environment generation means for generating an environment in the stereoscopic means based on the material stored in the storage means. The physical material storage means stores the material necessary for determining the physical condition in the environment stored by the storage means, and the material stored by the physical material storage means. A physical condition distribution calculation storage means for calculating and storing the distribution of physical conditions in the environment, and at least one virtual condition in the environment generated in the stereoscopic means under user's instruction. Set the plane A virtual plane setting operation means, and a distribution of physical conditions in the environment stored by the physical condition distribution calculation storage means on the virtual plane set by the virtual plane setting operation means. The pseudo-experience device, further comprising: a contour map creation means for drawing a contour map of physical conditions in the environment and displaying the contour map together with the stereoscopic environment in the stereoscopic means.
【請求項26】 前記仮想的平面設定操作手段にて設定
された仮想的な平面の位置、方向の少なくも一をユーザ
の片手の運動のみにて変更可能とさせる仮想的平面移動
手段を有していることを特徴とする請求項25記載の擬
似体験装置。
26. A virtual plane moving means for changing at least one of the position and direction of the virtual plane set by the virtual plane setting operation means by the movement of one hand of the user. 26. The simulated experience device according to claim 25, wherein:
【請求項27】 前記仮想的平面設定手段は、複数の仮
想的な平面を設定可能とする複数仮想平面設定部を有
し、 前記等高線図作成手段は、前記複数仮想平面設定部の作
用のもと設定された複数の仮想的な平面に等高線図を描
いて表示させる際に、各仮想的な平面毎に色彩を変更す
ることにより各等高線図を区分けして立体表示させる等
高線図色分け表示部を有することを特徴とする請求項2
6記載の擬似体験装置。
27. The virtual plane setting unit has a plurality of virtual plane setting units capable of setting a plurality of virtual planes, and the contour map creating unit also has a function of the plurality of virtual plane setting units. When drawing and displaying a contour map on a plurality of virtual planes that have been set as above, by changing the color for each virtual plane, each contour map is divided into three-dimensionally It has, 2 characterized by the above.
The simulated experience device according to 6.
【請求項28】 前記物理的資料記憶手段は、照度に関
する条件を定める資料を入力された上記憶する照度条件
記憶部を有し、 前記物理的条件分布計算記憶手段は、環境内の照度の分
布を計算した上記憶する照度分布計算記憶部を有し、 前記等高線図作成手段は、照度の等高線図を作成する照
度等高線図作成部を有していることを特徴とする請求項
25若しくは請求項26若しくは請求項27記載の擬似
体験装置。
28. The physical material storage unit has an illuminance condition storage unit for storing a material for inputting a material defining a condition related to illuminance, and the physical condition distribution calculation storage unit includes an illuminance distribution in an environment. 26. An illuminance distribution calculation storage unit for calculating and storing the illuminance, and the contour map creating means includes an illuminance contour map creating unit for creating a contour map of illuminance. 26. The simulated experience device according to claim 26 or claim 27.
【請求項29】 前記物理的資料記憶手段は、温度に関
する条件を定めるために必要な資料を入力された上記憶
する温度条件記憶部を有し、 前記物理的条件分布計算記憶手段は、温度分布を計算し
た上記憶する温度分布計算記憶部を有し、 前記等高線図作成手段は、温度の等高線図を作成する温
度等高線図作成部を有していることを特徴とする請求項
25若しくは請求項26若しくは請求項27記載の擬似
体験装置。
29. The physical material storage means has a temperature condition storage part for storing the material necessary for determining a condition relating to temperature, and the physical condition distribution calculation storage means has a temperature distribution. 26. A temperature distribution calculation storage unit for calculating and storing the above, and the contour map creating means has a temperature contour map creating unit for creating a temperature contour map. 26. The simulated experience device according to claim 26 or claim 27.
【請求項30】 前記物理的資料記憶手段は、所定の性
質の音若しくは音源からの音の少なくも一に関する条件
を定めるために必要な資料を入力された上記憶する音条
件記憶部を有し、 前記物理的条件分布計算記憶手段は、所定の性質の音若
しくは音源からの音の少なくも一の音量の分布を計算し
た上記憶する音量分布計算記憶部を有し、 前記等高線図作成手段は、音量の等高線図を作成する音
量等高線図作成部を有していることを特徴とする請求項
25若しくは請求項26若しくは請求項27記載の擬似
体験装置。
30. The physical material storage means has a sound condition storage unit for inputting and storing material necessary for defining a condition relating to at least one of a sound having a predetermined property or a sound from a sound source. The physical condition distribution calculation storage unit has a volume distribution calculation storage unit that calculates and stores a distribution of at least one volume of a sound of a predetermined property or a sound from a sound source, and the contour map creation unit is 28. The simulated experience device according to claim 25, claim 26, or claim 27, further comprising a volume contour map creation unit for creating a volume contour map.
【請求項31】 ユーザの操作に従ってユーザが存在す
ることとなる別異の環境を擬似体験させる擬似体験装置
において、 ユーザの両眼に装着する立体視手段と、 視覚的に擬似体験する対象たる環境を生成するために必
要な資料を擬似体験に先立って入力された上記憶する記
憶手段と、 前記記憶手段が記憶する環境内の光環境条件を評価する
ために、ユーザに室内照明の各原色毎の強度、ガラス面
の各原色毎の透過率及び鏡面の反射率の少なくも一につ
いての選択可能な数値資料を入力させた上記憶する選択
可能光条件記憶手段と、 前記選択可能光資料記憶手段が記憶する数値資料のう
ち、ユーザに光環境条件の評価に使用するものを選択可
能とさせる選択操作手段と、 前記記憶手段が記憶する資料と前記選択可能光資料記憶
手段の記憶する選択可能な数値資料のうち前記選択操作
手段により選択された数値資料をもとに環境内に生成す
べき光環境条件を生成し、これを前記立体視手段内に表
示させる立体環境生成手段とを有していることを特徴と
する擬似体験装置。
31. In a simulated experience device for simulating a different environment in which a user will exist according to a user's operation, a stereoscopic means worn on both eyes of the user, and an environment as a target to be visually simulated. A storage unit for storing the data necessary to generate the above, which is input prior to the simulated experience, and a user for each primary color of room lighting in order to evaluate the light environment conditions in the environment stored by the storage unit. Intensity, a transmittance for each primary color of the glass surface, and a reflectance of a mirror surface, at least one selectable optical condition storage means for inputting and storing a selectable numerical material, and the selectable optical material storage means Of the numerical data stored by the user, the selection operation means for allowing the user to select the one used for the evaluation of the optical environment condition, the data stored in the storage means and the storage of the selectable optical data storage means A stereoscopic environment generating means for generating a light environment condition to be generated in the environment on the basis of the numerical material selected by the selection operation means among the selectable numerical materials, and displaying it in the stereoscopic means. A simulated experience device characterized by having.
【請求項32】 前記立体視手段内に生成された環境中
にソフトロボットを発生させるソフトロボット発生手段
と、 前記ソフトロボット発生手段の作用のもとで発生される
ソフトロボットの環境内における所在位置をユーザに指
定、変更操作可能とさせるソフトロボット所在位置指示
手段と、 前記ソフトロボット所在位置指示手段にて指示操作され
た位置におけるソフトロボットの表示に、前記立体環境
生成手段がもとめた環境中での光環境条件を反映させる
光環境条件評価用ソフトロボット表示制御手段とを有し
ていることを特徴とする請求項31記載の擬似体験装
置。
32. A soft robot generating means for generating a soft robot in the environment generated in the stereoscopic vision means, and a position in the environment of the soft robot generated under the action of the soft robot generating means. In the environment determined by the three-dimensional environment generation means, the soft robot location position indicating means for allowing the user to specify and change the position, and the soft robot at the position designated and operated by the soft robot location position indicating means are displayed. 32. The simulated experience device according to claim 31, further comprising: a soft robot display control means for evaluating a light environment condition that reflects the light environment condition.
【請求項33】 前記ソフトロボット所在位置指示操作
手段は、 ユーザの片手運動による磁気変化をもたらす操作、加速
度をもたらす変化、押ボタン操作、スイッチ操作の少な
くも一を検出する検出部と、 前記検出部の検出結果を指示の内容に変換する指示変換
部とを有していることを特徴とする請求項32記載の擬
似体験装置。
33. The soft robot location-position instructing and operating means includes a detection unit that detects at least one of an operation that causes a magnetic change by a user's one-handed movement, a change that causes an acceleration, a push button operation, and a switch operation. 33. The simulated experience device according to claim 32, further comprising an instruction conversion unit that converts the detection result of the unit into the content of the instruction.
【請求項34】 ソフトロボットの少なくも一部分の白
色光下での色彩をユーザに指定変更可能とさせた上記憶
するソフトロボット色彩指定操作手段と、 前記光環境評価用ソフトロボット表示制御手段が前記ソ
フトロボット色彩指定操作手段にて指定されたソフトロ
ボットの少なくも一部の表示に際して、その所在する位
置における環境中の光環境条件を反映させて表示させる
色彩指定ソフトロボット表示制御手段を有していること
を特徴とする請求項31若しくは請求項32若しくは請
求項33記載の擬似体験装置。
34. A soft robot color designation operation means for allowing a user to designate and change a color of at least a part of a soft robot under white light, and the light environment evaluation soft robot display control means for controlling the light environment. When displaying at least a part of the soft robot designated by the soft robot color designation operation means, it has a color designation soft robot display control means for displaying the light environment conditions in the environment at the position where the soft robot is located. 35. The simulated experience device according to claim 31, 32, or 33.
【請求項35】 複数のユーザに、その操作に従ってユ
ーザが存在することとなる別異の環境を同時かつ独立し
て擬似体験させる擬似体験装置において、 各ユーザがその両眼に装備する立体視手段と、 視覚的に擬似体験する対象たる環境を生成するために必
要な資料を擬似体験に先立って入力された上記憶する記
憶手段と、 各ユーザに対して、擬似体験中の環境条件内における自
分の所在する位置を指定、変更操作可能とさせる各ユー
ザ用の所在位置指示手段と、 各ユーザが装備する立体視手段内に、前記記憶手段が記
憶する環境を生成するための資料と、前記所在位置指示
手段により入力された位置により定まる環境を生成させ
る各ユーザ用環境生成手段と、 各ユーザ用の所在位置指示手段からの入力をもとに、各
ユーザが擬似体験中の所在位置を認識するユーザ位置認
識手段と、 各ユーザ用の立体視手段内に生成される環境中に前記ユ
ーザ位置認識手段の認識結果をもとに、他のユーザの所
在位置に該ユーザに相当するソフトロボットを生成の上
表示させる他ユーザ相当ソフトロボット生成手段とを有
していることを特徴とする擬似体験装置。
35. In a simulated experience device that allows a plurality of users to simultaneously and independently experience different environments in which the users will exist according to their operations, a stereoscopic vision means that each user equips his or her eyes. And a storage means for storing the material necessary to generate the environment to be visually simulated, which is input prior to the simulated experience, and for each user, the user in the environmental conditions during the simulated experience. The location of the user, which allows the user to specify and change the location of the location, and the material for creating the environment stored in the storage in the stereoscopic means equipped to each user, and the location. Based on the environment generation means for each user that generates an environment determined by the position input by the position indicating means, and the input from the location position indicating means for each user, each user A user position recognizing unit that recognizes the current position and a position corresponding to the other user based on the recognition result of the user position recognizing unit in the environment generated in the stereoscopic viewing unit for each user. A virtual experience device, comprising: a soft robot generating means for generating and displaying a soft robot for use by another user.
【請求項36】 前記各ユーザ用の位置入力手段は、 片手の運動による磁気変化をもたらす操作、加速度をも
たらす操作、押ボタン操作、スイッチ操作の少なくも一
を検出する検出部と、 前記検出部の検出結果を入力操作の内容に変換する変換
部とを有していることを特徴とする請求項35記載の擬
似体験装置。
36. The position input means for each user includes a detection unit that detects at least one of an operation that causes a magnetic change due to the movement of one hand, an operation that causes an acceleration, a push button operation, and a switch operation, and the detection unit. 36. The simulated experience device according to claim 35, further comprising: a conversion unit that converts the detection result of 1. into the content of the input operation.
JP06138502A 1993-07-02 1994-06-21 Virtual experience-based virtual experience device Expired - Fee Related JP3105131B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US08/263,187 US5590062A (en) 1993-07-02 1994-06-21 Simulator for producing various living environments mainly for visual perception
JP06138502A JP3105131B2 (en) 1993-07-02 1994-06-21 Virtual experience-based virtual experience device
DE69433191T DE69433191T2 (en) 1993-07-02 1994-07-01 Simulator for creating different living environments, mainly for visual perception
EP94304840A EP0633549B1 (en) 1993-07-02 1994-07-01 Simulator for producing various living environments mainly for visual perception

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP5-164863 1993-07-02
JP16486393 1993-07-02
JP5-169325 1993-07-08
JP16932593 1993-07-08
JP06138502A JP3105131B2 (en) 1993-07-02 1994-06-21 Virtual experience-based virtual experience device

Publications (2)

Publication Number Publication Date
JPH0773338A true JPH0773338A (en) 1995-03-17
JP3105131B2 JP3105131B2 (en) 2000-10-30

Family

ID=27317674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06138502A Expired - Fee Related JP3105131B2 (en) 1993-07-02 1994-06-21 Virtual experience-based virtual experience device

Country Status (1)

Country Link
JP (1) JP3105131B2 (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09147141A (en) * 1995-11-24 1997-06-06 Sekisui House Ltd Display method for building using amusement machine
JPH1115995A (en) * 1997-06-24 1999-01-22 Amadeusu Net:Kk Residence total guiding system by virtual housing center using virtual real space
WO2000049579A1 (en) * 1999-02-16 2000-08-24 Sega Enterprises, Ltd. Image displaying device, image processing device, image displaying system
JP2002092647A (en) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd Information presentation system and model error detection system
JP2002215971A (en) * 2001-01-23 2002-08-02 Tiger Vacuum Bottle Co Ltd Sales model for environmental amenity goods
JP2003159673A (en) * 2001-11-26 2003-06-03 Nec Fielding Ltd Virtual space provision system, method and program therefor
JP2004085665A (en) * 2002-08-23 2004-03-18 Yamaha Corp Method for creating sound environment prediction data, program for creating sound environment prediction data, and sound environment prediction system
US6972734B1 (en) 1999-06-11 2005-12-06 Canon Kabushiki Kaisha Mixed reality apparatus and mixed reality presentation method
JP2007334851A (en) * 2006-05-18 2007-12-27 Asahi Kasei Homes Kk Program for optical environment analysis and optical environment analyzer
JP2008176779A (en) * 1995-11-30 2008-07-31 Immersion Corp Tactile feedback man-machine interface device
JP2008217096A (en) * 2007-02-28 2008-09-18 Fujitsu Ltd Component selecting program, recording medium recording program, component selecting method, and component selecting device
JP2009128952A (en) * 2007-11-19 2009-06-11 Asahi Kasei Homes Kk Building outside light intensity value calculation program and light environment analysis program
EP2098902A1 (en) 2008-03-06 2009-09-09 Seiko Epson Corporation Simulation apparatus, simulation program, and recording medium on which simulation program is recorded
JP2010527090A (en) * 2007-05-11 2010-08-05 スキッドモア オーウィングス アンド メリル リミテッド ライアビリティ パートナーシップ Digital design ecosystem
JP2012063055A (en) * 2010-09-15 2012-03-29 Taisei Corp Air conditioning environmental monitoring system
JP2014179126A (en) * 2006-12-18 2014-09-25 Toshiba Global Commerce Solutions Holdings Corp Interface display device and automated retail system
JP2016076157A (en) * 2014-10-08 2016-05-12 旭化成ホームズ株式会社 Environment diagnosis apparatus and environment diagnosis method
JP2017033312A (en) * 2015-07-31 2017-02-09 公立大学法人広島市立大学 Video construction device, pseudo visual sensation experience system and video construction program
JP6227732B1 (en) * 2016-08-23 2017-11-08 株式会社コロプラ Method and apparatus for supporting input in virtual space, and program causing computer to execute the method
JP2018525721A (en) * 2015-07-03 2018-09-06 ノキア テクノロジーズ オーユー Content browsing
JP2020112975A (en) * 2019-01-10 2020-07-27 東京瓦斯株式会社 Facility environment output system and program
WO2023127403A1 (en) * 2021-12-27 2023-07-06 パナソニックホールディングス株式会社 System for improving realistic sensations and program for improving realistic sensations in vr
JP2023134861A (en) * 2022-03-15 2023-09-28 コクヨ株式会社 layout planning system
JP2023171170A (en) * 2022-05-20 2023-12-01 株式会社スペースリー Display object changing device and display object changing program

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09147141A (en) * 1995-11-24 1997-06-06 Sekisui House Ltd Display method for building using amusement machine
US9690379B2 (en) 1995-11-30 2017-06-27 Immersion Corporation Tactile feedback interface device
JP2008176779A (en) * 1995-11-30 2008-07-31 Immersion Corp Tactile feedback man-machine interface device
JPH1115995A (en) * 1997-06-24 1999-01-22 Amadeusu Net:Kk Residence total guiding system by virtual housing center using virtual real space
WO2000049579A1 (en) * 1999-02-16 2000-08-24 Sega Enterprises, Ltd. Image displaying device, image processing device, image displaying system
US6774900B1 (en) 1999-02-16 2004-08-10 Kabushiki Kaisha Sega Enterprises Image displaying device, image processing device, image displaying system
US6972734B1 (en) 1999-06-11 2005-12-06 Canon Kabushiki Kaisha Mixed reality apparatus and mixed reality presentation method
JP2002092647A (en) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd Information presentation system and model error detection system
JP4537557B2 (en) * 2000-09-19 2010-09-01 オリンパス株式会社 Information presentation system
JP2002215971A (en) * 2001-01-23 2002-08-02 Tiger Vacuum Bottle Co Ltd Sales model for environmental amenity goods
JP2003159673A (en) * 2001-11-26 2003-06-03 Nec Fielding Ltd Virtual space provision system, method and program therefor
JP2004085665A (en) * 2002-08-23 2004-03-18 Yamaha Corp Method for creating sound environment prediction data, program for creating sound environment prediction data, and sound environment prediction system
JP2007334851A (en) * 2006-05-18 2007-12-27 Asahi Kasei Homes Kk Program for optical environment analysis and optical environment analyzer
JP2014179126A (en) * 2006-12-18 2014-09-25 Toshiba Global Commerce Solutions Holdings Corp Interface display device and automated retail system
JP2008217096A (en) * 2007-02-28 2008-09-18 Fujitsu Ltd Component selecting program, recording medium recording program, component selecting method, and component selecting device
JP2010527090A (en) * 2007-05-11 2010-08-05 スキッドモア オーウィングス アンド メリル リミテッド ライアビリティ パートナーシップ Digital design ecosystem
JP2009128952A (en) * 2007-11-19 2009-06-11 Asahi Kasei Homes Kk Building outside light intensity value calculation program and light environment analysis program
EP2098902A1 (en) 2008-03-06 2009-09-09 Seiko Epson Corporation Simulation apparatus, simulation program, and recording medium on which simulation program is recorded
JP2012063055A (en) * 2010-09-15 2012-03-29 Taisei Corp Air conditioning environmental monitoring system
JP2016076157A (en) * 2014-10-08 2016-05-12 旭化成ホームズ株式会社 Environment diagnosis apparatus and environment diagnosis method
JP2018525721A (en) * 2015-07-03 2018-09-06 ノキア テクノロジーズ オーユー Content browsing
US10761595B2 (en) 2015-07-03 2020-09-01 Nokia Technologies Oy Content browsing
JP2017033312A (en) * 2015-07-31 2017-02-09 公立大学法人広島市立大学 Video construction device, pseudo visual sensation experience system and video construction program
JP2018032131A (en) * 2016-08-23 2018-03-01 株式会社コロプラ Method and device for supporting input in virtual space and program causing computer to execute the method
JP6227732B1 (en) * 2016-08-23 2017-11-08 株式会社コロプラ Method and apparatus for supporting input in virtual space, and program causing computer to execute the method
JP2020112975A (en) * 2019-01-10 2020-07-27 東京瓦斯株式会社 Facility environment output system and program
WO2023127403A1 (en) * 2021-12-27 2023-07-06 パナソニックホールディングス株式会社 System for improving realistic sensations and program for improving realistic sensations in vr
JP2023134861A (en) * 2022-03-15 2023-09-28 コクヨ株式会社 layout planning system
JP2023171170A (en) * 2022-05-20 2023-12-01 株式会社スペースリー Display object changing device and display object changing program

Also Published As

Publication number Publication date
JP3105131B2 (en) 2000-10-30

Similar Documents

Publication Publication Date Title
US5590062A (en) Simulator for producing various living environments mainly for visual perception
JP3105131B2 (en) Virtual experience-based virtual experience device
CN108492379B (en) VR house-watching method and device, computer equipment and storage medium
CN107170041B (en) Shared laboratory virtual simulation method and system
US8005656B1 (en) Apparatus and method for evaluation of design
US20020029129A1 (en) Method and apparatus for analyzing building performance
US9922463B2 (en) Virtually visualizing energy
Liang et al. Functional workspace optimization via learning personal preferences from virtual experiences
GB2554914A (en) Virtual reality system and method
KR101854613B1 (en) System for simulating 3d interior based on web page and method for providing virtual reality-based interior experience using the same
JP2017004457A (en) Virtual reality display system, virtual reality display method, and computer program
Racz et al. VR aided architecture and interior design
Hülsmann et al. Simulating wind and warmth in virtual reality: conception, realization and evaluation for a cave environment
Mazuryk et al. History, applications, technology and future
JP7287509B2 (en) Method and apparatus for displaying item information in current space and media
US11557101B2 (en) Estimation system, space design support system, estimation method, and program
Xu Construction of Virtual Simulation System for Interior Design Based on Augmented Reality
JP2003308344A (en) Device and method for supporting design of indoor space
JP7240180B2 (en) Equipment environmental output system and program
Kitchens et al. Interactive Home design in a virtual environment
Chen et al. Augmented reality-based home interaction layout and evaluation
JP2000039949A (en) Video display device
Sani et al. An appraisal into the use of mechanization by indigenous construction firms in north eastern Nigeria
Ong et al. Using Spatial Awareness
Wang Application of Virtual Reality Technology in Indoor Ecological Environment Design

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees