JP2010267192A - Touch control device for three-dimensional imaging - Google Patents
Touch control device for three-dimensional imaging Download PDFInfo
- Publication number
- JP2010267192A JP2010267192A JP2009119749A JP2009119749A JP2010267192A JP 2010267192 A JP2010267192 A JP 2010267192A JP 2009119749 A JP2009119749 A JP 2009119749A JP 2009119749 A JP2009119749 A JP 2009119749A JP 2010267192 A JP2010267192 A JP 2010267192A
- Authority
- JP
- Japan
- Prior art keywords
- touch control
- stereoscopic
- control device
- stereoscopic imaging
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明はタッチ制御装置に関し、特に立体映像を表示可能で、タッチ制御時に、該立体映像はこれに従い対応する動作を生じる立体結像のタッチ制御装置に関する。 The present invention relates to a touch control device, and more particularly, to a stereoscopic imaging touch control device capable of displaying a stereoscopic video and generating a corresponding operation in accordance with the stereoscopic video during touch control.
表示技術の進歩に従い、平面表示は既に高解析度、フルカラーの表示効果を達成するに至っている。しかし、平面表示においては、深み、遠近の視覚効果を感じることはできないため、人間の視覚における感覚を満足させるにはなお不十分である。また同時に、表示された物体の他の部分を観察したくとも、映像の転換を待たなければ、異なる方位の映像を観察することはできない。 With the progress of display technology, flat display has already achieved a high resolution and full color display effect. However, in the flat display, the visual effect of depth and perspective cannot be felt, and it is still insufficient to satisfy the sense of human vision. At the same time, even if other parts of the displayed object are to be observed, it is not possible to observe an image of a different direction without waiting for the image to change.
これに対応し、立体映像を表示可能なディスプレーが、次々に開発されている。それらは主に、ある物体に照射した光線は反射し、反射した光線を肉眼が受け取り、それが視覚神経により脳に伝達され、1個の立体的な映像に合成されるというものである。この時の物体は、実際に存在する立体物体であるが、ディスプレー上に立体的な物体を実際に発生させることはできない。そのため、光グリッド技術を用い、ディスプレーが発生する映像を、少なくとも2個に分割し、1個は主に左目が受け取り、もう1個は主に右目が受け取るようにする。こうして脳内に、1個の立体的な映像を表現するのである。 Corresponding to this, displays capable of displaying stereoscopic images have been developed one after another. They mainly reflect light rays that illuminate an object, and the reflected light rays are received by the naked eye, which is transmitted to the brain by the optic nerve and synthesized into a single three-dimensional image. The object at this time is a three-dimensional object that actually exists, but a three-dimensional object cannot be actually generated on the display. Therefore, using the optical grid technology, an image generated by a display is divided into at least two, one received mainly by the left eye and the other received mainly by the right eye. Thus, one stereoscopic image is expressed in the brain.
現在知られている技術には、偏光分割法(Polarization Division)、時間分割法(Time Division)、波長分割法(Wavelength Division)、空間分割法(Spatial Division)がある。
偏光分割法(Polarization Division)は、スクリーンに映像を入力する前に、左右異なる偏光方向の偏光板を通過させるため、得られた映像は2種の異なる偏光方向の映像となる。これにより、1個の偏光は水平方向で、もう1個は垂直方向となり、左右両目の映像の偏光方向が不同となる。使用者が装着する偏光メガネには、左右偏光が相互に垂直なレンズを嵌めてある。偏光メガネの左目は水平偏光レンズで、水平偏光映像だけを通過させ、垂直偏光映像は遮断してしまい、偏光メガネの右目は垂直偏光レンズで、垂直偏光映像だけを通過させ、水平偏光映像は遮断してしまう。
時間分割法(Time Division)は、左右両目の映像が、時間をずらして出現するものである。左目の視野映像を出現させようとする時には、立体メガネの左目の視野だけが開かれ、右目の視野は閉じられる。そして、次には、右目の視野映像を出現させるため、立体メガネの右目の視野が開かれ、左目の視野は閉じられる。すなわち、左目は左目視角の映像だけが見られ、右目は右目視角の映像だけが見られるのである。投射器と立体メガネの対応が非常にうまく行っていれば、立体メガネの2枚のレンズは、毎秒それぞれ60回遮蔽される。我々の大脳は、視覚残像の原理により、左右の目がそれぞれ受け取った映像を1個の立体映像へと合成する。
波長分割法(Wavelength Division)は、映像を先ず、赤味を帯びた映像と緑味を帯びた映像に分割し、観賞者は左目が赤色で右目が緑色のカラーメガネを掛けることで、左目では赤色の左目視角の映像だけが見えて、右目では緑色の右目視角の映像だけが見え、左右異なる色の画面処理を利用し、立体映像を構成するものである。
空間分割法(Spatial Division)は、左右それぞれに独立した表示を行なうディスプレーを使用し、左目ディスプレーは左目の視角画面を表示し、右目ディスプレーは右目の視角画面を表示するものである。或いは、左右映像インターレース(interlace)融合の技術を利用し、さらにレンチキュラーシート(Lenticular Sheet)或いはパララックスバリア(Parallax Barrier)を融合した映像に加え、これにより左右映像がそれぞれ左右目に進入するよう制限する。これが、大脳の自動統合を経て、立体的な映像効果を生じる。
Currently known techniques include a polarization division method, a time division method, a wavelength division method, and a spatial division method.
In the Polarization Division method, before an image is input to the screen, it passes through polarizing plates having different polarization directions, so that the obtained image becomes an image having two different polarization directions. As a result, one polarized light is in the horizontal direction, the other is in the vertical direction, and the polarization directions of the left and right eye images are not the same. Polarized glasses worn by the user are fitted with lenses whose left and right polarized light are perpendicular to each other. The left eye of the polarized glasses is a horizontally polarized lens that passes only the horizontally polarized image and blocks the vertically polarized image, and the right eye of the polarized glasses is the vertically polarized lens that only passes the vertically polarized image and blocks the horizontally polarized image. Resulting in.
In the time division method (Time Division), images of the left and right eyes appear with a time shift. When the left eye field image is to appear, only the left eye field of the stereoscopic glasses is opened and the right eye field is closed. Next, in order to make the visual image of the right eye appear, the visual field of the right eye of the stereoscopic glasses is opened and the visual field of the left eye is closed. That is, the left eye only sees the image of the left viewing angle, and the right eye sees only the image of the right viewing angle. If the correspondence between the projector and the stereoscopic glasses is very good, the two lenses of the stereoscopic glasses are shielded 60 times each second. Our cerebrum synthesizes the images received by the left and right eyes into a single 3D image based on the principle of visual afterimage.
The wavelength division method (Wavelength Division) first divides the image into a reddish image and a greenish image, and the viewer wears color glasses with the left eye red and the right eye green, Only the image of the red left viewing angle can be seen, and the right eye can see only the image of the green right viewing angle, and a three-dimensional image is constructed using screen processing of different colors on the left and right.
In the spatial division method, a display that performs independent display on each of the left and right sides is used, the left-eye display displays the left-eye viewing screen, and the right-eye display displays the right-eye viewing screen. Alternatively, use the interlace fusion technology of the left and right video, and in addition to the video that fused the lenticular sheet (Lenticular Sheet) or the parallax barrier (Parallax Barrier), this restricts the left and right video to enter the left and right eyes respectively To do. This produces a three-dimensional image effect through the automatic integration of the cerebrum.
上記した4種の方法が表現する映像はみな、ある程度の立体効果を備える。しかし、フラットスクリーン上に出現させる立体映像の多くは、画面を観賞する時に、それに対応する立体メガネをかける必要がある。そのため、このような立体表示システムを、Eyeglass-type 3D systemとも呼称する。
Eyeglass-type 3D systemが表示する映像は、良好な立体効果を備えてはいるが、メガネを掛けて観賞する必要があるため、すべての人に受け入れるまでには至っていない。つまり、立体メガネは外観が特殊であることに加え、一般の人にとってなじみのない方式であるため、人が使う上での潜在的な問題が存在している。例えば、ヘッドマウントディスプレー(HMD)では、長時間装着していると、めまい、吐き気などの症状が起きるという報告が多くなされている。よって、何も装着する必要がなく、自由に空間を観賞できるという特徴を持つものこそが、今後の立体映像表示の発展の方向性であろう。
All the images expressed by the four methods described above have a certain degree of stereoscopic effect. However, many stereoscopic images appearing on a flat screen require wearing corresponding glasses when viewing the screen. Therefore, such a stereoscopic display system is also called an Eyeglass-type 3D system.
Although the image displayed by the Eyeglass-type 3D system has a good stereoscopic effect, it must be viewed with glasses, so it has not been accepted by everyone. In other words, in addition to the special appearance of stereoscopic glasses, there is a potential problem in using them because it is a method unfamiliar to ordinary people. For example, there are many reports that symptoms such as dizziness and nausea occur when a head mounted display (HMD) is worn for a long time. Therefore, what has the characteristic that it is not necessary to wear anything and can freely enjoy the space is the future direction of stereoscopic image display.
現行の裸眼可視の3D映像の表示は、レンチキュラーシート、パララックスバリア法、両目視差法、光源スリット化法により実現されている。その内、パララックスバリア法は主に、両目の視差を利用し立体感を生じるものである。2個の角度が異なる映像を取り込み、それを等距離にそれぞれ分割し、垂直の細長い形状とする。続いて、インターレース(interlace)の方式を利用し、左右の映像を交錯融合させることで、融合図形の偶数部分は右映像となり、奇数部分は左映像となる。しかし、立体効果を達成するためには、光通過スリット(Slit)と光を通さないバリア(Barrier)が垂直に交差する光グリッドを融合図形上に置き、スリット及びバリアの幅と左右映像の分割幅を一致させ、バリアの遮蔽作用を利用し、左右目がそれぞれ見る左右映像を制限する必要がある。こうして、両目が見られる映像には差異が生じ、立体的感覚が生まれるのである。しかし、バリア線と融合図形との間には一定の距離を開ける必要があり、さもなければ左右目が交錯した映像をそれぞれ見て、必要な立体感を生じることができない点に、注意を要する。 The display of the current naked-eye visible 3D image is realized by a lenticular sheet, a parallax barrier method, a binocular parallax method, and a light source slitting method. Among them, the parallax barrier method mainly uses the parallax of both eyes to generate a stereoscopic effect. Two images with different angles are captured and divided into equal distances to form a vertically elongated shape. Subsequently, by using an interlace method, the left and right images are interlaced and fused, so that the even portion of the merged figure becomes the right image and the odd portion becomes the left image. However, in order to achieve a three-dimensional effect, a light grid in which a light passage slit (Slit) and a light impervious barrier (Barrier) intersect perpendicularly is placed on the fused figure, and the width of the slit and barrier and the division of the left and right images It is necessary to match the width and use the barrier shielding action to limit the left and right images that the left and right eyes see respectively. In this way, there is a difference between the images in which both eyes are seen, and a three-dimensional sensation is born. However, it is necessary to keep a certain distance between the barrier line and the fusion figure, otherwise it is necessary to watch the video where the left and right eyes cross each other, so that the necessary three-dimensional effect cannot be generated .
立体結像技術の出現後、それに伴い現れた問題として、タッチパネルへの応用がある。タッチ制御技術は、テクノロジーの発展と共に、CRTディスプレー、液晶ディスプレーなどのディスプレーに完全に結合している。よって、ディスプレーが表示する映像が立体映像であれば、使用者はタッチ制御を使用する過程において、該立体映像はこれとインタラクティブでなければならない。よって、いかにして、立体映像とタッチ制御時の動作を対応させ、相対変化を生じさせるかは、本発明の課題である。 One of the problems that emerged after the appearance of stereoscopic imaging technology is its application to touch panels. Touch control technology is fully coupled to displays such as CRT displays and liquid crystal displays as technology develops. Therefore, if the image displayed on the display is a stereoscopic image, the stereoscopic image must be interactive with the user in the process of using the touch control. Therefore, it is an object of the present invention how to make a stereoscopic image and an operation at the time of touch control correspond to generate a relative change.
特許文献1の「Image synthesizing apparatus and method, position detecting apparatus and method, and supply medium」は、連続立体映像の発生方法を掲示する。それは、多数の撮影装置により物体の表面を捕捉後、液晶パネルなどディスプレー上に即時に表示し、座標予測と座標計算などの方式を通して、立体映像の表示をよりリアルにするものである。しかし、該技術では、立体映像を表示することはできるが、立体映像と使用者との間のインタラクティブ技術が提示されていない。つまり、使用者が立体映像を観察する時には、外部のキーボード、マウスなどの入力装置を通して、映像の外部製作、或いは角度の転換を行なう必要がある。これでは、即時立体映像表示の効果が失われてしまう。
本発明の第一の目的は、立体映像を表示可能なタッチ制御装置を提供することである。
本発明の第二の目的は、物体の立体映像を取り込むことができるタッチ制御装置を提供することである。
本発明の第三の目的は、タッチ制御時の立体映像が動作に対応するタッチ制御装置を提供することである。
A first object of the present invention is to provide a touch control device capable of displaying a stereoscopic image.
A second object of the present invention is to provide a touch control device capable of capturing a stereoscopic image of an object.
A third object of the present invention is to provide a touch control device in which stereoscopic video during touch control corresponds to the operation.
上記課題を解決するため、本発明は下記の立体結像のタッチ制御装置を提供する。
立体結像のタッチ制御装置は、順番に映像ピックアップエンド、CPU、タッチ制御表示エンドに電気的に連接し、
該映像ピックアップエンドは、少なくとも第一映像ピックアップユニット、第二映像ピックアップユニットを備え、予め設置するタッチ制御体、或いは予め設置する物体の第一映像、第二映像をピックアップし、該CPUへと伝送し、
該CPUは、該第一、第二映像に基づき、該予め設置する物体の立体映像、或いは該予め設置するタッチ制御体の動作軌跡を生じ、
該タッチ制御表示エンドは、表示ユニットに連接し、それはタッチ制御ユニットと立体結像ユニットを設置し、該タッチ制御ユニットは、順番にタッチパネルとタッチ制御駆動部品を電気的に連接し、
該立体結像ユニットは、順番に立体結像転換板と立体結像駆動部品を設置し、該タッチパネル、該立体結像転換板、液晶パネルは、上から下へと順番に重なって設置され、
すなわち、該タッチ制御駆動部品、該表示駆動部品、該立体結像駆動部品は、該CPUにそれぞれ電気的に連接し、
該立体映像は、該CPU内の立体映像合成ユニットにより統合後、該タッチ制御表示エンドへと伝送され、該表示ユニットは、該立体映像を表示し、同時に、該立体結像駆動ユニットは、該立体映像を多重映像へと転換し、該多重映像は、肉眼により受け取られることで、立体映像となり、
タッチ制御体が、該タッチ制御表示エンドにおいてタッチ制御を行なう時、該タッチ制御ユニットは、該タッチ制御体の動作軌跡を計算し、該CPUは動作軌跡の変化を記録し、これにより該表示ユニットが表示する立体映像は、該動作軌跡に従い、対応する変化を生じる。
In order to solve the above-described problems, the present invention provides the following stereoscopic imaging touch control device.
The stereoscopic imaging touch control device is in turn electrically connected to the video pickup end, CPU, and touch control display end,
The video pickup end includes at least a first video pickup unit and a second video pickup unit, picks up a first video and a second video of a touch control body to be installed in advance or an object to be installed in advance, and transmits to the CPU And
Based on the first and second images, the CPU generates a three-dimensional image of the pre-installed object or an operation locus of the pre-installed touch control body,
The touch control display end is connected to a display unit, which installs a touch control unit and a stereoscopic imaging unit, and the touch control unit electrically connects the touch panel and the touch control drive component in order,
The stereoscopic imaging unit is installed with a stereoscopic imaging conversion plate and a stereoscopic imaging drive component in order, and the touch panel, the stereoscopic imaging conversion plate, and the liquid crystal panel are installed in an overlapping manner from top to bottom,
That is, the touch control driving component, the display driving component, and the stereoscopic imaging driving component are electrically connected to the CPU, respectively.
The stereoscopic video is integrated by a stereoscopic video synthesis unit in the CPU and then transmitted to the touch control display end. The display unit displays the stereoscopic video, and at the same time, the stereoscopic imaging drive unit The stereoscopic video is converted into a multiplexed video, and the multiplexed video is received by the naked eye to become a stereoscopic video,
When the touch control body performs touch control at the touch control display end, the touch control unit calculates an operation trajectory of the touch control body, and the CPU records a change in the operation trajectory, whereby the display unit The three-dimensional image displayed by the button causes a corresponding change according to the movement locus.
本発明は、バーチャルな立体映像タッチ制御というインタラクティブ効果を達成することができる立体結像のタッチ制御装置を提供する。 The present invention provides a stereoscopic imaging touch control device that can achieve an interactive effect of virtual stereoscopic video touch control.
本発明最適実施例のブロックチャート一、及び二である図1、2に示すように、本発明立体結像のタッチ制御装置は、映像ピックアップエンド1、CPU3、タッチ制御表示エンド7を備える。映像ピックアップエンド1は、少なくとも第一映像ピックアップユニット11、第二映像ピックアップユニット12を備え、予め設置するタッチ制御体の第一、第二映像をピックアップし、或いは近距離内の物体の外観をピックアップする。取り込んだ映像に、より高い立体効果を備えさせるために、映像ピックアップエンド1は、3個、4個、或いはさらに多くの映像ピックアップユニットを設置することができる。一般的に、第一、第二映像ピックアップユニット11、12は、主に、CCD(Charge-coupled Device)で、第一、第二映像を直接生じることができる。他にも、赤外線センサー、或いは超音波センサーなどを、映像ピックアップユニットとすることができ、赤外線或いは超音波などを利用し、タッチ制御体の異なる表面の外観感知信号をピックアップすることができる。本発明のいわゆるタッチ制御体とは、実際の応用時には、人の指、タッチ制御用のタッチペン、或いはタッチ制御に用いることができる物体で、これらもすべて本発明のタッチ制御体の範囲に含むものとする。
As shown in FIGS. 1 and 2 which are
CPU3は、タッチ制御表示エンド7の各ユニットと、電気的に連接する。CPU3は主に、立体映像を受け取り、後述の動作軌跡を受け取り、立体映像の動作軌跡に基づき生じる変化を計算する。例えば、立体映像が三角錐体を表現し、しかも先端部分が使用者の肉眼直視方向に向かっている時、動作軌跡は、上から下に向かい、三角錐体はこれに従い旋回し、底部の平坦面は、使用者の肉眼直視方向に正対応する。上記記述は、例を挙げ、立体映像と動作軌跡との間のインタラクティブ関係を説明するに過ぎず、他任意の角度の旋回、拡大動作、水平或いは垂直の移動なども、本発明の保護範囲に含むものとする。
さらに、CPU3は立体映像合成ユニット2を設置し、第一、第二映像ピックアップユニット11、12と電気的に連接する。これにより、第一、第二映像ピックアップユニット11、12が伝送する第一、第二映像を受け取り、立体映像に合成する。第一、第二映像ピックアップユニット11、12がCCDである時、立体映像合成ユニット2は、第一、第二映像を立体映像信号に統合する。立体映像合成ユニット2は、パララックスバリア法、両目視差法、或いは光源スリット化法などの方式を用いて、立体映像を発生させることができる。
第一、第二映像ピックアップユニット11、12は、タッチ制御体がタッチ制御操作を行う時の第一、第二映像を取り込み、立体映像合成ユニット2は、立体映像を発生させると同時に、タッチ制御体の動作軌跡を計算する。
The
Further, the
The first and second
タッチ制御表示エンド7は、タッチ制御ユニット4、立体結像ユニット5を備え、外部に予め設置する表示ユニット6と連接する。
タッチ制御ユニット4は、タッチパネル42、タッチ制御駆動部品41に、順番に電気的に連接し、しかもタッチ制御駆動部品41とCPU3は電気的に連接する。タッチ制御駆動部品41は、タッチ制御体のタッチパネル42上での動作軌跡を記録し、CPU3に伝送する。タッチパネル42は、電気抵抗式タッチパネル、キャパシター式タッチパネル、赤外線式タッチパネル、光学式タッチパネル、或いは超音波式タッチパネルなどである。いかなる形式のタッチパネル42であろうとも、タッチ制御体が接触すると、タッチ制御駆動部品41は、タッチ制御体移動時の動作軌跡を記録する。動作軌跡は、単一方向への動作の他に、多方向への動作でもよい。指による接触を例とすれば、人差し指と親指が同時にタッチパネル42に接触すると、タッチ制御駆動部品41は、2個の接触点を感知し、2個の接触点の移動方向を記録する。接触点の移動方向は、同方向或いは異なる方向などである。
表示ユニット6は、液晶パネル62と表示駆動部品61を順番に電気的に連接し、しかも表示駆動部品61とCPU3とは電気的に連接する。本実施例では、表示ユニット6は、液晶ディスプレーを例として説明するが、これに限定するものではなく、CRT(Cathode Ray Tube)ディスプレー、液晶ディスプレー(Liquid Crystal Display、LCD)、プラズマディスプレー(Plasma Display Panel、PDP)、SED(Surface conduction electron-emitter)ディスプレー、或いはFEDディスプレー(Field Emission Display)などでもよい。
立体結像ユニット5は順番に、立体結像転換板52と立体結像駆動部品51に電気的に連接し、立体結像駆動部品51はCPU3と電気的に連接する。
立体結像駆動部品51は、立体結像転換板52を駆動する。表示ユニット6が立体映像を発生すると、立体結像転換板52はそれを受け取り、その立体映像を多重映像に転換する。こうして、立体映像は、人の肉眼が映像を受け取る特性に基づき左目と右目がそれぞれ受け取る映像に分割され、肉眼視差を経て受け取られると立体映像となる。立体結像転換板52は、シャッター構造或いはレンチキュラーシートなどを備え、表示ユニット6が発生する立体映像を多重映像に分割することができる。
The touch
The touch control unit 4 is electrically connected to the
The display unit 6 electrically connects the
The stereoscopic imaging unit 5 is in turn electrically connected to the stereoscopic
The stereoscopic
本発明最適実施例のブロックチャート二と作動フローチャート一である図2、4に示すように、本発明は以下の方式に基づき、立体結像を行なう。
(100) CPUは、予め設置する立体映像を表示ユニットへと伝送する。
上記したステップの進行時には、CPU3により、予め設置する立体映像を表示ユニット6へと伝送する。立体映像は、所定の保存メディア内に予め保存することができ、携帯電話、液晶スクリーン、テレビスクリーンにタッチ制御装置を結合した時には、保存メディアはメモリー、メモリーカード、ハードディスク、光ディスクなどである。
(101)表示ユニットは、立体映像を表示し、しかも立体映像は、タッチ制御表示エンドの立体結像ユニットを通過する。
(102)立体結像ユニットは、立体映像を多重映像に転換する。
(103)多重映像は、肉眼視差を経て受け取られると、立体映像となる。
上記したステップの進行時には、表示ユニット6の表示駆動部品61は、CPU3が伝送して来る立体映像を受け取り、液晶パネル62を駆動し、立体映像を表示させる(液晶パネルの映像表示原理は、公開されており、しかも数年を経る技術で、さらに本発明の請求項ではないため、詳述しない)。同時に、立体結像ユニット5の立体結像駆動部品51は、立体結像転換板52の動作を駆動し、立体結像転換板52は液晶パネル62上方に重ねて設置するため、液晶パネル62が生じる立体映像は、立体結像転換板52により多重映像に転換される。こうして、立体映像は、人の肉眼が映像を受け取る特性に基づき左目と右目がそれぞれ受け取る映像に分割され、肉眼視差を経て受け取られると立体映像となる。
As shown in the
(100) The CPU transmits the stereoscopic video set in advance to the display unit.
When the above steps proceed, the
(101) The display unit displays a stereoscopic video, and the stereoscopic video passes through the stereoscopic imaging unit at the touch control display end.
(102) The stereoscopic imaging unit converts the stereoscopic video into a multiplexed video.
(103) The multiplexed video becomes a stereoscopic video when received through the visual parallax.
When the above steps are performed, the
本発明最適実施例のブロックチャート二と作動フローチャート二である図2、5に示すように、本発明は以下の方式に基づき、立体結像のタッチ制御動作を行なう。
(200)表示ユニットは、立体映像を表示する。
上記ステップの進行過程は、上記したフローチャート一と相同であるため、記載しない。
(201)タッチ制御体は、タッチ制御表示エンドにおいてタッチ制御動作を行なう。
上記ステップの進行時には、タッチ制御体は、タッチ制御ユニット4のタッチパネル42に直接接触し、タッチパネル42の表面において直接タッチ制御の動作を行なう。これを、接触式タッチ制御と呼称する。
(202)タッチ制御表示エンドは、タッチ制御体の動作軌跡を計算する。
(203)動作軌跡は、CPUにより表示ユニットへと伝送される。
上記ステップの進行時には、タッチ制御駆動部品41は、タッチ制御体移動時の、単一方向移動、多方向への移動、線形移動、或いは非線形移動などの動作軌跡を記録し、座標演算を経て、動作軌跡の移動量を計算する。
(204)表示ユニットは、動作軌跡に基づき、表示中の立体映像に対応する変化を生じさせる。
上記ステップの進行時には、CPU3が動作軌跡を受け取った後は、動作軌跡は予定の動作に対応し、これにより立体映像は、動作軌跡に基づき、対応する変化を生じる。表示ユニット6が表示する立体映像は、動作軌跡が上から下へと向かえば、この動作に従い、立体映像も上下に旋回し、或いは動作軌跡2個の接触点間の距離が徐々に伸びるなら、立体映像は、これに従い拡大するなどの動作を行なう。同時に、立体結像ユニット5は、立体映像を多重映像に分割する。つまり、左目だけが受け取れる映像と、右目だけが受け取れる映像に分割し、左右両目が、専属の映像をそれぞれ受け取ることで、脳内で立体映像の即時動作効果を生じる。
As shown in FIGS. 2 and 5 which are a
(200) The display unit displays a stereoscopic image.
The progress of the above steps is not described because it is similar to the above flowchart.
(201) The touch control body performs a touch control operation at the touch control display end.
During the progress of the above steps, the touch control body directly touches the
(202) The touch control display end calculates an operation locus of the touch control body.
(203) The operation locus is transmitted to the display unit by the CPU.
At the time of the above step, the touch
(204) The display unit causes a change corresponding to the stereoscopic image being displayed based on the motion trajectory.
At the time of the above step, after the
本発明最適実施例のブロックチャート二と作動フローチャート三である図2、6に示すように、本発明は以下の方式に基づき、立体結像のタッチ制御動作を行なう。
(300)表示ユニットは、立体映像を表示する。
上記ステップの進行過程は、上記したフローチャート一と相同であるため、記載しない。
(301)タッチ制御体は、タッチ制御表示エンドにおいてタッチ制御動作を行なう。
上記ステップの進行時には、タッチ制御体は、タッチ制御ユニット4のタッチパネル42に接近するが、接触せず、タッチパネル42の表面上空においてタッチ制御の動作を行なう。これを、非接触式タッチ制御と呼称する。
(302)映像ピックアップエンドの第一、第二映像ピックアップユニットは、タッチ制御体の第一、第二映像をそれぞれ取り込む。
上記ステップの進行時には、第一、第二映像ピックアップユニット11、12は、タッチ制御体の、正面と反対、或いは左右などの異なる角度の映像を取り込む。
(303)CPUは、第一、第二映像により、タッチ制御体のタッチ制御時の動作軌跡を統合する。
上記ステップの進行時には、立体映像合成ユニット2は、第一、第二映像ピックアップユニット11、12が伝送する第一、第二映像を受け取り、CAD中で見られる3Dシミュレーションなどの立体演算を経て、タッチ制御体の動作軌跡を生じる。
(304)動作軌跡は、CPUを経て、表示ユニットへと伝送される。
(305)表示ユニットは、動作軌跡に基づき、表示中の立体映像に対応する変化を生じさせる。
上記ステップの進行時には、CPU3が動作軌跡を受け取った後は、動作軌跡は予定の動作に対応し、これにより立体映像は、動作軌跡に基づき、対応する変化を生じる。表示ユニット6が表示する立体映像は、この動作に従い、同時に、立体結像ユニット5は、立体映像を多重映像に分割し、左右両目によりそれぞれ受け取ることで、脳内で立体映像の即時動作効果を生じる。
As shown in FIGS. 2 and 6 which are a
(300) The display unit displays a stereoscopic image.
The progress of the above steps is not described because it is similar to the above flowchart.
(301) The touch control body performs a touch control operation at the touch control display end.
At the time of progress of the above steps, the touch control body approaches the
(302) The first and second video pickup units at the video pickup end capture the first and second videos of the touch control body, respectively.
At the time of the above step, the first and second
(303) The CPU integrates the operation trajectory during the touch control of the touch control body by the first and second images.
At the time of the above steps, the stereoscopic
(304) The motion trajectory is transmitted to the display unit via the CPU.
(305) The display unit causes a change corresponding to the stereoscopic image being displayed based on the motion trajectory.
At the time of the above step, after the
1 映像ピックアップエンド
11 第一映像ピックアップユニット
12 第二映像ピックアップユニット
2 立体映像合成ユニット
3 CPU
4 タッチ制御ユニット
41 タッチ制御駆動部品
42 タッチパネル
5 立体結像ユニット
51 立体結像駆動部品
52 立体結像転換板
6 表示ユニット
61 表示駆動部品
62 液晶パネル
7 タッチ制御表示エンド
1
4
Claims (19)
前記映像ピックアップエンドは、少なくとも第一映像ピックアップユニット、第二映像ピックアップユニットを備え、予め設置する物体の第一、第二映像をピックアップし、
前記タッチ制御表示エンドは、タッチ制御ユニット、立体結像ユニットを備え、
前記タッチ制御ユニットは、予め設置するタッチ制御体のタッチ制御時の動作軌跡を記録し、
前記立体結像ユニットは、立体映像を多重映像に転換し、前記多重映像は、肉眼により受け取られることで、立体映像となり、
前記CPUは、前記映像ピックアップエンドと前記タッチ制御表示エンドにそれぞれ電気的に連接し、第一、第二映像を立体映像に合成し、前記動作軌跡を受け取り、前記立体映像と前記動作軌跡を、予め設置する表示ユニットに伝送し、
これにより前記表示ユニットは、前記動作軌跡に基づき、前記立体映像の即時動作を表示することを特徴とする立体結像のタッチ制御装置。 Equipped with video pickup end, CPU and touch control display end
The video pickup end includes at least a first video pickup unit and a second video pickup unit, and picks up first and second videos of an object to be installed in advance,
The touch control display end includes a touch control unit and a stereoscopic imaging unit,
The touch control unit records an operation locus at the time of touch control of a touch control body installed in advance,
The stereoscopic imaging unit converts a stereoscopic image into a multiplexed image, and the multiplexed image is received by the naked eye to become a stereoscopic image,
The CPU is electrically connected to the video pickup end and the touch control display end, respectively, and combines the first and second videos into a stereoscopic video, receives the motion trajectory, the stereoscopic video and the motion trajectory, Transmit to the display unit installed in advance,
Accordingly, the display unit displays an immediate operation of the stereoscopic video based on the motion trajectory, and the stereoscopic imaging touch control device.
前記CPUは、予め設置する立体映像を表示ユニットへと伝送し、
前記表示ユニットは、前記立体映像を表示し、しかも前記立体映像は、前記タッチ制御表示エンドの立体結像ユニットを通過し、
前記立体結像ユニットは、前記立体映像を多重映像に転換し、
前記多重映像は、肉眼により受け取られると、前記予め設置する立体映像となることを特徴とする立体結像のタッチ制御装置。 The touch control device for stereoscopic imaging according to claim 1, wherein the touch control display end performs stereoscopic imaging based on the following method:
The CPU transmits a preinstalled stereoscopic video to the display unit,
The display unit displays the stereoscopic video, and the stereoscopic video passes through the stereoscopic imaging unit at the touch control display end,
The stereoscopic imaging unit converts the stereoscopic video into a multiplexed video,
3. The stereoscopic imaging touch control device according to claim 1, wherein when the multiplexed image is received by the naked eye, the stereoscopic image is set in advance.
前記表示ユニットは、前記立体映像を表示し、
前記タッチ制御体は、前記タッチ制御表示エンドにおいて、タッチ制御動作を行ない、
前記タッチ制御表示エンドは、前記タッチ制御体の動作軌跡を計算し、
前記動作軌跡は、前記CPUにより、前記表示ユニットへと伝送され、
前記表示ユニットは、前記動作軌跡に基づき、表示中の前記立体映像に対応する変化を生じさせることを特徴とする立体結像のタッチ制御装置。 The stereoscopic imaging touch control device according to claim 1, wherein the touch control device performs a stereoscopic imaging touch control operation in the following steps:
The display unit displays the stereoscopic image;
The touch control body performs a touch control operation at the touch control display end,
The touch control display end calculates an operation trajectory of the touch control body,
The movement trajectory is transmitted to the display unit by the CPU,
3. The stereoscopic image touch control device according to claim 1, wherein the display unit generates a change corresponding to the stereoscopic image being displayed based on the motion trajectory.
前記表示ユニットは、前記立体映像を表示し、
前記タッチ制御体は、前記タッチ制御表示エンドにおいて、タッチ制御動作を行ない、
前記映像ピックアップエンドの第一、第二映像ピックアップユニットは、前記タッチ制御体の第一、第二映像をそれぞれ取り込み、
前記CPUは、前記第一、第二映像により、前記タッチ制御体のタッチ制御時の前記動作軌跡を統合し、
前記動作軌跡は、前記CPUを経て、前記表示ユニットへと伝送され、
前記表示ユニットは、前記動作軌跡に基づき、表示中の前記立体映像に対応する変化を生じさせることを特徴とする立体結像のタッチ制御装置。 The stereoscopic imaging touch control device according to claim 1, wherein the touch control device performs a stereoscopic imaging touch control operation in the following steps:
The display unit displays the stereoscopic image;
The touch control body performs a touch control operation at the touch control display end,
The first and second video pickup units at the video pickup end capture the first and second videos of the touch control body,
The CPU integrates the movement locus at the time of touch control of the touch control body by the first and second images,
The operation trajectory is transmitted to the display unit via the CPU,
3. The stereoscopic image touch control device according to claim 1, wherein the display unit generates a change corresponding to the stereoscopic image being displayed based on the motion trajectory.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009119749A JP2010267192A (en) | 2009-05-18 | 2009-05-18 | Touch control device for three-dimensional imaging |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009119749A JP2010267192A (en) | 2009-05-18 | 2009-05-18 | Touch control device for three-dimensional imaging |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010267192A true JP2010267192A (en) | 2010-11-25 |
Family
ID=43364087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009119749A Pending JP2010267192A (en) | 2009-05-18 | 2009-05-18 | Touch control device for three-dimensional imaging |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010267192A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012243038A (en) * | 2011-05-18 | 2012-12-10 | Nintendo Co Ltd | Display control program, display control device, display control system and display control method |
JP2014196089A (en) * | 2013-03-29 | 2014-10-16 | 富士重工業株式会社 | Vehicular display device |
US10067726B2 (en) | 2013-03-29 | 2018-09-04 | Subaru Corporation | Display device for vehicle |
CN108965684A (en) * | 2018-09-28 | 2018-12-07 | 出门问问信息科技有限公司 | Electronic equipment |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0777748A (en) * | 1993-09-09 | 1995-03-20 | Sharp Corp | Three-dimensional display device |
JPH0916312A (en) * | 1995-06-28 | 1997-01-17 | Nomura Kogeisha:Kk | Input device for stereoscopic image display device |
JPH10105735A (en) * | 1996-09-30 | 1998-04-24 | Terumo Corp | Input device and picture display system |
JP2006187592A (en) * | 2004-12-29 | 2006-07-20 | Medison Co Ltd | Device for pivoting ultrasonic oscillator of probe in ultrasonic diagnosis apparatus |
JP2007534428A (en) * | 2004-04-30 | 2007-11-29 | キム,ボンヒョン | Image acquisition / output device and image system for ophthalmic surgery using the same |
JP2008089984A (en) * | 2006-10-02 | 2008-04-17 | Pioneer Electronic Corp | Image display device |
JP2008210359A (en) * | 2007-01-30 | 2008-09-11 | Toyota Motor Corp | Operation device |
-
2009
- 2009-05-18 JP JP2009119749A patent/JP2010267192A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0777748A (en) * | 1993-09-09 | 1995-03-20 | Sharp Corp | Three-dimensional display device |
JPH0916312A (en) * | 1995-06-28 | 1997-01-17 | Nomura Kogeisha:Kk | Input device for stereoscopic image display device |
JPH10105735A (en) * | 1996-09-30 | 1998-04-24 | Terumo Corp | Input device and picture display system |
JP2007534428A (en) * | 2004-04-30 | 2007-11-29 | キム,ボンヒョン | Image acquisition / output device and image system for ophthalmic surgery using the same |
JP2006187592A (en) * | 2004-12-29 | 2006-07-20 | Medison Co Ltd | Device for pivoting ultrasonic oscillator of probe in ultrasonic diagnosis apparatus |
JP2008089984A (en) * | 2006-10-02 | 2008-04-17 | Pioneer Electronic Corp | Image display device |
JP2008210359A (en) * | 2007-01-30 | 2008-09-11 | Toyota Motor Corp | Operation device |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012243038A (en) * | 2011-05-18 | 2012-12-10 | Nintendo Co Ltd | Display control program, display control device, display control system and display control method |
JP2014196089A (en) * | 2013-03-29 | 2014-10-16 | 富士重工業株式会社 | Vehicular display device |
US10067726B2 (en) | 2013-03-29 | 2018-09-04 | Subaru Corporation | Display device for vehicle |
US10613810B2 (en) | 2013-03-29 | 2020-04-07 | Subaru Corporation | Display device for vehicle |
CN108965684A (en) * | 2018-09-28 | 2018-12-07 | 出门问问信息科技有限公司 | Electronic equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7787009B2 (en) | Three dimensional interaction with autostereoscopic displays | |
KR101103435B1 (en) | Digital image capture device with stereoscopic image display and touch control function | |
GB2498184A (en) | Interactive autostereoscopic three-dimensional display | |
GB2523740A (en) | Image encoding and display | |
JPH09121370A (en) | Stereoscopic television device | |
GB2523555A (en) | Image encoding and display | |
CN101562756A (en) | Stereo display device as well as display method and stereo display jointing wall thereof | |
WO2013091201A1 (en) | Method and device for adjusting viewing area, and device for displaying three-dimensional video signal | |
CN205195880U (en) | Watch equipment and watch system | |
KR20120051287A (en) | Image providing apparatus and image providng method based on user's location | |
JPH09238369A (en) | Three-dimension image display device | |
WO2007085194A1 (en) | Stereo image display device with liquid crystal shutter and display method thereof | |
JP2010267192A (en) | Touch control device for three-dimensional imaging | |
KR101119781B1 (en) | Stereo Imaging Touch Device | |
CN102188256A (en) | Medical image generating apparatus, medical image display apparatus, medical image generating method and program | |
KR20120093693A (en) | Stereoscopic 3d display device and method of driving the same | |
CN101908233A (en) | Method and system for producing plural viewpoint picture for three-dimensional image reconstruction | |
KR20110056775A (en) | Gui providing method related to 3d image, and display apparatus and 3d image providing system using the same | |
Kakeya | Real-image-based autostereoscopic display using LCD, mirrors, and lenses | |
CN102073162B (en) | Stereo display equipment and display method thereof | |
KR20120072892A (en) | Method and apparatus for generating anaglyph image using binocular disparity and depth information | |
TW201037574A (en) | Touch-control apparatus of three-dimensional imaging | |
TW201909627A (en) | Synchronized 3D panoramic video playback system | |
JP2012065010A (en) | Remote video monitoring system | |
KR100855040B1 (en) | 3d lcd monitor control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111115 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120410 |