[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2010267192A - Touch control device for three-dimensional imaging - Google Patents

Touch control device for three-dimensional imaging Download PDF

Info

Publication number
JP2010267192A
JP2010267192A JP2009119749A JP2009119749A JP2010267192A JP 2010267192 A JP2010267192 A JP 2010267192A JP 2009119749 A JP2009119749 A JP 2009119749A JP 2009119749 A JP2009119749 A JP 2009119749A JP 2010267192 A JP2010267192 A JP 2010267192A
Authority
JP
Japan
Prior art keywords
touch control
stereoscopic
control device
stereoscopic imaging
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009119749A
Other languages
Japanese (ja)
Inventor
Yu-Chou Yeh
裕洲 葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
J Touch Corp
Original Assignee
J Touch Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by J Touch Corp filed Critical J Touch Corp
Priority to JP2009119749A priority Critical patent/JP2010267192A/en
Publication of JP2010267192A publication Critical patent/JP2010267192A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a touch control device for three-dimensional imaging, which can attain an interactive effect of virtual three-dimensional image touch control. <P>SOLUTION: The touch control device for three-dimensional imaging includes an image pick-up end, a CPU, and a touch control display end electrically connected in order. The touch control display end includes a touch control unit which calculates an operation trace of a touch control body when it performs touch control, and a three-dimensional imaging unit which converts a three-dimensional image to a multiple image. When the touch control display unit is installed on a display unit, a three-dimensional image displayed by the display unit immediately changes based on the operation trace. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明はタッチ制御装置に関し、特に立体映像を表示可能で、タッチ制御時に、該立体映像はこれに従い対応する動作を生じる立体結像のタッチ制御装置に関する。   The present invention relates to a touch control device, and more particularly, to a stereoscopic imaging touch control device capable of displaying a stereoscopic video and generating a corresponding operation in accordance with the stereoscopic video during touch control.

表示技術の進歩に従い、平面表示は既に高解析度、フルカラーの表示効果を達成するに至っている。しかし、平面表示においては、深み、遠近の視覚効果を感じることはできないため、人間の視覚における感覚を満足させるにはなお不十分である。また同時に、表示された物体の他の部分を観察したくとも、映像の転換を待たなければ、異なる方位の映像を観察することはできない。   With the progress of display technology, flat display has already achieved a high resolution and full color display effect. However, in the flat display, the visual effect of depth and perspective cannot be felt, and it is still insufficient to satisfy the sense of human vision. At the same time, even if other parts of the displayed object are to be observed, it is not possible to observe an image of a different direction without waiting for the image to change.

これに対応し、立体映像を表示可能なディスプレーが、次々に開発されている。それらは主に、ある物体に照射した光線は反射し、反射した光線を肉眼が受け取り、それが視覚神経により脳に伝達され、1個の立体的な映像に合成されるというものである。この時の物体は、実際に存在する立体物体であるが、ディスプレー上に立体的な物体を実際に発生させることはできない。そのため、光グリッド技術を用い、ディスプレーが発生する映像を、少なくとも2個に分割し、1個は主に左目が受け取り、もう1個は主に右目が受け取るようにする。こうして脳内に、1個の立体的な映像を表現するのである。   Corresponding to this, displays capable of displaying stereoscopic images have been developed one after another. They mainly reflect light rays that illuminate an object, and the reflected light rays are received by the naked eye, which is transmitted to the brain by the optic nerve and synthesized into a single three-dimensional image. The object at this time is a three-dimensional object that actually exists, but a three-dimensional object cannot be actually generated on the display. Therefore, using the optical grid technology, an image generated by a display is divided into at least two, one received mainly by the left eye and the other received mainly by the right eye. Thus, one stereoscopic image is expressed in the brain.

現在知られている技術には、偏光分割法(Polarization Division)、時間分割法(Time Division)、波長分割法(Wavelength Division)、空間分割法(Spatial Division)がある。
偏光分割法(Polarization Division)は、スクリーンに映像を入力する前に、左右異なる偏光方向の偏光板を通過させるため、得られた映像は2種の異なる偏光方向の映像となる。これにより、1個の偏光は水平方向で、もう1個は垂直方向となり、左右両目の映像の偏光方向が不同となる。使用者が装着する偏光メガネには、左右偏光が相互に垂直なレンズを嵌めてある。偏光メガネの左目は水平偏光レンズで、水平偏光映像だけを通過させ、垂直偏光映像は遮断してしまい、偏光メガネの右目は垂直偏光レンズで、垂直偏光映像だけを通過させ、水平偏光映像は遮断してしまう。
時間分割法(Time Division)は、左右両目の映像が、時間をずらして出現するものである。左目の視野映像を出現させようとする時には、立体メガネの左目の視野だけが開かれ、右目の視野は閉じられる。そして、次には、右目の視野映像を出現させるため、立体メガネの右目の視野が開かれ、左目の視野は閉じられる。すなわち、左目は左目視角の映像だけが見られ、右目は右目視角の映像だけが見られるのである。投射器と立体メガネの対応が非常にうまく行っていれば、立体メガネの2枚のレンズは、毎秒それぞれ60回遮蔽される。我々の大脳は、視覚残像の原理により、左右の目がそれぞれ受け取った映像を1個の立体映像へと合成する。
波長分割法(Wavelength Division)は、映像を先ず、赤味を帯びた映像と緑味を帯びた映像に分割し、観賞者は左目が赤色で右目が緑色のカラーメガネを掛けることで、左目では赤色の左目視角の映像だけが見えて、右目では緑色の右目視角の映像だけが見え、左右異なる色の画面処理を利用し、立体映像を構成するものである。
空間分割法(Spatial Division)は、左右それぞれに独立した表示を行なうディスプレーを使用し、左目ディスプレーは左目の視角画面を表示し、右目ディスプレーは右目の視角画面を表示するものである。或いは、左右映像インターレース(interlace)融合の技術を利用し、さらにレンチキュラーシート(Lenticular Sheet)或いはパララックスバリア(Parallax Barrier)を融合した映像に加え、これにより左右映像がそれぞれ左右目に進入するよう制限する。これが、大脳の自動統合を経て、立体的な映像効果を生じる。
Currently known techniques include a polarization division method, a time division method, a wavelength division method, and a spatial division method.
In the Polarization Division method, before an image is input to the screen, it passes through polarizing plates having different polarization directions, so that the obtained image becomes an image having two different polarization directions. As a result, one polarized light is in the horizontal direction, the other is in the vertical direction, and the polarization directions of the left and right eye images are not the same. Polarized glasses worn by the user are fitted with lenses whose left and right polarized light are perpendicular to each other. The left eye of the polarized glasses is a horizontally polarized lens that passes only the horizontally polarized image and blocks the vertically polarized image, and the right eye of the polarized glasses is the vertically polarized lens that only passes the vertically polarized image and blocks the horizontally polarized image. Resulting in.
In the time division method (Time Division), images of the left and right eyes appear with a time shift. When the left eye field image is to appear, only the left eye field of the stereoscopic glasses is opened and the right eye field is closed. Next, in order to make the visual image of the right eye appear, the visual field of the right eye of the stereoscopic glasses is opened and the visual field of the left eye is closed. That is, the left eye only sees the image of the left viewing angle, and the right eye sees only the image of the right viewing angle. If the correspondence between the projector and the stereoscopic glasses is very good, the two lenses of the stereoscopic glasses are shielded 60 times each second. Our cerebrum synthesizes the images received by the left and right eyes into a single 3D image based on the principle of visual afterimage.
The wavelength division method (Wavelength Division) first divides the image into a reddish image and a greenish image, and the viewer wears color glasses with the left eye red and the right eye green, Only the image of the red left viewing angle can be seen, and the right eye can see only the image of the green right viewing angle, and a three-dimensional image is constructed using screen processing of different colors on the left and right.
In the spatial division method, a display that performs independent display on each of the left and right sides is used, the left-eye display displays the left-eye viewing screen, and the right-eye display displays the right-eye viewing screen. Alternatively, use the interlace fusion technology of the left and right video, and in addition to the video that fused the lenticular sheet (Lenticular Sheet) or the parallax barrier (Parallax Barrier), this restricts the left and right video to enter the left and right eyes respectively To do. This produces a three-dimensional image effect through the automatic integration of the cerebrum.

上記した4種の方法が表現する映像はみな、ある程度の立体効果を備える。しかし、フラットスクリーン上に出現させる立体映像の多くは、画面を観賞する時に、それに対応する立体メガネをかける必要がある。そのため、このような立体表示システムを、Eyeglass-type 3D systemとも呼称する。
Eyeglass-type 3D systemが表示する映像は、良好な立体効果を備えてはいるが、メガネを掛けて観賞する必要があるため、すべての人に受け入れるまでには至っていない。つまり、立体メガネは外観が特殊であることに加え、一般の人にとってなじみのない方式であるため、人が使う上での潜在的な問題が存在している。例えば、ヘッドマウントディスプレー(HMD)では、長時間装着していると、めまい、吐き気などの症状が起きるという報告が多くなされている。よって、何も装着する必要がなく、自由に空間を観賞できるという特徴を持つものこそが、今後の立体映像表示の発展の方向性であろう。
All the images expressed by the four methods described above have a certain degree of stereoscopic effect. However, many stereoscopic images appearing on a flat screen require wearing corresponding glasses when viewing the screen. Therefore, such a stereoscopic display system is also called an Eyeglass-type 3D system.
Although the image displayed by the Eyeglass-type 3D system has a good stereoscopic effect, it must be viewed with glasses, so it has not been accepted by everyone. In other words, in addition to the special appearance of stereoscopic glasses, there is a potential problem in using them because it is a method unfamiliar to ordinary people. For example, there are many reports that symptoms such as dizziness and nausea occur when a head mounted display (HMD) is worn for a long time. Therefore, what has the characteristic that it is not necessary to wear anything and can freely enjoy the space is the future direction of stereoscopic image display.

現行の裸眼可視の3D映像の表示は、レンチキュラーシート、パララックスバリア法、両目視差法、光源スリット化法により実現されている。その内、パララックスバリア法は主に、両目の視差を利用し立体感を生じるものである。2個の角度が異なる映像を取り込み、それを等距離にそれぞれ分割し、垂直の細長い形状とする。続いて、インターレース(interlace)の方式を利用し、左右の映像を交錯融合させることで、融合図形の偶数部分は右映像となり、奇数部分は左映像となる。しかし、立体効果を達成するためには、光通過スリット(Slit)と光を通さないバリア(Barrier)が垂直に交差する光グリッドを融合図形上に置き、スリット及びバリアの幅と左右映像の分割幅を一致させ、バリアの遮蔽作用を利用し、左右目がそれぞれ見る左右映像を制限する必要がある。こうして、両目が見られる映像には差異が生じ、立体的感覚が生まれるのである。しかし、バリア線と融合図形との間には一定の距離を開ける必要があり、さもなければ左右目が交錯した映像をそれぞれ見て、必要な立体感を生じることができない点に、注意を要する。   The display of the current naked-eye visible 3D image is realized by a lenticular sheet, a parallax barrier method, a binocular parallax method, and a light source slitting method. Among them, the parallax barrier method mainly uses the parallax of both eyes to generate a stereoscopic effect. Two images with different angles are captured and divided into equal distances to form a vertically elongated shape. Subsequently, by using an interlace method, the left and right images are interlaced and fused, so that the even portion of the merged figure becomes the right image and the odd portion becomes the left image. However, in order to achieve a three-dimensional effect, a light grid in which a light passage slit (Slit) and a light impervious barrier (Barrier) intersect perpendicularly is placed on the fused figure, and the width of the slit and barrier and the division of the left and right images It is necessary to match the width and use the barrier shielding action to limit the left and right images that the left and right eyes see respectively. In this way, there is a difference between the images in which both eyes are seen, and a three-dimensional sensation is born. However, it is necessary to keep a certain distance between the barrier line and the fusion figure, otherwise it is necessary to watch the video where the left and right eyes cross each other, so that the necessary three-dimensional effect cannot be generated .

立体結像技術の出現後、それに伴い現れた問題として、タッチパネルへの応用がある。タッチ制御技術は、テクノロジーの発展と共に、CRTディスプレー、液晶ディスプレーなどのディスプレーに完全に結合している。よって、ディスプレーが表示する映像が立体映像であれば、使用者はタッチ制御を使用する過程において、該立体映像はこれとインタラクティブでなければならない。よって、いかにして、立体映像とタッチ制御時の動作を対応させ、相対変化を生じさせるかは、本発明の課題である。   One of the problems that emerged after the appearance of stereoscopic imaging technology is its application to touch panels. Touch control technology is fully coupled to displays such as CRT displays and liquid crystal displays as technology develops. Therefore, if the image displayed on the display is a stereoscopic image, the stereoscopic image must be interactive with the user in the process of using the touch control. Therefore, it is an object of the present invention how to make a stereoscopic image and an operation at the time of touch control correspond to generate a relative change.

特許文献1の「Image synthesizing apparatus and method, position detecting apparatus and method, and supply medium」は、連続立体映像の発生方法を掲示する。それは、多数の撮影装置により物体の表面を捕捉後、液晶パネルなどディスプレー上に即時に表示し、座標予測と座標計算などの方式を通して、立体映像の表示をよりリアルにするものである。しかし、該技術では、立体映像を表示することはできるが、立体映像と使用者との間のインタラクティブ技術が提示されていない。つまり、使用者が立体映像を観察する時には、外部のキーボード、マウスなどの入力装置を通して、映像の外部製作、或いは角度の転換を行なう必要がある。これでは、即時立体映像表示の効果が失われてしまう。   Patent Document 1 “Image synthesizing apparatus and method, position detecting apparatus and method, and supply medium” posts a method for generating continuous stereoscopic images. It captures the surface of an object with a large number of photographing devices, immediately displays it on a display such as a liquid crystal panel, and makes stereoscopic display more realistic through methods such as coordinate prediction and coordinate calculation. However, although this technique can display a stereoscopic image, an interactive technique between the stereoscopic image and the user is not presented. That is, when a user observes a stereoscopic image, it is necessary to produce the image or change the angle through an input device such as an external keyboard or mouse. This loses the effect of immediate stereoscopic video display.

米国特許公告第6404913号明細書US Patent Publication No. 6404913

本発明の第一の目的は、立体映像を表示可能なタッチ制御装置を提供することである。
本発明の第二の目的は、物体の立体映像を取り込むことができるタッチ制御装置を提供することである。
本発明の第三の目的は、タッチ制御時の立体映像が動作に対応するタッチ制御装置を提供することである。
A first object of the present invention is to provide a touch control device capable of displaying a stereoscopic image.
A second object of the present invention is to provide a touch control device capable of capturing a stereoscopic image of an object.
A third object of the present invention is to provide a touch control device in which stereoscopic video during touch control corresponds to the operation.

上記課題を解決するため、本発明は下記の立体結像のタッチ制御装置を提供する。
立体結像のタッチ制御装置は、順番に映像ピックアップエンド、CPU、タッチ制御表示エンドに電気的に連接し、
該映像ピックアップエンドは、少なくとも第一映像ピックアップユニット、第二映像ピックアップユニットを備え、予め設置するタッチ制御体、或いは予め設置する物体の第一映像、第二映像をピックアップし、該CPUへと伝送し、
該CPUは、該第一、第二映像に基づき、該予め設置する物体の立体映像、或いは該予め設置するタッチ制御体の動作軌跡を生じ、
該タッチ制御表示エンドは、表示ユニットに連接し、それはタッチ制御ユニットと立体結像ユニットを設置し、該タッチ制御ユニットは、順番にタッチパネルとタッチ制御駆動部品を電気的に連接し、
該立体結像ユニットは、順番に立体結像転換板と立体結像駆動部品を設置し、該タッチパネル、該立体結像転換板、液晶パネルは、上から下へと順番に重なって設置され、
すなわち、該タッチ制御駆動部品、該表示駆動部品、該立体結像駆動部品は、該CPUにそれぞれ電気的に連接し、
該立体映像は、該CPU内の立体映像合成ユニットにより統合後、該タッチ制御表示エンドへと伝送され、該表示ユニットは、該立体映像を表示し、同時に、該立体結像駆動ユニットは、該立体映像を多重映像へと転換し、該多重映像は、肉眼により受け取られることで、立体映像となり、
タッチ制御体が、該タッチ制御表示エンドにおいてタッチ制御を行なう時、該タッチ制御ユニットは、該タッチ制御体の動作軌跡を計算し、該CPUは動作軌跡の変化を記録し、これにより該表示ユニットが表示する立体映像は、該動作軌跡に従い、対応する変化を生じる。
In order to solve the above-described problems, the present invention provides the following stereoscopic imaging touch control device.
The stereoscopic imaging touch control device is in turn electrically connected to the video pickup end, CPU, and touch control display end,
The video pickup end includes at least a first video pickup unit and a second video pickup unit, picks up a first video and a second video of a touch control body to be installed in advance or an object to be installed in advance, and transmits to the CPU And
Based on the first and second images, the CPU generates a three-dimensional image of the pre-installed object or an operation locus of the pre-installed touch control body,
The touch control display end is connected to a display unit, which installs a touch control unit and a stereoscopic imaging unit, and the touch control unit electrically connects the touch panel and the touch control drive component in order,
The stereoscopic imaging unit is installed with a stereoscopic imaging conversion plate and a stereoscopic imaging drive component in order, and the touch panel, the stereoscopic imaging conversion plate, and the liquid crystal panel are installed in an overlapping manner from top to bottom,
That is, the touch control driving component, the display driving component, and the stereoscopic imaging driving component are electrically connected to the CPU, respectively.
The stereoscopic video is integrated by a stereoscopic video synthesis unit in the CPU and then transmitted to the touch control display end. The display unit displays the stereoscopic video, and at the same time, the stereoscopic imaging drive unit The stereoscopic video is converted into a multiplexed video, and the multiplexed video is received by the naked eye to become a stereoscopic video,
When the touch control body performs touch control at the touch control display end, the touch control unit calculates an operation trajectory of the touch control body, and the CPU records a change in the operation trajectory, whereby the display unit The three-dimensional image displayed by the button causes a corresponding change according to the movement locus.

本発明は、バーチャルな立体映像タッチ制御というインタラクティブ効果を達成することができる立体結像のタッチ制御装置を提供する。   The present invention provides a stereoscopic imaging touch control device that can achieve an interactive effect of virtual stereoscopic video touch control.

本発明最適実施例のブロックチャート一である。It is one block chart of the optimal embodiment of the present invention. 本発明最適実施例のブロックチャート二である。It is the block chart 2 of the optimal embodiment of this invention. 本発明最適実施例の立体概略図である。It is a three-dimensional schematic diagram of the optimum embodiment of the present invention. 本発明最適実施例のフローチャート一である。It is one flowchart of this invention optimal embodiment. 本発明最適実施例のフローチャート二である。It is the flowchart 2 of the optimal embodiment of this invention. 本発明最適実施例のフローチャート三である。It is the flowchart 3 of the optimal embodiment of this invention.

本発明最適実施例のブロックチャート一、及び二である図1、2に示すように、本発明立体結像のタッチ制御装置は、映像ピックアップエンド1、CPU3、タッチ制御表示エンド7を備える。映像ピックアップエンド1は、少なくとも第一映像ピックアップユニット11、第二映像ピックアップユニット12を備え、予め設置するタッチ制御体の第一、第二映像をピックアップし、或いは近距離内の物体の外観をピックアップする。取り込んだ映像に、より高い立体効果を備えさせるために、映像ピックアップエンド1は、3個、4個、或いはさらに多くの映像ピックアップユニットを設置することができる。一般的に、第一、第二映像ピックアップユニット11、12は、主に、CCD(Charge-coupled Device)で、第一、第二映像を直接生じることができる。他にも、赤外線センサー、或いは超音波センサーなどを、映像ピックアップユニットとすることができ、赤外線或いは超音波などを利用し、タッチ制御体の異なる表面の外観感知信号をピックアップすることができる。本発明のいわゆるタッチ制御体とは、実際の応用時には、人の指、タッチ制御用のタッチペン、或いはタッチ制御に用いることができる物体で、これらもすべて本発明のタッチ制御体の範囲に含むものとする。   As shown in FIGS. 1 and 2 which are block charts 1 and 2 of the optimal embodiment of the present invention, the stereoscopic imaging touch control device of the present invention includes a video pickup end 1, a CPU 3, and a touch control display end 7. The video pickup end 1 includes at least a first video pickup unit 11 and a second video pickup unit 12, and picks up first and second videos of a touch control body installed in advance or picks up the appearance of an object within a short distance. To do. In order to provide a higher stereoscopic effect to the captured video, the video pickup end 1 can be installed with three, four, or even more video pickup units. Generally, the first and second video pickup units 11 and 12 can directly generate the first and second videos mainly by a CCD (Charge-coupled Device). In addition, an infrared sensor, an ultrasonic sensor, or the like can be used as an image pickup unit, and an appearance detection signal of a different surface of the touch control body can be picked up using infrared rays or ultrasonic waves. The so-called touch control body of the present invention is, in actual application, a human finger, a touch pen for touch control, or an object that can be used for touch control, and these are all included in the scope of the touch control body of the present invention. .

CPU3は、タッチ制御表示エンド7の各ユニットと、電気的に連接する。CPU3は主に、立体映像を受け取り、後述の動作軌跡を受け取り、立体映像の動作軌跡に基づき生じる変化を計算する。例えば、立体映像が三角錐体を表現し、しかも先端部分が使用者の肉眼直視方向に向かっている時、動作軌跡は、上から下に向かい、三角錐体はこれに従い旋回し、底部の平坦面は、使用者の肉眼直視方向に正対応する。上記記述は、例を挙げ、立体映像と動作軌跡との間のインタラクティブ関係を説明するに過ぎず、他任意の角度の旋回、拡大動作、水平或いは垂直の移動なども、本発明の保護範囲に含むものとする。
さらに、CPU3は立体映像合成ユニット2を設置し、第一、第二映像ピックアップユニット11、12と電気的に連接する。これにより、第一、第二映像ピックアップユニット11、12が伝送する第一、第二映像を受け取り、立体映像に合成する。第一、第二映像ピックアップユニット11、12がCCDである時、立体映像合成ユニット2は、第一、第二映像を立体映像信号に統合する。立体映像合成ユニット2は、パララックスバリア法、両目視差法、或いは光源スリット化法などの方式を用いて、立体映像を発生させることができる。
第一、第二映像ピックアップユニット11、12は、タッチ制御体がタッチ制御操作を行う時の第一、第二映像を取り込み、立体映像合成ユニット2は、立体映像を発生させると同時に、タッチ制御体の動作軌跡を計算する。
The CPU 3 is electrically connected to each unit of the touch control display end 7. The CPU 3 mainly receives a stereoscopic video, receives an operation trajectory described later, and calculates a change that occurs based on the motion trajectory of the stereoscopic video. For example, when the 3D image represents a triangular pyramid and the tip is in the direction of the naked eye of the user, the motion trajectory is from top to bottom, the triangular pyramid rotates accordingly, and the bottom is flat. The surface corresponds positively to the user's direct visual direction. The above description only gives an example and explains the interactive relationship between the stereoscopic image and the motion trajectory, and other arbitrary angle turning, enlargement motion, horizontal or vertical movement, etc. are also within the protection scope of the present invention. Shall be included.
Further, the CPU 3 installs the stereoscopic video composition unit 2 and is electrically connected to the first and second video pickup units 11 and 12. As a result, the first and second videos transmitted by the first and second video pickup units 11 and 12 are received and synthesized into a stereoscopic video. When the first and second video pickup units 11 and 12 are CCDs, the stereoscopic video composition unit 2 integrates the first and second videos into the stereoscopic video signal. The stereoscopic video composition unit 2 can generate a stereoscopic video by using a method such as a parallax barrier method, a binocular parallax method, or a light source slitting method.
The first and second video pickup units 11 and 12 capture the first and second videos when the touch control body performs the touch control operation, and the stereoscopic video composition unit 2 generates the stereoscopic video and simultaneously performs touch control. Calculate the motion trajectory of the body.

タッチ制御表示エンド7は、タッチ制御ユニット4、立体結像ユニット5を備え、外部に予め設置する表示ユニット6と連接する。
タッチ制御ユニット4は、タッチパネル42、タッチ制御駆動部品41に、順番に電気的に連接し、しかもタッチ制御駆動部品41とCPU3は電気的に連接する。タッチ制御駆動部品41は、タッチ制御体のタッチパネル42上での動作軌跡を記録し、CPU3に伝送する。タッチパネル42は、電気抵抗式タッチパネル、キャパシター式タッチパネル、赤外線式タッチパネル、光学式タッチパネル、或いは超音波式タッチパネルなどである。いかなる形式のタッチパネル42であろうとも、タッチ制御体が接触すると、タッチ制御駆動部品41は、タッチ制御体移動時の動作軌跡を記録する。動作軌跡は、単一方向への動作の他に、多方向への動作でもよい。指による接触を例とすれば、人差し指と親指が同時にタッチパネル42に接触すると、タッチ制御駆動部品41は、2個の接触点を感知し、2個の接触点の移動方向を記録する。接触点の移動方向は、同方向或いは異なる方向などである。
表示ユニット6は、液晶パネル62と表示駆動部品61を順番に電気的に連接し、しかも表示駆動部品61とCPU3とは電気的に連接する。本実施例では、表示ユニット6は、液晶ディスプレーを例として説明するが、これに限定するものではなく、CRT(Cathode Ray Tube)ディスプレー、液晶ディスプレー(Liquid Crystal Display、LCD)、プラズマディスプレー(Plasma Display Panel、PDP)、SED(Surface conduction electron-emitter)ディスプレー、或いはFEDディスプレー(Field Emission Display)などでもよい。
立体結像ユニット5は順番に、立体結像転換板52と立体結像駆動部品51に電気的に連接し、立体結像駆動部品51はCPU3と電気的に連接する。
立体結像駆動部品51は、立体結像転換板52を駆動する。表示ユニット6が立体映像を発生すると、立体結像転換板52はそれを受け取り、その立体映像を多重映像に転換する。こうして、立体映像は、人の肉眼が映像を受け取る特性に基づき左目と右目がそれぞれ受け取る映像に分割され、肉眼視差を経て受け取られると立体映像となる。立体結像転換板52は、シャッター構造或いはレンチキュラーシートなどを備え、表示ユニット6が発生する立体映像を多重映像に分割することができる。
The touch control display end 7 includes a touch control unit 4 and a stereoscopic imaging unit 5 and is connected to a display unit 6 installed in advance outside.
The touch control unit 4 is electrically connected to the touch panel 42 and the touch control drive component 41 in order, and the touch control drive component 41 and the CPU 3 are electrically connected. The touch control drive component 41 records an operation trajectory of the touch control body on the touch panel 42 and transmits it to the CPU 3. The touch panel 42 is an electrical resistance touch panel, a capacitor touch panel, an infrared touch panel, an optical touch panel, an ultrasonic touch panel, or the like. When the touch control body comes into contact with any type of touch panel 42, the touch control drive component 41 records an operation locus when the touch control body moves. The motion trajectory may be motion in multiple directions in addition to motion in a single direction. Taking contact with a finger as an example, when the index finger and the thumb touch the touch panel 42 at the same time, the touch control drive component 41 senses two contact points and records the moving directions of the two contact points. The moving direction of the contact point is the same direction or a different direction.
The display unit 6 electrically connects the liquid crystal panel 62 and the display driving component 61 in order, and the display driving component 61 and the CPU 3 are electrically connected. In this embodiment, the display unit 6 will be described using a liquid crystal display as an example. However, the present invention is not limited to this, and the display unit 6 is not limited to this, but a CRT (Cathode Ray Tube) display, a liquid crystal display (LCD), a plasma display (Plasma Display). Panel, PDP), SED (Surface conduction electron-emitter) display, or FED display (Field Emission Display) may be used.
The stereoscopic imaging unit 5 is in turn electrically connected to the stereoscopic imaging conversion plate 52 and the stereoscopic imaging drive component 51, and the stereoscopic imaging drive component 51 is electrically connected to the CPU 3.
The stereoscopic imaging drive component 51 drives the stereoscopic imaging conversion plate 52. When the display unit 6 generates a stereoscopic image, the stereoscopic image conversion plate 52 receives it and converts the stereoscopic image into a multiplexed image. Thus, the stereoscopic image is divided into images received by the left eye and the right eye based on the characteristic that the human eye receives the image, and becomes a stereoscopic image when received through the visual parallax. The stereoscopic image conversion plate 52 includes a shutter structure or a lenticular sheet, and can divide a stereoscopic image generated by the display unit 6 into multiple images.

本発明最適実施例のブロックチャート二と作動フローチャート一である図2、4に示すように、本発明は以下の方式に基づき、立体結像を行なう。
(100) CPUは、予め設置する立体映像を表示ユニットへと伝送する。
上記したステップの進行時には、CPU3により、予め設置する立体映像を表示ユニット6へと伝送する。立体映像は、所定の保存メディア内に予め保存することができ、携帯電話、液晶スクリーン、テレビスクリーンにタッチ制御装置を結合した時には、保存メディアはメモリー、メモリーカード、ハードディスク、光ディスクなどである。
(101)表示ユニットは、立体映像を表示し、しかも立体映像は、タッチ制御表示エンドの立体結像ユニットを通過する。
(102)立体結像ユニットは、立体映像を多重映像に転換する。
(103)多重映像は、肉眼視差を経て受け取られると、立体映像となる。
上記したステップの進行時には、表示ユニット6の表示駆動部品61は、CPU3が伝送して来る立体映像を受け取り、液晶パネル62を駆動し、立体映像を表示させる(液晶パネルの映像表示原理は、公開されており、しかも数年を経る技術で、さらに本発明の請求項ではないため、詳述しない)。同時に、立体結像ユニット5の立体結像駆動部品51は、立体結像転換板52の動作を駆動し、立体結像転換板52は液晶パネル62上方に重ねて設置するため、液晶パネル62が生じる立体映像は、立体結像転換板52により多重映像に転換される。こうして、立体映像は、人の肉眼が映像を受け取る特性に基づき左目と右目がそれぞれ受け取る映像に分割され、肉眼視差を経て受け取られると立体映像となる。
As shown in the block chart 2 and the operation flowchart 1 of the optimum embodiment of the present invention, as shown in FIGS. 2 and 4, the present invention performs stereoscopic imaging based on the following method.
(100) The CPU transmits the stereoscopic video set in advance to the display unit.
When the above steps proceed, the CPU 3 transmits a stereoscopic image set in advance to the display unit 6. A stereoscopic image can be stored in advance in a predetermined storage medium. When a touch control device is coupled to a mobile phone, a liquid crystal screen, or a television screen, the storage medium is a memory, a memory card, a hard disk, an optical disk, or the like.
(101) The display unit displays a stereoscopic video, and the stereoscopic video passes through the stereoscopic imaging unit at the touch control display end.
(102) The stereoscopic imaging unit converts the stereoscopic video into a multiplexed video.
(103) The multiplexed video becomes a stereoscopic video when received through the visual parallax.
When the above steps are performed, the display driving component 61 of the display unit 6 receives the stereoscopic video transmitted by the CPU 3 and drives the liquid crystal panel 62 to display the stereoscopic video (the video display principle of the liquid crystal panel is disclosed). It is a technology that has been used for several years and is not a claim of the present invention, and therefore will not be described in detail. At the same time, the stereoscopic imaging drive component 51 of the stereoscopic imaging unit 5 drives the operation of the stereoscopic imaging conversion plate 52, and the stereoscopic imaging conversion plate 52 is placed over the liquid crystal panel 62. The resulting stereoscopic image is converted into a multiplexed image by the stereoscopic image conversion plate 52. Thus, the stereoscopic image is divided into images received by the left eye and the right eye based on the characteristic that the human eye receives the image, and becomes a stereoscopic image when received through the visual parallax.

本発明最適実施例のブロックチャート二と作動フローチャート二である図2、5に示すように、本発明は以下の方式に基づき、立体結像のタッチ制御動作を行なう。
(200)表示ユニットは、立体映像を表示する。
上記ステップの進行過程は、上記したフローチャート一と相同であるため、記載しない。
(201)タッチ制御体は、タッチ制御表示エンドにおいてタッチ制御動作を行なう。
上記ステップの進行時には、タッチ制御体は、タッチ制御ユニット4のタッチパネル42に直接接触し、タッチパネル42の表面において直接タッチ制御の動作を行なう。これを、接触式タッチ制御と呼称する。
(202)タッチ制御表示エンドは、タッチ制御体の動作軌跡を計算する。
(203)動作軌跡は、CPUにより表示ユニットへと伝送される。
上記ステップの進行時には、タッチ制御駆動部品41は、タッチ制御体移動時の、単一方向移動、多方向への移動、線形移動、或いは非線形移動などの動作軌跡を記録し、座標演算を経て、動作軌跡の移動量を計算する。
(204)表示ユニットは、動作軌跡に基づき、表示中の立体映像に対応する変化を生じさせる。
上記ステップの進行時には、CPU3が動作軌跡を受け取った後は、動作軌跡は予定の動作に対応し、これにより立体映像は、動作軌跡に基づき、対応する変化を生じる。表示ユニット6が表示する立体映像は、動作軌跡が上から下へと向かえば、この動作に従い、立体映像も上下に旋回し、或いは動作軌跡2個の接触点間の距離が徐々に伸びるなら、立体映像は、これに従い拡大するなどの動作を行なう。同時に、立体結像ユニット5は、立体映像を多重映像に分割する。つまり、左目だけが受け取れる映像と、右目だけが受け取れる映像に分割し、左右両目が、専属の映像をそれぞれ受け取ることで、脳内で立体映像の即時動作効果を生じる。
As shown in FIGS. 2 and 5 which are a block chart 2 and an operation flowchart 2 of the optimum embodiment of the present invention, the present invention performs a touch control operation for stereoscopic imaging based on the following method.
(200) The display unit displays a stereoscopic image.
The progress of the above steps is not described because it is similar to the above flowchart.
(201) The touch control body performs a touch control operation at the touch control display end.
During the progress of the above steps, the touch control body directly touches the touch panel 42 of the touch control unit 4 and performs a direct touch control operation on the surface of the touch panel 42. This is referred to as contact-type touch control.
(202) The touch control display end calculates an operation locus of the touch control body.
(203) The operation locus is transmitted to the display unit by the CPU.
At the time of the above step, the touch control drive component 41 records an operation trajectory such as single direction movement, multi-direction movement, linear movement, or non-linear movement at the time of touch control body movement, and after performing coordinate calculation, Calculate the movement amount of the motion trajectory.
(204) The display unit causes a change corresponding to the stereoscopic image being displayed based on the motion trajectory.
At the time of the above step, after the CPU 3 receives the motion trajectory, the motion trajectory corresponds to the scheduled motion, thereby causing the stereoscopic video to change correspondingly based on the motion trajectory. The stereoscopic image displayed by the display unit 6 can be moved up and down according to this operation if the operation trajectory goes from top to bottom, or if the distance between the two contact points of the operation trajectory gradually increases. The stereoscopic image is subjected to an operation such as enlargement according to this. At the same time, the stereoscopic imaging unit 5 divides the stereoscopic image into multiple images. That is, the image is divided into a video that can be received only by the left eye and a video that can be received only by the right eye, and the left and right eyes each receive exclusive video, thereby producing an immediate operation effect of the stereoscopic video in the brain.

本発明最適実施例のブロックチャート二と作動フローチャート三である図2、6に示すように、本発明は以下の方式に基づき、立体結像のタッチ制御動作を行なう。
(300)表示ユニットは、立体映像を表示する。
上記ステップの進行過程は、上記したフローチャート一と相同であるため、記載しない。
(301)タッチ制御体は、タッチ制御表示エンドにおいてタッチ制御動作を行なう。
上記ステップの進行時には、タッチ制御体は、タッチ制御ユニット4のタッチパネル42に接近するが、接触せず、タッチパネル42の表面上空においてタッチ制御の動作を行なう。これを、非接触式タッチ制御と呼称する。
(302)映像ピックアップエンドの第一、第二映像ピックアップユニットは、タッチ制御体の第一、第二映像をそれぞれ取り込む。
上記ステップの進行時には、第一、第二映像ピックアップユニット11、12は、タッチ制御体の、正面と反対、或いは左右などの異なる角度の映像を取り込む。
(303)CPUは、第一、第二映像により、タッチ制御体のタッチ制御時の動作軌跡を統合する。
上記ステップの進行時には、立体映像合成ユニット2は、第一、第二映像ピックアップユニット11、12が伝送する第一、第二映像を受け取り、CAD中で見られる3Dシミュレーションなどの立体演算を経て、タッチ制御体の動作軌跡を生じる。
(304)動作軌跡は、CPUを経て、表示ユニットへと伝送される。
(305)表示ユニットは、動作軌跡に基づき、表示中の立体映像に対応する変化を生じさせる。
上記ステップの進行時には、CPU3が動作軌跡を受け取った後は、動作軌跡は予定の動作に対応し、これにより立体映像は、動作軌跡に基づき、対応する変化を生じる。表示ユニット6が表示する立体映像は、この動作に従い、同時に、立体結像ユニット5は、立体映像を多重映像に分割し、左右両目によりそれぞれ受け取ることで、脳内で立体映像の即時動作効果を生じる。
As shown in FIGS. 2 and 6 which are a block chart 2 and an operation flowchart 3 of the optimum embodiment of the present invention, the present invention performs a touch control operation for stereoscopic imaging based on the following method.
(300) The display unit displays a stereoscopic image.
The progress of the above steps is not described because it is similar to the above flowchart.
(301) The touch control body performs a touch control operation at the touch control display end.
At the time of progress of the above steps, the touch control body approaches the touch panel 42 of the touch control unit 4 but does not touch it, and performs a touch control operation over the surface of the touch panel 42. This is called non-contact touch control.
(302) The first and second video pickup units at the video pickup end capture the first and second videos of the touch control body, respectively.
At the time of the above step, the first and second video pickup units 11 and 12 capture videos of different angles such as opposite to the front or left and right of the touch control body.
(303) The CPU integrates the operation trajectory during the touch control of the touch control body by the first and second images.
At the time of the above steps, the stereoscopic video composition unit 2 receives the first and second videos transmitted by the first and second video pickup units 11 and 12, and undergoes a three-dimensional operation such as 3D simulation that can be seen in CAD, An operation trajectory of the touch control body is generated.
(304) The motion trajectory is transmitted to the display unit via the CPU.
(305) The display unit causes a change corresponding to the stereoscopic image being displayed based on the motion trajectory.
At the time of the above step, after the CPU 3 receives the motion trajectory, the motion trajectory corresponds to the scheduled motion, thereby causing the stereoscopic video to change correspondingly based on the motion trajectory. The stereoscopic image displayed by the display unit 6 follows this operation. At the same time, the stereoscopic imaging unit 5 divides the stereoscopic image into multiple images and receives them by the left and right eyes, respectively, so that an immediate operation effect of the stereoscopic image can be obtained in the brain. Arise.

1 映像ピックアップエンド
11 第一映像ピックアップユニット
12 第二映像ピックアップユニット
2 立体映像合成ユニット
3 CPU
4 タッチ制御ユニット
41 タッチ制御駆動部品
42 タッチパネル
5 立体結像ユニット
51 立体結像駆動部品
52 立体結像転換板
6 表示ユニット
61 表示駆動部品
62 液晶パネル
7 タッチ制御表示エンド
1 Video Pickup End 11 First Video Pickup Unit 12 Second Video Pickup Unit 2 Stereoscopic Video Synthesis Unit 3 CPU
4 Touch Control Unit 41 Touch Control Drive Component 42 Touch Panel 5 Stereo Imaging Unit 51 Stereo Imaging Drive Component 52 Stereo Imaging Conversion Plate 6 Display Unit 61 Display Drive Component 62 Liquid Crystal Panel 7 Touch Control Display End

Claims (19)

映像ピックアップエンド、CPU、タッチ制御表示エンドを備え、
前記映像ピックアップエンドは、少なくとも第一映像ピックアップユニット、第二映像ピックアップユニットを備え、予め設置する物体の第一、第二映像をピックアップし、
前記タッチ制御表示エンドは、タッチ制御ユニット、立体結像ユニットを備え、
前記タッチ制御ユニットは、予め設置するタッチ制御体のタッチ制御時の動作軌跡を記録し、
前記立体結像ユニットは、立体映像を多重映像に転換し、前記多重映像は、肉眼により受け取られることで、立体映像となり、
前記CPUは、前記映像ピックアップエンドと前記タッチ制御表示エンドにそれぞれ電気的に連接し、第一、第二映像を立体映像に合成し、前記動作軌跡を受け取り、前記立体映像と前記動作軌跡を、予め設置する表示ユニットに伝送し、
これにより前記表示ユニットは、前記動作軌跡に基づき、前記立体映像の即時動作を表示することを特徴とする立体結像のタッチ制御装置。
Equipped with video pickup end, CPU and touch control display end
The video pickup end includes at least a first video pickup unit and a second video pickup unit, and picks up first and second videos of an object to be installed in advance,
The touch control display end includes a touch control unit and a stereoscopic imaging unit,
The touch control unit records an operation locus at the time of touch control of a touch control body installed in advance,
The stereoscopic imaging unit converts a stereoscopic image into a multiplexed image, and the multiplexed image is received by the naked eye to become a stereoscopic image,
The CPU is electrically connected to the video pickup end and the touch control display end, respectively, and combines the first and second videos into a stereoscopic video, receives the motion trajectory, the stereoscopic video and the motion trajectory, Transmit to the display unit installed in advance,
Accordingly, the display unit displays an immediate operation of the stereoscopic video based on the motion trajectory, and the stereoscopic imaging touch control device.
請求項1記載の立体結像のタッチ制御装置において、前記第一、第二映像ピックアップユニットは、CCD(Charge-coupled Device)であることを特徴とする立体結像のタッチ制御装置。   2. The stereoscopic imaging touch control device according to claim 1, wherein the first and second video pickup units are CCDs (Charge-coupled Devices). 請求項1記載の立体結像のタッチ制御装置において、前記第一、第二映像ピックアップユニットは、赤外線センサーで、前記予め設置する物体の異なる表面の外観感知信号を発生し、前記CPUにより立体映像を合成することを特徴とする立体結像のタッチ制御装置。   2. The stereoscopic imaging touch control device according to claim 1, wherein the first and second video pickup units generate appearance detection signals of different surfaces of the object to be installed in advance using an infrared sensor, and the CPU generates a stereoscopic video. A three-dimensional imaging touch control device characterized by combining the two. 請求項1記載の立体結像のタッチ制御装置において、前記第一、第二映像ピックアップユニットは、超音波センサーで、前記予め設置する物体の異なる表面の外観感知信号を発生し、前記CPUにより立体映像を合成することを特徴とする立体結像のタッチ制御装置。   2. The stereoscopic imaging touch control device according to claim 1, wherein the first and second video pickup units are ultrasonic sensors that generate appearance detection signals of different surfaces of the object to be installed in advance, and the CPU performs three-dimensional imaging. A three-dimensional image touch control device characterized by combining images. 請求項1記載の立体結像のタッチ制御装置において、前記第一、第二映像ピックアップユニットはさらに、前記タッチ制御体の第一、第二映像を取り込むことができ、しかも前記CPUは、前記第一、第二映像により、前記タッチ制御体のタッチ制御動作軌跡を統合することを特徴とする立体結像のタッチ制御装置。   2. The stereoscopic imaging touch control device according to claim 1, wherein the first and second video pickup units can further capture the first and second videos of the touch control body, and the CPU further includes the first and second video pickup units. A touch control apparatus for stereoscopic imaging, wherein the touch control operation trajectory of the touch control body is integrated by the first and second images. 請求項1記載の立体結像のタッチ制御装置において、前記タッチ制御ユニットは、前記タッチ制御体がタッチ制御を行なうタッチパネル、及び前記タッチ制御体の前記動作軌跡を計算するタッチ制御駆動部品を備えることを特徴とする立体結像のタッチ制御装置。   2. The stereoscopic imaging touch control device according to claim 1, wherein the touch control unit includes a touch panel on which the touch control body performs touch control, and a touch control driving component that calculates the operation locus of the touch control body. 3D imaging touch control device characterized by the above. 請求項6記載の立体結像のタッチ制御装置において、前記タッチパネルは、電気抵抗式タッチパネル、キャパシター式タッチパネル、赤外線式タッチパネル、光学式タッチパネル、或いは超音波式タッチパネルのいずれかであることを特徴とする立体結像のタッチ制御装置。   7. The stereoscopic imaging touch control device according to claim 6, wherein the touch panel is one of an electric resistance touch panel, a capacitor touch panel, an infrared touch panel, an optical touch panel, and an ultrasonic touch panel. 3D image touch control device. 請求項1記載の立体結像のタッチ制御装置において、前記立体結像ユニットは、前記立体映像を前記多重映像に転換する立体結像転換板、及び前記立体結像転換板を駆動する立体結像駆動部品を備えることを特徴とする立体結像のタッチ制御装置。   The stereoscopic imaging touch control device according to claim 1, wherein the stereoscopic imaging unit includes a stereoscopic imaging conversion plate that converts the stereoscopic video into the multiplexed video, and a stereoscopic imaging that drives the stereoscopic imaging conversion plate. A stereoscopic imaging touch control device comprising a driving component. 請求項8記載の立体結像のタッチ制御装置において、前記立体結像転換板は、シャッター構造、或いはレンチキュラーシートのいずれかであることを特徴とする立体結像のタッチ制御装置。   9. The stereoscopic imaging touch control device according to claim 8, wherein the stereoscopic imaging conversion plate is a shutter structure or a lenticular sheet. 請求項9記載の立体結像のタッチ制御装置において、前記多重映像は、少なくとも左目映像或いは右目映像に分割されることを特徴とする立体結像のタッチ制御装置。   10. The stereoscopic imaging touch control device according to claim 9, wherein the multiplexed image is divided into at least a left-eye image or a right-eye image. 請求項1記載の立体結像のタッチ制御装置において、前記CPUは、前記第一、第二映像を前記立体映像に合成することができる立体映像合成ユニットを備えることを特徴とする立体結像のタッチ制御装置。   The stereoscopic image touch control device according to claim 1, wherein the CPU includes a stereoscopic image composition unit capable of combining the first and second images with the stereoscopic image. Touch control device. 請求項11記載の立体結像のタッチ制御装置において、前記立体映像合成ユニットは、前記立体映像の合成時に、パララックスバリア法、両目視差法、或いは光源スリット化法のいずれかを用いることを特徴とする立体結像のタッチ制御装置。   12. The stereoscopic image touch control device according to claim 11, wherein the stereoscopic image synthesis unit uses any of a parallax barrier method, a binocular parallax method, and a light source slitting method when the stereoscopic image is synthesized. 3D touch control device. 請求項1記載の立体結像のタッチ制御装置において、前記タッチ制御表示エンドのタッチ制御ユニットは、前記立体結像ユニット上に重ねて設置し、前記立体結像ユニットは、前記表示ユニット上に重ねて設置するため、前記表示ユニットが表示する前記立体映像は、前記立体結像ユニットを通過することを特徴とする立体結像のタッチ制御装置。   2. The stereoscopic imaging touch control device according to claim 1, wherein the touch control unit at the touch control display end is placed on the stereoscopic imaging unit, and the stereoscopic imaging unit is placed on the display unit. Therefore, the stereoscopic image displayed by the display unit passes through the stereoscopic imaging unit, and the stereoscopic imaging touch control device is provided. 請求項1記載の立体結像のタッチ制御装置において、前記表示ユニットは、CRT(Cathode Ray Tube)ディスプレー、液晶ディスプレー(Liquid Crystal Display、LCD)、プラズマディスプレー(Plasma Display Panel、PDP)、SED(Surface conduction electron-emitter)ディスプレー、或いはFEDディスプレー(Field Emission Display)であることを特徴とする立体結像のタッチ制御装置。   3. The stereoscopic imaging touch control device according to claim 1, wherein the display unit includes a CRT (Cathode Ray Tube) display, a liquid crystal display (LCD), a plasma display (Plasma Display Panel, PDP), and an SED (Surface). 3D imaging touch control device characterized by being a conduction electron-emitter) display or an FED display (Field Emission Display). 請求項1記載の立体結像のタッチ制御装置において、前記タッチ制御表示エンドは、以下の方式に基づき立体結像を行い、
前記CPUは、予め設置する立体映像を表示ユニットへと伝送し、
前記表示ユニットは、前記立体映像を表示し、しかも前記立体映像は、前記タッチ制御表示エンドの立体結像ユニットを通過し、
前記立体結像ユニットは、前記立体映像を多重映像に転換し、
前記多重映像は、肉眼により受け取られると、前記予め設置する立体映像となることを特徴とする立体結像のタッチ制御装置。
The touch control device for stereoscopic imaging according to claim 1, wherein the touch control display end performs stereoscopic imaging based on the following method:
The CPU transmits a preinstalled stereoscopic video to the display unit,
The display unit displays the stereoscopic video, and the stereoscopic video passes through the stereoscopic imaging unit at the touch control display end,
The stereoscopic imaging unit converts the stereoscopic video into a multiplexed video,
3. The stereoscopic imaging touch control device according to claim 1, wherein when the multiplexed image is received by the naked eye, the stereoscopic image is set in advance.
請求項1記載の立体結像のタッチ制御装置において、前記タッチ制御装置は、以下のステップで立体結像のタッチ制御動作を行い、
前記表示ユニットは、前記立体映像を表示し、
前記タッチ制御体は、前記タッチ制御表示エンドにおいて、タッチ制御動作を行ない、
前記タッチ制御表示エンドは、前記タッチ制御体の動作軌跡を計算し、
前記動作軌跡は、前記CPUにより、前記表示ユニットへと伝送され、
前記表示ユニットは、前記動作軌跡に基づき、表示中の前記立体映像に対応する変化を生じさせることを特徴とする立体結像のタッチ制御装置。
The stereoscopic imaging touch control device according to claim 1, wherein the touch control device performs a stereoscopic imaging touch control operation in the following steps:
The display unit displays the stereoscopic image;
The touch control body performs a touch control operation at the touch control display end,
The touch control display end calculates an operation trajectory of the touch control body,
The movement trajectory is transmitted to the display unit by the CPU,
3. The stereoscopic image touch control device according to claim 1, wherein the display unit generates a change corresponding to the stereoscopic image being displayed based on the motion trajectory.
請求項16記載の立体結像のタッチ制御装置において、前記タッチ制御体が、前記タッチ制御表示エンドにおいて、タッチ制御動作を行なうステップにおいて、前記タッチ制御動作は、接触式タッチ制御であることを特徴とする立体結像のタッチ制御装置。   17. The stereoscopic imaging touch control device according to claim 16, wherein the touch control body performs a touch control operation at the touch control display end, wherein the touch control operation is a contact type touch control. 3D touch control device. 請求項1記載の立体結像のタッチ制御装置において、前記タッチ制御装置は、以下のステップで立体結像のタッチ制御動作を行い、
前記表示ユニットは、前記立体映像を表示し、
前記タッチ制御体は、前記タッチ制御表示エンドにおいて、タッチ制御動作を行ない、
前記映像ピックアップエンドの第一、第二映像ピックアップユニットは、前記タッチ制御体の第一、第二映像をそれぞれ取り込み、
前記CPUは、前記第一、第二映像により、前記タッチ制御体のタッチ制御時の前記動作軌跡を統合し、
前記動作軌跡は、前記CPUを経て、前記表示ユニットへと伝送され、
前記表示ユニットは、前記動作軌跡に基づき、表示中の前記立体映像に対応する変化を生じさせることを特徴とする立体結像のタッチ制御装置。
The stereoscopic imaging touch control device according to claim 1, wherein the touch control device performs a stereoscopic imaging touch control operation in the following steps:
The display unit displays the stereoscopic image;
The touch control body performs a touch control operation at the touch control display end,
The first and second video pickup units at the video pickup end capture the first and second videos of the touch control body,
The CPU integrates the movement locus at the time of touch control of the touch control body by the first and second images,
The operation trajectory is transmitted to the display unit via the CPU,
3. The stereoscopic image touch control device according to claim 1, wherein the display unit generates a change corresponding to the stereoscopic image being displayed based on the motion trajectory.
請求項18記載の立体結像のタッチ制御装置において、前記タッチ制御体が、前記タッチ制御表示エンドにおいて、タッチ制御動作を行なうステップにおいて、前記タッチ制御動作は、非接触式タッチ制御であることを特徴とする立体結像のタッチ制御装置。   19. The stereoscopic imaging touch control device according to claim 18, wherein the touch control body performs a touch control operation at the touch control display end, wherein the touch control operation is a non-contact touch control. A featured stereoscopic imaging touch control device.
JP2009119749A 2009-05-18 2009-05-18 Touch control device for three-dimensional imaging Pending JP2010267192A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009119749A JP2010267192A (en) 2009-05-18 2009-05-18 Touch control device for three-dimensional imaging

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009119749A JP2010267192A (en) 2009-05-18 2009-05-18 Touch control device for three-dimensional imaging

Publications (1)

Publication Number Publication Date
JP2010267192A true JP2010267192A (en) 2010-11-25

Family

ID=43364087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009119749A Pending JP2010267192A (en) 2009-05-18 2009-05-18 Touch control device for three-dimensional imaging

Country Status (1)

Country Link
JP (1) JP2010267192A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012243038A (en) * 2011-05-18 2012-12-10 Nintendo Co Ltd Display control program, display control device, display control system and display control method
JP2014196089A (en) * 2013-03-29 2014-10-16 富士重工業株式会社 Vehicular display device
US10067726B2 (en) 2013-03-29 2018-09-04 Subaru Corporation Display device for vehicle
CN108965684A (en) * 2018-09-28 2018-12-07 出门问问信息科技有限公司 Electronic equipment

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0777748A (en) * 1993-09-09 1995-03-20 Sharp Corp Three-dimensional display device
JPH0916312A (en) * 1995-06-28 1997-01-17 Nomura Kogeisha:Kk Input device for stereoscopic image display device
JPH10105735A (en) * 1996-09-30 1998-04-24 Terumo Corp Input device and picture display system
JP2006187592A (en) * 2004-12-29 2006-07-20 Medison Co Ltd Device for pivoting ultrasonic oscillator of probe in ultrasonic diagnosis apparatus
JP2007534428A (en) * 2004-04-30 2007-11-29 キム,ボンヒョン Image acquisition / output device and image system for ophthalmic surgery using the same
JP2008089984A (en) * 2006-10-02 2008-04-17 Pioneer Electronic Corp Image display device
JP2008210359A (en) * 2007-01-30 2008-09-11 Toyota Motor Corp Operation device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0777748A (en) * 1993-09-09 1995-03-20 Sharp Corp Three-dimensional display device
JPH0916312A (en) * 1995-06-28 1997-01-17 Nomura Kogeisha:Kk Input device for stereoscopic image display device
JPH10105735A (en) * 1996-09-30 1998-04-24 Terumo Corp Input device and picture display system
JP2007534428A (en) * 2004-04-30 2007-11-29 キム,ボンヒョン Image acquisition / output device and image system for ophthalmic surgery using the same
JP2006187592A (en) * 2004-12-29 2006-07-20 Medison Co Ltd Device for pivoting ultrasonic oscillator of probe in ultrasonic diagnosis apparatus
JP2008089984A (en) * 2006-10-02 2008-04-17 Pioneer Electronic Corp Image display device
JP2008210359A (en) * 2007-01-30 2008-09-11 Toyota Motor Corp Operation device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012243038A (en) * 2011-05-18 2012-12-10 Nintendo Co Ltd Display control program, display control device, display control system and display control method
JP2014196089A (en) * 2013-03-29 2014-10-16 富士重工業株式会社 Vehicular display device
US10067726B2 (en) 2013-03-29 2018-09-04 Subaru Corporation Display device for vehicle
US10613810B2 (en) 2013-03-29 2020-04-07 Subaru Corporation Display device for vehicle
CN108965684A (en) * 2018-09-28 2018-12-07 出门问问信息科技有限公司 Electronic equipment

Similar Documents

Publication Publication Date Title
US7787009B2 (en) Three dimensional interaction with autostereoscopic displays
KR101103435B1 (en) Digital image capture device with stereoscopic image display and touch control function
GB2498184A (en) Interactive autostereoscopic three-dimensional display
GB2523740A (en) Image encoding and display
JPH09121370A (en) Stereoscopic television device
GB2523555A (en) Image encoding and display
CN101562756A (en) Stereo display device as well as display method and stereo display jointing wall thereof
WO2013091201A1 (en) Method and device for adjusting viewing area, and device for displaying three-dimensional video signal
CN205195880U (en) Watch equipment and watch system
KR20120051287A (en) Image providing apparatus and image providng method based on user&#39;s location
JPH09238369A (en) Three-dimension image display device
WO2007085194A1 (en) Stereo image display device with liquid crystal shutter and display method thereof
JP2010267192A (en) Touch control device for three-dimensional imaging
KR101119781B1 (en) Stereo Imaging Touch Device
CN102188256A (en) Medical image generating apparatus, medical image display apparatus, medical image generating method and program
KR20120093693A (en) Stereoscopic 3d display device and method of driving the same
CN101908233A (en) Method and system for producing plural viewpoint picture for three-dimensional image reconstruction
KR20110056775A (en) Gui providing method related to 3d image, and display apparatus and 3d image providing system using the same
Kakeya Real-image-based autostereoscopic display using LCD, mirrors, and lenses
CN102073162B (en) Stereo display equipment and display method thereof
KR20120072892A (en) Method and apparatus for generating anaglyph image using binocular disparity and depth information
TW201037574A (en) Touch-control apparatus of three-dimensional imaging
TW201909627A (en) Synchronized 3D panoramic video playback system
JP2012065010A (en) Remote video monitoring system
KR100855040B1 (en) 3d lcd monitor control system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120410