[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4496823B2 - Image processing apparatus and method, and image display system - Google Patents

Image processing apparatus and method, and image display system Download PDF

Info

Publication number
JP4496823B2
JP4496823B2 JP2004106885A JP2004106885A JP4496823B2 JP 4496823 B2 JP4496823 B2 JP 4496823B2 JP 2004106885 A JP2004106885 A JP 2004106885A JP 2004106885 A JP2004106885 A JP 2004106885A JP 4496823 B2 JP4496823 B2 JP 4496823B2
Authority
JP
Japan
Prior art keywords
image
display unit
user
display
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004106885A
Other languages
Japanese (ja)
Other versions
JP2005293197A (en
Inventor
宏平 浅田
博樹 河西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004106885A priority Critical patent/JP4496823B2/en
Publication of JP2005293197A publication Critical patent/JP2005293197A/en
Application granted granted Critical
Publication of JP4496823B2 publication Critical patent/JP4496823B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Description

本発明は、ディスプレイに表示され、又はプロジェクタを用いて投影される画像に対して臨場感を高める処理を行う画像処理装置及びその方法、並びにそのような画像処理装置を備えた画像表示システムに関する。   The present invention relates to an image processing apparatus and method for performing a process for enhancing the presence of an image displayed on a display or projected using a projector, and an image display system including such an image processing apparatus.

従来より、ヘッドマウントディスプレイ(HMD)を装着することにより、その仮想スクリーンに表示された画像を高い臨場感をもって鑑賞できることが知られている。   Conventionally, it is known that an image displayed on a virtual screen can be appreciated with a high sense of presence by wearing a head mounted display (HMD).

また、半球ドーム型の透過型スクリーンの背面から投影された画像をスクリーンの中心方向から見ることにより、人間の視覚に近い広大な視野の臨場感ある画像を鑑賞できることが知られている(例えば特許文献1参照)。   In addition, it is known that an image projected from the back of a hemispherical dome-shaped transmission screen can be viewed from the center of the screen so that a realistic image with a wide field of view close to human vision can be appreciated (for example, patents). Reference 1).

特開平8−334845号公報JP-A-8-334845

しかしながら、上述したHMDは、物理的な画面そのものが小さい上に両眼に極めて接近させた状態で使用することになるため、ユーザの眼が疲れやすいという問題があった。一方、プロジェクタの画像が投影される半球ドーム型のスクリーンは、物理的な画面が大きいものの、一般家庭に設置して画像を鑑賞することが難しいという問題があった。   However, the above-described HMD is used in a state where the physical screen itself is small and is very close to both eyes, and thus there is a problem that the eyes of the user are easily fatigued. On the other hand, the hemispherical dome type screen on which the image of the projector is projected has a problem that it is difficult to install and appreciate the image even though it has a large physical screen.

本発明は、このような従来の実情に鑑みて提案されたものであり、一般家庭においても容易に臨場感ある画像を鑑賞可能とする画像処理装置及びその方法、並びにそのような画像処理装置を備えた画像表示システムを提供することを目的とする。   The present invention has been proposed in view of such a conventional situation, and an image processing apparatus and method, and an image processing apparatus capable of easily viewing a realistic image even in a general home. An object is to provide an image display system provided.

述した目的を達成するために、本発明に係る画像処理装置及びその方法は、主表示部と該主表示部に隣接して設けられた複数の副表示部に表示する画像に対して所定の処理を施す画像処理装置及びその方法であって、上記表示部の平面を延長してなる仮想平面に展開される仮想画像のうち、上記画像を鑑賞するユーザの視点位置から始まり表示部の周縁部を通る直線群によって切り取られる部分画像を、上記ユーザの視点位置と上記仮想画像上の所定位置とを結ぶ直線と交差する上記副表示部上の位置に該仮想画像上の所定位置を表示させるための画像処理を行うことによって透視変換し、透視変換後の部分画像を上記副表示部に表示させるものである。 To achieve the above mentioned object, an image processing apparatus and method according to the present invention, predetermined for the image to be displayed into a plurality of sub-display unit provided adjacent to the main display unit and the main display unit An image processing apparatus and method for performing the above processing, wherein each display unit starts from a viewpoint position of a user who views the image among virtual images developed on a virtual plane formed by extending the plane of the main display unit A predetermined position on the virtual image at a position on the sub-display unit that intersects a straight line connecting the viewpoint position of the user and the predetermined position on the virtual image. perspective transformation by performing image processing for displaying, the partial image after perspective transformation is intended to be displayed on the secondary display.

また、上述した目的を達成するために、本発明に係る画像表示システムは、主表示部及び該主表示部に隣接して設けられた複数の副表示部と、該主表示部及び該副表示部に表示する画像に対して所定の処理を施す画像処理装置とを備える画像表示システムであって、上記画像処理装置は、上記表示部の平面を延長してなる仮想平面に展開される仮想画像のうち、上記画像を鑑賞するユーザの視点位置から始まり表示部の周縁部を通る直線群によって切り取られる部分画像を、上記ユーザの視点位置と上記仮想画像上の所定位置とを結ぶ直線と交差する上記副表示部上の位置に該仮想画像上の所定位置を表示させるための画像処理を行うことによって透視変換し、透視変換後の部分画像を上記副表示部に表示させる透視変換手段を備えるものである。 In order to achieve the above-described object, an image display system according to the present invention includes a main display unit, a plurality of sub display units provided adjacent to the main display unit , the main display unit, and the sub display. An image display system comprising: an image processing device that performs a predetermined process on an image displayed on a unit , wherein the image processing device is a virtual image that is developed on a virtual plane formed by extending a plane of the main display unit Of the images, a partial image cut out by a group of straight lines starting from the viewpoint position of the user viewing the image and passing through the periphery of each display unit is a straight line connecting the viewpoint position of the user and a predetermined position on the virtual image. perspective transformation by performing image processing for a position on the sub-display section intersecting displaying a predetermined position on the virtual image, perspective transformation means for the partial image after perspective transformation is displayed on the secondary display Ru with a Than is.

このような画像処理装置及びその方法、並びに画像表示システムでは、仮想平面に展開される仮想画像のうち、画像表示部に表示する画像を鑑賞するユーザの視点位置から始まり画像表示部の周縁部を通る直線群によって切り取られる部分画像を透視変換し、透視変換後の部分画像を画像表示部に表示させる。   In such an image processing apparatus and method, and an image display system, the peripheral portion of the image display unit starts from the viewpoint position of the user who views the image displayed on the image display unit among the virtual images developed on the virtual plane. The partial image cut by the passing straight line group is perspective-transformed, and the partial image after the perspective transformation is displayed on the image display unit.

また、上述した目的を達成するために、本発明に係る画像処理装置及びその方法は、各表示要素が位置情報を有する3次元仮想空間を2次元画像として主表示部と該主表示部に隣接して設けられた複数の副表示部に表示させる画像処理装置及びその方法であって、上記3次元仮想空間のうち、上記2次元画像を鑑賞するユーザの視点位置から始まり表示部の周縁部を通る直線群によって囲まれる部分空間の各表示要素を上記視点位置を中心とする座標系に変換し、座標変換後の各表示要素を各画像表示部にレンダリングするものであり、該座標系への変換処理では、上記部分空間の各表示要素を、上記ユーザの視点位置と上記主表示部の平面を延長してなる仮想平面に展開される上記仮想画像上の所定位置とを結ぶ直線と交差する上記副表示部上の位置に該仮想画像上の所定位置を表示させるための座標系に変換することにより透視変換するものである。 In order to achieve the above-described object, the image processing apparatus and method according to the present invention provide a three-dimensional virtual space in which each display element has position information as a two-dimensional image and adjacent to the main display unit and the main display unit. a plurality of image processing apparatus and method to be displayed on the sub-display unit provided with, among the 3-dimensional virtual space, the periphery of the display unit starts from the viewpoint position of a user viewing the two-dimensional image It converts each display element of the subspace surrounded by the coordinate system centered on the viewpoint position by a group of straight lines passing through the state, and are not to render the display elements after the coordinate transformation to each image display unit, the coordinate system In the conversion process, each display element of the partial space is a straight line connecting the user's viewpoint position and a predetermined position on the virtual image developed on a virtual plane obtained by extending the plane of the main display unit. The above subtables that intersect It is to perspective transformation by converting the coordinate system for the position on the part to display a predetermined position on the virtual image.

また、上述した目的を達成するために、本発明に係る画像表示システムは、表示要素が位置情報を有する3次元仮想空間を2次元画像として主表示部と該主表示部に隣接して設けられた複数の副表示部に表示させる画像表示システムであって、上記画像処理装置は、上記3次元仮想空間のうち、上記2次元画像を鑑賞するユーザの視点位置から始まり各画像表示部の周縁部を通る直線群によって囲まれる部分空間の各表示要素を上記視点位置を中心とする座標系に変換する座標変換手段と、座標変換後の各表示要素を各画像表示部にレンダリングするレンダリング手段とを備え、上記座標変換手段は、上記部分空間の各表示要素を、上記ユーザの視点位置と上記主表示部の平面を延長してなる仮想平面に展開される上記仮想画像上の所定位置とを結ぶ直線と交差する上記副表示部上の位置に該仮想画像上の所定位置を表示させるための座標系に変換することにより透視変換するものである。 In order to achieve the above-described object, an image display system according to the present invention provides a three-dimensional virtual space in which each display element has position information as a two-dimensional image , adjacent to the main display unit and the main display unit. An image display system for displaying on a plurality of sub-display units , wherein the image processing device starts from a viewpoint position of a user who views the two-dimensional image in the three-dimensional virtual space, and has a peripheral edge of each image display unit A coordinate conversion means for converting each display element in a partial space surrounded by a group of straight lines passing through the section into a coordinate system centered on the viewpoint position, and a rendering means for rendering each display element after the coordinate conversion on each image display section; the provided, it said coordinate transformation means, each display element of the subspace, a predetermined position on the virtual image is developed into a virtual plane formed by extending the viewpoint position and the plane of the main display unit of the user It is to perspective transformation by converting the coordinate system for displaying a predetermined position on the virtual image position on the sub-display section which intersects a line drawn from and.

このような画像処理装置及びその方法、並びに画像表示システムでは、各表示要素が位置情報を有する3次元仮想空間を2次元画像として画像表示部に表示させる際に、3次元仮想空間のうち、2次元画像を鑑賞するユーザの視点位置から始まり画像表示部の周縁部を通る直線群によって囲まれる部分空間の各表示要素を上記視点位置を中心とする座標系に変換し、座標変換後の各表示要素を画像表示部にレンダリングする。   In such an image processing apparatus and method, and an image display system, when a three-dimensional virtual space in which each display element has position information is displayed on the image display unit as a two-dimensional image, two of the three-dimensional virtual spaces are displayed. Each display element in the subspace surrounded by a group of straight lines starting from the viewpoint position of the user viewing the three-dimensional image and passing through the peripheral edge of the image display section is converted into a coordinate system centered on the viewpoint position, and each display after coordinate conversion Render the element to the image display.

本発明に係る画像処理装置及びその方法、並びに画像表示システムでは、仮想平面に展開される仮想画像のうち、画像表示部に表示する画像を鑑賞するユーザの視点位置から始まり画像表示部の周縁部を通る直線群によって切り取られる部分画像を透視変換し、透視変換後の部分画像を画像表示部に表示させるため、画像表示部がユーザの視線方向に対して斜めに配置されている場合には、より大きな仮想画像が透視変換により画像表示部に表示されることとなり、ユーザは、高い臨場感をもって画像を鑑賞することができる。   In the image processing apparatus and method, and the image display system according to the present invention, the peripheral portion of the image display unit starts from the viewpoint position of the user viewing the image displayed on the image display unit among the virtual images developed on the virtual plane. When the image display unit is arranged obliquely with respect to the direction of the user's line of sight, the partial image cut by the group of straight lines passing through is perspective-transformed and the partial image after perspective transformation is displayed on the image display unit. A larger virtual image is displayed on the image display unit by perspective transformation, and the user can appreciate the image with a high sense of reality.

また、本発明に係る画像処理装置及びその方法、並びに画像表示システムでは、各表示要素が位置情報を有する3次元仮想空間を2次元画像として画像表示部に表示させる際に、3次元仮想空間のうち、2次元画像を鑑賞するユーザの視点位置から始まり画像表示部の周縁部を通る直線群によって囲まれる部分空間の各表示要素を上記視点位置を中心とする座標系に変換し、座標変換後の各表示要素を画像表示部にレンダリングするため、ユーザの動きに伴って3次元仮想空間の見え方が変化するのみならず、画像表示部がユーザの視線方向に対して斜めに配置されている場合には、より大きな2次元画像が画像表示部に表示されることとなり、ユーザは、高い臨場感をもって3次元仮想空間に没入することができる。   Further, in the image processing apparatus and method and the image display system according to the present invention, when the three-dimensional virtual space in which each display element has position information is displayed on the image display unit as a two-dimensional image, Among them, each display element in the subspace surrounded by a group of straight lines starting from the viewpoint position of the user viewing the two-dimensional image and passing through the peripheral edge of the image display section is converted into a coordinate system centered on the viewpoint position, and after the coordinate conversion In order to render each display element on the image display unit, not only the appearance of the three-dimensional virtual space changes with the movement of the user, but also the image display unit is arranged obliquely with respect to the user's line-of-sight direction. In this case, a larger two-dimensional image is displayed on the image display unit, and the user can be immersed in the three-dimensional virtual space with a high sense of reality.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

(第1の実施の形態)
一般に、図1(A)のようにユーザ正面にある1つのディスプレイ10に画像を表示する場合よりも、図1(B)のようにユーザ正面にあるメインディスプレイ20の左右にサブディスプレイ21,22を接続し、これらの3面のディスプレイ20〜22に亘って1つの画像を表示する方が、ユーザは高い臨場感をもって画像を鑑賞することができる。すなわち、図1(B)のようにサブディスプレイ21,22を接続した分だけ表示可能な画面が水平方向に広がるため、表示イメージIの水平方向の範囲を図1(A)の場合のA−A’からB−B’に広げることができる。この結果、ユーザの視界に対して図1(A)の場合の視野角R1よりも大きな視野角R2を占有することになり、高い臨場感を与えることが可能となる。
(First embodiment)
In general, rather than displaying an image on one display 10 in front of the user as shown in FIG. 1A, the sub-displays 21 and 22 on the left and right of the main display 20 in front of the user as shown in FIG. And displaying one image across these three displays 20 to 22 allows the user to appreciate the image with a higher sense of realism. That is, as shown in FIG. 1B, the displayable screen spreads in the horizontal direction as much as the sub-displays 21 and 22 are connected. Therefore, the horizontal range of the display image I is set to A− in the case of FIG. It can be expanded from A ′ to BB ′. As a result, the viewing angle R2 larger than the viewing angle R1 in the case of FIG. 1A is occupied for the user's field of view, and a high sense of presence can be given.

これに対して、本実施の形態では、図1(C)に示すように、視野角R3が図1(B)の場合の視野角R2よりも大きくなるように左右のサブディスプレイ21,22をユーザの側に向けて角度を付けて接続し、仮想ディスプレイVD(仮想平面)上の水平方向がA−C、A’−C’の範囲に表示すべき表示イメージI(仮想画像)をそれぞれサブディスプレイ21,22に表示する。これにより、図2に示すように、図1(B)の場合よりも仮想ディスプレイVD上のB−C、B’−C’の範囲だけ表示イメージIの水平方向の範囲を広げることができ、図1(B)の場合よりもさらに臨場感を高めることができる。   In contrast, in the present embodiment, as shown in FIG. 1C, the left and right sub-displays 21 and 22 are arranged so that the viewing angle R3 is larger than the viewing angle R2 in the case of FIG. A display image I (virtual image) to be displayed in a range in which the horizontal direction on the virtual display VD (virtual plane) is in the range of AC and A′-C ′ is connected to the user at an angle. Displayed on the displays 21 and 22. Thereby, as shown in FIG. 2, the horizontal range of the display image I can be expanded by the range of BC and B′-C ′ on the virtual display VD as compared with the case of FIG. The sense of reality can be further increased as compared with the case of FIG.

ここで、本実施の形態では、サブディスプレイ21,22がユーザの側に向けて角度を付けて接続されているため、仮想ディスプレイVD上の表示イメージIをそのままサブディスプレイ21,22に表示した場合には、歪んだ画像となってしまう。   Here, in the present embodiment, since the sub-displays 21 and 22 are connected at an angle toward the user, the display image I on the virtual display VD is displayed on the sub-displays 21 and 22 as they are. Will result in a distorted image.

そこで、本実施の形態では、ユーザ正面にあるメインディスプレイ20とその左右にあるサブディスプレイ21,22とのなす角度に応じて、仮想ディスプレイVD上の表示イメージIをサブディスプレイ21,22に射影する透視変換を行う。   Therefore, in the present embodiment, the display image I on the virtual display VD is projected onto the sub-displays 21 and 22 according to the angle formed by the main display 20 in front of the user and the sub-displays 21 and 22 on the left and right. Perform perspective transformation.

具体的には、図3に示すように、ユーザの左右の眼の中間位置(視点位置)Oと、例えばメインディスプレイ20の左側にある仮想ディスプレイVDの各画像部分(P1,P2,P3,・・・)とを直線で結び、この直線とサブディスプレイ21とが交差する位置(P1’,P2’,P3’,・・・)に対して対応する画像部分を表示するような画像処理を行う。図3はユーザの上方から見た図であり、水平方向についての例であるが、垂直方向についても同様の画像処理を行う。   Specifically, as shown in FIG. 3, each image portion (P1, P2, P3,...) Of the intermediate position (viewpoint position) O between the left and right eyes of the user and the virtual display VD on the left side of the main display 20, for example. ..) Are connected by a straight line, and image processing is performed to display a corresponding image portion at a position (P1 ′, P2 ′, P3 ′,...) Where the straight line and the sub-display 21 intersect. . FIG. 3 is a view as seen from above the user, and is an example in the horizontal direction, but the same image processing is also performed in the vertical direction.

このような画像処理を行った場合、ユーザからは図4(A)中斜線で示す領域に表示された画像を鑑賞することができ、この斜線領域が仮想ディスプレイVDの有効範囲となる。このように、サブディスプレイ21,22がユーザの側に向けて角度を付けて接続されている場合であっても、上述の画像処理を施すことにより、ユーザは1つの大型ディスプレイを見ているかのように錯覚するため、高い没入感が得られる。   When such image processing is performed, the user can appreciate the image displayed in the area indicated by the hatched line in FIG. 4A, and this hatched area is the effective range of the virtual display VD. Thus, even if the sub-displays 21 and 22 are connected at an angle toward the user, by performing the above-described image processing, the user is viewing one large display. Therefore, a high immersive feeling can be obtained.

このとき、ユーザが例えばサブディスプレイ21の方向を向いた場合には、図4(B)中斜線で示すような領域形状の画像が見えてしまうことになる。しかしながら、本実施の形態はユーザの視線方向がユーザ正面のメインディスプレイ20である場合を想定したものであり、サブディスプレイ21,22は、少ない画像歪み感にて視界の多くを占有するために設けられた、視覚に対して補助的な役割を果たすものであるため、問題とはならない。   At this time, for example, when the user faces the direction of the sub-display 21, an image having a region shape as shown by the oblique lines in FIG. However, the present embodiment assumes that the user's line-of-sight direction is the main display 20 in front of the user, and the sub-displays 21 and 22 are provided to occupy most of the field of view with less image distortion. This is not a problem because it plays an auxiliary role for vision.

なお、図4(B)で示す斜線領域のみならず、サブディスプレイ21,22の全体に画像を表示しても構わない。但し、図4(B)のように表示することで、ユーザからは図4(A)中斜線で示す領域に表示された画像を鑑賞することができ、ユーザは1つの大型ディスプレイを見ているかのように錯覚することにより高い没入感が得られるため、斜線部分のみに画像を表示することが好ましい。   Note that an image may be displayed not only on the shaded area shown in FIG. 4B but also on the entire sub-displays 21 and 22. However, by displaying as shown in FIG. 4B, the user can view the image displayed in the hatched area in FIG. 4A, and is the user watching one large display? Since an illusion such as this provides a high immersive feeling, it is preferable to display an image only in the shaded area.

また、上述の画像処理では、ユーザの左右の眼の中間位置(視点位置)Oと仮想ディスプレイVD上の各画像部分とを結んで透視変換を行っているため、実際に左右の眼で画像を見た場合には視差により若干の歪みが生じる。しかしながら、上述したように、本実施の形態はユーザの視線方向がユーザ正面のメインディスプレイ20である場合を想定したものであり、この場合、視界の端に位置するサブディスプレイ21,22に対する分解能が悪く、完全にフォーカスが合っていなくても十分な没入感が得られるため、問題とはならない。   In the image processing described above, since the perspective transformation is performed by connecting the intermediate position (viewpoint position) O between the left and right eyes of the user and each image portion on the virtual display VD, the image is actually displayed with the left and right eyes. When viewed, some distortion occurs due to parallax. However, as described above, the present embodiment assumes that the user's line-of-sight direction is the main display 20 in front of the user. In this case, the resolution for the sub-displays 21 and 22 located at the end of the field of view is low. It's bad, and it doesn't matter because you can get enough immersion even if it's not completely in focus.

ところで、図3に示すようなサブディスプレイ21,22に画像を表示するための画像処理は、ユーザの位置が固定されており、且つ正面方向を向いている場合にのみ有効である。すなわち、メインディスプレイ20又はサブディスプレイ21,22に対するユーザの位置、或いはメインディスプレイ20とサブディスプレイ21,22とのなす角度の何れか一方でも変更された場合には、ユーザは歪んだ画像を鑑賞してしまうことになる。   Incidentally, the image processing for displaying images on the sub-displays 21 and 22 as shown in FIG. 3 is effective only when the position of the user is fixed and facing the front direction. That is, when either the position of the user with respect to the main display 20 or the sub-displays 21 or 22 or the angle between the main display 20 and the sub-displays 21 and 22 is changed, the user views the distorted image. It will end up.

そこで、本実施の形態では、ユーザ位置とサブディスプレイ21,22の角度とを検出し、この検出結果に基づいて、サブディスプレイ21,22に表示する画像を自動的に補正する。   Therefore, in the present embodiment, the user position and the angles of the sub-displays 21 and 22 are detected, and the images displayed on the sub-displays 21 and 22 are automatically corrected based on the detection result.

ここで、ユーザ位置を検出する際には、CCD(Charge Coupled Device)カメラを用いることができる。また、サブディスプレイ21,22は蝶番等により機構的にメインディスプレイ20に接続されているため、角度検出は容易である。   Here, when detecting the user position, a CCD (Charge Coupled Device) camera can be used. Further, since the sub-displays 21 and 22 are mechanically connected to the main display 20 by hinges or the like, the angle detection is easy.

勿論、メインディスプレイ20に対してサブディスプレイ21,22が固定されている場合にはユーザ位置検出のみを行えばよく、ユーザ位置がディスプレイや機器の大きさ、取り扱い方によってほぼ決められている場合にはサブディスプレイ21,22の角度検出のみを行えばよい。   Of course, when the sub-displays 21 and 22 are fixed to the main display 20, only the user position needs to be detected. When the user position is almost determined by the size and handling of the display and equipment. Need only detect the angle of the sub-displays 21 and 22.

以上、画像を表示する表示部が自発光型のディスプレイである場合を例として説明したが、プロジェクタを用いて画像をスクリーンに投影する場合も同様である。すなわち、ユーザ正面にあるメインスクリーンの左右にサブスクリーンを接続し、3台のプロジェクタにより上述と同様に画像処理した画像をメインスクリーン及びサブスクリーンに投影することで、ユーザからは図4(A)中の斜線領域と同様の領域に投影された画像を鑑賞することができる。これにより、ユーザは1つの大型スクリーンを見ているかのように錯覚し、高い没入感が得られる。   The case where the display unit that displays an image is a self-luminous display has been described above as an example. That is, the sub-screen is connected to the left and right of the main screen in front of the user, and images processed by the three projectors in the same manner as described above are projected onto the main screen and the sub-screen. An image projected on the same area as the hatched area in the middle can be viewed. Thereby, the user has an illusion as if he / she is looking at one large screen, and a high immersive feeling is obtained.

以上の処理を行う本実施の形態における画像処理装置の概略構成を図5に示す。図5に示す画像処理装置30において、画像領域分解部31は、入力された2次元画像データをメインディスプレイ又はメインスクリーンに表示する領域と2つのサブディスプレイ又はサブスクリーンに表示する領域とに分解し、各部分画像データを透視変換部33〜35に供給する。   FIG. 5 shows a schematic configuration of the image processing apparatus in the present embodiment that performs the above processing. In the image processing apparatus 30 shown in FIG. 5, the image area decomposition unit 31 decomposes the input two-dimensional image data into an area to be displayed on the main display or main screen and an area to be displayed on two sub-displays or sub-screens. The partial image data is supplied to the perspective conversion units 33 to 35.

一方、画角変更部32は、CCDカメラ等によって検出されたユーザ位置とサブディスプレイ又はサブスクリーンの角度とに基づいて仮想カメラの画角を変更し、変更後の画角を透視変換部33〜35に供給する。ここで、仮想カメラとは、メインディスプレイ又はメインスクリーンとサブディスプレイ又はサブスクリーンとに対応してユーザの視点位置に仮想的に設けられるものである。また、仮想カメラの画角とは、視点位置から各ディスプレイ又はスクリーンを見たときの視野角に対応するものである。   On the other hand, the angle-of-view changing unit 32 changes the angle of view of the virtual camera based on the user position detected by the CCD camera or the like and the angle of the sub-display or sub-screen, and changes the changed angle of view to the perspective conversion units 33 to 33. 35. Here, the virtual camera is virtually provided at the viewpoint position of the user corresponding to the main display or main screen and the sub display or sub screen. The angle of view of the virtual camera corresponds to the viewing angle when each display or screen is viewed from the viewpoint position.

そして、透視変換部33〜35は、画角変更部32から供給された変更後の画角に基づいて、画像領域分解部31から供給された部分画像データに対して上述の透視変換を行う。透視変換部33〜35は、透視変換後の部分画像データをメインディスプレイ及びサブディスプレイに表示させるか、又は3台のプロジェクタに供給してメインスクリーン及びサブスクリーンに投影させる。   The perspective conversion units 33 to 35 perform the above-described perspective conversion on the partial image data supplied from the image region decomposition unit 31 based on the changed view angle supplied from the view angle changing unit 32. The perspective conversion units 33 to 35 display the partial image data after the perspective conversion on the main display and the sub display, or supply the partial image data to three projectors and project them on the main screen and the sub screen.

この例では、3つのディスプレイに画像を表示し、又は3台のプロジェクタで3つのスクリーンに対して画像を投影するものとして説明したが、図1(C)のような形状の1つのディスプレイに画像を表示し、又は1台のプロジェクタで図1(C)と同様の形状のスクリーンに対して画像を投影するようにしても構わない。この場合、図6に示すように、画像処理装置30に画像結合部36を追加すればよい。この画像結合部36は、透視変換部33〜35から供給された透視変換後の部分画像データを1つの画像に結合し、図1(C)のような形状の1つのディスプレイに表示させるか、又は1台のプロジェクタに供給して図1(C)と同様の形状のスクリーンに投影させる。   In this example, it has been described that images are displayed on three displays, or images are projected on three screens with three projectors. However, images are displayed on one display having a shape as shown in FIG. May be displayed, or an image may be projected onto a screen having the same shape as in FIG. In this case, an image combining unit 36 may be added to the image processing apparatus 30 as shown in FIG. The image combining unit 36 combines the partial image data after the perspective conversion supplied from the perspective conversion units 33 to 35 into one image and displays it on one display having a shape as shown in FIG. Or it supplies to one projector and it projects on the screen of the shape similar to FIG.1 (C).

このような画像処理装置30の具体的な適用例を図7乃至図10に示す。
先ず、図7(A)は、部屋の側壁に3面のスクリーン40〜42を設置し、3台のプロジェクタ50〜52を用いてこの3面のスクリーン40〜42に対してスクリーン正面から画像を投影するものである。この場合、ユーザ正面のスクリーンがメインスクリーン40、左右のスクリーンがサブスクリーン41,42となり、上述した画像処理装置30は、サブスクリーン41,42に画像を投影するプロジェクタ51,52にハードウェア又はソフトウェアとして搭載される。この画像処理装置30により上述した画像処理を行うことで、ユーザは、メインスクリーン40だけでは得られない非常に大きな仮想スクリーンVSに表示された映画やテレビジョン映像等のコンテンツを鑑賞することができる。
Specific application examples of such an image processing apparatus 30 are shown in FIGS.
First, in FIG. 7A, three screens 40 to 42 are installed on the side wall of the room, and images are displayed from the front of the screen with respect to the three screens 40 to 42 using the three projectors 50 to 52. To project. In this case, the screen in front of the user is the main screen 40, and the left and right screens are the sub screens 41 and 42. The above-described image processing apparatus 30 is provided with hardware or software on the projectors 51 and 52 that project images onto the sub screens 41 and 42. As mounted. By performing the above-described image processing by the image processing apparatus 30, the user can appreciate contents such as movies and television images displayed on a very large virtual screen VS that cannot be obtained only by the main screen 40. .

なお、図7(A)のような反射型のスクリーン40〜42に限らず、図7(B)のような透過型のスクリーン60〜62を用いるようにしても構わない。   In addition, you may make it use not only the reflective screens 40-42 like FIG. 7 (A) but the transmissive screens 60-62 like FIG. 7 (B).

次に、図8は、例えばユーザの寝室において、1台のプロジェクタ70を用いて天井及び側壁に対して画像を投影するものである。この場合、プロジェクタ70にハードウェア又はソフトウェアとして搭載された画像処理装置30は、側壁に投影する画像に対して上述したような画像処理を行う。この画像処理装置30により、天井が狭い場合であっても、ユーザは、非常に大きな仮想スクリーンVSに表示された映画やテレビジョン映像等のコンテンツを鑑賞することができる。   Next, FIG. 8 shows an image projected onto the ceiling and side walls using one projector 70 in the user's bedroom, for example. In this case, the image processing apparatus 30 mounted as hardware or software on the projector 70 performs the above-described image processing on the image projected on the side wall. With this image processing device 30, even when the ceiling is narrow, the user can appreciate content such as movies and television images displayed on a very large virtual screen VS.

続いて、図9は、パーソナルコンピュータ(PC)用の3台のディスプレイ80〜82に画像を表示するものである。この場合、PC本体83に上述した画像処理装置30が例えばソフトウェアとして搭載される。この画像処理装置30により上述した画像処理を行うことで、ユーザは、メインディスプレイ80だけでは得られない非常に大きな仮想ディスプレイVDに表示された映画やテレビジョン映像等のコンテンツを鑑賞することができる。なお、PCシステム84に付随するCCDカメラ(図示せず)を用いてユーザ位置を検出するようにしてもよい。   Subsequently, FIG. 9 shows an image displayed on three displays 80 to 82 for a personal computer (PC). In this case, the above-described image processing apparatus 30 is mounted on the PC main body 83 as software, for example. By performing the above-described image processing by the image processing device 30, the user can appreciate contents such as movies and television images displayed on a very large virtual display VD that cannot be obtained by the main display 80 alone. . Note that the user position may be detected using a CCD camera (not shown) attached to the PC system 84.

最後に、図10は、折り畳み式の携帯端末93の3つのディスプレイ90〜92に画像を表示するものである。この携帯端末93には、上述した画像処理装置30が例えばソフトウェアとして搭載される。この画像処理装置30により上述した画像処理を行うことで、ユーザは、メインディスプレイ90だけでは得られない非常に大きな仮想ディスプレイに表示されたコンテンツを鑑賞することができる。なお、CCDカメラ94を用いてユーザ位置を検出するようにしてもよい。この携帯端末93は、折り畳むことが可能であり且つ全て広げる訳ではなく角度をつけたまま使用するため非常に省スペースであり、通勤途中など混雑した状況下においても使用し得る。また、基本的にユーザはディスプレイ90〜92に近づいて使用するため、水平方向の視界を占有し、高い臨場感を味わうことができる。   Finally, FIG. 10 displays an image on the three displays 90 to 92 of the foldable portable terminal 93. The portable terminal 93 is equipped with the above-described image processing device 30 as software, for example. By performing the above-described image processing by the image processing device 30, the user can appreciate the content displayed on a very large virtual display that cannot be obtained only by the main display 90. The user position may be detected using the CCD camera 94. This portable terminal 93 can be folded and is not necessarily widened, but is used with an angle, so it is very space-saving and can be used even in crowded situations such as during commuting. In addition, since the user basically uses the display 90 to 92 close to the user, the user can occupy a horizontal field of view and enjoy a high sense of realism.

(第2の実施の形態)
上述した第1の実施の形態では、仮想ディスプレイVD又は仮想スクリーンVSに表示されるコンテンツが映画やテレビジョン映像等の予め作成されたものである場合を想定して説明した。本実施の形態では、表示されるコンテンツが3次元CG(Computer Graphics)等のリアルタイムに変化するもの(ゲームやインタラクティブムービー等)である場合を想定する。
(Second Embodiment)
In the first embodiment described above, the case where the content displayed on the virtual display VD or the virtual screen VS is created in advance such as a movie or a television image has been described. In the present embodiment, it is assumed that the displayed content is a thing that changes in real time such as a three-dimensional CG (Computer Graphics) (game, interactive movie, etc.).

一例として図10に示した携帯端末93を考える。図11に示すように、この携帯端末93のディスプレイ90〜92に奥行き感のある3次元CGを表示する場合、サブディスプレイ91,92の角度とCCDカメラ94で検出したユーザ位置に基づいて仮想カメラVC1〜VC3の画角を決定し、仮想3次元空間をレンダリングして3つのディスプレイ90〜92に描画することで、高い臨場感を与えるコンテンツを表示することができる。   As an example, consider the portable terminal 93 shown in FIG. As shown in FIG. 11, when displaying a three-dimensional CG with a sense of depth on the displays 90 to 92 of the portable terminal 93, the virtual camera is based on the angles of the sub-displays 91 and 92 and the user position detected by the CCD camera 94. By determining the angle of view of VC1 to VC3, rendering the virtual three-dimensional space and drawing it on the three displays 90 to 92, it is possible to display content that gives a high sense of realism.

このとき、CG画像はリアルタイムに決定・描画されるため、例えば図12のようにユーザが頭を右にずらした場合、CCDカメラ94によってユーザ位置が検出され、仮想カメラVCからの画像が計算され、画像処理を行った画像をサブディスプレイ91,92に描画すると同時に、画角を変更した画像を表示する。この場合、CG内のオブジェクトの見え方そのものが変わってくる。   At this time, since the CG image is determined and drawn in real time, when the user shifts his / her head to the right as shown in FIG. 12, for example, the user position is detected by the CCD camera 94 and the image from the virtual camera VC is calculated. The image subjected to the image processing is drawn on the sub-displays 91 and 92, and at the same time, the image whose angle of view is changed is displayed. In this case, the appearance itself of the object in the CG changes.

同様に、例えば図13のようにユーザが顔を前に近づけた場合、CCDカメラ94によってユーザ位置が検出され、画角の変更された画像が表示される。このとき、サブディスプレイ91,92に描画される画像は水平方向に引き伸ばされてしまうが、ユーザの視線は正面のメインディスプレイ90に向けられており、視界の端における分解能が悪いため、サブディスプレイ91,92の画像が多少歪んでいても問題とはならない。   Similarly, for example, when the user brings his face close to the front as shown in FIG. 13, the user position is detected by the CCD camera 94, and an image with a changed angle of view is displayed. At this time, the images drawn on the sub-displays 91 and 92 are stretched in the horizontal direction, but the user's line of sight is directed to the main display 90 on the front, and the resolution at the edge of the field of view is poor. , 92 is not a problem even if the images are slightly distorted.

このように、3つのディスプレイ90〜92を用いて仮想ディスプレイVDが大きくなったことによる効果と、ユーザ位置に応じた3次元CGの見え方の変化によって、より臨場感が高くユーザ自身が仮想空間に没入できるようなコンテンツを提供することができる。   As described above, due to the effect of increasing the virtual display VD using the three displays 90 to 92 and the change in the appearance of the three-dimensional CG according to the user position, the user himself / herself has a higher realism and the user himself / herself becomes a virtual space. Content that can be immersed in

以上、画像を表示する表示部が自発光型のディスプレイである場合を例として説明したが、プロジェクタを用いて画像をスクリーンに投影する場合も同様である。   The case where the display unit that displays an image is a self-luminous display has been described above as an example.

以上の処理を行う本実施の形態における画像処理装置の概略構成を図14に示す。図14に示す画像処理装置100において、画角変更部101は、CCDカメラ等によって検出されたユーザ位置とサブディスプレイ又はサブスクリーンの角度とに基づいて仮想カメラの画角を変更し、変更後の画角をクリッピング部102に供給する。   FIG. 14 shows a schematic configuration of the image processing apparatus in the present embodiment that performs the above processing. In the image processing apparatus 100 illustrated in FIG. 14, the angle-of-view changing unit 101 changes the angle of view of the virtual camera based on the user position detected by the CCD camera or the like and the angle of the sub display or the sub screen. The angle of view is supplied to the clipping unit 102.

クリッピング部102は、画角変更部101から供給された変更後の画角に基づいてビューボリューム(視野空間)を計算し、ビューボリューム外のオブジェクトをクリッピングすると共に、ビューボリューム内のオブジェクトを各仮想カメラVCのカメラ座標に変換する。   The clipping unit 102 calculates a view volume (view space) based on the changed view angle supplied from the view angle changing unit 101, clips an object outside the view volume, and assigns the object in the view volume to each virtual volume. Convert to camera coordinates of the camera VC.

そして、レンダリング部103〜105は、ビューボリューム内の可視オブジェクトをレンダリングし、メインディスプレイ及びサブディスプレイに表示させるか、又は3台のプロジェクタに画像データを供給してメインスクリーン及びサブスクリーンに投影させる。   The rendering units 103 to 105 render a visible object in the view volume and display it on the main display and the sub display, or supply image data to three projectors and project them on the main screen and the sub screen.

この例では、3つのディスプレイに画像を表示し、又は3台のプロジェクタで3つのスクリーンに対して画像を投影するものとして説明したが、図1(C)のような形状の1つのディスプレイに画像を表示し、又は1台のプロジェクタで図1(C)と同様の形状のスクリーンに対して画像を投影するようにしても構わない。この場合、図15に示すように、画像処理装置100に画像結合部106を追加すればよい。この画像結合部106は、レンダリング部103〜105から供給された画像データを1つの画像に結合し、図1(C)のような形状の1つのディスプレイに表示させるか、又は1台のプロジェクタに供給して図1(C)と同様の形状のスクリーンに投影させる。   In this example, it has been described that images are displayed on three displays, or images are projected on three screens with three projectors. However, images are displayed on one display having a shape as shown in FIG. May be displayed, or an image may be projected onto a screen having the same shape as in FIG. In this case, an image combining unit 106 may be added to the image processing apparatus 100 as shown in FIG. The image combining unit 106 combines the image data supplied from the rendering units 103 to 105 into one image and displays it on one display having a shape as shown in FIG. 1C, or on one projector. Then, the image is projected onto a screen having the same shape as in FIG.

以上、図面を参照しながら、本発明を実施するための最良の形態について説明したが、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。   The best mode for carrying out the present invention has been described above with reference to the drawings. However, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention. Of course, it is possible to change.

例えば、上述した実施の形態では、主としてメインディスプレイの左右にサブディスプレイが接続された3面のディスプレイを用いて説明したが、これに限定されるものでなく、サブディスプレイが1つであってもよく、また、メインディスプレイの上下にもサブディスプレイが接続された5面のディスプレイ等を用いても構わない。さらには、曲面状のディスプレイの場合であっても、短冊状のディスプレイが多数接続されているものと見なすことで、本発明を適用可能である。   For example, in the above-described embodiment, the description has been given mainly using the three-surface display in which the sub display is connected to the left and right of the main display. However, the present invention is not limited to this. Alternatively, a five-sided display in which sub-displays are connected to the top and bottom of the main display may be used. Furthermore, even in the case of a curved display, the present invention can be applied by assuming that a large number of strip-shaped displays are connected.

第1の実施の形態を説明するための概念図であり、同図(A)は1面のディスプレイを示し、同図(B)はメインディスプレイの左右にサブディスプレイが接続された3面ディスプレイを示し、同図(C)はメインディスプレイの左右のサブディスプレイがユーザの側に向けられた3面ディスプレイを示す。BRIEF DESCRIPTION OF THE DRAWINGS It is a conceptual diagram for demonstrating 1st Embodiment, The figure (A) shows the display of 1 screen, The figure (B) shows the 3 screen display by which the sub display was connected to the right and left of the main display. FIG. 4C shows a three-sided display in which the left and right sub-displays of the main display are directed to the user side. 図1(B)、(C)における表示イメージの大きさを比較して示す図である。It is a figure which compares and shows the magnitude | size of the display image in FIG. 1 (B) and (C). サブディスプレイに画像を表示するための透視変換を説明する図である。It is a figure explaining perspective transformation for displaying an image on a sub display. 実際にユーザが画像を鑑賞できる領域を説明する図であり、同図(A)はユーザがメインディスプレイの方向を向いている場合の例を示し、同図(B)はユーザが左のサブディスプレイの方向を向いている場合の例を示す。It is a figure explaining the area | region where a user can actually appreciate an image, The figure (A) shows the example in case the user is facing the direction of the main display, The figure (B) is a sub display with a user left. An example in the case of facing the direction of is shown. 第1の実施の形態における画像処理装置の概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the image processing apparatus in 1st Embodiment. 同画像処理装置の概略構成の他の例を示す図である。It is a figure which shows the other example of schematic structure of the image processing apparatus. 同画像処理装置をプロジェクタに適用した場合の例を示す図であり、同図(A)は反射型スクリーンの場合を示し、同図(B)は透過型スクリーンの場合を示す。It is a figure which shows the example at the time of applying the image processing apparatus to a projector, the figure (A) shows the case of a reflection type screen, and the figure (B) shows the case of a transmission type screen. 同画像処理装置をプロジェクタに適用した場合の例を示す図である。It is a figure which shows the example at the time of applying the image processing apparatus to a projector. 同画像処理装置をパーソナルコンピュータに適用した場合の例を示す図である。It is a figure which shows the example at the time of applying the image processing apparatus to a personal computer. 同画像処理装置を折り畳み式の携帯端末に適用した場合の例を示す図である。It is a figure which shows the example at the time of applying the image processing apparatus to a foldable portable terminal. 第2の実施の形態を説明するための概念図である。It is a conceptual diagram for demonstrating 2nd Embodiment. ユーザが頭を右にずらした場合における仮想カメラの画角の変化を示す図である。It is a figure which shows the change of the angle of view of a virtual camera when a user shifts his head to the right. ユーザが顔を前に近づけた場合における仮想カメラの画角の変化を示す図である。It is a figure which shows the change of the angle of view of a virtual camera when a user brings a face close to the front. 第2の実施の形態における画像処理装置の概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the image processing apparatus in 2nd Embodiment. 同画像処理装置の概略構成の他の例を示す図である。It is a figure which shows the other example of schematic structure of the image processing apparatus.

符号の説明Explanation of symbols

20 メインディスプレイ、21,22 サブディスプレイ、30 画像処理装置、31 画像領域分解部、32 画角変換部、33,34,35 透視変換部、36 画像結合部、100 画像処理装置、101 画角変更部、102 クリッピング部、103,104,105 レンダリング部、106 画像結合部   20 main display, 21, 22 sub-display, 30 image processing device, 31 image area decomposition unit, 32 angle of view conversion unit, 33, 34, 35 perspective conversion unit, 36 image combination unit, 100 image processing device, 101 angle of view change Section, 102 clipping section, 103, 104, 105 rendering section, 106 image combining section

Claims (11)

主表示部と該主表示部に隣接して設けられた複数の副表示部に表示する画像に対して所定の処理を施す画像処理装置であって、
上記表示部の平面を延長してなる仮想平面に展開される仮想画像のうち、上記画像を鑑賞するユーザの視点位置から始まり各表示部の周縁部を通る直線群によって切り取られる部分画像を、上記ユーザの視点位置と上記仮想画像上の所定位置とを結ぶ直線と交差する上記副表示部上の位置に該仮想画像上の所定位置を表示させるための画像処理を行うことによって透視変換し、透視変換後の部分画像を上記副表示部に表示させる透視変換手段
を備える画像処理装置。
An image processing apparatus that performs predetermined processing on an image displayed on a main display unit and a plurality of sub display units provided adjacent to the main display unit ,
Of the virtual image developed on a virtual plane formed by extending the plane of the main display unit, a partial image cut out by a straight line group starting from the viewpoint position of the user viewing the image and passing through the peripheral part of each display unit , Perspective conversion is performed by performing image processing for displaying the predetermined position on the virtual image at a position on the sub-display unit that intersects a straight line connecting the user's viewpoint position and the predetermined position on the virtual image , the partial image after perspective transformation and perspective transformation unit to be displayed on the secondary display
An image processing apparatus comprising:
上記主表示部は、上記ユーザの視線方向に対して略々垂直であ請求項記載の画像処理装置。 The main display unit, an image processing apparatus according to claim 1, wherein substantially Ru perpendicular der respect gaze direction of the user. 主表示部と該主表示部に隣接して設けられた複数の副表示部に表示する画像に対して所定の処理を施す画像処理方法であって、
上記表示部の平面を延長してなる仮想平面に展開される仮想画像のうち、上記画像を鑑賞するユーザの視点位置から始まり表示部の周縁部を通る直線群によって切り取られる部分画像を、上記ユーザの視点位置と上記仮想画像上の所定位置とを結ぶ直線と交差する上記副表示部上の位置に該仮想画像上の所定位置を表示させるための画像処理を行うことによって透視変換し、透視変換後の部分画像を上記副表示部に表示させる透視変換工程を有す画像処理方法。
An image processing method for performing predetermined processing on an image displayed on a main display unit and a plurality of sub display units provided adjacent to the main display unit ,
Of the virtual image developed on a virtual plane formed by extending the plane of the main display unit, a partial image cut out by a straight line group starting from the viewpoint position of the user viewing the image and passing through the peripheral part of each display unit , Perspective conversion is performed by performing image processing for displaying the predetermined position on the virtual image at a position on the sub-display unit that intersects a straight line connecting the user's viewpoint position and the predetermined position on the virtual image , an image processing method that have a perspective transformation process for the partial image after perspective transformation is displayed on the secondary display.
上記主表示部は、上記ユーザの視線方向に対して略々垂直であ請求項記載の画像処理方法。 The main display unit, an image processing method according to claim 3, wherein substantially Ru perpendicular der respect gaze direction of the user. 主表示部及び該主表示部に隣接して設けられた複数の副表示部と、該主表示部及び該副表示部に表示する画像に対して所定の処理を施す画像処理装置とを備える画像表示システムであって、
上記画像処理装置は、上記表示部の平面を延長してなる仮想平面に展開される仮想画像のうち、上記画像を鑑賞するユーザの視点位置から始まり表示部の周縁部を通る直線群によって切り取られる部分画像を、上記ユーザの視点位置と上記仮想画像上の所定位置とを結ぶ直線と交差する上記副表示部上の位置に該仮想画像上の所定位置を表示させるための画像処理を行うことによって透視変換し、透視変換後の部分画像を上記副表示部に表示させる透視変換手段を備える画像表示システム。
An image including a main display unit, a plurality of sub display units provided adjacent to the main display unit, and an image processing device that performs predetermined processing on the image displayed on the main display unit and the sub display unit A display system,
The image processing apparatus includes a group of straight lines that start from a viewpoint position of a user viewing the image and pass through a peripheral portion of each display unit among virtual images developed on a virtual plane obtained by extending the plane of the main display unit. Image processing is performed to display the predetermined position on the virtual image at the position on the sub-display unit that intersects the straight line connecting the user's viewpoint position and the predetermined position on the virtual image. image display system perspective transformation, Ru with a perspective transformation means for displaying the partial image after perspective transformation in the sub-display section by.
上記主表示部は、上記ユーザの視線方向に対して略々垂直であ請求項記載の画像表示システム。 The main display section, an image display system according to claim 5, wherein substantially Ru perpendicular der respect gaze direction of the user. 上記ユーザの位置を検出する位置検出手段と、
上記主表示部に対する上記副表示部の角度を検出する角度検出手段とをさらに備え
上記透視変換手段は、上記ユーザの位置及び上記副表示部の角度に基づいて変化する該ユーザの視野角に応じた画像を表示させるように透視変換する請求項記載の画像表示システム。
Position detecting means for detecting the position of the user;
Angle detecting means for detecting an angle of the sub display unit with respect to the main display unit ,
The image display system according to claim 5 , wherein the perspective conversion unit performs a perspective conversion so as to display an image according to the viewing angle of the user that changes based on the position of the user and the angle of the sub display unit .
各表示要素が位置情報を有する3次元仮想空間を2次元画像として主表示部と該主表示部に隣接して設けられた複数の副表示部に表示させる画像処理装置であって、
上記3次元仮想空間のうち、上記2次元画像を鑑賞するユーザの視点位置から始まり表示部の周縁部を通る直線群によって囲まれる部分空間の各表示要素を上記視点位置を中心とする座標系に変換する座標変換手段と、
座標変換後の各表示要素を各画像表示部にレンダリングするレンダリング手段と
備え、
上記座標変換手段は、上記部分空間の各表示要素を、上記ユーザの視点位置と上記主表示部の平面を延長してなる仮想平面に展開される上記仮想画像上の所定位置とを結ぶ直線と交差する上記副表示部上の位置に該仮想画像上の所定位置を表示させるための座標系に変換することにより透視変換する画像処理装置。
An image processing apparatus that displays a three-dimensional virtual space in which each display element has position information as a two-dimensional image on a main display unit and a plurality of sub-display units provided adjacent to the main display unit ,
A coordinate system in which each display element in a partial space surrounded by a group of straight lines starting from the viewpoint position of the user viewing the two-dimensional image and passing through the peripheral edge of each display section in the three-dimensional virtual space is centered on the viewpoint position. Coordinate conversion means for converting to
Rendering means for rendering each display element after coordinate conversion on each image display unit ,
The coordinate conversion means includes a straight line connecting each display element of the partial space to the user's viewpoint position and a predetermined position on the virtual image developed on a virtual plane obtained by extending the plane of the main display unit. An image processing apparatus that performs perspective conversion by converting into a coordinate system for displaying a predetermined position on the virtual image at a position on the sub display unit that intersects .
各表示要素が位置情報を有する3次元仮想空間を2次元画像として主表示部と該主表示部に隣接して設けられた複数の副表示部に表示させる画像処理方法であって、
上記3次元仮想空間のうち、上記2次元画像を鑑賞するユーザの視点位置から始まり各画像表示部の周縁部を通る直線群によって囲まれる部分空間の各表示要素を上記視点位置を中心とする座標系に変換する座標変換工程と、
座標変換後の各表示要素を各画像表示部にレンダリングするレンダリング工程と
を有し、
上記座標変換工程では、上記部分空間の各表示要素を、上記ユーザの視点位置と上記主表示部の平面を延長してなる仮想平面に展開される上記仮想画像上の所定位置とを結ぶ直線と交差する上記副表示部上の位置に該仮想画像上の所定位置を表示させるための座標系に変換することにより透視変換する画像処理方法。
An image processing method for displaying a three-dimensional virtual space in which each display element has position information as a two-dimensional image on a main display unit and a plurality of sub-display units provided adjacent to the main display unit ,
Coordinates centered on the viewpoint position of each display element in the partial space surrounded by a straight line group starting from the viewpoint position of the user viewing the two-dimensional image and passing through the peripheral edge of each image display section in the three-dimensional virtual space A coordinate transformation process to transform into a system;
Have a rendering step of rendering each display element after the coordinate transformation to each image display unit,
In the coordinate transformation step, each display element of the partial space is a straight line connecting the user's viewpoint position and a predetermined position on the virtual image developed on a virtual plane obtained by extending the plane of the main display unit. An image processing method for performing perspective conversion by converting to a coordinate system for displaying a predetermined position on the virtual image at a position on the sub-display unit that intersects .
表示要素が位置情報を有する3次元仮想空間を2次元画像として主表示部と該主表示部に隣接して設けられた複数の副表示部に表示させる画像表示システムであって、
上記画像処理装置は、
上記3次元仮想空間のうち、上記2次元画像を鑑賞するユーザの視点位置から始まり各画像表示部の周縁部を通る直線群によって囲まれる部分空間の各表示要素を上記視点位置を中心とする座標系に変換する座標変換手段と、
座標変換後の各表示要素を各画像表示部にレンダリングするレンダリング手段とを備え、
上記座標変換手段は、上記部分空間の各表示要素を、上記ユーザの視点位置と上記主表示部の平面を延長してなる仮想平面に展開される上記仮想画像上の所定位置とを結ぶ直線と交差する上記副表示部上の位置に該仮想画像上の所定位置を表示させるための座標系に変換することにより透視変換する画像表示システム。
An image display system for displaying a three-dimensional virtual space in which each display element has position information as a two-dimensional image on a main display unit and a plurality of sub-display units provided adjacent to the main display unit ,
The image processing apparatus includes:
Coordinates centered on the viewpoint position of each display element in the partial space surrounded by a straight line group starting from the viewpoint position of the user viewing the two-dimensional image and passing through the peripheral edge of each image display section in the three-dimensional virtual space Coordinate conversion means for converting into a system;
Rendering means for rendering each display element after coordinate transformation on each image display unit ,
The coordinate conversion means includes a straight line connecting each display element of the partial space to the user's viewpoint position and a predetermined position on the virtual image developed on a virtual plane obtained by extending the plane of the main display unit. An image display system that performs perspective conversion by converting to a coordinate system for displaying a predetermined position on the virtual image at a position on the sub-display unit that intersects .
上記ユーザの位置を検出する位置検出手段と、
上記ユーザの視線方向に対する上記副表示部の角度を検出する角度検出手段とをさらに備え
上記座標変換手段は、上記ユーザの位置及び上記副表示部の角度に基づいて変化する該ユーザの視野角に応じた画像を表示させるように座標変換する請求項10記載の画像表示システム。
Position detecting means for detecting the position of the user;
Angle detecting means for detecting an angle of the sub display unit with respect to the user's line-of-sight direction ;
The image display system according to claim 10 , wherein the coordinate conversion unit performs coordinate conversion so as to display an image corresponding to the viewing angle of the user that changes based on the position of the user and the angle of the sub display unit .
JP2004106885A 2004-03-31 2004-03-31 Image processing apparatus and method, and image display system Expired - Fee Related JP4496823B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004106885A JP4496823B2 (en) 2004-03-31 2004-03-31 Image processing apparatus and method, and image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004106885A JP4496823B2 (en) 2004-03-31 2004-03-31 Image processing apparatus and method, and image display system

Publications (2)

Publication Number Publication Date
JP2005293197A JP2005293197A (en) 2005-10-20
JP4496823B2 true JP4496823B2 (en) 2010-07-07

Family

ID=35326063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004106885A Expired - Fee Related JP4496823B2 (en) 2004-03-31 2004-03-31 Image processing apparatus and method, and image display system

Country Status (1)

Country Link
JP (1) JP4496823B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11199707B2 (en) 2018-01-05 2021-12-14 Samsung Display Co., Ltd. Head-mounted display device

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009198698A (en) * 2008-02-20 2009-09-03 Dainippon Printing Co Ltd Immersive display device
KR101305249B1 (en) 2012-07-12 2013-09-06 씨제이씨지브이 주식회사 Multi-projection system
KR101429812B1 (en) * 2012-09-18 2014-08-12 한국과학기술원 Device and method of display extension for television by utilizing external projection apparatus
KR102033618B1 (en) * 2012-12-18 2019-10-17 엘지디스플레이 주식회사 Display Device and Driving Method of the same
JP2018005760A (en) * 2016-07-07 2018-01-11 株式会社リコー Display device, display method, and program
KR101906002B1 (en) * 2016-11-22 2018-10-08 순천향대학교 산학협력단 Multi sides booth system for virtual reality and the thereof
JP6745374B1 (en) * 2019-03-29 2020-08-26 株式会社スノーピークビジネスソリューションズ Remote communication device
JP7574756B2 (en) 2021-07-12 2024-10-29 トヨタ自動車株式会社 Virtual reality simulator and virtual reality simulation program
JP7574757B2 (en) 2021-07-12 2024-10-29 トヨタ自動車株式会社 Virtual reality simulator and virtual reality simulation program
CN115243029A (en) * 2022-09-22 2022-10-25 苏州域光科技有限公司 Image display method, device, equipment, system and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09311383A (en) * 1996-08-22 1997-12-02 Toppan Printing Co Ltd Video display system
JP2001136466A (en) * 1999-11-08 2001-05-18 Hitachi Ltd Image display device
JP2004078121A (en) * 2002-08-22 2004-03-11 Sharp Corp Device, method, and program for display correction and recording medium with recorded display correcting program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09311383A (en) * 1996-08-22 1997-12-02 Toppan Printing Co Ltd Video display system
JP2001136466A (en) * 1999-11-08 2001-05-18 Hitachi Ltd Image display device
JP2004078121A (en) * 2002-08-22 2004-03-11 Sharp Corp Device, method, and program for display correction and recording medium with recorded display correcting program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11199707B2 (en) 2018-01-05 2021-12-14 Samsung Display Co., Ltd. Head-mounted display device
US11656470B2 (en) 2018-01-05 2023-05-23 Samsung Display Co., Ltd. Head-mounted display device

Also Published As

Publication number Publication date
JP2005293197A (en) 2005-10-20

Similar Documents

Publication Publication Date Title
US10522116B2 (en) Projection method with multiple rectangular planes at arbitrary positions to a variable projection center
JP6511386B2 (en) INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD
US7796134B2 (en) Multi-plane horizontal perspective display
US20100110069A1 (en) System for rendering virtual see-through scenes
US20110122130A1 (en) Modifying Perspective of Stereoscopic Images Based on Changes in User Viewpoint
CN102540464A (en) Head-mounted display device which provides surround video
JP2008546079A (en) Immersive environment with multiple viewpoints
US11961194B2 (en) Non-uniform stereo rendering
JP4496823B2 (en) Image processing apparatus and method, and image display system
WO2012060386A1 (en) Image generation method, image generation program, and image projection device
JP4052357B2 (en) Virtual environment experience display device
JP2018157331A (en) Program, recording medium, image generating apparatus, image generation method
KR100589812B1 (en) Image display method and image display device
US11574454B2 (en) Augmented reality system supporting customized multi-channel interaction
CN114513646A (en) Method and device for generating panoramic video in three-dimensional virtual scene
CN110060349B (en) Method for expanding field angle of augmented reality head-mounted display equipment
JP2007323093A (en) Display device for virtual environment experience
WO2019146426A1 (en) Image processing device, image processing method, program, and projection system
CN111149356A (en) Method for projecting immersive audiovisual content
JP7172036B2 (en) SYSTEM, METHOD, AND PROGRAM FOR INTERVIEWING 3DCG SPACE VIEWING CONDITIONS
Grubert et al. mpCubee: Towards a mobile perspective cubic display using mobile phones
CN206023911U (en) Virtual reality system
Besada et al. Design and user experience assessment of Kinect-based Virtual Windows
Ogi et al. Room-sized immersive projection display for tele-immersion environment
KR20240149070A (en) A high-resolution wide-field angle large display method using image content of a 360-degree panorama camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100323

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100405

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4496823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140423

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees