JP2010237633A - Projector - Google Patents
Projector Download PDFInfo
- Publication number
- JP2010237633A JP2010237633A JP2009140764A JP2009140764A JP2010237633A JP 2010237633 A JP2010237633 A JP 2010237633A JP 2009140764 A JP2009140764 A JP 2009140764A JP 2009140764 A JP2009140764 A JP 2009140764A JP 2010237633 A JP2010237633 A JP 2010237633A
- Authority
- JP
- Japan
- Prior art keywords
- image
- overlapping
- image data
- attribute
- dummy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Projection Apparatus (AREA)
- Liquid Crystal Display Device Control (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
Abstract
Description
この発明はプロジェクタに関し、特に、複数のプロジェクタから照射される画像の光をスクリーン上に投影することにより全体画像を投影するためのプロジェクタに関する。 The present invention relates to a projector, and more particularly to a projector for projecting an entire image by projecting light of an image emitted from a plurality of projectors onto a screen.
複数台のプロジェクタを並べて、各プロジェクタから照射される画像の光をスクリーン上で並べて投影することにより、スクリーン上で大きな画像を表示することが可能なマルチプロジェクタシステムが知られている。 There is known a multi-projector system capable of displaying a large image on a screen by arranging a plurality of projectors and projecting light of images emitted from the projectors on a screen.
マルチプロジェクタシステムにおいては、隣接するプロジェクタから投影される画像のスクリーン上での境界部分を目立たなくするために、隣接する画像の一部を重畳させて表示する。画像において当該重複部分と非重複部分の境界を目立ちにくくするために、ブレンディングまたはエッジブレンディングと呼ばれる機能が実用化されている。ブレンディング機能を提案するものとして、特許文献1(特開2008−216427号公報)、特許文献2(特開2009−14951号公報)および特許文献3(特開2006−251182号公報)がある。 In the multi-projector system, in order to make the boundary portion of the image projected from the adjacent projector on the screen inconspicuous, a part of the adjacent image is superimposed and displayed. In order to make the boundary between the overlapping portion and the non-overlapping portion inconspicuous in an image, a function called blending or edge blending has been put into practical use. Patent Document 1 (Japanese Patent Laid-Open No. 2008-216427), Patent Document 2 (Japanese Patent Laid-Open No. 2009-14951) and Patent Document 3 (Japanese Patent Laid-Open No. 2006-251182) are proposed as blending functions.
図21には、特許文献3に示されるマルチプロジェクタシステムの構成の一例が示される。図21を参照して、マルチプロジェクタシステムは、N個(Nは、1以上の整数値)の画像信号出力部11−1〜11−N、ブレンディング処理部12、画像形成部13−1〜13−N、および画像が投影されるスクリーンを含む。
FIG. 21 shows an example of the configuration of the multi-projector system disclosed in
画像形成部13−1〜13−Nのそれぞれは、プロジェクタを有する。ブレンディング処理部12は、映像信号出力部11−1〜11−Nのそれぞれから提供されたN個の画像信号のそれぞれに対してブレンディング処理を施し、ブレンディング処理後のN個の画像信号のそれぞれを画像形成部13−1〜13−Nのそれぞれに提供する。
Each of the image forming units 13-1 to 13-N includes a projector. The
画像形成部13−1〜13−Nの各プロジェクタから投写されてスクリーン上に表示される画像は、一部において画像同士の重複部分を有する。ブレンディング処理部12は、重複部分と非重複部分との画像が観察者にとって違和感のない自然な画像となるように、重複部分やその他の部分の画像に対応する画像信号に対して処理を施す。図22に示すように、重複部分とそれ以外の部分の画像同士を比較すると、重複部分の画像の方が明るくなるため、従来のブレンディング処理によれば、重複部分の画像を境界から境界へと徐々に輝度を落として、重複部分と非重複部分の境界を目立ちにくくしている。また、重複部分が暗い画像の場合は、それ以上画像の輝度を落とせないので、非重複部分の輝度を上げて、重複部分と非重複部分の境界を目立ちにくくしている。
The images projected from the projectors of the image forming units 13-1 to 13-N and displayed on the screen partially have overlapping portions of the images. The
ブレンディング処理では、重複部分を如何に目立ちにくくできるかという課題を解消するために、特許文献1は、観察者の画像を見る角度が変わっても、適切な画像を表示するための構成を示す。また、特許文献2は、境界部分の色味を改善する構成を示す。
In the blending process, in order to solve the problem of how the overlapping portion can be made inconspicuous,
上述した特許文献のいずれも、ダミー画素と重複する部分画像についてのブレンディング処理は考慮されていない。この点について説明する。 None of the above-mentioned patent documents considers blending processing for partial images overlapping with dummy pixels. This point will be described.
図23に示されるように、プロジェクタの機種によっては、画面表示領域の外枠として、ダミー画素部を設けている。画面表示領域は、表示すべき画像を表示するための有効画素からなる領域(有効画素部)に相当し、ダミー画素部は、複数のダミー画素からなり、画像は表示されない。 As shown in FIG. 23, depending on the projector model, a dummy pixel portion is provided as an outer frame of the screen display area. The screen display area corresponds to an area (effective pixel portion) including effective pixels for displaying an image to be displayed, and the dummy pixel portion includes a plurality of dummy pixels, and no image is displayed.
ダミー画素部を有する画像を表示するプロジェクタを用いたマルチプロジェクタシステムによれば、図24に示されるように、重複部分をブレンディング処理するとともに、画面表示領域内においてダミー画素部が重畳している部分についてもダミー画素部を目立たなくする必要がある。しかしながら、上述したいずれの特許文献においても、このダミー画素部を目立たなくする処理は提案されていない。 According to the multi-projector system using the projector that displays an image having a dummy pixel portion, as shown in FIG. 24, the overlapping portion is blended and the dummy pixel portion is overlapped in the screen display area. Also, it is necessary to make the dummy pixel portion inconspicuous. However, none of the above-mentioned patent documents proposes a process for making the dummy pixel portion inconspicuous.
それゆえにこの発明の目的は、マルチプロジェクタシステムにおいて、投影画像同士が重複している領域と、非重複領域との境界をスムーズに見せるための画像処理機能を備えるプロジェクタを提供することである。 Therefore, an object of the present invention is to provide a projector having an image processing function for smoothly showing a boundary between a region where projection images overlap each other and a non-overlapping region in a multi-projector system.
この発明のある局面に従うと、プロジェクタは、投影面に複数のプロジェクタそれぞれから、画像の光を投射することにより、投影面に複数画像のそれぞれの一部を重複させて投影するために、当該重複部の画像データを、当該重複部に隣接する部分の画像データに従い処理する重複処理部と、投影面に複数のプロジェクタそれぞれから、画像非表示領域であるダミー部を有した画像の光を投射することにより、投影面に複数画像のそれぞれの一部を重複させて投影するために、当該重複部におけるダミー部が重複した画像データを、当該ダミー部に隣接する部分の画像データに従い処理するダミー処理部と、プロジェクタから投影される画像に、ダミー部が含まれるか否かを判定する判定部と、を備え、ダミー処理部は、判定部がダミー部が含まれると判定したときに、ダミー部の画像データを処理する。 According to one aspect of the present invention, the projector projects the light of the image from each of the plurality of projectors onto the projection surface, thereby projecting each of the plurality of images on the projection surface in an overlapping manner. Projecting light of an image having a dummy part which is an image non-display area from each of a plurality of projectors on a projection surface and an overlapping processing part that processes the image data of the part according to the image data of the part adjacent to the overlapping part Thus, in order to project a part of each of the plurality of images on the projection surface in an overlapping manner, dummy processing for processing the image data in which the dummy part in the overlapping part overlaps according to the image data of the part adjacent to the dummy part And a determination unit that determines whether or not the dummy image is included in the image projected from the projector. When it is determined to be included, for processing the image data of the dummy portion.
好ましくは、ダミー部のサイズは変更可能である。
好ましくは、ダミー処理部は、ダミー部が重複している画像データが指す画像の属性を変更する。
Preferably, the size of the dummy part can be changed.
Preferably, the dummy processing unit changes the attribute of the image indicated by the image data in which the dummy part overlaps.
好ましくは、属性は、ダミー部が重複している画像データが指す画像の明るさ、または画像のコントラスト、または画像の色の濃さ、または画像の色合い、または画像のシャープネス、または画像のガンマ値、または画像の色温度を含む。 Preferably, the attribute is the brightness of the image indicated by the image data with overlapping dummy portions, or the contrast of the image, or the darkness of the image, or the hue of the image, or the sharpness of the image, or the gamma value of the image. Or the color temperature of the image.
この発明の他の局面に従うと、プロジェクタは、複数のプロジェクタそれぞれから、投影面に画像の光を投射することにより、投影面において画像を隣接する他の画像と部分的に重複させて投影する投影部と、投影される画像データのうち、他の画像と重複する重複部分に対応する重複部分画像データが指す画像の属性を所定情報に従って処理する重複処理部と、投影される画像データのうち、重複部分を除いた非重複部分に対応する非重複部分画像データが指す画像の属性を所定情報に従って処理する非重複処理部と、を備える。 According to another aspect of the present invention, the projector projects the image light from each of the plurality of projectors onto the projection surface, thereby projecting the image partially overlapping with another adjacent image on the projection surface. A duplication processing unit that processes, according to the predetermined information, an attribute of an image pointed to by the overlapping part image data corresponding to an overlapping part that overlaps another image among the projected image data, and among the projected image data, A non-overlapping processing unit that processes an attribute of an image indicated by non-overlapping partial image data corresponding to a non-overlapping part excluding the overlapping part according to predetermined information.
重複部分画像データは、隣接する1個の他の画像と重複する2重複部分に対応する2重複部分画像データと、隣接する3個の他の画像と重複する4重複部分に対応する4重複部分画像データとを、含む。 The overlapping part image data includes two overlapping part image data corresponding to two overlapping parts overlapping with one other adjacent image, and four overlapping parts corresponding to four overlapping parts overlapping with three adjacent other images. Image data.
好ましくは、所定情報は、画像が有する複数種類の属性のうち、処理するべき属性の種類を指すデータを含む。 Preferably, the predetermined information includes data indicating a type of an attribute to be processed among a plurality of types of attributes of the image.
好ましくは、所定情報は、所定値をさらに含み、重複処理部は、重複部分画像データの所定情報が指示する種類の属性の値を、所定情報の所定値を指示するように変更し、非重複処理部は、非重複部分画像データの所定情報が指示する種類の属性の値を、所定情報が指示する所定値を指示するように変更する。 Preferably, the predetermined information further includes a predetermined value, and the duplication processing unit changes the value of the attribute of the type indicated by the predetermined information of the overlapping partial image data so as to indicate the predetermined value of the predetermined information, and non-overlapping The processing unit changes the value of the type of attribute indicated by the predetermined information of the non-overlapping partial image data so as to indicate the predetermined value indicated by the predetermined information.
好ましくは、複数種類の属性には、画像の明るさ、または画像のコントラスト、または画像の色の濃さ、または画像の色合い、または画像のガンマ特性、または画像の色温度が含まれる。 Preferably, the plurality of types of attributes include image brightness, image contrast, image color intensity, image hue, image gamma characteristics, or image color temperature.
好ましくは、所定値は、重複している画像の個数によって可変である。 Preferably, the predetermined value is variable depending on the number of overlapping images.
本発明のある局面によれば、投影面に複数のプロジェクタそれぞれから、画像の光を投射することにより、複数画像のそれぞれの一部を重複させて全体的な画像を投影する場合に、当該重複部の画像データは当該重複部に隣接する部分の画像データに従い処理され、また、画像非表示領域であるダミー部が当該重複部に有る場合でも当該ダミー部の画像データは隣接する部分の画像データに従い処理されるので、投影画像同士が重複している領域と、非重複領域との境界を目立たなくしてスムーズに見せることができる。 According to an aspect of the present invention, when projecting light of an image from each of a plurality of projectors onto a projection surface to project an entire image by overlapping each of the plurality of images, the duplication The image data of the part is processed according to the image data of the part adjacent to the overlapping part, and the image data of the dummy part is the image data of the adjacent part even when the dummy part which is an image non-display area is in the overlapping part. Therefore, the boundary between the region where the projected images overlap and the non-overlapping region can be made inconspicuous and can be shown smoothly.
本発明の他の局面によれば、隣接する1個の他の画像と重複する2重複部分に対応する2重複部分の画像データと、隣接する3個の他の画像と重複する4重複部分に対応する4重複部分の画像データとについて、画像の属性を所定情報に基づき処理することができる。これにより、所定情報を用いて画像の属性を非重複部分と重複部分(2重複部分と4重複部分)とについて共通して調整することができる。その結果、投影面に投影される画像は、一様な属性を呈することが可能となり、重複部分と非重複部分の境界を目立ちにくくできる。 According to another aspect of the present invention, image data of two overlapping portions corresponding to two overlapping portions overlapping with one other adjacent image and four overlapping portions overlapping with three other adjacent images are included. Image attributes can be processed based on predetermined information for the corresponding four overlapping image data. Thereby, the attribute of an image can be adjusted in common about a non-overlapping part and an overlapping part (2 overlapping part and 4 overlapping part) using predetermined information. As a result, the image projected on the projection surface can exhibit uniform attributes, and the boundary between the overlapping portion and the non-overlapping portion can be made inconspicuous.
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
図1を参照して、本実施の形態に係るマルチプロジェクタシステムは、隣接するように並べられたプロジェクタ(1)とプロジェクタ(2)とスクリーン6を備える。スクリーン6は、プロジェクタ(1)および(2)のそれぞれから画像の光が投射されることにより、画像を投影するための投影面である。投影面は、スクリーン6に限定されず、壁面であってもよい。
Referring to FIG. 1, the multi-projector system according to the present embodiment includes projector (1), projector (2), and
プロジェクタ(1)は、投影するべき画像のデータを処理する画像処理装置1と、スクリーン6に画像を投影するための投影部である光学エンジン20を含む。プロジェクタ(2)も同様に図示しない画像処理装置1と光学エンジン20を含む。各プロジェクタに含まれる画像処理装置1と光学エンジン20とは同様の構成および機能を有する。プロジェクタ(1)と(2)は同様の構成および機能を有するのでプロジェクタPJと総称する場合がある。
The projector (1) includes an
ここでは、マルチプロジェクタシステムが備えるプロジェクタは2台としているが、3台以上であっても、以下の説明は同様に適用することができる。また、画像処理装置1はプロジェクタPJに内蔵されるとしているが、2台のプロジェクタに共用される画像処理装置1をプロジェクタの外部に備えて、外部の1台の画像処理装置1から2台のプロジェクタに、光学エンジン20の駆動信号7を供給するようにしてもよい。
Here, the number of projectors provided in the multi-projector system is two, but the following description can be similarly applied even when there are three or more projectors. Although the
画像処理装置1は、画像データを供給する画像供給部2、供給された画像データを所定処理して、画像信号を出力する画像データ処理部3、画像データ処理部3から出力された画像信号に従い、接続された光学エンジン20による画像の表示動作を制御するための駆動信号7を生成して光学エンジン20に出力する表示制御部4、外部から与えられる情報を入力して、画像データ処理部3に対して出力する入力受付部5を備える。画像供給部2は、画像データを格納した記憶部、またはカメラなどの撮像部に相当する。
The
図2を参照して画像処理装置1が搭載されるコンピュータは、入力受付部5に相当するキーボード12、画像データ処理部3および表示制御部4に相当するDSP(Digital Signal Processor)10、画像供給部2の記憶部に相当するメモリ11、入力I/F(Interface)13および出力I/F14を含む。キーボード12から入力された情報・データは入力I/F13を介してDSP10に与えられる。また、DSP10による処理結果のデータ・信号は出力I/F14を介してコンピュータ外部の光学エンジン20などに出力される。なお、画像供給部2のカメラは、入力I/F13に接続される外部のデバイスに相当し、カメラが撮像して出力する画像データは、入力I/F13を介してDSP10に与えられる。
Referring to FIG. 2, the computer on which the
図3を参照して、プロジェクタPJは画像を投影するために、光学エンジン20と投射レンズ62とを備える。なお、プロジェクタPJは、スピーカ等の音声を出力するための構成要素や、光学エンジン20の構成要素および音声出力部を電気的に制御するための回路基板なども搭載するが、図3では、これらを含む一部の構成要素の図示は省略されている。
Referring to FIG. 3, the projector PJ includes an
光学エンジン20は、照明装置である光源50を含む。光源50は、たとえば超高圧水銀ランプ、メタルハライドランプ、キセノンランプなどからなる。光源50からは、ほぼ平行光となって光が出射される。
The
光源50からの光は、フライアイインテグレータ51などのレンズ系を通過しダイクロイックミラー52に入射する。当該レンズ系を通過することにより、液晶パネル5R,5Gおよび5Bに入射する光の光量分布が均一となるよう、光源50から入射される光に光学作用を付与する。
The light from the
ダイクロイックミラー52は、入射された光のうち、青色波長帯の光(以下、「B光」
という)のみを透過し、赤色波長帯の光(以下、「R光」という)と緑色波長帯の光(以下、「G光」という)を反射する。ダイクロイックミラー52を透過したB光は、ミラー53に導かれ、そこで反射され、図示されないレンズ系を介して、ほぼ平行光で液晶パネル5Bに入射する。液晶パネル5Bは、青色用の画像信号に応じて駆動され、その駆動状態に応じてB光を変調する。液晶パネル5Bによって変調されたB光は、ダイクロイックプリズム(以下、単に「プリズム」ともいう)60に入射する。
Of the incident light, the
Only light in the red wavelength band (hereinafter referred to as “R light”) and light in the green wavelength band (hereinafter referred to as “G light”). The B light transmitted through the
ダイクロイックミラー52によって反射された光のうちG光は、ダイクロイックミラー54によって反射され、図示されないレンズ系を介して、ほぼ平行光で液晶パネル5Gに入射する。液晶パネル5Gは、緑色用の画像信号に応じて駆動され、その駆動状態に応じてG光を変調する。液晶パネル5Gによって変調されたG光は、ダイクロイックプリズム60に入射する。
Of the light reflected by the
ダイクロイックミラー54を透過したR光は、ダイクロイックミラー55によって反射され、図示されないレンズ系を介して、ほぼ平行光で液晶パネル5Rに入射する。液晶パネル5Rは、赤色用の画像信号に応じて駆動され、その駆動状態に応じてR光を変調する。液晶パネル5Rによって変調されたR光は、ダイクロイックプリズム60に入射する。
The R light transmitted through the
ダイクロイックプリズム60は、液晶パネル5R,5Bおよび5Gによって変調されたR光,G光およびB光を色合成し、投射レンズ62へと入射させる。投射レンズ62は、投射光を被投射面であるスクリーン6に結像させるためのレンズ群と、これらレンズ群の一部を光軸方向に変位させて投射画像のズーム状態およびフォーカス状態を調整するためのアクチュエータを備えている。ダイクロイックプリズム60によって色合成された光は、投射レンズ62によって、スクリーン6上に拡大投射される。
The
図4を参照して、本実施の形態に係る液晶パネルにおける画像を表示するための走査について説明する。ここでは、説明を簡単にするために、液晶パネルには、1フレームごとに画面が表示されると想定する。1フレームの画面は、図4に示されるように、直交するX軸およびY軸で規定される原点Oを有した二次元の座標平面であるとする。当該フレームの1画素は、座標(x,y)で指示される。画面表示においては、水平方向(X軸が延びる方向)の画面走査を垂直方向(Y軸が延びる方向)に、1ラインずつ順に行ない、垂直方向の1回の走査で1画面分(1フレーム分)を描画している。 With reference to FIG. 4, the scanning for displaying the image in the liquid crystal panel which concerns on this Embodiment is demonstrated. Here, to simplify the description, it is assumed that a screen is displayed for each frame on the liquid crystal panel. As shown in FIG. 4, it is assumed that the screen of one frame is a two-dimensional coordinate plane having an origin O defined by the orthogonal X axis and Y axis. One pixel of the frame is indicated by coordinates (x, y). In the screen display, screen scanning in the horizontal direction (direction in which the X axis extends) is sequentially performed one line at a time in the vertical direction (direction in which the Y axis extends), and one screen (one frame) is scanned in one vertical direction. ) Is drawn.
本実施の形態では、図3に示したように、RGBの3枚の液晶パネルによって表示される3枚の画面が、ダイクロイックプリズム60を介して重なり合った1画面としてスクリーン6に表示されるので、液晶パネルの特性、またはダイクロイックプリズム60の特性により、3枚の画面はドット単位で微妙にずれを持って重なり合う(図5参照)。
In the present embodiment, as shown in FIG. 3, the three screens displayed by the three liquid crystal panels of RGB are displayed on the
図6に示すように、そのために、各液晶パネルは、図4に示された表示領域の中央に固定サイズの矩形の有効画素の領域である有効画素部を有し、有効画素領域を囲むようにダミー画素領域を有する。有効画素部においては、画像が表示されて、ダミー画素領域では画像は表示されない。ダミー画素領域には最暗の光以上の光が当たる。 As shown in FIG. 6, for this purpose, each liquid crystal panel has an effective pixel portion which is a fixed-size rectangular effective pixel region at the center of the display region shown in FIG. 4, and surrounds the effective pixel region. Have a dummy pixel region. In the effective pixel portion, an image is displayed, and no image is displayed in the dummy pixel area. The dummy pixel area is exposed to light more than the darkest light.
図7を参照して、本実施の形態に係るマルチプロジェクタシステムによるスクリーン6における表示画像は、プロジェクタ(1)の非重複領域E21とプロジェクタ(2)の非重複領域E22、プロジェクタ(1)と(2)の有効画素部が重なりあった重複領域E1、およびダミー画素領域がプロジェクタ(1)と(2)の有効画素部に重複しているダミー領域E31とE32を含む。
Referring to FIG. 7, a display image on
図8を参照して、プロジェクタ(1)の画像データ処理装置3を例に構成を説明する。
画像データ処理装置3は1フレーム単位で画像を処理すると想定する。画像処理装置3の出力信号を入力する表示制御部4は、液晶パネル5R,5G,5Bのそれぞれに駆動信号7を出力する。液晶パネル5R,5G,5Bのそれぞれは、液晶の画素が配列されてなるパネル51R,51G,51Bのそれぞれと、与えられる駆動信号7に基づきパネルの液晶素子を水平および垂直の各方向に従い駆動するパネルドライバ52R,52G,52Bのそれぞれを含む。
With reference to FIG. 8, the configuration will be described taking the image
It is assumed that the image
画像データ処理装置3は、重複領域E1の画像データを処理する重複領域処理部31、非重複領域E21の画像データを処理する非重複領域処理部32、およびダミー領域E31の画像データを処理するダミー領域処理部33を含む。さらに、外部から入力する情報に基づき1フレーム画像における重複領域E1、非重複領域E21およびダミー領域E31それぞれのサイズおよび位置((x,y)座標値)の情報を生成して、重複領域処理部31、非重複領域処理部32およびダミー領域処理部33のそれぞれに出力する領域検出部35、画像供給部2から入力する画像データ(各画素についてR,G,Bそれぞれの階調データ、および当該画素の位置((x,y)座標値)データを含む画像データ)を1フレーム分蓄えて、蓄えた1フレーム分の画像データを読出して重複領域処理部31、非重複領域処理部32およびダミー領域処理部33それぞれに出力するフレームバッファ34、ダミー領域有無判定部36および画像信号を生成する信号生成部37を含む。
The image
ダミー領域有無判定部36は、外部から与えられる情報に基づき、フレームにおけるダミー領域E31の有無を判定する。有りと判定すると、非重複領域処理部32と重複領域処理部31の出力信号をダミー領域処理部33に与えるが、無しと判定すると、非重複領域処理部32と重複領域処理部31の出力を入力し、信号生成部37に出力する。
The dummy area presence /
信号生成部37は、入力する画像データに基づき、画像信号を生成し、表示制御部4に出力する。
The
重複領域処理部31は、入力する1フレームの画像データのうち、領域検出部5から与えられる情報に基づき指示される、重複領域E1の画像データのR,G,BのYUV変換したYの値を検出し、検出したYの値を指す情報311を非重複領域処理部32とダミー領域処理部33に出力する。
The overlapping
非重複領域処理部32は、入力する1フレームの画像データのうち、領域検出部5から与えられる情報に基づき指示される、非重複領域E21の画像データのR,G,Bそれぞれの階調を、重複領域処理部31から与えられる情報311(R,G,BのYUV変換したYの値)に一致させるように変更処理する。これにより、非重複領域E21の画像の輝度は、重複領域E1の画像の輝度にほぼ等しくなるように調整される。
The non-overlapping
ダミー領域処理部33は、ダミー領域有無判定部36が有りと判定したときのみ能動化されて、データ処理を実行する。したがって、ダミー領域有無判定部36が無しと判定する場合には、能動化されないので、データ処理は実行しない。
The dummy
ダミー領域処理部33は、能動化されて画像データ処理の実行を開始すると、図9のフローチャートに示す手順に従い動作する。まず、ダミー領域処理部33は、1フレームの画像データを入力し(図9のステップS1)、入力する1フレームの画像データのうち、領域検出部5から与えられる情報に基づきダミー領域E31の画像データを検出する(ステップS3)。そして、検出したダミー領域E31の画像データを、該画像データが指す画像の属性を、周囲の重複領域E1および非重複領域E21の画像の属性に合致・調和するようにデータ処理して、出力する(ステップS5)。これにより、図24のように表示される場合であっても、ダミー画素部が重複している画像を、隣接する有効画素部の画像
とスムーズに連続した図14のような画像として表示することができる。
When the dummy
重複領域処理部31から出力された重複領域E1の画像データおよび非重複領域処理部32から出力された非重複領域E21の画像データおよび属性を処理した後のダミー領域E31の画像データを合成して1フレームの画像データを生成し(ステップS7)、1フレーム分の画像データを信号生成部37に出力する(ステップS9)。
The image data of the overlapping region E1 output from the overlapping
信号生成部37は、与えられる画像データに基づき1フレーム分の画像信号を生成し、表示制御部4に与える。表示制御部4は、入力する画像信号に基づき液晶パネル5R,5G,5Bの駆動信号7を生成して各液晶パネルに出力する。
The
[領域サイズの調整]
通常、ダミー画素領域(図6参照)のサイズは、液晶パネルによって一意に決まる固有値であるが、フォーカスのずれによりスクリーン6上の表示画像では、ダミー領域E31のサイズ(すなわち、ダミー領域E31が重複する有効画素部のサイズ)は、液晶パネルに固有のダミー画素領域のサイズとは一致しない。
[Adjust Area Size]
Normally, the size of the dummy pixel area (see FIG. 6) is a unique value uniquely determined by the liquid crystal panel, but the size of the dummy area E31 (that is, the dummy area E31 overlaps in the display image on the
そこで、領域検出部35は、ダミー領域処理部33が属性を変更するべきダミー領域E31のサイズを、入力受付部5を介して入力されるユーザが指定の情報に基づき、可変に決定する。領域検出部35が決定したダミー領域E31のサイズは、ダミー領域処理部33に与えられる。
Therefore, the
以下に説明する属性の調整は、領域検出部35が検出(決定)した位置およびサイズのダミー領域E31が重複した有効画素の画像に対して行なわれる。
The attribute adjustment described below is performed on the image of the effective pixel in which the dummy region E31 having the position and size detected (determined) by the
[属性の変更]
ダミー領域処理部33はダミー領域E31の表示画像の属性を変更する属性変更部に対応する。属性変更によって、有効画素部に生じるダミー領域E31による境界を目立たなくしマルチプロジェクタシステムによる画像を、観察者に対してスムーズに見せることができる。以下に、変更する属性の具体例として、ダミー領域E31のサイズ、ダミー領域E31が重複している有効画素部の画像の‘明るさ’、‘コントラスト’、‘色の濃さ’、‘シャープネス’、‘ガンマ値’および‘色温度’などがあるが、これらに限定されるものではない。また、こられらのうちの1種類、または2種類以上の属性を同時に変更するようにしてよい。
[Change attribute]
The dummy
(明るさ調整)
ダミー領域E31の有効画素の明るさを、重複領域E1の隣接する画素と非重複領域E21の隣接する画素の明るさとなるように変更する。図10には、液晶パネルで画像を表示する場合における入力画像データの階調レベル(x軸)と液晶パネルの出力レベル(輝度レベル:y軸)の関係が実線で示される。輝度レベルは画像の明るさに相当する。
(Brightness adjustment)
The brightness of the effective pixel in the dummy area E31 is changed to be the brightness of the adjacent pixel in the overlapping area E1 and the adjacent pixel in the non-overlapping area E21. In FIG. 10, the solid line represents the relationship between the gradation level (x axis) of the input image data and the output level (brightness level: y axis) of the input image data when an image is displayed on the liquid crystal panel. The luminance level corresponds to the brightness of the image.
ダミー領域E31の画像はダミー画素が重複しているので明るくなる。したがって、ダミー領域E31の画像の明るさを、情報311に基づき、隣接する重複領域E1および非重複領域E21の画像の明るさと等しいか否かを検出する。
The image in the dummy area E31 becomes bright because the dummy pixels overlap. Therefore, it is detected whether the brightness of the image of the dummy area E31 is equal to the brightness of the images of the adjacent overlapping area E1 and non-overlapping area E21 based on the
たとえば、ダミー領域E31の画像が、隣接する重複領域E1および非重複領域E21の画像よりも暗いと検出すると、ダミー領域処理部33は、ダミー領域E31の有効画素のR,G,Bの階調値を、当該有効画素の画像データに基づき生成される画像信号の輝度レベルが、図10の太い矢印方向に全体的にシフトするように、変更処理する。逆に、明るいと検出すると、太い矢印方向とは反対方向にシフトするように変更処理する。
For example, when it is detected that the image of the dummy area E31 is darker than the images of the adjacent overlapping area E1 and the non-overlapping area E21, the dummy
(コントラスト調整)
図11には、液晶パネルで画像を表示する場合における入力画像データの階調レベル(x軸)と液晶パネルの出力レベル(輝度レベル:y軸)の関係が実線で示される。ダミー領域E31の画像はダミー画素部が重複しているので明るくなる。したがって、画像が暗いものであっても白味がかってしまう。そこで、ダミー領域処理部33は、ダミー領域E31の有効画素のR,G,Bの階調値に基づき変換される画像信号の輝度レベルを指す実線を、図11の太い矢印方向にシフトさせて、傾きを破線のように変更するように、有効画素のR,G,Bの階調値を変更処理する。
(Contrast adjustment)
In FIG. 11, the solid line represents the relationship between the gradation level (x axis) of the input image data and the output level (brightness level: y axis) of the liquid crystal panel when displaying an image on the liquid crystal panel. The image of the dummy area E31 becomes bright because the dummy pixel portion overlaps. Therefore, even if the image is dark, it becomes white. Therefore, the dummy
(色の濃さ)
R,G,Bそれぞれの階調によりさまざまな色が表現されるが、有効画素部の画像の色の濃さは、ダミー領域E31が重複していることにより、光があたり、スクリーン6では本来の濃さではなく、幾分薄くなって見える。したがって、ダミー領域E31が重複している有効画素部の画素のR、G,Bの階調値を調整して本来の色の濃さになるようにする。これにより、信号生成部37では、変更後の階調値に基づいた画像信号が生成される。
(Saturation of color)
Various colors are expressed by the respective gradations of R, G, and B, but the color density of the image of the effective pixel portion is the light on which the dummy area E31 overlaps, and the
(色合いの調整)
R,G,Bそれぞれの階調によりさまざまな色が表現されるが、有効画素部の画像の色は、ダミー領域E31の画素が重複していることにより、スクリーン6では本来の色では表示されない。ダミー領域E31が重複している有効画素部のR,G,Bの階調値を調整して本来の色合いになるようにする。
(Color adjustment)
Various colors are expressed by the respective gradations of R, G, and B, but the image of the effective pixel portion is not displayed in the original color on the
(シャープネスの調整)
図3に示すように液晶パネルに表示した画像は、レンズ光学系を通過させてスクリーン6に投影されるので、表示画像の周辺部であるダミー領域E31ではレンズ光学系の光軸から離れている分、像がぼやけてしまう。これを解消するために、ダミー画素部が重複している有効画素部の画像について輪郭(エッジ)を強調することによりシャープ化する。
(Sharpness adjustment)
As shown in FIG. 3, since the image displayed on the liquid crystal panel is projected onto the
具体的には、明るさの変化が大きい部分がエッジであるから、このエッジをより強調するように処理する。たとえば、ダミー画素部が重複している有効画素部のある注目画素を中心とした上下左右の9つの画素の階調値に対して、図12に示すような係数をそれぞれ乗算する。図12では、中央の係数が注目画素に対応する。9つの画素それぞれに図12に対応する係数を乗算して得られた値をすべて加算し、加算して得られた値を2で割る。注目画素の階調値を、この割って得られた値と置換する。これにより、注目画素の階調値が更新される。 Specifically, since the portion where the change in brightness is large is an edge, processing is performed so that this edge is more emphasized. For example, the gray scale values of nine pixels above, below, left, and right centering on a target pixel having an effective pixel portion with overlapping dummy pixel portions are respectively multiplied by coefficients as shown in FIG. In FIG. 12, the center coefficient corresponds to the target pixel. All the values obtained by multiplying each of the nine pixels by the coefficient corresponding to FIG. 12 are added, and the value obtained by the addition is divided by two. The gradation value of the pixel of interest is replaced with the value obtained by this division. Thereby, the gradation value of the target pixel is updated.
このようにダミー画素部が重複している有効画素部の各画素を注目画素として、その階調値を、図12のような係数を用いてフィルタ処理を行うことにより、画像をシャープ化することができるから、観察者は、ダミー領域E31の表示画像をピントがあった画像としてはっきりと確認することができる。 In this way, each pixel of the effective pixel portion where the dummy pixel portion overlaps is regarded as a pixel of interest, and the gradation value is subjected to filter processing using a coefficient as shown in FIG. 12, thereby sharpening the image. Therefore, the observer can clearly confirm the display image of the dummy area E31 as a focused image.
(ガンマ特性の調整)
ガンマは、画像の色データを、液晶パネルではどのような明かるさで出力するかという相関関係を指す。ガンマ特性は、入力データと輝度の関係を指す。入力信号(x)と輝度(y)の関係は、(y=xのγ乗)の式で示される。
(Adjust gamma characteristics)
Gamma refers to the correlation of how bright the image color data is output on the liquid crystal panel. The gamma characteristic indicates the relationship between input data and luminance. The relationship between the input signal (x) and the luminance (y) is expressed by the equation (y = x raised to the γ power).
ダミー領域処理部33は、ダミー領域E31の画像と、隣接する重複領域E1と非重複領域E21の画像との間で違和感のないガンマ特性にするために、ダミー領域E31が重複している有効画素領域のγ値を調整して信号生成部37に出力する。このγ値は、入力受付部5を介して外部から与えられる。たとえば、スクリーン6に表示される画像を観察するユーザが、観察結果に基づきキーボード12または図示のない外部スイッチを操作してガンマ値を指定するデータを入力する。
The dummy
一般的に、理想のガンマ値は供給される画像データの種類、または画像データ供給元の機種(パソコン等の機種)により決まる。メモリ11に、画像データの種類または画像データ供給元の機種毎に、理想のガンマ値を関連付けて格納したテーブルを記憶させておく。ダミー領域処理部33は、ユーザがキーボード12を介して指定したデータ(画像データの種類または画像データ供給元の機種)に基づきテーブルを検索して、関連付けされたガンマ値を読出し、信号生成部37に出力する。これにより、信号生成部37は、与えられるガンマ値に基づき、入力する画像データに従う画像信号を生成する。
In general, the ideal gamma value is determined by the type of image data supplied or the model of the image data supply source (model such as a personal computer). The
(色温度の調整)
ダミー領域E31におけるダミー画素が重複した有効画素部の画素のR,G,Bの階調レベルを調整することで、液晶パネルの表示画像について目標として設定した色表示を実現する。
(Adjusting color temperature)
By adjusting the R, G, and B gradation levels of the pixels in the effective pixel portion where the dummy pixels overlap in the dummy area E31, color display set as a target for the display image of the liquid crystal panel is realized.
たとえば、液晶パネルではR,G,Bの階調値がそれぞれ250である場合、図13(A)〜(C)の実線で示すように白の色温度が5000K(ケルビン)になるように設定されてホワイトバランスを調整していると想定する。ダミー領域E31における表示画像が隣接領域の画像に比べて青っぽい画像となっているのを修正するために色温度を4200Kに下げて赤みがかった表示色(電球を照明とした画像)とする場合には、最暗部は固定して明部のRの階調値を上げ、Bの階調値を下げることにより青っぽい画像を修正する。逆に、赤っぽい画像を修正するために色温度を6500Kに上げて青みがかった表示色(蛍光灯を照明とした画像)とする場合には、図13(A)と(C)の破線に示すようにBの階調値を上げて、Rの階調値を下げる。 For example, in the liquid crystal panel, when the gradation values of R, G, and B are each 250, the white color temperature is set to 5000K (Kelvin) as shown by the solid lines in FIGS. Assume that the white balance is adjusted. When correcting the display image in the dummy area E31 to be a bluish image compared to the image in the adjacent area, the color temperature is lowered to 4200K to obtain a reddish display color (an image using a light bulb). The darkest part is fixed and the gradation value of R in the bright part is increased, and the gradation value of B is decreased, thereby correcting the bluish image. Conversely, in order to correct a reddish image, the color temperature is increased to 6500K to obtain a bluish display color (an image with a fluorescent lamp illuminated), and the broken lines in FIGS. As shown, the gradation value of B is increased and the gradation value of R is decreased.
ここでは、液晶パネルの表示画像(すなわち、スクリーン6の表示画像)の色温度は、ユーザがキーボード12などを操作することにより外部から指定できると想定する。本実施の形態では、色温度のそれぞれに対応して、R、Bのうち階調値を変更する色と、階調値の変更の量(増減値)とを格納したテーブルがメモリ11に予め記憶されている。ダミー領域処理部33は、入力受付部5を介して指定された色温度に基づき、メモリ11のテーブルを検索して、対応する色と、階調値の変更量とのデータを読出す。そして、読出したデータに基づき、階調レベルを変更する。これによりダミー領域E31の有効画素による画像の色温度を隣接する領域の画像の色温度に等しくなるように調整することができる。
Here, it is assumed that the color temperature of the display image on the liquid crystal panel (that is, the display image on the screen 6) can be designated from the outside by the user operating the
[他の実施の形態]
上述の実施の形態では、2台のプロジェクタから投影された2個の画像がスクリーン6上で重複して表示される場合を示したが、スクリーン6に、より大きな画像を投影したいとの要望がある。この要望には、画像を投影するプロジェクタの台数を増やすことで対処できる。
[Other embodiments]
In the above-described embodiment, the case where two images projected from two projectors are displayed on the
本実施の形態では4台のプロジェクタからスクリーン6に投影される4個の画像を重複して表示する場合における、ブレンディング処理について説明する。本実施の形態では、説明を簡単にするためにダミー画素部およびそれに関する画像処理についての説明は略す。
In the present embodiment, a blending process when four images projected from four projectors onto the
図15には、スクリーン6に対して4台のプロジェクタ(A)、プロジェクタ(B)、プロジェクタ(C)およびプロジェクタ(D)により画像を投影した場合の、画像の重複状態を示す。スクリーン6に投影された画像は、画像の重複がない非重複領域E41、E42、E43およびE44、隣接する他の画像を含んで2個の画像が重複する2重複領域E51、E52、E53およびE54、ならびに隣接する他の3個の画像を含んで4個の画像が重複する4重複領域E61を含む。
FIG. 15 shows an overlapping state of images when images are projected on the
非重複領域E41、E42、E43およびE44、2重複領域E51、E52、E53およびE54、ならびに4重複領域E61のサイズおよび位置は、プロジェクタの配置の態様に従って一意に決定される。ここでは、これら領域の画像におけるサイズおよび位置は、ユーザにより予め決定されていると想定する。 The sizes and positions of the non-overlapping areas E41, E42, E43 and E44, the two overlapping areas E51, E52, E53 and E54, and the four overlapping areas E61 are uniquely determined according to the arrangement of the projectors. Here, it is assumed that the size and position in the image of these regions are determined in advance by the user.
画像が重複する領域では、重複する画像の数が多くなるほど、画像が明るくなるために、非重複領域E41〜E44、2重複領域E51〜E54および4重複領域E61の間では、画像の明るさが相違する。本実施の形態のブレンディング処理では、4重複領域E61の明るさを決定し、この決定した明るさに2重複領域および非重複領域それぞれの明るさを一致させることによって、スクリーン6に投影される画像の明るさを均一にする。図16には、図15の投影画像について本実施の形態のブレンディング処理を施した場合の投影画像が示される。図16では、投影される画像の明るさは均一となる。
In the region where the images overlap, the larger the number of overlapping images, the brighter the image. Therefore, the brightness of the image between the non-overlapping regions E41 to E44, the two overlapping regions E51 to E54, and the four overlapping regions E61. Is different. In the blending process of the present embodiment, the brightness of the 4-overlap area E61 is determined, and the brightness of each of the 2-overlap area and the non-overlap area is matched with the determined brightness to thereby project the image projected on the
本実施の形態による各プロジェクタの構成は、画像処理部3を画像処理部3Aに代替した点を除けば、図1〜図6に示したものと同様であり、その説明は略す。画像処理部3Aによって、本実施の形態によるブレンディング処理が行われる。画像処理部3Aは、非重複領域E41〜E44、2重複領域E51〜E54および4重複領域E61の間では、画像の明るさなど表示画像が有する属性値が一致するように画像処理が行われる。
The configuration of each projector according to the present embodiment is the same as that shown in FIGS. 1 to 6 except that the
図17には、本実施の形態に係る画像処理部3Aの機能構成が示される。図17にはプロジェクタ(A)の画像処理部3Aの構成を例示するが、他のプロジェクタ(B)〜(D)の画像処理部3Aも図17に示すものと同様であり、説明は略す。
FIG. 17 shows a functional configuration of the
図17を参照して、画像処理部3Aは、1フレーム単位で画像を処理すると想定する。画像処理部3Aの出力信号は表示制御部4に与えられる。
Referring to FIG. 17, it is assumed that
画像データ処理部3Aは、非重複領域E41の画像データを処理する非重複処理部24、2重複領域E51とE52の画像データを処理する2重複処理部25と26、および4重複領域E61の画像データを処理する4重複処理部27を含む。さらに、外部から入力する情報に基づき1フレーム画像における非重複領域E41、2重複領域E51と52および4重複領域E61それぞれのサイズおよび位置((x,y)座標値)の情報を生成して、非重複処理部24、2重複処理部25と26、および4重複処理部27のそれぞれに出力する領域検出部35A、フレームバッファ34A、属性入力部22、および信号生成部28を含む。
The image
フレームバッファ34Aは、画像供給部2から入力する画像データ(各画素についてR,G,Bそれぞれの階調データ、および当該画素の位置((x,y)座標値)データを含む画像データ)を1フレーム分蓄えて、蓄えた1フレーム分の画像データを読出して非重複処理部24に出力する。属性入力部22は、与えられる属性ATを入力し、入力した属性ATを非重複処理部24、2重複処理部25と26、および4重複処理部27のそれぞれに出力する。信号生成部28は、与えられる画像データを入力し、入力画像データに基づき、画像信号を生成し、表示制御部4に出力する。
The
ここで、属性ATは、スクリーン6において画像が重複している部分と、非重複の部分とで一致させるべき属性の種類と、属性の値を指す。
Here, the attribute AT indicates the type of attribute and the value of the attribute that should be matched between the overlapping part of the image and the non-overlapping part on the
図18を参照して、属性ATによって、属性の種類として‘画像の明るさ’が指定され、且つ属性値として‘ay’が指定されたと想定した場合の処理の概要を説明する。 With reference to FIG. 18, an outline of processing when it is assumed that “image brightness” is specified as the attribute type and “ay” is specified as the attribute value by the attribute AT will be described.
図18を参照すると、たとえばプロジェクタ(A)が投影する画像は、図18(A)の非重複領域E41、2重複領域E51とE52、および4重複領域E61を含むが、4重複領域E61の画像の輝度を属性ATが指示する値を‘ay’に決定すると、2重複領域E51とE52の画像の輝度は2個の画像が重複するので、それぞれ‘ay/2’と決定されて、そして非重複領域E41の輝度は4個の画像が重複するので‘ay/4’と決定される(図18(B)を参照)。つまり、重複している画像の個数に応じて属性ATの値は可変である。これにより、4台のプロジェクタに同じ属性値ATが与えられることにより、スクリーン6に画像を投影した場合には、図16に示すように、非重複部および重複部において画像は同じ明るさとなる。
Referring to FIG. 18, for example, the image projected by the projector (A) includes the non-overlapping region E41, the overlapping regions E51 and E52, and the four overlapping region E61 of FIG. If the value indicated by the attribute AT is determined to be “ay”, the brightness of the images of the two overlapping areas E51 and E52 is determined to be “ay / 2” because the two images overlap, and non- The luminance of the overlapping area E41 is determined to be “ay / 4” because four images overlap (see FIG. 18B). That is, the value of the attribute AT is variable according to the number of overlapping images. As a result, when the same attribute value AT is given to the four projectors, when images are projected on the
具体的には、非重複処理部24は、属性入力部22から入力する属性ATが指す‘ay’に基づき非重複領域E41の画像の輝度を‘ay/4’と決定する。そして、フレームバッファ34Aから入力する1フレームの画像データのうち、領域検出部35Aから与えられる情報が指示する非重複領域E41の画像データを検出し、検出した画像データついて属性ATに基づきR,G,Bが指す輝度データを、決定した‘ay/4’を指示するように変更する。変更した後の1フレーム分の画像データは、2重複処理部25に出力される。
Specifically, the
2重複処理部25は、属性入力部22から入力する属性ATが指す‘ay’に基づき2重複領域E51の画像の輝度を‘ay/2’と決定する。そして、非重複処理部24から入力する1フレームの画像データのうち、領域検出部35Aから与えられる情報が指示する2重複領域E51の画像データを検出し、検出した画像データについて属性ATに基づきR,G,Bが指す輝度データを、決定した‘ay/2’を指示するように変更する。変更をした後の1フレーム分の画像データは、2重複処理部26に出力される。
The double
2重複処理部26は、属性入力部22から入力する属性ATが指す‘ay’に基づき2重複領域E52の画像の輝度を‘ay/2’と決定する。そして、2重複処理部25から入力する1フレームの画像データのうち、領域検出部35Aから与えられる情報が指示する2重複領域E52の画像データを検出し、検出した画像データについて属性ATに基づきR,G,Bが指す輝度データを、決定した‘ay/2’を指示するように変更する。変更をした後の1フレーム分の画像データは、4重複処理部27に出力される。
The double
4重複処理部27は、属性入力部22から入力する属性ATが指す‘ay’に基づき4重複領域E61の画像の輝度を‘ay’と決定する。そして、2重複処理部26から入力する1フレームの画像データのうち、領域検出部35Aから与えられる情報が指示する4重複領域E61の画像データを検出し、検出した画像データについて属性ATに基づきR,G,Bが指す輝度データを、決定した‘ay’を指示するように変更する。変更をした後の1フレーム分の画像データは、信号生成部28に出力される。
The 4-duplicate processing unit 27 determines the luminance of the image of the 4-overlap region E61 as “ay” based on “ay” indicated by the attribute AT input from the
画像データの輝度の変更について、図10を参照して説明する。非重複処理部24は、非重複領域E41の画像データのR,G,Bの階調値が指す輝度と、値‘ay/4’とを比較し、比較結果に基づき値‘ay/4’よりも小さい、すなわち当該領域の画像は暗いと検出する場合には、当該画像データに基づき生成される画像信号の輝度レベルが、図10の太い矢印方向に全体的にシフトするように、画素毎にR,G,Bの階調値を変更処理する。逆に、明るいと検出すると、太い矢印方向とは反対方向にシフトするように画素毎にR,G,Bの階調値を変更処理する。
The change of the brightness of the image data will be described with reference to FIG. The
このR,G,Bの階調値の比較は、各画素毎に行っても良く、または、当該領域の画素の平均階調値を検出(算出)し、平均値と値‘ay/4’の比較であってもよい。 The comparison of the gradation values of R, G, and B may be performed for each pixel, or the average gradation value of the pixels in the area is detected (calculated), and the average value and the value 'ay / 4' It may be a comparison.
2重複処理部25、2重複処理部26および4重複処理部27でも、同様に、上述したR,G,Bの階調値が指す輝度と、値‘ay/2’、‘ay’との比較処理、および比較結果に基づき、図10の関係に照らして画素毎びR,G,Bの階調値を変更する処理を実行する。
Similarly, in the 2-
上述と同様の処理が、他のプロジェクタ(B)〜(D)においても並行して実行されることにより、各プロジェクタの信号生成部28から出力される画像データに従ってスクリーン6に投影される画像は、図16に示すように、値‘ay’に従う輝度に基づく一様の明るさを呈する。
By performing the same processing as described above in the other projectors (B) to (D) in parallel, the image projected on the
[属性の変更]
本実施の形態では、スクリーン6に投影される画像の属性の値を変更するが、変更する属性の具体例としては、上述した輝度による画像の‘明るさ’の他に‘コントラスト’、‘色の濃さ’、‘色合い’、‘ガンマ値’および‘色温度’などがあるが、これらに限定されるものではない。また、こられらのうちの1種類、または2種類以上の属性を同時に変更するようにしてよい。
[Change attribute]
In the present embodiment, the attribute value of the image projected on the
(コントラスト調整)
図11に示した関係によれば、コントラスト比を上昇させるためには、図11の画素のR,G,Bの階調値と、これに基づき変換される画像信号の輝度レベルの関係を指す実線の傾きを変更する。つまり、実線矢印方向にシフトさせて、傾きがより大きくなるように、当該R,G,Bの階調値を変更する。逆に、コントラスト比を下げるには、破線矢印方向にシフトさせて、実線の傾きが小さくなるように、当該R,G,Bの階調値を変更する。このように線分の傾きが大きいほどコントラスト比は大きくなり、小さくなるほどコントラスト比は小さくなる。
(Contrast adjustment)
According to the relationship shown in FIG. 11, in order to increase the contrast ratio, the relationship between the R, G, and B gradation values of the pixel in FIG. 11 and the luminance level of the image signal converted based on this is indicated. Change the slope of the solid line. That is, the R, G, and B gradation values are changed so that the inclination is increased by shifting in the direction of the solid arrow. Conversely, in order to reduce the contrast ratio, the gradation values of R, G, and B are changed so that the inclination of the solid line is reduced by shifting in the direction of the broken line arrow. Thus, the contrast ratio increases as the slope of the line segment increases, and the contrast ratio decreases as it decreases.
コントラストを調整する場合には、図19を参照して、属性ATによって、属性の種類として‘コントラスト’が指定され、且つ属性値として‘ac’が指定される。ここで、‘ac’は、たとえば図11の実線矢印の傾きに相当すると想定する。 In the case of adjusting the contrast, referring to FIG. 19, the attribute AT specifies “contrast” as the attribute type and “ac” as the attribute value. Here, it is assumed that 'ac' corresponds to, for example, the slope of the solid line arrow in FIG.
図19を参照すると、入力した属性ATに基づき、プロジェクタ(A)が投影する画像の4重複領域E61の画像の属性値を‘ac’に決定すると、2重複処理部25と26および非重複処理部24によって、2重複領域E51とE52の画像の属性値はそれぞれ‘ac/2’と、そして非重複領域E41は‘ac/4’と決定される。
Referring to FIG. 19, when the attribute value of the image of the four overlapping region E61 of the image projected by the projector (A) is determined to be “ac” based on the input attribute AT, the two overlapping
動作において、非重複処理部24は、フレームバッファ34Aから入力する1フレームの画像データのうち、領域検出部35Aから与えられる情報が指示する非重複領域E41の画像データを検出する。そして、検出した画像データのR,G,Bが指す階調値を、図11の関係に従って、傾きが‘ac/4’となるように変更する。階調値を変更した後の1フレーム分の画像データは、2重複処理部25に出力される。
In operation, the
2重複処理部25は、非重複処理部24から入力する1フレームの画像データのうち、領域検出部35Aから与えられる情報が指示する2重複領域E51の画像データを検出する。そして、検出した画像データのR,G,Bが指す階調値を、図11の関係に従って、傾きが‘ac/2’となるように変更する。階調値を変更した後の1フレーム分の画像データは、2重複処理部26に出力される。
The double
2重複処理部26は、2重複処理部25から入力する1フレームの画像データのうち、領域検出部35Aから与えられる情報が指示する2重複領域E52の画像データを検出して、2重複処理部25と同様にして、検出した画像データのR,G,Bが指す階調値を変更し、変更した後に、1フレーム分の画像データを4重複処理部27に出力する。
The double
4重複処理部27は、2重複処理部26から入力する1フレームの画像データのうち、領域検出部35Aから与えられる情報が指示する4重複領域E61の画像データを検出する。そして検出した画像データのR,G,Bの階調値を、図11の関係に従って、傾きが‘ac/4’となるように変更する。階調値を変更した後の1フレーム分の画像データは、信号生成部28に出力される。
The 4-duplicate processing unit 27 detects the image data of the 4-overlap region E61 indicated by the information given from the
これを図11を参照して、さらに説明する。非重複処理部24、2重複処理部25および26、ならびに4重複処理部27のそれぞれは、検出した画像データのR,G,Bの階調値に基づき、所定手順に従って図11の実線の関係を検出する。検出した実線の傾きと、決定されたコントラスト比に従う傾き(‘ac’、‘ac/2’、‘ac/4’)とを比較する。比較結果に基づき、検出した傾きが決定されたコントラスト比に従う傾きよりも小さいと判定すると、検出した実線の傾きが大きくなるように各画素のR,G,Bの階調値を変更する。これにより、変更後のR,G,Bの階調値に基づき検出される実線の傾きは、決定された傾きに一致する。また、比較結果に基づき、検出した傾きが決定されたコントラスト比に従う傾きよりも大きいと判定すると、検出した実線の傾きが小さくなるように各画素のR,G,Bの階調値を変更する。これにより、変更後のR,G,Bの階調値に基づき検出される実線の傾きは、決定された傾きに一致する。
This will be further described with reference to FIG. Each of the
上述と同様の処理が、他のプロジェクタ(B)〜(D)においても並行して実行されることにより、各プロジェクタの信号生成部28から出力される画像データに従ってスクリーン6に投影される画像は、値‘ac’に従う一様のコントラストを呈する。
By performing the same processing as described above in the other projectors (B) to (D) in parallel, the image projected on the
(色の濃さ)
スクリーン6に投影される画像の色の濃さは、画像データのR,G,Bそれぞれの階調値により決定される。各プロジェクタから同じ色の画像が投影される場合には、画像の色は、重複する画像の数が多くなるほど濃くなることが知られている。したがって、属性の種類として‘色の濃さ’、且つ値として‘濃さの値(すなわちR,G,Bの階調値‘ad’とする)’を指定する属性ATが入力された場合には、非重複処理部24は、属性ATに基づき値‘ad’を決定する。そして、属性ATに基づき、非重複領域E41の画像データの各画素のR,G,Bの階調値を検出し、検出した階調値を、決定した値‘ad’に変更する。同様に、2重複処理部25および2重複処理部26も、属性ATに基づき値‘ad/2’に決定する。そして、2重複領域E51およびE52の画像データの各画素のR,G,Bの階調値を検出し、検出した階調値を決定した値‘ad/2’に変更する。また、4重複処理部27も属性ATに基づき値‘ad/4’を決定する。そして、属性ATに基づき4重複領域E61の画像データの各画素のR,G,Bの階調値を検出し、検出した階調値を、決定した値‘ad/4’に変更する。これらの変更がされた画像データは、信号生成部28に出力される。
(Saturation of color)
The color density of the image projected on the
上述と同様の処理が、他のプロジェクタ(B)〜(D)においても並行して実行されることにより、各プロジェクタの信号生成部28から出力される画像データに従ってスクリーン6に投影される画像は、値‘ad’に従う一様の色の濃さを呈する。
By performing the same processing as described above in the other projectors (B) to (D) in parallel, the image projected on the
(色合いの調整)
スクリーン6に投影される画像の色合いは、画像データのR,G,Bそれぞれの階調値により決定される。色合いを調整するために、属性の種類として‘色合い’、且つ値として‘色合いの値(すなわちR,G,Bの階調値‘ae’とする)’を指定する属性ATが入力される。
(Color adjustment)
The hue of the image projected on the
色合いを調整する属性ATが入力された場合には、非重複処理部24は、属性ATに基づき値‘ae’を決定する。そして、属性ATに基づき、非重複領域E41の画像データの各画素のR,G,Bの階調値を検出し、検出した階調値を値‘ae’に変更する。2重複処理部25および2重複処理部26も、属性ATに基づき値‘ae/2’を検出する。そして、2重複領域E51およびE52の画像データの各画素のR,G,Bの階調値を検出し、検出した階調値を決定した値‘ae/2’に変更する。4重複処理部27も属性ATに基づき値‘ae/4’を検出し、そして、4重複領域E61の画像データの各画素のR,G,Bの階調値を検出し、検出した階調値を決定した値‘ae/4’に変更する。これらの変更がされた画像データは、信号生成部28に出力される。
When the attribute AT for adjusting the hue is input, the
上述と同様の処理が、他のプロジェクタ(B)〜(D)においても並行して実行されることにより、各プロジェクタの信号生成部28から出力される画像データに従ってスクリーン6に投影される画像は、値‘ae’に従う一様の色合いを呈する。
By performing the same processing as described above in the other projectors (B) to (D) in parallel, the image projected on the
(ガンマ特性の調整)
前述したように、ガンマ特性は、入力する画像信号(x)と輝度(y)の関係を指す(y=xのγ乗)の式で示される。本実施の形態では、信号生成部28が画像のγ特性を調整する。
(Adjust gamma characteristics)
As described above, the gamma characteristic is represented by an equation of y (y = x raised to the γ power) indicating the relationship between the input image signal (x) and the luminance (y). In the present embodiment, the
非重複領域E41、2重複領域E51とE52および4重複領域E61の画像間で違和感のないガンマ特性を呈するようにするために、各領域に作用するγ値を調整する。 In order to exhibit a gamma characteristic that does not give a sense of incongruity between the images of the non-overlapping area E41, the overlapping area E51 and E52, and the 4-overlapping area E61, the γ value acting on each area is adjusted.
ガンマ特性を調整するために、属性の種類として‘ガンマ特性’、且つ値として‘γ値’を指定する属性ATが入力される。 In order to adjust the gamma characteristic, an attribute AT that designates “gamma characteristic” as the attribute type and “γ value” as the value is input.
属性入力部22は、入力に基づきガンマ特性を調整する属性ATを検出すると、入力した属性ATを信号生成部28に出力する。フレームバッファ34Aから出力された画像データは、非重複処理部24、2重複処理部25と26および4重複処理部27を経て信号生成部28に入力される。信号生成部28は、入力した画像データのうちから、属性ATに基づき、領域検出部35Aから入力したデータに従って、非重複領域E41、2重複領域E51およびE52、および4重複領域E61のそれぞれに該当する画像データを検出する。各領域について検出した画像データを画像信号に変換する際に、上述した関係式に従って画像信号を生成して出力する。
When the
この画像信号の生成に際して、信号生成部28は、入力した属性ATが指す‘γ値’を非重複領域E41の画像信号に対して適用し、‘γ/2値’を2重複領域E51およびE52の画像信号に対して適用し、‘γ/4値’を4重複領域E61に対して適用して、それぞれガンマ特性を調整する。
When generating the image signal, the
上述と同様の処理が、他のプロジェクタ(B)〜(D)においても並行して実行されることにより、各プロジェクタの信号生成部28から出力される画像データに従ってスクリーン6に投影される画像は、一様のガンマ特性を呈する。
By performing the same processing as described above in the other projectors (B) to (D) in parallel, the image projected on the
(色温度の調整)
図13で説明をしたように、色温度は、R,G,Bの階調値のうち、RまたはBの階調値を変更することによって調整することができる。
(Adjusting color temperature)
As described in FIG. 13, the color temperature can be adjusted by changing the R or B gradation value among the R, G, and B gradation values.
ここでは、液晶パネルを駆動する画像データによってスクリーン6に投影された画像はホワイトバランスを調整していると想定する。
Here, it is assumed that the image projected on the
ユーザが、投影画像を電球を照明とした場合の赤みがかった画像に変更することを希望した場合、すなわち画像の呈する色温度を低くすることを希望した場合、属性の種類として‘色温度’、且つ値として‘色温度の値(すなわちRの階調値の増加値‘af’およびBの階調値の減少値‘ag’とする)’を指定する属性ATが入力される。 When the user desires to change the projected image to a reddish image when the light bulb is used as a light, that is, when the user desires to lower the color temperature exhibited by the image, the attribute type is “color temperature”, and An attribute AT specifying “color temperature value (that is, an increase value“ af ”of R gradation value and a decrease value“ ag ”of B gradation value”) ”is input as a value.
非重複処理部24は、属性値に基づき値‘af’と‘ag’を決定する。そして、属性ATに基づき、非重複領域E41の画像データの各画素のR,G,Bの階調値を検出し、そのうち検出したRの階調値を決定した値‘af’だけ増加させ、検出したBの階調値を決定した値‘ag’だけ減少させる。2重複処理部25および2重複処理部26も、属性値ATに基づき‘af/2’と‘ag/2’とを決定する。そして、属性ATに基づき2重複領域E51およびE52の画像データの各画素のR,G,Bの階調値を検出し、そのうち検出したRの階調値を決定した値‘af/2’にだけ増加させ、検出したBの階調値を決定した値‘ag/2’だけ減少させる。また、4重複処理部27も属性値ATに基づき値‘af/4’と‘ag/4’を決定する。そして、属性ATに基づき4重複領域E61の画像データの各画素のR,G,Bの階調値を検出し、そのうち検出したRの階調値を決定した値‘af/4’だけ増加させ、検出したBの階調値を決定した値‘ag/4’だけ減少させる。これらの変更がされた画像データは、信号生成部28に出力される。
The
逆に、青みがかった画像(たとえば、蛍光灯を照明とした画像)とする場合には、属性ATに基づきBの階調値を増加させ、Rの階調値を減少させるようにすればよい。 On the contrary, when the image is bluish (for example, an image with a fluorescent lamp illuminated), the gradation value of B may be increased and the gradation value of R may be decreased based on the attribute AT.
上述と同様の処理が、他のプロジェクタ(B)〜(D)においても並行して実行されることにより、各プロジェクタの信号生成部28から出力される画像データに従ってスクリーン6に投影される画像は、一様の色温度を呈する。
By performing the same processing as described above in the other projectors (B) to (D) in parallel, the image projected on the
上述の説明では、属性ATの値は、重複する画像の個数に応じて非重複処理部24、2重複処理部25と26、および4重複処理部27で個別に決定していたが、これに代替して属性入力部22が、この値の決定を実行してもよい。属性入力部22は、重複する画像の個数に応じて決定した値を、非重複処理部24、2重複処理部25と26、および4重複処理部27に与えるようにしてもよい。
In the above description, the value of the attribute AT is determined individually by the
(他の実施例)
上述の説明では、属性ATは、入力受付部15(またはキーボード12)を介してユーザから与えられるとしているが、投影される画像データに基づき検出するようにしてもよい。
(Other examples)
In the above description, the attribute AT is given by the user via the input receiving unit 15 (or the keyboard 12), but may be detected based on the projected image data.
図19を参照して、投影する画像データに基づき、属性ATを検出するための構成について説明する。図19において、マルチプロジェクタシステムは、隣接するように並べられたプロジェクタ(A)、プロジェクタ(B)、プロジェクタ(C)およびプロジェクタ(D)、ならびにプロジェクタコントローラ100を備える。プロジェクタコントローラ100は、4重複領域E61の画像データの属性を検出し、検出した属性に基づく属性ATを生成してプロジェクタ(1)〜(4)それぞれに対して与える。ここでは、属性ATとして、画像の明るさを例示する。プロジェクタコントローラ100は、マイクロコンピュータに相当する。
A configuration for detecting the attribute AT based on the image data to be projected will be described with reference to FIG. 19, the multi-projector system includes a projector (A), a projector (B), a projector (C), a projector (D), and a
図18を参照して、プロジェクタ(A)が投影する画像について説明する。図18(A)は非ハッチング領域である非重複領域E41、シングルハッチング領域である2重複領域E51とE52、ならびにダブルハッチング領域である4重複領域E61とを示す。プロジェクタ(A)〜(D)それぞれから投影される画像の輝度レベルをYi(i=1,2,3,4)と想定するとスクリーン6に投影された4重複領域E61の画像は、単純にはΣYiの明るさとなる。したがって、スクリーン6に投影された画像の明るさを一様にするためには、プロジェクタ(A)は、投影する画像データについては、4重複領域E61に該当する画像データの明るさは(ΣYi/4)に調整し、2重複領域E51とE52に該当する画像データの明るさは(ΣYi/2)に調整し、非重複領域E41に該当する画像データの明るさは(ΣYi)に調整する。
An image projected by the projector (A) will be described with reference to FIG. FIG. 18A shows a non-overlapping area E41 which is a non-hatching area, two overlapping areas E51 and E52 which are single hatching areas, and a four overlapping area E61 which is a double hatching area. Assuming that the luminance level of the image projected from each of the projectors (A) to (D) is Yi (i = 1, 2, 3, 4), the image of the four overlapping area E61 projected on the
上記のΣYiを検出するためにプロジェクタコントローラ100は、図20に示すように、フレームデータ入力部101、記憶部102、属性検出部103、および属性値決定部104を含む。記憶部102には、プロジェクタ(A)〜(D)のそれぞれに関連付けて、データD1〜D4が予め格納される。データD1〜D4のそれぞれは、関連付けされたプロジェクタが投影する1フレームの画像データにおける4重複領域E61のサイズ・位置を指す。
In order to detect the above-described ΣYi, the
属性検出部103は、外部から指定される属性の種類IPに基づき、各プロジェクタの画像データの4重複領域E61の画像について、当該指定種類の属性の値を検出して出力する。具体的には、各プロジェクタのフレームバッファ34Aからフレームデータ入力部101を介して1フレームの画像データを入力すると、当該プロジェクタに関連付けされたデータDiを記憶部12から検索して読出す。そして、入力した1フレームの画像データから、記憶部12から読出したデータDiに基づき4重複領域E61の部分に該当する画像データを抽出する。
The
動作において、フレームデータ入力部101は、プロジェクタ(A)〜(D)のフレームバッファ34Aそれぞれから読出されたフレーム単位の画像データを並行して入力する。これら4個の画像データに従う画像が投影されることにより、スクリーン6では図15のように画像が表示される。
In operation, the frame
フレームデータ入力部101は4個のフレーム画像のデータを属性検出部103に順次に出力する。属性検出部103は、入力するフレームの画像データに対応の、4重複領域E61のサイズ・位置を指すデータDi(i=1,2,3,4)を記憶部12から読出す。そして、データDiで指示される位置(領域)の画像データを、当該フレームの画像データから検出する。検出した画像データの各画素のR,G,Bの階調値に基づき4重複領域E61の輝度レベルYiを検出して、出力する。
The frame
検出する輝度レベルYiは、4重複領域E61の画像のたとえば平均輝度を指す。
属性値決定部104は、属性検出部103が検出した各プロジェクタの4重複領域E61の輝度レベルYiを入力し、累積加算してΣYiを算出する。属性値決定部104は、外部から与えられる属性の種類IPと、算出した(ΣYi)/4を指す属性ATを生成し、生成した属性ATをプロジェクタ(A)〜(D)のそれぞれに出力する。
The detected brightness level Yi indicates, for example, the average brightness of the image of the 4-overlap area E61.
The attribute
プロジェクタ(A)〜(D)では、プロジェクタコントローラ100から入力する属性ATに基づき、前述した(明るさ調整)における値‘ay’((ΣYi)/4に相当)を用いた手順と同様にして、画像データを処理する。
In the projectors (A) to (D), based on the attribute AT input from the
これにより、各プロジェクタの信号生成部28から出力される画像データに従ってスクリーン6に投影される画像は一様な明るさを呈する。
Thereby, the image projected on the
なお、本実施の形態では、プロジェクタとして液晶プロジェクタを採用したが、これに限定されるものではない。たとえば、DLP(Digital Light Processing)(登録商標)方式のプロジェクタ等の他の方式のプロジェクタに本発明の技術を採用してもよい。 In this embodiment, a liquid crystal projector is used as the projector, but the present invention is not limited to this. For example, the technology of the present invention may be applied to other projectors such as a DLP (Digital Light Processing) (registered trademark) projector.
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
1 画像処理装置、2 画像供給部、3 画像データ処理部、4 表示制御部、5 入力受付部、5R,5G,5B 液晶パネル、6 スクリーン、7 画像データ、20 光学エンジン、22 属性入力部、24 非重複処理部、25,26 2重複処理部、27 4重複処理部、28,37 信号生成部、31 重複領域処理部、32 非重複領域処理部、33 ダミー領域処理部、34,34A フレームバッファ、35,35A 領域検出部、36 ダミー領域有無指定部、PJ プロジェクタ、100 プロジェクタコントローラ、101 フレームデータ入力部、103 属性検出部、104 属性値決定部。
DESCRIPTION OF
Claims (9)
複数の前記プロジェクタそれぞれから、投影面に画像の光を投射することにより、前記投影面に複数画像のそれぞれの一部を重複させて投影するために、重複部の画像データを、当該重複部に隣接する部分の画像データに従い処理する重複処理部と、
前記複数プロジェクタそれぞれから、投影面に画像非表示領域であるダミー部を有した画像の光を投射することにより、前記投影面に複数画像のそれぞれの一部を重複させて投影するために、当該重複部における前記ダミー部が重複した画像データを、当該ダミー部に隣接する部分の画像データに従い処理するダミー処理部と、
前記プロジェクタから投影される画像に、前記ダミー部が含まれるか否かを判定する判定部と、を備え、
前記ダミー処理部は、前記判定部が前記ダミー部が含まれると判定したときに、前記ダミー部の画像データを処理する、プロジェクタ。 A projector,
By projecting light of an image onto the projection plane from each of the plurality of projectors, in order to project a part of each of the plurality of images on the projection plane, the image data of the overlapping portion is projected onto the overlapping portion. An overlap processing unit that processes according to the image data of the adjacent part;
By projecting light of an image having a dummy part which is an image non-display area on the projection surface from each of the plurality of projectors, A dummy processing unit that processes the image data in which the dummy part in the overlapping part overlaps according to the image data of the part adjacent to the dummy part;
A determination unit that determines whether or not the dummy portion is included in an image projected from the projector,
The dummy processing unit is a projector that processes image data of the dummy part when the determination part determines that the dummy part is included.
複数の前記プロジェクタそれぞれから、投影面に画像の光を投射することにより、前記投影面において画像を隣接する他の画像と部分的に重複させて投影する投影部と、
投影される画像データのうち、前記他の画像と重複する重複部分に対応する重複部分画像データが指す画像の属性を所定情報に従って処理する重複処理部と、
投影される画像データのうち、前記重複部分を除いた非重複部分に対応する非重複部分画像データが指す画像の前記属性を前記所定情報に従って処理する非重複処理部と、を備え、
前記重複部分画像データは、
隣接する1個の前記他の画像と重複する2重複部分に対応する2重複部分画像データと、隣接する3個の前記他の画像と重複する4重複部分に対応する4重複部分画像データとを、含む、プロジェクタ。 A projector,
From each of the plurality of projectors, by projecting light of an image onto a projection surface, a projection unit that projects the image partially overlapping with other adjacent images on the projection surface;
Among the image data to be projected, an overlapping processing unit that processes the attribute of the image pointed to by the overlapping part image data corresponding to the overlapping part overlapping with the other image according to predetermined information;
A non-overlapping processing unit that processes the attribute of the image indicated by the non-overlapping portion image data corresponding to the non-overlapping portion excluding the overlapping portion of the projected image data, according to the predetermined information;
The overlapping partial image data is
2 overlapping partial image data corresponding to 2 overlapping parts overlapping with 1 adjacent other image and 4 overlapping partial image data corresponding to 4 overlapping parts overlapping with 3 adjacent other images Including projector.
前記重複処理部は、前記重複部分画像データの前記所定情報が指示する種類の属性の値を、前記所定情報の前記所定値を指示するように変更し、
前記非重複処理部は、前記非重複部分画像データの前記所定情報が指示する種類の属性の値を、前記所定情報が指示する前記所定値を指示するように変更する、請求項6に記載のプロジェクタ。 The predetermined information further includes a predetermined value,
The duplication processing unit changes the value of the type of attribute indicated by the predetermined information of the overlapping partial image data so as to indicate the predetermined value of the predetermined information,
The non-overlapping processing unit changes the value of the type of attribute indicated by the predetermined information of the non-overlapping partial image data so as to indicate the predetermined value indicated by the predetermined information. projector.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009140764A JP2010237633A (en) | 2009-03-12 | 2009-06-12 | Projector |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009059673 | 2009-03-12 | ||
JP2009140764A JP2010237633A (en) | 2009-03-12 | 2009-06-12 | Projector |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010237633A true JP2010237633A (en) | 2010-10-21 |
Family
ID=43091971
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009140764A Withdrawn JP2010237633A (en) | 2009-03-12 | 2009-06-12 | Projector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010237633A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012073649A1 (en) * | 2010-11-30 | 2012-06-07 | 日本電気株式会社 | Multi-projection display system and method of adjusting brightness thereof |
JP2012169737A (en) * | 2011-02-10 | 2012-09-06 | Canon Inc | Information processor, information processing method, and program |
JP2016157005A (en) * | 2015-02-25 | 2016-09-01 | キヤノン株式会社 | Projection device, control method thereof, and projection system |
JP2017500801A (en) * | 2013-12-09 | 2017-01-05 | シゼイ シジブイ カンパニー リミテッド | Method for correcting overlapping region of video, recording medium and apparatus therefor |
US9883153B2 (en) | 2014-07-01 | 2018-01-30 | Sony Corporation | Image processing apparatus and method |
-
2009
- 2009-06-12 JP JP2009140764A patent/JP2010237633A/en not_active Withdrawn
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012073649A1 (en) * | 2010-11-30 | 2012-06-07 | 日本電気株式会社 | Multi-projection display system and method of adjusting brightness thereof |
US8648964B2 (en) | 2010-11-30 | 2014-02-11 | Nec Corporation | Multi-projection display system and method of adjusting brightness thereof |
JP2012169737A (en) * | 2011-02-10 | 2012-09-06 | Canon Inc | Information processor, information processing method, and program |
JP2017500801A (en) * | 2013-12-09 | 2017-01-05 | シゼイ シジブイ カンパニー リミテッド | Method for correcting overlapping region of video, recording medium and apparatus therefor |
US9883153B2 (en) | 2014-07-01 | 2018-01-30 | Sony Corporation | Image processing apparatus and method |
US11134230B2 (en) | 2014-07-01 | 2021-09-28 | Sony Corporation | Image processing apparatus and method |
JP2016157005A (en) * | 2015-02-25 | 2016-09-01 | キヤノン株式会社 | Projection device, control method thereof, and projection system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4432818B2 (en) | Image display device, image display method, and image display program | |
EP1391870B1 (en) | Image display system, projector, information storage medium and image processing method | |
US7453475B2 (en) | Optical display device, program for controlling the optical display device, and method of controlling the optical display device | |
TWI232956B (en) | Illuminator, projection display device and method for driving the same | |
JP6331340B2 (en) | Display device and control method of display device | |
JP2005250235A (en) | Optical modulating device, optical display device, optical modulation control program, optical display device control program, optical modulation control method, and optical display device control method | |
JP2004325628A (en) | Display device and its image processing method | |
JP5061027B2 (en) | Signal processing apparatus and projection display apparatus | |
JP2004163518A (en) | Device and method for image display | |
JP2010237633A (en) | Projector | |
JP2006153914A (en) | Liquid crystal projector | |
JP2005107019A (en) | Image display method and system, and projector | |
JP2015049336A (en) | Display device, light-emitting device, and control method of display device | |
JP2016163228A (en) | Display device | |
JP2010010754A (en) | Display device | |
WO2006110427A2 (en) | Method and apparatus for an image presentation device with illumination control for black image processing | |
JP2006284982A (en) | Dimming information generation device, method thereof, program thereof, recording medium with program recorded therein, and image display device | |
JP2005266289A (en) | Optical display device, its control method and program | |
JP2001296831A (en) | Picture reproducing method | |
JP4776875B2 (en) | Video display device, projection display device | |
JP5092207B2 (en) | Image display device and image display method | |
JP2005257761A (en) | Image display device and image display method | |
JP2006003586A (en) | Image display apparatus, its method and program | |
JP2023022717A (en) | Display method of display system, display method of display device, display system and display device | |
JP4862866B2 (en) | Image display device and image display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120904 |