[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2010237633A - Projector - Google Patents

Projector Download PDF

Info

Publication number
JP2010237633A
JP2010237633A JP2009140764A JP2009140764A JP2010237633A JP 2010237633 A JP2010237633 A JP 2010237633A JP 2009140764 A JP2009140764 A JP 2009140764A JP 2009140764 A JP2009140764 A JP 2009140764A JP 2010237633 A JP2010237633 A JP 2010237633A
Authority
JP
Japan
Prior art keywords
image
overlapping
image data
attribute
dummy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009140764A
Other languages
Japanese (ja)
Inventor
Kei Yasukawa
慶 安川
Kazunori Kodama
和則 児玉
Masahiro Aota
正宏 青田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009140764A priority Critical patent/JP2010237633A/en
Publication of JP2010237633A publication Critical patent/JP2010237633A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make a boundary between an area where projected images overlap with each other and a non-overlapping area inconspicuous and smooth. <P>SOLUTION: In a multi projector system, when projecting an entire image while overlapping portions of each of a plurality of images by projecting light of the images, an overlapping area processing part 31 of an image data processing apparatus 3 processes the image data of the overlapping portions according to the image data of the portions adjoining the overlapped portions. Even if there is a dummy portion as an image non-display area in the overlapped portions, a dummy area processing part 33 processes the image data of the dummy portion according to the image data of the adjoining portions. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明はプロジェクタに関し、特に、複数のプロジェクタから照射される画像の光をスクリーン上に投影することにより全体画像を投影するためのプロジェクタに関する。   The present invention relates to a projector, and more particularly to a projector for projecting an entire image by projecting light of an image emitted from a plurality of projectors onto a screen.

複数台のプロジェクタを並べて、各プロジェクタから照射される画像の光をスクリーン上で並べて投影することにより、スクリーン上で大きな画像を表示することが可能なマルチプロジェクタシステムが知られている。   There is known a multi-projector system capable of displaying a large image on a screen by arranging a plurality of projectors and projecting light of images emitted from the projectors on a screen.

マルチプロジェクタシステムにおいては、隣接するプロジェクタから投影される画像のスクリーン上での境界部分を目立たなくするために、隣接する画像の一部を重畳させて表示する。画像において当該重複部分と非重複部分の境界を目立ちにくくするために、ブレンディングまたはエッジブレンディングと呼ばれる機能が実用化されている。ブレンディング機能を提案するものとして、特許文献1(特開2008−216427号公報)、特許文献2(特開2009−14951号公報)および特許文献3(特開2006−251182号公報)がある。   In the multi-projector system, in order to make the boundary portion of the image projected from the adjacent projector on the screen inconspicuous, a part of the adjacent image is superimposed and displayed. In order to make the boundary between the overlapping portion and the non-overlapping portion inconspicuous in an image, a function called blending or edge blending has been put into practical use. Patent Document 1 (Japanese Patent Laid-Open No. 2008-216427), Patent Document 2 (Japanese Patent Laid-Open No. 2009-14951) and Patent Document 3 (Japanese Patent Laid-Open No. 2006-251182) are proposed as blending functions.

図21には、特許文献3に示されるマルチプロジェクタシステムの構成の一例が示される。図21を参照して、マルチプロジェクタシステムは、N個(Nは、1以上の整数値)の画像信号出力部11−1〜11−N、ブレンディング処理部12、画像形成部13−1〜13−N、および画像が投影されるスクリーンを含む。   FIG. 21 shows an example of the configuration of the multi-projector system disclosed in Patent Document 3. Referring to FIG. 21, the multi-projector system includes N (N is an integer value of 1 or more) image signal output units 11-1 to 11 -N, blending processing unit 12, and image forming units 13-1 to 13. -N, and the screen on which the image is projected.

画像形成部13−1〜13−Nのそれぞれは、プロジェクタを有する。ブレンディング処理部12は、映像信号出力部11−1〜11−Nのそれぞれから提供されたN個の画像信号のそれぞれに対してブレンディング処理を施し、ブレンディング処理後のN個の画像信号のそれぞれを画像形成部13−1〜13−Nのそれぞれに提供する。   Each of the image forming units 13-1 to 13-N includes a projector. The blending processing unit 12 performs a blending process on each of the N image signals provided from each of the video signal output units 11-1 to 11-N, and each of the N image signals after the blending process is performed. Provided to each of the image forming units 13-1 to 13-N.

画像形成部13−1〜13−Nの各プロジェクタから投写されてスクリーン上に表示される画像は、一部において画像同士の重複部分を有する。ブレンディング処理部12は、重複部分と非重複部分との画像が観察者にとって違和感のない自然な画像となるように、重複部分やその他の部分の画像に対応する画像信号に対して処理を施す。図22に示すように、重複部分とそれ以外の部分の画像同士を比較すると、重複部分の画像の方が明るくなるため、従来のブレンディング処理によれば、重複部分の画像を境界から境界へと徐々に輝度を落として、重複部分と非重複部分の境界を目立ちにくくしている。また、重複部分が暗い画像の場合は、それ以上画像の輝度を落とせないので、非重複部分の輝度を上げて、重複部分と非重複部分の境界を目立ちにくくしている。   The images projected from the projectors of the image forming units 13-1 to 13-N and displayed on the screen partially have overlapping portions of the images. The blending processing unit 12 performs processing on the image signals corresponding to the images of the overlapped portion and other portions so that the images of the overlapped portion and the non-overlapped portion become a natural image that does not feel strange to the observer. As shown in FIG. 22, when the overlapping portion and the other portion of the image are compared, the overlapping portion image becomes brighter. Therefore, according to the conventional blending process, the overlapping portion image is changed from the boundary to the boundary. The brightness is gradually lowered to make the boundary between the overlapping portion and the non-overlapping portion less noticeable. Further, in the case where the overlapping portion is a dark image, the luminance of the image cannot be lowered any more, so the luminance of the non-overlapping portion is increased so that the boundary between the overlapping portion and the non-overlapping portion is less noticeable.

ブレンディング処理では、重複部分を如何に目立ちにくくできるかという課題を解消するために、特許文献1は、観察者の画像を見る角度が変わっても、適切な画像を表示するための構成を示す。また、特許文献2は、境界部分の色味を改善する構成を示す。   In the blending process, in order to solve the problem of how the overlapping portion can be made inconspicuous, Patent Document 1 shows a configuration for displaying an appropriate image even if the angle at which the observer views the image changes. Moreover, patent document 2 shows the structure which improves the color of a boundary part.

特開2008−216427号公報JP 2008-216427 A 特開2009−14951号公報JP 2009-14951 A 特開2006−251182号公報JP 2006-251182 A

上述した特許文献のいずれも、ダミー画素と重複する部分画像についてのブレンディング処理は考慮されていない。この点について説明する。   None of the above-mentioned patent documents considers blending processing for partial images overlapping with dummy pixels. This point will be described.

図23に示されるように、プロジェクタの機種によっては、画面表示領域の外枠として、ダミー画素部を設けている。画面表示領域は、表示すべき画像を表示するための有効画素からなる領域(有効画素部)に相当し、ダミー画素部は、複数のダミー画素からなり、画像は表示されない。   As shown in FIG. 23, depending on the projector model, a dummy pixel portion is provided as an outer frame of the screen display area. The screen display area corresponds to an area (effective pixel portion) including effective pixels for displaying an image to be displayed, and the dummy pixel portion includes a plurality of dummy pixels, and no image is displayed.

ダミー画素部を有する画像を表示するプロジェクタを用いたマルチプロジェクタシステムによれば、図24に示されるように、重複部分をブレンディング処理するとともに、画面表示領域内においてダミー画素部が重畳している部分についてもダミー画素部を目立たなくする必要がある。しかしながら、上述したいずれの特許文献においても、このダミー画素部を目立たなくする処理は提案されていない。   According to the multi-projector system using the projector that displays an image having a dummy pixel portion, as shown in FIG. 24, the overlapping portion is blended and the dummy pixel portion is overlapped in the screen display area. Also, it is necessary to make the dummy pixel portion inconspicuous. However, none of the above-mentioned patent documents proposes a process for making the dummy pixel portion inconspicuous.

それゆえにこの発明の目的は、マルチプロジェクタシステムにおいて、投影画像同士が重複している領域と、非重複領域との境界をスムーズに見せるための画像処理機能を備えるプロジェクタを提供することである。   Therefore, an object of the present invention is to provide a projector having an image processing function for smoothly showing a boundary between a region where projection images overlap each other and a non-overlapping region in a multi-projector system.

この発明のある局面に従うと、プロジェクタは、投影面に複数のプロジェクタそれぞれから、画像の光を投射することにより、投影面に複数画像のそれぞれの一部を重複させて投影するために、当該重複部の画像データを、当該重複部に隣接する部分の画像データに従い処理する重複処理部と、投影面に複数のプロジェクタそれぞれから、画像非表示領域であるダミー部を有した画像の光を投射することにより、投影面に複数画像のそれぞれの一部を重複させて投影するために、当該重複部におけるダミー部が重複した画像データを、当該ダミー部に隣接する部分の画像データに従い処理するダミー処理部と、プロジェクタから投影される画像に、ダミー部が含まれるか否かを判定する判定部と、を備え、ダミー処理部は、判定部がダミー部が含まれると判定したときに、ダミー部の画像データを処理する。   According to one aspect of the present invention, the projector projects the light of the image from each of the plurality of projectors onto the projection surface, thereby projecting each of the plurality of images on the projection surface in an overlapping manner. Projecting light of an image having a dummy part which is an image non-display area from each of a plurality of projectors on a projection surface and an overlapping processing part that processes the image data of the part according to the image data of the part adjacent to the overlapping part Thus, in order to project a part of each of the plurality of images on the projection surface in an overlapping manner, dummy processing for processing the image data in which the dummy part in the overlapping part overlaps according to the image data of the part adjacent to the dummy part And a determination unit that determines whether or not the dummy image is included in the image projected from the projector. When it is determined to be included, for processing the image data of the dummy portion.

好ましくは、ダミー部のサイズは変更可能である。
好ましくは、ダミー処理部は、ダミー部が重複している画像データが指す画像の属性を変更する。
Preferably, the size of the dummy part can be changed.
Preferably, the dummy processing unit changes the attribute of the image indicated by the image data in which the dummy part overlaps.

好ましくは、属性は、ダミー部が重複している画像データが指す画像の明るさ、または画像のコントラスト、または画像の色の濃さ、または画像の色合い、または画像のシャープネス、または画像のガンマ値、または画像の色温度を含む。   Preferably, the attribute is the brightness of the image indicated by the image data with overlapping dummy portions, or the contrast of the image, or the darkness of the image, or the hue of the image, or the sharpness of the image, or the gamma value of the image. Or the color temperature of the image.

この発明の他の局面に従うと、プロジェクタは、複数のプロジェクタそれぞれから、投影面に画像の光を投射することにより、投影面において画像を隣接する他の画像と部分的に重複させて投影する投影部と、投影される画像データのうち、他の画像と重複する重複部分に対応する重複部分画像データが指す画像の属性を所定情報に従って処理する重複処理部と、投影される画像データのうち、重複部分を除いた非重複部分に対応する非重複部分画像データが指す画像の属性を所定情報に従って処理する非重複処理部と、を備える。   According to another aspect of the present invention, the projector projects the image light from each of the plurality of projectors onto the projection surface, thereby projecting the image partially overlapping with another adjacent image on the projection surface. A duplication processing unit that processes, according to the predetermined information, an attribute of an image pointed to by the overlapping part image data corresponding to an overlapping part that overlaps another image among the projected image data, and among the projected image data, A non-overlapping processing unit that processes an attribute of an image indicated by non-overlapping partial image data corresponding to a non-overlapping part excluding the overlapping part according to predetermined information.

重複部分画像データは、隣接する1個の他の画像と重複する2重複部分に対応する2重複部分画像データと、隣接する3個の他の画像と重複する4重複部分に対応する4重複部分画像データとを、含む。   The overlapping part image data includes two overlapping part image data corresponding to two overlapping parts overlapping with one other adjacent image, and four overlapping parts corresponding to four overlapping parts overlapping with three adjacent other images. Image data.

好ましくは、所定情報は、画像が有する複数種類の属性のうち、処理するべき属性の種類を指すデータを含む。   Preferably, the predetermined information includes data indicating a type of an attribute to be processed among a plurality of types of attributes of the image.

好ましくは、所定情報は、所定値をさらに含み、重複処理部は、重複部分画像データの所定情報が指示する種類の属性の値を、所定情報の所定値を指示するように変更し、非重複処理部は、非重複部分画像データの所定情報が指示する種類の属性の値を、所定情報が指示する所定値を指示するように変更する。   Preferably, the predetermined information further includes a predetermined value, and the duplication processing unit changes the value of the attribute of the type indicated by the predetermined information of the overlapping partial image data so as to indicate the predetermined value of the predetermined information, and non-overlapping The processing unit changes the value of the type of attribute indicated by the predetermined information of the non-overlapping partial image data so as to indicate the predetermined value indicated by the predetermined information.

好ましくは、複数種類の属性には、画像の明るさ、または画像のコントラスト、または画像の色の濃さ、または画像の色合い、または画像のガンマ特性、または画像の色温度が含まれる。   Preferably, the plurality of types of attributes include image brightness, image contrast, image color intensity, image hue, image gamma characteristics, or image color temperature.

好ましくは、所定値は、重複している画像の個数によって可変である。   Preferably, the predetermined value is variable depending on the number of overlapping images.

本発明のある局面によれば、投影面に複数のプロジェクタそれぞれから、画像の光を投射することにより、複数画像のそれぞれの一部を重複させて全体的な画像を投影する場合に、当該重複部の画像データは当該重複部に隣接する部分の画像データに従い処理され、また、画像非表示領域であるダミー部が当該重複部に有る場合でも当該ダミー部の画像データは隣接する部分の画像データに従い処理されるので、投影画像同士が重複している領域と、非重複領域との境界を目立たなくしてスムーズに見せることができる。   According to an aspect of the present invention, when projecting light of an image from each of a plurality of projectors onto a projection surface to project an entire image by overlapping each of the plurality of images, the duplication The image data of the part is processed according to the image data of the part adjacent to the overlapping part, and the image data of the dummy part is the image data of the adjacent part even when the dummy part which is an image non-display area is in the overlapping part. Therefore, the boundary between the region where the projected images overlap and the non-overlapping region can be made inconspicuous and can be shown smoothly.

本発明の他の局面によれば、隣接する1個の他の画像と重複する2重複部分に対応する2重複部分の画像データと、隣接する3個の他の画像と重複する4重複部分に対応する4重複部分の画像データとについて、画像の属性を所定情報に基づき処理することができる。これにより、所定情報を用いて画像の属性を非重複部分と重複部分(2重複部分と4重複部分)とについて共通して調整することができる。その結果、投影面に投影される画像は、一様な属性を呈することが可能となり、重複部分と非重複部分の境界を目立ちにくくできる。   According to another aspect of the present invention, image data of two overlapping portions corresponding to two overlapping portions overlapping with one other adjacent image and four overlapping portions overlapping with three other adjacent images are included. Image attributes can be processed based on predetermined information for the corresponding four overlapping image data. Thereby, the attribute of an image can be adjusted in common about a non-overlapping part and an overlapping part (2 overlapping part and 4 overlapping part) using predetermined information. As a result, the image projected on the projection surface can exhibit uniform attributes, and the boundary between the overlapping portion and the non-overlapping portion can be made inconspicuous.

この発明の実施の形態に係る画像処理装置を用いたマルチプロジェクタシステムの概略構成図である。1 is a schematic configuration diagram of a multi-projector system using an image processing apparatus according to an embodiment of the present invention. この発明の実施の形態に係る画像処理装置が搭載されるコンピュータのハードウェア構成図である。It is a hardware block diagram of the computer by which the image processing apparatus which concerns on embodiment of this invention is mounted. この発明の実施の形態に係るプロジェクタの光学エンジンの概略構成図である。It is a schematic block diagram of the optical engine of the projector which concerns on embodiment of this invention. この発明の実施の形態に係る液晶パネルの水平方向と垂直方向の走査線に従う走査の方向を説明する図である。It is a figure explaining the scanning direction according to the scanning line of the horizontal direction of the liquid crystal panel which concerns on embodiment of this invention, and a perpendicular direction. 本実施の形態に係るRGBそれぞれの画面が重なった場合のずれを説明する図である。It is a figure explaining the shift | offset | difference when each screen of RGB based on this Embodiment has overlapped. 図5に関連して、ダミー画素部と有効画素部を説明する図である。It is a figure explaining a dummy pixel part and an effective pixel part in relation to FIG. この発明の実施の形態に係るスクリーンにおける画像の重複状態を説明する図である。It is a figure explaining the duplication state of the image in the screen which concerns on embodiment of this invention. この発明の実施の形態に係る画像データ処理部と、その周辺回路の構成を説明する図である。It is a figure explaining the structure of the image data processing part which concerns on embodiment of this invention, and its peripheral circuit. この発明の実施の形態に係るダミー領域処理部の処理フローチャートである。It is a process flowchart of the dummy area | region process part which concerns on embodiment of this invention. この発明の実施の形態に係る画像の明るさ調整を説明する図である。It is a figure explaining the brightness adjustment of the image which concerns on embodiment of this invention. この発明の実施の形態に係る画像のコントラスト調整を説明する図である。It is a figure explaining the contrast adjustment of the image which concerns on embodiment of this invention. この発明の実施の形態に係る画像のシャープネスを説明するための図である。It is a figure for demonstrating the sharpness of the image which concerns on embodiment of this invention. (A)〜(C)は、この発明の実施の形態に係る画像のコントラスト調整を説明する図である。(A)-(C) are the figures explaining the contrast adjustment of the image which concerns on embodiment of this invention. この発明の実施の形態に係るブレンディング処理後の表示画像を説明する図である。It is a figure explaining the display image after the blending process which concerns on embodiment of this invention. この発明の他の実施の形態に係る4個の画像の重複状態を説明する図である。It is a figure explaining the duplication state of the four images which concern on other embodiment of this invention. この発明の他の実施の形態に係るブレンディング処理後の画像の一例を示す図である。It is a figure which shows an example of the image after the blending process which concerns on other embodiment of this invention. この発明の他の実施の形態に係る画像処理装置の構成を説明する図である。It is a figure explaining the structure of the image processing apparatus which concerns on other embodiment of this invention. (A)と(B)は、この発明の他の実施の形態に係る画像の重複部分と属性値の関係を説明する図である。(A) And (B) is a figure explaining the relationship between the duplication part of the image which concerns on other embodiment of this invention, and an attribute value. この発明の他の実施の形態に係る画像データから属性値を検出する構成を示す図である。It is a figure which shows the structure which detects an attribute value from the image data which concerns on other embodiment of this invention. この発明の他の実施の形態に係るプロジェクタコントローラの概略構成図である。It is a schematic block diagram of the projector controller which concerns on other embodiment of this invention. 従来のマルチプロジェクタシステムの構成の一例を説明する図である。It is a figure explaining an example of the composition of the conventional multi-projector system. 従来のマルチプロジェクタシステムによる表示画像の一例を説明する図である。It is a figure explaining an example of the display image by the conventional multi projector system. ダミー画素部を有する表示画像を説明する図である。It is a figure explaining the display image which has a dummy pixel part. 従来のマルチプロジェクタシステムによるダミー画素部を有する画像の表示の一例を説明する図である。It is a figure explaining an example of the display of the image which has the dummy pixel part by the conventional multi projector system.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

図1を参照して、本実施の形態に係るマルチプロジェクタシステムは、隣接するように並べられたプロジェクタ(1)とプロジェクタ(2)とスクリーン6を備える。スクリーン6は、プロジェクタ(1)および(2)のそれぞれから画像の光が投射されることにより、画像を投影するための投影面である。投影面は、スクリーン6に限定されず、壁面であってもよい。   Referring to FIG. 1, the multi-projector system according to the present embodiment includes projector (1), projector (2), and screen 6 arranged so as to be adjacent to each other. The screen 6 is a projection surface for projecting an image by projecting image light from each of the projectors (1) and (2). The projection surface is not limited to the screen 6 and may be a wall surface.

プロジェクタ(1)は、投影するべき画像のデータを処理する画像処理装置1と、スクリーン6に画像を投影するための投影部である光学エンジン20を含む。プロジェクタ(2)も同様に図示しない画像処理装置1と光学エンジン20を含む。各プロジェクタに含まれる画像処理装置1と光学エンジン20とは同様の構成および機能を有する。プロジェクタ(1)と(2)は同様の構成および機能を有するのでプロジェクタPJと総称する場合がある。   The projector (1) includes an image processing apparatus 1 that processes data of an image to be projected, and an optical engine 20 that is a projection unit for projecting an image on a screen 6. Similarly, the projector (2) includes an image processing apparatus 1 and an optical engine 20 (not shown). The image processing apparatus 1 and the optical engine 20 included in each projector have the same configuration and function. Since the projectors (1) and (2) have the same configuration and function, they may be collectively referred to as a projector PJ.

ここでは、マルチプロジェクタシステムが備えるプロジェクタは2台としているが、3台以上であっても、以下の説明は同様に適用することができる。また、画像処理装置1はプロジェクタPJに内蔵されるとしているが、2台のプロジェクタに共用される画像処理装置1をプロジェクタの外部に備えて、外部の1台の画像処理装置1から2台のプロジェクタに、光学エンジン20の駆動信号7を供給するようにしてもよい。   Here, the number of projectors provided in the multi-projector system is two, but the following description can be similarly applied even when there are three or more projectors. Although the image processing apparatus 1 is built in the projector PJ, the image processing apparatus 1 shared by the two projectors is provided outside the projector, and the two external image processing apparatuses 1 to 2 You may make it supply the drive signal 7 of the optical engine 20 to a projector.

画像処理装置1は、画像データを供給する画像供給部2、供給された画像データを所定処理して、画像信号を出力する画像データ処理部3、画像データ処理部3から出力された画像信号に従い、接続された光学エンジン20による画像の表示動作を制御するための駆動信号7を生成して光学エンジン20に出力する表示制御部4、外部から与えられる情報を入力して、画像データ処理部3に対して出力する入力受付部5を備える。画像供給部2は、画像データを格納した記憶部、またはカメラなどの撮像部に相当する。   The image processing apparatus 1 includes an image supply unit 2 that supplies image data, a predetermined process on the supplied image data, an image data processing unit 3 that outputs an image signal, and an image signal output from the image data processing unit 3 The display control unit 4 that generates a drive signal 7 for controlling the display operation of the image by the connected optical engine 20 and outputs the drive signal 7 to the optical engine 20. The image data processing unit 3 receives information given from the outside. Is provided with an input accepting unit 5 for outputting. The image supply unit 2 corresponds to a storage unit that stores image data or an imaging unit such as a camera.

図2を参照して画像処理装置1が搭載されるコンピュータは、入力受付部5に相当するキーボード12、画像データ処理部3および表示制御部4に相当するDSP(Digital Signal Processor)10、画像供給部2の記憶部に相当するメモリ11、入力I/F(Interface)13および出力I/F14を含む。キーボード12から入力された情報・データは入力I/F13を介してDSP10に与えられる。また、DSP10による処理結果のデータ・信号は出力I/F14を介してコンピュータ外部の光学エンジン20などに出力される。なお、画像供給部2のカメラは、入力I/F13に接続される外部のデバイスに相当し、カメラが撮像して出力する画像データは、入力I/F13を介してDSP10に与えられる。   Referring to FIG. 2, the computer on which the image processing apparatus 1 is mounted includes a keyboard 12 corresponding to the input receiving unit 5, a DSP (Digital Signal Processor) 10 corresponding to the image data processing unit 3 and the display control unit 4, an image supply A memory 11 corresponding to the storage unit of the unit 2, an input I / F (Interface) 13, and an output I / F 14 are included. Information / data input from the keyboard 12 is given to the DSP 10 via the input I / F 13. Further, data and signals resulting from processing by the DSP 10 are output to the optical engine 20 outside the computer via the output I / F 14. The camera of the image supply unit 2 corresponds to an external device connected to the input I / F 13, and image data captured and output by the camera is given to the DSP 10 through the input I / F 13.

図3を参照して、プロジェクタPJは画像を投影するために、光学エンジン20と投射レンズ62とを備える。なお、プロジェクタPJは、スピーカ等の音声を出力するための構成要素や、光学エンジン20の構成要素および音声出力部を電気的に制御するための回路基板なども搭載するが、図3では、これらを含む一部の構成要素の図示は省略されている。   Referring to FIG. 3, the projector PJ includes an optical engine 20 and a projection lens 62 in order to project an image. The projector PJ is also equipped with components for outputting sound such as a speaker, and a circuit board for electrically controlling the components of the optical engine 20 and the sound output unit. The illustration of a part of the components including is omitted.

光学エンジン20は、照明装置である光源50を含む。光源50は、たとえば超高圧水銀ランプ、メタルハライドランプ、キセノンランプなどからなる。光源50からは、ほぼ平行光となって光が出射される。   The optical engine 20 includes a light source 50 that is a lighting device. The light source 50 includes, for example, an ultrahigh pressure mercury lamp, a metal halide lamp, a xenon lamp, or the like. Light is emitted from the light source 50 as substantially parallel light.

光源50からの光は、フライアイインテグレータ51などのレンズ系を通過しダイクロイックミラー52に入射する。当該レンズ系を通過することにより、液晶パネル5R,5Gおよび5Bに入射する光の光量分布が均一となるよう、光源50から入射される光に光学作用を付与する。   The light from the light source 50 passes through a lens system such as the fly eye integrator 51 and enters the dichroic mirror 52. By passing through the lens system, an optical action is applied to the light incident from the light source 50 so that the light quantity distribution of the light incident on the liquid crystal panels 5R, 5G, and 5B becomes uniform.

ダイクロイックミラー52は、入射された光のうち、青色波長帯の光(以下、「B光」
という)のみを透過し、赤色波長帯の光(以下、「R光」という)と緑色波長帯の光(以下、「G光」という)を反射する。ダイクロイックミラー52を透過したB光は、ミラー53に導かれ、そこで反射され、図示されないレンズ系を介して、ほぼ平行光で液晶パネル5Bに入射する。液晶パネル5Bは、青色用の画像信号に応じて駆動され、その駆動状態に応じてB光を変調する。液晶パネル5Bによって変調されたB光は、ダイクロイックプリズム(以下、単に「プリズム」ともいう)60に入射する。
Of the incident light, the dichroic mirror 52 is light in the blue wavelength band (hereinafter referred to as “B light”).
Only light in the red wavelength band (hereinafter referred to as “R light”) and light in the green wavelength band (hereinafter referred to as “G light”). The B light transmitted through the dichroic mirror 52 is guided to the mirror 53, reflected there, and enters the liquid crystal panel 5B as substantially parallel light through a lens system (not shown). The liquid crystal panel 5B is driven according to the blue image signal, and modulates the B light according to the driving state. The B light modulated by the liquid crystal panel 5B enters a dichroic prism (hereinafter also simply referred to as “prism”) 60.

ダイクロイックミラー52によって反射された光のうちG光は、ダイクロイックミラー54によって反射され、図示されないレンズ系を介して、ほぼ平行光で液晶パネル5Gに入射する。液晶パネル5Gは、緑色用の画像信号に応じて駆動され、その駆動状態に応じてG光を変調する。液晶パネル5Gによって変調されたG光は、ダイクロイックプリズム60に入射する。   Of the light reflected by the dichroic mirror 52, the G light is reflected by the dichroic mirror 54 and enters the liquid crystal panel 5G as substantially parallel light through a lens system (not shown). The liquid crystal panel 5G is driven according to the image signal for green, and modulates the G light according to the driving state. The G light modulated by the liquid crystal panel 5G enters the dichroic prism 60.

ダイクロイックミラー54を透過したR光は、ダイクロイックミラー55によって反射され、図示されないレンズ系を介して、ほぼ平行光で液晶パネル5Rに入射する。液晶パネル5Rは、赤色用の画像信号に応じて駆動され、その駆動状態に応じてR光を変調する。液晶パネル5Rによって変調されたR光は、ダイクロイックプリズム60に入射する。   The R light transmitted through the dichroic mirror 54 is reflected by the dichroic mirror 55, and enters the liquid crystal panel 5R as substantially parallel light through a lens system (not shown). The liquid crystal panel 5R is driven according to the image signal for red, and modulates the R light according to the driving state. The R light modulated by the liquid crystal panel 5R enters the dichroic prism 60.

ダイクロイックプリズム60は、液晶パネル5R,5Bおよび5Gによって変調されたR光,G光およびB光を色合成し、投射レンズ62へと入射させる。投射レンズ62は、投射光を被投射面であるスクリーン6に結像させるためのレンズ群と、これらレンズ群の一部を光軸方向に変位させて投射画像のズーム状態およびフォーカス状態を調整するためのアクチュエータを備えている。ダイクロイックプリズム60によって色合成された光は、投射レンズ62によって、スクリーン6上に拡大投射される。   The dichroic prism 60 color-synthesizes the R light, G light, and B light modulated by the liquid crystal panels 5R, 5B, and 5G and causes the light to enter the projection lens 62. The projection lens 62 adjusts the zoom state and the focus state of the projection image by displacing a lens group for forming an image of the projection light on the screen 6 that is the projection surface and a part of the lens group in the optical axis direction. An actuator is provided. The light synthesized by the dichroic prism 60 is enlarged and projected on the screen 6 by the projection lens 62.

図4を参照して、本実施の形態に係る液晶パネルにおける画像を表示するための走査について説明する。ここでは、説明を簡単にするために、液晶パネルには、1フレームごとに画面が表示されると想定する。1フレームの画面は、図4に示されるように、直交するX軸およびY軸で規定される原点Oを有した二次元の座標平面であるとする。当該フレームの1画素は、座標(x,y)で指示される。画面表示においては、水平方向(X軸が延びる方向)の画面走査を垂直方向(Y軸が延びる方向)に、1ラインずつ順に行ない、垂直方向の1回の走査で1画面分(1フレーム分)を描画している。   With reference to FIG. 4, the scanning for displaying the image in the liquid crystal panel which concerns on this Embodiment is demonstrated. Here, to simplify the description, it is assumed that a screen is displayed for each frame on the liquid crystal panel. As shown in FIG. 4, it is assumed that the screen of one frame is a two-dimensional coordinate plane having an origin O defined by the orthogonal X axis and Y axis. One pixel of the frame is indicated by coordinates (x, y). In the screen display, screen scanning in the horizontal direction (direction in which the X axis extends) is sequentially performed one line at a time in the vertical direction (direction in which the Y axis extends), and one screen (one frame) is scanned in one vertical direction. ) Is drawn.

本実施の形態では、図3に示したように、RGBの3枚の液晶パネルによって表示される3枚の画面が、ダイクロイックプリズム60を介して重なり合った1画面としてスクリーン6に表示されるので、液晶パネルの特性、またはダイクロイックプリズム60の特性により、3枚の画面はドット単位で微妙にずれを持って重なり合う(図5参照)。   In the present embodiment, as shown in FIG. 3, the three screens displayed by the three liquid crystal panels of RGB are displayed on the screen 6 as one screen that is overlapped via the dichroic prism 60. Due to the characteristics of the liquid crystal panel or the characteristics of the dichroic prism 60, the three screens overlap each other with a slight deviation (see FIG. 5).

図6に示すように、そのために、各液晶パネルは、図4に示された表示領域の中央に固定サイズの矩形の有効画素の領域である有効画素部を有し、有効画素領域を囲むようにダミー画素領域を有する。有効画素部においては、画像が表示されて、ダミー画素領域では画像は表示されない。ダミー画素領域には最暗の光以上の光が当たる。   As shown in FIG. 6, for this purpose, each liquid crystal panel has an effective pixel portion which is a fixed-size rectangular effective pixel region at the center of the display region shown in FIG. 4, and surrounds the effective pixel region. Have a dummy pixel region. In the effective pixel portion, an image is displayed, and no image is displayed in the dummy pixel area. The dummy pixel area is exposed to light more than the darkest light.

図7を参照して、本実施の形態に係るマルチプロジェクタシステムによるスクリーン6における表示画像は、プロジェクタ(1)の非重複領域E21とプロジェクタ(2)の非重複領域E22、プロジェクタ(1)と(2)の有効画素部が重なりあった重複領域E1、およびダミー画素領域がプロジェクタ(1)と(2)の有効画素部に重複しているダミー領域E31とE32を含む。   Referring to FIG. 7, a display image on screen 6 by the multi-projector system according to the present embodiment includes a non-overlapping area E21 of projector (1), a non-overlapping area E22 of projector (2), projector (1), and ( 2) includes an overlapping region E1 where the effective pixel portions overlap, and dummy regions E31 and E32 where the dummy pixel regions overlap the effective pixel portions of the projectors (1) and (2).

図8を参照して、プロジェクタ(1)の画像データ処理装置3を例に構成を説明する。
画像データ処理装置3は1フレーム単位で画像を処理すると想定する。画像処理装置3の出力信号を入力する表示制御部4は、液晶パネル5R,5G,5Bのそれぞれに駆動信号7を出力する。液晶パネル5R,5G,5Bのそれぞれは、液晶の画素が配列されてなるパネル51R,51G,51Bのそれぞれと、与えられる駆動信号7に基づきパネルの液晶素子を水平および垂直の各方向に従い駆動するパネルドライバ52R,52G,52Bのそれぞれを含む。
With reference to FIG. 8, the configuration will be described taking the image data processing device 3 of the projector (1) as an example.
It is assumed that the image data processing device 3 processes an image in units of one frame. The display control unit 4 that receives the output signal of the image processing device 3 outputs a drive signal 7 to each of the liquid crystal panels 5R, 5G, and 5B. Each of the liquid crystal panels 5R, 5G, and 5B drives the liquid crystal elements of the panel according to the horizontal and vertical directions based on each of the panels 51R, 51G, and 51B in which liquid crystal pixels are arranged and the drive signal 7 given thereto. Each of the panel drivers 52R, 52G, and 52B is included.

画像データ処理装置3は、重複領域E1の画像データを処理する重複領域処理部31、非重複領域E21の画像データを処理する非重複領域処理部32、およびダミー領域E31の画像データを処理するダミー領域処理部33を含む。さらに、外部から入力する情報に基づき1フレーム画像における重複領域E1、非重複領域E21およびダミー領域E31それぞれのサイズおよび位置((x,y)座標値)の情報を生成して、重複領域処理部31、非重複領域処理部32およびダミー領域処理部33のそれぞれに出力する領域検出部35、画像供給部2から入力する画像データ(各画素についてR,G,Bそれぞれの階調データ、および当該画素の位置((x,y)座標値)データを含む画像データ)を1フレーム分蓄えて、蓄えた1フレーム分の画像データを読出して重複領域処理部31、非重複領域処理部32およびダミー領域処理部33それぞれに出力するフレームバッファ34、ダミー領域有無判定部36および画像信号を生成する信号生成部37を含む。   The image data processing device 3 includes an overlapping area processing unit 31 that processes image data of the overlapping area E1, a non-overlapping area processing unit 32 that processes image data of the non-overlapping area E21, and a dummy that processes image data of the dummy area E31. An area processing unit 33 is included. Furthermore, based on information input from the outside, information on the size and position ((x, y) coordinate value) of each of the overlapping area E1, the non-overlapping area E21 and the dummy area E31 in one frame image is generated, and an overlapping area processing unit 31, the region detection unit 35 output to each of the non-overlapping region processing unit 32 and the dummy region processing unit 33, the image data input from the image supply unit 2 (the gradation data of R, G, and B for each pixel, The image data including the pixel position ((x, y) coordinate value) data) is stored for one frame, the stored image data for one frame is read, and the overlapping region processing unit 31, the non-overlapping region processing unit 32 and the dummy are read out. A frame buffer 34 to be output to each of the region processing units 33, a dummy region presence / absence determination unit 36, and a signal generation unit 37 for generating an image signal are included.

ダミー領域有無判定部36は、外部から与えられる情報に基づき、フレームにおけるダミー領域E31の有無を判定する。有りと判定すると、非重複領域処理部32と重複領域処理部31の出力信号をダミー領域処理部33に与えるが、無しと判定すると、非重複領域処理部32と重複領域処理部31の出力を入力し、信号生成部37に出力する。   The dummy area presence / absence determination unit 36 determines the presence / absence of the dummy area E31 in the frame based on information given from the outside. If determined to be present, the output signals of the non-overlapping region processing unit 32 and the overlapping region processing unit 31 are provided to the dummy region processing unit 33. If not determined, the outputs of the non-overlapping region processing unit 32 and the overlapping region processing unit 31 are output. Input and output to the signal generator 37.

信号生成部37は、入力する画像データに基づき、画像信号を生成し、表示制御部4に出力する。   The signal generation unit 37 generates an image signal based on the input image data and outputs the image signal to the display control unit 4.

重複領域処理部31は、入力する1フレームの画像データのうち、領域検出部5から与えられる情報に基づき指示される、重複領域E1の画像データのR,G,BのYUV変換したYの値を検出し、検出したYの値を指す情報311を非重複領域処理部32とダミー領域処理部33に出力する。   The overlapping area processing unit 31 is instructed based on the information given from the area detecting unit 5 among the input image data of one frame, and the Y, Y, and Y values of R, G, and B of the image data of the overlapping area E1 And information 311 indicating the detected Y value is output to the non-overlapping area processing unit 32 and the dummy area processing unit 33.

非重複領域処理部32は、入力する1フレームの画像データのうち、領域検出部5から与えられる情報に基づき指示される、非重複領域E21の画像データのR,G,Bそれぞれの階調を、重複領域処理部31から与えられる情報311(R,G,BのYUV変換したYの値)に一致させるように変更処理する。これにより、非重複領域E21の画像の輝度は、重複領域E1の画像の輝度にほぼ等しくなるように調整される。   The non-overlapping area processing unit 32 determines the respective gradations of R, G, and B of the image data of the non-overlapping area E21, which is instructed based on the information given from the area detecting unit 5 among the input image data of one frame. Then, the change processing is performed so as to match the information 311 (Y value obtained by YUV conversion of R, G, B) given from the overlapping area processing unit 31. Thereby, the brightness of the image in the non-overlapping area E21 is adjusted to be substantially equal to the brightness of the image in the overlapping area E1.

ダミー領域処理部33は、ダミー領域有無判定部36が有りと判定したときのみ能動化されて、データ処理を実行する。したがって、ダミー領域有無判定部36が無しと判定する場合には、能動化されないので、データ処理は実行しない。   The dummy area processing unit 33 is activated only when the dummy area presence / absence determination unit 36 determines that it is present, and executes data processing. Therefore, when the dummy area presence / absence determining unit 36 determines that there is no data, the data processing is not executed because the dummy area is not activated.

ダミー領域処理部33は、能動化されて画像データ処理の実行を開始すると、図9のフローチャートに示す手順に従い動作する。まず、ダミー領域処理部33は、1フレームの画像データを入力し(図9のステップS1)、入力する1フレームの画像データのうち、領域検出部5から与えられる情報に基づきダミー領域E31の画像データを検出する(ステップS3)。そして、検出したダミー領域E31の画像データを、該画像データが指す画像の属性を、周囲の重複領域E1および非重複領域E21の画像の属性に合致・調和するようにデータ処理して、出力する(ステップS5)。これにより、図24のように表示される場合であっても、ダミー画素部が重複している画像を、隣接する有効画素部の画像
とスムーズに連続した図14のような画像として表示することができる。
When the dummy area processing unit 33 is activated and starts executing image data processing, the dummy area processing unit 33 operates according to the procedure shown in the flowchart of FIG. First, the dummy area processing unit 33 inputs one frame of image data (step S1 in FIG. 9), and among the input one frame of image data, the image of the dummy area E31 based on information given from the area detection unit 5 Data is detected (step S3). Then, the detected image data of the dummy area E31 is subjected to data processing so that the attribute of the image pointed to by the image data matches or matches the attribute of the image of the surrounding overlapping area E1 and non-overlapping area E21, and is output. (Step S5). Thus, even when the image is displayed as shown in FIG. 24, an image in which the dummy pixel portion is overlapped is displayed as an image as shown in FIG. 14 smoothly continuous with the image of the adjacent effective pixel portion. Can do.

重複領域処理部31から出力された重複領域E1の画像データおよび非重複領域処理部32から出力された非重複領域E21の画像データおよび属性を処理した後のダミー領域E31の画像データを合成して1フレームの画像データを生成し(ステップS7)、1フレーム分の画像データを信号生成部37に出力する(ステップS9)。   The image data of the overlapping region E1 output from the overlapping region processing unit 31 and the image data of the non-overlapping region E21 output from the non-overlapping region processing unit 32 and the image data of the dummy region E31 after processing the attributes are synthesized. One frame of image data is generated (step S7), and one frame of image data is output to the signal generator 37 (step S9).

信号生成部37は、与えられる画像データに基づき1フレーム分の画像信号を生成し、表示制御部4に与える。表示制御部4は、入力する画像信号に基づき液晶パネル5R,5G,5Bの駆動信号7を生成して各液晶パネルに出力する。   The signal generation unit 37 generates an image signal for one frame based on the supplied image data and supplies the image signal to the display control unit 4. The display control unit 4 generates a drive signal 7 for the liquid crystal panels 5R, 5G, and 5B based on the input image signal and outputs it to each liquid crystal panel.

[領域サイズの調整]
通常、ダミー画素領域(図6参照)のサイズは、液晶パネルによって一意に決まる固有値であるが、フォーカスのずれによりスクリーン6上の表示画像では、ダミー領域E31のサイズ(すなわち、ダミー領域E31が重複する有効画素部のサイズ)は、液晶パネルに固有のダミー画素領域のサイズとは一致しない。
[Adjust Area Size]
Normally, the size of the dummy pixel area (see FIG. 6) is a unique value uniquely determined by the liquid crystal panel, but the size of the dummy area E31 (that is, the dummy area E31 overlaps in the display image on the screen 6 due to a focus shift. The size of the effective pixel portion) does not match the size of the dummy pixel region unique to the liquid crystal panel.

そこで、領域検出部35は、ダミー領域処理部33が属性を変更するべきダミー領域E31のサイズを、入力受付部5を介して入力されるユーザが指定の情報に基づき、可変に決定する。領域検出部35が決定したダミー領域E31のサイズは、ダミー領域処理部33に与えられる。   Therefore, the area detection unit 35 variably determines the size of the dummy area E31 whose attribute is to be changed by the dummy area processing unit 33 based on information specified by the user input via the input receiving unit 5. The size of the dummy area E31 determined by the area detection unit 35 is given to the dummy area processing unit 33.

以下に説明する属性の調整は、領域検出部35が検出(決定)した位置およびサイズのダミー領域E31が重複した有効画素の画像に対して行なわれる。   The attribute adjustment described below is performed on the image of the effective pixel in which the dummy region E31 having the position and size detected (determined) by the region detection unit 35 overlaps.

[属性の変更]
ダミー領域処理部33はダミー領域E31の表示画像の属性を変更する属性変更部に対応する。属性変更によって、有効画素部に生じるダミー領域E31による境界を目立たなくしマルチプロジェクタシステムによる画像を、観察者に対してスムーズに見せることができる。以下に、変更する属性の具体例として、ダミー領域E31のサイズ、ダミー領域E31が重複している有効画素部の画像の‘明るさ’、‘コントラスト’、‘色の濃さ’、‘シャープネス’、‘ガンマ値’および‘色温度’などがあるが、これらに限定されるものではない。また、こられらのうちの1種類、または2種類以上の属性を同時に変更するようにしてよい。
[Change attribute]
The dummy area processing unit 33 corresponds to an attribute changing unit that changes the attribute of the display image of the dummy area E31. By changing the attribute, the boundary due to the dummy area E31 generated in the effective pixel portion is made inconspicuous, and the image by the multi-projector system can be smoothly shown to the observer. Hereinafter, as specific examples of the attribute to be changed, the size of the dummy area E31, the “brightness”, “contrast”, “color density”, and “sharpness” of the image of the effective pixel portion where the dummy area E31 overlaps are shown. , 'Gamma value' and 'color temperature', but are not limited thereto. Also, one or more of these attributes may be changed at the same time.

(明るさ調整)
ダミー領域E31の有効画素の明るさを、重複領域E1の隣接する画素と非重複領域E21の隣接する画素の明るさとなるように変更する。図10には、液晶パネルで画像を表示する場合における入力画像データの階調レベル(x軸)と液晶パネルの出力レベル(輝度レベル:y軸)の関係が実線で示される。輝度レベルは画像の明るさに相当する。
(Brightness adjustment)
The brightness of the effective pixel in the dummy area E31 is changed to be the brightness of the adjacent pixel in the overlapping area E1 and the adjacent pixel in the non-overlapping area E21. In FIG. 10, the solid line represents the relationship between the gradation level (x axis) of the input image data and the output level (brightness level: y axis) of the input image data when an image is displayed on the liquid crystal panel. The luminance level corresponds to the brightness of the image.

ダミー領域E31の画像はダミー画素が重複しているので明るくなる。したがって、ダミー領域E31の画像の明るさを、情報311に基づき、隣接する重複領域E1および非重複領域E21の画像の明るさと等しいか否かを検出する。   The image in the dummy area E31 becomes bright because the dummy pixels overlap. Therefore, it is detected whether the brightness of the image of the dummy area E31 is equal to the brightness of the images of the adjacent overlapping area E1 and non-overlapping area E21 based on the information 311.

たとえば、ダミー領域E31の画像が、隣接する重複領域E1および非重複領域E21の画像よりも暗いと検出すると、ダミー領域処理部33は、ダミー領域E31の有効画素のR,G,Bの階調値を、当該有効画素の画像データに基づき生成される画像信号の輝度レベルが、図10の太い矢印方向に全体的にシフトするように、変更処理する。逆に、明るいと検出すると、太い矢印方向とは反対方向にシフトするように変更処理する。   For example, when it is detected that the image of the dummy area E31 is darker than the images of the adjacent overlapping area E1 and the non-overlapping area E21, the dummy area processing unit 33 performs gradations of R, G, and B of the effective pixels of the dummy area E31. The value is changed so that the luminance level of the image signal generated based on the image data of the effective pixel is shifted in the direction of the thick arrow in FIG. On the contrary, when bright is detected, a change process is performed so that the direction is shifted in the direction opposite to the direction of the thick arrow.

(コントラスト調整)
図11には、液晶パネルで画像を表示する場合における入力画像データの階調レベル(x軸)と液晶パネルの出力レベル(輝度レベル:y軸)の関係が実線で示される。ダミー領域E31の画像はダミー画素部が重複しているので明るくなる。したがって、画像が暗いものであっても白味がかってしまう。そこで、ダミー領域処理部33は、ダミー領域E31の有効画素のR,G,Bの階調値に基づき変換される画像信号の輝度レベルを指す実線を、図11の太い矢印方向にシフトさせて、傾きを破線のように変更するように、有効画素のR,G,Bの階調値を変更処理する。
(Contrast adjustment)
In FIG. 11, the solid line represents the relationship between the gradation level (x axis) of the input image data and the output level (brightness level: y axis) of the liquid crystal panel when displaying an image on the liquid crystal panel. The image of the dummy area E31 becomes bright because the dummy pixel portion overlaps. Therefore, even if the image is dark, it becomes white. Therefore, the dummy area processing unit 33 shifts the solid line indicating the luminance level of the image signal converted based on the gradation values of the effective pixels in the dummy area E31 in the direction of the thick arrow in FIG. The gradation values of R, G, and B of the effective pixels are changed so that the inclination is changed as indicated by a broken line.

(色の濃さ)
R,G,Bそれぞれの階調によりさまざまな色が表現されるが、有効画素部の画像の色の濃さは、ダミー領域E31が重複していることにより、光があたり、スクリーン6では本来の濃さではなく、幾分薄くなって見える。したがって、ダミー領域E31が重複している有効画素部の画素のR、G,Bの階調値を調整して本来の色の濃さになるようにする。これにより、信号生成部37では、変更後の階調値に基づいた画像信号が生成される。
(Saturation of color)
Various colors are expressed by the respective gradations of R, G, and B, but the color density of the image of the effective pixel portion is the light on which the dummy area E31 overlaps, and the screen 6 originally It looks rather thin rather than dark. Accordingly, the gradation values of R, G, and B of the pixels in the effective pixel portion where the dummy area E31 overlaps are adjusted so that the original color density is obtained. As a result, the signal generation unit 37 generates an image signal based on the changed gradation value.

(色合いの調整)
R,G,Bそれぞれの階調によりさまざまな色が表現されるが、有効画素部の画像の色は、ダミー領域E31の画素が重複していることにより、スクリーン6では本来の色では表示されない。ダミー領域E31が重複している有効画素部のR,G,Bの階調値を調整して本来の色合いになるようにする。
(Color adjustment)
Various colors are expressed by the respective gradations of R, G, and B, but the image of the effective pixel portion is not displayed in the original color on the screen 6 because the pixels in the dummy area E31 overlap. . The tone values of R, G, and B of the effective pixel portion where the dummy area E31 overlaps are adjusted so that the original color is obtained.

(シャープネスの調整)
図3に示すように液晶パネルに表示した画像は、レンズ光学系を通過させてスクリーン6に投影されるので、表示画像の周辺部であるダミー領域E31ではレンズ光学系の光軸から離れている分、像がぼやけてしまう。これを解消するために、ダミー画素部が重複している有効画素部の画像について輪郭(エッジ)を強調することによりシャープ化する。
(Sharpness adjustment)
As shown in FIG. 3, since the image displayed on the liquid crystal panel is projected onto the screen 6 through the lens optical system, the dummy area E31 which is the peripheral portion of the display image is separated from the optical axis of the lens optical system. The image is blurred. In order to eliminate this, the image of the effective pixel portion where the dummy pixel portion overlaps is sharpened by enhancing the outline (edge).

具体的には、明るさの変化が大きい部分がエッジであるから、このエッジをより強調するように処理する。たとえば、ダミー画素部が重複している有効画素部のある注目画素を中心とした上下左右の9つの画素の階調値に対して、図12に示すような係数をそれぞれ乗算する。図12では、中央の係数が注目画素に対応する。9つの画素それぞれに図12に対応する係数を乗算して得られた値をすべて加算し、加算して得られた値を2で割る。注目画素の階調値を、この割って得られた値と置換する。これにより、注目画素の階調値が更新される。   Specifically, since the portion where the change in brightness is large is an edge, processing is performed so that this edge is more emphasized. For example, the gray scale values of nine pixels above, below, left, and right centering on a target pixel having an effective pixel portion with overlapping dummy pixel portions are respectively multiplied by coefficients as shown in FIG. In FIG. 12, the center coefficient corresponds to the target pixel. All the values obtained by multiplying each of the nine pixels by the coefficient corresponding to FIG. 12 are added, and the value obtained by the addition is divided by two. The gradation value of the pixel of interest is replaced with the value obtained by this division. Thereby, the gradation value of the target pixel is updated.

このようにダミー画素部が重複している有効画素部の各画素を注目画素として、その階調値を、図12のような係数を用いてフィルタ処理を行うことにより、画像をシャープ化することができるから、観察者は、ダミー領域E31の表示画像をピントがあった画像としてはっきりと確認することができる。   In this way, each pixel of the effective pixel portion where the dummy pixel portion overlaps is regarded as a pixel of interest, and the gradation value is subjected to filter processing using a coefficient as shown in FIG. 12, thereby sharpening the image. Therefore, the observer can clearly confirm the display image of the dummy area E31 as a focused image.

(ガンマ特性の調整)
ガンマは、画像の色データを、液晶パネルではどのような明かるさで出力するかという相関関係を指す。ガンマ特性は、入力データと輝度の関係を指す。入力信号(x)と輝度(y)の関係は、(y=xのγ乗)の式で示される。
(Adjust gamma characteristics)
Gamma refers to the correlation of how bright the image color data is output on the liquid crystal panel. The gamma characteristic indicates the relationship between input data and luminance. The relationship between the input signal (x) and the luminance (y) is expressed by the equation (y = x raised to the γ power).

ダミー領域処理部33は、ダミー領域E31の画像と、隣接する重複領域E1と非重複領域E21の画像との間で違和感のないガンマ特性にするために、ダミー領域E31が重複している有効画素領域のγ値を調整して信号生成部37に出力する。このγ値は、入力受付部5を介して外部から与えられる。たとえば、スクリーン6に表示される画像を観察するユーザが、観察結果に基づきキーボード12または図示のない外部スイッチを操作してガンマ値を指定するデータを入力する。   The dummy area processing unit 33 is an effective pixel in which the dummy area E31 overlaps in order to obtain a gamma characteristic that does not give a sense of incongruity between the image of the dummy area E31 and the image of the adjacent overlapping area E1 and the non-overlapping area E21. The γ value of the region is adjusted and output to the signal generation unit 37. This γ value is given from the outside via the input receiving unit 5. For example, a user who observes an image displayed on the screen 6 inputs data specifying a gamma value by operating the keyboard 12 or an external switch (not shown) based on the observation result.

一般的に、理想のガンマ値は供給される画像データの種類、または画像データ供給元の機種(パソコン等の機種)により決まる。メモリ11に、画像データの種類または画像データ供給元の機種毎に、理想のガンマ値を関連付けて格納したテーブルを記憶させておく。ダミー領域処理部33は、ユーザがキーボード12を介して指定したデータ(画像データの種類または画像データ供給元の機種)に基づきテーブルを検索して、関連付けされたガンマ値を読出し、信号生成部37に出力する。これにより、信号生成部37は、与えられるガンマ値に基づき、入力する画像データに従う画像信号を生成する。   In general, the ideal gamma value is determined by the type of image data supplied or the model of the image data supply source (model such as a personal computer). The memory 11 stores a table in which ideal gamma values are associated and stored for each type of image data or each model of image data supply source. The dummy area processing unit 33 searches the table based on data (the type of image data or the model of the image data supply source) specified by the user via the keyboard 12, reads the associated gamma value, and generates a signal generation unit 37. Output to. Thereby, the signal generation part 37 produces | generates the image signal according to the image data input based on the given gamma value.

(色温度の調整)
ダミー領域E31におけるダミー画素が重複した有効画素部の画素のR,G,Bの階調レベルを調整することで、液晶パネルの表示画像について目標として設定した色表示を実現する。
(Adjusting color temperature)
By adjusting the R, G, and B gradation levels of the pixels in the effective pixel portion where the dummy pixels overlap in the dummy area E31, color display set as a target for the display image of the liquid crystal panel is realized.

たとえば、液晶パネルではR,G,Bの階調値がそれぞれ250である場合、図13(A)〜(C)の実線で示すように白の色温度が5000K(ケルビン)になるように設定されてホワイトバランスを調整していると想定する。ダミー領域E31における表示画像が隣接領域の画像に比べて青っぽい画像となっているのを修正するために色温度を4200Kに下げて赤みがかった表示色(電球を照明とした画像)とする場合には、最暗部は固定して明部のRの階調値を上げ、Bの階調値を下げることにより青っぽい画像を修正する。逆に、赤っぽい画像を修正するために色温度を6500Kに上げて青みがかった表示色(蛍光灯を照明とした画像)とする場合には、図13(A)と(C)の破線に示すようにBの階調値を上げて、Rの階調値を下げる。   For example, in the liquid crystal panel, when the gradation values of R, G, and B are each 250, the white color temperature is set to 5000K (Kelvin) as shown by the solid lines in FIGS. Assume that the white balance is adjusted. When correcting the display image in the dummy area E31 to be a bluish image compared to the image in the adjacent area, the color temperature is lowered to 4200K to obtain a reddish display color (an image using a light bulb). The darkest part is fixed and the gradation value of R in the bright part is increased, and the gradation value of B is decreased, thereby correcting the bluish image. Conversely, in order to correct a reddish image, the color temperature is increased to 6500K to obtain a bluish display color (an image with a fluorescent lamp illuminated), and the broken lines in FIGS. As shown, the gradation value of B is increased and the gradation value of R is decreased.

ここでは、液晶パネルの表示画像(すなわち、スクリーン6の表示画像)の色温度は、ユーザがキーボード12などを操作することにより外部から指定できると想定する。本実施の形態では、色温度のそれぞれに対応して、R、Bのうち階調値を変更する色と、階調値の変更の量(増減値)とを格納したテーブルがメモリ11に予め記憶されている。ダミー領域処理部33は、入力受付部5を介して指定された色温度に基づき、メモリ11のテーブルを検索して、対応する色と、階調値の変更量とのデータを読出す。そして、読出したデータに基づき、階調レベルを変更する。これによりダミー領域E31の有効画素による画像の色温度を隣接する領域の画像の色温度に等しくなるように調整することができる。   Here, it is assumed that the color temperature of the display image on the liquid crystal panel (that is, the display image on the screen 6) can be designated from the outside by the user operating the keyboard 12 or the like. In the present embodiment, a table storing the color for changing the gradation value among R and B and the amount of change (increase / decrease value) of the gradation value corresponding to each color temperature is stored in the memory 11 in advance. It is remembered. The dummy area processing unit 33 searches the table of the memory 11 based on the color temperature designated through the input receiving unit 5 and reads data of the corresponding color and the gradation value change amount. Then, the gradation level is changed based on the read data. Thereby, the color temperature of the image by the effective pixel of the dummy area | region E31 can be adjusted so that it may become equal to the color temperature of the image of an adjacent area | region.

[他の実施の形態]
上述の実施の形態では、2台のプロジェクタから投影された2個の画像がスクリーン6上で重複して表示される場合を示したが、スクリーン6に、より大きな画像を投影したいとの要望がある。この要望には、画像を投影するプロジェクタの台数を増やすことで対処できる。
[Other embodiments]
In the above-described embodiment, the case where two images projected from two projectors are displayed on the screen 6 in an overlapping manner has been shown. However, there is a demand for projecting a larger image on the screen 6. is there. This demand can be addressed by increasing the number of projectors that project images.

本実施の形態では4台のプロジェクタからスクリーン6に投影される4個の画像を重複して表示する場合における、ブレンディング処理について説明する。本実施の形態では、説明を簡単にするためにダミー画素部およびそれに関する画像処理についての説明は略す。   In the present embodiment, a blending process when four images projected from four projectors onto the screen 6 are displayed in duplicate will be described. In this embodiment, in order to simplify the description, description of the dummy pixel portion and the image processing related thereto is omitted.

図15には、スクリーン6に対して4台のプロジェクタ(A)、プロジェクタ(B)、プロジェクタ(C)およびプロジェクタ(D)により画像を投影した場合の、画像の重複状態を示す。スクリーン6に投影された画像は、画像の重複がない非重複領域E41、E42、E43およびE44、隣接する他の画像を含んで2個の画像が重複する2重複領域E51、E52、E53およびE54、ならびに隣接する他の3個の画像を含んで4個の画像が重複する4重複領域E61を含む。   FIG. 15 shows an overlapping state of images when images are projected on the screen 6 by the four projectors (A), the projector (B), the projector (C), and the projector (D). The image projected on the screen 6 includes non-overlapping areas E41, E42, E43 and E44 where there are no overlapping images, and two overlapping areas E51, E52, E53 and E54 where two images overlap including other adjacent images. , As well as a four overlapping region E61 where four images overlap, including the other three adjacent images.

非重複領域E41、E42、E43およびE44、2重複領域E51、E52、E53およびE54、ならびに4重複領域E61のサイズおよび位置は、プロジェクタの配置の態様に従って一意に決定される。ここでは、これら領域の画像におけるサイズおよび位置は、ユーザにより予め決定されていると想定する。   The sizes and positions of the non-overlapping areas E41, E42, E43 and E44, the two overlapping areas E51, E52, E53 and E54, and the four overlapping areas E61 are uniquely determined according to the arrangement of the projectors. Here, it is assumed that the size and position in the image of these regions are determined in advance by the user.

画像が重複する領域では、重複する画像の数が多くなるほど、画像が明るくなるために、非重複領域E41〜E44、2重複領域E51〜E54および4重複領域E61の間では、画像の明るさが相違する。本実施の形態のブレンディング処理では、4重複領域E61の明るさを決定し、この決定した明るさに2重複領域および非重複領域それぞれの明るさを一致させることによって、スクリーン6に投影される画像の明るさを均一にする。図16には、図15の投影画像について本実施の形態のブレンディング処理を施した場合の投影画像が示される。図16では、投影される画像の明るさは均一となる。   In the region where the images overlap, the larger the number of overlapping images, the brighter the image. Therefore, the brightness of the image between the non-overlapping regions E41 to E44, the two overlapping regions E51 to E54, and the four overlapping regions E61. Is different. In the blending process of the present embodiment, the brightness of the 4-overlap area E61 is determined, and the brightness of each of the 2-overlap area and the non-overlap area is matched with the determined brightness to thereby project the image projected on the screen 6 Make the brightness uniform. FIG. 16 shows a projection image when the blending process of the present embodiment is performed on the projection image of FIG. In FIG. 16, the brightness of the projected image is uniform.

本実施の形態による各プロジェクタの構成は、画像処理部3を画像処理部3Aに代替した点を除けば、図1〜図6に示したものと同様であり、その説明は略す。画像処理部3Aによって、本実施の形態によるブレンディング処理が行われる。画像処理部3Aは、非重複領域E41〜E44、2重複領域E51〜E54および4重複領域E61の間では、画像の明るさなど表示画像が有する属性値が一致するように画像処理が行われる。   The configuration of each projector according to the present embodiment is the same as that shown in FIGS. 1 to 6 except that the image processing unit 3 is replaced with the image processing unit 3A, and the description thereof is omitted. The blending process according to the present embodiment is performed by the image processing unit 3A. The image processing unit 3A performs image processing between the non-overlapping areas E41 to E44, the two overlapping areas E51 to E54, and the four overlapping areas E61 so that the attribute values of the display image such as the brightness of the images match.

図17には、本実施の形態に係る画像処理部3Aの機能構成が示される。図17にはプロジェクタ(A)の画像処理部3Aの構成を例示するが、他のプロジェクタ(B)〜(D)の画像処理部3Aも図17に示すものと同様であり、説明は略す。   FIG. 17 shows a functional configuration of the image processing unit 3A according to the present embodiment. FIG. 17 illustrates the configuration of the image processing unit 3A of the projector (A), but the image processing units 3A of the other projectors (B) to (D) are the same as those shown in FIG.

図17を参照して、画像処理部3Aは、1フレーム単位で画像を処理すると想定する。画像処理部3Aの出力信号は表示制御部4に与えられる。   Referring to FIG. 17, it is assumed that image processing unit 3A processes an image in units of one frame. The output signal of the image processing unit 3A is given to the display control unit 4.

画像データ処理部3Aは、非重複領域E41の画像データを処理する非重複処理部24、2重複領域E51とE52の画像データを処理する2重複処理部25と26、および4重複領域E61の画像データを処理する4重複処理部27を含む。さらに、外部から入力する情報に基づき1フレーム画像における非重複領域E41、2重複領域E51と52および4重複領域E61それぞれのサイズおよび位置((x,y)座標値)の情報を生成して、非重複処理部24、2重複処理部25と26、および4重複処理部27のそれぞれに出力する領域検出部35A、フレームバッファ34A、属性入力部22、および信号生成部28を含む。   The image data processing unit 3A is a non-overlapping processing unit 24 that processes image data of the non-overlapping region E41, two overlapping processing units 25 and 26 that process image data of the overlapping regions E51 and E52, and an image of the four overlapping region E61. A 4-duplicate processing unit 27 for processing data is included. Further, based on information input from the outside, information on the size and position ((x, y) coordinate value) of each of the non-overlapping area E41, 2 overlapping area E51 and 52 and 4 overlapping area E61 in one frame image is generated, The non-overlapping processing unit 24, the 2-duplicating processing units 25 and 26, and the 4-duplicating processing unit 27 include an area detection unit 35A, a frame buffer 34A, an attribute input unit 22, and a signal generation unit 28.

フレームバッファ34Aは、画像供給部2から入力する画像データ(各画素についてR,G,Bそれぞれの階調データ、および当該画素の位置((x,y)座標値)データを含む画像データ)を1フレーム分蓄えて、蓄えた1フレーム分の画像データを読出して非重複処理部24に出力する。属性入力部22は、与えられる属性ATを入力し、入力した属性ATを非重複処理部24、2重複処理部25と26、および4重複処理部27のそれぞれに出力する。信号生成部28は、与えられる画像データを入力し、入力画像データに基づき、画像信号を生成し、表示制御部4に出力する。   The frame buffer 34A receives image data input from the image supply unit 2 (image data including R, G, and B gradation data and pixel position ((x, y) coordinate value) data) for each pixel). One frame is stored, and the stored image data for one frame is read and output to the non-overlapping processing unit 24. The attribute input unit 22 inputs a given attribute AT, and outputs the input attribute AT to each of the non-duplication processing unit 24, the two duplication processing units 25 and 26, and the four-duplication processing unit 27. The signal generation unit 28 receives the given image data, generates an image signal based on the input image data, and outputs the image signal to the display control unit 4.

ここで、属性ATは、スクリーン6において画像が重複している部分と、非重複の部分とで一致させるべき属性の種類と、属性の値を指す。   Here, the attribute AT indicates the type of attribute and the value of the attribute that should be matched between the overlapping part of the image and the non-overlapping part on the screen 6.

図18を参照して、属性ATによって、属性の種類として‘画像の明るさ’が指定され、且つ属性値として‘ay’が指定されたと想定した場合の処理の概要を説明する。   With reference to FIG. 18, an outline of processing when it is assumed that “image brightness” is specified as the attribute type and “ay” is specified as the attribute value by the attribute AT will be described.

図18を参照すると、たとえばプロジェクタ(A)が投影する画像は、図18(A)の非重複領域E41、2重複領域E51とE52、および4重複領域E61を含むが、4重複領域E61の画像の輝度を属性ATが指示する値を‘ay’に決定すると、2重複領域E51とE52の画像の輝度は2個の画像が重複するので、それぞれ‘ay/2’と決定されて、そして非重複領域E41の輝度は4個の画像が重複するので‘ay/4’と決定される(図18(B)を参照)。つまり、重複している画像の個数に応じて属性ATの値は可変である。これにより、4台のプロジェクタに同じ属性値ATが与えられることにより、スクリーン6に画像を投影した場合には、図16に示すように、非重複部および重複部において画像は同じ明るさとなる。   Referring to FIG. 18, for example, the image projected by the projector (A) includes the non-overlapping region E41, the overlapping regions E51 and E52, and the four overlapping region E61 of FIG. If the value indicated by the attribute AT is determined to be “ay”, the brightness of the images of the two overlapping areas E51 and E52 is determined to be “ay / 2” because the two images overlap, and non- The luminance of the overlapping area E41 is determined to be “ay / 4” because four images overlap (see FIG. 18B). That is, the value of the attribute AT is variable according to the number of overlapping images. As a result, when the same attribute value AT is given to the four projectors, when images are projected on the screen 6, as shown in FIG. 16, the images have the same brightness in the non-overlapping part and the overlapping part.

具体的には、非重複処理部24は、属性入力部22から入力する属性ATが指す‘ay’に基づき非重複領域E41の画像の輝度を‘ay/4’と決定する。そして、フレームバッファ34Aから入力する1フレームの画像データのうち、領域検出部35Aから与えられる情報が指示する非重複領域E41の画像データを検出し、検出した画像データついて属性ATに基づきR,G,Bが指す輝度データを、決定した‘ay/4’を指示するように変更する。変更した後の1フレーム分の画像データは、2重複処理部25に出力される。   Specifically, the non-overlapping processing unit 24 determines the luminance of the image of the non-overlapping region E41 as “ay / 4” based on “ay” indicated by the attribute AT input from the attribute input unit 22. Then, the image data of the non-overlapping area E41 indicated by the information given from the area detection unit 35A is detected from one frame of image data input from the frame buffer 34A, and R, G is detected based on the attribute AT for the detected image data. , B is changed to indicate the determined “ay / 4”. The image data for one frame after the change is output to the duplicate processing unit 25.

2重複処理部25は、属性入力部22から入力する属性ATが指す‘ay’に基づき2重複領域E51の画像の輝度を‘ay/2’と決定する。そして、非重複処理部24から入力する1フレームの画像データのうち、領域検出部35Aから与えられる情報が指示する2重複領域E51の画像データを検出し、検出した画像データについて属性ATに基づきR,G,Bが指す輝度データを、決定した‘ay/2’を指示するように変更する。変更をした後の1フレーム分の画像データは、2重複処理部26に出力される。   The double overlap processing unit 25 determines the luminance of the image of the double overlap region E51 to be “ay / 2” based on “ay” indicated by the attribute AT input from the attribute input unit 22. Then, the image data of the two overlapping regions E51 indicated by the information given from the region detecting unit 35A is detected from one frame of image data input from the non-overlapping processing unit 24, and R is detected for the detected image data based on the attribute AT. , G, B are changed so as to indicate the determined “ay / 2”. The image data for one frame after the change is output to the double overlap processing unit 26.

2重複処理部26は、属性入力部22から入力する属性ATが指す‘ay’に基づき2重複領域E52の画像の輝度を‘ay/2’と決定する。そして、2重複処理部25から入力する1フレームの画像データのうち、領域検出部35Aから与えられる情報が指示する2重複領域E52の画像データを検出し、検出した画像データについて属性ATに基づきR,G,Bが指す輝度データを、決定した‘ay/2’を指示するように変更する。変更をした後の1フレーム分の画像データは、4重複処理部27に出力される。   The double overlap processing unit 26 determines the luminance of the image of the double overlap region E52 to be “ay / 2” based on “ay” indicated by the attribute AT input from the attribute input unit 22. Then, the image data of the double overlapping area E52 indicated by the information given from the area detecting unit 35A is detected from one frame of image data input from the double overlapping processing unit 25, and the detected image data is R based on the attribute AT. , G, B are changed so as to indicate the determined “ay / 2”. The image data for one frame after the change is output to the 4-duplication processing unit 27.

4重複処理部27は、属性入力部22から入力する属性ATが指す‘ay’に基づき4重複領域E61の画像の輝度を‘ay’と決定する。そして、2重複処理部26から入力する1フレームの画像データのうち、領域検出部35Aから与えられる情報が指示する4重複領域E61の画像データを検出し、検出した画像データについて属性ATに基づきR,G,Bが指す輝度データを、決定した‘ay’を指示するように変更する。変更をした後の1フレーム分の画像データは、信号生成部28に出力される。   The 4-duplicate processing unit 27 determines the luminance of the image of the 4-overlap region E61 as “ay” based on “ay” indicated by the attribute AT input from the attribute input unit 22. Then, among the image data of one frame input from the double overlap processing unit 26, the image data of the four overlap region E61 indicated by the information given from the region detection unit 35A is detected, and the detected image data is R based on the attribute AT. , G, B are changed so as to indicate the determined “ay”. The image data for one frame after the change is output to the signal generation unit 28.

画像データの輝度の変更について、図10を参照して説明する。非重複処理部24は、非重複領域E41の画像データのR,G,Bの階調値が指す輝度と、値‘ay/4’とを比較し、比較結果に基づき値‘ay/4’よりも小さい、すなわち当該領域の画像は暗いと検出する場合には、当該画像データに基づき生成される画像信号の輝度レベルが、図10の太い矢印方向に全体的にシフトするように、画素毎にR,G,Bの階調値を変更処理する。逆に、明るいと検出すると、太い矢印方向とは反対方向にシフトするように画素毎にR,G,Bの階調値を変更処理する。   The change of the brightness of the image data will be described with reference to FIG. The non-overlapping processing unit 24 compares the luminance indicated by the R, G, and B gradation values of the image data in the non-overlapping area E41 with the value 'ay / 4', and based on the comparison result, the value 'ay / 4' Smaller, that is, when it is detected that the image in the region is dark, the luminance level of the image signal generated based on the image data is shifted for each pixel so as to shift in the direction of the thick arrow in FIG. The gradation values of R, G, and B are changed. On the contrary, when bright is detected, the gradation values of R, G, and B are changed for each pixel so as to shift in the direction opposite to the direction of the thick arrow.

このR,G,Bの階調値の比較は、各画素毎に行っても良く、または、当該領域の画素の平均階調値を検出(算出)し、平均値と値‘ay/4’の比較であってもよい。   The comparison of the gradation values of R, G, and B may be performed for each pixel, or the average gradation value of the pixels in the area is detected (calculated), and the average value and the value 'ay / 4' It may be a comparison.

2重複処理部25、2重複処理部26および4重複処理部27でも、同様に、上述したR,G,Bの階調値が指す輝度と、値‘ay/2’、‘ay’との比較処理、および比較結果に基づき、図10の関係に照らして画素毎びR,G,Bの階調値を変更する処理を実行する。   Similarly, in the 2-duplicate processing unit 25, the 2-duplicate processing unit 26, and the 4-duplicate processing unit 27, the luminance indicated by the above-described R, G, B gradation values and the values 'ay / 2' and 'ay' Based on the comparison process and the comparison result, a process of changing the gradation values of R, G, and B for each pixel is executed in light of the relationship shown in FIG.

上述と同様の処理が、他のプロジェクタ(B)〜(D)においても並行して実行されることにより、各プロジェクタの信号生成部28から出力される画像データに従ってスクリーン6に投影される画像は、図16に示すように、値‘ay’に従う輝度に基づく一様の明るさを呈する。   By performing the same processing as described above in the other projectors (B) to (D) in parallel, the image projected on the screen 6 according to the image data output from the signal generation unit 28 of each projector is as follows. As shown in FIG. 16, it exhibits uniform brightness based on the luminance according to the value 'ay'.

[属性の変更]
本実施の形態では、スクリーン6に投影される画像の属性の値を変更するが、変更する属性の具体例としては、上述した輝度による画像の‘明るさ’の他に‘コントラスト’、‘色の濃さ’、‘色合い’、‘ガンマ値’および‘色温度’などがあるが、これらに限定されるものではない。また、こられらのうちの1種類、または2種類以上の属性を同時に変更するようにしてよい。
[Change attribute]
In the present embodiment, the attribute value of the image projected on the screen 6 is changed. Specific examples of the attribute to be changed include “contrast” and “color” in addition to the “brightness” of the image based on the luminance described above. But not limited to “darkness”, “hue”, “gamma value” and “color temperature”. Also, one or more of these attributes may be changed at the same time.

(コントラスト調整)
図11に示した関係によれば、コントラスト比を上昇させるためには、図11の画素のR,G,Bの階調値と、これに基づき変換される画像信号の輝度レベルの関係を指す実線の傾きを変更する。つまり、実線矢印方向にシフトさせて、傾きがより大きくなるように、当該R,G,Bの階調値を変更する。逆に、コントラスト比を下げるには、破線矢印方向にシフトさせて、実線の傾きが小さくなるように、当該R,G,Bの階調値を変更する。このように線分の傾きが大きいほどコントラスト比は大きくなり、小さくなるほどコントラスト比は小さくなる。
(Contrast adjustment)
According to the relationship shown in FIG. 11, in order to increase the contrast ratio, the relationship between the R, G, and B gradation values of the pixel in FIG. 11 and the luminance level of the image signal converted based on this is indicated. Change the slope of the solid line. That is, the R, G, and B gradation values are changed so that the inclination is increased by shifting in the direction of the solid arrow. Conversely, in order to reduce the contrast ratio, the gradation values of R, G, and B are changed so that the inclination of the solid line is reduced by shifting in the direction of the broken line arrow. Thus, the contrast ratio increases as the slope of the line segment increases, and the contrast ratio decreases as it decreases.

コントラストを調整する場合には、図19を参照して、属性ATによって、属性の種類として‘コントラスト’が指定され、且つ属性値として‘ac’が指定される。ここで、‘ac’は、たとえば図11の実線矢印の傾きに相当すると想定する。   In the case of adjusting the contrast, referring to FIG. 19, the attribute AT specifies “contrast” as the attribute type and “ac” as the attribute value. Here, it is assumed that 'ac' corresponds to, for example, the slope of the solid line arrow in FIG.

図19を参照すると、入力した属性ATに基づき、プロジェクタ(A)が投影する画像の4重複領域E61の画像の属性値を‘ac’に決定すると、2重複処理部25と26および非重複処理部24によって、2重複領域E51とE52の画像の属性値はそれぞれ‘ac/2’と、そして非重複領域E41は‘ac/4’と決定される。   Referring to FIG. 19, when the attribute value of the image of the four overlapping region E61 of the image projected by the projector (A) is determined to be “ac” based on the input attribute AT, the two overlapping processing units 25 and 26 and the non-overlapping processing are performed. By the unit 24, the attribute values of the images of the two overlapping areas E51 and E52 are determined as 'ac / 2', and the non-overlapping area E41 is determined as 'ac / 4'.

動作において、非重複処理部24は、フレームバッファ34Aから入力する1フレームの画像データのうち、領域検出部35Aから与えられる情報が指示する非重複領域E41の画像データを検出する。そして、検出した画像データのR,G,Bが指す階調値を、図11の関係に従って、傾きが‘ac/4’となるように変更する。階調値を変更した後の1フレーム分の画像データは、2重複処理部25に出力される。   In operation, the non-overlapping processing unit 24 detects image data of a non-overlapping region E41 indicated by information given from the region detecting unit 35A out of one frame of image data input from the frame buffer 34A. Then, the gradation values indicated by R, G, and B of the detected image data are changed so that the inclination becomes ‘ac / 4’ in accordance with the relationship of FIG. 11. The image data for one frame after changing the gradation value is output to the double overlap processing unit 25.

2重複処理部25は、非重複処理部24から入力する1フレームの画像データのうち、領域検出部35Aから与えられる情報が指示する2重複領域E51の画像データを検出する。そして、検出した画像データのR,G,Bが指す階調値を、図11の関係に従って、傾きが‘ac/2’となるように変更する。階調値を変更した後の1フレーム分の画像データは、2重複処理部26に出力される。   The double overlap processing unit 25 detects the image data of the double overlap region E51 indicated by the information given from the region detection unit 35A out of one frame of image data input from the non-overlap processing unit 24. Then, the gradation values indicated by R, G, and B of the detected image data are changed so that the inclination becomes ‘ac / 2’ in accordance with the relationship of FIG. 11. The image data for one frame after changing the gradation value is output to the double overlap processing unit 26.

2重複処理部26は、2重複処理部25から入力する1フレームの画像データのうち、領域検出部35Aから与えられる情報が指示する2重複領域E52の画像データを検出して、2重複処理部25と同様にして、検出した画像データのR,G,Bが指す階調値を変更し、変更した後に、1フレーム分の画像データを4重複処理部27に出力する。   The double overlap processing unit 26 detects the image data of the double overlap region E52 indicated by the information given from the region detection unit 35A out of one frame of image data input from the double overlap processing unit 25, and the double overlap processing unit Similarly to 25, the gradation values indicated by R, G, and B of the detected image data are changed. After the change, the image data for one frame is output to the 4-duplication processing unit 27.

4重複処理部27は、2重複処理部26から入力する1フレームの画像データのうち、領域検出部35Aから与えられる情報が指示する4重複領域E61の画像データを検出する。そして検出した画像データのR,G,Bの階調値を、図11の関係に従って、傾きが‘ac/4’となるように変更する。階調値を変更した後の1フレーム分の画像データは、信号生成部28に出力される。   The 4-duplicate processing unit 27 detects the image data of the 4-overlap region E61 indicated by the information given from the region detection unit 35A among the image data of one frame input from the 2-duplicate processing unit 26. Then, the R, G, and B gradation values of the detected image data are changed so that the inclination becomes ‘ac / 4’ in accordance with the relationship of FIG. 11. The image data for one frame after changing the gradation value is output to the signal generator 28.

これを図11を参照して、さらに説明する。非重複処理部24、2重複処理部25および26、ならびに4重複処理部27のそれぞれは、検出した画像データのR,G,Bの階調値に基づき、所定手順に従って図11の実線の関係を検出する。検出した実線の傾きと、決定されたコントラスト比に従う傾き(‘ac’、‘ac/2’、‘ac/4’)とを比較する。比較結果に基づき、検出した傾きが決定されたコントラスト比に従う傾きよりも小さいと判定すると、検出した実線の傾きが大きくなるように各画素のR,G,Bの階調値を変更する。これにより、変更後のR,G,Bの階調値に基づき検出される実線の傾きは、決定された傾きに一致する。また、比較結果に基づき、検出した傾きが決定されたコントラスト比に従う傾きよりも大きいと判定すると、検出した実線の傾きが小さくなるように各画素のR,G,Bの階調値を変更する。これにより、変更後のR,G,Bの階調値に基づき検出される実線の傾きは、決定された傾きに一致する。   This will be further described with reference to FIG. Each of the non-overlapping processing unit 24, the 2-duplicating processing units 25 and 26, and the 4-duplicating processing unit 27 is based on the R, G, and B gradation values of the detected image data, and is related to the solid line in FIG. Is detected. The detected inclination of the solid line is compared with the inclinations according to the determined contrast ratio ('ac', 'ac / 2', 'ac / 4'). If it is determined that the detected inclination is smaller than the inclination according to the determined contrast ratio based on the comparison result, the gradation values of R, G, and B of each pixel are changed so that the inclination of the detected solid line is increased. As a result, the slope of the solid line detected based on the changed R, G, and B tone values matches the determined slope. Further, based on the comparison result, if it is determined that the detected inclination is larger than the inclination according to the determined contrast ratio, the R, G, and B gradation values of each pixel are changed so that the inclination of the detected solid line is reduced. . As a result, the slope of the solid line detected based on the changed R, G, and B tone values matches the determined slope.

上述と同様の処理が、他のプロジェクタ(B)〜(D)においても並行して実行されることにより、各プロジェクタの信号生成部28から出力される画像データに従ってスクリーン6に投影される画像は、値‘ac’に従う一様のコントラストを呈する。   By performing the same processing as described above in the other projectors (B) to (D) in parallel, the image projected on the screen 6 according to the image data output from the signal generation unit 28 of each projector is as follows. , Exhibit a uniform contrast according to the value 'ac'.

(色の濃さ)
スクリーン6に投影される画像の色の濃さは、画像データのR,G,Bそれぞれの階調値により決定される。各プロジェクタから同じ色の画像が投影される場合には、画像の色は、重複する画像の数が多くなるほど濃くなることが知られている。したがって、属性の種類として‘色の濃さ’、且つ値として‘濃さの値(すなわちR,G,Bの階調値‘ad’とする)’を指定する属性ATが入力された場合には、非重複処理部24は、属性ATに基づき値‘ad’を決定する。そして、属性ATに基づき、非重複領域E41の画像データの各画素のR,G,Bの階調値を検出し、検出した階調値を、決定した値‘ad’に変更する。同様に、2重複処理部25および2重複処理部26も、属性ATに基づき値‘ad/2’に決定する。そして、2重複領域E51およびE52の画像データの各画素のR,G,Bの階調値を検出し、検出した階調値を決定した値‘ad/2’に変更する。また、4重複処理部27も属性ATに基づき値‘ad/4’を決定する。そして、属性ATに基づき4重複領域E61の画像データの各画素のR,G,Bの階調値を検出し、検出した階調値を、決定した値‘ad/4’に変更する。これらの変更がされた画像データは、信号生成部28に出力される。
(Saturation of color)
The color density of the image projected on the screen 6 is determined by the respective gradation values of R, G, and B of the image data. It is known that when the same color image is projected from each projector, the color of the image becomes darker as the number of overlapping images increases. Therefore, when an attribute AT that designates “color density” as the attribute type and “darkness value (ie, R, G, B gradation value“ ad ”)” as the value is input. The non-overlapping processing unit 24 determines the value “ad” based on the attribute AT. Then, based on the attribute AT, the gradation values of R, G, and B of each pixel of the image data of the non-overlapping area E41 are detected, and the detected gradation value is changed to the determined value 'ad'. Similarly, the double processing unit 25 and the double processing unit 26 also determine the value “ad / 2” based on the attribute AT. Then, the R, G, and B gradation values of each pixel of the image data of the two overlapping areas E51 and E52 are detected, and the detected gradation value is changed to the determined value 'ad / 2'. The 4-duplicate processing unit 27 also determines the value “ad / 4” based on the attribute AT. Then, based on the attribute AT, the gradation value of R, G, B of each pixel of the image data of the four overlapping area E61 is detected, and the detected gradation value is changed to the determined value 'ad / 4'. The image data with these changes is output to the signal generation unit 28.

上述と同様の処理が、他のプロジェクタ(B)〜(D)においても並行して実行されることにより、各プロジェクタの信号生成部28から出力される画像データに従ってスクリーン6に投影される画像は、値‘ad’に従う一様の色の濃さを呈する。   By performing the same processing as described above in the other projectors (B) to (D) in parallel, the image projected on the screen 6 according to the image data output from the signal generation unit 28 of each projector is as follows. , Exhibit a uniform color intensity according to the value 'ad'.

(色合いの調整)
スクリーン6に投影される画像の色合いは、画像データのR,G,Bそれぞれの階調値により決定される。色合いを調整するために、属性の種類として‘色合い’、且つ値として‘色合いの値(すなわちR,G,Bの階調値‘ae’とする)’を指定する属性ATが入力される。
(Color adjustment)
The hue of the image projected on the screen 6 is determined by the respective tone values of R, G, and B of the image data. In order to adjust the hue, an attribute AT that designates “hue” as the attribute type and “hue value (that is, R, G, B gradation value“ ae ”)” as the value is input.

色合いを調整する属性ATが入力された場合には、非重複処理部24は、属性ATに基づき値‘ae’を決定する。そして、属性ATに基づき、非重複領域E41の画像データの各画素のR,G,Bの階調値を検出し、検出した階調値を値‘ae’に変更する。2重複処理部25および2重複処理部26も、属性ATに基づき値‘ae/2’を検出する。そして、2重複領域E51およびE52の画像データの各画素のR,G,Bの階調値を検出し、検出した階調値を決定した値‘ae/2’に変更する。4重複処理部27も属性ATに基づき値‘ae/4’を検出し、そして、4重複領域E61の画像データの各画素のR,G,Bの階調値を検出し、検出した階調値を決定した値‘ae/4’に変更する。これらの変更がされた画像データは、信号生成部28に出力される。   When the attribute AT for adjusting the hue is input, the non-overlapping processing unit 24 determines the value “ae” based on the attribute AT. Then, based on the attribute AT, the gradation values of R, G, and B of each pixel of the image data in the non-overlapping area E41 are detected, and the detected gradation value is changed to the value 'ae'. The double processing unit 25 and the double processing unit 26 also detect the value 'ae / 2' based on the attribute AT. Then, the R, G, and B gradation values of each pixel of the image data of the two overlapping areas E51 and E52 are detected, and the detected gradation value is changed to the determined value 'ae / 2'. The 4-duplicate processing unit 27 also detects the value 'ae / 4' based on the attribute AT, detects the R, G, and B tone values of each pixel of the image data in the 4-overlap region E61, and detects the detected tone The value is changed to the determined value 'ae / 4'. The image data with these changes is output to the signal generation unit 28.

上述と同様の処理が、他のプロジェクタ(B)〜(D)においても並行して実行されることにより、各プロジェクタの信号生成部28から出力される画像データに従ってスクリーン6に投影される画像は、値‘ae’に従う一様の色合いを呈する。   By performing the same processing as described above in the other projectors (B) to (D) in parallel, the image projected on the screen 6 according to the image data output from the signal generation unit 28 of each projector is as follows. , Exhibit a uniform hue according to the value 'ae'.

(ガンマ特性の調整)
前述したように、ガンマ特性は、入力する画像信号(x)と輝度(y)の関係を指す(y=xのγ乗)の式で示される。本実施の形態では、信号生成部28が画像のγ特性を調整する。
(Adjust gamma characteristics)
As described above, the gamma characteristic is represented by an equation of y (y = x raised to the γ power) indicating the relationship between the input image signal (x) and the luminance (y). In the present embodiment, the signal generation unit 28 adjusts the γ characteristic of the image.

非重複領域E41、2重複領域E51とE52および4重複領域E61の画像間で違和感のないガンマ特性を呈するようにするために、各領域に作用するγ値を調整する。   In order to exhibit a gamma characteristic that does not give a sense of incongruity between the images of the non-overlapping area E41, the overlapping area E51 and E52, and the 4-overlapping area E61, the γ value acting on each area is adjusted.

ガンマ特性を調整するために、属性の種類として‘ガンマ特性’、且つ値として‘γ値’を指定する属性ATが入力される。   In order to adjust the gamma characteristic, an attribute AT that designates “gamma characteristic” as the attribute type and “γ value” as the value is input.

属性入力部22は、入力に基づきガンマ特性を調整する属性ATを検出すると、入力した属性ATを信号生成部28に出力する。フレームバッファ34Aから出力された画像データは、非重複処理部24、2重複処理部25と26および4重複処理部27を経て信号生成部28に入力される。信号生成部28は、入力した画像データのうちから、属性ATに基づき、領域検出部35Aから入力したデータに従って、非重複領域E41、2重複領域E51およびE52、および4重複領域E61のそれぞれに該当する画像データを検出する。各領域について検出した画像データを画像信号に変換する際に、上述した関係式に従って画像信号を生成して出力する。   When the attribute input unit 22 detects an attribute AT that adjusts the gamma characteristic based on the input, the attribute input unit 22 outputs the input attribute AT to the signal generation unit 28. The image data output from the frame buffer 34 </ b> A is input to the signal generation unit 28 through the non-overlap processing unit 24, the two-overlap processing units 25 and 26, and the four-overlap processing unit 27. The signal generation unit 28 corresponds to each of the non-overlapping region E41, the overlapping regions E51 and E52, and the four overlapping region E61 according to the data input from the region detecting unit 35A based on the attribute AT among the input image data. The image data to be detected is detected. When the image data detected for each region is converted into an image signal, the image signal is generated and output according to the relational expression described above.

この画像信号の生成に際して、信号生成部28は、入力した属性ATが指す‘γ値’を非重複領域E41の画像信号に対して適用し、‘γ/2値’を2重複領域E51およびE52の画像信号に対して適用し、‘γ/4値’を4重複領域E61に対して適用して、それぞれガンマ特性を調整する。   When generating the image signal, the signal generation unit 28 applies the “γ value” indicated by the input attribute AT to the image signal in the non-overlapping region E41, and applies the “γ / 2 value” to the two overlapping regions E51 and E52. Are applied to the image signal, and “γ / 4 value” is applied to the four overlapping regions E61 to adjust the gamma characteristics.

上述と同様の処理が、他のプロジェクタ(B)〜(D)においても並行して実行されることにより、各プロジェクタの信号生成部28から出力される画像データに従ってスクリーン6に投影される画像は、一様のガンマ特性を呈する。   By performing the same processing as described above in the other projectors (B) to (D) in parallel, the image projected on the screen 6 according to the image data output from the signal generation unit 28 of each projector is as follows. Exhibit uniform gamma characteristics.

(色温度の調整)
図13で説明をしたように、色温度は、R,G,Bの階調値のうち、RまたはBの階調値を変更することによって調整することができる。
(Adjusting color temperature)
As described in FIG. 13, the color temperature can be adjusted by changing the R or B gradation value among the R, G, and B gradation values.

ここでは、液晶パネルを駆動する画像データによってスクリーン6に投影された画像はホワイトバランスを調整していると想定する。   Here, it is assumed that the image projected on the screen 6 by the image data for driving the liquid crystal panel is adjusted in white balance.

ユーザが、投影画像を電球を照明とした場合の赤みがかった画像に変更することを希望した場合、すなわち画像の呈する色温度を低くすることを希望した場合、属性の種類として‘色温度’、且つ値として‘色温度の値(すなわちRの階調値の増加値‘af’およびBの階調値の減少値‘ag’とする)’を指定する属性ATが入力される。   When the user desires to change the projected image to a reddish image when the light bulb is used as a light, that is, when the user desires to lower the color temperature exhibited by the image, the attribute type is “color temperature”, and An attribute AT specifying “color temperature value (that is, an increase value“ af ”of R gradation value and a decrease value“ ag ”of B gradation value”) ”is input as a value.

非重複処理部24は、属性値に基づき値‘af’と‘ag’を決定する。そして、属性ATに基づき、非重複領域E41の画像データの各画素のR,G,Bの階調値を検出し、そのうち検出したRの階調値を決定した値‘af’だけ増加させ、検出したBの階調値を決定した値‘ag’だけ減少させる。2重複処理部25および2重複処理部26も、属性値ATに基づき‘af/2’と‘ag/2’とを決定する。そして、属性ATに基づき2重複領域E51およびE52の画像データの各画素のR,G,Bの階調値を検出し、そのうち検出したRの階調値を決定した値‘af/2’にだけ増加させ、検出したBの階調値を決定した値‘ag/2’だけ減少させる。また、4重複処理部27も属性値ATに基づき値‘af/4’と‘ag/4’を決定する。そして、属性ATに基づき4重複領域E61の画像データの各画素のR,G,Bの階調値を検出し、そのうち検出したRの階調値を決定した値‘af/4’だけ増加させ、検出したBの階調値を決定した値‘ag/4’だけ減少させる。これらの変更がされた画像データは、信号生成部28に出力される。   The non-overlapping processing unit 24 determines the values ‘af’ and ‘ag’ based on the attribute value. Then, based on the attribute AT, the R, G, and B gradation values of each pixel of the image data of the non-overlapping area E41 are detected, and the detected R gradation value is increased by the determined value 'af'. The detected gradation value of B is decreased by the determined value 'ag'. The double overlap processing unit 25 and the double overlap processing unit 26 also determine 'af / 2' and 'ag / 2' based on the attribute value AT. Then, based on the attribute AT, the gradation values of R, G, B of each pixel of the image data of the two overlapping areas E51 and E52 are detected, and the detected gradation value of R is determined to a value 'af / 2'. And the detected gradation value of B is decreased by the determined value 'ag / 2'. The 4-duplicate processing unit 27 also determines the values ‘af / 4’ and ‘ag / 4’ based on the attribute value AT. Then, based on the attribute AT, the gradation values of R, G, B of each pixel of the image data of the four overlapping areas E61 are detected, and the detected gradation value of R is increased by the determined value 'af / 4'. The detected gradation value of B is decreased by the determined value 'ag / 4'. The image data with these changes is output to the signal generation unit 28.

逆に、青みがかった画像(たとえば、蛍光灯を照明とした画像)とする場合には、属性ATに基づきBの階調値を増加させ、Rの階調値を減少させるようにすればよい。   On the contrary, when the image is bluish (for example, an image with a fluorescent lamp illuminated), the gradation value of B may be increased and the gradation value of R may be decreased based on the attribute AT.

上述と同様の処理が、他のプロジェクタ(B)〜(D)においても並行して実行されることにより、各プロジェクタの信号生成部28から出力される画像データに従ってスクリーン6に投影される画像は、一様の色温度を呈する。   By performing the same processing as described above in the other projectors (B) to (D) in parallel, the image projected on the screen 6 according to the image data output from the signal generation unit 28 of each projector is as follows. Exhibit a uniform color temperature.

上述の説明では、属性ATの値は、重複する画像の個数に応じて非重複処理部24、2重複処理部25と26、および4重複処理部27で個別に決定していたが、これに代替して属性入力部22が、この値の決定を実行してもよい。属性入力部22は、重複する画像の個数に応じて決定した値を、非重複処理部24、2重複処理部25と26、および4重複処理部27に与えるようにしてもよい。   In the above description, the value of the attribute AT is determined individually by the non-overlapping processing unit 24, the two overlapping processing units 25 and 26, and the four overlapping processing unit 27 according to the number of overlapping images. Alternatively, the attribute input unit 22 may determine this value. The attribute input unit 22 may give a value determined according to the number of overlapping images to the non-overlapping processing unit 24, the 2-duplicating processing units 25 and 26, and the 4-duplicating processing unit 27.

(他の実施例)
上述の説明では、属性ATは、入力受付部15(またはキーボード12)を介してユーザから与えられるとしているが、投影される画像データに基づき検出するようにしてもよい。
(Other examples)
In the above description, the attribute AT is given by the user via the input receiving unit 15 (or the keyboard 12), but may be detected based on the projected image data.

図19を参照して、投影する画像データに基づき、属性ATを検出するための構成について説明する。図19において、マルチプロジェクタシステムは、隣接するように並べられたプロジェクタ(A)、プロジェクタ(B)、プロジェクタ(C)およびプロジェクタ(D)、ならびにプロジェクタコントローラ100を備える。プロジェクタコントローラ100は、4重複領域E61の画像データの属性を検出し、検出した属性に基づく属性ATを生成してプロジェクタ(1)〜(4)それぞれに対して与える。ここでは、属性ATとして、画像の明るさを例示する。プロジェクタコントローラ100は、マイクロコンピュータに相当する。   A configuration for detecting the attribute AT based on the image data to be projected will be described with reference to FIG. 19, the multi-projector system includes a projector (A), a projector (B), a projector (C), a projector (D), and a projector controller 100 that are arranged adjacent to each other. The projector controller 100 detects the attribute of the image data in the 4-overlap area E61, generates an attribute AT based on the detected attribute, and gives it to each of the projectors (1) to (4). Here, the brightness of the image is exemplified as the attribute AT. The projector controller 100 corresponds to a microcomputer.

図18を参照して、プロジェクタ(A)が投影する画像について説明する。図18(A)は非ハッチング領域である非重複領域E41、シングルハッチング領域である2重複領域E51とE52、ならびにダブルハッチング領域である4重複領域E61とを示す。プロジェクタ(A)〜(D)それぞれから投影される画像の輝度レベルをYi(i=1,2,3,4)と想定するとスクリーン6に投影された4重複領域E61の画像は、単純にはΣYiの明るさとなる。したがって、スクリーン6に投影された画像の明るさを一様にするためには、プロジェクタ(A)は、投影する画像データについては、4重複領域E61に該当する画像データの明るさは(ΣYi/4)に調整し、2重複領域E51とE52に該当する画像データの明るさは(ΣYi/2)に調整し、非重複領域E41に該当する画像データの明るさは(ΣYi)に調整する。   An image projected by the projector (A) will be described with reference to FIG. FIG. 18A shows a non-overlapping area E41 which is a non-hatching area, two overlapping areas E51 and E52 which are single hatching areas, and a four overlapping area E61 which is a double hatching area. Assuming that the luminance level of the image projected from each of the projectors (A) to (D) is Yi (i = 1, 2, 3, 4), the image of the four overlapping area E61 projected on the screen 6 is simply The brightness is ΣYi. Therefore, in order to make the brightness of the image projected on the screen 6 uniform, the projector (A) has the brightness of the image data corresponding to the 4-overlap region E61 (ΣYi / 4), the brightness of the image data corresponding to the two overlapping areas E51 and E52 is adjusted to (ΣYi / 2), and the brightness of the image data corresponding to the non-overlapping area E41 is adjusted to (ΣYi).

上記のΣYiを検出するためにプロジェクタコントローラ100は、図20に示すように、フレームデータ入力部101、記憶部102、属性検出部103、および属性値決定部104を含む。記憶部102には、プロジェクタ(A)〜(D)のそれぞれに関連付けて、データD1〜D4が予め格納される。データD1〜D4のそれぞれは、関連付けされたプロジェクタが投影する1フレームの画像データにおける4重複領域E61のサイズ・位置を指す。   In order to detect the above-described ΣYi, the projector controller 100 includes a frame data input unit 101, a storage unit 102, an attribute detection unit 103, and an attribute value determination unit 104 as shown in FIG. The storage unit 102 stores data D1 to D4 in advance in association with each of the projectors (A) to (D). Each of the data D1 to D4 indicates the size / position of the 4-overlap area E61 in one frame of image data projected by the associated projector.

属性検出部103は、外部から指定される属性の種類IPに基づき、各プロジェクタの画像データの4重複領域E61の画像について、当該指定種類の属性の値を検出して出力する。具体的には、各プロジェクタのフレームバッファ34Aからフレームデータ入力部101を介して1フレームの画像データを入力すると、当該プロジェクタに関連付けされたデータDiを記憶部12から検索して読出す。そして、入力した1フレームの画像データから、記憶部12から読出したデータDiに基づき4重複領域E61の部分に該当する画像データを抽出する。   The attribute detection unit 103 detects and outputs the value of the attribute of the designated type for the image in the 4-overlap area E61 of the image data of each projector based on the attribute type IP designated from the outside. Specifically, when one frame of image data is input from the frame buffer 34A of each projector via the frame data input unit 101, data Di associated with the projector is retrieved from the storage unit 12 and read out. Then, based on the data Di read from the storage unit 12, image data corresponding to the 4 overlap region E 61 is extracted from the input image data of one frame.

動作において、フレームデータ入力部101は、プロジェクタ(A)〜(D)のフレームバッファ34Aそれぞれから読出されたフレーム単位の画像データを並行して入力する。これら4個の画像データに従う画像が投影されることにより、スクリーン6では図15のように画像が表示される。   In operation, the frame data input unit 101 inputs image data in units of frames read from the frame buffers 34A of the projectors (A) to (D) in parallel. By projecting an image according to these four image data, an image is displayed on the screen 6 as shown in FIG.

フレームデータ入力部101は4個のフレーム画像のデータを属性検出部103に順次に出力する。属性検出部103は、入力するフレームの画像データに対応の、4重複領域E61のサイズ・位置を指すデータDi(i=1,2,3,4)を記憶部12から読出す。そして、データDiで指示される位置(領域)の画像データを、当該フレームの画像データから検出する。検出した画像データの各画素のR,G,Bの階調値に基づき4重複領域E61の輝度レベルYiを検出して、出力する。   The frame data input unit 101 sequentially outputs data of four frame images to the attribute detection unit 103. The attribute detection unit 103 reads from the storage unit 12 data Di (i = 1, 2, 3, 4) indicating the size and position of the 4-overlap area E61 corresponding to the image data of the input frame. Then, the image data at the position (area) indicated by the data Di is detected from the image data of the frame. Based on the R, G, and B gradation values of each pixel of the detected image data, the luminance level Yi of the four overlapping region E61 is detected and output.

検出する輝度レベルYiは、4重複領域E61の画像のたとえば平均輝度を指す。
属性値決定部104は、属性検出部103が検出した各プロジェクタの4重複領域E61の輝度レベルYiを入力し、累積加算してΣYiを算出する。属性値決定部104は、外部から与えられる属性の種類IPと、算出した(ΣYi)/4を指す属性ATを生成し、生成した属性ATをプロジェクタ(A)〜(D)のそれぞれに出力する。
The detected brightness level Yi indicates, for example, the average brightness of the image of the 4-overlap area E61.
The attribute value determination unit 104 receives the luminance level Yi of the 4-overlap area E61 of each projector detected by the attribute detection unit 103, and performs cumulative addition to calculate ΣYi. The attribute value determining unit 104 generates an attribute type IP given from the outside and an attribute AT indicating the calculated (ΣYi) / 4, and outputs the generated attribute AT to each of the projectors (A) to (D). .

プロジェクタ(A)〜(D)では、プロジェクタコントローラ100から入力する属性ATに基づき、前述した(明るさ調整)における値‘ay’((ΣYi)/4に相当)を用いた手順と同様にして、画像データを処理する。   In the projectors (A) to (D), based on the attribute AT input from the projector controller 100, a procedure similar to the procedure using the value 'ay' (corresponding to (ΣYi) / 4) in the above (brightness adjustment) is performed. Process the image data.

これにより、各プロジェクタの信号生成部28から出力される画像データに従ってスクリーン6に投影される画像は一様な明るさを呈する。   Thereby, the image projected on the screen 6 according to the image data output from the signal generation part 28 of each projector exhibits uniform brightness.

なお、本実施の形態では、プロジェクタとして液晶プロジェクタを採用したが、これに限定されるものではない。たとえば、DLP(Digital Light Processing)(登録商標)方式のプロジェクタ等の他の方式のプロジェクタに本発明の技術を採用してもよい。   In this embodiment, a liquid crystal projector is used as the projector, but the present invention is not limited to this. For example, the technology of the present invention may be applied to other projectors such as a DLP (Digital Light Processing) (registered trademark) projector.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 画像処理装置、2 画像供給部、3 画像データ処理部、4 表示制御部、5 入力受付部、5R,5G,5B 液晶パネル、6 スクリーン、7 画像データ、20 光学エンジン、22 属性入力部、24 非重複処理部、25,26 2重複処理部、27 4重複処理部、28,37 信号生成部、31 重複領域処理部、32 非重複領域処理部、33 ダミー領域処理部、34,34A フレームバッファ、35,35A 領域検出部、36 ダミー領域有無指定部、PJ プロジェクタ、100 プロジェクタコントローラ、101 フレームデータ入力部、103 属性検出部、104 属性値決定部。   DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 2 Image supply part, 3 Image data processing part, 4 Display control part, 5 Input reception part, 5R, 5G, 5B Liquid crystal panel, 6 screens, 7 Image data, 20 Optical engine, 22 Attribute input part, 24 non-overlapping processing unit, 25, 26 2 overlapping processing unit, 27 4 overlapping processing unit, 28, 37 signal generation unit, 31 overlapping region processing unit, 32 non-overlapping region processing unit, 33 dummy region processing unit, 34, 34A frame Buffer, 35, 35A area detection section, 36 dummy area presence / absence designation section, PJ projector, 100 projector controller, 101 frame data input section, 103 attribute detection section, 104 attribute value determination section.

Claims (9)

プロジェクタであって、
複数の前記プロジェクタそれぞれから、投影面に画像の光を投射することにより、前記投影面に複数画像のそれぞれの一部を重複させて投影するために、重複部の画像データを、当該重複部に隣接する部分の画像データに従い処理する重複処理部と、
前記複数プロジェクタそれぞれから、投影面に画像非表示領域であるダミー部を有した画像の光を投射することにより、前記投影面に複数画像のそれぞれの一部を重複させて投影するために、当該重複部における前記ダミー部が重複した画像データを、当該ダミー部に隣接する部分の画像データに従い処理するダミー処理部と、
前記プロジェクタから投影される画像に、前記ダミー部が含まれるか否かを判定する判定部と、を備え、
前記ダミー処理部は、前記判定部が前記ダミー部が含まれると判定したときに、前記ダミー部の画像データを処理する、プロジェクタ。
A projector,
By projecting light of an image onto the projection plane from each of the plurality of projectors, in order to project a part of each of the plurality of images on the projection plane, the image data of the overlapping portion is projected onto the overlapping portion. An overlap processing unit that processes according to the image data of the adjacent part;
By projecting light of an image having a dummy part which is an image non-display area on the projection surface from each of the plurality of projectors, A dummy processing unit that processes the image data in which the dummy part in the overlapping part overlaps according to the image data of the part adjacent to the dummy part;
A determination unit that determines whether or not the dummy portion is included in an image projected from the projector,
The dummy processing unit is a projector that processes image data of the dummy part when the determination part determines that the dummy part is included.
前記ダミー部のサイズは変更可能である、請求項1に記載のプロジェクタ。   The projector according to claim 1, wherein a size of the dummy part is changeable. 前記ダミー処理部は、前記ダミー部が重複している画像データが指す画像の属性を変更する、請求項1または2に記載のプロジェクタ。   The projector according to claim 1, wherein the dummy processing unit changes an attribute of an image indicated by image data in which the dummy unit overlaps. 前記属性は、前記ダミー部が重複している画像データが指す画像の明るさ、またはコントラスト、または色の濃さ、または色合い、またはシャープネス、またはガンマ値、または色温度を含む、請求項3に記載のプロジェクタ。   4. The attribute according to claim 3, wherein the attribute includes brightness, contrast, color density, hue, hue, sharpness, gamma value, or color temperature of an image pointed to by the dummy data. The projector described. プロジェクタであって、
複数の前記プロジェクタそれぞれから、投影面に画像の光を投射することにより、前記投影面において画像を隣接する他の画像と部分的に重複させて投影する投影部と、
投影される画像データのうち、前記他の画像と重複する重複部分に対応する重複部分画像データが指す画像の属性を所定情報に従って処理する重複処理部と、
投影される画像データのうち、前記重複部分を除いた非重複部分に対応する非重複部分画像データが指す画像の前記属性を前記所定情報に従って処理する非重複処理部と、を備え、
前記重複部分画像データは、
隣接する1個の前記他の画像と重複する2重複部分に対応する2重複部分画像データと、隣接する3個の前記他の画像と重複する4重複部分に対応する4重複部分画像データとを、含む、プロジェクタ。
A projector,
From each of the plurality of projectors, by projecting light of an image onto a projection surface, a projection unit that projects the image partially overlapping with other adjacent images on the projection surface;
Among the image data to be projected, an overlapping processing unit that processes the attribute of the image pointed to by the overlapping part image data corresponding to the overlapping part overlapping with the other image according to predetermined information;
A non-overlapping processing unit that processes the attribute of the image indicated by the non-overlapping portion image data corresponding to the non-overlapping portion excluding the overlapping portion of the projected image data, according to the predetermined information;
The overlapping partial image data is
2 overlapping partial image data corresponding to 2 overlapping parts overlapping with 1 adjacent other image and 4 overlapping partial image data corresponding to 4 overlapping parts overlapping with 3 adjacent other images Including projector.
前記所定情報は、画像が有する複数種類の前記属性のうち、処理するべき前記属性の種類を指すデータを含む、請求項5に記載のプロジェクタ。   The projector according to claim 5, wherein the predetermined information includes data indicating a type of the attribute to be processed among a plurality of types of the attributes of the image. 前記所定情報は、所定値をさらに含み、
前記重複処理部は、前記重複部分画像データの前記所定情報が指示する種類の属性の値を、前記所定情報の前記所定値を指示するように変更し、
前記非重複処理部は、前記非重複部分画像データの前記所定情報が指示する種類の属性の値を、前記所定情報が指示する前記所定値を指示するように変更する、請求項6に記載のプロジェクタ。
The predetermined information further includes a predetermined value,
The duplication processing unit changes the value of the type of attribute indicated by the predetermined information of the overlapping partial image data so as to indicate the predetermined value of the predetermined information,
The non-overlapping processing unit changes the value of the type of attribute indicated by the predetermined information of the non-overlapping partial image data so as to indicate the predetermined value indicated by the predetermined information. projector.
前記複数種類の属性には、画像の明るさ、またはコントラスト、または色の濃さ、または色合い、またはガンマ特性、または色温度が含まれる、請求項6または7に記載のプロジェクタ。   The projector according to claim 6 or 7, wherein the plurality of types of attributes include image brightness, contrast, color density, hue, gamma characteristics, or color temperature. 前記所定値は、重複している画像の個数によって可変である、請求項7に記載のプロジェクタ。   The projector according to claim 7, wherein the predetermined value is variable depending on the number of overlapping images.
JP2009140764A 2009-03-12 2009-06-12 Projector Withdrawn JP2010237633A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009140764A JP2010237633A (en) 2009-03-12 2009-06-12 Projector

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009059673 2009-03-12
JP2009140764A JP2010237633A (en) 2009-03-12 2009-06-12 Projector

Publications (1)

Publication Number Publication Date
JP2010237633A true JP2010237633A (en) 2010-10-21

Family

ID=43091971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009140764A Withdrawn JP2010237633A (en) 2009-03-12 2009-06-12 Projector

Country Status (1)

Country Link
JP (1) JP2010237633A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012073649A1 (en) * 2010-11-30 2012-06-07 日本電気株式会社 Multi-projection display system and method of adjusting brightness thereof
JP2012169737A (en) * 2011-02-10 2012-09-06 Canon Inc Information processor, information processing method, and program
JP2016157005A (en) * 2015-02-25 2016-09-01 キヤノン株式会社 Projection device, control method thereof, and projection system
JP2017500801A (en) * 2013-12-09 2017-01-05 シゼイ シジブイ カンパニー リミテッド Method for correcting overlapping region of video, recording medium and apparatus therefor
US9883153B2 (en) 2014-07-01 2018-01-30 Sony Corporation Image processing apparatus and method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012073649A1 (en) * 2010-11-30 2012-06-07 日本電気株式会社 Multi-projection display system and method of adjusting brightness thereof
US8648964B2 (en) 2010-11-30 2014-02-11 Nec Corporation Multi-projection display system and method of adjusting brightness thereof
JP2012169737A (en) * 2011-02-10 2012-09-06 Canon Inc Information processor, information processing method, and program
JP2017500801A (en) * 2013-12-09 2017-01-05 シゼイ シジブイ カンパニー リミテッド Method for correcting overlapping region of video, recording medium and apparatus therefor
US9883153B2 (en) 2014-07-01 2018-01-30 Sony Corporation Image processing apparatus and method
US11134230B2 (en) 2014-07-01 2021-09-28 Sony Corporation Image processing apparatus and method
JP2016157005A (en) * 2015-02-25 2016-09-01 キヤノン株式会社 Projection device, control method thereof, and projection system

Similar Documents

Publication Publication Date Title
JP4432818B2 (en) Image display device, image display method, and image display program
EP1391870B1 (en) Image display system, projector, information storage medium and image processing method
US7453475B2 (en) Optical display device, program for controlling the optical display device, and method of controlling the optical display device
TWI232956B (en) Illuminator, projection display device and method for driving the same
JP6331340B2 (en) Display device and control method of display device
JP2005250235A (en) Optical modulating device, optical display device, optical modulation control program, optical display device control program, optical modulation control method, and optical display device control method
JP2004325628A (en) Display device and its image processing method
JP5061027B2 (en) Signal processing apparatus and projection display apparatus
JP2004163518A (en) Device and method for image display
JP2010237633A (en) Projector
JP2006153914A (en) Liquid crystal projector
JP2005107019A (en) Image display method and system, and projector
JP2015049336A (en) Display device, light-emitting device, and control method of display device
JP2016163228A (en) Display device
JP2010010754A (en) Display device
WO2006110427A2 (en) Method and apparatus for an image presentation device with illumination control for black image processing
JP2006284982A (en) Dimming information generation device, method thereof, program thereof, recording medium with program recorded therein, and image display device
JP2005266289A (en) Optical display device, its control method and program
JP2001296831A (en) Picture reproducing method
JP4776875B2 (en) Video display device, projection display device
JP5092207B2 (en) Image display device and image display method
JP2005257761A (en) Image display device and image display method
JP2006003586A (en) Image display apparatus, its method and program
JP2023022717A (en) Display method of display system, display method of display device, display system and display device
JP4862866B2 (en) Image display device and image display method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120904