[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2009105679A - Image processing apparatus and method of controlling the same - Google Patents

Image processing apparatus and method of controlling the same Download PDF

Info

Publication number
JP2009105679A
JP2009105679A JP2007275669A JP2007275669A JP2009105679A JP 2009105679 A JP2009105679 A JP 2009105679A JP 2007275669 A JP2007275669 A JP 2007275669A JP 2007275669 A JP2007275669 A JP 2007275669A JP 2009105679 A JP2009105679 A JP 2009105679A
Authority
JP
Japan
Prior art keywords
screen
image
projection
projection screen
correction table
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007275669A
Other languages
Japanese (ja)
Inventor
Keiko Tsukamoto
景子 塚本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007275669A priority Critical patent/JP2009105679A/en
Publication of JP2009105679A publication Critical patent/JP2009105679A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To project image data as an image having good color reproducibility from an observer's view point by correcting the image data to be displayed based on the type of a projection screen and the direction of the observer's view point. <P>SOLUTION: A screen information storing section 105 stores the material of the projection screen and screen gain information for each angle of view point. By inputting the information which specifies the observation direction of an observer relative to the projection screen, the information is stored in an observation position information storing section 104. A correction table for projecting the image data to be projected which is stored in a section 103 for storing images to be projected is generated based on the information stored in the screen information storing section 105 and the observation position information storing section 104, and the correction table is stored in a correction table storing section 106. The images stored in the section 103 for storing images to be projected are corrected according to the correction table stored in the correction table storing section 106. The corrected image data is output into a projector 114 and is projected on the projection screen used by the user. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像投影手段を用いて投影スクリーンに投影する画像を生成する技術に関するものである。   The present invention relates to a technique for generating an image to be projected onto a projection screen using an image projection unit.

近年、パーソナルコンピュータの普及に加え、周辺機器であるカラープリンタ、デジタルカメラ、デジタルビデオ、さらにはモニタやプロジェクタといった画像デジタル機器の普及が著しい。殊に、プロジェクタに関しては、現在、オフィス現場では会議室やショールームなどといったプレゼンテーションの場面において欠かせないデバイスとなっている。また、街頭などでの効果的なウィンドウ広告にも多く使用され、プロジェクタの新しい使用方法が提案されている。さらには、一般のユーザにおいても、テレビや映画などを鑑賞するためのホームシアターを家庭に設置するなど、娯楽の場面でもプロジェクタを使用するケースが増加している。それらデジタル機器の多方面での普及に伴い、各機器の高機能化、高精度化が進む中、ユーザの色再現に対する要求レベルは近年急速に高まり、ハイエンドユーザからローエンドユーザまで幅広い層において、高精度カラーマッチングの実現が求められている。   In recent years, in addition to the spread of personal computers, peripheral digital devices such as color printers, digital cameras, digital videos, and image digital devices such as monitors and projectors have become widespread. In particular, projectors are now indispensable devices for presentations such as conference rooms and showrooms at office sites. In addition, it is often used for effective window advertisements on streets and the like, and a new method of using a projector has been proposed. Furthermore, even for general users, there are increasing cases of using projectors in entertainment scenes, such as installing a home theater for watching TV or movies. Along with the spread of these digital devices in various fields, the level of demand for color reproduction of users has increased rapidly in recent years as each device has become more functional and more accurate. Realization of accurate color matching is required.

高精度カラーマッチング実現には、ハードウェア、および、ソフトウェアを用いての調整が必要不可欠となることは言うまでもない。プロジェクタを使用したカラーマッチングにおいては、ハードウェア調整にて、フォーカス調整、解像度調整、映像位置調整、キーストン調整、ホワイトバランスやシャープネスの調整などを行うことが一般的である。また、ソフトウェア調整においては、市販のアプリケーションを用いて、プロジェクタよりスクリーンにカラーパッチ表示し、測定機にて上記カラーパッチの測定を行うことで、ICCプロファイル等を作成する方法が一般的である。   Needless to say, adjustment using hardware and software is indispensable for realizing high-precision color matching. In color matching using a projector, it is common to perform focus adjustment, resolution adjustment, video position adjustment, keystone adjustment, white balance and sharpness adjustment, etc. by hardware adjustment. In software adjustment, a method of creating an ICC profile or the like by displaying a color patch on a screen from a projector using a commercially available application and measuring the color patch with a measuring instrument is common.

しかし、一方で、プロジェクタを用いたカラーマッチングにおいては、プロジェクタ本体のスペックのみならず、投影するスクリーン素材にも大きく影響されることが知られている。スクリーン素材特有の偏角特性は、スクリーン素材毎に異なる。上記スクリーン素材の反射特性を表す数値の一例として、スクリーンゲインと呼ばれるものがある。スクリーンゲインは、一般的なスクリーン素材であるビーズ、マット、パールといった各種類毎に異なる。特にスクリーンゲイン値の中で最も高い数値を示すピークゲインに関しては、スクリーンの種類の違いが顕著に現れる。そのため、ユーザの観察位置によっても得られるスクリーンの反射特性が異なるため、ユーザ所望のプロジェクタ投影環境において、常に一定の高精度かつ理想的な色再現を得るためには、非常に困難となる。   On the other hand, it is known that color matching using a projector is greatly influenced not only by the specifications of the projector body but also by the screen material to be projected. The declination characteristic peculiar to the screen material is different for each screen material. One example of a numerical value representing the reflection characteristic of the screen material is called a screen gain. The screen gain is different for each kind of general screen material such as beads, mats, and pearls. In particular, with respect to the peak gain showing the highest numerical value among the screen gain values, the difference in the type of screen appears remarkably. For this reason, the reflection characteristics of the screen obtained also differ depending on the viewing position of the user, so that it is very difficult to always obtain a certain high accuracy and ideal color reproduction in the projector projection environment desired by the user.

従来、これらプロジェクタを用いたカラーマッチングにおける課題を解決する方法としては、特許文献1、及び、特許文献2が知られている。特許文献1は、照明装置にて投影する映像の種類や周囲の明るさ等に応じて、最適な調光を行うための技術である。そして、この特許文献1では、視聴する映像の種類、視聴環境の明るさ、スクリーンゲイン等の情報に応じて、その光量調節の許容される範囲(減光範囲)を最適に設定するものである。一方、特許文献2は、車室内に設置された映像表示装置において、ダッシュボード等の車室内構造物と干渉することなく、広範囲に投影した場合においても、運転者から見た映像に違和感なく、均一な面として投影することを目的としているものである。
特開2004−354882 特開2006−88722
Conventionally, Patent Literature 1 and Patent Literature 2 are known as methods for solving the problems in color matching using these projectors. Patent Document 1 is a technique for performing optimal light control in accordance with the type of image projected by the illumination device, ambient brightness, and the like. And in this patent document 1, according to information, such as the kind of image | video to view, the brightness of viewing environment, a screen gain, etc., the range (dimming range) in which the light quantity adjustment is permitted is set optimally. . On the other hand, Patent Document 2 is a video display device installed in a vehicle interior, without interfering with a vehicle interior structure such as a dashboard, and even when projected over a wide range, the image viewed from the driver is not uncomfortable, It is intended to project as a uniform surface.
JP2004-354882 JP 2006-88722 A

しかしながら、特許文献1においては、照明装置の光量をハード上で調整する技術であり、照明装置自体に特殊な調整機構が必要であった。   However, in patent document 1, it is the technique which adjusts the light quantity of an illuminating device on hardware, and the special adjustment mechanism was required for illuminating device itself.

一方、特許文献2においては、車室に取り付けられた映像表示装置に限定しており、任意の環境下で使用可能なシステムではないため汎用性に欠ける。また、画像が表示される面の凹凸は考慮されているものの、スクリーン素材といったミクロな性質による色再現の違いを重視したものとはなっていない。   On the other hand, in patent document 2, it is limited to the video display apparatus attached to the passenger compartment, and lacks versatility because it is not a system that can be used in any environment. Further, although the unevenness of the surface on which the image is displayed is taken into consideration, the difference in color reproduction due to the micro property such as the screen material is not emphasized.

本発明は、かかる問題点に鑑みなされたものであり、投影スクリーンの種類、及び、観察者の観察位置に応じて、良好な色で画像を投影させることを可能ならしめる技術を提供しようとするものである。   The present invention has been made in view of such problems, and intends to provide a technique that makes it possible to project an image with a good color according to the type of the projection screen and the observation position of the observer. Is.

この課題を解決するため、例えば本発明の画像処理装置は以下の構成を備える。すなわち、
投影スクリーンに画像を投影する投影手段を有する画像処理装置であって、
前記投影スクリーンに対する観察者の視点方向を特定する位置情報を入力する位置情報入力手段と、
前記投影スクリーンに対する、各視点方向の表示の特性を示す情報を入力する特性情報入力手段と、
前記位置情報入力手段、特性情報入力手段それぞれから入力した情報に基づき、投影対象の画像データを補正するための補正テーブルを算出する補正テーブル算出手段と、
該補正テーブル算出手段で算出した補正テーブルに従い、前記投影手段に出力する対象の画像データを補正する補正手段とを備える。
In order to solve this problem, for example, an image processing apparatus of the present invention has the following configuration. That is,
An image processing apparatus having projection means for projecting an image on a projection screen,
Position information input means for inputting position information for specifying the observer's viewpoint direction with respect to the projection screen;
Characteristic information input means for inputting information indicating display characteristics of each viewpoint direction with respect to the projection screen;
Correction table calculation means for calculating a correction table for correcting image data to be projected based on information input from each of the position information input means and characteristic information input means;
Correction means for correcting image data to be output to the projection means according to the correction table calculated by the correction table calculation means.

本発明によれば、投影スクリーンの種類と観察者の視点方向に基づき、表示対象の画像データを補正することで、観察者の視点からは、良好な色再現を有する画像として投影させることが可能になる。   According to the present invention, by correcting the image data to be displayed based on the type of the projection screen and the viewpoint direction of the observer, the image can be projected as an image having good color reproduction from the viewpoint of the observer. become.

以下、添付図面に従って本発明に係る実施形態を詳細に説明する。   Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

<第1の実施形態>
実施形態の画像処理装置は、パーソナルコンピュータに代表される汎用の情報処理装置と、それにプロジェクタを接続したものとして説明する。パーソナルコンピュータのハードウェア構成については、説明するまでもないであろうから、以下では、この情報処理装置が本実施形態のアプリケーションを実行した際の画像処理装置として機能する機能ブロック構成を図1に示し、説明する。
<First Embodiment>
The image processing apparatus according to the embodiment will be described assuming that a general-purpose information processing apparatus represented by a personal computer and a projector are connected thereto. Since the hardware configuration of the personal computer will not be described, a functional block configuration that functions as an image processing apparatus when the information processing apparatus executes the application of the present embodiment will be described below with reference to FIG. Show and explain.

図示において、101はパーソナルコンピュータ(以下、PC)である。このPC101は、アプリケーション格納部102、投影画像格納部103、観察位置情報格納部104、スクリーン情報格納部105、補正テーブル格納部106、補正画像生成部107、補正画像データ格納部108を備える。また、画像解析部109、パッチデータ格納部110、スクリーン素材格納部111、スクリーンゲイン格納部112、ターゲットテーブル格納部113も有する。この内、補正画像生成部107、画像解析部109が、PC内のプロセッサが実行する部分であり、他の格納部は主メモリ、或いは、ハードディスクに格納されるものである。また、PC101には、投影手段としてのプロジェクタ114、モニタ115、及び、測色機116が接続されている。   In the figure, reference numeral 101 denotes a personal computer (hereinafter, PC). The PC 101 includes an application storage unit 102, a projection image storage unit 103, an observation position information storage unit 104, a screen information storage unit 105, a correction table storage unit 106, a correction image generation unit 107, and a correction image data storage unit 108. The image analysis unit 109, the patch data storage unit 110, the screen material storage unit 111, the screen gain storage unit 112, and the target table storage unit 113 are also included. Among these, the corrected image generation unit 107 and the image analysis unit 109 are portions executed by the processor in the PC, and the other storage unit is stored in the main memory or the hard disk. In addition, a projector 114 as a projection unit, a monitor 115, and a colorimeter 116 are connected to the PC 101.

なお、スクリーン情報格納部105には、スクリーン特性情報としてスクリーンゲイン格納部112を備えているものとしているが、スクリーンの特性を示した情報であれば、スクリーンゲインに限らず、任意の情報が格納されていてよい。但し、理解を容易にするため、実施形態では、上記のスクリーン特性情報がスクリーンゲイン情報であるものとして説明する。   The screen information storage unit 105 includes a screen gain storage unit 112 as screen characteristic information. However, any information indicating screen characteristics is not limited to screen gain, and arbitrary information is stored. May have been. However, in order to facilitate understanding, the embodiment will be described assuming that the screen characteristic information is screen gain information.

先ず、上記構成における、プロジェクタ投影画像作成処理に関し、以下に述べる。   First, the projector projection image creation processing in the above configuration will be described below.

アプリケーション格納部102に格納された画像アプリケーションが、ユーザの起動指示を受けると、OS(オペレーティングシステム)は、主メモリにそのプログラムをロードし、実行することにより、この制御処理が開始される。この起動されたアプリケーションは以下の処理を行なう。   When the image application stored in the application storage unit 102 receives a user's activation instruction, the OS (operating system) loads the program into the main memory and executes it, thereby starting this control process. The activated application performs the following processing.

先ず、アプリケーションが起動すると、ユーザは、そのアプリケーションがモニタ115に表示するGUIを用いて、これからスクリーンに投影する画像をアプリケーション上で指定する。この結果、指定された画像データは投影画像格納部103に格納される。   First, when the application is activated, the user designates an image to be projected on the screen on the application using a GUI displayed on the monitor 115 by the application. As a result, the designated image data is stored in the projection image storage unit 103.

次に、ユーザは画像投影するスクリーンの素材をアプリケーションによるGUI上で選択する。選択されたスクリーン素材は、スクリーン情報格納部105内のスクリーン素材格納部111に格納される。続けて、ユーザにスクリーンに対してどの位置(角度)で観察するかを特定するための観察位置情報入力を行わせる。入力された観察位置情報は、観察位置情報格納部104に格納される。   Next, the user selects a screen material on which an image is projected on the GUI by the application. The selected screen material is stored in the screen material storage unit 111 in the screen information storage unit 105. Subsequently, the user is caused to input observation position information for specifying at which position (angle) to observe with respect to the screen. The input observation position information is stored in the observation position information storage unit 104.

スクリーンの反射特性を数値化したスクリーンゲイン値は、上記で選択したスクリーン素材に対応付けられているものをデフォルト値としてスクリーンゲイン格納部112に予め格納している。但し、ユーザ所望のスクリーンゲイン値に関しても、アプリケーション上で読み込み可能とする。また、さらにはユーザが投影する画像に最適なスクリーンゲイン値を得られる手段として、投影する画像を画像解析部109にて解析し、画像に最適なスクリーンゲイン値取得用パッチ画像生成処理を実行し、生成されたパッチ画像をパッチデータ格納部110に格納する。このパッチデータ格納部110内のパッチデータは、アプリケーション上の測定開始ボタンを押下することで、プロジェクタ114を介して、スクリーン上に表示される。スクリーン上に表示されたパッチに対し、測色機116を用いて測色を行うことで、スクリーンゲイン値の取得が可能となる。スクリーン素材に対応付けられたデフォルトスクリーンゲイン値、もしくは、ユーザにより読み込まれたスクリーンゲイン値、または、ユーザがパッチを測定することで得られたスクリーンゲイン値いずれも、スクリーンゲイン格納部112に格納される。上記のように、アプリケーション上で入力された情報、さらに、どういった色再現をターゲットにするかといったターゲットテーブル格納部113格納の情報をもとに、投影画像作成(補正)用テーブルが作成され、補正テーブル格納部106に格納される。   The screen gain value obtained by quantifying the reflection characteristics of the screen is stored in advance in the screen gain storage unit 112 as a default value corresponding to the screen material selected above. However, the screen gain value desired by the user can be read on the application. Further, as a means for obtaining the optimum screen gain value for the image projected by the user, the projected image is analyzed by the image analysis unit 109, and the patch image generation process for obtaining the optimum screen gain value for the image is executed. The generated patch image is stored in the patch data storage unit 110. The patch data in the patch data storage unit 110 is displayed on the screen via the projector 114 when a measurement start button on the application is pressed. By performing color measurement on the patch displayed on the screen using the colorimeter 116, it is possible to obtain a screen gain value. The default screen gain value associated with the screen material, the screen gain value read by the user, or the screen gain value obtained by the user measuring the patch is stored in the screen gain storage unit 112. The As described above, a projection image creation (correction) table is created on the basis of information input on the application and information stored in the target table storage 113 such as what color reproduction is targeted. And stored in the correction table storage unit 106.

補正画像生成部107は、上記方法にて算出された補正テーブル格納部106に格納された補正テーブルを用い、現在使用のスクリーン素材、観察位置に最適なプロジェクタ投影用補正画像データを作成し、補正画像データ格納部108に格納する。この補正画像データ格納部108に格納された画像データ(補正後の画像データ)は、プロジェクタ114に出力され、スクリーンに投影されることになる。   The correction image generation unit 107 uses the correction table stored in the correction table storage unit 106 calculated by the above method to generate projector projection correction image data that is optimal for the currently used screen material and observation position, and performs correction. Stored in the image data storage unit 108. The image data (corrected image data) stored in the corrected image data storage unit 108 is output to the projector 114 and projected onto the screen.

以下では、詳細なプロジェクタ投影画像作成処理を、図2のフローチャート、また図3のアプリケーション概要図、図13(a)、(b)のスクリーンゲイン図を用いて説明する。   In the following, detailed projector projection image creation processing will be described with reference to the flowchart of FIG. 2, the application outline diagram of FIG. 3, and the screen gain diagrams of FIGS. 13 (a) and 13 (b).

まず、ステップS201では、アプリケーション格納部102に記憶された図3に示すプロジェクタ投影画像作成アプリケーションを起動させる。つまり、ユーザの指示に応じて、アプリケーションプログラムを主メモリにロードし、プロセッサがこのプログラムの実行を開始する。この結果、アプリケーションは、図3に示すようなGUIウインドウをモニタ115に表示し、ユーザからの指示入力を受けつける。   First, in step S201, the projector projection image creation application shown in FIG. 3 stored in the application storage unit 102 is activated. That is, according to a user instruction, an application program is loaded into the main memory, and the processor starts executing the program. As a result, the application displays a GUI window as shown in FIG. 3 on the monitor 115 and receives an instruction input from the user.

ステップS202では、ユーザがこれからプロジェクタにてスクリーンに投影する画像を図3の入力欄301より指定する。入力欄301には、投影対象の画像データのファイル名をパス付きでキーボードより入力するものとする。但し、ダイアログボックスを表示し、マウス等のポインティングデバイスを用いて、ファイルシステムの階層をたどって、目的とするファイルを選択するようにしても構わない。以下、キーボードやポインティングデバイスを用いたデータの入力を、単に入力、或いは選択という。   In step S202, the user designates an image to be projected on the screen by the projector from the input field 301 in FIG. In the input field 301, the file name of the image data to be projected is input from the keyboard with a path. However, a target file may be selected by displaying a dialog box and using a pointing device such as a mouse to follow the hierarchy of the file system. Hereinafter, data input using a keyboard or a pointing device is simply referred to as input or selection.

ステップS203では、プロジェクタから出力された画像が投影されるスクリーンの素材を図3の選択ボックス302内の候補の中から選択する。選択可能なスクリーン素材としては、スクリーンメーカから現在一般的に発売されている代表素材である「ビーズ」、「マット」、「パール」等は選択肢として予め備え、それ以外のスクリーン素材を使用するユーザは「任意素材」(或いは任意種類)とし、選択肢に備えておく。なお、本実施形態にて記述する選択可能なスクリーン素材は、あくまでも例であり、今後発売される任意の素材、任意の名称のスクリーンが選択肢に追加されても同様の処理が可能なものとする。   In step S203, the screen material on which the image output from the projector is projected is selected from the candidates in the selection box 302 in FIG. As screen materials that can be selected, users who use screen materials other than “Beads”, “Matte”, “Pearl”, etc., which are representative materials currently available from screen manufacturers, are available in advance. Is an “arbitrary material” (or any kind) and is prepared for choice. Note that the selectable screen material described in this embodiment is merely an example, and the same processing can be performed even if an arbitrary material to be released in the future or a screen with an arbitrary name is added as an option. .

ステップS204では、ユーザがスクリーンに対してどの位置で観察するかという位置情報を、図3の入力欄303に入力する。この入力は角度を示す数値を入力するものとする。角度を示す数値が入力されると、図3の領域304のように観察環境を模したイメージ上の該当する位置に星印が表示され、ユーザに確認させることができる。また、逆に、領域304上の位置をポインティングデバイスを指定すると、その位置に星印が表示され、その結果、算出した角度を示す数値を入力欄303に表示する。つまり、上記2つの方法のいずれを用いても、その観察位置を指定することができる。   In step S204, position information on which position the user observes with respect to the screen is input in the input field 303 of FIG. In this input, a numerical value indicating an angle is input. When a numerical value indicating an angle is input, an asterisk is displayed at a corresponding position on the image simulating the observation environment as in the region 304 in FIG. 3 and can be confirmed by the user. Conversely, when a pointing device is designated as a position on the area 304, a star is displayed at that position, and as a result, a numerical value indicating the calculated angle is displayed in the input field 303. That is, the observation position can be designated by using either of the above two methods.

なお、観察位置の角度は、スクリーンの中心に対し、スクリーン面の垂直方向を0°とする。そして、その中心に時計周りの方向をプラスの角度、反時計周りをマイナスの角度とする。但し、これは一例であって、基準位置はどこに設けても構わない。   Note that the angle of the observation position is 0 ° in the vertical direction of the screen surface with respect to the center of the screen. Then, a clockwise direction at the center is a positive angle, and a counterclockwise direction is a negative angle. However, this is an example, and the reference position may be provided anywhere.

ステップS205では、スクリーン素材に適したスクリーンゲイン値の取得を行う。スクリーンゲイン値は、上記ステップS203にて選択されたスクリーン素材(パール、マット、ビーズ等)に対応付けられた値をスクリーンゲイン格納部112にデフォルト値として保有しているものとする。なお、高精度な色再現を望むユーザに応えるため、図3の選択ボックス302には、スクリーン素材の選択肢のうち「任意素材」を候補の1つとして表示するようにした。この候補が選択された場合、2つの方法で、スクリーンゲイン値を設定できる(第1の選択方法)。1つは、予め任意の方法で知り得たスクリーンゲイン値を格納したファイルを、図3の入力欄306にパス付きファイル名を入力することで指定するものである。もう1つは、投影する画像構成また使用するスクリーン素材に応じたスクリーンゲイン値を、図3の測定開始ボタン305を押下することで、所望の環境下でのスクリーンゲイン値を取得するもである。後者には、更に第1の測定方法と、第2の測定方法のいずれか一方を選択する工程がある(第2の選択方法)。なお、上記、スクリーンゲイン値の取得(測定)方法に関しては後に詳しく述べる。ここで記述するスクリーンゲイン値とは、各種スクリーンの素材毎に異なる反射特性を数値で示したものである。上下左右180°の方向で、ほぼ同様の反射率を返す完全拡散板と呼ばれるものに、一定の光を当てた時に得られる輝度を1.0とし、同一条件下でスクリーンへの照射角度を変化させ得られた輝度との比率を示したものである。一般に、図13(a),(b)に示すように、スクリーンゲイン値は、スクリーンの素材毎に異なることが知られている。特に、スクリーンゲイン値の中で、最も高い数値を示すピークゲインに関しては、スクリーン素材の性質が顕著に表れる。また、図13(a)、(b)からもわかるように、スクリーン素材毎の反射特性が観察角度によって異なることが知られている。   In step S205, a screen gain value suitable for the screen material is acquired. It is assumed that the screen gain value has a value associated with the screen material (pearl, mat, bead, etc.) selected in step S203 as a default value in the screen gain storage unit 112. In order to respond to a user who desires high-precision color reproduction, the selection box 302 in FIG. 3 displays “arbitrary material” as one of the candidates among the screen material options. When this candidate is selected, the screen gain value can be set by two methods (first selection method). One is to specify a file storing screen gain values obtained in advance by an arbitrary method by inputting a file name with a path in the input field 306 of FIG. The other is to obtain the screen gain value in a desired environment by pressing the measurement start button 305 in FIG. 3 with the screen gain value corresponding to the image configuration to be projected and the screen material to be used. . The latter further includes a step of selecting either the first measurement method or the second measurement method (second selection method). The method for acquiring (measuring) the screen gain value will be described in detail later. The screen gain value described here is a numerical value indicating reflection characteristics that differ for each screen material. The brightness obtained when a certain amount of light is applied to what is called a perfect diffuser that returns almost the same reflectivity in the direction of 180 ° vertically and horizontally is set to 1.0, and the irradiation angle to the screen is changed under the same conditions. The ratio with the brightness | luminance obtained was shown. In general, as shown in FIGS. 13A and 13B, it is known that the screen gain value is different for each material of the screen. In particular, with respect to the peak gain showing the highest value among the screen gain values, the properties of the screen material are prominent. Further, as can be seen from FIGS. 13A and 13B, it is known that the reflection characteristics for each screen material differ depending on the observation angle.

ステップS206では、ステップS205で得られたスクリーンゲイン格納部112のスクリーンゲイン値、および、ターゲットテーブル格納部113のターゲットテーブルデータから、投影画像補正用の補正テーブルを作成する。作成された補正テーブルは補正テーブル格納部106に格納される。上記、補正テーブル作成方法に関しては、後に詳しく述べる。   In step S206, a correction table for correcting the projection image is created from the screen gain value of the screen gain storage unit 112 obtained in step S205 and the target table data of the target table storage unit 113. The created correction table is stored in the correction table storage unit 106. The correction table creation method will be described in detail later.

ステップS207では、図3の補正画像作成ボタン307を押下することで、所定の方法より補正画像生成部107にて、ユーザが指定した投影対象の画像データに対応する投影用補正画像の作成を行う。すなわち、投影画像格納部103内の投影画像データ、観察位置情報格納部104内の観察位置情報、補正テーブル格納部106内の補正テーブルを用いて、現在ユーザが使用するスクリーンの素材、観察位置用の、最適なプロジェクタ投影画像データを作成する。作成された補正画像データは補正画像データ格納部108に格納され、プロジェクタ114に出力し、スクリーンに表示させる。補正画像生成部107にて行われる投影用補正画像データ作成方法に関しては、後に詳しく述べる。   In step S207, by pressing the correction image creation button 307 in FIG. 3, the correction image generation unit 107 creates a projection correction image corresponding to the image data to be projected designated by the user by a predetermined method. . That is, using the projection image data in the projection image storage unit 103, the observation position information in the observation position information storage unit 104, and the correction table in the correction table storage unit 106, the screen material and observation position currently used by the user are used. The optimum projector projection image data is created. The created corrected image data is stored in the corrected image data storage unit 108, output to the projector 114, and displayed on the screen. The method of creating corrected image data for projection performed by the corrected image generation unit 107 will be described in detail later.

図3の終了ボタン308が押下されると、プロジェクタ投影画像作成動作を終了する。   When the end button 308 in FIG. 3 is pressed, the projector projection image creation operation is ended.

以下では、ステップS205におけるスクリーンゲイン値取得方法に関して、図3、図4、図5、図6A、6B、図7、図8、図9を用いて説明する。   Hereinafter, the screen gain value acquisition method in step S205 will be described with reference to FIGS. 3, 4, 5, 6A, 6B, 7, 8, and 9. FIG.

まず、図4のフローチャートを用いて説明を行う。   First, description will be made with reference to the flowchart of FIG.

ステップS401では、スクリーンゲイン値に関して、予め備えられたスクリーン素材に対応付けられたデフォルト値を使用するか、もしくはデフォルト値ではなく、任意の値を使用するかを選択する。ユーザは、図3の選択ボックス302内の「ビーズ」、「マット」、「パール」、「任意素材」のいずれかを選択することになる。   In step S401, regarding the screen gain value, it is selected whether to use a default value associated with a screen material provided in advance or an arbitrary value instead of the default value. The user selects any one of “beads”, “matte”, “pearl”, and “arbitrary material” in the selection box 302 of FIG.

このうち、スクリーン素材として「ビーズ」、「マット」、「パール」のいずれかが選択されると、処理はステップS402に進む。一方、選択ボックス302内の「任意素材」が選択された場合においては、図3の領域305、306がアプリケーション上で使用可能(アクティブ)となり、(ボタンの押下、または、ファイルの読み込みが可能となり)ステップS404に進む。   Among these, when “beads”, “matte”, or “pearl” is selected as the screen material, the process proceeds to step S402. On the other hand, when “arbitrary material” in the selection box 302 is selected, the areas 305 and 306 in FIG. 3 are usable (active) on the application, and the button can be pressed or the file can be read. ) Proceed to step S404.

ステップS402では、ユーザがどのスクリーン素材(本実施形態では、「ビーズ」、「マット」、「パール」の3種類)を選択したか、スクリーン素材格納部111より取得する。   In step S <b> 402, the screen material storage unit 111 acquires which screen material (three types of “beads”, “matte”, and “pearl” in the present embodiment) has been selected by the user.

ステップS403では、ステップS402より取得されたスクリーン素材情報を元に、上記スクリーン素材に対応付けられた図8に示す形式にて格納されたデフォルトスクリーンゲイン情報を、スクリーンゲイン格納部112より取得する。つまり、ステップS402、S403が、投影スクリーンの特性情報入力手段として機能することになる。   In step S403, based on the screen material information acquired in step S402, default screen gain information stored in the format shown in FIG. 8 associated with the screen material is acquired from the screen gain storage unit 112. That is, steps S402 and S403 function as characteristic information input means for the projection screen.

一方、ステップS404に処理が進んだ場合には、スクリーンゲイン値を現在のユーザ観察環境で取得するか、もしくは、任意の方法にて既に取得されたスクリーンゲイン情報のファイルを読込むかを選択する。前者は、測定開始ボタン305が押下された場合に相当し、後者は、入力欄306にパス付きファイル名が入力された場合に相当する。   On the other hand, when the process proceeds to step S404, it is selected whether to acquire the screen gain value in the current user observation environment or to read the screen gain information file already acquired by an arbitrary method. The former corresponds to the case where the measurement start button 305 is pressed, and the latter corresponds to the case where a file name with a path is input in the input field 306.

スクリーンゲイン値をユーザ環境下で測定する場合は、ステップS405に進む。測定は行わず、任意の方法にて既に取得されたスクリーンゲイン情報を入力する場合においては、ステップS409に進む。   When the screen gain value is measured in the user environment, the process proceeds to step S405. In the case where screen gain information already acquired by an arbitrary method is input without performing measurement, the process proceeds to step S409.

ステップS405に処理が進むと、不図示のGUIを表示し、投影画像の解析を行うか否かをユーザに選択させる。画像解析を行うことが指定された場合、投影画像に最適かつ非常に高精度なスクリーンゲイン値をユーザが取得したい場合である。この場合、処理は、ステップS406に進む。一方、任意のスクリーン素材を使用するが、投影する画像の構成には関係なく、スクリーンの偏角特性を表す通常のスクリーンゲイン値を取得したい場合においては、ステップS408へ進む。   When the process proceeds to step S405, a GUI (not shown) is displayed, and the user is allowed to select whether or not to analyze the projection image. When it is designated to perform image analysis, it is a case where the user wants to obtain a screen gain value that is optimal for the projection image and has a very high accuracy. In this case, the process proceeds to step S406. On the other hand, when an arbitrary screen material is used, but it is desired to obtain a normal screen gain value representing the declination characteristic of the screen regardless of the configuration of the projected image, the process proceeds to step S408.

なお、投影画像に最適なパッチを作成し、測定することでスクリーンゲイン値を取得するか、もしくは、スクリーン素材そのものを測定することでスクリーンゲイン値を取得するかの選択は次のようにした。すなわち、図の測定開始ボタン305の押下検出後、「投影画像適用型パッチ測定」あるいは「スクリーン素材測定」というように2種の測定方法から選択できるGUIを表示し、ユーザがそのいずれかを選択するものである。   The selection of whether to obtain a screen gain value by creating and measuring a patch optimal for a projected image or by acquiring the screen gain value by measuring the screen material itself was as follows. That is, after detecting the pressing of the measurement start button 305 in the figure, a GUI that can be selected from two types of measurement methods such as “projection image applied patch measurement” or “screen material measurement” is displayed, and the user selects one of them. To do.

ステップS406では、ステップS405にて投影画像の解析を行うと判断された場合において、投影画像データがどういう構成のものか、まず、スクリーンゲイン値を取得するための画像解析を行う。画像解析の方法は任意の方法であってよい。例えば、ヒストグラムを用いて画像解析を行い、画像を構成する画素データのうち、最も多い画素データをその画像の代表画素値として決定する手段を用いてもよい(図5のイメージ参照)。もしくは、画像を領域分割し、分割した領域内に含まれる画素の平均値、もしくは領域内に最も多く含まれる画素値を算出してもよい(図6Aのイメージ参照)。上記任意の方法にて画像解析を行った結果を元に、パッチデータを作成する。パッチデータは、ひとつの画像に対し、ひとつのパッチデータであってもよいし、領域分割数分のパッチデータであってもよい。前者においては、先に述べたように、画像のヒストグラム解析を行った結果、画像内に含まれる全画素値のうち、最も多い画素データ1色からパッチを作成してもよい。後者においては、先に述べたように、画像を領域分割し(図6A参照)、それぞれの分割した領域内に含まれる画素の平均値、もしくは領域内に最も多く含まれる画素値を、それぞれの領域におけるパッチデータとしてもよい。分割された領域内での最適なパッチデータの算出方法に関してここではある一例を示したが、算出方法は任意の方法を用いてよいものとする。また、後者の投影画像を複数の領域に分割し、パッチデータの作成、およびスクリーンゲイン値を算出する方法に関しては、第2の実施形態にて詳しく述べる。よって、以下では、投影画像に最適な1つのパッチデータからスクリーンゲイン値を取得する方法を例に説明を行う。   In step S406, if it is determined in step S405 that analysis of the projection image is to be performed, the configuration of the projection image data is first analyzed to obtain a screen gain value. The image analysis method may be any method. For example, a means for performing image analysis using a histogram and determining the most pixel data among the pixel data constituting the image as a representative pixel value of the image may be used (see the image in FIG. 5). Alternatively, the image may be divided into regions, and an average value of pixels included in the divided region or a pixel value included most in the region may be calculated (see the image in FIG. 6A). Patch data is created based on the result of image analysis performed by any method described above. The patch data may be one piece of patch data or one piece of patch data for the number of area divisions for one image. In the former, as described above, as a result of the histogram analysis of the image, a patch may be created from one color of the most pixel data among all the pixel values included in the image. In the latter, as described above, the image is divided into regions (see FIG. 6A), and the average value of the pixels included in each divided region, or the pixel value included most in the region, It may be patch data in the area. Although an example has been shown here regarding the optimal patch data calculation method in the divided area, any method may be used as the calculation method. Further, a method for dividing the latter projected image into a plurality of regions, creating patch data, and calculating a screen gain value will be described in detail in the second embodiment. Therefore, in the following, a method for acquiring a screen gain value from one piece of patch data optimal for a projection image will be described as an example.

ステップS407では、ステップS406にて作成されたパッチデータを元にパッチの測定を行う。パッチの測定を行う機器の種類は、輝度値が取得可能なものであれば任意の装置(例えば、ビデオカメラ等の光学検出装置)で良い。今、取得したいスクリーンゲイン値を、本実施形態においては−60°から60°の範囲であるものとする。ここでは、プロジェクタは、スクリーンの中心位置に対して正面(角度0度)に固定されており、測色機(測色機のの測定方向を、スクリーンの中心位置に向けたまま)の角度のみを変移させ、それぞれの角度位置における輝度値を取得する。60°とは、スクリーンに対して垂直方向を0°とした時に、時計周りに60°の方向に位置する角度とする。一方の−60°とは、スクリーンに対して垂直方向を0°とした時に、反時計周りに60°の方向に位置する角度とする(図7参照)。なお、プロジェクタはスクリーンに対して、0°の位置に任意の距離を保って設置され、パッチはスクリーンの中心部に表示される。本提案においては、ある環境下で完全拡散板に一定の光を当てた時に得られた輝度値をTcdとする。   In step S407, the patch is measured based on the patch data created in step S406. The type of device for measuring the patch may be any device (for example, an optical detection device such as a video camera) as long as the luminance value can be acquired. Now, it is assumed that the screen gain value to be acquired is in the range of −60 ° to 60 ° in the present embodiment. Here, the projector is fixed to the front (angle 0 degree) with respect to the center position of the screen, and only the angle of the colorimeter (with the measurement direction of the colorimeter facing the center position of the screen). To obtain the luminance value at each angular position. 60 ° is an angle positioned in the direction of 60 ° clockwise when the direction perpendicular to the screen is 0 °. On the other hand, −60 ° is an angle positioned in the direction of 60 ° counterclockwise when the direction perpendicular to the screen is 0 ° (see FIG. 7). The projector is installed at an arbitrary distance at a position of 0 ° with respect to the screen, and the patch is displayed at the center of the screen. In this proposal, the luminance value obtained when a certain amount of light is applied to the complete diffuser plate under a certain environment is defined as Tcd.

最初に、測定範囲下限である−60°から測定する。まず、スクリーンに対して、垂直方向の位置にプロジェクタを設置する。スクリーンとプロジェクタとの距離は、ユーザ所望の距離とする。続けて、上記プロジェクタ設置位置とスクリーン中心点を結んだ位置を0°とした時に、同一円弧上を反時計周りに60°移動した角度に測定機器を設置する。測定環境が整ったら上記位置にて、測定を開始する。測定方法は、使用する測定機器の使用方法に順ずるものとする。上記方法にて測定された−60°での輝度値をY-60cdとする。スクリーンゲイン値は、完全拡散板に同条件下で一定の光を当てた時に得られた輝度値を“1”とした時に、対象となる位置で測定された輝度値との比率で表すため、−60°でのスクリーンゲイン値は、Y-60/T=N-60で表すことができる。以下同様に、取得したい範囲(角度)において測定位置を変化させ、各測定位置(角度)で所定の方法にて測定を行うことで、各角度位置におけるスクリーンゲイン値を算出することが可能となる。本提案では、測定、および、スクリーンゲイン値の算出は−60°から60°の範囲かつ10°間隔の各視点方向毎に行なう。但し、取得されるスクリーンゲインの範囲、および、取得されるデータ間隔においては任意の設定であってよい。 First, it is measured from −60 ° which is the lower limit of the measurement range. First, a projector is installed at a position perpendicular to the screen. The distance between the screen and the projector is a distance desired by the user. Subsequently, when the position connecting the projector installation position and the screen center point is set to 0 °, the measuring device is installed at an angle moved 60 ° counterclockwise on the same arc. When the measurement environment is ready, start measurement at the above position. The measurement method shall be in accordance with the usage method of the measuring equipment to be used. The luminance value at −60 ° measured by the above method is Y -60 cd. Since the screen gain value is expressed as a ratio with the luminance value measured at the target position when the luminance value obtained when a constant light is applied to the complete diffuser under the same condition is “1”, The screen gain value at −60 ° can be expressed as Y− 60 / T = N− 60 . Similarly, the screen gain value at each angular position can be calculated by changing the measurement position in the range (angle) to be acquired and performing the measurement at each measurement position (angle) by a predetermined method. . In this proposal, measurement and calculation of the screen gain value are performed for each viewpoint direction in the range of −60 ° to 60 ° and 10 ° intervals. However, the screen gain range to be acquired and the data interval to be acquired may be set arbitrarily.

また、ステップS408に処理が進んだ場合には、パッチ画像の投影無し、つまり、投影画像の解析は行わず、ユーザが使用する任意のスクリーンゲイン値を通常のスクリーンゲイン取得方法に準じた測定手段より取得する。測定対象はスクリーン素材そのものであり、測定領域はスクリーン中心部とする。上記条件において、測定角度を−60°から60°へ10°ずつ変化させ、測定を行う。各測定位置にて取得された輝度値から、完全拡散板に同一条件下で光を照射した時に得られた輝度値を“1”にした時の詳細なスクリーンゲイン算出方法に関しては、ステップS407と同様の手法を用いる。   If the process proceeds to step S408, no patch image is projected, that is, the projection image is not analyzed, and an arbitrary screen gain value used by the user is measured according to a normal screen gain acquisition method. Get more. The measurement object is the screen material itself, and the measurement area is the center of the screen. Under the above conditions, the measurement angle is changed by 10 ° from −60 ° to 60 °, and measurement is performed. Regarding the detailed screen gain calculation method when the luminance value obtained when the light is irradiated on the complete diffuser plate under the same conditions from the luminance value acquired at each measurement position, step S407 and A similar technique is used.

また、ステップS409に処理が進んだ場合、ユーザにより任意の方法にて予め取得されたスクリーンゲイン値のデータを図3の入力欄306の入力を参照して取得する。   When the process proceeds to step S409, the screen gain value data acquired in advance by the user by an arbitrary method is acquired with reference to the input in the input field 306 in FIG.

本提案にて取得されるスクリーンゲイン値は、便宜上−60°から60°の範囲において、10°間隔のデータであったとし説明を行う。本来、ユーザが入力できるスクリーンゲインのデータ範囲および間隔は任意のものであってよいものとし、アプリケーションの仕様にあわせ、取得されたスクリーンゲイン値からデータの削除および補間を行うものとする。データの削除に関しては、必要なデータ以外は切り捨てる等の処理を行う。また、データの補間に関しては、任意の方法でよいものとするが、例えば、実測した2つ角度におけるゲイン値の間の角度のゲイン値は、線形補間することで算出すればよい。例えば、−60°と−50°の間の角度である−55°のスクリーンゲイン値を算出したい場合においては、−60°と−50°のスクリーンゲイン値の平均値を上記―55°のスクリーンゲイン値として算出する。ユーザがスクリーンゲイン値を取得する方法は、ユーザ自身が行う任意のパッチ等の測定から取得される方法であってもよいし、文献やユーザが使用するスクリーンメーカなどから公開されている情報をダウンロードしたものを用いてもよい。   For the sake of convenience, the screen gain value obtained in this proposal will be described as data at 10 ° intervals in the range of −60 ° to 60 °. The screen gain data range and interval that can be input by the user may be arbitrary, and data is deleted and interpolated from the acquired screen gain value in accordance with the application specifications. Regarding data deletion, processing such as truncation is performed except for necessary data. In addition, regarding data interpolation, any method may be used. For example, an angle gain value between two actually measured gain values may be calculated by linear interpolation. For example, when it is desired to calculate a screen gain value of −55 ° which is an angle between −60 ° and −50 °, the average value of the screen gain values of −60 ° and −50 ° is calculated as the screen gain of −55 °. Calculated as a gain value. The method for acquiring the screen gain value by the user may be a method acquired from measurement of an arbitrary patch or the like performed by the user himself / herself, or downloads information published from a document or a screen manufacturer used by the user. You may use what you did.

ステップS410では、ステップS403、S407、S408、S409のいずれかで取得されたスクリーンゲイン値をスクリーンゲイン格納部112に格納する。   In step S410, the screen gain value acquired in any of steps S403, S407, S408, and S409 is stored in the screen gain storage unit 112.

スクリーンゲイン格納部112に格納される形式は、ステップS403にて取得されたスクリーンデータは図8に示す形式にて、一方、ステップS407もしくはステップS408にて取得されたスクリーンデータは図9に示す形式にて格納される。本実施形態では、−60°から60°の範囲において、10°間隔のスクリーンゲイン値が対応付けられ、スクリーンゲイン格納部112に格納されているものとし、以下説明を行う。   The screen gain storage unit 112 stores the screen data acquired in step S403 in the format shown in FIG. 8, while the screen data acquired in step S407 or step S408 has the format shown in FIG. Is stored. In the present embodiment, it is assumed that screen gain values at intervals of 10 ° are associated with each other and stored in the screen gain storage unit 112 in the range of −60 ° to 60 °, and will be described below.

以下では、ステップS206における補正テーブル算出(作成)方法に関して、図8、図10、図11を用いて詳しく説明する。   Hereinafter, the correction table calculation (creation) method in step S206 will be described in detail with reference to FIG. 8, FIG. 10, and FIG.

補正テーブルの算出には、ターゲットテーブル格納部113に格納された、ある理想的な色再現可能となる色変換テーブル(ルックアップテーブル等)を用いる。また、ユーザがスクリーンに対してどの位置で観察するかといった観察位置情報格納部104格納の観察位置(角度)情報、および、ステップS205にて所定の方法より取得されたスクリーンゲイン格納部112内に格納されたスクリーンゲイン情報も用いる。ターゲットテーブル格納部113内のターゲットテーブルは、ユーザが使用するプロジェクタおよびスクリーンを用いて投影した条件下において、スクリーンに対して例えば垂直方向の位置(0°の位置)で得られた、ある理想的な色再現が可能となるデバイス依存空間からデバイス非依存空間へのLookUpTable(以下、理想LUT)を記憶しているものとする。この理想LUTは、RGB色空間での格子点の色座標データと、前記格子点が再現するL*a*b*色空間の座標値との対応を記した、図10のようなデータ構造で構成される。データ構造の先頭には、R/G/B値のステップが記述され、この後に、各格子点に対応する色座標L*値、a*値、b*値が、R、G、Bの順でネストされて記述される。このデータ構造をRGB色空間で模式的に表すと、図11のように表される。本実施形態においては、ターゲットテーブルがLUTの形式であるものとして説明を行うが、その他、ある理想的な出力特性を示す関係式等が記憶されていてもよいものとし、テーブルの形式は問わないものとする。また、LUTの形式にて記述されるデバイス非依存空間を、今Lab空間として以下説明を行うが、デバイス非依存な空間であるXYZ空間、Jch空間等、ターゲットテーブルに格納されるデータ空間は如何なる種類であっても構わない。   For the calculation of the correction table, a color conversion table (lookup table or the like) stored in the target table storage unit 113 and capable of reproducing an ideal color is used. In addition, the observation position (angle) information stored in the observation position information storage unit 104 such as the position at which the user observes the screen, and the screen gain storage unit 112 acquired by a predetermined method in step S205 are stored. Stored screen gain information is also used. The target table in the target table storage unit 113 is a certain ideal image obtained at a position in the vertical direction (0 ° position) with respect to the screen under the conditions projected using the projector and the screen used by the user. It is assumed that a LookUpTable (hereinafter referred to as an ideal LUT) from a device-dependent space to a device-independent space that enables accurate color reproduction is stored. The ideal LUT has a data structure as shown in FIG. 10 that describes the correspondence between the color coordinate data of the grid points in the RGB color space and the coordinate values of the L * a * b * color space reproduced by the grid points. Composed. The R / G / B value step is described at the head of the data structure, and thereafter, the color coordinate L * value, a * value, and b * value corresponding to each grid point are in the order of R, G, and B. Nested with This data structure is schematically represented in the RGB color space as shown in FIG. In this embodiment, the target table is described as being in the LUT format, but other relational expressions indicating an ideal output characteristic may be stored, and the table format is not limited. Shall. The device-independent space described in the LUT format is now described as a Lab space. However, any data space stored in the target table, such as an XYZ space or a Jch space, which is a device-independent space, is used. It does not matter if it is a type.

今、ユーザが使用するスクリーン素材が、図3の選択ボックス302にて「ビーズ」と選択されたとする。このとき、スクリーンゲイン値は、図8の最上段の値を参照することとなる。また、理想LUTは、ユーザが使用するプロジェクタおよび同素材のビーズスクリーンに対して垂直方向、つまり、0°の位置での理想的な色再現を実現するものだと仮定すると、上記位置でのビーズスクリーンのスクリーンゲイン値は1.6となる。   Assume that the screen material used by the user is selected as “beads” in the selection box 302 of FIG. At this time, the screen gain value refers to the uppermost value in FIG. Also, assuming that the ideal LUT achieves ideal color reproduction in the vertical direction, that is, at a position of 0 ° with respect to the projector used by the user and the bead screen of the same material, the bead at the above position is used. The screen gain value of the screen is 1.6.

一方、図3の入力欄303にてユーザより入力され、観察位置情報格納部104に格納された値が、−60°だったとする。図8の最上段の表において、−60°のスクリーンゲイン値は0.8である。今、理想的な色再現が可能となる0°の位置でのスクリーンゲイン値と比較すると、0.8/1.6=1/2の値になっている。つまり、目標値である0°の位置での輝度値に対し、1/2倍の輝度値しか出ていないことになる。よって、上記算出結果から、ユーザの観察位置である−60°の位置で理想的な色再現を得るには、0°の位置で作成された理想LUTの2倍の輝度にてプロジェクタからスクリーン照射しなくてはならないことがわかる。よって、−60°での補正テーブルの算出例として、理想LUTの全格子点上のL*値を2倍し、色度方向での色再現は保つようa*値およびb*値はそのままの値から算出したLUTを−60°での補正テーブルとし、補正テーブル格納部106に格納する。   On the other hand, it is assumed that the value input by the user in the input field 303 of FIG. 3 and stored in the observation position information storage unit 104 is −60 °. In the uppermost table of FIG. 8, the screen gain value at −60 ° is 0.8. Now, compared with the screen gain value at the 0 ° position where ideal color reproduction is possible, the value is 0.8 / 1.6 = 1/2. In other words, the brightness value is only ½ times the brightness value at the target position of 0 °. Therefore, from the above calculation result, in order to obtain an ideal color reproduction at the position of −60 ° which is the observation position of the user, the screen is irradiated from the projector with a luminance twice as high as the ideal LUT created at the position of 0 °. I understand that I have to do it. Therefore, as an example of calculating the correction table at −60 °, the L * value on all grid points of the ideal LUT is doubled, and the a * value and the b * value are kept as they are so that the color reproduction in the chromaticity direction is maintained. The LUT calculated from the value is used as a correction table at −60 ° and stored in the correction table storage unit 106.

また、上記のような方法にて、ユーザ観察位置での色域が、ターゲットテーブル作成時の色域にプロジェクタのスペック上拡張できない場合、所定の方法にてターゲット色域に色空間圧縮を行う必要がある。例えば、色再現域内(ガマット内)に関しては、測定値が一致するようマッピングを行い、色再現域外(ガマット外)に関しては、色差最小となる色再現域内の点へカラリメトリックにてマッピングを行う等の処理を行う。その他の方法としては、マッピングを行う色空間をJch空間等の人間の視覚空間に変換して処理を行うことでマッピング精度を向上させても良い。また、色域の分割された領域毎に色再現方法(マッピング方法)を変更する等の処理を行うことで、より高精度な補正テーブルの作成しても構わない。本実施形態では、補正テーブルの算出方法として、上記のような方法を用いたが、算出方法は任意のものであってよい。   In addition, if the color gamut at the user observation position cannot be extended to the color gamut at the time of creating the target table due to the specifications of the projector by the above method, it is necessary to perform color space compression on the target color gamut using the predetermined method. There is. For example, in the color gamut (within gamut), mapping is performed so that the measurement values match, and with respect to the color gamut outside (gamut), mapping to a point in the color gamut where the color difference is minimum is performed by colorimetry. Perform the process. As another method, mapping accuracy may be improved by converting a color space to be mapped into a human visual space such as a Jch space and performing processing. Further, a correction table with higher accuracy may be created by performing processing such as changing the color reproduction method (mapping method) for each divided region of the color gamut. In the present embodiment, the above-described method is used as the correction table calculation method, but the calculation method may be arbitrary.

以下では、ステップS207における補正画像データ作成方法に関して、詳しく説明する。   Hereinafter, the corrected image data creation method in step S207 will be described in detail.

補正画像生成部107は、投影画像格納部103内の画像データ、ターゲットテーブル格納部113内のターゲットテーブルおよび、ステップS206にて得られた補正テーブル格納部106内の補正テーブルを用い、補正画像データを生成する。そして、補正画像生成部107は、生成した補正画像データは補正画像データ格納部108に格納する。   The corrected image generation unit 107 uses the image data in the projection image storage unit 103, the target table in the target table storage unit 113, and the correction table in the correction table storage unit 106 obtained in step S206, and uses the corrected image data. Is generated. Then, the corrected image generation unit 107 stores the generated corrected image data in the corrected image data storage unit 108.

今、投影画像格納部103に格納された画像データがRGBデータであるものとし、以下説明を行う。なお、画像データの色空間はRGBデータに限らない。例えば、CMYKデータ等で構成されていても、ターゲットテーブル格納部113内のターゲットテーブルおよび補正テーブル格納部106内の補正テーブルが同データフォーマットにて記述されている場合においては同様の処理が可能であるからである。   Now, assuming that the image data stored in the projection image storage unit 103 is RGB data, the following description will be given. Note that the color space of the image data is not limited to RGB data. For example, the same processing is possible when the target table in the target table storage unit 113 and the correction table in the correction table storage unit 106 are described in the same data format even if they are composed of CMYK data or the like. Because there is.

まず、画像データ格納部103に格納の画像データのRGB値に対し、補正テーブル格納部106格納の補正テーブルを用い、ユーザ所望の観察位置で投影すべきデバイス非依存空間画像データ値を算出する。算出方法としては、画像データ格納部103のRGB色空間の画像データを構成する各ピクセル(画素)のRGB値に対し、該RGB値の近傍4点を、補正テーブル格納部106内の補正テーブルより参照する。そして、該4点から四面体補間を行って対応するLab値を算出すれば良い。上記Lab値は、ターゲットテーブル格納部113内のターゲットテーブルを用いて、Lab値からRGB値へ逆補間され、ある観察位置で理想的な色再現となる補正RGB値が算出される。同様の処理を、画像を構成する全ピクセル分繰り返す。上記方法にて算出された補正画像RGBデータをプロジェクタ114に送り、対象スクリーンへ投影を行うことで、所望のスクリーン、観察位置における高精度な色再現が可能となる。   First, a device-independent spatial image data value to be projected at an observation position desired by the user is calculated using the correction table stored in the correction table storage unit 106 for the RGB values of the image data stored in the image data storage unit 103. As a calculation method, for the RGB value of each pixel (pixel) constituting the image data in the RGB color space of the image data storage unit 103, four points near the RGB value are determined from the correction table in the correction table storage unit 106. refer. Then, the corresponding Lab value may be calculated by performing tetrahedral interpolation from the four points. The Lab value is inversely interpolated from the Lab value to the RGB value using the target table in the target table storage unit 113, and a corrected RGB value for ideal color reproduction at a certain observation position is calculated. Similar processing is repeated for all pixels constituting the image. By sending the corrected image RGB data calculated by the above method to the projector 114 and projecting it onto the target screen, highly accurate color reproduction at a desired screen and observation position becomes possible.

<第2の実施形態>
以下では、ステップS205のスクリーンゲイン値取得方法、ステップS206の補正テーブル作成方法、およびステップS207の補正画像データ格納方法に関して、第2の実施形態を説明する。本第2の実施形態では、投影する画像に対応した画像領域毎のスクリーンゲイン値を取得することで、高精度に補正画像の作成を可能とする。
<Second Embodiment>
Hereinafter, the second embodiment will be described with respect to the screen gain value acquisition method in step S205, the correction table creation method in step S206, and the corrected image data storage method in step S207. In the second embodiment, a corrected image can be created with high accuracy by acquiring a screen gain value for each image area corresponding to an image to be projected.

まず、ステップS205のスクリーンゲイン取得方法を説明する。ステップS406で行われる投影画像解析方法およびパッチデータ作成方法、ステップS407で行われるパッチ測定方法、ステップ410で行われるスクリーンゲイン格納方法を、図6A、図6B、図6C、図7、図10、図11を用いて説明する。   First, the screen gain acquisition method in step S205 will be described. The projection image analysis method and patch data creation method performed in step S406, the patch measurement method performed in step S407, and the screen gain storage method performed in step 410 are shown in FIGS. 6A, 6B, 6C, 7, 7 and 10. This will be described with reference to FIG.

ステップS406では、画像解析部109にて投影画像の解析および解析結果からパッチデータの作成を行う。投影される画像は、投影画像格納部103に格納されている。格納された画像を構成する画素データに対し、任意の領域毎に画像解析を行う。以下は、本実施形態における解析方法の一例である。   In step S406, the image analysis unit 109 analyzes the projection image and creates patch data from the analysis result. The projected image is stored in the projected image storage unit 103. Image analysis is performed for each arbitrary region on the pixel data constituting the stored image. The following is an example of an analysis method in the present embodiment.

先ず、画像を任意の個数にて領域分割を行う。本実施形態では、図6Aに示すように、垂直方向、水平方向をそれぞれ均等に4分割し、計16個の領域に分割する。分割されたそれぞれの分割点に対し、便宜上、横方向の分割点にはX0からX4までの座標点を、また、縦方向の分割点にはY0からY4までの座標点を割り当てることにする。また、各領域には、図6Aで示すように、左上から順番にT1、T2、・・・、T16まで番号付けをしておく。   First, region division is performed on an arbitrary number of images. In the present embodiment, as shown in FIG. 6A, the vertical direction and the horizontal direction are each equally divided into four to be divided into a total of 16 regions. For convenience, the coordinate points X0 to X4 are assigned to the division points in the horizontal direction, and the coordinate points Y0 to Y4 are assigned to the division points in the vertical direction, for convenience. Further, as shown in FIG. 6A, each area is numbered in order from the upper left to T1, T2,..., T16.

続けて、上記分割領域毎にパッチデータの作成を行う。上記方法にて領域分割されたそれぞれの領域毎に含まれる画素データの解析を行う。なお、分割領域は、各領域の左上隅の座標、および右下隅の座標、すなわち、(左上隅の座標点,右下隅の座標点)と表記する。よって、表記例として、T1=((X0,Y0),(X1,Y1))となる。   Subsequently, patch data is created for each of the divided areas. The pixel data included in each area divided by the above method is analyzed. The divided areas are expressed as coordinates of the upper left corner and coordinates of the lower right corner of each area, that is, (coordinate points of the upper left corner, coordinate points of the lower right corner). Therefore, as a notation example, T1 = ((X0, Y0), (X1, Y1)).

上記分割領域T1に含まれる画素データの解析を行う。含まれる画素データは、(X0,Y0)から(X1,Y1)の座標まで、つまり、横方向でX0からX1までの範囲、縦方向でY0からY1の範囲に含まれるデータとなる。上記、範囲内に含まれる画素データにおいて、ヒストグラム解析の結果、最も多く含まれる画素データを上記領域におけるパッチデータとし算出する。また、上記範囲内に含まれる全画素データの平均値を各分割領域におけるパッチデータと定義しても構わない。つまり、各分割領域におけるパッチデータの算出方法は、任意の方法であってよい。上記任意の方法にて、算出されたパッチデータをパッチデータ格納部110に格納される。   The pixel data included in the divided region T1 is analyzed. The included pixel data is data included in the coordinates from (X0, Y0) to (X1, Y1), that is, the range from X0 to X1 in the horizontal direction and the range from Y0 to Y1 in the vertical direction. In the pixel data included in the range, as a result of the histogram analysis, the pixel data included most is calculated as patch data in the region. Further, an average value of all pixel data included in the above range may be defined as patch data in each divided area. That is, the method for calculating the patch data in each divided region may be any method. The calculated patch data is stored in the patch data storage unit 110 by any method described above.

ステップS407では、ステップS406にて作成されたパッチデータの測定を行うことで、分割された領域毎のスクリーンゲイン値の取得を行う。本第2の実施形態においては、分割領域T1、T2、・・・、T16まで、全16領域で作成されたパッチデータを、上記分割領域内に表示し測定を行う。また、測定は、スクリーンゲイン値を取得する所望の角度に応じて行うことになる。今、取得したいスクリーンゲイン値を−60°から60°の範囲であるとする。−60°から60°の範囲において、観察位置(角度)を変移させ、それぞれの位置における輝度値を取得する。−60°とは、スクリーンに対して垂直方向を0°とした時に、反時計周りに60°移動した角度とする。一方の60°とは、スクリーンに対して垂直方向を0°とした時に、時計周りに60°移動した角度とする(図7参照)。本提案においては、完全拡散板にある環境下で一定の光を当てた時に得られた輝度をTcdとする。   In step S407, the screen gain value for each divided area is acquired by measuring the patch data created in step S406. In the second embodiment, the patch data created in all 16 areas up to the divided areas T1, T2,..., T16 are displayed in the divided areas and measured. Further, the measurement is performed according to a desired angle for obtaining the screen gain value. Assume that the screen gain value to be acquired is in the range of −60 ° to 60 °. In the range of −60 ° to 60 °, the observation position (angle) is shifted, and the luminance value at each position is acquired. −60 ° is an angle moved 60 ° counterclockwise when the vertical direction to the screen is 0 °. One 60 ° is defined as an angle that is moved 60 ° clockwise when the direction perpendicular to the screen is 0 ° (see FIG. 7). In this proposal, let Tcd be the luminance obtained when a certain amount of light is applied under the environment of the complete diffuser.

最初に、測定範囲下限である−60°から測定する。まず、スクリーンに対して、垂直方向の位置にプロジェクタを設置する。スクリーンとプロジェクタとの距離は、ユーザ所望の距離とする。続けて、上記プロジェクタ設置位置とスクリーン中心点を結んだ位置を0°とした時に、同一円弧上を反時計周りに60°移動した角度に測定機器を設置する。上記位置にて、測定を行う。測定方法は、使用する測定機器の使用方法に順ずるものとする。分割領域T1から順番に測定を行う。分割領域T1に対するスクリーンゲイン値を取得する場合は、T1の領域内((X0,Y0),(X1,Y1))に、ステップS406にて分割領域T1に含まれる画素データより算出されたパッチを表示し、測定を行うことになる。今、分割領域T1でのパッチを測定した時に得られた輝度値をY-60T1cdとする。スクリーンゲイン値は、完全拡散板に同条件下で一定の光を当てた時に得られた基準としての輝度値Tを“1”とする。そして、対象となる位置でゲイン値を、基準値に対するその位置での測定された輝度値の比率で表す。例えば、−60°でのスクリーンゲイン値は、Y-60T1/T=N-60T1で表すことができる。以下同様に、各領域において、−60°から60°までの観察位置(角度)で所定の方法にて測定を行うことで、各観察位置および各分割領域内におけるスクリーンゲイン値を算出する。算出されたスクリーンゲイン値は、各観察位置および各分割領域内に対応付けられ、図6Cに示す形式にてスクリーンゲイン格納部112に格納される。 First, it is measured from −60 ° which is the lower limit of the measurement range. First, a projector is installed at a position perpendicular to the screen. The distance between the screen and the projector is a distance desired by the user. Subsequently, when the position connecting the projector installation position and the screen center point is set to 0 °, the measuring device is installed at an angle moved 60 ° counterclockwise on the same arc. Measurement is performed at the above position. The measurement method shall be in accordance with the usage method of the measuring equipment to be used. Measurement is performed in order from the divided region T1. When acquiring the screen gain value for the divided area T1, the patch calculated from the pixel data included in the divided area T1 in step S406 within the area of T1 ((X0, Y0), (X1, Y1)). Display and measure. Now, assume that the luminance value obtained when the patch in the divided region T1 is measured is Y- 60T1cd . As the screen gain value, the luminance value T as a reference obtained when a constant light is applied to the complete diffuser plate under the same conditions is set to “1”. Then, the gain value at the target position is represented by the ratio of the measured luminance value at that position to the reference value. For example, the screen gain value at −60 ° can be expressed as Y -60T1 / T = N -60T1 . Similarly, in each region, the screen gain value in each observation position and each divided region is calculated by performing measurement by a predetermined method at observation positions (angles) from −60 ° to 60 °. The calculated screen gain value is associated with each observation position and each divided region, and is stored in the screen gain storage unit 112 in the format shown in FIG. 6C.

続けて、ステップS205にて得られたスクリーンゲイン値を用いたステップS206の補正テーブル作成方法に関して説明する。   Next, the correction table creation method in step S206 using the screen gain value obtained in step S205 will be described.

ターゲットテーブル格納部113に格納されたある理想的な色再現可能となる色変換テーブル、ユーザがスクリーンに対してどの位置で観察するかといった観察位置情報格納部104内の観察位置(角度)情報、および、前記ステップ205にて記したスクリーンの分割領域毎に取得されたスクリーンゲイン値を用いて、各分割領域における補正テーブルの算出を行う。ターゲットテーブル格納部113内のターゲットテーブルは、ユーザが使用する所定のプロジェクタを用い、ユーザが使用する所定のスクリーンに投影した条件下において、スクリーンに対して垂直方向(0°の位置)かつスクリーンの中心位置を測定することで得られたある理想的な色再現可能な、デバイス依存空間からデバイス非依存空間へのLookUpTable(以下、理想LUT)を記憶しているものとする。この理想LUTは、RGB色空間での格子点の色座標データと、前記格子点が再現するL*a*b*色空間の座標値との対応を記した、図10のようなデータ構造で構成される。データ構造の先頭には、R/G/B値のステップが記述され、この後に、各格子点に対応する色座標L*値、a*値、b*値が、R、G、Bの順でネストされて記述される。このデータ構造をRGB色空間で模式的に表すと、図11のように表される。本第2の実施形態においては、ターゲットテーブルがLUTの形式であるものとして説明を行うが、その他、ある理想的な出力特性を示す関係式等が記憶されていてもよいものとし、テーブルの形式は問わないものとする。   A color conversion table stored in the target table storage unit 113 and capable of reproducing an ideal color; observation position (angle) information in the observation position information storage unit 104 such as a position at which the user observes the screen; And the correction table in each divided area is calculated using the screen gain value acquired for each divided area of the screen described in step 205. The target table in the target table storage unit 113 uses a predetermined projector used by the user, and is perpendicular to the screen (at a position of 0 °) and projected on the screen under a condition projected onto the predetermined screen used by the user. Assume that a LookUpTable (hereinafter referred to as an ideal LUT) from a device-dependent space to a device-independent space that can be reproduced by an ideal color obtained by measuring the center position is stored. The ideal LUT has a data structure as shown in FIG. 10 that describes the correspondence between the color coordinate data of the grid points in the RGB color space and the coordinate values of the L * a * b * color space reproduced by the grid points. Composed. The R / G / B value step is described at the head of the data structure, and thereafter, the color coordinate L * value, a * value, and b * value corresponding to each grid point are in the order of R, G, and B. Nested with This data structure is schematically represented in the RGB color space as shown in FIG. In the second embodiment, the description will be made on the assumption that the target table is in the LUT format. However, a relational expression indicating an ideal output characteristic may be stored, and the table format It does not matter.

上記条件から、スクリーンの分割領域毎の色補正テーブルを算出する。まず、分割領域T1に対する補正テーブルの作成を行う。今、分割領域T1のスクリーンゲイン値が、図6Cに示す形式にて観察位置―60°から60°の範囲で取得されているものとする。ユーザより303にて入力された任意の観察位置におけるスクリーンゲイン値の算出を行う。観察位置情報格納部104内の観察位置情報が「−55°」であったとし、以下説明を行う。−55°のスクリーンゲイン値の算出方法としては、−60°のスクーンゲイン値であるN-60T1と、−50°のスクリーンゲイン値であるN-50T1から算出する。−55°は、−60°と−50°の中間点であるため、スクリーンゲイン値も両角度で得られたスクリーンゲイン値の平均値として算出(線形補間演算)する。T1領域における−55°のスクリーンゲイン値をN-55T1と定義すると、N-55T1=(N-60T1+N-50T1)×1/2として、算出される。今、ひとつの算出例として上記方法を示したが、ユーザより指定された観察位置、および上記観察位置における画像分割領域毎のスクリーンゲイン値の算出方法は、任意の方法であってよいものとする。これは先に説明した第1の実施形態においても同様である。 From the above conditions, a color correction table for each divided area of the screen is calculated. First, a correction table for the divided region T1 is created. Now, it is assumed that the screen gain value of the divided region T1 is acquired in the range shown in FIG. 6C from the observation position −60 ° to 60 °. The screen gain value at an arbitrary observation position input by the user at 303 is calculated. The observation position information in the observation position information storage unit 104 is assumed to be “−55 °” and will be described below. As a calculation method of the screen gain value of −55 °, the screen gain value is calculated from N- 60T1 which is a −60 ° screen gain value and N− 50T1 which is a screen gain value of −50 °. Since −55 ° is an intermediate point between −60 ° and −50 °, the screen gain value is also calculated as an average value of the screen gain values obtained at both angles (linear interpolation calculation). When a screen gain value of −55 ° in the T1 region is defined as N −55T1 , N −55T1 = (N −60T1 + N −50T1 ) × ½ is calculated. Now, the above method has been shown as one calculation example. However, the observation position designated by the user and the screen gain value calculation method for each image division region at the observation position may be any method. . The same applies to the first embodiment described above.

続けて、上記算出結果およびある理想的な色再現可能なユーザ環境にて作成されたターゲットテーブル格納部113内の理想LUTをもとに、分割領域T1における補正テーブルを算出する。なお、理想LUTは、ユーザが現在の画像投影環境にて使用するプロジェクタおよびスクリーンを用いて作成されたものとする。今、理想LUT作成時のスクリーンゲイン値はRだったと仮定する。また、ユーザ観察位置が−55°だったと仮定すると、上記位置での分割領域T1におけるスクリーンゲイン値はN-55T1である。一方、ターゲットスクリーンゲイン値はRであるため、−55°で理想的な色再現を実現するには、定数R/N-55T1を乗算した輝度値でプロジェクタからの照射を行わなければならないことがわかる。よって、ユーザの観察位置である−55°およびT1領域での最適な色補正テーブルの算出例として、理想LUTの全格子点上のL*値に定数R/N-55T1を乗算し、色度方向での色再現は保つようa*値およびb*値はそのままの値から算出したLUTを観察位置−55°および分割領域T1における補正テーブルとし、補正テーブル格納部106に格納する。続けて、T2からT16領域においても各領域に対応付けられたスクリーンゲイン情報を用いて同様の処理を行い、分割領域毎の補正テーブルを補正テーブル格納部106に格納する。本第2の実施形態では、補正テーブルの算出方法として、上記のような方法を用いたが、算出方法は任意のものであってよいものとする。 Subsequently, a correction table in the divided region T1 is calculated based on the calculation result and the ideal LUT in the target table storage unit 113 created in a user environment capable of reproducing an ideal color. It is assumed that the ideal LUT has been created using a projector and a screen that the user uses in the current image projection environment. Assume that the screen gain value at the time of creating the ideal LUT is R. Assuming that the user observation position is −55 °, the screen gain value in the divided region T1 at the above position is N −55T1 . On the other hand, since the target screen gain value is R, in order to realize ideal color reproduction at −55 °, it is necessary to perform irradiation from the projector with a luminance value multiplied by a constant R / N −55T1. Recognize. Therefore, as an example of calculating an optimal color correction table in the user's observation position of −55 ° and the T1 region, L * values on all lattice points of the ideal LUT are multiplied by a constant R / N −55T1 to obtain chromaticity. In order to maintain color reproduction in the direction, the LUT calculated from the values of the a * value and the b * value as they are is used as a correction table at the observation position −55 ° and the divided region T1, and is stored in the correction table storage unit 106. Subsequently, in the T2 to T16 areas, the same processing is performed using the screen gain information associated with each area, and the correction table for each divided area is stored in the correction table storage unit 106. In the second embodiment, the above-described method is used as the correction table calculation method. However, the calculation method may be arbitrary.

次に、ステップS207の補正画像データ作成方法に関して以下説明を行う。上記ステップS206にて算出された補正テーブル情報を用いて、ユーザ所望の画像データ、観察位置での最適な投影画像の作成を行う。補正画像データは、分割領域毎に処理され、作成される。まず、分割領域T1における補正画像データの作成を行う。分割領域T1に含まれる画素データに関して、分割領域T1の補正テーブルを用いて、補正画像の作成を行う。作成方法は、第1の実施形態で示した方法に準ずるものとする。なお、補正データ作成方法は、あくまでも一例であり、任意の方法であってよいものとすることは言うまでもない。上記方法にて、全分割領域(本実施形態おいてはT1からT16の領域)において同様の処理を行い、補正画像データを作成し、補正画像データ格納部108に格納する。   Next, the corrected image data creation method in step S207 will be described below. Using the correction table information calculated in step S206, image data desired by the user and an optimal projection image at the observation position are created. The corrected image data is processed and created for each divided area. First, corrected image data in the divided region T1 is created. With respect to the pixel data included in the divided area T1, a corrected image is created using the correction table of the divided area T1. The creation method is based on the method described in the first embodiment. Note that the correction data creation method is merely an example, and it is needless to say that an arbitrary method may be used. By the above method, the same processing is performed in all divided regions (regions T1 to T16 in the present embodiment), and corrected image data is created and stored in the corrected image data storage unit 108.

なお、分割領域が隣接する場合において、領域毎のスクリーンゲイン値の違いから、分割領域が隣接する部分の画素データの色再現に不具合(補正の違いによるギャップ)が生じる場合がある。この際の補正方法について、図12を用いて説明する。   When the divided regions are adjacent to each other, a defect (gap due to a difference in correction) may occur in the color reproduction of the pixel data of the portion where the divided regions are adjacent due to the difference in the screen gain value for each region. The correction method at this time will be described with reference to FIG.

説明を簡単なものとするため、図12のように画像が4つの領域に分割されたものとする。分割領域S1に対しては、S1に対応した補正テーブルが参照され、補正画像の作成が行われる。また、S1に隣接する分割領域S2に対しては、S2に対応した補正テーブルが参照され、補正画像の作成が行われる。しかし、S1、S2の両領域における補正テーブルの違いから、S1とS2の隣接領域に色再現のギャップが生じる場合においては、隣接する領域間にR1などの中間領域を定義し、中間補正テーブルを適用するような処理を施す。中間補正テーブルとは、例えばS1領域での補正テーブルおよびS2領域での補正テーブルの平均値から作成してもよい。中間補正テーブルの作成方法は平滑化(スムージング)が施される手段であれば、任意の方法であってよいものとする。中間補正テーブルを用いた、中間補正領域(図示では、領域R1、R2、R3、R4)の補正方法に関しては、第1の実施形態の補正画像データ作成方法に準ずるものとする。さらには、図12における分割領域S1からS4のすべてが隣接している領域R5においては、S1、S2、S3、S4領域に対応された4つの補正テーブルの平均値から、R5における補正テーブルを算出する。算出された補正テーブルを用いた補正画像データの算出においては、作成した補正テーブルに従って行なえば良い。   In order to simplify the description, it is assumed that the image is divided into four regions as shown in FIG. For the divided area S1, a correction table corresponding to S1 is referred to, and a corrected image is created. For the divided region S2 adjacent to S1, a correction table corresponding to S2 is referred to, and a corrected image is created. However, if there is a color reproduction gap in the adjacent areas of S1 and S2 due to the difference between the correction tables in both areas S1 and S2, an intermediate area such as R1 is defined between the adjacent areas, and the intermediate correction table is Apply the process that applies. The intermediate correction table may be created from the average value of the correction table in the S1 area and the correction table in the S2 area, for example. The method for creating the intermediate correction table may be any method as long as it is a means for performing smoothing (smoothing). The correction method for the intermediate correction region (in the drawing, the regions R1, R2, R3, and R4 in the drawing) using the intermediate correction table is the same as the correction image data creation method of the first embodiment. Further, in the region R5 where all of the divided regions S1 to S4 in FIG. 12 are adjacent, the correction table in R5 is calculated from the average value of the four correction tables corresponding to the S1, S2, S3, and S4 regions. To do. Calculation of corrected image data using the calculated correction table may be performed according to the created correction table.

<第3の実施形態>
一般に、スクリーンに投影する画像の、スクリーン上での、水平方向の長さは、垂直方向の長さよりも大きい。従って、垂直方向における視点角度(パン角)の影響は少ない。この意味で、上記第1,第2の実施形態により、投影画像の画質の改善は十分に期待できる。しかしながら、スクリーンのサイズが十分に大きい、もしくは、スクリーンと観察者との距離が小さい場合、投影映像の左端と右端とでは、それぞれのスクリーン面に対する視聴者の視点への角度差は無視できないものとなる。これは、スクリーンの上端、下端でも同様である。
<Third Embodiment>
In general, the horizontal length of the image projected on the screen on the screen is larger than the vertical length. Therefore, the influence of the viewpoint angle (pan angle) in the vertical direction is small. In this sense, the first and second embodiments can sufficiently improve the image quality of the projected image. However, if the size of the screen is sufficiently large or the distance between the screen and the viewer is small, the difference in angle between the viewer's viewpoint with respect to each screen surface at the left and right ends of the projected image cannot be ignored. Become. The same applies to the upper and lower ends of the screen.

従って、上記第1,第2の実施形態における画質を更に高めるためには、かかる点を考慮して補正テーブルを作成することが望ましい。   Therefore, in order to further improve the image quality in the first and second embodiments, it is desirable to create a correction table in consideration of such points.

このためには、次の情報があれば、良いであろう。
1.プロジェクタ、スクリーンそれぞれの位置、並びに、スクリーン上での投影される領域のサイズ(水平方向、垂直方向の長さ)
2.視聴者の視点位置、すなわち、スクリーン中心を通る水平面での角度(パン角=第1,第2の実施形態で述べた角度)、スクリーンの中心を通る垂直面での角度(チルト角))、スクリーンの中心位置から視点位置までの距離
なお、測定する際の測定機の移動面は、視聴者の視線と同じ高さの面であり、尚且つ、スクリーン上の2次元の投影範囲を測定すればよい。なお、本第3の実施形態によると、作成する補正テーブルは、画素単位に独立した変換を行なえるだけの容量を有することになる。ただし、ある程度の精度で良いのであれば、第2の実施形態と同様に、複数の領域毎に作成しても良いであろう。
For this, it would be good to have the following information:
1. Projector and screen positions, and the size of the projected area on the screen (horizontal and vertical lengths)
2. Viewer's viewpoint position, that is, an angle on a horizontal plane passing through the center of the screen (pan angle = an angle described in the first and second embodiments), an angle on a vertical plane passing through the center of the screen (tilt angle)), Distance from the center position of the screen to the viewpoint position The moving plane of the measuring machine when measuring is the same height as the viewer's line of sight, and the two-dimensional projection range on the screen is measured. That's fine. Note that according to the third embodiment, the correction table to be created has a capacity sufficient to perform independent conversion for each pixel. However, if a certain degree of accuracy is sufficient, it may be created for each of a plurality of regions as in the second embodiment.

以上第1,第2、第3の実施形態における、プロジェクタおよびスクリーンを用いたプロジェクタ投影画像作成方法に関して記述したが、上記説明からもわかるように、使用するプロジェクタおよびスクリーンの種類、機種、メーカ等は問わない。また、使用するスクリーンにおいては、特性情報を所望の方法にて取得可能な投影面(壁、天井等)であれば、どんな素材のものでも同様の処理が可能である。また、投影面の特性情報を示す値として、第1,第2の実施形態では、スクリーンゲインを用いて説明を行ったが、投影面の特性情報を示すものであれば、スクリーンゲインに限らず、任意の情報を用いて同様の処理が可能なものとする。   The projector projection image creation method using the projector and screen in the first, second, and third embodiments has been described above. As can be understood from the above description, the type, model, manufacturer, and the like of the projector and screen to be used. Does not matter. Further, the screen to be used can be processed in the same manner for any material as long as it is a projection surface (wall, ceiling, etc.) capable of acquiring characteristic information by a desired method. In the first and second embodiments, the screen gain is used as the value indicating the characteristic information of the projection plane. However, the screen gain is not limited as long as the characteristic information of the projection plane is indicated. It is assumed that the same processing can be performed using arbitrary information.

また、実施形態では、プロジェクタやプロジェクタに画像データを出力するインタフェース、スクリーン等のハードウェアを用いるものの、処理そのものは、パーソナルコンピュータ上で実行するアプリケーションプログラムにより実現するものである。従って、本発明は、コンピュータプログラムもその範疇とすることは明らかである。また、通常、コンピュータプログラムは、CD−ROM等のコンピュータ可読記憶媒体に格納されており、それをコンピュータが有する読取り装置(CD−ROMドライブ)にセットし、システムにコピーもしくはインストールすることで実行可能になる。よって、本発明はかかるコンピュータ可読記憶媒体をもその範疇とすることは明らかである。   In the embodiment, hardware such as a projector, an interface for outputting image data to the projector, and a screen is used, but the processing itself is realized by an application program executed on a personal computer. Therefore, it is clear that the present invention also includes a computer program. Further, the computer program is usually stored in a computer-readable storage medium such as a CD-ROM, and can be executed by setting it in a reading device (CD-ROM drive) of the computer and copying or installing it in the system. become. Therefore, it is obvious that the present invention includes such a computer-readable storage medium as its category.

実施形態における画像処理システムのブロック構成図である。1 is a block configuration diagram of an image processing system in an embodiment. 実施形態におけるプロジェクタ投影画像作成処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the projector projection image creation process in embodiment. 実施形態におけるプロジェクタ投影画像作成アプリケーションのユーザインタフェースを示す図である。It is a figure which shows the user interface of the projector projection image creation application in embodiment. 図2のステップS205におけるスクリーンゲイン取得方法に関する詳細な処理を示すフローチャートである。It is a flowchart which shows the detailed process regarding the screen gain acquisition method in step S205 of FIG. 図4のパッチデータ作成処理における画像解析処理のヒストグラム解析方法を示す模式図である。FIG. 5 is a schematic diagram showing a histogram analysis method of image analysis processing in the patch data creation processing of FIG. 4. 図4のパッチデータ作成処理における他の画像解析処理の領域分割方法を示す模式図である。It is a schematic diagram which shows the area | region dividing method of the other image analysis process in the patch data creation process of FIG. 画像の分割と、各分割領域のパッチデータとの関係を示す図である。It is a figure which shows the relationship between the division | segmentation of an image, and the patch data of each division area. 各分割領域におけるスクリーンゲイン値の格納状態を示す図である。It is a figure which shows the storage state of the screen gain value in each division area. 実施形態におけるパッチデータの測定方法を示す図である。It is a figure which shows the measuring method of the patch data in embodiment. スクリーンゲイン値の格納形式を示す図である。It is a figure which shows the storage format of a screen gain value. 測定によって得られたスクリーン素材に対応付けられたスクリーンゲイン値情報の格納形式を示す図である。It is a figure which shows the storage format of the screen gain value information matched with the screen raw material obtained by the measurement. ターゲットテーブルのデータ構造を示す図である。It is a figure which shows the data structure of a target table. RGB色空間を表した模式図である。It is a schematic diagram showing RGB color space. 分割領域および上記領域間で隣接する部分を示した模式図である。It is the schematic diagram which showed the part adjacent between a division area and the said area | region. スクリーン素材毎のスクリーンゲイン値の例を示す図である。It is a figure which shows the example of the screen gain value for every screen raw material.

Claims (9)

投影スクリーンに画像を投影する投影手段を有する画像処理装置であって、
前記投影スクリーンに対する観察者の視点方向を特定する位置情報を入力する位置情報入力手段と、
前記投影スクリーンに対する、各視点方向の表示の特性を示す情報を入力する特性情報入力手段と、
前記位置情報入力手段、特性情報入力手段それぞれから入力した情報に基づき、投影対象の画像データを補正するための補正テーブルを算出する補正テーブル算出手段と、
該補正テーブル算出手段で算出した補正テーブルに従い、前記投影手段に出力する対象の画像データを補正する補正手段と
を備えることを特徴とする画像処理装置。
An image processing apparatus having projection means for projecting an image on a projection screen,
Position information input means for inputting position information for specifying the observer's viewpoint direction with respect to the projection screen;
Characteristic information input means for inputting information indicating display characteristics of each viewpoint direction with respect to the projection screen;
Correction table calculation means for calculating a correction table for correcting image data to be projected based on information input from each of the position information input means and characteristic information input means;
An image processing apparatus comprising: correction means for correcting image data to be output to the projection means according to the correction table calculated by the correction table calculation means.
前記位置情報は、前記投影スクリーンの面に対する前記観察者の角度とすることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the position information is an angle of the observer with respect to a surface of the projection screen. 前記特性情報入力手段は、
予め定義された複数の投影スクリーンの種類と、各種類の前記各視点方向の表示の特性を示す特性情報を記憶する記憶手段と、
前記記憶手段に記憶された前記複数の投影スクリーンの種類を、選択可能に表示する表示手段とを備え、
選択された投影スクリーンの種類に対応する特性情報を、前記投影手段が投影する投影スクリーンの、前記各視点方向の表示の特性を示す情報として入力することを特徴とする請求項1に記載の画像処理装置。
The characteristic information input means includes
Storage means for storing a plurality of predefined types of projection screens, and characteristic information indicating characteristics of each type of display in each viewpoint direction;
Display means for selectively displaying the types of the plurality of projection screens stored in the storage means;
2. The image according to claim 1, wherein characteristic information corresponding to the type of the selected projection screen is input as information indicating display characteristics of each viewpoint direction of the projection screen projected by the projection unit. Processing equipment.
前記表示手段は、更に、前記記憶手段に記憶された以外の投影スクリーンの任意種類を選択の候補の1つとして表示し、
前記任意種類の投影スクリーンが選択された場合、前記投影手段で投影する投影スクリーンの前記特性情報を格納しているファイルを指定するか、前記投影手段で投影する投影スクリーンの前記特性を光学検出手段を用いて測定するかを選択する第1の選択手段と
を備えることを特徴とする請求項3に記載の画像処理装置。
The display means further displays an arbitrary type of projection screen other than those stored in the storage means as one of selection candidates,
When the arbitrary type of projection screen is selected, a file storing the characteristic information of the projection screen projected by the projection unit is designated, or the characteristic of the projection screen projected by the projection unit is optically detected. The image processing apparatus according to claim 3, further comprising: a first selection unit that selects whether to measure using the image.
前記第1の選択手段によって、前記光学検出手段を用いて測定することが選択された場合、前記投影スクリーンの前記各視点方向の表示の特性を示す特性情報を算出する第1の測定手段、第2の測定手段のいずれかを選択する第2の選択手段を備え、
前記第1の測定手段は、
前記投影手段に出力する対象の画像データを解析し、前記光学検出手段による検出のためのパッチ画像を生成するパッチ画像生成手段と、
生成したパッチ画像を前記投影手段に出力することで、前記投影スクリーンに前記パッチ画像を投影し、前記投影スクリーンに投影された前記パッチ画像を、互いに異なる複数の視点方向から前記光学検出手段によって検出することで、各視点方向毎の特性を算出する手段を備え、
前記第2の測定手段は、
前記投影手段による投影無しに、前記投影スクリーンを、互いに異なる複数の視点方向から前記光学検出手段によって検出することで、各視点方向の特性を算出する手段を備える
ことを特徴とする請求項4に記載の画像処理装置。
A first measuring unit that calculates characteristic information indicating characteristics of display in each of the viewpoint directions of the projection screen when the first selecting unit selects the measurement using the optical detection unit; A second selection means for selecting one of the two measurement means;
The first measuring means includes
Analyzing the target image data to be output to the projection unit, and generating a patch image for detection by the optical detection unit;
By outputting the generated patch image to the projection unit, the patch image is projected onto the projection screen, and the patch image projected onto the projection screen is detected by the optical detection unit from a plurality of different viewpoint directions. By providing means for calculating the characteristics for each viewpoint direction,
The second measuring means includes
5. The apparatus according to claim 4, further comprising means for calculating characteristics of each viewpoint direction by detecting the projection screen from a plurality of different viewpoint directions by the optical detection means without projection by the projection means. The image processing apparatus described.
前記パッチ画像生成手段は、前記投影手段に出力する対象の画像データを予め設定された複数の領域に分割し、分割領域毎の代表画素値を算出し、算出した各代表画素値を各領域のパッチ画像の画素値として設定することを特徴とする請求項5に記載の画像処理装置。   The patch image generation unit divides target image data to be output to the projection unit into a plurality of preset regions, calculates representative pixel values for each divided region, and calculates each representative pixel value of each region. The image processing apparatus according to claim 5, wherein the image processing apparatus sets the pixel value of the patch image. 投影スクリーンに画像を投影する投影手段を有する画像処理装置の制御方法であって、 前記投影スクリーンに対する観察者の視点方向を特定する位置情報を入力する位置情報入力工程と、
前記投影スクリーンに対する、各視点方向の表示の特性を示す情報を入力する特性情報入力工程と、
前記位置情報入力工程、特性情報入力工程それぞれから入力した情報に基づき、投影対象の画像データを補正するための補正テーブルを算出する補正テーブル算出工程と、
該補正テーブル算出工程で算出した補正テーブルに従い、前記投影手段に出力する対象の画像データを補正する補正工程と
を備えることを特徴とする画像処理装置の制御方法。
A method for controlling an image processing apparatus having a projecting means for projecting an image onto a projection screen, wherein the position information input step inputs position information for specifying the observer's viewpoint direction with respect to the projection screen;
A characteristic information input step for inputting information indicating characteristics of display in each viewpoint direction with respect to the projection screen;
A correction table calculating step for calculating a correction table for correcting the image data to be projected based on the information input from each of the position information input step and the characteristic information input step;
And a correction step of correcting the target image data to be output to the projection means in accordance with the correction table calculated in the correction table calculation step.
投影スクリーンに画像を投影する投影手段を有するコンピュータが読込み実行することで、前記コンピュータを請求項1乃至6のいずれか1項に記載の画像処理装置として機能させることを特徴とするコンピュータプログラム。   A computer program that causes a computer having a projecting unit that projects an image on a projection screen to read and execute the computer to function as the image processing apparatus according to any one of claims 1 to 6. 請求項8に記載のコンピュータプログラムを格納したことを特徴とするコンピュータ可読記憶媒体。   A computer-readable storage medium storing the computer program according to claim 8.
JP2007275669A 2007-10-23 2007-10-23 Image processing apparatus and method of controlling the same Withdrawn JP2009105679A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007275669A JP2009105679A (en) 2007-10-23 2007-10-23 Image processing apparatus and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007275669A JP2009105679A (en) 2007-10-23 2007-10-23 Image processing apparatus and method of controlling the same

Publications (1)

Publication Number Publication Date
JP2009105679A true JP2009105679A (en) 2009-05-14

Family

ID=40706950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007275669A Withdrawn JP2009105679A (en) 2007-10-23 2007-10-23 Image processing apparatus and method of controlling the same

Country Status (1)

Country Link
JP (1) JP2009105679A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016195460A (en) * 2013-08-26 2016-11-17 シゼイ シジブイ カンパニー リミテッド Device for managing screening theater parameter
JP2018530467A (en) * 2015-09-14 2018-10-18 ヴァレオ ビジョンValeo Vision Projection method for an automobile for projecting an image onto a projection plane
CN113891053A (en) * 2020-12-23 2022-01-04 深圳市火乐科技发展有限公司 Projection equipment control method, device, medium and electronic equipment
WO2023029458A1 (en) * 2021-08-31 2023-03-09 成都极米科技股份有限公司 Correction method and apparatus, device and storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016195460A (en) * 2013-08-26 2016-11-17 シゼイ シジブイ カンパニー リミテッド Device for managing screening theater parameter
JP2018530467A (en) * 2015-09-14 2018-10-18 ヴァレオ ビジョンValeo Vision Projection method for an automobile for projecting an image onto a projection plane
CN113891053A (en) * 2020-12-23 2022-01-04 深圳市火乐科技发展有限公司 Projection equipment control method, device, medium and electronic equipment
CN113891053B (en) * 2020-12-23 2023-07-25 深圳市火乐科技发展有限公司 Projection equipment control method and device, medium and electronic equipment
WO2023029458A1 (en) * 2021-08-31 2023-03-09 成都极米科技股份有限公司 Correction method and apparatus, device and storage medium

Similar Documents

Publication Publication Date Title
JP6700908B2 (en) Display device and display method
US7292252B2 (en) Projection type image display system, projector, program, information storage medium and image projection method capable of avoiding obstacles in the projection area
US20170229099A1 (en) Display apparatus and method for controlling display apparatus
JP2017181668A (en) Projection device and method for controlling the same
JP6645687B2 (en) Display device and control method
JP5870586B2 (en) Projector control device, display device, and program.
US10354428B2 (en) Display device and method of controlling display device
JP2015049463A (en) Information processor, information processing method, program and image display device
JP2010103863A (en) Image processing system, image processing apparatus, and image processing method
US20180082406A1 (en) Information processing apparatus, information processing method, program, and image display apparatus
JP2014120895A (en) Information processing apparatus and information processing method
KR102273331B1 (en) Image processing device, image processing method, and recording medium
JP2009105679A (en) Image processing apparatus and method of controlling the same
JP6271837B2 (en) Projection apparatus and control method thereof
JP2008147889A (en) Image processor and method thereof
US8228342B2 (en) Image display device, highlighting method
JP2019205104A (en) Information processing apparatus, information processing method, and program
JP6665543B2 (en) Projector and method of correcting captured image
JP2019071574A (en) Image output control device, image output control method, image output system, and image output control program
JP2008271096A (en) Method and device for correcting gray balance of image data, and storage medium
JP2016109840A (en) Display device and method for controlling display device
JP2018022044A (en) Image processing apparatus, multi-projection system, method for controlling image processing apparatus, and program
JP2020181105A (en) Image projection device and control method therefor
JP6704722B2 (en) Image processing apparatus and image processing method
JP4947158B2 (en) Image display device and highlighting method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110104