[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2017169160A - Projector, method for controlling projector, and projection system - Google Patents

Projector, method for controlling projector, and projection system Download PDF

Info

Publication number
JP2017169160A
JP2017169160A JP2016054954A JP2016054954A JP2017169160A JP 2017169160 A JP2017169160 A JP 2017169160A JP 2016054954 A JP2016054954 A JP 2016054954A JP 2016054954 A JP2016054954 A JP 2016054954A JP 2017169160 A JP2017169160 A JP 2017169160A
Authority
JP
Japan
Prior art keywords
projection
image
unit
projector
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016054954A
Other languages
Japanese (ja)
Inventor
真毅 岸本
Masatake Kishimoto
真毅 岸本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016054954A priority Critical patent/JP2017169160A/en
Publication of JP2017169160A publication Critical patent/JP2017169160A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system for pointing out the attention place of information for presentation with an easy operation, without requiring complex setting and operation.SOLUTION: A projector 3 is a projector 3 for projecting a projection image PI onto a first projection surface (drawing board BD) and a second projection surface (screen SC), images the first projection surface, detects the relative position of the first projection surface with respect to the projector 3 from the imaged information, extracts the positional information of an indication body PN operated with respect to the first projection surface from the imaged information, to generate a drawn image DI on the basis of the positional information of the indication body PN, and overlaps an equipment image OI received from external equipment 10 with the drawn image DI, to generate the projection image PI and project the projection image PI onto the first projection surface and the second projection surface.SELECTED DRAWING: Figure 1

Description

本発明は、プロジェクター、制御方法、およびプロジェクションシステムに関する。   The present invention relates to a projector, a control method, and a projection system.

従来、特許文献1に記載されているように、携帯端末から提供された画像をプロジェクターから投射するプロジェクションシステムが知られていた。このプロジェクションシステムでは、携帯端末のタッチパネルを操作して描画された画像を、提供する画像に重畳して合成し、その合成画像をプロジェクターに投射させるシステムであった。このようなプロジェクションシステムによって、携帯端末を用いて、提供する画像の注目箇所などを容易に指摘する操作を実現できるとされていた。   Conventionally, as described in Patent Document 1, a projection system that projects an image provided from a mobile terminal from a projector has been known. In this projection system, an image drawn by operating a touch panel of a mobile terminal is superimposed on an image to be provided and synthesized, and the synthesized image is projected onto a projector. With such a projection system, it has been said that an operation for easily pointing out a point of interest of an image to be provided can be realized using a portable terminal.

特開2015−90561号公報JP-A-2015-90561

しかしながら、特許文献1による携帯端末を用いたプロジェクションシステムは、プレゼンターにとって決して使い勝手の良いシステムとは言い難く、携帯端末を利用することによって、様々な不便な状況が生じていた。詳しくは、特許文献1では、ユーザーが自身の使い慣れた携帯端末を持参して利用できることが、大きな利点となるが、そのような場合に、合成画像を生成するソフトウェアのインストールや、携帯端末とプロジェクターとの接続設定などの作業が必要であった。ユーザーはプレゼンテーション前の貴重な準備時間をそのような作業に割かなければならなかった。
また、プロジェクションシステムに備えられた携帯端末をユーザーに利用させる方法もあるが、ユーザーは自身が使い慣れている携帯端末とは異なるため、プロジェクションシステムの携帯端末の操作に不慣れな場合があり、実際のプレゼンテーションの進行を妨げてしまう虞が生じていた。
特に、複数のプレゼンターが共通のプロジェクションシステムを利用してプレゼンテーションをするような催しでは、操作上のトラブルによってプレゼンテーションの進行を妨げてしまうといったリスクを極力抑える必要があった。従って、複雑な設定や操作を必要としないで、プレゼンテーションをする情報の注目箇所などを容易な操作で指摘することができるシステムの提供が切望されていた。
However, the projection system using a portable terminal according to Patent Document 1 is not a user-friendly system for the presenter, and various inconvenient situations have occurred by using the portable terminal. Specifically, in Patent Document 1, it is a great advantage that the user can bring and use his / her familiar portable terminal. In such a case, installation of software for generating a composite image, portable terminal and projector It was necessary to set up the connection with. Users had to spend valuable preparation time before the presentation on such tasks.
In addition, there is a method that allows the user to use the mobile terminal provided in the projection system. However, since the user is different from the mobile terminal that the user is used to, the user may be unfamiliar with the operation of the mobile terminal of the projection system. There was a risk that the progress of the presentation would be hindered.
In particular, in an event where a plurality of presenters make a presentation using a common projection system, it is necessary to minimize the risk that the progress of the presentation is hindered due to operational troubles. Accordingly, there has been a demand for providing a system that can point out a point of interest of information to be presented with an easy operation without requiring complicated settings and operations.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

[適用例1]本適用例に係わるプロジェクターは、第1投射面および第2投射面に投射画像を投射するプロジェクターであって、前記第1投射面を撮像し撮像情報を出力する撮像部と、前記撮像情報から前記プロジェクターに対する前記第1投射面の相対位置を検出する検出部と、前記第1投射面に対して操作する指示体の位置情報を前記撮像情報から抽出する抽出部と、前記指示体の前記位置情報に基づいて描画画像を生成する描画画像生成部と、外部機器から機器画像を受信する受信部と、前記機器画像と前記描画画像とを重畳し前記投射画像を生成する投射画像生成部と、前記投射画像を前記第1投射面に投射する第1投射部と、前記投射画像を前記第2投射面に投射する第2投射部と、を備えることを特徴とする。   Application Example 1 A projector according to this application example is a projector that projects a projection image on a first projection surface and a second projection surface, and an imaging unit that images the first projection surface and outputs imaging information; A detection unit that detects a relative position of the first projection surface with respect to the projector from the imaging information; an extraction unit that extracts position information of a pointer operated on the first projection surface from the imaging information; and the instruction A drawing image generation unit that generates a drawing image based on the position information of the body; a reception unit that receives a device image from an external device; and a projection image that generates the projection image by superimposing the device image and the drawing image A generation unit, a first projection unit that projects the projection image onto the first projection surface, and a second projection unit that projects the projection image onto the second projection surface are provided.

本適用例のプロジェクターによれば、同一の投射画像を投射する第1投射部と第2投射部との2つの投射部を備えている。撮像部により撮像された第1投射面の撮像情報には、第1投射面に対して操作する指示体の位置情報が含まれている。指示体の位置情報に基づいて生成された描画画像は、機器画像と重畳されて投射画像として第1投射部と第2投射部とへ出力される。このようにして、第1投射面において操作される指示体の位置情報に基づいて描画される描画画像が機器画像に重畳されて第1投射面と第2投射面とに投射される。例えば、プレゼンターが第1投射面に投射された投射画像の注目箇所などを指示体で操作(指摘)することで、視聴者が視認する第2投射面に指示体により指摘された注目箇所が描画(明示)された投射画像を投射することができる。
従って、プレゼンテーションをする情報の注目箇所などをプレゼンターが容易な操作で指摘することができる。
また、指示体の操作に関する情報は、プロジェクターに備えられた第1投射部により投射された第1投射面を撮像する撮像部において取得することができる。従来であったようなプレゼンターに携帯端末の利用を強いるシステムではないため、携帯端末による複雑な設定や操作、ソフトウェアのインストールなどといった作業を必要としない。
従って、複雑な設定や操作を必要としないで、プレゼンテーションをする情報の注目箇所などを容易な操作で指摘することができるプロジェクターを提供することができる。
According to the projector of this application example, the projector includes two projection units, a first projection unit and a second projection unit that project the same projection image. The imaging information of the first projection surface imaged by the imaging unit includes position information of the indicator that operates on the first projection surface. The drawing image generated based on the position information of the indicator is superimposed on the device image and output as a projection image to the first projection unit and the second projection unit. In this way, the drawn image drawn based on the position information of the indicator operated on the first projection surface is superimposed on the device image and projected onto the first projection surface and the second projection surface. For example, when the presenter operates (points out) a point of interest of the projection image projected on the first projection surface with the indicator, the point of interest indicated by the indicator is drawn on the second projection surface visually recognized by the viewer It is possible to project the (explicit) projected image.
Therefore, the presenter can point out the attention point of the information to be presented by an easy operation.
Moreover, the information regarding operation of a pointer can be acquired in the imaging part which images the 1st projection surface projected by the 1st projection part with which the projector was equipped. Since it is not a system that forces a presenter to use a mobile terminal as in the past, it does not require complicated settings and operations using the mobile terminal, software installation, and the like.
Therefore, it is possible to provide a projector that can point out a point of interest of information to be presented by an easy operation without requiring complicated settings and operations.

[適用例2]上記適用例に記載の描画画像生成部は、前記指示体の位置の軌跡に応じた前記描画画像を生成することを特徴とする。   Application Example 2 The drawing image generation unit described in the application example generates the drawing image corresponding to a locus of the position of the indicator.

本適用例によれば、指示体によって注目箇所を明示して指摘することができる。例えば、注目箇所が指示体によって囲まれる操作がされた場合では、指示体は注目箇所を囲む軌跡を残すめ、描画画像は注目箇所を囲む線として生成される。   According to this application example, the point of interest can be clearly indicated by the indicator. For example, when an operation is performed in which the attention location is surrounded by the indicator, the indicator leaves a locus surrounding the attention location, and the drawn image is generated as a line surrounding the attention location.

[適用例3]上記適用例に記載の検出部は、検出した前記相対位置に基づいて前記第1投射部が投射する投射方向を決定することを特徴とする。   Application Example 3 The detection unit described in the application example described above is characterized in that a projection direction projected by the first projection unit is determined based on the detected relative position.

本適用例によれば、検出部は第1投射部の投射方向を第1投射面に向けることができる。例えば、第1投射面が移動した場合に、第1投射部の投射方向を第1投射面へ追従させることができる。   According to this application example, the detection unit can direct the projection direction of the first projection unit toward the first projection surface. For example, when the first projection surface moves, the projection direction of the first projection unit can follow the first projection surface.

[適用例4]上記適用例に記載の撮像部は前記第1投射面の投射領域を示すパターンを撮像し、撮像した画像を前記撮像情報として出力し、前記検出部は、前記撮像情報に含まれる前記パターンに基づいて前記相対位置を検出すること、を特徴とする。   Application Example 4 The imaging unit according to the application example captures a pattern indicating a projection area of the first projection surface, outputs the captured image as the imaging information, and the detection unit is included in the imaging information. The relative position is detected based on the pattern to be detected.

本適用例によれば、検出部は、撮像部により撮像されたパターンを目印にして、第1投射面の相対位置および第1投射面の投射領域を的確に検出することができる。   According to this application example, the detection unit can accurately detect the relative position of the first projection surface and the projection area of the first projection surface using the pattern imaged by the imaging unit as a mark.

[適用例5]上記適用例に記載の第1投射面は、前記投射画像が投射される第1面と前記第1面の裏面である第2面とを含み、前記第1面側から投射された前記投射画像を前記第2面において表示させ、かつ、前記第2面において操作される前記指示体の前記位置情報を透過させるフィルターを備えることを特徴とする。   Application Example 5 The first projection surface described in the application example includes a first surface on which the projection image is projected and a second surface that is a back surface of the first surface, and is projected from the first surface side. A filter that displays the projected image on the second surface and transmits the position information of the indicator operated on the second surface.

本適用例によれば、第1投射面の第2面において投射画像が表示され、第2面において表示される投射画像の注目箇所を指示体で指摘することができる。   According to this application example, the projection image is displayed on the second surface of the first projection surface, and the point of interest of the projection image displayed on the second surface can be pointed out with the indicator.

[適用例6]上記適用例に記載の前記撮像部は、前記第2面において操作される前記指示体の前記位置情報を撮像することを特徴とする。   Application Example 6 The imaging unit according to the application example captures the position information of the indicator operated on the second surface.

本適用例によれば、指示体を第2面において操作することができるため、第1投射部から第1投射面への投射が指示体によって妨げられることはない。   According to this application example, since the indicator can be operated on the second surface, the projection from the first projection unit to the first projection surface is not hindered by the indicator.

[適用例7]上記適用例に記載の前記第1投射面は、前記投射画像が投射される投射面において前記投射画像を反射する反射面を備え、前記撮像部は、前記第1投射面において操作される前記指示体の前記位置情報を撮像することを特徴とする。   Application Example 7 In the application example, the first projection surface includes a reflection surface that reflects the projection image on a projection surface on which the projection image is projected, and the imaging unit is provided on the first projection surface. The position information of the indicator to be operated is imaged.

本適用例によれば、投射面において投射画像が表示され、同投射面において表示される投射画像の注目箇所を指示体で指摘することができる。   According to this application example, the projection image is displayed on the projection surface, and the point of interest of the projection image displayed on the projection surface can be pointed out with the indicator.

[適用例8]本適用例に係わるプロジェクターの制御方法は、第1投射面および第2投射面に投射画像を投射するプロジェクターの制御方法であって、前記第1投射面を撮像し撮像情報を出力する撮像工程と、前記撮像情報から前記プロジェクターに対する前記第1投射面の相対位置を検出する検出工程と、前記第1投射面に対して操作する指示体の位置情報を前記撮像情報から抽出する抽出工程と、前記指示体の前記位置情報に基づいて描画画像を生成する描画画像生成工程と、外部機器から機器画像を受信する受信工程と、前記機器画像と前記描画画像とを重畳し前記投射画像を生成する投射画像生成工程と、前記投射画像を前記第1投射面に投射する第1投射工程と、前記投射画像を前記第2投射面に投射する第2投射工程と、を備えることを特徴とする。   Application Example 8 A projector control method according to this application example is a projector control method that projects a projection image on a first projection surface and a second projection surface, and images the first projection surface and captures imaging information. An imaging step of outputting, a detection step of detecting a relative position of the first projection plane with respect to the projector from the imaging information, and position information of an indicator operated on the first projection plane are extracted from the imaging information. An extraction step, a drawing image generation step for generating a drawing image based on the position information of the indicator, a receiving step for receiving a device image from an external device, and the projection by superimposing the device image and the drawing image A projection image generation step of generating an image; a first projection step of projecting the projection image onto the first projection surface; and a second projection step of projecting the projection image onto the second projection surface. It is characterized in.

本適用例によるプロジェクターの制御方法によれば、同一の投射画像を第1投射面および第2投射面へ投射している。撮像工程により撮像された第1投射面の撮像情報には、第1投射面に対して操作する指示体の位置情報が含まれている。指示体の位置情報に基づいて生成された描画画像は、機器画像と重畳されて投射画像として第1投射工程と第2投射工程とへ出力される。このようにして、第1投射面において操作される指示体の位置情報に基づいて描画される描画画像が機器画像に重畳されて第1投射面と第2投射面とに投射される。例えば、プレゼンターが第1投射面に投射された投射画像の注目箇所などを指示体で操作(指摘)することで、視聴者が視認する第2投射面に指示体により指摘された注目箇所が描画(明示)された投射画像を投射することができる。
従って、プレゼンテーションをする情報の注目箇所などをプレゼンターが容易な操作で指摘することができる。
また、指示体の操作に関する情報は、第1投射工程により投射された第1投射面を撮像する撮像工程において取得することができる。従来であったようなプレゼンターに携帯端末の利用を強いるシステムではないため、携帯端末による複雑な設定や操作、ソフトウェアのインストールなどといった作業を必要としない。
従って、複雑な設定や操作を必要としないで、プレゼンテーションをする情報の注目箇所などを容易な操作で指摘することができるプロジェクターの制御方法を提供することができる。
According to the projector control method according to this application example, the same projection image is projected onto the first projection surface and the second projection surface. The imaging information of the first projection surface imaged by the imaging process includes position information of the indicator that operates on the first projection surface. The drawing image generated based on the position information of the indicator is superimposed on the device image and output as a projection image to the first projection step and the second projection step. In this way, the drawn image drawn based on the position information of the indicator operated on the first projection surface is superimposed on the device image and projected onto the first projection surface and the second projection surface. For example, when the presenter operates (points out) a point of interest of the projection image projected on the first projection surface with the indicator, the point of interest indicated by the indicator is drawn on the second projection surface visually recognized by the viewer It is possible to project the (explicit) projected image.
Therefore, the presenter can point out the attention point of the information to be presented by an easy operation.
Moreover, the information regarding operation of a pointer can be acquired in the imaging process which images the 1st projection surface projected by the 1st projection process. Since it is not a system that forces a presenter to use a mobile terminal as in the past, it does not require complicated settings and operations using the mobile terminal, software installation, and the like.
Therefore, it is possible to provide a projector control method that can point out a point of interest of information to be presented by an easy operation without requiring complicated settings and operations.

[適用例9]本適用例に係わるプロジェクションシステムは、第1投射面および第2投射面に投射画像を投射するプロジェクターと、前記第1投射面と、を備えるプロジェクションシステムであって、前記プロジェクターは、前記第1投射面を撮像し撮像情報を出力する撮像部と、前記撮像情報から前記プロジェクターに対する前記第1投射面の相対位置を検出する検出部と、前記第1投射面に対して操作する指示体の位置情報を前記撮像情報から抽出する抽出部と、前記指示体の前記位置情報に基づいて描画画像を生成する描画画像生成部と、外部機器から機器画像を受信する受信部と、前記機器画像と前記描画画像とを重畳し前記投射画像を生成する投射画像生成部と、前記投射画像を前記第1投射面に投射する第1投射部と、前記投射画像を前記第2投射面に投射する第2投射部と、を備え、前記第1投射面は、前記投射画像が投射される第1面と前記第1面の裏面である第2面とを含み、前記第1面側から投射された前記投射画像を前記第2面において表示させ、かつ、前記第2面において操作される前記指示体の前記位置情報を透過させるフィルターを備えること、を特徴とする。   Application Example 9 A projection system according to this application example is a projection system including a projector that projects a projection image on a first projection surface and a second projection surface, and the first projection surface, and the projector includes: An imaging unit for imaging the first projection plane and outputting imaging information; a detection unit for detecting a relative position of the first projection plane with respect to the projector from the imaging information; and operating the first projection plane. An extraction unit that extracts position information of a pointer from the imaging information; a drawing image generation unit that generates a drawing image based on the position information of the pointer; a reception unit that receives a device image from an external device; A projection image generation unit that generates a projection image by superimposing a device image and the drawing image, a first projection unit that projects the projection image onto the first projection surface, and the projection A second projection unit that projects an image onto the second projection surface, and the first projection surface includes a first surface on which the projection image is projected and a second surface that is a back surface of the first surface. Including a filter that displays the projected image projected from the first surface side on the second surface and transmits the position information of the indicator operated on the second surface. And

本適用例のプロジェクターによれば、同一の投射画像を投射する第1投射部と第2投射部との2つの投射部を備えている。撮像部により撮像された第1投射面の撮像情報には、第1投射面に対して操作する指示体の位置情報が含まれている。指示体の位置情報に基づいて生成された描画画像は、機器画像と重畳されて投射画像として第1投射部と第2投射部とへ出力される。このようにして、第1投射面において操作される指示体の位置情報に基づいて描画される描画画像が機器画像に重畳されて第1投射面と第2投射面とに投射される。例えば、プレゼンターが第1投射面に投射された投射画像の注目箇所などを指示体で操作(指摘)することで、視聴者が視認する第2投射面に指示体により指摘された注目箇所が描画(明示)された投射画像を投射することができる。
従って、プレゼンテーションをする情報の注目箇所などをプレゼンターが容易な操作で指摘することができる。
また、第1投射面の第2面において投射画像が表示され、第2面において表示される投射画像の注目箇所を指示体で指摘することができる。指示体を第2面において操作することができるため、第1投射部から第1投射面への投射が指示体によって妨げられることはない。
According to the projector of this application example, the projector includes two projection units, a first projection unit and a second projection unit that project the same projection image. The imaging information of the first projection surface imaged by the imaging unit includes position information of the indicator that operates on the first projection surface. The drawing image generated based on the position information of the indicator is superimposed on the device image and output as a projection image to the first projection unit and the second projection unit. In this way, the drawn image drawn based on the position information of the indicator operated on the first projection surface is superimposed on the device image and projected onto the first projection surface and the second projection surface. For example, when the presenter operates (points out) a point of interest of the projection image projected on the first projection surface with the indicator, the point of interest indicated by the indicator is drawn on the second projection surface visually recognized by the viewer It is possible to project the (explicit) projected image.
Therefore, the presenter can point out the attention point of the information to be presented by an easy operation.
In addition, the projection image is displayed on the second surface of the first projection surface, and the point of interest of the projection image displayed on the second surface can be pointed out with the indicator. Since the indicator can be operated on the second surface, the projection from the first projection unit to the first projection surface is not hindered by the indicator.

[適用例10]本適用例に係わるプロジェクションシステムは、第1投射面および第2投射面に投射画像を投射するプロジェクターと、前記第1投射面と、を備えるプロジェクションシステムであって、前記プロジェクターは、前記第1投射面を撮像し撮像情報を出力する撮像部と、前記撮像情報から前記プロジェクターに対する前記第1投射面の相対位置を検出する検出部と、前記第1投射面に対して操作する指示体の位置情報を前記撮像情報から抽出する抽出部と、前記指示体の前記位置情報に基づいて描画画像を生成する描画画像生成部と、外部機器から機器画像を受信する受信部と、前記機器画像と前記描画画像とを重畳し前記投射画像を生成する投射画像生成部と、前記投射画像を前記第1投射面に投射する第1投射部と、前記投射画像を前記第2投射面に投射する第2投射部と、を備え、前記第1投射面は、前記投射画像が投射される第1面において前記投射画像を反射する反射面を備えること、を特徴とする。   Application Example 10 A projection system according to this application example is a projection system that includes a projector that projects a projection image on a first projection surface and a second projection surface, and the first projection surface. An imaging unit for imaging the first projection plane and outputting imaging information; a detection unit for detecting a relative position of the first projection plane with respect to the projector from the imaging information; and operating the first projection plane. An extraction unit that extracts position information of a pointer from the imaging information; a drawing image generation unit that generates a drawing image based on the position information of the pointer; a reception unit that receives a device image from an external device; A projection image generation unit configured to superimpose the device image and the drawing image to generate the projection image; a first projection unit configured to project the projection image onto the first projection plane; A second projection unit that projects an image onto the second projection surface, and the first projection surface includes a reflection surface that reflects the projection image on a first surface on which the projection image is projected. Features.

本適用例のプロジェクターによれば、同一の投射画像を投射する第1投射部と第2投射部との2つの投射部を備えている。撮像部により撮像された第1投射面の撮像情報には、第1投射面に対して操作する指示体の位置情報が含まれている。指示体の位置情報に基づいて生成された描画画像は、機器画像と重畳されて投射画像として第1投射部と第2投射部とへ出力される。このようにして、第1投射面において操作される指示体の位置情報に基づいて描画される描画画像が機器画像に重畳されて第1投射面と第2投射面とに投射される。例えば、プレゼンターが第1投射面に投射された投射画像の注目箇所などを指示体で操作(指摘)することで、視聴者が視認する第2投射面に指示体により指摘された注目箇所が描画(明示)された投射画像を投射することができる。
従って、プレゼンテーションをする情報の注目箇所などをプレゼンターが容易な操作で指摘することができる。
また、投射面において投射画像が表示され、同投射面において表示される投射画像の注目箇所を指示体で指摘することができる。
According to the projector of this application example, the projector includes two projection units, a first projection unit and a second projection unit that project the same projection image. The imaging information of the first projection surface imaged by the imaging unit includes position information of the indicator that operates on the first projection surface. The drawing image generated based on the position information of the indicator is superimposed on the device image and output as a projection image to the first projection unit and the second projection unit. In this way, the drawn image drawn based on the position information of the indicator operated on the first projection surface is superimposed on the device image and projected onto the first projection surface and the second projection surface. For example, when the presenter operates (points out) a point of interest of the projection image projected on the first projection surface with the indicator, the point of interest indicated by the indicator is drawn on the second projection surface visually recognized by the viewer It is possible to project the (explicit) projected image.
Therefore, the presenter can point out the attention point of the information to be presented by an easy operation.
In addition, a projected image is displayed on the projection surface, and a point of interest of the projected image displayed on the projection surface can be pointed out with an indicator.

プロジェクションシステムの概要を説明する図。The figure explaining the outline | summary of a projection system. プロジェクションシステムの概略機能を表すブロック図。The block diagram showing the schematic function of a projection system. 投射部の構成を説明する図。The figure explaining the structure of a projection part. 投射処理を表すフローチャート図。The flowchart figure showing a projection process. 実施形態2におけるプロジェクションシステムの概要を説明する図。FIG. 5 is a diagram for explaining an outline of a projection system according to a second embodiment. 実施形態3におけるプロジェクションシステムの概要を説明する図。FIG. 9 is a diagram for explaining an outline of a projection system according to a third embodiment. 変形例における投射部の構成を説明する図。The figure explaining the structure of the projection part in a modification.

以下、本発明の実施形態について、図面を参照して説明する。なお、以下の各図においては、各部や各画面を認識可能な程度の大きさにするため、各部や各画面の尺度を実際とは異ならせしめている。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following drawings, the scale of each part and each screen is different from the actual scale so that each part and each screen can be recognized.

(実施形態1)
(プロジェクションシステムの概要)
図1は、プロジェクションシステムの概要を説明する図である。
プロジェクションシステム1は、プロジェクター3、外部機器10、描画ボードBD、スクリーンSCなどから構成されている。
(Embodiment 1)
(Outline of projection system)
FIG. 1 is a diagram for explaining the outline of the projection system.
The projection system 1 includes a projector 3, an external device 10, a drawing board BD, a screen SC, and the like.

外部機器10は、一般的なPC(Personal Computer)やサーバーなどの情報機器であり、表示装置、記憶装置、および映像信号を供給するコネクターなどを備えている。記憶装置には、プレゼンテーションの際に表示される画像ファイルが予め格納されている。外部機器10では、画像ファイルを読み込んで機器画像OIを表示装置に表示し、同時に機器画像OIの映像信号をコネクター側へも出力する。図1に示す外部機器10には、その表示例として機器画像OIが表示されている。機器画像OIの一部には、「AB」の文字列を表す画像が例示されている。外部機器10から出力された機器画像OIの映像信号は、通信4を介してプロジェクター3へ供給される。   The external device 10 is an information device such as a general PC (Personal Computer) or a server, and includes a display device, a storage device, a connector for supplying a video signal, and the like. The storage device stores in advance an image file to be displayed at the time of presentation. The external device 10 reads the image file, displays the device image OI on the display device, and simultaneously outputs the video signal of the device image OI to the connector side. In the external device 10 shown in FIG. 1, a device image OI is displayed as a display example. A part of the device image OI illustrates an image representing a character string “AB”. The video signal of the device image OI output from the external device 10 is supplied to the projector 3 via the communication 4.

プロジェクター3は、第1投射装置30と第2投射部40とを備えている。第1投射装置30は、撮像部31および第1投射部32などで構成されている。プロジェクター3では、外部機器10から入力した機器画像OIから投射用の画像(投射画像PI)を生成し、第1投射部32および第2投射部40へ出力する。   The projector 3 includes a first projection device 30 and a second projection unit 40. The first projection device 30 includes an imaging unit 31, a first projection unit 32, and the like. In the projector 3, an image for projection (projection image PI) is generated from the device image OI input from the external device 10, and is output to the first projection unit 32 and the second projection unit 40.

第2投射部40は、スクリーンSCへ投射画像PIを投射(投射PR2)する。スクリーンSCは、大型のスクリーン(例えば、200インチ以上のサイズ)であり、大勢の視聴者が視認するメイン画面である。   The second projection unit 40 projects the projection image PI onto the screen SC (projection PR2). The screen SC is a large screen (for example, a size of 200 inches or more) and is a main screen that many viewers visually recognize.

第1投射部32および撮像部31は、プロジェクター3の筐体において、第2投射部40とは異なる筐体面(図1に示す例では、反対側の面)に備えられている。
第1投射部32は、描画ボードBD側に投射画像PIを投射(投射PR1)する。描画ボードBDは、プレゼンターが視認する小型(例えば、A4サイズ)の半透明または透明のボードであり、ボード面に貼られた公知の特定波長反射フィルターを通して投射面から投射される画像を投射面の反対側の面である表面に表示する。以降、描画ボードBDへプロジェクター3から投射される面を「描画ボードBDの裏面」と呼称し、裏面の逆の面を「描画ボードBDの表面」と呼称する。また、描画ボードBDの裏面の頂点付近四隅には、投射画像PIの投射領域を示すマーク6が設けられている。マーク6の詳細については、後述する。
なお、第1投射部32により投射画像PIが投射される描画ボードBDの裏面および表面は、第1投射面に相当し、第2投射部40により投射画像PIが投射されるスクリーンSCの投射面は、第2投射面に相当する。
The first projection unit 32 and the imaging unit 31 are provided on the housing surface of the projector 3 that is different from the second projection unit 40 (on the opposite surface in the example illustrated in FIG. 1).
The first projection unit 32 projects the projection image PI on the drawing board BD side (projection PR1). The drawing board BD is a small (for example, A4 size) translucent or transparent board visually recognized by the presenter. An image projected from the projection surface through a known specific wavelength reflection filter attached to the board surface is displayed on the projection surface. Display on the opposite surface. Hereinafter, the surface projected from the projector 3 onto the drawing board BD is referred to as “the back surface of the drawing board BD”, and the opposite surface of the back surface is referred to as “the front surface of the drawing board BD”. In addition, marks 6 indicating the projection areas of the projection image PI are provided at the four corners near the apex on the back surface of the drawing board BD. Details of the mark 6 will be described later.
The back surface and front surface of the drawing board BD onto which the projection image PI is projected by the first projection unit 32 correspond to the first projection surface, and the projection surface of the screen SC on which the projection image PI is projected by the second projection unit 40. Corresponds to the second projection surface.

プレゼンターは、指示体PNを把持し、描画ボードBDの表面に表示された投射画像PIの注目箇所などを指摘する操作を行う。図1に示す例では、「A」の部分を囲むような軌跡PNLが操作されたことを示している。軌跡PNLは、プロジェクター3の撮像部31により撮像され、撮像部31により描画画像DIが生成される。プロジェクター3では、生成された描画画像DIを機器画像OIに重畳しその合成画像を、新たな投射画像PIとしてスクリーンSCおよび描画ボードBDへ投射する。このような描画ボードBDにおける指示体PNの操作と、スクリーンSCおよび描画ボードBDへの投射処理が繰り返されるため、描画ボードBD側において指示体PNが動かされるたびに、その位置をなぞるように描画ボードBDおよびスクリーンSCに軌跡PNLが表示されることになる。
以上のような構成により、プレゼンターが手元の描画ボードBDに表示される投射画像PI上で指示体PNを操作することで、スクリーンSC上の投射画像PIに指示体PNの軌跡PNLが反映される。携帯端末などが不要であり、複雑な設定や操作を必要としないで、プレゼンテーションをする情報の注目箇所などを容易な操作で指摘することができる。
以降、このような効果を有するプロジェクションシステム1について詳細に説明する。
The presenter holds the indicator PN and performs an operation of pointing out a point of interest of the projection image PI displayed on the surface of the drawing board BD. In the example illustrated in FIG. 1, the locus PNL surrounding the portion “A” is operated. The trajectory PNL is imaged by the imaging unit 31 of the projector 3, and the drawing image DI is generated by the imaging unit 31. The projector 3 superimposes the generated drawing image DI on the device image OI and projects the composite image onto the screen SC and the drawing board BD as a new projection image PI. Since the operation of the indicator PN on the drawing board BD and the projection process on the screen SC and the drawing board BD are repeated, each time the indicator PN is moved on the drawing board BD side, drawing is performed so that the position is traced. The locus PNL is displayed on the board BD and the screen SC.
With the configuration described above, when the presenter operates the indicator PN on the projection image PI displayed on the drawing board BD at hand, the locus PNL of the indicator PN is reflected in the projection image PI on the screen SC. . A portable terminal or the like is not required, and it is possible to point out a point of interest of information to be presented with an easy operation without requiring complicated settings and operations.
Hereinafter, the projection system 1 having such an effect will be described in detail.

(プロジェクションシステム)
図2は、プロジェクションシステムの概略機能を表すブロック図である。
プロジェクションシステム1は、プロジェクター3と、外部機器10と、描画ボードBD、指示体PN、スクリーンSCなどから構成されている。
(Projection system)
FIG. 2 is a block diagram showing a schematic function of the projection system.
The projection system 1 includes a projector 3, an external device 10, a drawing board BD, an indicator PN, a screen SC, and the like.

外部機器10は、上述したように一般的なPCやサーバーなどの情報機器である。外部機器10は、一台のPCとは限らず、ネットワークで接続された複数の情報機器であってもよい。プレゼンテーションの際に表示される画像や動画のファイルなどは、ネットワークのクラウド環境や特定のサーバーなどに格納されていてもよい。   The external device 10 is an information device such as a general PC or server as described above. The external device 10 is not limited to a single PC, and may be a plurality of information devices connected via a network. An image or video file displayed at the time of presentation may be stored in a network cloud environment or a specific server.

描画ボードBDは、上述したように半透明または透明のボードであり、描画ボードBDの裏面である面5Aから投射された画像を、特定波長反射フィルターを通して描画ボードBDの表面である面5Bに表示する。描画ボードBDは、面5Aの外周部分(例えば、四隅)に、囲まれた領域が描画ボードBDの投射領域であることを表すマーク6が設けられている(図1参照)。これらのマーク6は、プロジェクター3の撮像部31において指示体PNとは区別して認識可能であり、プロジェクター3と描画ボードBDとの相対位置の算出(測定)の際に利用される。なお、マーク6は、撮像部31側においてブラックライトなどの照射機能が備えられている場合では、ブラックライトに反応(発光)する蛍光材料などの材料で作成されたものであってもよい。このような構成では、比較的暗い会場においても、視聴者やプレゼンターに意識させることなくマーク6を検出することができる。また、マーク6は、描画ボードBDの面5Aに限らず、面5Bに設けられていてもよい。その場合では、マーク6は、半透明または透明の描画ボードBDを透過して、撮像部31側において撮像可能であればよい。
なお、描画ボードBDの面5Aは、第1面に相当し、面5Bは、第2面に相当する。また、マーク6は、第1投射面の投射領域を示すパターンに相当する。
As described above, the drawing board BD is a translucent or transparent board, and displays an image projected from the surface 5A, which is the back surface of the drawing board BD, on the surface 5B, which is the surface of the drawing board BD, through a specific wavelength reflection filter. To do. The drawing board BD is provided with a mark 6 indicating that the enclosed area is a projection area of the drawing board BD at an outer peripheral portion (for example, four corners) of the surface 5A (see FIG. 1). These marks 6 can be recognized separately from the indicator PN in the imaging unit 31 of the projector 3, and are used when calculating (measuring) the relative position between the projector 3 and the drawing board BD. Note that the mark 6 may be made of a material such as a fluorescent material that reacts (emits light) to the black light when the imaging unit 31 has an irradiation function such as black light. In such a configuration, even in a relatively dark venue, the mark 6 can be detected without making the viewer or presenter aware. Further, the mark 6 is not limited to the surface 5A of the drawing board BD, and may be provided on the surface 5B. In that case, the mark 6 may be transmitted through the translucent or transparent drawing board BD and can be imaged on the imaging unit 31 side.
The surface 5A of the drawing board BD corresponds to the first surface, and the surface 5B corresponds to the second surface. The mark 6 corresponds to a pattern indicating the projection area of the first projection surface.

指示体PNは、ペン型をした10〜15cm程度の長さの指示棒であり、先端にLED(Light Emitting Diode)などの発光素子が備えられている。指示体PNの先端が描画ボードBDの表面に接した場合にLEDが発光する。LEDの発光は、透明または半透明の描画ボードを透過し、プロジェクター3の撮像部31において検出可能である。
なお、指示体PNの先端は、LEDに限らず、プロジェクター3の撮像部31において検出することができればよく、例えば、蛍光材料や蓄光材料などが塗布または取り付けられていてもよい。また、指示体PNの先端の材料は、マーク6と同様に撮像部31側においてブラックライトの照射機構が備えられている場合では、ブラックライトに反応する材料であってもよい。
The indicator PN is a pen-shaped indicator bar having a length of about 10 to 15 cm, and has a light emitting element such as an LED (Light Emitting Diode) at the tip. The LED emits light when the tip of the indicator PN is in contact with the surface of the drawing board BD. The light emission of the LED passes through a transparent or translucent drawing board and can be detected by the imaging unit 31 of the projector 3.
Note that the tip of the indicator PN is not limited to the LED, but may be detected by the imaging unit 31 of the projector 3. For example, a fluorescent material or a phosphorescent material may be applied or attached. Further, the material at the tip of the indicator PN may be a material that reacts to black light in the case where a black light irradiation mechanism is provided on the imaging unit 31 side as in the case of the mark 6.

スクリーンSCは、上述したように大型のスクリーンであり、第2投射部40から投射された投射画像PIを投射面である面9A上に投射する。面9Aに投射された投射画像PIは、視聴者によって視認される。なお、スクリーンSCは、投射された投射画像PIが視認可能であればよく壁面やその他の物体であればよい。   The screen SC is a large screen as described above, and projects the projection image PI projected from the second projection unit 40 onto the surface 9A which is a projection surface. The projected image PI projected on the surface 9A is visually recognized by the viewer. The screen SC may be any wall or other object as long as the projected image PI projected is visible.

(プロジェクター)
プロジェクター3は、操作部21、計時部23、記憶部25、通信部27、第1投射装置30、第2投射部40、制御部50、および映像処理部60などによって構成されている。
(projector)
The projector 3 includes an operation unit 21, a timing unit 23, a storage unit 25, a communication unit 27, a first projection device 30, a second projection unit 40, a control unit 50, a video processing unit 60, and the like.

操作部21は、プロジェクター3を操作するための複数のボタンを備えている。操作されたボタンに応じて制御部50が各部を制御することにより、各種機能が実現される。例えば、プロジェクター3の入力信号を外部機器10に切り替える操作が行われると、制御部50によって外部機器10から機器画像OIの画像信号が入力され、その機器画像OIが第2投射部40および第1投射装置30へ投射される。スクリーンSCや描画ボードBDに投射される映像の調整や、プロジェクター3が有する各種機能の設定などが行われる。また、プロジェクター3が各種操作を実現するためのリモコン(図示は省略)を備える場合では、リモコンのボタンやリモコン上に表示される表示部または表示部を覆うタッチパネルなども操作部21に含まれる。   The operation unit 21 includes a plurality of buttons for operating the projector 3. Various functions are realized by the control unit 50 controlling each unit in accordance with the operated button. For example, when an operation of switching the input signal of the projector 3 to the external device 10 is performed, an image signal of the device image OI is input from the external device 10 by the control unit 50, and the device image OI is the second projection unit 40 and the first device. Projected to the projection device 30. Adjustment of the image projected on the screen SC and the drawing board BD, setting of various functions of the projector 3, and the like are performed. When the projector 3 includes a remote controller (not shown) for realizing various operations, the operation unit 21 includes buttons on the remote controller, a display unit displayed on the remote controller, a touch panel covering the display unit, and the like.

計時部23は、リアルタイムクロックであり、制御部50へのクロック発生、第1投射装置30、第2投射部40、通信部27などのクロック同期、タイマー機能、カレンダー機能、時計機能などの計時機能を有している。計時部23が計時している日時、時間などの計時データは、制御部50により読み出される。第1投射装置30の撮像部31では、計時部23から発振したクロックに基づいて撮像素子のサンプリング周期を生成し、第1投射装置30、第2投射部40、通信部27における投射画像PIの入力から投射までのタイミングは、計時部23から発振したクロックに基づいて同期が取られている。   The clock unit 23 is a real-time clock, clock generation to the control unit 50, clock synchronization of the first projection device 30, the second projection unit 40, the communication unit 27, etc., timer functions, calendar functions, clock functions, etc. have. Time data such as the date and time that the time measuring unit 23 is measuring is read by the control unit 50. In the imaging unit 31 of the first projection device 30, the sampling period of the imaging device is generated based on the clock oscillated from the time measuring unit 23, and the projection image PI of the first projection device 30, the second projection unit 40, and the communication unit 27 is generated. The timing from the input to the projection is synchronized based on the clock oscillated from the time measuring unit 23.

記憶部25は、ROM(Read Only Memory)やフラッシュROM、RAM(Random Access Memory)、VideoRAM、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の記憶装置によって構成されている。記憶部25では、外部機器10から入力した機器画像OI、撮像部31により撮像された撮像画像、指示体PNの軌跡PNLを描画した描画画像DI、機器画像OIおよび描画画像DIの画像合成用に使用されるワークエリア、その合成画像された投射画像PIなどを記憶する。
これら以外に、制御部50の機能部を実現するためのプログラムや一時的に保存される変数のデータなどが格納されている。
The storage unit 25 includes a storage device such as a ROM (Read Only Memory), a flash ROM, a RAM (Random Access Memory), a VideoRAM, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like. In the storage unit 25, the device image OI input from the external device 10, the captured image captured by the imaging unit 31, the rendered image DI in which the locus PNL of the indicator PN is rendered, and the device image OI and the rendered image DI are combined for image synthesis. A work area to be used, a projection image PI that is a composite image thereof, and the like are stored.
In addition to these, a program for realizing the functional unit of the control unit 50, data of a temporarily stored variable, and the like are stored.

通信部27は、Video端子、S端子、3RCA端子、D−Sub端子、HDMI(登録商標)(High-Definition Multimedia Interface)端子など、映像信号が供給されるコネクターを複数有し、外部機器10などの外部装置から通信4を介してコネクターに供給された映像信号を機器画像OIの機器画像データとして映像処理部60へ出力する。また、通信部27は、無線LAN(Local Area Network)やBluetooth(登録商標)などの無線通信のアダプターや、USB(Universal Serial Bus)や有線のLANなどの有線通信のアダプターを有する。通信部27は、これらのアダプターで使用されるIP(Internet Protocol)やUSBなどの通信プロトコルを備え、外部機器10などの外部装置と共通の通信プロトコルを選択して、通信4を介して各種信号、画像データを含む各種データの送受信を行う。なお、通信部27は、受信部に相当する。   The communication unit 27 includes a plurality of connectors to which video signals are supplied such as a Video terminal, an S terminal, a 3RCA terminal, a D-Sub terminal, and an HDMI (registered trademark) (High-Definition Multimedia Interface) terminal. The video signal supplied from the external device to the connector via the communication 4 is output to the video processing unit 60 as device image data of the device image OI. The communication unit 27 includes a wireless communication adapter such as a wireless local area network (LAN) and Bluetooth (registered trademark), and a wired communication adapter such as a USB (Universal Serial Bus) and a wired LAN. The communication unit 27 includes a communication protocol such as IP (Internet Protocol) or USB used by these adapters, selects a communication protocol common to an external device such as the external device 10, and various signals via the communication 4. Various types of data including image data are transmitted and received. The communication unit 27 corresponds to a receiving unit.

第1投射装置30は、撮像部31および第1投射部32などで構成されている。
撮像部31は、描画ボードBD側から発光または反射光を受光する撮像素子(CMOSやCCDなど)、撮像素子に像を結像するための光学系部材、撮像素子へ入射する光を制御する絞り、受光した情報からRGBマトリックス形式の撮像画像データを生成する回路などを備えている。撮像部31は、第1投射部32(後述する)と連動し、投射方向と同じ方向を撮像するように調整されて設置されている。つまり、第1投射部32から投射画像PIが投射されている状態では、撮像部31は撮像画像の中央には、第1投射部32から投射される投射画像PIが納まるように調整されている。
また、撮像部31は、自動ズーム機構を備えており、撮像画像の中央に納められた投射画像PIの撮像サイズを調整することが可能である。
撮像部31では、描画ボードBDの投射領域を示すマーク6の内側に、投射画像PIが最大のサイズで収まっている撮像画像を取得する。また、指示体PNの先端位置である位置7Bを抽出可能な撮像画像を取得する。
撮像部31は、撮像した範囲の撮像画像データを含む撮像情報を、後述する撮像情報解析部52へ出力する。撮像部31は、サンプリング周期毎に撮像情報を取得し、撮像情報解析部52へ出力する。サンプリング周期は、例えば、16.7msec周期(サンプリング周波数60Hz)に設定され、その場合では撮像情報が毎秒60回出力される。
なお、撮像部31は、ブラックライトなどのレーザー光を照射する照射部(図示は省略)を備え、レーザー光がマーク6や指示体の位置7Bにより反射された反射光を撮像素子により受光する構成であってもよい。
The first projection device 30 includes an imaging unit 31, a first projection unit 32, and the like.
The imaging unit 31 includes an imaging element (such as a CMOS or CCD) that receives light emitted or reflected from the drawing board BD side, an optical system member that forms an image on the imaging element, and a diaphragm that controls light incident on the imaging element. And a circuit for generating captured image data in RGB matrix format from the received information. The imaging unit 31 is adjusted and installed so as to capture the same direction as the projection direction in conjunction with the first projection unit 32 (described later). That is, in a state where the projection image PI is projected from the first projection unit 32, the imaging unit 31 is adjusted so that the projection image PI projected from the first projection unit 32 is placed in the center of the captured image. .
The imaging unit 31 includes an automatic zoom mechanism, and can adjust the imaging size of the projection image PI stored in the center of the captured image.
The imaging unit 31 acquires a captured image in which the projection image PI is accommodated at the maximum size inside the mark 6 indicating the projection area of the drawing board BD. Moreover, the captured image which can extract the position 7B which is the front-end | tip position of the indicator PN is acquired.
The imaging unit 31 outputs imaging information including captured image data in the captured range to an imaging information analysis unit 52 described later. The imaging unit 31 acquires imaging information for each sampling period, and outputs it to the imaging information analysis unit 52. The sampling period is set to, for example, a 16.7 msec period (sampling frequency 60 Hz). In this case, imaging information is output 60 times per second.
The imaging unit 31 includes an irradiation unit (not shown) that irradiates laser light such as black light, and the imaging element receives reflected light reflected by the mark 6 and the position 7B of the indicator. It may be.

次に、第1投射部32について図3に示す例を用いて説明する。
図3は、投射部の構成を説明する図である。
図3に示す第1投射部32は、全反射ミラー33、位置調整部35、および第1投射レンズ37などで構成されている。第1投射部32には、方向L5から投射画像PIの映像が入射する。投射画像PIの映像は、映像処理部60において生成され、第2投射部40を経由して第1投射部32へ入射している。
Next, the 1st projection part 32 is demonstrated using the example shown in FIG.
FIG. 3 is a diagram illustrating the configuration of the projection unit.
The first projection unit 32 shown in FIG. 3 includes a total reflection mirror 33, a position adjustment unit 35, a first projection lens 37, and the like. The image of the projection image PI enters the first projection unit 32 from the direction L5. The video of the projection image PI is generated by the video processing unit 60 and is incident on the first projection unit 32 via the second projection unit 40.

全反射ミラー33は、方向L5から入射した投射画像PIの映像を第1投射レンズ37の方向(方向L7)へ反射する全反射型、耐熱性および反射率の高い公知のミラーである。
第1投射レンズ37は、複数の光学系で構成されるレンズユニットであり、方向L7から入射する映像光を拡大して出力する。
The total reflection mirror 33 is a total reflection type that reflects the video of the projection image PI incident from the direction L5 in the direction of the first projection lens 37 (direction L7), and is a known mirror having high heat resistance and high reflectance.
The first projection lens 37 is a lens unit composed of a plurality of optical systems, and magnifies and outputs video light incident from the direction L7.

位置調整部35は、全反射ミラー33および投射レンズ37の設置角度を移動させる機構である。詳しくは、全反射ミラー33および投射レンズ37は、中心位置を中心として角度を変更可能に設置されている。位置調整部35は、全反射ミラー33および第1投射レンズ37の角度を微小な角度で変更する駆動機構を有している。位置調整部35は、制御部50の制御(調整制御コマンド)に基づいて、駆動機構を駆動し全反射ミラー33および第1投射レンズ37の角度を変更する。全反射ミラー33および第1投射レンズ37の角度を調整することにより、投射画像PIの映像を出射する方向である方向L7の方向を変更し、描画ボードBDに投射された画像の台形補正および歪曲補正などを実現する。   The position adjustment unit 35 is a mechanism that moves the installation angles of the total reflection mirror 33 and the projection lens 37. Specifically, the total reflection mirror 33 and the projection lens 37 are installed such that the angle can be changed around the center position. The position adjustment unit 35 has a drive mechanism that changes the angles of the total reflection mirror 33 and the first projection lens 37 by a minute angle. The position adjustment unit 35 drives the drive mechanism and changes the angles of the total reflection mirror 33 and the first projection lens 37 based on the control (adjustment control command) of the control unit 50. By adjusting the angles of the total reflection mirror 33 and the first projection lens 37, the direction of the direction L7 that is the direction of emitting the image of the projection image PI is changed, and the keystone correction and distortion of the image projected on the drawing board BD are performed. Realize corrections.

次に、第2投射部40について説明する。
図3に示す第2投射部40は、RGB液晶ユニット42、ハーフミラー48、および第2投射レンズ49などから構成されている。
Next, the second projection unit 40 will be described.
The second projection unit 40 illustrated in FIG. 3 includes an RGB liquid crystal unit 42, a half mirror 48, a second projection lens 49, and the like.

RGB液晶ユニット42は、映像処理部60から投射される映像信号を入力し、第2投射レンズ49の方向(方向L1)へ映像を投射する。
RGB液晶ユニット42は、駆動回路部43、LED光源44R,44G,44B、液晶パネル45R,45G,45B、およびクロスダイクロイックプリズム47などで構成されている。
The RGB liquid crystal unit 42 receives the video signal projected from the video processing unit 60 and projects the video in the direction of the second projection lens 49 (direction L1).
The RGB liquid crystal unit 42 includes a drive circuit unit 43, LED light sources 44R, 44G, and 44B, liquid crystal panels 45R, 45G, and 45B, a cross dichroic prism 47, and the like.

駆動回路部43は、映像処理部60から供給される映像信号を取得する。駆動回路部43に供給される映像信号は、投射する画像における赤(Red)の成分の階調を表す階調データ、緑(Green)の成分の階調を表す階調データ、および青(Blue)の成分の階調を表す階調データを有する。駆動回路部43は、赤(R)、緑(G)、青(B)の各色の階調データを抽出し、抽出した各色の階調データに基づいてLED光源44R,44G,44Bおよび液晶パネル45R,45G,45Bを駆動する。   The drive circuit unit 43 acquires the video signal supplied from the video processing unit 60. The video signal supplied to the drive circuit unit 43 includes gradation data representing the gradation of the red component, gradation data representing the gradation of the green component, and blue (Blue) in the projected image. ) Component gradation data representing the gradation of the component. The drive circuit unit 43 extracts gradation data of each color of red (R), green (G), and blue (B), and based on the extracted gradation data of each color, the LED light sources 44R, 44G, and 44B and the liquid crystal panel. 45R, 45G, and 45B are driven.

LED光源44R,44G,44Bは、それぞれ赤色光、緑色光、青色光を出射するLEDランプを備えたLED光源ユニットである。
液晶パネル45R,45G,45Bは、透過型の液晶パネルであり、複数行複数列でマトリックス状に配置された画素を備えている。液晶パネル45R,45G,45Bは、駆動回路部43によって各画素の透過率が変化する。画素の透過率が制御されることにより、液晶パネル45R,45G,45Bを透過した各色の光は、クロスダイクロイックプリズム47へ出射される。各色階調データに対応した画像になる。
The LED light sources 44R, 44G, and 44B are LED light source units including LED lamps that emit red light, green light, and blue light, respectively.
The liquid crystal panels 45R, 45G, and 45B are transmissive liquid crystal panels, and include pixels arranged in a matrix with a plurality of rows and a plurality of columns. In the liquid crystal panels 45R, 45G, and 45B, the transmittance of each pixel is changed by the drive circuit unit 43. By controlling the transmittance of the pixels, the light of each color transmitted through the liquid crystal panels 45R, 45G, and 45B is emitted to the cross dichroic prism 47. An image corresponding to each color gradation data is obtained.

クロスダイクロイックプリズム47は、赤色光、緑色光、青色光の色光ごとに入射面を有し、入射面はLED光源44R,44G,44Bに対してそれぞれ対向配置されている。クロスダイクロイックプリズム47は、4つの直角プリズムが貼り合わされ、その内面に赤色光を反射する誘電体多層膜と青色光を反射する誘電体多層膜とが十字状に形成されている。これらの誘電体多層膜によって3つの色光が合成されて、カラー画像を表す光が合成される。合成された光は、投射画像PIの映像(光)として方向L1へ出射される。   The cross dichroic prism 47 has an incident surface for each color light of red light, green light, and blue light, and the incident surfaces are disposed to face the LED light sources 44R, 44G, and 44B, respectively. In the cross dichroic prism 47, four right angle prisms are bonded, and a dielectric multilayer film that reflects red light and a dielectric multilayer film that reflects blue light are formed in a cross shape on the inner surface thereof. The three color lights are synthesized by these dielectric multilayer films, and the light representing the color image is synthesized. The combined light is emitted in the direction L1 as an image (light) of the projection image PI.

投射画像PIの映像(光)は、ハーフミラー48に入射し、ハーフミラー48からは方向L3および方向L5の方向に出射される。
ハーフミラー48は、入射した映像(光)の直進透過および90度光路を変更させる(反射)公知の透過型のミラーである。映像(光)の透過率および反射率は、例えば、共に50%程度である。ハーフミラー48を用いることで、入射した映像を2方向に分離することができる。尚、ハーフミラー48における方向L5および方向L3への映像(光)の光量損失が極力少なくなるように、LED光源44R,44G,44Bからの出射光量が調整されている。
The image (light) of the projection image PI is incident on the half mirror 48 and is emitted from the half mirror 48 in the directions L3 and L5.
The half mirror 48 is a known transmission type mirror that linearly transmits incident video (light) and changes (reflects) a 90-degree optical path. The transmittance and reflectance of the image (light) are both about 50%, for example. By using the half mirror 48, the incident image can be separated in two directions. The amount of light emitted from the LED light sources 44R, 44G, and 44B is adjusted so that the amount of light loss of the image (light) in the direction L5 and the direction L3 in the half mirror 48 is minimized.

方向L5へ進む映像(光)は、第1投射部32に入射する。
方向L3へ進む映像(光)は、第2投射レンズ49に入射する。
第2投射レンズ49は、投射光学系であり、スクリーンSC上に映像を拡大して表示する。第2投射レンズ49から投射された画像は、スクリーンSC上の面9Aに投射される。
The image (light) traveling in the direction L5 enters the first projection unit 32.
The image (light) traveling in the direction L3 enters the second projection lens 49.
The second projection lens 49 is a projection optical system, and displays an enlarged image on the screen SC. The image projected from the second projection lens 49 is projected onto the surface 9A on the screen SC.

(制御部)
図2に戻り、制御部50について説明する。
制御部50は、CPU(Central Processing Unit)等のプロセッサーを有して構成され、記憶部25に記憶されているプログラムを含む各種プログラム(図示は省略)に従ってプロジェクター3を構成する操作部21、計時部23、記憶部25、通信部27、第1投射装置30(撮像部31、第1投射部32)、第2投射部40、および映像処理部60などの各部を制御する。
(Control part)
Returning to FIG. 2, the controller 50 will be described.
The control unit 50 is configured to include a processor such as a CPU (Central Processing Unit), and the operation unit 21 that configures the projector 3 according to various programs (not shown) including the programs stored in the storage unit 25, the time measurement The unit 23, the storage unit 25, the communication unit 27, the first projection device 30 (the imaging unit 31, the first projection unit 32), the second projection unit 40, and the video processing unit 60 are controlled.

制御部50は、撮像情報解析部52、描画処理部57などを機能部として有している。また、撮像情報解析部52は、投射位置検出部53、指示体抽出部55などの機能部で構成されている。但し、これらの機能部は、一実施例として記載したものに過ぎず、必ずしも全ての機能部および構成を必須構成としなくともよい。また、これら以外の機能部を必須構成としてもよい。   The control unit 50 includes an imaging information analysis unit 52, a drawing processing unit 57, and the like as functional units. The imaging information analysis unit 52 includes functional units such as a projection position detection unit 53 and a pointer extraction unit 55. However, these functional units are merely described as an example, and all the functional units and configurations are not necessarily required. Moreover, it is good also considering a function part other than these as an essential structure.

撮像情報解析部52は、撮像部31から出力された撮像画像データを取得して、描画ボードBDの位置と、指示体PNの位置とを解析する。なお、上述したように撮像部31の第1投射部32との連動機構および自動ズーム機構により、撮像部31によって撮像された画像(撮像画像)の中央部分には、投射画像PIが記録されている。   The imaging information analysis unit 52 acquires the captured image data output from the imaging unit 31, and analyzes the position of the drawing board BD and the position of the indicator PN. As described above, the projection image PI is recorded in the central portion of the image (captured image) captured by the imaging unit 31 by the interlocking mechanism of the imaging unit 31 with the first projection unit 32 and the automatic zoom mechanism. Yes.

投射位置検出部53では、撮像画像を解析して第1投射部32によって投射された投射画像PIが描画ボードBDに投射されているか否か検出する。投射されていない場合は、描画ボードBDに投射するように第1投射部32の投射方向を調整する。
詳しくは、投射位置検出部53は、撮像部31から取得した撮像画像データに、マーク6が含まれているか検出し、全てのマーク6(例えば、描画ボードBDの頂点部分の4箇所)が含まれていない場合は、位置調整部35に対して、全反射ミラー33および第1投射レンズ37の角度を変更する調整制御コマンドを送信する。位置調整部35では、調整制御コマンドに基づいて、駆動機構を駆動し全反射ミラー33および第1投射レンズ37の角度を調整する。第1投射部32の投射方向が変更されると、撮像部31の撮像方向も連動して変更される。
投射位置検出部53は、撮像画像内に全てのマーク6が含まれたことを検出する(描画ボードBDの外周部分が撮像画像内の外周部分の位置に配置される)と、全てのマーク6の内側に投射画像PIが収まるように、第1投射装置30(撮像部31)の自動ズーム機構に対して調整制御コマンドを送信する。全てのマーク6の内側にフィットするサイズの投射画像PIが収まったことを検出すると、第1投射装置30(位置調整部35)から、全反射ミラー33や第1投射レンズ37の調整角度の情報と、第1投射装置30(撮像部31)の自動ズーム機構のズーム値情報などを含む情報を取得し記憶する。また、マーク6の内側にフィットした投射画像PIとのフィット位置情報(マーク6と投射画像PIとの位置関係を示す情報)も記憶される。これらの第1投射装置30から取得した情報は、プロジェクター3と描画ボードBDとの相対位置に係わる情報である。
なお、描画ボードBDの位置が移動された場合は、再度、位置調整部35によって投射画像PIが全てのマーク6の内側に入るように調整される。
The projection position detection unit 53 analyzes the captured image and detects whether or not the projection image PI projected by the first projection unit 32 is projected on the drawing board BD. When not projected, the projection direction of the 1st projection part 32 is adjusted so that it may project on drawing board BD.
Specifically, the projection position detection unit 53 detects whether or not the mark 6 is included in the captured image data acquired from the imaging unit 31, and includes all the marks 6 (for example, four locations at the apex portion of the drawing board BD). If not, an adjustment control command for changing the angles of the total reflection mirror 33 and the first projection lens 37 is transmitted to the position adjustment unit 35. The position adjustment unit 35 drives the drive mechanism to adjust the angles of the total reflection mirror 33 and the first projection lens 37 based on the adjustment control command. When the projection direction of the first projection unit 32 is changed, the imaging direction of the imaging unit 31 is also changed in conjunction with it.
When the projection position detection unit 53 detects that all the marks 6 are included in the captured image (the outer peripheral portion of the drawing board BD is arranged at the position of the outer peripheral portion in the captured image), all the marks 6 are detected. An adjustment control command is transmitted to the automatic zoom mechanism of the first projection device 30 (imaging unit 31) so that the projected image PI is contained inside the image. When it is detected that the projection image PI having a size that fits inside all the marks 6 has been received, information on the adjustment angles of the total reflection mirror 33 and the first projection lens 37 from the first projection device 30 (position adjustment unit 35). And information including the zoom value information of the automatic zoom mechanism of the first projection device 30 (imaging unit 31) is acquired and stored. In addition, fitting position information (information indicating the positional relationship between the mark 6 and the projection image PI) with the projection image PI fitted inside the mark 6 is also stored. Information acquired from these first projection devices 30 is information relating to the relative position between the projector 3 and the drawing board BD.
When the position of the drawing board BD is moved, the position adjustment unit 35 again adjusts the projection image PI so that it is inside all the marks 6.

また、投射位置検出部53では、操作部21を制御して、プレゼンターに対して描画ボードBDの位置を合わせるように報知する構成であってもよい。例えば、リモコン部分の表示部に「描画ボード上に投射画像を表示させてください。」といったメッセージを表示して、以降、投射位置検出部53側では、撮像部31から撮像画像を取得して、マーク6が含まれるようになったか否か検出する。
なお、投射位置検出部53は、検出部に相当する。
Further, the projection position detection unit 53 may be configured to control the operation unit 21 to notify the presenter to align the position of the drawing board BD. For example, a message such as “Please display the projected image on the drawing board” is displayed on the display unit of the remote control unit. Thereafter, the projection position detection unit 53 side acquires the captured image from the imaging unit 31, It is detected whether or not the mark 6 is included.
Note that the projection position detection unit 53 corresponds to a detection unit.

指示体抽出部55は、指示体PNの先端の位置7Bを抽出する。詳しくは、撮像部31から取得した撮像画像データに含まれる指示体PNの先端の位置7Bおよびマーク6の位置、そして、投射されている投射画像PIのフィット位置情報を参照して、投射画像PIにおける位置7Bの位置を抽出する。位置7Bの位置は、投射画像PIの画像データが有する各ピクセルに対応する座標として抽出される。
なお、指示体抽出部55は、抽出部に相当する。
The indicator extraction unit 55 extracts the position 7B of the tip of the indicator PN. Specifically, the projection image PI is referred to by referring to the position 7B and the position of the mark 6 of the indicator PN included in the captured image data acquired from the imaging unit 31, and the fit position information of the projected image PI being projected. The position 7B is extracted. The position 7B is extracted as coordinates corresponding to each pixel included in the image data of the projection image PI.
The indicator extraction unit 55 corresponds to an extraction unit.

描画処理部57は、指示体PNの先端の位置7Bに対応する位置に線などを描画する。詳しくは、描画処理部57は、描画されている状態を記憶部25に描画画像データとして記憶する。描画画像データは、投射画像PIと同じサイズ(ピクセル数)を有している。描画処理部57では、指示体PNにより指定された位置に描画するオブジェクトの属性を、操作部21を介して取得し、保有している。例えば、図1に示した描画画像DIでは、指示体PNに指定された位置に太さ5ピクセル分の黒色の線といったオブジェクトの属性を保有している。
描画処理部57は、指示体PNの先端の位置7Bを取得すると、描画画像データにオブジェクトを上書きして更新する。描画画像データに、繰り返し更新されることにより、指示体PNの軌跡が描画画像DIに形成される。描画画像データが更新される度に、描画画像DIは映像処理部60へ出力される。
なお、描画処理部57は、描画画像生成部に相当する。
The drawing processing unit 57 draws a line or the like at a position corresponding to the position 7B at the tip of the indicator PN. Specifically, the drawing processing unit 57 stores the drawn state in the storage unit 25 as drawing image data. The drawing image data has the same size (number of pixels) as that of the projection image PI. The drawing processing unit 57 acquires and holds the attribute of the object to be drawn at the position designated by the indicator PN via the operation unit 21. For example, the drawn image DI shown in FIG. 1 has an object attribute such as a black line having a thickness of 5 pixels at the position designated by the indicator PN.
When the drawing processing unit 57 obtains the tip position 7B of the indicator PN, the drawing processing unit 57 updates the drawing image data by overwriting the object. By repeatedly updating the drawing image data, the locus of the indicator PN is formed in the drawing image DI. Each time the drawing image data is updated, the drawing image DI is output to the video processing unit 60.
The drawing processing unit 57 corresponds to a drawing image generation unit.

映像処理部60では、制御部50(描画処理部57)および通信部27から供給される画像データから映像信号を生成し、第2投射部40へ出力する。映像処理部60では、描画処理部57から描画画像DIが供給された場合は、通信部27から供給された機器画像OIに描画画像DIを重畳して合成された投射画像データ(投射画像PI)を生成する。投射画像PIを映像信号に変換し、第2投射部40へ出力する。
なお、映像処理部60は、投射画像生成部に相当する。
The video processing unit 60 generates a video signal from the image data supplied from the control unit 50 (drawing processing unit 57) and the communication unit 27 and outputs the video signal to the second projection unit 40. In the video processing unit 60, when the drawing image DI is supplied from the drawing processing unit 57, projection image data (projection image PI) synthesized by superimposing the drawing image DI on the device image OI supplied from the communication unit 27. Is generated. The projection image PI is converted into a video signal and output to the second projection unit 40.
The video processing unit 60 corresponds to a projection image generation unit.

以上の構成によって、投射位置検出部53では、撮像部31から取得した撮像画像から、投射画像PIが描画ボードBDの面5Aに投射される描画ボードBDの位置(プロジェクター3に対する描画ボードBDの相対位置)を検出する。そして、指示体抽出部55では、描画ボードBD上の指示体PNの位置7B(7A)に対応する投射画像PI上の位置情報を抽出している。描画処理部57では、この投射画像PI上の位置情報に基づいて描画画像DIを生成する。映像処理部60では、描画画像DIを外部機器10から入力した機器画像OIに重畳して合成した投射画像PIを第2投射部40および第1投射装置30へ出力する。このようにして、プロジェクター3では、第1投射装置30と第2投射部40の2系統の投射部を有し、描画ボードBD上で操作される指示体PNによって描画された描画画像を、外部機器10から供給された機器画像OIに重畳して合成した投射画像PIを、第1投射装置30および第2投射部40へ投射する。その結果、描画ボードBD上で指示体PNを操作して、機器画像OIの注目箇所を指摘することができる。   With the above configuration, in the projection position detection unit 53, the position of the drawing board BD on which the projection image PI is projected onto the surface 5 </ b> A of the drawing board BD from the captured image acquired from the imaging unit 31 (relative to the drawing board BD with respect to the projector 3). Position). Then, the pointer extraction unit 55 extracts position information on the projection image PI corresponding to the position 7B (7A) of the pointer PN on the drawing board BD. The drawing processing unit 57 generates a drawing image DI based on the position information on the projection image PI. The video processing unit 60 outputs the projection image PI obtained by superimposing the synthesized image DI on the device image OI input from the external device 10 to the second projection unit 40 and the first projection device 30. In this way, the projector 3 has two systems of projection units, the first projection device 30 and the second projection unit 40, and draws a drawing image drawn by the indicator PN operated on the drawing board BD to the outside. The projection image PI superimposed and synthesized on the device image OI supplied from the device 10 is projected onto the first projection device 30 and the second projection unit 40. As a result, by operating the indicator PN on the drawing board BD, it is possible to point out the point of interest in the device image OI.

(投射処理方法)
次に、投射処理方法について、図4を用いて説明する。
図4は、投射処理を表すフローチャート図である。本フローは、記憶部25に格納されているプログラム(図示は省略)に基づいて、制御部50が、通信部27、第1投射装置30、第2投射部40、および映像処理部60を含む各部を制御することにより実行される処理である。なお、本フローは、プロジェクターの制御方法に相当する。
(Projection processing method)
Next, the projection processing method will be described with reference to FIG.
FIG. 4 is a flowchart showing the projection process. In this flow, based on a program (not shown) stored in the storage unit 25, the control unit 50 includes the communication unit 27, the first projection device 30, the second projection unit 40, and the video processing unit 60. This process is executed by controlling each unit. This flow corresponds to a projector control method.

ステップS100では、準備が行われる。詳しくは、通信部27、撮像部31を含む第1投射装置30、および第2投射部40などの各部を起動する。通信部27では、起動されると通信部27のコネクターに入力される信号(例えば、外部機器10から入力される映像信号)が検出可能になる。撮像部31では、起動されると第1投射部32が投射する投射方向の撮像が開始される。   In step S100, preparation is performed. Specifically, each unit such as the communication unit 27, the first projection device 30 including the imaging unit 31, and the second projection unit 40 is activated. When the communication unit 27 is activated, a signal (for example, a video signal input from the external device 10) input to the connector of the communication unit 27 can be detected. When the imaging unit 31 is activated, imaging in the projection direction projected by the first projection unit 32 is started.

ステップS110は、イベント処理ループである。詳しくは、ステップS100により各部が起動されることにより各種イベントが発生し、発生したイベント毎に予め登録されたイベント処理が実行される。複数のイベント処理は、マルチタスク処理、擬似マルチタスク処理、またはマルチスレッド処理により並列実行される。   Step S110 is an event processing loop. Specifically, various events occur when each unit is activated in step S100, and event processing registered in advance is executed for each event that occurs. The plurality of event processes are executed in parallel by a multitask process, a pseudo multitask process, or a multithread process.

以降のステップでは、撮像部31によって撮像された撮像画像の入力が検出された場合(ステップS120〜S160)、および通信部27から機器画像OIの入力が検出された場合(ステップS200〜S210)について実行されるイベント処理について説明する。なお、撮像部31によって撮像して撮像画像を出力する処理は、撮像工程に相当する。   In subsequent steps, when an input of a captured image captured by the imaging unit 31 is detected (steps S120 to S160), and when an input of the device image OI is detected from the communication unit 27 (steps S200 to S210). The event processing to be executed will be described. In addition, the process which images by the imaging part 31 and outputs a captured image is corresponded to an imaging process.

ステップS120では、撮像画像を取得する。撮像部31によって撮像された撮像画像データを入力する。   In step S120, a captured image is acquired. Captured image data captured by the imaging unit 31 is input.

ステップS130では、描画ボードBDを検出する。詳しくは、撮像画像を解析し、撮像画像に描画ボードBDのマーク6が含まれているか否か検出する。描画ボードBD上の全てのマーク6を検出すると、次のステップへ進む。
描画ボードBD上の全てのマーク6を検出するまでの間は、第1投射装置30に対して調整制御コマンドを送信して、第1投射部32の投射方向を微調整する。
なお、本ステップは、検出工程に相当する。
In step S130, the drawing board BD is detected. Specifically, the captured image is analyzed and it is detected whether or not the mark 6 of the drawing board BD is included in the captured image. When all the marks 6 on the drawing board BD are detected, the process proceeds to the next step.
Until all the marks 6 on the drawing board BD are detected, an adjustment control command is transmitted to the first projection device 30 to finely adjust the projection direction of the first projection unit 32.
This step corresponds to a detection process.

ステップS140では、描画ボードBDの位置を検出する。詳しくは、第1投射装置30から、第1投射部32の投射方向に係わる情報を取得し記憶部25に記憶する。また、第1投射部32から投射される投射画像PIが、全てのマーク6の内側に最大にフィットするように配置された状態のフィット位置情報を取得する。これらの第1投射装置30から取得した情報およびフィット位置情報は、プロジェクター3と描画ボードBDとの相対位置に係わる情報である。   In step S140, the position of the drawing board BD is detected. Specifically, information related to the projection direction of the first projection unit 32 is acquired from the first projection device 30 and stored in the storage unit 25. Moreover, the fitting position information of the state arrange | positioned so that the projection image PI projected from the 1st projection part 32 may fit the inside of all the marks 6 to the maximum is acquired. The information acquired from the first projection device 30 and the fit position information are information related to the relative position between the projector 3 and the drawing board BD.

ステップS150では、指示体PNの位置を検出する。詳しくは、撮像画像から指示体PNの先端の位置7Bを取得する。投射画像PI上における位置7Bの座標値を、マーク6の位置情報およびステップS140において取得したフィット位置情報を参照して算出する。なお、本ステップは、抽出工程に相当する。   In step S150, the position of the indicator PN is detected. Specifically, the position 7B of the tip of the indicator PN is acquired from the captured image. The coordinate value of the position 7B on the projection image PI is calculated with reference to the position information of the mark 6 and the fit position information acquired in step S140. This step corresponds to an extraction process.

ステップS160では、描画画像DIを生成する。詳しくは、ステップS150で算出した指示体PNの座標値を記憶部25の描画画像データに書き込む。ステップS150と本ステップを繰り返すことにより、指示体PNの先端の位置7Bの軌跡が描かれた描画画像DIが生成される。なお、本ステップは、描画画像生成工程に相当する。   In step S160, a drawing image DI is generated. Specifically, the coordinate value of the indicator PN calculated in step S150 is written in the drawing image data in the storage unit 25. By repeating step S150 and this step, a drawing image DI in which the locus of the position 7B of the tip of the indicator PN is drawn is generated. This step corresponds to a drawing image generation process.

ステップS200では、機器画像OIの入力を検出する。通信部27から外部機器10から映像信号が入力されたか否かを検出する。   In step S200, the input of the device image OI is detected. It is detected whether a video signal is input from the external device 10 from the communication unit 27.

ステップS210では、機器画像OIを取得する。詳しくは、外部機器10から通信部27を介して受信し、受信した映像信号を機器画像OIの機器画像データとして記憶部25へ記憶する。なお、本ステップは、受信工程に相当する。   In step S210, the device image OI is acquired. Specifically, the received video signal is received from the external device 10 via the communication unit 27, and the received video signal is stored in the storage unit 25 as device image data of the device image OI. This step corresponds to a reception process.

ステップS250では、機器画像OIに描画画像DIを重畳し、投射画像PIを生成する。詳しくは、ステップS200において記憶された機器画像OIの画像データと、ステップS160で生成された描画画像DIの画像データを重畳し、投射画像PIの画像データを生成する。なお、本ステップは、投射画像生成工程に相当する。   In step S250, the drawing image DI is superimposed on the device image OI to generate the projection image PI. Specifically, the image data of the device image OI stored in step S200 and the image data of the drawing image DI generated in step S160 are superimposed to generate image data of the projection image PI. This step corresponds to a projection image generation process.

ステップS260では、投射画像PIをスクリーンSCおよび描画ボードBDへ投射する。ステップS250で生成された投射画像PIを第2投射部40へ出力(スクリーンSCへ投射)する。出力した投射画像PIを、第2投射部40を介して第1投射部32へ出力(描画ボードBDへ投射)する。なお、本ステップは、第1投射工程と第2投射工程に相当する。   In step S260, the projection image PI is projected onto the screen SC and the drawing board BD. The projection image PI generated in step S250 is output to the second projection unit 40 (projected on the screen SC). The output projection image PI is output (projected onto the drawing board BD) to the first projection unit 32 via the second projection unit 40. This step corresponds to a first projection process and a second projection process.

ステップS270では、投射終了か否か判定する。投射終了でない場合は、ステップS110に示すイベント処理ループへ進み、投射終了である場合は、本フローを終了する。   In step S270, it is determined whether or not the projection has ended. If it is not the end of projection, the process proceeds to the event processing loop shown in step S110. If it is the end of projection, this flow is terminated.

以上のフローにより、描画ボードBD上で操作された指示体PNの軌跡は、機器画像PIに重畳されて、第2投射部40および第1投射部32へ投射されている。   With the above flow, the locus of the indicator PN operated on the drawing board BD is superimposed on the device image PI and projected onto the second projection unit 40 and the first projection unit 32.

以上述べてきたように、本実施形態に係わるプロジェクションシステム1、プロジェクター3、およびそれらの制御方法によれば、以下の効果を得ることができる。
プロジェクター3は、同一の投射画像PIを投射する第1投射装置30(第1投射部32を含む)と第2投射部40との2つの投射部を備えている。第1投射装置30には、第1投射部32と連動して第1投射面の面5Aの方向を撮像する撮像部31が備えられている。撮像情報解析部52は、撮像部31から撮像画像を取得し、面5Aが描画ボードBD上に投射されるように調整し、また、描画ボードBD上(面5Aまたは面5B)で操作される指示体PNの位置情報(軌跡)を抽出する。描画処理部57は、指示体PNの軌跡に基づいて描画画像DIを生成する。映像処理部60は、描画画像DIと機器画像OIを重畳して合成し、投射画像PIを生成する。生成された投射画像PIは、第1投射部32と第2投射部40へ投射される。このような一連の処理が繰り返されることにより、投射画像PIが描画ボードBDに投射された面5A,5Bの一部を、指示体PNにより指定するといった容易な操作により、プレゼンテーションをする情報の注目箇所などを容易に指摘することができる。
また、指示体PNによる操作は、プロジェクター3に備えられた第1投射部32により投射された面5A,5Bおよび撮像部31において取得することができるため、従来方法のように複雑な設定や操作を必要とする携帯端末を必要とせず、また、携帯端末にソフトウェアをインストールする必要もない。
従って、複雑な設定や操作を必要としないで、プレゼンテーションをする情報の注目箇所などを容易な操作で指摘することができるプロジェクションシステム1を提供することができる。
As described above, according to the projection system 1, the projector 3, and the control method thereof according to the present embodiment, the following effects can be obtained.
The projector 3 includes two projection units, a first projection device 30 (including the first projection unit 32) and a second projection unit 40 that project the same projection image PI. The first projection device 30 includes an imaging unit 31 that images the direction of the surface 5 </ b> A of the first projection surface in conjunction with the first projection unit 32. The imaging information analysis unit 52 acquires a captured image from the imaging unit 31, adjusts the surface 5A to be projected onto the drawing board BD, and is operated on the drawing board BD (the surface 5A or the surface 5B). The position information (trajectory) of the indicator PN is extracted. The drawing processing unit 57 generates a drawing image DI based on the locus of the indicator PN. The video processing unit 60 superimposes and synthesizes the drawing image DI and the device image OI to generate a projection image PI. The generated projection image PI is projected to the first projection unit 32 and the second projection unit 40. By repeating such a series of processing, attention is given to information to be presented by an easy operation such as designating part of the surfaces 5A and 5B on which the projection image PI is projected on the drawing board BD by the indicator PN. The location can be pointed out easily.
Further, since the operation by the indicator PN can be acquired by the surfaces 5A and 5B projected by the first projection unit 32 provided in the projector 3 and the imaging unit 31, complicated settings and operations as in the conventional method are possible. It is not necessary to have a portable terminal that requires the software, and it is not necessary to install software on the portable terminal.
Therefore, it is possible to provide the projection system 1 that can point out a noticed point of information to be presented by an easy operation without requiring complicated settings and operations.

(実施形態2)
図5は、実施形態2におけるプロジェクションシステムの概要を説明する図である。
本実施形態に係わるプロジェクションシステム100について、図5を中心に図2を交えて説明する。なお、実施形態1と同一の構成部位については、同一の番号を使用し、重複する説明は省略する。
(Embodiment 2)
FIG. 5 is a diagram for explaining the outline of the projection system according to the second embodiment.
A projection system 100 according to this embodiment will be described with reference to FIG. In addition, about the component same as Embodiment 1, the same number is used and the overlapping description is abbreviate | omitted.

プロジェクションシステム100は、プロジェクター103、第1投射面を有するテーブルTBL、第2投射面を有するスクリーンSCなどで構成されている。プロジェクター103は、テーブルTBL上に設置されている。   The projection system 100 includes a projector 103, a table TBL having a first projection surface, a screen SC having a second projection surface, and the like. The projector 103 is installed on the table TBL.

外部機器10は、通信4を介してプロジェクター103へ機器画像OIを供給する。プロジェクター103は、第1投射装置130を備え、テーブルTBL上に投射画像PIを投射(投射PR101)する。テーブルTBLの上面は反射面であり、好適例として白色をしている。また、テーブルTBL上に白紙や白色ボードが置かれていてもよい。テーブルTBLに対して投射PR101された投射画像PIの投射領域は第1投射面に相当する。プレゼンターは、投射画像PIが投射されている第1投射面に対して指示体PNを操作し、投射画像PIの注目箇所などを指摘する。   The external device 10 supplies the device image OI to the projector 103 via the communication 4. The projector 103 includes a first projection device 130 and projects a projection image PI (projection PR101) on the table TBL. The upper surface of the table TBL is a reflecting surface, and is white as a suitable example. A white paper or a white board may be placed on the table TBL. The projection area of the projection image PI projected PR101 with respect to the table TBL corresponds to the first projection surface. The presenter operates the indicator PN on the first projection surface on which the projection image PI is projected, and points out a point of interest of the projection image PI.

第1投射装置130は、撮像部31(図2)を備え、撮像部31は、第1投射面と第1投射面に対する指示体PN100の先端部を撮像し撮像画像を生成する。プロジェクター103の制御部50(図2)では、撮像画像に含まれる第1投射面が撮像されている画像領域と、当該画像領域内に対して指し示された指示体PN100の先端部の位置情報を抽出する。抽出した位置情報に基づいて、描画画像DIを生成し、機器画像OIと重畳した投射画像PIを第2投射部40と第1投射装置130へ投射する。第2投射部40は、スクリーンSCへ投射画像PIを投射(投射PR102)する。
なお、第1投射装置130と第2投射部40とでは、同じ投射画像PIを投射するが、投射される投射画像PIの上下左右方向については、プレゼンターが操作する方向に応じて変更することができる。
The 1st projection apparatus 130 is provided with the imaging part 31 (FIG. 2), and the imaging part 31 images the front-end | tip part of the indicator PN100 with respect to a 1st projection surface and a 1st projection surface, and produces | generates a captured image. In the control unit 50 (FIG. 2) of the projector 103, an image area in which the first projection surface included in the captured image is captured, and position information of the tip of the indicator PN100 pointed to the image area. To extract. Based on the extracted position information, a drawing image DI is generated, and a projection image PI superimposed on the device image OI is projected onto the second projection unit 40 and the first projection device 130. The second projection unit 40 projects the projection image PI onto the screen SC (projection PR102).
The first projection device 130 and the second projection unit 40 project the same projection image PI, but the vertical and horizontal directions of the projected projection image PI can be changed according to the direction operated by the presenter. it can.

以上述べてきたように、本実施形態によるプロジェクションシステム100では、第1投射装置130によって、テーブルTBLや白紙などのように多様な領域に投射PR101することができるため、プロジェクター103を机上などに置く場合に好適である。また、指示体PN100を投射PR101によって投射された第1投射面(反射面)上で操作することができ、机上による操作が可能である。   As described above, in the projection system 100 according to the present embodiment, the first projection device 130 can perform projection PR101 on various areas such as the table TBL and white paper, so the projector 103 is placed on a desk or the like. It is suitable for the case. In addition, the indicator PN100 can be operated on the first projection surface (reflection surface) projected by the projection PR101, and can be operated on a desk.

(実施形態3)
図6は、実施形態3におけるプロジェクションシステムの概要を説明する図である。
本実施形態に係わるプロジェクションシステム200について、図6を中心に図2を交えて説明する。なお、上述の実施形態と同一の構成部位については、同一の番号を使用し、重複する説明は省略する。
(Embodiment 3)
FIG. 6 is a diagram for explaining the outline of the projection system according to the third embodiment.
A projection system 200 according to this embodiment will be described with reference to FIG. In addition, about the component same as the above-mentioned embodiment, the same number is used and the overlapping description is abbreviate | omitted.

プロジェクションシステム200は、プロジェクター203、第1投射面を有するテーブルTBL、第2投射面を有するスクリーンSCなどで構成されている。プロジェクター203は、天井TPに設置されている。   The projection system 200 includes a projector 203, a table TBL having a first projection surface, a screen SC having a second projection surface, and the like. The projector 203 is installed on the ceiling TP.

外部機器10は、通信4を介してプロジェクター203へ機器画像OIを供給する。プロジェクター203は、第1投射装置230を備え、下方に設置されるテーブルTBL上に投射画像PIを投射(投射PR201)する。テーブルTBLの上面は反射面であり、好適例として白色をしている。また、テーブルTBL上に白紙や白色ボードが置かれていてもよい。テーブルTBLに対して投射PR201された投射画像PIの投射領域は第1投射面に相当する。プレゼンターは、投射画像PIが投射されている第1投射面に対して指示体PN200を操作し、投射画像PIの注目箇所などを指摘する。   The external device 10 supplies the device image OI to the projector 203 via the communication 4. The projector 203 includes a first projection device 230 and projects a projection image PI (projection PR201) onto a table TBL installed below. The upper surface of the table TBL is a reflecting surface, and is white as a suitable example. A white paper or a white board may be placed on the table TBL. The projection area of the projection image PI projected PR201 on the table TBL corresponds to the first projection surface. The presenter operates the indicator PN200 on the first projection surface on which the projection image PI is projected, and points out a point of interest of the projection image PI.

第1投射装置230は、撮像部31(図2)を備え、撮像部31は、第1投射面と第1投射面に対する指示体PN200の先端部を撮像し撮像画像を生成する。プロジェクター203の制御部50(図2)では、撮像画像に含まれる第1投射面が撮像されている画像領域と、当該画像領域内に対して指し示された指示体PN200の先端部の位置情報を抽出する。抽出した位置情報に基づいて、描画画像DIを生成し、機器画像OIと重畳した投射画像PIを第2投射部40と第1投射装置230へ投射する。第2投射部40は、スクリーンSCへ投射画像PIを投射(投射PR202)する。
なお、第1投射装置230と第2投射部40とでは、同じ投射画像PIを投射するが、投射される投射画像PIの上下左右方向については、プレゼンターが操作する方向に応じて変更することができる。
The 1st projection apparatus 230 is provided with the imaging part 31 (FIG. 2), and the imaging part 31 images the front-end | tip part of the indicator PN200 with respect to a 1st projection surface and a 1st projection surface, and produces | generates a captured image. In the control unit 50 (FIG. 2) of the projector 203, the image area where the first projection surface included in the captured image is imaged, and the positional information of the tip of the indicator PN200 pointed to the image area. To extract. Based on the extracted position information, a drawing image DI is generated, and a projection image PI superimposed on the device image OI is projected onto the second projection unit 40 and the first projection device 230. The second projection unit 40 projects the projection image PI onto the screen SC (projection PR202).
The first projection device 230 and the second projection unit 40 project the same projection image PI, but the vertical and horizontal directions of the projected projection image PI can be changed according to the direction operated by the presenter. it can.

以上述べてきたように、本実施形態によるプロジェクションシステム200では、第1投射装置230によって、プロジェクター203から向かって下方のテーブルTBLや白紙などのように多様な領域に投射PR201することができるため、プロジェクター203が天井TPなどに設置される場合に好適である。また、指示体PN200を投射PR201によって投射された第1投射面(反射面)上で操作することができ、机上による操作が可能である。   As described above, in the projection system 200 according to the present embodiment, since the first projection device 230 can project the projection PR201 onto various areas such as the table TBL or blank sheet below from the projector 203, This is suitable when the projector 203 is installed on a ceiling TP or the like. In addition, the indicator PN200 can be operated on the first projection surface (reflection surface) projected by the projection PR201, and can be operated on a desk.

なお、本発明は上述した実施形態に限定されず、上述した実施形態に種々の変更や改良などを加えることが可能である。変形例を以下に述べる。   Note that the present invention is not limited to the above-described embodiment, and various modifications and improvements can be added to the above-described embodiment. A modification will be described below.

(変形例1)
上述の実施形態において、第1投射装置30,130,230に、更に、第1投射レンズ37の焦点を調節する機構が備えられていてもよい。具体的には、撮像部31において、撮像された投射画像PIを制御部50へ出力する。制御部50では、撮像した投射画像PIのコントラストなどを分析し、焦点が合っているか否か判定する。焦点が合っていない場合は、第1投射レンズ37の焦点を調節する。このような構成によって、第1投射装置30,130,230において第1投射面の位置に変動があった場合であっても自動で焦点を合わすことができる。
(Modification 1)
In the above-described embodiment, the first projection devices 30, 130, and 230 may further include a mechanism that adjusts the focus of the first projection lens 37. Specifically, the imaging unit 31 outputs the captured projection image PI to the control unit 50. The control unit 50 analyzes the contrast of the captured projection image PI and determines whether or not the image is in focus. If it is not in focus, the focus of the first projection lens 37 is adjusted. With such a configuration, even if there is a change in the position of the first projection surface in the first projection devices 30, 130, and 230, it is possible to automatically focus.

(変形例2)
上述の実施形態および変形例では、プロジェクター3(103,203)において、第1投射装置30(130,230)の第1投射部32から投射する投射方向を、制御部50の制御(調整制御コマンド)によって実現されるとしたが、そのような構成に限定されない。第1投射部32から投射する投射方向は、第1投射装置30(130,230)内に自動追尾機能を設け、制御部50を介さずに投射方向を決める構成であってもよい。
(Modification 2)
In the above-described embodiment and the modification, the projector 3 (103, 203) controls the control direction of the control unit 50 (adjustment control command) based on the projection direction projected from the first projection unit 32 of the first projection device 30 (130, 230). However, the present invention is not limited to such a configuration. The projection direction projected from the first projection unit 32 may be configured to provide an automatic tracking function in the first projection device 30 (130, 230) and determine the projection direction without using the control unit 50.

例えば、第1投射装置30の場合では、撮像部31に描画ボードBDを検出する検出回路(CPUおよびプログラムを含む)を設け、さらに第1投射部32の位置調整部35を制御する。当該検出回路では、描画ボードBDの投射領域であることを示す全て(例えば、四隅)のマーク6の内側に、投射画像PIが収まったか否か検出する。収まっていないと検出した場合は、位置調整部35を制御して投射方向を変更する。当該検出回路では、検出および位置調整部35の制御を繰り返して、描画ボードBDに投射画像PIが収まるような最適な投射方向を自動で検出することができる。   For example, in the case of the first projection device 30, a detection circuit (including a CPU and a program) that detects the drawing board BD is provided in the imaging unit 31, and the position adjustment unit 35 of the first projection unit 32 is further controlled. In the detection circuit, it is detected whether or not the projection image PI is placed inside all the marks 6 indicating the projection area of the drawing board BD (for example, four corners). If it is detected that it does not fit, the position adjustment unit 35 is controlled to change the projection direction. In the detection circuit, it is possible to automatically detect an optimal projection direction in which the projection image PI is accommodated on the drawing board BD by repeating the detection and control of the position adjustment unit 35.

例えば、第1投射装置130,230の場合では、撮像部31に第1投射面の投射状態(投射画像PIの反射状態)の良し悪しを検出する検出回路(CPUおよびプログラムを含む)を設け、さらに第1投射部32の位置調整部35を制御する。当該検出回路では、撮像部31により撮像した投射画像PIと第1投射部32から投射された投射画像PIとをパターンマッチングし、両者の画像において差異が少なくなる投射方向を検出する。当該検出回路では、検出および位置調整部35の制御を繰り返して、第1投射面に投射画像PIの投射状態が良好になるような最適な投射方向を自動で検出することができる。
なお、本変形例における検出回路は、検出部に相当する。
For example, in the case of the first projection devices 130 and 230, the imaging unit 31 is provided with a detection circuit (including a CPU and a program) that detects whether the projection state of the first projection surface (reflection state of the projection image PI) is good or bad. Further, the position adjustment unit 35 of the first projection unit 32 is controlled. The detection circuit performs pattern matching between the projection image PI captured by the imaging unit 31 and the projection image PI projected from the first projection unit 32, and detects a projection direction in which the difference between the two images is reduced. In the detection circuit, it is possible to automatically detect an optimal projection direction such that the projection state of the projection image PI is good on the first projection surface by repeating the detection and control of the position adjustment unit 35.
Note that the detection circuit in this modification corresponds to a detection unit.

本変形例の構成では、制御部50を介さず第1投射装置30(130,230)において、第1投射部32の投射方向を決定することができるため、制御部50の処理負荷を減らして高速な投射方向の自動調整をすることができる。   In the configuration of the present modification, the projection direction of the first projection unit 32 can be determined in the first projection device 30 (130, 230) without using the control unit 50, so the processing load on the control unit 50 is reduced. High-speed projection direction can be automatically adjusted.

(変形例3)
上述の実施形態および変形例では、プロジェクター3(103,203)は、外部機器10から機器画像OIを入力するだけの構成であったが、外部機器10側で情報を出力する構成であってもよい。具体的には、プロジェクター3(103,203)から指示体PNの位置情報を外部機器10へ出力する。外部機器10側では、入力した指示体PNの位置情報を外部機器10の表示装置に表示されている機器画像OIに描画して表示することができる。また、プロジェクター3(103,203)から描画画像DIを外部機器10へ出力し、外部機器10側で描画画像DIと機器画像OIとを重畳した画像を表示装置へ表示させてもよい。また、プロジェクター3(103,203)から投射画像PIを外部機器10へ出力し、外部機器10側で投射画像PIを表示装置へ表示させてもよい。
このような構成にすることにより、外部機器10の表示装置においても、スクリーンSCへ投射される投射画像PIと同様な画面を視認することができる。
(Modification 3)
In the above-described embodiment and modification, the projector 3 (103, 203) is configured to only input the device image OI from the external device 10, but may be configured to output information on the external device 10 side. Good. Specifically, the position information of the indicator PN is output from the projector 3 (103, 203) to the external device 10. On the external device 10 side, the input positional information of the indicator PN can be drawn and displayed on the device image OI displayed on the display device of the external device 10. Alternatively, the drawing image DI may be output from the projector 3 (103, 203) to the external device 10, and an image obtained by superimposing the drawing image DI and the device image OI may be displayed on the display device on the external device 10 side. Alternatively, the projection image PI may be output from the projector 3 (103, 203) to the external device 10, and the projection image PI may be displayed on the display device on the external device 10 side.
By adopting such a configuration, a screen similar to the projection image PI projected on the screen SC can be viewed on the display device of the external device 10.

(変形例4)
上述の実施形態および変形例において、投射部の構成(図3)を、映像処理部60から入射された投射画像PIの映像を、第2投射部40を経由して第1投射部32へ入射させる構成としていたが、そのような構成に限定されない。映像処理部60から両投射部へ直接に投射画像PIの映像を入射させる構成であってもよい。
(Modification 4)
In the embodiment and the modification described above, the configuration of the projection unit (FIG. 3), the video of the projection image PI incident from the video processing unit 60 is incident on the first projection unit 32 via the second projection unit 40. However, the present invention is not limited to such a configuration. A configuration in which the image of the projection image PI is directly incident from the image processing unit 60 to both projection units may be employed.

図7は、変形例における投射部の構成を説明する図である。図7に示す投射部は、映像処理部560、第1投射部532、第2投射部540などから構成されている。
映像処理部560は、投射画像PIの映像信号を第1投射部532と、第2投射部540へ同じタイミングで出力する。
FIG. 7 is a diagram illustrating the configuration of the projection unit in the modification. The projection unit shown in FIG. 7 includes a video processing unit 560, a first projection unit 532, a second projection unit 540, and the like.
The video processing unit 560 outputs the video signal of the projection image PI to the first projection unit 532 and the second projection unit 540 at the same timing.

第1投射部532は、RGB液晶ユニット542、位置調整部535、第1投射レンズ537などで構成されている。
RGB液晶ユニット542は、投射画像PIの映像信号を入力し、第1投射レンズ537の方向(方向L13)へ映像(光)を出射する。
位置調整部535は、制御部50または撮像部31からの制御に基づいて、第1投射レンズ537の投射方向、焦点距離、ズーム機能などを調整する。
投射画像PIは、第1投射レンズ537から描画ボードBDの面5A,5Bへ投射される。
The first projection unit 532 includes an RGB liquid crystal unit 542, a position adjustment unit 535, a first projection lens 537, and the like.
The RGB liquid crystal unit 542 receives the video signal of the projection image PI and emits video (light) in the direction of the first projection lens 537 (direction L13).
The position adjustment unit 535 adjusts the projection direction, focal length, zoom function, and the like of the first projection lens 537 based on control from the control unit 50 or the imaging unit 31.
The projection image PI is projected from the first projection lens 537 onto the surfaces 5A and 5B of the drawing board BD.

第2投射部540は、RGB液晶ユニット42および第2投射レンズ549などで構成されている。RGB液晶ユニット42は、投射画像PIの映像信号を入力し、第2投射レンズ549の方向(方向L11)へ映像(光)を出射する。投射画像PIは、第2投射レンズ549からスクリーンSCの面9Aへ投射される。   The second projection unit 540 includes an RGB liquid crystal unit 42, a second projection lens 549, and the like. The RGB liquid crystal unit 42 receives the video signal of the projection image PI, and emits video (light) in the direction of the second projection lens 549 (direction L11). The projected image PI is projected from the second projection lens 549 onto the surface 9A of the screen SC.

このような構成にすることにより、第1投射部532は、RGB液晶ユニット542を備えているため、描画ボードBDに対して、光量が調整された鮮明な画像を投射することができる。   With such a configuration, the first projection unit 532 includes the RGB liquid crystal unit 542, and thus can project a clear image with the light amount adjusted to the drawing board BD.

1…プロジェクションシステム、3…プロジェクター、4…通信、5A,5B…描画ボードBDの面、6…マーク、7A,7B…指示体PNの位置、9A…スクリーンSC上の投射面、10…外部機器、21…操作部、23…計時部、25…記憶部、27…通信部、30…第1投射装置、31…撮像部、32…第1投射部、33…全反射ミラー、35…位置調整部、37…第1投射レンズ、40…第2投射部、42…RGB液晶ユニット、43…駆動回路部、44R,44G,44B…LED光源、45R,45G,45B…液晶パネル、47…クロスダイクロイックプリズム、48…ハーフミラー、49…第2投射レンズ、50…制御部、52…撮像情報解析部、53…投射位置検出部、55…指示体抽出部、57…描画処理部、60…映像処理部、100…プロジェクションシステム、103…プロジェクター、130…第1投射装置、200…プロジェクションシステム、203…プロジェクター、230…第1投射装置、560…映像処理部、532…第1投射部、540…第2投射部、542…RGB液晶ユニット、535…位置調整部、537…第1投射レンズ、549…第2投射レンズ。   DESCRIPTION OF SYMBOLS 1 ... Projection system 3 ... Projector 4 ... Communication 5A, 5B ... Drawing board BD surface, 6 ... Mark, 7A, 7B ... Position of indicator PN, 9A ... Projection surface on screen SC, 10 ... External device , 21 ... operation section, 23 ... timing section, 25 ... storage section, 27 ... communication section, 30 ... first projection device, 31 ... imaging section, 32 ... first projection section, 33 ... total reflection mirror, 35 ... position adjustment , 37 ... first projection lens, 40 ... second projection unit, 42 ... RGB liquid crystal unit, 43 ... drive circuit unit, 44R, 44G, 44B ... LED light source, 45R, 45G, 45B ... liquid crystal panel, 47 ... cross dichroic Prism, 48 ... half mirror, 49 ... second projection lens, 50 ... control unit, 52 ... imaging information analysis unit, 53 ... projection position detection unit, 55 ... indicator extraction unit, 57 ... drawing processing unit, 60 ... projection Processing unit 100 ... Projection system 103 ... Projector 130 ... First projection device 200 ... Projection system 203 ... Projector 230 ... First projection device 560 ... Video processing unit 532 ... First projection unit 540 ... Second projection unit 542 RGB liquid crystal unit 535 Position adjustment unit 537 First projection lens 549 Second projection lens

Claims (10)

第1投射面および第2投射面に投射画像を投射するプロジェクターであって、
前記第1投射面を撮像し撮像情報を出力する撮像部と、
前記撮像情報から前記プロジェクターに対する前記第1投射面の相対位置を検出する検出部と、
前記第1投射面に対して操作する指示体の位置情報を前記撮像情報から抽出する抽出部と、
前記指示体の前記位置情報に基づいて描画画像を生成する描画画像生成部と、
外部機器から機器画像を受信する受信部と、
前記機器画像と前記描画画像とを重畳し前記投射画像を生成する投射画像生成部と、
前記投射画像を前記第1投射面に投射する第1投射部と、
前記投射画像を前記第2投射面に投射する第2投射部と、
を備えることを特徴とするプロジェクター。
A projector that projects a projection image on a first projection surface and a second projection surface,
An imaging unit that images the first projection surface and outputs imaging information;
A detection unit that detects a relative position of the first projection surface with respect to the projector from the imaging information;
An extraction unit that extracts position information of an indicator operated on the first projection surface from the imaging information;
A drawing image generation unit that generates a drawing image based on the position information of the indicator;
A receiver for receiving device images from an external device;
A projection image generation unit that generates the projection image by superimposing the device image and the drawing image;
A first projection unit that projects the projection image onto the first projection surface;
A second projection unit that projects the projection image onto the second projection surface;
A projector comprising:
前記描画画像生成部は、前記指示体の位置の軌跡に応じた前記描画画像を生成することを特徴とする請求項1に記載のプロジェクター。   The projector according to claim 1, wherein the drawing image generation unit generates the drawing image according to a locus of the position of the indicator. 前記検出部は、検出した前記相対位置に基づいて前記第1投射部が投射する投射方向を決定することを特徴とする請求項1または請求項2に記載のプロジェクター。   The projector according to claim 1, wherein the detection unit determines a projection direction in which the first projection unit projects based on the detected relative position. 前記撮像部は前記第1投射面の投射領域を示すパターンを撮像し、撮像した画像を前記撮像情報として出力し、
前記検出部は、前記撮像情報に含まれる前記パターンに基づいて前記相対位置を検出すること、
を特徴とする請求項1から請求項3のいずれか1項に記載のプロジェクター。
The imaging unit captures a pattern indicating a projection area of the first projection surface, outputs the captured image as the imaging information,
The detection unit detects the relative position based on the pattern included in the imaging information;
The projector according to claim 1, wherein the projector is a projector.
前記第1投射面は、前記投射画像が投射される第1面と前記第1面の裏面である第2面とを含み、前記第1面側から投射された前記投射画像を前記第2面において表示させ、かつ、前記第2面において操作される前記指示体の前記位置情報を透過させるフィルターを備えることを特徴とする請求項4に記載のプロジェクター。   The first projection surface includes a first surface on which the projection image is projected and a second surface which is a back surface of the first surface, and the projection image projected from the first surface side is the second surface. The projector according to claim 4, further comprising a filter that transmits the position information of the indicator operated on the second surface and displayed on the second surface. 前記撮像部は、前記第2面において操作される前記指示体の前記位置情報を撮像することを特徴とする請求項5に記載のプロジェクター。   The projector according to claim 5, wherein the imaging unit images the position information of the indicator operated on the second surface. 前記第1投射面は、前記投射画像が投射される投射面において前記投射画像を反射する反射面を備え、
前記撮像部は、前記第1投射面において操作される前記指示体の前記位置情報を撮像することを特徴とする請求項1から請求項3のいずれか1項に記載のプロジェクター。
The first projection surface includes a reflection surface that reflects the projection image on a projection surface on which the projection image is projected,
The projector according to any one of claims 1 to 3, wherein the imaging unit images the position information of the indicator operated on the first projection surface.
第1投射面および第2投射面に投射画像を投射するプロジェクターの制御方法であって、
前記第1投射面を撮像し撮像情報を出力する撮像工程と、
前記撮像情報から前記プロジェクターに対する前記第1投射面の相対位置を検出する検出工程と、
前記第1投射面に対して操作する指示体の位置情報を前記撮像情報から抽出する抽出工程と、
前記指示体の前記位置情報に基づいて描画画像を生成する描画画像生成工程と、
外部機器から機器画像を受信する受信工程と、
前記機器画像と前記描画画像とを重畳し前記投射画像を生成する投射画像生成工程と、
前記投射画像を前記第1投射面に投射する第1投射工程と、
前記投射画像を前記第2投射面に投射する第2投射工程と、
を備えることを特徴とするプロジェクターの制御方法。
A control method for a projector that projects a projection image on a first projection surface and a second projection surface,
An imaging step of imaging the first projection surface and outputting imaging information;
A detection step of detecting a relative position of the first projection surface with respect to the projector from the imaging information;
An extraction step of extracting from the imaging information position information of an indicator operated on the first projection surface;
A drawing image generation step of generating a drawing image based on the position information of the indicator;
A receiving process for receiving a device image from an external device;
A projection image generation step of generating the projection image by superimposing the device image and the drawing image;
A first projection step of projecting the projection image onto the first projection surface;
A second projection step of projecting the projection image onto the second projection surface;
A projector control method comprising:
第1投射面および第2投射面に投射画像を投射するプロジェクターと、前記第1投射面と、を備えるプロジェクションシステムであって、
前記プロジェクターは、
前記第1投射面を撮像し撮像情報を出力する撮像部と、
前記撮像情報から前記プロジェクターに対する前記第1投射面の相対位置を検出する検出部と、
前記第1投射面に対して操作する指示体の位置情報を前記撮像情報から抽出する抽出部と、
前記指示体の位置情報に基づいて描画画像を生成する描画画像生成部と、
外部機器から機器画像を受信する受信部と、
前記機器画像と前記描画画像とを重畳し前記投射画像を生成する投射画像生成部と、
前記投射画像を前記第1投射面に投射する第1投射部と、
前記投射画像を前記第2投射面に投射する第2投射部と、
を備え、
前記第1投射面は、
前記投射画像が投射される第1面と前記第1面の裏面である第2面とを含み、前記第1面側から投射された前記投射画像を前記第2面において表示させ、かつ、前記第2面において操作される前記指示体の前記位置情報を透過させるフィルターを備えること、
を特徴とするプロジェクションシステム。
A projection system comprising: a projector that projects a projection image on a first projection surface and a second projection surface; and the first projection surface,
The projector is
An imaging unit that images the first projection surface and outputs imaging information;
A detection unit that detects a relative position of the first projection surface with respect to the projector from the imaging information;
An extraction unit that extracts position information of an indicator operated on the first projection surface from the imaging information;
A drawing image generation unit that generates a drawing image based on position information of the indicator;
A receiver for receiving device images from an external device;
A projection image generation unit that generates the projection image by superimposing the device image and the drawing image;
A first projection unit that projects the projection image onto the first projection surface;
A second projection unit that projects the projection image onto the second projection surface;
With
The first projection surface is
Including the first surface on which the projection image is projected and the second surface which is the back surface of the first surface, the projection image projected from the first surface side is displayed on the second surface, and Comprising a filter that transmits the position information of the indicator operated on the second surface;
Projection system characterized by
第1投射面および第2投射面に投射画像を投射するプロジェクターと、前記第1投射面と、を備えるプロジェクションシステムであって、
前記プロジェクターは、
前記第1投射面を撮像し撮像情報を出力する撮像部と、
前記撮像情報から前記プロジェクターに対する前記第1投射面の相対位置を検出する検出部と、
前記第1投射面に対して操作する指示体の位置情報を前記撮像情報から抽出する抽出部と、
前記指示体の前記位置情報に基づいて描画画像を生成する描画画像生成部と、
外部機器から機器画像を受信する受信部と、
前記機器画像と前記描画画像とを重畳し前記投射画像を生成する投射画像生成部と、
前記投射画像を前記第1投射面に投射する第1投射部と、
前記投射画像を前記第2投射面に投射する第2投射部と、
を備え、
前記第1投射面は、
前記投射画像が投射される第1面において前記投射画像を反射する反射面を備えること、
を特徴とするプロジェクションシステム。
A projection system comprising: a projector that projects a projection image on a first projection surface and a second projection surface; and the first projection surface,
The projector is
An imaging unit that images the first projection surface and outputs imaging information;
A detection unit that detects a relative position of the first projection surface with respect to the projector from the imaging information;
An extraction unit that extracts position information of an indicator operated on the first projection surface from the imaging information;
A drawing image generation unit that generates a drawing image based on the position information of the indicator;
A receiver for receiving device images from an external device;
A projection image generation unit that generates the projection image by superimposing the device image and the drawing image;
A first projection unit that projects the projection image onto the first projection surface;
A second projection unit that projects the projection image onto the second projection surface;
With
The first projection surface is
Providing a reflective surface for reflecting the projection image on the first surface on which the projection image is projected;
Projection system characterized by
JP2016054954A 2016-03-18 2016-03-18 Projector, method for controlling projector, and projection system Pending JP2017169160A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016054954A JP2017169160A (en) 2016-03-18 2016-03-18 Projector, method for controlling projector, and projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016054954A JP2017169160A (en) 2016-03-18 2016-03-18 Projector, method for controlling projector, and projection system

Publications (1)

Publication Number Publication Date
JP2017169160A true JP2017169160A (en) 2017-09-21

Family

ID=59909251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016054954A Pending JP2017169160A (en) 2016-03-18 2016-03-18 Projector, method for controlling projector, and projection system

Country Status (1)

Country Link
JP (1) JP2017169160A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024214919A1 (en) * 2023-04-12 2024-10-17 삼성전자 주식회사 Electronic device and image mapping method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024214919A1 (en) * 2023-04-12 2024-10-17 삼성전자 주식회사 Electronic device and image mapping method

Similar Documents

Publication Publication Date Title
US10228611B2 (en) Projector, projection system, and control method of projector
JP6387644B2 (en) Position detection device, position detection system, and position detection method
US9753580B2 (en) Position detecting device, position detecting system, and controlling method of position detecting device
US10088919B2 (en) Position detecting device, position detecting system, and controlling method of position detecting device
JP6417690B2 (en) Projector, display device, and projector control method
CN102004378B (en) Method for adjusting projection picture and projection device
US20110001701A1 (en) Projection apparatus
JP2015158887A (en) Position detection system, and control method of position detection system
CN103279313A (en) Display device and display control method
JP2017182110A (en) Display system, display device, information processor, and information processing method
US10536627B2 (en) Display apparatus, method of controlling display apparatus, document camera, and method of controlling document camera
JPH0980372A (en) Projection type display device
JP2015158885A (en) Position detection device, projector, position detection system, and control method of position detection device
EP2916201B1 (en) Position detecting device and position detecting method
JP2017182109A (en) Display system, information processing device, projector, and information processing method
JP2012234149A (en) Image projection device
JP2017169160A (en) Projector, method for controlling projector, and projection system
JP2017169086A (en) Display device, control method for display device, and program
JP2016177750A (en) Position detection device, display device, control method for position detection device, and control method for display device
JP6291911B2 (en) Position detection apparatus and position detection method
JP6291912B2 (en) Position detection apparatus and position detection method
WO2016139902A1 (en) Display device and display control method
JP2017126145A (en) Projector and control method for the same
JP2018147210A (en) Display system, display device, terminal device, control method of display system, control program for display device, and control program for terminal device
JP2019003450A (en) Projection type display device

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180906