[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2017204162A - Display device and display method - Google Patents

Display device and display method Download PDF

Info

Publication number
JP2017204162A
JP2017204162A JP2016095865A JP2016095865A JP2017204162A JP 2017204162 A JP2017204162 A JP 2017204162A JP 2016095865 A JP2016095865 A JP 2016095865A JP 2016095865 A JP2016095865 A JP 2016095865A JP 2017204162 A JP2017204162 A JP 2017204162A
Authority
JP
Japan
Prior art keywords
image
unit
indicator
finger
display surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016095865A
Other languages
Japanese (ja)
Inventor
祐 鈴木
Yu Suzuki
祐 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016095865A priority Critical patent/JP2017204162A/en
Publication of JP2017204162A publication Critical patent/JP2017204162A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform processing according to a change of an indication body even when the indication body does not comprise a configuration for detecting the change of the indication body.SOLUTION: A projector 10 comprises: a detection section detecting a position of an indication body with respect to a display surface for displaying an image and contact of the indication body with the display surface; a drawing section generating a drawn image based on the position detected by the detection section; an imaging section outputting a picked-up image obtained by imaging a region including at least a part of the image displayed on the display surface; a processing section processing the drawn image according to a change of the indication body imaged in the picked-up image output from the imaging section when the detection section detects the contact of the indication body with the display surface; a superposition section generating an image obtained by superimposing the drawn image processed by the processing section on an external image supplied from an external device; and a display section displaying the image generated by the superposition section on the display surface.SELECTED DRAWING: Figure 1

Description

本発明は、表示装置及び表示方法に関する。   The present invention relates to a display device and a display method.

電子ペンの移動に応じて線を描画し、描画する線の表示態様を電子ペンの筆圧に応じて変更する発明として、例えば、特許文献1に開示された発明がある。この発明においては、電子ペンは、歪センサーで筆圧を検知し、検知した筆圧を超音波ユニットで出力する。表示制御部は、この電子ペンから出力された筆圧を取得し、取得した筆圧に応じた太さの線を表示装置のタッチパネルに表示する。   As an invention that draws a line according to the movement of the electronic pen and changes the display mode of the drawn line according to the writing pressure of the electronic pen, for example, there is an invention disclosed in Patent Document 1. In the present invention, the electronic pen detects the writing pressure with the strain sensor and outputs the detected writing pressure with the ultrasonic unit. The display control unit acquires the writing pressure output from the electronic pen, and displays a line having a thickness corresponding to the acquired writing pressure on the touch panel of the display device.

特開2006−92410号公報JP 2006-92410 A

特許文献1に開示された発明では、歪センサーや演算回路、超音波ユニットなどの部品や電子回路を電子ペンが備える構成であり、電子ペンの構成が複雑なものとなっていた。   In the invention disclosed in Patent Document 1, the electronic pen includes components such as a strain sensor, an arithmetic circuit, and an ultrasonic unit, and an electronic circuit, and the configuration of the electronic pen is complicated.

本発明は、指示体の変化を検知する構成を指示体が備えていなくても指示体の変化に応じた処理を行うことを可能とする技術を提供する。   The present invention provides a technique that makes it possible to perform processing according to a change in the indicator even if the indicator does not have a configuration for detecting a change in the indicator.

本発明は、画像を表示する表示面に対する指示体の位置及び前記表示面への前記指示体の接触を検知する検知部と、前記検知部が検知した位置に基づく描画像を生成する描画部と、前記表示面に表示されている前記画像の少なくとも一部を含む領域を撮像して得られた撮像画像を出力する撮像部と、前記表示面への前記指示体の接触を前記検知部が検知しているときに前記撮像部から出力される前記撮像画像に映る前記指示体の変化に応じて前記描画像を処理する処理部と、前記処理部により処理された描画像を外部装置から供給された外部画像に重畳した画像を生成する重畳部と、前記重畳部が生成した画像を前記表示面に表示する表示部とを備える表示装置を提供する。
本発明によれば、指示体の変化を検知する構成を指示体が備えていなくても指示体の変化に応じた処理を行うことができる。
The present invention provides a detection unit that detects a position of an indicator with respect to a display surface that displays an image and contact of the indicator with the display surface, and a drawing unit that generates a drawing image based on the position detected by the detection unit; An imaging unit that outputs a captured image obtained by imaging an area including at least a part of the image displayed on the display surface, and the detection unit detects contact of the indicator with the display surface. A processing unit that processes the drawing image in accordance with a change in the indicator reflected in the captured image output from the imaging unit, and a drawing image processed by the processing unit is supplied from an external device. A display device is provided that includes a superimposing unit that generates an image superimposed on the external image and a display unit that displays the image generated by the superimposing unit on the display surface.
According to the present invention, it is possible to perform processing according to a change in the indicator even if the indicator does not have a configuration for detecting a change in the indicator.

本発明においては、前記処理部が行う処理は、前記描画像の態様を変更する処理である構成としてもよい。
この構成によれば、描画像の態様を指示体の変化に応じて変更することができる。
In this invention, the process which the said process part performs is good also as a structure which is a process which changes the aspect of the said drawing image.
According to this structure, the aspect of a drawing image can be changed according to the change of a pointer.

また、本発明においては、前記処理部は、前記撮像部から出力された前記撮像画像に映る前記指示体の形状の変化量に応じて、前記描画像の態様を変更する構成としてもよい。
この構成によれば、指示体の変化に応じて描画像の変化を大きくすることができる。
Moreover, in this invention, the said process part is good also as a structure which changes the aspect of the said drawing image according to the variation | change_quantity of the shape of the said indicator reflected in the said captured image output from the said imaging part.
According to this configuration, the change in the drawn image can be increased according to the change in the indicator.

また、本発明においては、前記処理部は、前記撮像部から出力された前記撮像画像に映る前記指示体の傾きの変化量に応じて、前記描画像の態様を変更する構成としてもよい。
この構成によれば、指示体の変化に応じて描画像の変化を大きくすることができる。
Moreover, in this invention, the said process part is good also as a structure which changes the aspect of the said drawing image according to the variation | change_quantity of the inclination of the said indicator reflected in the said captured image output from the said imaging part.
According to this configuration, the change in the drawn image can be increased according to the change in the indicator.

また、本発明によれば、前記撮像部を複数有し、前記処理部は、複数の前記撮像部から出力された画像の変化に応じて前記描画像を処理する構成としてもよい。
この構成によれば、指示体の変化を確実に検知することができる。
Further, according to the present invention, a plurality of the imaging units may be provided, and the processing unit may be configured to process the drawn image according to a change in images output from the plurality of imaging units.
According to this configuration, it is possible to reliably detect a change in the indicator.

また、本発明は、画像を表示する表示面に対する指示体の位置及び前記表示面への前記指示体の接触を検知する検知ステップと、前記検知ステップで検知した位置に基づく描画像を生成する描画ステップと、前記表示面への前記指示体の接触を前記検知ステップで検知しているときに、前記表示面に表示されている前記画像の少なくとも一部を含む領域を撮像して得られた撮像画像に映る前記指示体の変化に応じて前記描画像を処理する処理ステップと、前記処理ステップにより処理された描画像を外部装置から供給された外部画像に重畳した画像を生成する重畳ステップと、前記重畳ステップで生成した画像を前記表示面に表示する表示ステップとを備える表示方法を提供する。
本発明によれば、指示体の変化を検知する構成を指示体が備えていなくても指示体の変化に応じた処理を行うことができる。
According to another aspect of the present invention, there is provided a detection step for detecting a position of an indicator on a display surface for displaying an image and a contact of the indicator with the display surface, and a drawing for generating a drawing image based on the position detected in the detection step. An image obtained by imaging an area including at least a part of the image displayed on the display surface when the detection step detects the step and the contact of the indicator with the display surface A processing step of processing the drawing image according to a change in the indicator reflected in an image; and a superimposing step of generating an image in which the drawing image processed in the processing step is superimposed on an external image supplied from an external device; And a display step of displaying the image generated in the superimposing step on the display surface.
According to the present invention, it is possible to perform processing according to a change in the indicator even if the indicator does not have a configuration for detecting a change in the indicator.

表示システム1を構成する装置を示した図。1 is a diagram showing an apparatus that constitutes a display system 1. FIG. プロジェクター10と指示体20のハードウェア構成を示した図。The figure which showed the hardware constitutions of the projector 10 and the indicator 20. 制御部110と制御部210の機能ブロック図。The functional block diagram of the control part 110 and the control part 210. FIG. 指示体を検出するタイムチャートの一例を示した図。The figure which showed an example of the time chart which detects a pointer. スクリーンSCに接した指50の状態を示した図。The figure which showed the state of the finger | toe 50 which touched the screen SC. スクリーンSCに投写された画像の一例を示した図。The figure which showed an example of the image projected on the screen SC. スクリーンSCに接した指50の状態を示した図。The figure which showed the state of the finger | toe 50 which touched the screen SC. スクリーンSCに投写された画像の一例を示した図。The figure which showed an example of the image projected on the screen SC. スクリーンSCに投写された画像の一例を示した図。The figure which showed an example of the image projected on the screen SC.

[実施形態]
(実施形態の構成)
図1は、本発明の一実施形態に係る表示システム1を構成する装置を示した図である。表示システム1は、画像の表示面となるスクリーンSCに画像を投写するプロジェクター10、指示体20及び発光装置30を備える。
[Embodiment]
(Configuration of the embodiment)
FIG. 1 is a diagram showing an apparatus constituting a display system 1 according to an embodiment of the present invention. The display system 1 includes a projector 10, an indicator 20, and a light emitting device 30 that project an image onto a screen SC serving as an image display surface.

表示装置の一例であるプロジェクター10は、外部装置の一例であるPC(Personal Computer)40に接続され、PC40から供給された画像をスクリーンSCへ投写する。また、プロジェクター10は、指示体20や指50が指示した位置に画像を描画する描画機能や、接続されているPCのポインティングデバイスとして指示体20や指50を使用するPC操作機能を備えている。   A projector 10 that is an example of a display device is connected to a PC (Personal Computer) 40 that is an example of an external device, and projects an image supplied from the PC 40 onto a screen SC. The projector 10 also has a drawing function for drawing an image at a position designated by the indicator 20 or the finger 50 and a PC operation function for using the indicator 20 or the finger 50 as a connected PC pointing device. .

本実施形態に係るプロジェクター10は、スクリーンSCの斜め上方に設置され、スクリーンSCに向けて画像を投写する。本実施形態においては、プロジェクター10は、スクリーンSCへ画像を投写するが、スクリーンSCの替わりに壁面(表示面)に画像を投写してもよい。また、本実施形態においては、プロジェクター10は、金具によって壁面に設置される構成となっているが、天井に設置してもよい。   The projector 10 according to the present embodiment is installed obliquely above the screen SC and projects an image toward the screen SC. In the present embodiment, the projector 10 projects an image onto the screen SC, but may project an image onto a wall surface (display surface) instead of the screen SC. Further, in the present embodiment, the projector 10 is configured to be installed on the wall surface by a metal fitting, but may be installed on the ceiling.

ペン型の指示体20は、上述した描画機能やPC操作機能を使用するときのポインティングデバイスとして機能し、プロジェクター10が投写するPCのGUI(Graphical User Interface)をユーザーが操作するときや、投写された画像に重ねてユーザーが描画を行うときなどに使用される。   The pen-type indicator 20 functions as a pointing device when using the drawing function and the PC operation function described above, and is projected when the user operates the GUI (Graphical User Interface) of the PC that the projector 10 projects. This is used when the user draws on the image.

発光装置30は、スクリーンSC上にある指50(指示体の一例)に光(本実施形態では赤外光)を照射する発光部を有する。発光装置30はスクリーンSCの上端より上に設置され、下向きに角度θの範囲に光を拡散させて出射する。発光装置30から出射された光は、スクリーンSCに沿う光の層を形成する。本実施形態では、角度θは、ほぼ180度に達し、スクリーンSCのほぼ全体に、光の層が形成される。スクリーンSCの表面と、発光装置30により形成される光の層とは近接していることが好ましい。スクリーンSCの表面から離れた位置にある指50も照射できるように光の層は厚みを持っている。また、発光部を積層することにより離れた位置にある指50を照射してもよい。発光装置30からの光の出射は、プロジェクター10により制御される。   The light emitting device 30 includes a light emitting unit that irradiates light (infrared light in the present embodiment) to a finger 50 (an example of an indicator) on the screen SC. The light emitting device 30 is installed above the upper end of the screen SC, and emits light by diffusing light downward in the range of the angle θ. The light emitted from the light emitting device 30 forms a light layer along the screen SC. In the present embodiment, the angle θ reaches approximately 180 degrees, and a light layer is formed on almost the entire screen SC. The surface of the screen SC and the light layer formed by the light emitting device 30 are preferably close to each other. The light layer has a thickness so that the finger 50 located away from the surface of the screen SC can also be irradiated. Moreover, you may irradiate the finger | toe 50 in the distant position by laminating | stacking a light emission part. The light emission from the light emitting device 30 is controlled by the projector 10.

図2は、プロジェクター10及び指示体20のハードウェア構成を示した図である。指示体20は、制御部210、通信部220、発光部230、操作部240、電源250を有する。電源250は、例えば乾電池又は二次電池であり、制御部210、通信部220、発光部230及び操作部240へ電力を供給する。操作部240は、電源250から各部への電力供給を制御するスイッチ(図示略)を備えている。操作部240のスイッチがオンとなると、電源250から各部へ電力が供給され、操作部240のスイッチがオフとなると、電源250から各部へ電力の供給が停止される。発光部230は、赤外光を発する発光ダイオードを有しており、指示体20の先端に設けられている。発光部230の点灯及び消灯は、制御部210により制御される。発光部230は、点光源であり、発光部230が発する光は、指示体20の先端から球面上に広がる。通信部220は、赤外光を受光する受光素子を備えている。通信部220は、プロジェクター10から赤外光で送られる各種信号を受信する。通信部220は、受信した各種信号を電気信号に変換して制御部210へ供給する。制御部210は、発光部230及び通信部220に接続されている。制御部210は、通信部220から供給される信号に応じて発光部230の制御を開始し、発光部230の発光ダイオードの点灯及び消灯を制御する。   FIG. 2 is a diagram illustrating a hardware configuration of the projector 10 and the indicator 20. The indicator 20 includes a control unit 210, a communication unit 220, a light emitting unit 230, an operation unit 240, and a power source 250. The power source 250 is, for example, a dry battery or a secondary battery, and supplies power to the control unit 210, the communication unit 220, the light emitting unit 230, and the operation unit 240. The operation unit 240 includes a switch (not shown) that controls power supply from the power supply 250 to each unit. When the switch of the operation unit 240 is turned on, power is supplied from the power source 250 to each unit, and when the switch of the operation unit 240 is turned off, supply of power from the power source 250 to each unit is stopped. The light emitting unit 230 includes a light emitting diode that emits infrared light, and is provided at the tip of the indicator 20. Lighting and extinguishing of the light emitting unit 230 is controlled by the control unit 210. The light emitting unit 230 is a point light source, and light emitted from the light emitting unit 230 spreads on the spherical surface from the tip of the indicator 20. The communication unit 220 includes a light receiving element that receives infrared light. The communication unit 220 receives various signals transmitted by infrared light from the projector 10. The communication unit 220 converts various received signals into electric signals and supplies them to the control unit 210. The control unit 210 is connected to the light emitting unit 230 and the communication unit 220. The control unit 210 starts control of the light emitting unit 230 according to a signal supplied from the communication unit 220, and controls lighting and extinguishing of the light emitting diode of the light emitting unit 230.

プロジェクター10は、制御部110、記憶部120、操作部130、投写部140を備える。また、プロジェクター10は、映像処理部150、映像インターフェース160、第1撮像部171、第2撮像部172、通信部180を備える。制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備えたマイクロコンピューターである。ROMに記憶されているプログラムをCPUが実行すると、プロジェクター10においては、制御部110が各部を制御し、画像をスクリーンSCに投写する機能や、指50や指示体20をポインティングデバイスとして利用する機能、描画機能、PC操作機能などが実現する。   The projector 10 includes a control unit 110, a storage unit 120, an operation unit 130, and a projection unit 140. The projector 10 also includes a video processing unit 150, a video interface 160, a first imaging unit 171, a second imaging unit 172, and a communication unit 180. The control unit 110 is a microcomputer including a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). When the CPU executes a program stored in the ROM, in the projector 10, the control unit 110 controls each unit and projects an image on the screen SC, and a function that uses the finger 50 and the indicator 20 as a pointing device. A drawing function, a PC operation function, and the like are realized.

映像インターフェース160は、RCA、D−Sub、HDMI(登録商標)、USB(Universal Serial Bus)など、画像が供給されるコネクターを複数有し、外部装置からコネクターに供給された画像を映像処理部150へ供給する。映像インターフェース160は、無線LANやBluetooth(登録商標)などの無線通信のインターフェースを有し、無線通信により画像を取得してもよい。   The video interface 160 includes a plurality of connectors to which images are supplied, such as RCA, D-Sub, HDMI (registered trademark), USB (Universal Serial Bus), and the like. To supply. The video interface 160 may have a wireless communication interface such as a wireless LAN or Bluetooth (registered trademark), and may acquire an image by wireless communication.

記憶部120は、投写する画像の画質に係る設定値や、各種機能に係る情報を記憶する。操作部130は、プロジェクター10を操作するための複数のボタンを備えている。操作されたボタンに応じて制御部110が各部を制御することにより、スクリーンSCに投写される画像の調整や、プロジェクター10が有する各種機能の設定などが行われる。また、操作部130は、リモートコントローラー(図示略)からの赤外光の信号を受光する受光部(図示略)を備えている。操作部130は、リモートコントローラーから送信された信号を電気信号に変換して制御部110へ供給し、制御部110は、供給される信号に応じて各部を制御する。   The storage unit 120 stores setting values related to the image quality of the projected image and information related to various functions. The operation unit 130 includes a plurality of buttons for operating the projector 10. The control unit 110 controls each unit in accordance with the operated button, thereby adjusting an image projected on the screen SC and setting various functions of the projector 10. The operation unit 130 also includes a light receiving unit (not shown) that receives an infrared light signal from a remote controller (not shown). The operation unit 130 converts a signal transmitted from the remote controller into an electric signal and supplies the electric signal to the control unit 110, and the control unit 110 controls each unit according to the supplied signal.

映像処理部150は、映像インターフェース160から供給される画像を取得する。また、映像処理部150は、プロジェクター10を操作するためのGUIや指示体20が指し示す位置を表すカーソル、描画機能で描画する画像などのオンスクリーン画像を制御部110から取得する。映像処理部150は、VRAM(Video RAM)151を備えており、映像インターフェース160から供給された画像を展開する領域と、オンスクリーン画像を展開する領域を有し、各画像をそれぞれの領域に展開する。映像処理部150は、各種の画像処理機能を備えており、VRAM151に展開された画像に画像処理を施し、投写する画像の画質を調整する。また、映像処理部150は、制御部110からオンスクリーン画像が供給された場合には、映像インターフェース160から供給された画像(外部画像)にオンスクリーン画像を重畳した画像を投写部140へ供給する。即ち、映像処理部150は、外部装置から供給された外部画像にオンスクリーン画像を重畳する重畳部として機能する。   The video processing unit 150 acquires an image supplied from the video interface 160. In addition, the video processing unit 150 acquires from the control unit 110 an on-screen image such as a GUI for operating the projector 10, a cursor indicating a position indicated by the indicator 20, and an image drawn by a drawing function. The video processing unit 150 includes a VRAM (Video RAM) 151 and has an area for developing an image supplied from the video interface 160 and an area for developing an on-screen image. Each image is developed in each area. To do. The video processing unit 150 has various image processing functions, performs image processing on the image developed in the VRAM 151, and adjusts the image quality of the projected image. In addition, when an on-screen image is supplied from the control unit 110, the video processing unit 150 supplies an image obtained by superimposing the on-screen image on the image (external image) supplied from the video interface 160 to the projection unit 140. . That is, the video processing unit 150 functions as a superimposing unit that superimposes an on-screen image on an external image supplied from an external device.

画像を投写する投写部140は、光源141、ライトバルブ142、駆動回路144及び投写光学系143を有している。投写部140は、画像を表示する表示部の一例である。光源141は、光を発するランプであり、光源141が発した光は、図示省略した複数のダイクロイックミラーやミラーによって赤、緑、青の光に分光され、分光された赤、緑、青のそれぞれの光はライトバルブ142に導かれる。なお、光源141は、ランプではなく、発光ダイオード又はレーザー光を発する半導体レーザー装置であってもよい。   The projection unit 140 that projects an image includes a light source 141, a light valve 142, a drive circuit 144, and a projection optical system 143. The projection unit 140 is an example of a display unit that displays an image. The light source 141 is a lamp that emits light, and the light emitted from the light source 141 is split into red, green, and blue light by a plurality of dichroic mirrors and mirrors (not shown), and each of the split red, green, and blue is split. Is guided to the light valve 142. The light source 141 may be a light emitting diode or a semiconductor laser device that emits laser light instead of a lamp.

駆動回路144は、映像処理部150から供給される画像を取得する。駆動回路144に供給される画像は、投写する画像における赤の成分の階調を表す階調データ、投写する画像における緑の成分の階調を表す階調データ及び投写する画像における青の成分の階調を表す階調データを有する。駆動回路144は、赤、緑、青の各色の階調データを抽出し、抽出した各色の階調データに基づいてライトバルブ142を駆動する。   The drive circuit 144 acquires an image supplied from the video processing unit 150. The image supplied to the drive circuit 144 includes gradation data representing the gradation of the red component in the projected image, gradation data representing the gradation of the green component in the projected image, and the blue component in the projected image. It has gradation data representing gradation. The drive circuit 144 extracts gradation data of each color of red, green, and blue, and drives the light valve 142 based on the extracted gradation data of each color.

ライトバルブ142は、前述の赤の光が入射する液晶ライトバルブ、前述の緑の光が入射する液晶ライトバルブ、及び前述の青の光が入射する液晶ライトバルブを有している。液晶ライトバルブは、透過型の液晶パネルであり、複数行複数列でマトリクス状に配置された画素を備えている。赤の光が入射する液晶ライトバルブは赤の階調データに基づいて駆動され、緑の光が入射する液晶ライトバルブは緑の階調データに基づいて駆動され、青の光が入射する液晶ライトバルブは青の階調データに基づいて駆動される。各液晶ライトバルブは、駆動回路144によって各画素が制御されて画素の透過率が変化する。画素の透過率が制御されることにより、液晶ライトバルブを透過した各色の光は、各階調データに対応した画像となる。液晶ライトバルブを透過した赤、緑、青の光の画像は、図示省略したダイクロイックプリズムにより合成されて投写光学系143に入射する。投写光学系143は、入射した画像を拡大する光学系であり、入射した画像をレンズやミラーによって拡大してスクリーンSCに投写する。スクリーンSCに画像が投写されると、表示面であるスクリーンSCに画像が表示される。なお、透過型の液晶パネルの替わりに反射型の液晶パネルを採用してもよいし、デジタルミラーデバイスなどを用いてもかまわない。   The light valve 142 includes the above-described liquid crystal light valve on which red light is incident, the above-described liquid crystal light valve on which green light is incident, and the above-described liquid crystal light valve on which blue light is incident. The liquid crystal light valve is a transmissive liquid crystal panel and includes pixels arranged in a matrix with a plurality of rows and a plurality of columns. A liquid crystal light valve that receives red light is driven based on red gradation data, and a liquid crystal light valve that receives green light is driven based on green gradation data, and a liquid crystal light that receives blue light. The valve is driven based on the blue gradation data. In each liquid crystal light valve, each pixel is controlled by the drive circuit 144, and the transmittance of the pixel changes. By controlling the transmittance of the pixels, the light of each color transmitted through the liquid crystal light valve becomes an image corresponding to each gradation data. Red, green, and blue light images transmitted through the liquid crystal light valve are combined by a dichroic prism (not shown) and are incident on the projection optical system 143. The projection optical system 143 is an optical system that magnifies an incident image, and magnifies the incident image with a lens or a mirror and projects it onto the screen SC. When an image is projected on the screen SC, the image is displayed on the screen SC which is a display surface. Note that a reflective liquid crystal panel may be employed instead of the transmissive liquid crystal panel, or a digital mirror device or the like may be used.

第1撮像部171及び第2撮像部172は、投写部140によりスクリーンSCに投写された画像の少なくとも一部を含む範囲を撮像範囲とし、撮像した範囲の画像を生成し、生成した画像を出力する。第1撮像部171は、指示体20や指50の位置を特定するための撮像部である。第1撮像部171は、発光部230が発する赤外光や、発光装置30から出射されて指50で反射した赤外光を受光する撮像素子(CMOSやCCDなど)、撮像素子に像を結像する光学系、撮像素子へ入射する光を制限する絞りなどを備えている。   The first image capturing unit 171 and the second image capturing unit 172 generate an image in the captured range using a range including at least a part of the image projected on the screen SC by the projection unit 140, and output the generated image To do. The first imaging unit 171 is an imaging unit for specifying the positions of the indicator 20 and the finger 50. The first imaging unit 171 receives an infrared ray emitted from the light emitting unit 230, an infrared ray emitted from the light emitting device 30 and reflected by the finger 50 (such as a CMOS or CCD), and forms an image on the imaging element. An optical system for imaging, a diaphragm for limiting light incident on the image sensor, and the like are provided.

第2撮像部172は、指50の変形を検知するための撮像部である。第2撮像部172は、可視光を受光する撮像素子(CMOSやCCDなど)、撮像素子に像を結像する光学系、撮像素子へ入射する光を制限する絞りなどを備えている。なお、本実施形態においては、プロジェクター10がスクリーンSCの斜め上方に設置されるため、第1撮像部171及び第2撮像部172は、スクリーンSCを含む範囲を斜め上方から撮像することになる。   The second imaging unit 172 is an imaging unit for detecting the deformation of the finger 50. The second imaging unit 172 includes an imaging device (such as CMOS or CCD) that receives visible light, an optical system that forms an image on the imaging device, and a diaphragm that restricts light incident on the imaging device. In the present embodiment, since the projector 10 is installed obliquely above the screen SC, the first imaging unit 171 and the second imaging unit 172 image a range including the screen SC from obliquely above.

通信部180は、赤外光を発する発光ダイオードを備えている。通信部180は、制御部110により、発光ダイオードの点灯及び消灯が制御され、発光部230の点灯及び消灯を制御するための赤外光の信号を送信する。また、通信部180は、PCと通信を行うための通信インターフェースを有し、例えば、USB、有線LAN、無線LANなどの通信インターフェースを備える。   The communication unit 180 includes a light emitting diode that emits infrared light. The communication unit 180 controls the lighting and extinguishing of the light emitting diodes by the control unit 110, and transmits an infrared light signal for controlling the lighting and extinguishing of the light emitting unit 230. The communication unit 180 has a communication interface for communicating with a PC, and includes a communication interface such as a USB, a wired LAN, and a wireless LAN.

図3は、制御部110がプログラムを実行することにより実現する機能と、制御部210において実現する機能の構成を示した機能ブロック図である。まず、プロジェクター10の制御部110において実現する機能について説明する。   FIG. 3 is a functional block diagram showing a configuration of functions realized by the control unit 110 executing a program and functions realized by the control unit 210. First, functions realized in the control unit 110 of the projector 10 will be described.

検知部113は、画像の投写領域において指示体20の発光部230の位置や指示体の一例である指50の位置、指示体20や指50の表示面への接触を、例えば図4に示したタイムチャートで周期的に特定する。指50の位置や発光部230の位置を特定する期間は、図4に示したようにフェーズP11からフェーズP14までの4つのフェーズを有する。指50の位置や発光部230の位置、指50や発光部230の投写面への接触を検出する際には、フェーズP11からフェーズP14までが繰り返される。フェーズP11は、プロジェクター10が第1撮像部171で撮像を行うタイミングと、指示体20の発光部230が発光するタイミング及び発光装置30が赤外光を出射するタイミングを同期させるためのフェーズである。フェーズP11においては、検知部113は、所定期間te1で赤外光の同期信号が出力されるように通信部180を制御する。   The detection unit 113 shows the position of the light emitting unit 230 of the indicator 20 in the image projection area, the position of the finger 50 as an example of the indicator, and contact with the display surface of the indicator 20 or the finger 50, for example, as shown in FIG. Identifies periodically with a time chart. The period for specifying the position of the finger 50 and the position of the light emitting unit 230 has four phases from phase P11 to phase P14 as shown in FIG. When detecting the position of the finger 50, the position of the light emitting unit 230, and the contact of the finger 50 or the light emitting unit 230 with the projection surface, the phase P11 to the phase P14 are repeated. Phase P11 is a phase for synchronizing the timing at which the projector 10 performs imaging with the first imaging unit 171 with the timing at which the light emitting unit 230 of the indicator 20 emits light and the timing at which the light emitting device 30 emits infrared light. . In phase P11, the detection unit 113 controls the communication unit 180 so that an infrared light synchronization signal is output in a predetermined period te1.

指示体20においては、通信部220が同期信号を受光し、同期信号を受光してから所定時間が経過すると、予め設定された期間te2で発光部230が点灯するように、制御部210が発光部230を制御する。本実施形態においては、フェーズP12、フェーズP13及びフェーズP14の開始時点から発光部230が点灯するように制御される。また、検知部113は、フェーズP12及びフェーズP14の開始時間から期間te2で発光装置30が赤外光を出射するように、発光装置30を制御する。   In the indicator 20, the control unit 210 emits light so that the light emitting unit 230 is turned on in a preset period te <b> 2 when a predetermined time has elapsed since the communication unit 220 received the synchronization signal and received the synchronization signal. The unit 230 is controlled. In the present embodiment, the light emitting unit 230 is controlled to light up from the start time of the phase P12, the phase P13, and the phase P14. In addition, the detection unit 113 controls the light emitting device 30 so that the light emitting device 30 emits infrared light in the period te2 from the start time of the phase P12 and the phase P14.

検知部113は、フェーズP12〜フェーズP14において、第1撮像部171を制御し、設定されているシャッタースピードでスクリーンSCを含む所定範囲を撮像する。第1撮像部171において電子シャッター機能により露光が行われる露光期間は、フェーズP12とフェーズP14の開始時点から始まり、露光が終了する時点は、設定されているシャッタースピードにより定まる。第1撮像部171がフェーズP12〜フェーズP14の露光期間で撮像した画像は、検知部113へ供給される。   In phase P12 to phase P14, the detection unit 113 controls the first imaging unit 171 to image a predetermined range including the screen SC at the set shutter speed. The exposure period in which exposure is performed by the electronic shutter function in the first imaging unit 171 starts from the start time of the phase P12 and the phase P14, and the time point when the exposure ends is determined by the set shutter speed. The image captured by the first imaging unit 171 during the exposure period of phase P12 to phase P14 is supplied to the detection unit 113.

検知部113は、第1撮像部171から供給された画像を用いて、投写された画像上にある指50や発光部230の位置、発光部230や指50の投写面への接触を検知する。具体的には、フェーズP12とフェーズP14において、発光装置30が発した赤外光が指50に照射されている場合には、第1撮像部171で得られた画像に発光装置30から出射されて指50で反射した赤外光が映る。また、フェーズP12とフェーズP14において、発光部230が第1撮像部171の撮像範囲内にあると、第1撮像部171で得られた画像に発光部230が発した赤外光も映る。フェーズP13においては、発光装置30は光を出射しないため、第1撮像部171で得られた画像には、発光部230が発した赤外光が映る。   The detection unit 113 detects the position of the finger 50 and the light emitting unit 230 on the projected image and the contact of the light emitting unit 230 and the finger 50 with the projection surface using the image supplied from the first imaging unit 171. . Specifically, in the phase P12 and the phase P14, when the infrared light emitted from the light emitting device 30 is irradiated on the finger 50, the image obtained by the first imaging unit 171 is emitted from the light emitting device 30. The infrared light reflected by the finger 50 is reflected. Further, in phase P12 and phase P14, when the light emitting unit 230 is within the imaging range of the first imaging unit 171, the infrared light emitted by the light emitting unit 230 is also reflected in the image obtained by the first imaging unit 171. In the phase P13, since the light emitting device 30 does not emit light, the infrared light emitted from the light emitting unit 230 is reflected in the image obtained by the first imaging unit 171.

検知部113は、フェーズP12〜フェーズP14において、第1撮像部171で得られた画像に映る赤外光の位置及びスクリーンSCまでの距離を特定する。検知部113は、フェーズP12とフェーズP14において位置を特定した赤外光のうち、フェーズP13において位置を特定した赤外光の位置に近い位置の赤外光を特定し、特定した赤外光の位置を発光部230の位置とする。また、検知部113は、フェーズP12とフェーズP14において位置を特定した赤外光のうち、フェーズP13において位置を特定した赤外光から遠い赤外光の位置を指50の位置とする。なお、検知部113は、フェーズP13において赤外光が撮像範囲内に無い場合には、フェーズP12とフェーズP14において特定した位置を指50の位置とする。これらの特定した位置は、描画機能やPC操作機能などの各種機能を実行するときに使用される。   In phase P12 to phase P14, the detection unit 113 specifies the position of the infrared light reflected in the image obtained by the first imaging unit 171 and the distance to the screen SC. The detection unit 113 identifies infrared light at a position close to the position of the infrared light whose position is identified in phase P13 among the infrared light whose positions are identified in phase P12 and phase P14, and The position is the position of the light emitting unit 230. The detection unit 113 sets the position of the finger 50 as the position of the infrared light far from the infrared light whose position is specified in the phase P13 among the infrared light whose positions are specified in the phases P12 and P14. Note that when the infrared light is not within the imaging range in the phase P13, the detection unit 113 sets the position specified in the phase P12 and the phase P14 as the position of the finger 50. These specified positions are used when various functions such as a drawing function and a PC operation function are executed.

描画部112は、検知部113が検知した位置に応じて投写する描画像のオンスクリーン画像を生成する。処理部114は、第2撮像部172から供給される画像に映る指50の形状の変化に応じて、描画部112が生成した描画像を処理する。本実施形態においては、描画部112が行う処理は、描画像の線の太さ(態様)を変更する処理である。   The drawing unit 112 generates an on-screen image of a drawing image to be projected according to the position detected by the detection unit 113. The processing unit 114 processes the drawn image generated by the drawing unit 112 in accordance with a change in the shape of the finger 50 shown in the image supplied from the second imaging unit 172. In the present embodiment, the process performed by the drawing unit 112 is a process of changing the line thickness (mode) of the drawn image.

次に、指示体20の制御部210において実現する機能について説明する。信号取得部211は、通信部220が受信した同期信号を取得する。発光制御部212は、信号取得部211から同期信号を取得し、同期信号を取得してから所定時間が経過すると、フェーズP12〜フェーズP14において期間te2で発光部230が点灯するように、発光部230を制御する。   Next, functions realized in the control unit 210 of the indicator 20 will be described. The signal acquisition unit 211 acquires the synchronization signal received by the communication unit 220. The light emission control unit 212 acquires the synchronization signal from the signal acquisition unit 211, and when a predetermined time has elapsed since the acquisition of the synchronization signal, the light emission unit 230 is turned on in the period te2 in phase P12 to phase P14. 230 is controlled.

(実施形態の動作例)
次に描画機能がオンとなっているときの本実施形態の動作例について説明する。映像インターフェース160は、PC40から画像が供給されると、PC40から供給される画像を取得し、取得した画像を映像処理部150へ供給する。画像が映像処理部150へ供給されると、供給された画像がスクリーンSCに投写される。
(Operation example of embodiment)
Next, an operation example of the present embodiment when the drawing function is on will be described. When an image is supplied from the PC 40, the video interface 160 acquires the image supplied from the PC 40 and supplies the acquired image to the video processing unit 150. When the image is supplied to the video processing unit 150, the supplied image is projected onto the screen SC.

ユーザーは、投写された画像に対して描画機能で描画を行う場合、スクリーンSC上において描画を行う位置に指50を近づける。第2撮像部172は、スクリーンSCに近づく指50を撮像し、指50が映る画像を出力する。指50がスクリーンSCに接触すると、発光装置30が発した赤外光が指50で反射する。第1撮像部171は、指50で発光した赤外光を撮像し、赤外光が映った画像を出力する。   When drawing a projected image with the drawing function, the user brings the finger 50 close to a position on the screen SC where the drawing is performed. The second imaging unit 172 images the finger 50 approaching the screen SC and outputs an image in which the finger 50 is reflected. When the finger 50 contacts the screen SC, the infrared light emitted from the light emitting device 30 is reflected by the finger 50. The first imaging unit 171 images the infrared light emitted from the finger 50 and outputs an image in which the infrared light is reflected.

制御部110(検知部113)は、第1撮像部171から供給される画像を解析し、画像中にある赤外光の位置に基づいて指50の位置を特定する。また、制御部110(処理部114)は、赤外光が第1撮像部171から供給される画像に映ったときに第2撮像部172から供給された画像を解析し、指50がスクリーンSCに接したときの指50の形状を取得する。   The control unit 110 (detection unit 113) analyzes the image supplied from the first imaging unit 171 and identifies the position of the finger 50 based on the position of infrared light in the image. Further, the control unit 110 (processing unit 114) analyzes the image supplied from the second imaging unit 172 when infrared light is reflected in the image supplied from the first imaging unit 171, and the finger 50 moves the screen SC. The shape of the finger 50 when touching is obtained.

図5の(a)は、第2撮像部172が供給した画像(撮像画像の一例)に映る指50の一例を示した図であり、図5の(b)は、スクリーンSCに接したときの指50をスクリーンSCの側方から見た図である。図5の(a)と図5の(b)に示したように、指50がスクリーンSCに接したときには、指50はスクリーンSCに接触する前の形状を維持している。制御部110(処理部114)は、図5の(a)に示した指50の形状をRAMに記憶させる。   FIG. 5A is a diagram illustrating an example of the finger 50 shown in the image (an example of the captured image) supplied by the second imaging unit 172, and FIG. 5B is a diagram when the screen SC is in contact with the screen SC. It is the figure which looked at the finger | toe 50 from the side of the screen SC. As shown in FIGS. 5A and 5B, when the finger 50 is in contact with the screen SC, the finger 50 maintains the shape before contacting the screen SC. The control unit 110 (processing unit 114) stores the shape of the finger 50 shown in FIG. 5A in the RAM.

次に制御部110(描画部112)は、検出した指示体の位置に応じてオンスクリーン画像を生成し、生成したオンスクリーン画像を映像処理部150へ供給する。オンスクリーン画像が映像処理部150へ供給されると、オンスクリーン画像がPC40から供給されている画像に重畳されて投写される。例えば、ユーザーが、図5に示した指50の状態を維持したまま、スクリーンSC上で指50を移動させた場合、図6に例示したように、予め定められた太さであって、指50の移動軌跡に対応した線のオンスクリーン画像(以下、説明の便宜上、描画像G11と称する)が投写される。   Next, the control unit 110 (drawing unit 112) generates an on-screen image according to the detected position of the indicator, and supplies the generated on-screen image to the video processing unit 150. When the on-screen image is supplied to the video processing unit 150, the on-screen image is superimposed on the image supplied from the PC 40 and projected. For example, when the user moves the finger 50 on the screen SC while maintaining the state of the finger 50 shown in FIG. 5, the thickness is a predetermined thickness as illustrated in FIG. An on-screen image of a line corresponding to 50 movement trajectories (hereinafter referred to as a drawing image G11 for convenience of explanation) is projected.

次にユーザーが指50をスクリーンSCに押し付ける力を強くすると、図7の(a)及び図7の(b)に示したように指50が変形する。図7の(a)は、第2撮像部172が供給した画像に映る指50の一例を示した図であり、図7の(b)は、スクリーンSCに接したときの指50をスクリーンSCの側方から見た図である。   Next, when the user increases the force with which the finger 50 is pressed against the screen SC, the finger 50 is deformed as shown in FIGS. 7A and 7B. FIG. 7A is a diagram illustrating an example of the finger 50 shown in the image supplied by the second imaging unit 172, and FIG. 7B is a diagram illustrating the finger 50 when touching the screen SC. It is the figure seen from the side.

制御部110(処理部114)は、第2撮像部172から供給された画像を解析して指50の形状を取得する。次に制御部110は、新たに取得した指50の形状とRAMに記憶した指50の形状とを比較し、指50の変形量を特定する。制御部110は、指50の変形量としては、例えば、図5に示した状態のときの指50の末節と中節とがなす角度を基準とし、基準とした角度と、図7に示した状態のときの指50の末節と中節とがなす角度との差を変形量とする。   The control unit 110 (processing unit 114) analyzes the image supplied from the second imaging unit 172 and acquires the shape of the finger 50. Next, the control unit 110 compares the newly acquired shape of the finger 50 with the shape of the finger 50 stored in the RAM, and specifies the deformation amount of the finger 50. The control unit 110 determines the deformation amount of the finger 50, for example, based on the angle formed by the terminal and middle clauses of the finger 50 in the state shown in FIG. The difference between the angle formed by the last node and the middle node of the finger 50 in the state is defined as the deformation amount.

次に制御部110(処理部114)は、指50の移動に応じて描画する線の画像の太さ(態様)を特定した変形量に応じた太さ(態様)とし、検出した指示体の位置に応じたオンスクリーン画像を生成し、生成したオンスクリーン画像を映像処理部150へ供給する処理を行う。ここで、本実施形態においては、制御部110は、描画する線の太さを特定した変形量が大きくなるにつれて太くする。   Next, the control unit 110 (the processing unit 114) sets the thickness (aspect) of the line image to be drawn according to the movement of the finger 50 to a thickness (aspect) corresponding to the specified deformation amount, and detects the detected indicator. An on-screen image corresponding to the position is generated, and processing for supplying the generated on-screen image to the video processing unit 150 is performed. Here, in the present embodiment, the control unit 110 increases the thickness as the deformation amount specifying the thickness of the line to be drawn increases.

オンスクリーン画像が映像処理部150へ供給されると、オンスクリーン画像がPC40から供給されている画像に重畳されて投写される。例えば、ユーザーが、描画像G11の端から図7に示した指50の状態を維持したまま、スクリーンSC上で指50を移動させた場合、図8に例示したように、描画像G11より太い線のオンスクリーン画像(以下、説明の便宜上、描画像G12と称する)が投写される。   When the on-screen image is supplied to the video processing unit 150, the on-screen image is superimposed on the image supplied from the PC 40 and projected. For example, when the user moves the finger 50 on the screen SC while maintaining the state of the finger 50 shown in FIG. 7 from the end of the drawn image G11, as illustrated in FIG. 8, it is thicker than the drawn image G11. A line on-screen image (hereinafter referred to as a drawn image G12 for convenience of description) is projected.

ユーザーは、描画する線の太さを細くする場合、指50をスクリーンSCに押し付ける力を弱くし、指50の状態を図5に示した状態とする。制御部110は、第2撮像部172から供給された画像を解析して指50の形状を取得する。次に制御部110は、新たに取得した指50の形状とRAMに記憶した指50の形状とを比較し、指50の変形量を特定する。制御部110は、指50の移動に応じて描画する線の画像の太さを、特定した変形量に応じた太さとし、検出した指示体の位置に応じたオンスクリーン画像を生成し、生成したオンスクリーン画像を映像処理部150へ供給する。ここで、制御部110は、新たに取得した指50の形状とRAMに記憶した指50の形状とが同じであると、描画する線の太さを指50がスクリーンSCに接触したときの太さに戻す。   When the thickness of the line to be drawn is reduced, the user weakens the force of pressing the finger 50 against the screen SC and sets the state of the finger 50 to the state shown in FIG. The controller 110 analyzes the image supplied from the second imaging unit 172 and acquires the shape of the finger 50. Next, the control unit 110 compares the newly acquired shape of the finger 50 with the shape of the finger 50 stored in the RAM, and specifies the deformation amount of the finger 50. The control unit 110 generates the on-screen image corresponding to the detected position of the indicator by setting the thickness of the line image to be drawn according to the movement of the finger 50 to the thickness corresponding to the specified deformation amount. The on-screen image is supplied to the video processing unit 150. Here, if the newly acquired shape of the finger 50 and the shape of the finger 50 stored in the RAM are the same, the control unit 110 determines the thickness of the line to be drawn when the finger 50 touches the screen SC. Return to the size.

このオンスクリーン画像が映像処理部150へ供給されると、オンスクリーン画像がPC40から供給されている画像に重畳されて投写される。例えば、ユーザーが、描画像G12の端から図5に示した指50の状態を維持したまま、スクリーンSC上で指50を移動させた場合、図9に例示したように、描画像G11と同じ太さの線のオンスクリーン画像(以下、説明の便宜上、描画像G13と称する)が投写される。   When the on-screen image is supplied to the video processing unit 150, the on-screen image is superimposed on the image supplied from the PC 40 and projected. For example, when the user moves the finger 50 on the screen SC while maintaining the state of the finger 50 shown in FIG. 5 from the end of the drawing image G12, as illustrated in FIG. 9, the same as the drawing image G11. An on-screen image having a thickness line (hereinafter referred to as a drawn image G13 for convenience of explanation) is projected.

以上説明したように本実施形態によれば、指示体に電子回路や部品を設けることなく、指示体の状態変化に応じた描画を行うことができる。   As described above, according to the present embodiment, it is possible to perform drawing according to a change in the state of the indicator without providing an electronic circuit or a component on the indicator.

[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した各実施形態及び以下の変形例は、一つ又は複数を適宜組み合わせて実施してもよい。
[Modification]
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It can implement with another various form. For example, the present invention may be implemented by modifying the above-described embodiment as follows. In addition, you may implement each embodiment mentioned above and the following modifications, combining one or more suitably.

上述した実施形態においては、描画する線の太さを指50の末節と中節とのなす角度の変化に応じて変更しているが、描画する線の太さを変更する構成は、実施形態の構成に限定されるものではない。例えば、制御部110は、第2撮像部172から供給される画像から指50とスクリーンSCの法線とがなす角度を検知し、描画する線の太さを検知した角度に応じて変更するようにしてもよい。この検知した角度も、本発明に係る変化量の一例である。この構成の場合、制御部110は、描画する線の太さを検知した角度が大きくなるにつれて太くするようにしてもよい。また、指50とスクリーンSCの法線とがなす角度を検知する構成の場合、指50が接触したときの角度を基準とし、描画する線の太さを基準とした角度との差が大きくなるにつれて太くする構成としてもよい。   In the embodiment described above, the thickness of the line to be drawn is changed according to the change in the angle between the last clause and the middle clause of the finger 50. However, the configuration for changing the thickness of the line to be drawn is described in the embodiment. It is not limited to the configuration of For example, the control unit 110 detects an angle formed by the finger 50 and the normal line of the screen SC from the image supplied from the second imaging unit 172, and changes the thickness of the line to be drawn according to the detected angle. It may be. This detected angle is also an example of the amount of change according to the present invention. In the case of this configuration, the control unit 110 may increase the thickness as the angle at which the thickness of the line to be drawn is detected increases. Further, in the case of detecting the angle formed by the finger 50 and the normal line of the screen SC, the difference between the angle when the finger 50 is in contact and the angle based on the thickness of the line to be drawn becomes large. It is good also as a structure thickened as it goes.

上述した動作例においては、描画する線の太さを指50の末節が手の甲側に曲がったときの末節と中節とのなす角度に応じて変更しているが、描画する線の太さについては、指50の末節が手のひら側に曲がったときの末節と中節とのなす角度に応じて変更するようにしてもよい。   In the above-described operation example, the thickness of the line to be drawn is changed according to the angle formed between the last clause and the middle clause when the last clause of the finger 50 is bent toward the back of the hand. May be changed according to the angle formed between the last clause and the middle clause when the last clause of the finger 50 is bent to the palm side.

上述した実施形態においては、制御部110は、指50の位置及び変形量を特定し、特定した位置及び変形量に応じて線の描画を行っているが、実施形態の構成に限定されるものではない。例えば、制御部110は、弾性体であって赤外光を反射する部材をペン型に形成した指示体について、第2撮像部172から供給される画像を解析して位置及び変形量を特定し、特定した位置及び変形量に応じて、線の描画を行う構成としてもよい。この構成の場合、制御部110は、指示体の曲がりの度合いや、指示体とスクリーンSCの法線とがなす角度に応じて、描画する線の太さを太くするようにしてもよい。   In the embodiment described above, the control unit 110 identifies the position and deformation amount of the finger 50 and draws a line according to the identified position and deformation amount, but is limited to the configuration of the embodiment. is not. For example, the control unit 110 analyzes the image supplied from the second imaging unit 172 and identifies the position and the deformation amount of the indicator that is an elastic body and reflects the infrared light in a pen shape. The line may be drawn according to the specified position and deformation amount. In the case of this configuration, the control unit 110 may increase the thickness of the line to be drawn according to the degree of bending of the indicator and the angle between the indicator and the normal line of the screen SC.

また、本発明においては、弾性を有する部材で指示体20の筐体を形成してもよい。この構成の場合、制御部110は、第2撮像部172から供給される画像を解析し、筐体の曲がりの度合いや、指示体20とスクリーンSCの法線とがなす角度に応じて、描画する線の太さを太くするようにしてもよい。   In the present invention, the casing of the indicator 20 may be formed of an elastic member. In the case of this configuration, the control unit 110 analyzes the image supplied from the second imaging unit 172 and draws according to the degree of bending of the housing and the angle formed by the indicator 20 and the normal line of the screen SC. You may make it thicken the line to do.

上述した実施形態や変形例においては、制御部110は、描画する線の太さを指50の変形量や指50とスクリーンSCとがなす角度に応じて変更する処理を行っているが、指50の変形量や指50とスクリーンSCとがなす角度に応じて行う処理は、描画する線の太さを変更する処理に限定されるものではない。例えば、制御部110は、描画する線の濃さを、指50の変形量や指50とスクリーンSCの法線とがなす角度に応じて変更するようにしてもよい。この構成の場合、制御部110は、描画する線について、指50の変形量が大きくなるにつれて線の色の濃さを濃くする構成としてもよい。また、制御部110は、描画する線について、指50とスクリーンSCの法線とがなす角度が大きくなるにつれて線の色の濃さを濃くする構成としてもよい。また、制御部110は、描画する線の色を、指50の変形量や指50とスクリーンSCの法線とがなす角度に応じて変更するようにしてもよい。
例えば、制御部110は、指50の変形量が予め定められた閾値未満の場合には、描画する線の色を黒とし、指50の変形量が予め定められた閾値以上である場合には、描画する線の色を赤とするようにしてもよい。また、この構成においては、変形量が閾値未満のときの線の色と変形量が閾値以上のときの線の色をユーザーが設定できる構成としてもよい。
In the embodiment and the modification described above, the control unit 110 performs a process of changing the thickness of the line to be drawn according to the deformation amount of the finger 50 and the angle formed by the finger 50 and the screen SC. The processing performed according to the amount of deformation of 50 and the angle formed by the finger 50 and the screen SC is not limited to the processing of changing the thickness of the line to be drawn. For example, the control unit 110 may change the density of the line to be drawn according to the deformation amount of the finger 50 and the angle formed by the finger 50 and the normal line of the screen SC. In the case of this configuration, the control unit 110 may be configured to increase the density of the color of the line to be drawn as the deformation amount of the finger 50 increases. Further, the control unit 110 may be configured to increase the color depth of the line to be drawn as the angle formed by the finger 50 and the normal line of the screen SC increases. The control unit 110 may change the color of the line to be drawn according to the deformation amount of the finger 50 and the angle formed by the finger 50 and the normal line of the screen SC.
For example, when the deformation amount of the finger 50 is less than a predetermined threshold value, the control unit 110 sets the color of the line to be drawn to black, and when the deformation amount of the finger 50 is equal to or greater than the predetermined threshold value. The line to be drawn may be red. In this configuration, the user may be able to set the line color when the deformation amount is less than the threshold and the line color when the deformation amount is greater than or equal to the threshold.

本発明においては、プロジェクター10は、第1撮像部171を複数有し、複数の第1撮像部171から得られる画像で指示体20や指50の位置を特定する構成としてもよい。また、プロジェクター10は、第2撮像部172を複数有し、複数の第2撮像部172から得られる画像で指示体20や指50の変形量を特定する構成としてもよい。   In the present invention, the projector 10 may include a plurality of first imaging units 171 and specify the positions of the indicator 20 and the finger 50 using images obtained from the plurality of first imaging units 171. In addition, the projector 10 may include a plurality of second imaging units 172, and may specify a deformation amount of the indicator 20 or the finger 50 using images obtained from the plurality of second imaging units 172.

上述した実施形態においては、第2撮像部172をプロジェクター10が備える構成となっているが、この構成に限定されるものではない。例えば、第2撮像部172をプロジェクター10とは別体とし、スクリーンSCの側方に配置する構成としてもよい。   In the embodiment described above, the projector 10 includes the second imaging unit 172, but is not limited to this configuration. For example, the second imaging unit 172 may be separated from the projector 10 and arranged on the side of the screen SC.

上述した実施形態においては、制御部110は、描画する線について、指50がスクリーンSCに接したときからの指50の変形量に応じて線の太さを変更しているが、この構成に限定されるものではない。例えば、制御部110は、特定した指50の変化量が予め定められた閾値未満の場合には、線の太さを変更せず、指50の変化量が予め定められた閾値以上となると、変化量に応じて線の太さを変更するようにしてもよい。   In the embodiment described above, the control unit 110 changes the thickness of the line to be drawn according to the amount of deformation of the finger 50 from when the finger 50 contacts the screen SC. It is not limited. For example, when the change amount of the specified finger 50 is less than a predetermined threshold value, the control unit 110 does not change the thickness of the line, and the change amount of the finger 50 is equal to or greater than the predetermined threshold value. You may make it change the thickness of a line according to change amount.

本発明においては、制御部110は、指50の変化量が予め定められた第1の範囲内である場合には、描画する線の太さを第1の太さとしてもよい。また、この構成においては、変化量が第1の範囲を超える値である場合には、描画する線の太さを第1の太さより太くし、変化量が第1の範囲を下回る値である場合には、描画する線を第1の太さより細くする構成としてもよい。   In the present invention, the control unit 110 may set the thickness of the line to be drawn to the first thickness when the amount of change of the finger 50 is within a predetermined first range. In this configuration, when the amount of change exceeds the first range, the thickness of the line to be drawn is made thicker than the first thickness, and the amount of change is a value below the first range. In such a case, the line to be drawn may be thinner than the first thickness.

本発明においては、描画する線の太さを変更する処理を指50の変化量に応じて実行するが、指50の変化量に応じて実行する処理は、描画する線の太さを変更する処理に限定されるものではなない。例えば、プロジェクター10においてPC操作機能をオンとした場合、投写面をタッチパネルとして機能させ、指50でPC40を操作することが可能となる。
PC操作機能がオンである場合、指50でオブジェクトの位置に触ると、オブジェクトをドラッグする動作となるが、指50の変化量に応じてオブジェクトの選択範囲を変更する構成としてもよい。この構成によれば、指50の変化量に応じて複数のオブジェクトを選択し、複数のオブジェクトを移動させることが可能となる。
In the present invention, the process of changing the thickness of the line to be drawn is executed according to the change amount of the finger 50, but the process executed according to the change amount of the finger 50 changes the thickness of the line to be drawn. It is not limited to processing. For example, when the PC operation function is turned on in the projector 10, the projection surface functions as a touch panel and the PC 40 can be operated with the finger 50.
When the PC operation function is on, the object is dragged when the finger 50 touches the position of the object, but the object selection range may be changed according to the amount of change of the finger 50. According to this configuration, it is possible to select a plurality of objects according to the amount of change of the finger 50 and move the plurality of objects.

1…表示システム、10…プロジェクター、20…指示体、30…発光装置、40…PC、50…指、110…制御部、112…描画部、113…検知部、114…処理部、120…記憶部、130…操作部、140…投写部、150…映像処理部、160…映像インターフェース、171…第1撮像部、172…第2撮像部、180…通信部、210…制御部、211…信号取得部、212…発光制御部、220…通信部、230…発光部、240…操作部、250…電源。 DESCRIPTION OF SYMBOLS 1 ... Display system, 10 ... Projector, 20 ... Indicator, 30 ... Light-emitting device, 40 ... PC, 50 ... Finger, 110 ... Control part, 112 ... Drawing part, 113 ... Detection part, 114 ... Processing part, 120 ... Memory | storage , 130: operation unit, 140 ... projection unit, 150 ... video processing unit, 160 ... video interface, 171 ... first imaging unit, 172 ... second imaging unit, 180 ... communication unit, 210 ... control unit, 211 ... signal Acquisition unit, 212 ... light emission control unit, 220 ... communication unit, 230 ... light emission unit, 240 ... operation unit, 250 ... power source.

Claims (6)

画像を表示する表示面に対する指示体の位置及び前記表示面への前記指示体の接触を検知する検知部と、
前記検知部が検知した位置に基づく描画像を生成する描画部と、
前記表示面に表示されている前記画像の少なくとも一部を含む領域を撮像して得られた撮像画像を出力する撮像部と、
前記表示面への前記指示体の接触を前記検知部が検知しているときに前記撮像部から出力される前記撮像画像に映る前記指示体の変化に応じて前記描画像を処理する処理部と、
前記処理部により処理された描画像を外部装置から供給された外部画像に重畳した画像を生成する重畳部と、
前記重畳部が生成した画像を前記表示面に表示する表示部と
を備える表示装置。
A detection unit for detecting the position of the indicator with respect to the display surface displaying the image and the contact of the indicator with the display surface;
A drawing unit that generates a drawing image based on the position detected by the detection unit;
An imaging unit that outputs a captured image obtained by imaging an area including at least a part of the image displayed on the display surface;
A processing unit that processes the drawn image in accordance with a change in the indicator reflected in the captured image output from the imaging unit when the detection unit detects contact of the indicator with the display surface; ,
A superimposing unit that generates an image in which the rendered image processed by the processing unit is superimposed on an external image supplied from an external device;
A display unit configured to display an image generated by the superimposing unit on the display surface.
前記処理部が行う処理は、前記描画像の態様を変更する処理である
請求項1に記載の表示装置。
The display device according to claim 1, wherein the process performed by the processing unit is a process of changing an aspect of the drawn image.
前記処理部は、前記撮像部から出力された前記撮像画像に映る前記指示体の形状の変化量に応じて、前記描画像の態様を変更する
請求項2に記載の表示装置。
The display device according to claim 2, wherein the processing unit changes a form of the drawn image in accordance with a change amount of a shape of the indicator reflected in the captured image output from the imaging unit.
前記処理部は、前記撮像部から出力された前記撮像画像に映る前記指示体の傾きの変化量に応じて、前記描画像の態様を変更する
請求項2に記載の表示装置。
The display device according to claim 2, wherein the processing unit changes a form of the drawn image in accordance with a change amount of an inclination of the indicator reflected in the captured image output from the imaging unit.
前記撮像部を複数有し、前記処理部は、複数の前記撮像部から出力された前記撮像画像の変化に応じて前記描画像を処理する
請求項1から請求項4のいずれか一項に記載の表示装置。
5. The imaging unit according to claim 1, wherein the imaging unit includes a plurality of the imaging units, and the processing unit processes the drawn image according to a change in the captured image output from the plurality of imaging units. Display device.
画像を表示する表示面に対する指示体の位置及び前記表示面への前記指示体の接触を検知する検知ステップと、
前記検知ステップで検知した位置に基づく描画像を生成する描画ステップと、
前記表示面への前記指示体の接触を前記検知ステップで検知しているときに、前記表示面に表示されている前記画像の少なくとも一部を含む領域を撮像して得られた撮像画像に映る前記指示体の変化に応じて前記描画像を処理する処理ステップと、
前記処理ステップにより処理された描画像を外部装置から供給された外部画像に重畳した画像を生成する重畳ステップと、
前記重畳ステップで生成した画像を前記表示面に表示する表示ステップと
を備える表示方法。
A detection step of detecting a position of the indicator with respect to a display surface for displaying an image and a contact of the indicator with the display surface;
A drawing step for generating a drawing image based on the position detected in the detection step;
When the contact of the indicator on the display surface is detected in the detection step, it appears in a captured image obtained by capturing an area including at least a part of the image displayed on the display surface. Processing steps for processing the drawn image in response to changes in the indicator;
A superimposing step for generating an image in which the rendered image processed in the processing step is superimposed on an external image supplied from an external device;
A display step of displaying the image generated in the superimposing step on the display surface.
JP2016095865A 2016-05-12 2016-05-12 Display device and display method Pending JP2017204162A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016095865A JP2017204162A (en) 2016-05-12 2016-05-12 Display device and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016095865A JP2017204162A (en) 2016-05-12 2016-05-12 Display device and display method

Publications (1)

Publication Number Publication Date
JP2017204162A true JP2017204162A (en) 2017-11-16

Family

ID=60322223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016095865A Pending JP2017204162A (en) 2016-05-12 2016-05-12 Display device and display method

Country Status (1)

Country Link
JP (1) JP2017204162A (en)

Similar Documents

Publication Publication Date Title
US10921930B2 (en) Display apparatus, display system, and method for controlling display apparatus
US10228611B2 (en) Projector, projection system, and control method of projector
JP6417690B2 (en) Projector, display device, and projector control method
US9134814B2 (en) Input device, display system and input method
US10416813B2 (en) Display system, display device, information processing device, and information processing method
JP6569449B2 (en) Display system, projector and display system control method
JP2017182109A (en) Display system, information processing device, projector, and information processing method
JP6273671B2 (en) Projector, display system, and projector control method
US20150279336A1 (en) Bidirectional display method and bidirectional display device
US10289220B2 (en) Electronic device, and method of controlling electronic device
US20170270700A1 (en) Display device, method of controlling display device, and program
JP6750268B2 (en) Display device and display device control method
JP6728849B2 (en) Display device and display device control method
JP2017204162A (en) Display device and display method
JP6586891B2 (en) Projector and projector control method
JP6642032B2 (en) Projector and projector control method
JP2017068001A (en) Display and display control method
JP6707945B2 (en) Display device and display device control method
JP6145963B2 (en) Projector, display system, and projector control method
JP2016105222A (en) Projector system, light-emitting device and control method of projector system
US20180039407A1 (en) Display device and display control method
JP2017092849A (en) Image display system
JP2016151924A (en) Projector and control method therefor
JP2013050622A (en) Projection type video display device
JP2017181539A (en) Display device and method of controlling the same

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180907

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181120