[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2008287691A - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP2008287691A
JP2008287691A JP2007237158A JP2007237158A JP2008287691A JP 2008287691 A JP2008287691 A JP 2008287691A JP 2007237158 A JP2007237158 A JP 2007237158A JP 2007237158 A JP2007237158 A JP 2007237158A JP 2008287691 A JP2008287691 A JP 2008287691A
Authority
JP
Japan
Prior art keywords
image
annotation
annotation image
area
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007237158A
Other languages
Japanese (ja)
Other versions
JP4858375B2 (en
JP2008287691A5 (en
Inventor
Atsushi Shingu
淳 新宮
Katsura Sakai
桂 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2007237158A priority Critical patent/JP4858375B2/en
Priority to US12/044,009 priority patent/US8022997B2/en
Publication of JP2008287691A publication Critical patent/JP2008287691A/en
Publication of JP2008287691A5 publication Critical patent/JP2008287691A5/ja
Priority to US13/211,064 priority patent/US8581993B2/en
Application granted granted Critical
Publication of JP4858375B2 publication Critical patent/JP4858375B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information processing device and a control program for reducing user's operation burden. <P>SOLUTION: A PC 1 is connected to a projector 4 that projects an annotation image input from a PC 2 onto a projection area including an object and a background, and is connected to a video camera that photographs the projection area including the object and the background. A control part 101 of the PC 1 detects movement of an object 8 on the basis of the photographic image photographed by the video camera and extracts a changed region on the photographic image, which is caused by the movement of the object 8, and erases an annotation image (note image) when the changed region includes the annotation image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、情報処理装置及びプログラムに関する。   The present invention relates to an information processing apparatus and a program.

従来より、ビデオカメラ及びプロジェクタが接続されているサーバ(例えばコンピュータ)と、ネットワークを介して当該サーバに接続される遠隔地のクライアント(例えばコンピュータ)とを備える遠隔指示システムが知られている(例えば、特許文献1、2参照)。   Conventionally, a remote instruction system including a server (for example, a computer) to which a video camera and a projector are connected and a remote client (for example, a computer) connected to the server via a network is known (for example, Patent Documents 1 and 2).

この遠隔指示システムでは、サーバは、サーバに接続されているビデオカメラによって撮影された対象物の撮影画像を、ネットワークを介してクライアントに送信する。クライアントは、クライアントに接続されている表示装置の表示画面に立体物を含む撮影画像を表示し、当該表示画面上にアノテーション画像(線、図形、文字)などが書き込まれると、当該アノテーション画像をネットワークを介してサーバに送信する。サーバは、受信したアノテーション画像をプロジェクタに送信し、プロジェクタは受信したアノテーション画像を対象物を含む投影領域の適切な位置(これは、クライアントが、撮影画像の範囲内でアノテーション画像を書き込んだ位置に対応する)に投影する。
米国特許公開2004/0070674号公報 特開2005−33756号公報
In this remote instruction system, a server transmits a captured image of an object captured by a video camera connected to the server to a client via a network. The client displays a captured image including a three-dimensional object on a display screen of a display device connected to the client, and when an annotation image (line, figure, character) or the like is written on the display screen, the annotation image is displayed on the network. To the server via The server sends the received annotation image to the projector, and the projector sends the received annotation image to an appropriate position of the projection area including the object (this is the position where the client wrote the annotation image within the captured image range). To the corresponding).
US Patent Publication No. 2004/0070674 JP 2005-33756 A

しかしながら、上記遠隔指示システムでは、表示画面に表示されている対象物上に、クライアントのユーザによってアノテーション画像が書き込まれた後で、対象物が移動されると、当該アノテーション画像は意味のないものになる。このため、クライアントのユーザは意味のなくなったアノテーション画像を表示画面から削除するが、この作業は、クライアントのユーザにとって手間と時間がかかる。   However, in the above remote instruction system, if an annotation image is written on the object displayed on the display screen by the user of the client and then the object is moved, the annotation image becomes meaningless. Become. For this reason, the client user deletes the annotation image that has become meaningless from the display screen, but this operation takes time and effort for the client user.

また、上記遠隔指示システムでは、当該遠隔指示システムを用いた会議の議事録を作成したりするために、アノテーション画像が投影された対象物の画像を適宜保存しておくことが望ましい。しかしながら、ユーザが、画像を保存する適切なタイミングを判断するのは難しいため、適切な画像の保存を行うことができない可能性がある。また、ユーザは、会議の最中に、画像保存のための適切なタイミングを計らなければならないため、この作業が、ユーザにとって負担となる可能性がある。   In the remote instruction system, it is desirable to appropriately store an image of an object on which an annotation image is projected in order to create a minutes of a meeting using the remote instruction system. However, since it is difficult for the user to determine an appropriate timing for saving an image, there is a possibility that an appropriate image cannot be saved. Moreover, since the user must measure an appropriate timing for image storage during the meeting, this operation may be a burden on the user.

本発明は、このような事情に鑑みてなされたものであり、その目的は、ユーザの操作負担を軽減することができる情報処理装置及びプログラムを提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an information processing apparatus and a program capable of reducing a user's operation burden.

上記目的を達成するため、請求項1の情報処理装置は、外部端末から入力された注釈画像を対象物及び背景を含む投影領域に投影する投影装置、及び当該対象物及び当該背景を含む投影領域を撮影する撮影装置に接続される情報処理装置であって、前記撮影装置により撮影された撮影画像に基づいて、前記対象物の移動を検出する検出手段と、前記対象物の移動により生じた前記撮影画像上の変化領域を抽出する抽出手段と、当該変化領域に前記注釈画像が含まれる場合に、前記撮影画像及び前記注釈画像の少なくとも一方に対する処理を実行する処理手段とを備えることを特徴とする。   In order to achieve the above object, an information processing apparatus according to claim 1 is a projection apparatus that projects an annotation image input from an external terminal onto a projection area including an object and a background, and a projection area including the object and the background. An information processing device connected to a photographing device for photographing a detection means for detecting movement of the object based on a photographed image photographed by the photographing device; An extraction unit that extracts a change area on the photographed image; and a processing unit that executes processing on at least one of the photographed image and the annotation image when the annotation image is included in the change area. To do.

請求項2の情報処理装置は、請求項1記載の情報処理装置において、前記検出手段は、前記撮影装置により撮影された撮影画像と、当該撮影画像の直後に撮影された撮影画像とを比較することにより、前記対象物の移動を検出することを特徴とする。   The information processing apparatus according to claim 2 is the information processing apparatus according to claim 1, wherein the detection unit compares a captured image captured by the imaging apparatus with a captured image captured immediately after the captured image. Thus, the movement of the object is detected.

請求項3の情報処理装置は、請求項1又は2記載の情報処理装置において、前記検出手段は、前記撮影装置により撮影された撮影画像と、当該撮影画像の直後に撮影された撮影画像とをそれぞれ複数の小領域に分割し、互いに対応する分割された小領域同士を比較することにより、前記対象物の移動を検出することを特徴とする。   The information processing apparatus according to claim 3 is the information processing apparatus according to claim 1 or 2, wherein the detection unit includes a photographed image photographed by the photographing apparatus and a photographed image photographed immediately after the photographed image. The movement of the object is detected by dividing the object into a plurality of small areas and comparing the divided small areas corresponding to each other.

請求項4の情報処理装置は、請求項1乃至3のいずれか1項に記載の情報処理装置において、前記抽出手段は、前記外部端末からの前記注釈画像の入力中に生じる前記変化領域又は前記外部端末からの前記注釈画像の座標情報に基づいて前記表示領域内の前記注釈画像の領域を無視することを特徴とする。   The information processing device according to claim 4 is the information processing device according to any one of claims 1 to 3, wherein the extraction unit includes the change area generated during the input of the annotation image from the external terminal or the The region of the annotation image in the display region is ignored based on the coordinate information of the annotation image from an external terminal.

請求項5の情報処理装置は、請求項1乃至4のいずれか1項に記載の情報処理装置において、前記処理手段により実行される処理には、前記注釈画像の消去が含まれることを特徴とする。   The information processing apparatus according to claim 5 is the information processing apparatus according to any one of claims 1 to 4, wherein the processing executed by the processing unit includes erasure of the annotation image. To do.

請求項6の情報処理装置は、請求項5に記載の情報処理装置において、前記処理手段で消去される注釈画像の情報を前記外部端末に送信する送信手段をさらに備え、前記外部端末は、前記撮影装置による撮影画像を表示すると共に、前記送信手段からの消去される注釈画像の情報に応じて、当該注釈画像の消去の取消を前記処理手段に対して指示可能な指示部を表示する画像表示手段を備えることを特徴とする。   The information processing apparatus according to claim 6 is the information processing apparatus according to claim 5, further comprising transmission means for transmitting information of the annotation image to be erased by the processing means to the external terminal, wherein the external terminal An image display for displaying a photographed image by the photographing apparatus and displaying an instruction unit capable of instructing the processing means to cancel the erasure of the annotation image according to the information of the annotation image to be erased from the transmission means. Means are provided.

請求項7の情報処理装置は、請求項6に記載の情報処理装置において、前記画像表示手段は、前記送信手段からの消去される注釈画像の情報に応じて、当該注釈画像を一定時間点滅表示することを特徴とする。   The information processing device according to claim 7 is the information processing device according to claim 6, wherein the image display means blinks the annotation image for a certain period of time in accordance with the information of the annotation image to be deleted from the transmission means. It is characterized by doing.

請求項8の情報処理装置は、請求項5乃至7のいずれか1項に記載の情報処理装置において、前記処理手段は、前記変化領域に前記注釈画像の一部が含まれる場合に、当該注釈画像の全てを消去することを特徴とする。   The information processing device according to claim 8 is the information processing device according to any one of claims 5 to 7, wherein the processing unit includes the annotation when the change area includes a part of the annotation image. All the images are erased.

請求項9の情報処理装置は、請求項5乃至8のいずれか1項に記載の情報処理装置において、前記処理手段は、前記変化領域から所定距離広げた範囲内にある注釈画像をも消去することを特徴とする。   The information processing apparatus according to claim 9 is the information processing apparatus according to any one of claims 5 to 8, wherein the processing unit also erases an annotation image within a range that is widened by a predetermined distance from the change area. It is characterized by that.

請求項10の情報処理装置は、請求項5乃至9のいずれか1項に記載の情報処理装置において、前記処理手段は、前記外部端末から入力された複数の注釈画像を1つのグループとして扱い、少なくとも1つの注釈画像を消去する場合には、同一グループに属する他の注釈画像も消去することを特徴とする。   The information processing apparatus according to claim 10 is the information processing apparatus according to any one of claims 5 to 9, wherein the processing unit treats a plurality of annotation images input from the external terminal as one group, When erasing at least one annotation image, another annotation image belonging to the same group is also erased.

請求項11の情報処理装置は、請求項5乃至10のいずれか1項に記載の情報処理装置において、前記外部端末から前記注釈画像及び当該注釈画像に関連付けられている領域の情報を取得する取得手段を更に備え、前記処理手段は、前記変化領域に前記注釈画像に関連付けられている領域が含まれる場合に、前記注釈画像を消去することを特徴とする。   The information processing apparatus according to claim 11 is the information processing apparatus according to any one of claims 5 to 10, wherein the annotation image and information about a region associated with the annotation image are acquired from the external terminal. Means for erasing the annotation image when the change area includes an area associated with the annotation image.

請求項12の情報処理装置は、請求項1乃至11のいずれか1項に記載の情報処理装置において、前記処理手段により実行される処理には、前記変化領域に前記注釈画像が含まれる前の時点における前記撮影画像の記憶、が含まれることを特徴とする。   The information processing device according to claim 12 is the information processing device according to any one of claims 1 to 11, wherein the processing executed by the processing unit is performed before the annotation image is included in the change area. Storage of the photographed image at the time point is included.

請求項13の情報処理装置は、請求項12に記載の情報処理装置において、前記処理手段は、前記変化領域に前記注釈画像の少なくとも一部が含まれる場合に、その前の時点における前記撮影画像を記憶することを特徴とする。   The information processing device according to claim 13 is the information processing device according to claim 12, wherein when the change area includes at least a part of the annotation image, the photographed image at the previous time point Is stored.

請求項14の情報処理装置は、請求項12又は13に記載の情報処理装置において、前記処理手段は、前記変化領域から所定距離広げた範囲内に前記注釈画像の少なくとも一部が含まれる場合にも、その前の時点における前記撮影画像を記憶することを特徴とする。   The information processing apparatus according to claim 14 is the information processing apparatus according to claim 12 or 13, wherein the processing unit includes at least a part of the annotation image within a range that is widened by a predetermined distance from the change area. Also, the photographed image at the previous time point is stored.

請求項15の情報処理装置は、対象物及び外部端末から入力された注釈画像を表示領域に表示する表示手段と、前記対象物の移動を検出する検出手段と、前記対象物の移動により生じた、前記表示領域内の変化領域を抽出する抽出手段と、当該変化領域に前記注釈画像が含まれる場合に、前記表示領域内における表示に対する処理を実行する処理手段とを備えることを特徴とする。   The information processing apparatus according to claim 15 is caused by the movement of the target object, a display unit that displays an annotation image input from an external terminal in a display area, a detection unit that detects the movement of the target object, and the target object. And an extraction means for extracting a change area in the display area, and a processing means for executing a process for the display in the display area when the annotation image is included in the change area.

請求項16の情報処理装置は、請求項15に記載の情報処理装置において、前記抽出手段は、前記外部端末からの前記注釈画像の入力中に生じる前記変化領域又は前記外部端末からの前記注釈画像の座標情報に基づいて前記表示領域内の前記注釈画像の領域を無視することを特徴とする。   The information processing device according to claim 16 is the information processing device according to claim 15, wherein the extraction unit is configured to input the annotation region from the external terminal or the annotation image from the external terminal. The region of the annotation image in the display region is ignored based on the coordinate information.

請求項17の情報処理装置は、請求項15又は16に記載の情報処理装置において、前記処理手段により実行される処理には、前記注釈画像の消去が含まれることを特徴とする。   The information processing apparatus according to claim 17 is the information processing apparatus according to claim 15 or 16, wherein the processing executed by the processing means includes erasure of the annotation image.

請求項18の情報処理装置は、請求項17に記載の情報処理装置において、前記処理手段は、前記変化領域に前記注釈画像の一部が含まれる場合に、当該注釈画像の全てを消去することを特徴とする。   The information processing device according to claim 18 is the information processing device according to claim 17, wherein when the change area includes a part of the annotation image, the processing unit deletes all of the annotation image. It is characterized by.

請求項19の情報処理装置は、請求項17又は18に記載の情報処理装置において、前記処理手段は、前記変化領域から所定距離広げた範囲内にある注釈画像をも消去することを特徴とする。   The information processing device according to claim 19 is the information processing device according to claim 17 or 18, characterized in that the processing means also deletes an annotation image within a range extended by a predetermined distance from the change region. .

請求項20の情報処理装置は、請求項17乃至19のいずれか1項に記載の情報処理装置において、前記処理手段は、前記外部端末から入力された複数の注釈画像を1つのグループとして扱い、少なくとも1つの注釈画像を消去する場合には、同一グループに属する他の注釈画像も消去することを特徴とする。   The information processing device according to claim 20 is the information processing device according to any one of claims 17 to 19, wherein the processing unit treats a plurality of annotation images input from the external terminal as one group, When erasing at least one annotation image, another annotation image belonging to the same group is also erased.

請求項21の情報処理装置は、請求項17乃至20のいずれか1項に記載の情報処理装置において、前記外部端末から前記注釈画像及び当該注釈画像に関連付けられている領域の情報を取得する取得手段を更に備え、前記処理手段は、前記変化領域に前記注釈画像に関連付けられている領域が含まれる場合に、前記注釈画像を消去することを特徴とする。   The information processing device according to claim 21 is the information processing device according to any one of claims 17 to 20, wherein the annotation image and information about a region associated with the annotation image are acquired from the external terminal. Means for erasing the annotation image when the change area includes an area associated with the annotation image.

請求項22の情報処理装置は、請求項15乃至21のいずれか1項に記載の情報処理装置において、前記処理手段により実行される処理には、前記変化領域に前記注釈画像が含まれる前の時点における前記表示領域内の表示の記憶、が含まれることを特徴とする。   The information processing apparatus according to claim 22 is the information processing apparatus according to any one of claims 15 to 21, wherein the processing executed by the processing unit is performed before the annotation image is included in the change area. Storage of the display in the display area at the time is included.

請求項23の情報処理装置は、請求項22に記載の情報処理装置において、前記処理手段は、前記変化領域に前記注釈画像の少なくとも一部が含まれる場合に、その前の時点における前記表示領域内の表示を記憶することを特徴とする。   23. The information processing apparatus according to claim 23, wherein the processing unit includes the display area at a previous time when the change area includes at least a part of the annotation image. It is characterized by memorizing the display inside.

請求項24の情報処理装置は、請求項22又は23に記載の情報処理装置において、前記処理手段は、前記変化領域から所定距離広げた範囲内に前記注釈画像の少なくとも一部が含まれる場合にも、その前の時点における前記表示領域内の表示を記憶することを特徴とする。   The information processing device according to claim 24 is the information processing device according to claim 22 or 23, wherein the processing means includes at least a part of the annotation image within a range extended by a predetermined distance from the change region. Also, the display in the display area at the previous time is stored.

請求項25の情報処理装置は、外部端末から入力された注釈画像を対象物及び背景を含む投影領域に投影する投影装置、及び当該対象物及び当該背景を含む投影領域を撮影する撮影装置に接続される情報処理装置であって、前記撮影装置により撮影された撮影画像に基づいて、前記対象物の移動を検出する検出手段と、前記対象物の移動により生じた前記撮影画像上の変化領域を抽出する抽出手段と、当該変化領域の情報と、当該変化領域に含まれる前記注釈画像の情報との少なくとも一方に基づいて、前記撮影画像の重要度を算出し、前記重要度に応じた前記撮影画像の記憶を実行する記憶手段とを備えることを特徴とする。   The information processing apparatus according to claim 25 is connected to a projection apparatus that projects an annotation image input from an external terminal onto a projection area including an object and a background, and an imaging apparatus that captures the projection area including the object and the background. An information processing apparatus for detecting a movement of the object based on a photographed image photographed by the photographing apparatus; and a change area on the photographed image caused by the movement of the object. The importance of the captured image is calculated based on at least one of extraction means for extracting, information on the change area, and information on the annotation image included in the change area, and the imaging according to the importance Storage means for executing image storage.

請求項26の情報処理装置は、対象物及び外部端末から入力された注釈画像を表示領域に表示する表示手段と、前記対象物の移動を検出する検出手段と、前記対象物の移動により生じた、前記表示領域内の変化領域を抽出する抽出手段と、当該変化領域の情報と、当該変化領域に含まれる前記注釈画像の情報との少なくとも一方に基づいて、前記表示領域内の表示の重要度を算出し、前記重要度に応じた前記表示の記憶を実行する記憶手段とを備えることを特徴とする。   The information processing apparatus according to claim 26 is caused by the movement of the target object and a display means for displaying an annotation image input from an external terminal in a display area, a detection means for detecting the movement of the target object, and the movement of the target object. The importance of display in the display area based on at least one of extraction means for extracting a change area in the display area, information on the change area, and information on the annotation image included in the change area And storage means for executing storage of the display in accordance with the degree of importance.

請求項27の情報処理装置は、請求項25又は26に記載の情報処理装置において、前記記憶手段は、前記重要度が所定値以上である場合に、前記記憶を実行することを特徴とする。   An information processing apparatus according to a twenty-seventh aspect is the information processing apparatus according to the twenty-fifth or twenty-sixth aspect, wherein the storage unit executes the storage when the importance is equal to or greater than a predetermined value.

請求項28の情報処理装置は、請求項25乃至27のいずれか1項に記載の情報処理装置において、前記記憶手段は、前記記憶を実行する際に、前記重要度のデータも記憶することを特徴とする。   The information processing device according to claim 28 is the information processing device according to any one of claims 25 to 27, wherein the storage unit stores the data of the importance level when executing the storage. Features.

請求項29の情報処理装置は、請求項25乃至28のいずれか1項に記載の情報処理装置において、前記重要度の算出に用いられる前記変化領域の情報には、該変化領域の大きさ、前記変化領域が発生するまでの時間の少なくとも一方が含まれ、前記変化領域に含まれる前記注釈画像の情報には、前記変化領域に含まれる前記注釈画像の数、前記変化領域内に複数の注釈画像が含まれる場合における各注釈画像間の距離及び各注釈画像が描画された時間間隔の少なくとも1つが含まれることを特徴とする。   The information processing device according to claim 29 is the information processing device according to any one of claims 25 to 28, wherein the information on the change region used for calculating the importance includes a size of the change region, At least one of the time until the change area is generated is included, and the annotation image information included in the change area includes the number of the annotation images included in the change area, and a plurality of annotations in the change area. When an image is included, at least one of a distance between each annotation image and a time interval at which each annotation image is drawn is included.

請求項30のプログラムは、外部端末から入力された注釈画像を対象物及び背景を含む投影領域に投影する投影装置、及び当該対象物及び当該背景を含む投影領域を撮影する撮影装置に接続されるコンピュータを、前記撮影装置により撮影された撮影画像に基づいて、前記対象物の移動を検出する検出手段、前記対象物の移動により生じた前記撮影画像上の変化領域を抽出する抽出手段、及び当該変化領域に前記注釈画像が含まれる場合に、前記撮影画像及び前記注釈画像の少なくとも一方に対する処理を実行する処理手段として機能させることを特徴とする。   A program according to a thirty-third aspect is connected to a projection device that projects an annotation image input from an external terminal onto a projection region including an object and a background, and an imaging device that photographs the projection region including the object and the background. Detecting means for detecting movement of the object based on a photographed image photographed by the photographing device; extraction means for extracting a change area on the photographed image caused by movement of the object; and When the annotation image is included in the change area, it is made to function as processing means for executing processing for at least one of the photographed image and the annotation image.

請求項31のプログラムは、コンピュータを、対象物及び外部端末から入力された注釈画像を表示領域に表示する表示手段、前記対象物の移動を検出する検出手段、前記対象物の移動により生じた、前記表示領域内の変化領域を抽出する抽出手段、及び当該変化領域に前記注釈画像が含まれる場合に、前記表示領域内における表示に対する処理を実行する処理手段として機能させることを特徴とする。   The program according to claim 31 is generated by a computer, a display unit that displays an annotation image input from an object and an external terminal in a display area, a detection unit that detects movement of the object, and the movement of the object. It is characterized by functioning as extraction means for extracting a change area in the display area, and processing means for executing processing for display in the display area when the annotation image is included in the change area.

請求項32のプログラムは、外部端末から入力された注釈画像を対象物及び背景を含む投影領域に投影する投影装置、及び当該対象物及び当該背景を含む投影領域を撮影する撮影装置に接続されるコンピュータを、前記撮影装置により撮影された撮影画像に基づいて、前記対象物の移動を検出する検出手段、前記対象物の移動により生じた前記撮影画像上の変化領域を抽出する抽出手段、及び当該変化領域の情報と、当該変化領域に含まれる前記注釈画像の情報との少なくとも一方に基づいて、前記撮影画像の重要度を算出し、前記重要度に応じた前記撮影画像の記憶を行う記憶手段として機能させることを特徴とする。   A program according to a thirty-second aspect is connected to a projection apparatus that projects an annotation image input from an external terminal onto a projection area including an object and a background, and an imaging apparatus that images the projection area including the object and the background. Detecting means for detecting movement of the object based on a photographed image photographed by the photographing device; extraction means for extracting a change area on the photographed image caused by movement of the object; and Storage means for calculating the importance of the captured image based on at least one of the information on the change area and the information on the annotation image included in the change area, and storing the captured image according to the importance It is made to function as.

請求項33のプログラムは、コンピュータを、対象物及び外部端末から入力された注釈画像を表示領域に表示する表示手段、前記対象物の移動を検出する検出手段、前記対象物の移動により生じた、前記表示領域内の変化領域を抽出する抽出手段、及び当該変化領域の情報と、当該変化領域に含まれる前記注釈画像の情報との少なくとも一方に基づいて、前記表示領域内の表示の重要度を算出し、前記重要度に応じた前記表示の記憶を実行する記憶手段として機能させることを特徴とする。   The program according to claim 33 is caused by a movement of the object, display means for displaying an annotation image input from the object and an external terminal in a display area, detection means for detecting movement of the object, and the computer. Based on at least one of extraction means for extracting a change area in the display area and information on the change area and information on the annotation image included in the change area, the importance of display in the display area is determined. It is calculated and functions as a storage unit for storing the display according to the importance.

請求項1、15の発明によれば、対象物の移動により、対象物と注釈画像との位置関係が変化したときに、画像又は表示に対する処理を自動的に行うので、ユーザの操作負担を軽減することができる。   According to the first and fifteenth aspects of the invention, when the positional relationship between the object and the annotation image changes due to the movement of the object, the processing for the image or the display is automatically performed, so the operation burden on the user is reduced. can do.

請求項2の発明によれば、対象物の移動を追跡する処理を実行する場合と比べて、対象物の移動を検出するのに必要な計算量を少なくすることができる。   According to the second aspect of the present invention, the amount of calculation required to detect the movement of the object can be reduced as compared with the case where the process of tracking the movement of the object is executed.

請求項3の発明によれば、撮影画像のノイズ等の影響を受けずに、正確に対象物の移動を検出することができる。   According to the invention of claim 3, it is possible to accurately detect the movement of the object without being affected by noise or the like of the photographed image.

請求項4、16の発明によれば、必要な注釈画像の入力を確保することができる。   According to the inventions of claims 4 and 16, it is possible to ensure the input of a necessary annotation image.

請求項5、17の発明によれば、対象物の移動により不要になった注釈画像を自動的に削除でき、ユーザの操作負担を軽減することができる。   According to the fifth and 17th aspects of the present invention, it is possible to automatically delete an annotation image that is no longer necessary due to the movement of the object, thereby reducing the operation burden on the user.

請求項6の発明によれば、外部端末のユーザが、注釈画像の消去の取消を指示することができる。   According to the invention of claim 6, the user of the external terminal can instruct to cancel the deletion of the annotation image.

請求項7の発明によれば、外部端末のユーザに消去対象の注釈画像を知らせることができる。   According to the invention of claim 7, it is possible to notify the user of the external terminal of the annotation image to be deleted.

請求項8、18の発明によれば、対象物の移動により不要になった注釈画像を全て消去でき、ユーザの操作負担を軽減することができる。   According to the eighth and 18th aspects of the present invention, it is possible to erase all the annotation images that are no longer necessary due to the movement of the object, and to reduce the operation burden on the user.

請求項9、19の発明によれば、不要になった注釈画像を効果的に消去することができ、ユーザの操作負担を軽減することができる。   According to the ninth and nineteenth aspects of the present invention, it is possible to effectively erase an annotation image that is no longer necessary, and to reduce the operation burden on the user.

請求項10、20の発明によれば、複数の注釈画像を一度に消去することができ、ユーザの操作負担を軽減することができる。   According to the tenth and twentieth inventions, a plurality of annotation images can be erased at once, and the operation burden on the user can be reduced.

請求項11、21の発明によれば、変化領域に注釈画像に関連付けられている領域が含まれる場合には、当該注釈画像を自動的に削除することができ、ユーザの操作負担を軽減することができる。   According to the eleventh and twenty-first aspects of the present invention, when an area associated with an annotation image is included in the change area, the annotation image can be automatically deleted, and the operation burden on the user can be reduced. Can do.

請求項12、22の発明によれば、対象物の移動により、対象物と注釈画像との位置関係が変化したときに、その直前の画像又は表示を自動的に記憶するので、ユーザの操作負担を軽減することができる。   According to the inventions of claims 12 and 22, when the positional relationship between the object and the annotation image changes due to the movement of the object, the immediately preceding image or display is automatically stored. Can be reduced.

請求項13,23の発明によれば、対象物の移動により対象物と注釈画像との位置関係が変化した全ての場合において、その直前の画像又は表示を自動的に記憶するので、ユーザの操作負担を軽減することができる。   According to the inventions of claims 13 and 23, in all cases where the positional relationship between the object and the annotation image has changed due to the movement of the object, the immediately preceding image or display is automatically stored. The burden can be reduced.

請求項14、24の発明によれば、画像を効果的に記憶することができ、ユーザの操作負担を軽減することができる。   According to the fourteenth and twenty-fourth aspects of the present invention, it is possible to store images effectively and to reduce the operation burden on the user.

請求項25、26の発明によれば、対象物の移動により、対象物と注釈画像との位置関係が変化したときに、撮影画像又は表示の重要度に応じた記憶を自動的に実行するので、適切な記憶を、ユーザの操作負担を軽減した状態で行うことができる。   According to the inventions of claims 25 and 26, when the positional relationship between the object and the annotation image changes due to the movement of the object, storage according to the importance of the captured image or display is automatically executed. Appropriate storage can be performed in a state where the operation burden on the user is reduced.

請求項27の発明によれば、重要度の高い画像又は表示のみ、記憶することができる。   According to the twenty-seventh aspect of the present invention, it is possible to store only images or displays with high importance.

請求項28の発明によれば、画像又は表示とともに重要度も記憶するので、ユーザは、重要度に応じて画像又は表示を使用することができる。   According to the invention of claim 28, since the importance is stored together with the image or display, the user can use the image or display according to the importance.

請求項29の発明によれば、重要度を定量的に判断することができる。   According to the invention of claim 29, the importance can be determined quantitatively.

請求項30、31の発明によれば、対象物の移動により、対象物と注釈画像との位置関係が変化したときに画像又は表示に対する処理を自動的に行うことができるので、ユーザの操作負担を軽減することができる。   According to the inventions of claims 30 and 31, when the positional relationship between the object and the annotation image changes due to the movement of the object, the processing for the image or the display can be automatically performed. Can be reduced.

請求項32、33の発明によれば、対象物の移動により、対象物と注釈画像との位置関係が変化したときに、撮影画像又は表示の重要度に応じた記憶を自動的に実行するので、適切な記憶を、ユーザの操作負担を軽減した状態で行うことができる。   According to the inventions of claims 32 and 33, when the positional relationship between the object and the annotation image changes due to the movement of the object, storage according to the importance of the captured image or the display is automatically executed. Appropriate storage can be performed in a state where the operation burden on the user is reduced.

以下、本発明の実施の形態について、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(第1の実施の形態)
図1は、本発明の実施の形態に係る情報処理装置を含む遠隔指示システムの構成を示す図である。
(First embodiment)
FIG. 1 is a diagram showing a configuration of a remote instruction system including an information processing apparatus according to an embodiment of the present invention.

図1の遠隔指示システムは、サーバとして機能するパーソナルコンピュータ(PC)1(情報処理装置)、クライアントとして機能するPC2(外部端末)を備えており、これらは、ネットワーク3を介して互いに接続されている。PC1には、プロジェクタ4(投影装置)、及びビデオカメラ5(撮影装置)が接続されている。プロジェクタ4は、PC1からの制御コマンドに基づいて、対象物8及びスクリーン10に対して、ハーフミラー6を介して単なる光線を照射する又はアノテーション画像(注釈画像)等を投影する。尚、アノテーション画像は、線、文字、記号、図形、色、フォント(書体)等のあらゆる態様の画像を含む。   1 includes a personal computer (PC) 1 (information processing apparatus) that functions as a server and a PC 2 (external terminal) that functions as a client, which are connected to each other via a network 3. Yes. A projector 4 (projection device) and a video camera 5 (imaging device) are connected to the PC 1. Based on the control command from the PC 1, the projector 4 irradiates the object 8 and the screen 10 with a simple light beam through the half mirror 6 or projects an annotation image (annotation image) or the like. Note that the annotation image includes images of all aspects such as lines, characters, symbols, figures, colors, fonts (typefaces), and the like.

ビデオカメラ5は、対象物8を含むスクリーン10の反射画像をハーフミラー6を介して撮影し、撮影画像をPC1に出力する。   The video camera 5 captures a reflected image of the screen 10 including the object 8 via the half mirror 6 and outputs the captured image to the PC 1.

PC1は、ビデオカメラ5により撮影された撮影画像をネットワーク3を介してPC2に出力する。PC2は、表示部205に接続されており、表示部205は、撮影画像の表示領域12及びユーザインターフェース(UI)14を表示する。尚、PC2は、表示部205を備える一体型のパーソナルコンピュータで構成してもよい。   The PC 1 outputs the captured image captured by the video camera 5 to the PC 2 via the network 3. The PC 2 is connected to a display unit 205, and the display unit 205 displays a display area 12 for a captured image and a user interface (UI) 14. Note that the PC 2 may be configured as an integrated personal computer including the display unit 205.

UI14は、ペン、テキスト、及び消去などのボタン群と、線種や色種のアイコンとを含む。表示領域12には、ビデオカメラ5で撮影された撮影画像が表示される。図1においては、対象物8を含むスクリーン10をビデオカメラ5により撮影した撮影画像が表示領域12に表示されている。   The UI 14 includes a group of buttons such as pen, text, and erase, and icons of line types and color types. In the display area 12, a captured image captured by the video camera 5 is displayed. In FIG. 1, a photographed image obtained by photographing the screen 10 including the object 8 with the video camera 5 is displayed in the display area 12.

例えば、UI14のペンボタンが押下されて、表示領域12内の対象物8上に図形等が記載されると、当該図形の情報(具体的には、当該図形を示す、表示領域12における座標(x、y))はPC2からPC1に出力される。PC1は、当該図形の情報をプロジェクタ4の座標の情報に変換し、プロジェクタ4に出力する。プロジェクタ4は当該変換された図形の情報に基づいて対象物8上に当該図形を投影する。尚、撮影画像は表示部205の表示領域12に表示されるため、撮影画像における座標(x、y)は、表示領域12における座標(x、y)と一致する。   For example, when a pen button on the UI 14 is pressed and a figure or the like is written on the object 8 in the display area 12, information on the figure (specifically, coordinates (in the display area 12 indicating the figure) ( x, y)) are output from PC2 to PC1. The PC 1 converts the graphic information into the coordinate information of the projector 4 and outputs the information to the projector 4. The projector 4 projects the figure on the object 8 based on the converted figure information. Since the captured image is displayed in the display area 12 of the display unit 205, the coordinates (x, y) in the captured image coincide with the coordinates (x, y) in the display area 12.

また、PC2は、PC1に対して制御コマンドを出力し、プロジェクタ4及びビデオカメラ5の動作(例えば、ビデオカメラ5の撮影角度や撮影画像の明るさ、及びプロジェクタ4の投影画像の明るさなど)を制御することができる。   Further, the PC 2 outputs a control command to the PC 1, and the operations of the projector 4 and the video camera 5 (for example, the shooting angle of the video camera 5, the brightness of the captured image, and the brightness of the projection image of the projector 4). Can be controlled.

尚、同図においては、クライアントは、PC2の1台が記載されているが、遠隔指示システムは、複数のクライアント(PC)を備えていてもよい。また、プロジェクタ4をPC1に接続し、ビデオカメラ5を不図示の他のPCに接続するようにしてもよい。この場合、ビデオカメラ5の撮影画像は、当該他のPCを介してPC2に出力される。   In the figure, one client PC 2 is shown, but the remote instruction system may include a plurality of clients (PCs). Further, the projector 4 may be connected to the PC 1 and the video camera 5 may be connected to another PC (not shown). In this case, the captured image of the video camera 5 is output to the PC 2 via the other PC.

図2は、PC1〜2の機能構成を示すブロック図である。   FIG. 2 is a block diagram illustrating a functional configuration of the PCs 1 and 2.

PC1は、装置全体を制御すると共にプロジェクタ4、ビデオカメラ5及び三次元計測装置7の動作を制御する制御部101(検出手段、抽出手段、処理手段、取得手段)と、ネットワーク3を介してPC2と情報やデータの送受信を行う送受信部102(送信手段)と、制御プログラム、データ及び情報等を記憶する記憶部103と、プロジェクタ4、及びビデオカメラ5と接続するためのインタフェース(IF)部104とを備えている。制御部101は、送受信部102、記憶部103、及びIF部104に接続されており、さらにIF部104を介してプロジェクタ4、及びビデオカメラ5に接続されている。   The PC 1 controls the entire apparatus and controls the operations of the projector 4, the video camera 5, and the three-dimensional measurement apparatus 7, and the PC 2 via the network 3 and the control unit 101 (detection means, extraction means, processing means, acquisition means). A transmission / reception unit 102 (transmission means) that transmits and receives information and data, a storage unit 103 that stores control programs, data, information, and the like, and an interface (IF) unit 104 for connection to the projector 4 and the video camera 5. And. The control unit 101 is connected to the transmission / reception unit 102, the storage unit 103, and the IF unit 104, and is further connected to the projector 4 and the video camera 5 via the IF unit 104.

尚、PC1は、マウスやキーボードなどで構成される操作部105と、撮影画像を表示する表示部106(表示手段)とをさらに備えていてもよい。   The PC 1 may further include an operation unit 105 configured with a mouse, a keyboard, and the like, and a display unit 106 (display unit) that displays a captured image.

PC2は、装置全体を制御する制御部201と、ネットワーク3を介してPC1と情報やデータの送受信を行う送受信部202と、制御プログラム、データ及び情報等を記憶する記憶部203と、マウスやキーボードなどで構成される操作部204と、表示部205(画像表示手段)とを備えている。制御部201は、送受信部202、記憶部203、操作部204、及び表示部205に接続されている。   The PC 2 includes a control unit 201 that controls the entire apparatus, a transmission / reception unit 202 that transmits / receives information and data to / from the PC 1 via the network 3, a storage unit 203 that stores control programs, data, information, and the like, a mouse and a keyboard And the like, and a display unit 205 (image display means). The control unit 201 is connected to the transmission / reception unit 202, the storage unit 203, the operation unit 204, and the display unit 205.

図3は、PC1のハードウェア構成を示すブロック図である。   FIG. 3 is a block diagram illustrating a hardware configuration of the PC 1.

PC1は、装置全体を制御するCPU21、制御プログラムを備えるROM22、ワーキングエリアとして機能するRAM23、各種の情報やプログラムを備えるハードディスクドライブ(HDD)24、マウス及びキーボード25、他のコンピュータと接続するためのネットワークインタフェース26、液晶モニタ又はCRTで構成されるディスプレイ27、及び不図示のUSB機器と接続するためのUSB(universal serial bus)インタフェース28を備えている。CPU21はシステムバス29を介してROM22、RAM23、ハードディスクドライブ(HDD)24、マウス及びキーボード25、ネットワークインタフェース26、ディスプレイ27及びUSBインタフェース28に接続されている。   The PC 1 is connected to a CPU 21 for controlling the entire apparatus, a ROM 22 having a control program, a RAM 23 functioning as a working area, a hard disk drive (HDD) 24 having various information and programs, a mouse and keyboard 25, and other computers. A network interface 26, a display 27 composed of a liquid crystal monitor or CRT, and a USB (universal serial bus) interface 28 for connecting to a USB device (not shown) are provided. The CPU 21 is connected to a ROM 22, a RAM 23, a hard disk drive (HDD) 24, a mouse and keyboard 25, a network interface 26, a display 27, and a USB interface 28 via a system bus 29.

制御部101は、制御プログラムに従って各種の処理を実行するCPU21に相当する。送受信部102は、ネットワークインタフェース26に相当し、記憶部103は、ハードディスクドライブ(HDD)24に相当する。IF部104は、USBインタフェース28に相当する。操作部105は、マウス及びキーボード25に相当し、表示部106は、ディスプレイ27に相当する。   The control unit 101 corresponds to the CPU 21 that executes various processes according to the control program. The transmission / reception unit 102 corresponds to the network interface 26, and the storage unit 103 corresponds to the hard disk drive (HDD) 24. The IF unit 104 corresponds to the USB interface 28. The operation unit 105 corresponds to the mouse and keyboard 25, and the display unit 106 corresponds to the display 27.

PC2は、PC1と同様に、図3に示す構成を有している。   The PC 2 has the configuration shown in FIG. 3 like the PC 1.

図4は、PC1で実行される処理を示すフローチャートである。   FIG. 4 is a flowchart showing processing executed by the PC 1.

PC1の制御部101は、ビデオカメラ5から撮影画像を受信し、記憶部103に記憶する(ステップS1)。この撮影画像は、例えば、0.5秒ごとにフレーム画像としてビデオカメラ5から送られる。   The control unit 101 of the PC 1 receives the captured image from the video camera 5 and stores it in the storage unit 103 (step S1). This photographed image is sent from the video camera 5 as a frame image every 0.5 seconds, for example.

制御部101は、記憶部103に記憶された撮影画像とビデオカメラ5から受信した直後の撮影画像とをピクセル毎に比較する(ステップS2)。具体的には、制御部101は、ビデオカメラ5から受信した直後のフレーム画像と、その直前に記憶部103に記憶されたフレーム画像とをピクセル毎に比較する。   The control unit 101 compares the captured image stored in the storage unit 103 with the captured image just received from the video camera 5 for each pixel (step S2). Specifically, the control unit 101 compares the frame image immediately after being received from the video camera 5 and the frame image stored in the storage unit 103 immediately before the frame image for each pixel.

制御部101は、ステップS2の比較結果に基づいて、対象物8が移動されたか否かを判別する(ステップS3)。このステップS3では、制御部101は、上記2つの撮影画像(フレーム画像)に差分があると、対象物8が移動したと判別する。   The control unit 101 determines whether or not the object 8 has been moved based on the comparison result of step S2 (step S3). In step S <b> 3, the control unit 101 determines that the object 8 has moved when there is a difference between the two captured images (frame images).

尚、制御部101は、アノテーション画像の投影による撮影画像(フレーム画像)の変化は、検知しない。即ち、制御部101は、アノテーション画像の投影前後のフレーム画像間の差分を無視する。これにより、必要な注釈画像の入力を確保することができる。   Note that the control unit 101 does not detect a change in the captured image (frame image) due to the projection of the annotation image. That is, the control unit 101 ignores the difference between the frame images before and after the projection of the annotation image. Thereby, the input of a required annotation image can be ensured.

次いで、制御部101は、対象物8の移動が終了したか否かを判別する(ステップS4)。例えば、制御部101は、連続した50枚のフレーム画像に変化がなければ、対象物8の移動が終了したと判別する。   Next, the control unit 101 determines whether or not the movement of the object 8 has ended (step S4). For example, if there is no change in 50 consecutive frame images, the control unit 101 determines that the movement of the object 8 has ended.

ステップS4でNOの場合には、当該判別処理を繰り返す。一方、ステップS4でYESの場合には、制御部101は、ビデオカメラ5から受信した直後の撮影画像(フレーム画像)に含まれる、変化のあった領域(即ち、撮影画像に含まれる対象物8の移動前及び移動後の領域)(以下、変化領域という)を抽出する(ステップS5)。   If NO in step S4, the determination process is repeated. On the other hand, in the case of YES in step S4, the control unit 101 includes the changed area (that is, the object 8 included in the captured image) included in the captured image (frame image) immediately after being received from the video camera 5. (Regions before and after movement) (hereinafter referred to as change regions) are extracted (step S5).

表示部205の表示領域12内にアノテーション画像が書き込まれると、アノテーション画像を示す座標情報がPC2からPC1に送信される。よって、制御部101は、アノテーション画像を示す座標情報に基づいて、図4のステップS5で抽出された領域のうち、アノテーション画像の領域は除外するようにしてもよい。これにより、必要な注釈画像の入力を確保することができる。   When an annotation image is written in the display area 12 of the display unit 205, coordinate information indicating the annotation image is transmitted from the PC 2 to the PC 1. Therefore, the control unit 101 may exclude the region of the annotation image from the regions extracted in step S5 in FIG. 4 based on the coordinate information indicating the annotation image. Thereby, the input of a required annotation image can be ensured.

図5(A)は、記憶部103に記憶された撮影画像の一例を示す図であり、図5(B)は、ビデオカメラ5から受信した直後の撮影画像の一例を示す図である。   FIG. 5A is a diagram illustrating an example of a captured image stored in the storage unit 103, and FIG. 5B is a diagram illustrating an example of a captured image immediately after being received from the video camera 5.

図5(A)では、表示領域12内に対象物8a,8bが表示されており、対象物8a上にアノテーション画像9が投影されている。図5(B)では、対象物8aが図5(A)の状態から移動している。同図の符号30は、変化領域を示し、上記ステップS5では、この変化領域30が抽出される。尚、制御部101は、変化領域30に対応する、撮影画像上の座標情報を保持する。   In FIG. 5A, the objects 8a and 8b are displayed in the display area 12, and the annotation image 9 is projected on the object 8a. In FIG. 5B, the object 8a has moved from the state of FIG. Reference numeral 30 in the figure indicates a change area. In step S5, the change area 30 is extracted. The control unit 101 holds coordinate information on the captured image corresponding to the change area 30.

図4に戻り、制御部101は、変化領域30にアノテーション画像が含まれているか否かを判別する(ステップS6)。表示部205の表示領域12内にアノテーション画像が書き込まれると、アノテーション画像を示す座標情報がPC2からPC1に送信される。よって、ステップS6の判別は、制御部101が、上記変化領域30に対応する座標情報にアノテーション画像を示す座標情報が含まれるか否かを判別することにより実行される。   Returning to FIG. 4, the control unit 101 determines whether or not an annotation image is included in the change area 30 (step S6). When an annotation image is written in the display area 12 of the display unit 205, coordinate information indicating the annotation image is transmitted from the PC 2 to the PC 1. Therefore, the determination in step S <b> 6 is performed by determining whether or not the coordinate information indicating the annotation image is included in the coordinate information corresponding to the change area 30.

上記ステップS6でNOの場合には、ステップS1に戻る。一方、ステップS6でYESの場合には、制御部101は、撮影画像から変化領域30に含まれるアノテーション画像を消去する(ステップS7)。制御部101は、PC2からアノテーション画像を示す座標情報を受信しているので、当該アノテーション画像を示す座標情報を破棄する又はプロジェクタ4に当該アノテーション画像を示す座標情報を出力しないことで、撮影画像から変化領域30に含まれるアノテーション画像を消去することができる。   If NO in step S6, the process returns to step S1. On the other hand, if YES in step S6, the control unit 101 deletes the annotation image included in the change area 30 from the captured image (step S7). Since the control unit 101 has received the coordinate information indicating the annotation image from the PC 2, the coordinate information indicating the annotation image is discarded, or the coordinate information indicating the annotation image is not output to the projector 4. The annotation image included in the change area 30 can be deleted.

その後、制御部101は、消去対象のアノテーション画像の座標情報をPC2へ送信して(ステップS8)、ステップS1に戻る。尚、PC2の制御部201は、消去対象のアノテーション画像の座標情報をPC1から受信し、表示領域12から当該アノテーション画像を消去する。図5(C)は、アノテーション画像9の削除後の撮影画像の一例を示す。   Thereafter, the control unit 101 transmits the coordinate information of the annotation image to be erased to the PC 2 (step S8), and returns to step S1. Note that the control unit 201 of the PC 2 receives the coordinate information of the annotation image to be deleted from the PC 1 and deletes the annotation image from the display area 12. FIG. 5C shows an example of a captured image after the annotation image 9 is deleted.

上記ステップS7では、撮影画像から変化領域30に含まれるアノテーション画像を消去したが、変化領域30にアノテーション画像の一部が含まれている場合も、制御部101は、当該アノテーション画像を消去するようにしてもよい。このようなアノテーション画像は対象物が移動することにより意味をなさないからである。   In step S7, the annotation image included in the change area 30 is deleted from the captured image. However, even when the change area 30 includes a part of the annotation image, the control unit 101 deletes the annotation image. It may be. This is because such an annotation image does not make sense when the object moves.

また、制御部101は、変化領域30から所定距離広げた範囲内(例えば、変化領域30から上下左右に30ピクセル広げた範囲)にあるアノテーション画像を消去するようにしてもよい。アノテーション画像を投影した光によって撮影画像の変化が検出されなかった場合でも、不要になったアノテーション画像を消去することができる。   In addition, the control unit 101 may delete an annotation image that is within a range widened by a predetermined distance from the change area 30 (for example, a range widened 30 pixels vertically and horizontally from the change area 30). Even when a change in the captured image is not detected by the light that projects the annotation image, the annotation image that is no longer needed can be erased.

また、制御部101は、複数のアノテーション画像を1つのグループとして扱い、少なくとも1つのアノテーション画像を消去する場合には、同一グループに属する他のアノテーション画像も消去するようにしてもよい。これにより、複数の注釈画像を一度に消去することができ、ユーザの操作負担を軽減することができる。例えば、図6(A)に示すように、アノテーション画像31a,31bを1つのグループとして扱う場合、制御部101は、アノテーション画像31aを消去する場合には、同時にアノテーション画像31bも消去する。同一グループに属する複数のアノテーション画像は、例えば、一定時間内に表示領域12に書き込まれた複数のアノテーション画像、一定距離の範囲内に書き込まれた複数のアノテーション画像、又は一定時間内且つ一定距離の範囲内に書き込まれた複数のアノテーション画像などがある。   In addition, the control unit 101 may treat a plurality of annotation images as one group, and when deleting at least one annotation image, may also delete other annotation images belonging to the same group. Thereby, a plurality of annotation images can be erased at a time, and the operation burden on the user can be reduced. For example, as shown in FIG. 6A, when the annotation images 31a and 31b are handled as one group, the control unit 101 deletes the annotation image 31b at the same time when deleting the annotation image 31a. A plurality of annotation images belonging to the same group are, for example, a plurality of annotation images written in the display area 12 within a certain time, a plurality of annotation images written within a certain distance, or within a certain time and a certain distance. There are multiple annotation images written within the range.

さらに、アノテーション画像は、所定の領域と関連付けされていてもよい。この場合、表示部205の表示領域12内にアノテーション画像が書き込まれると、アノテーション画像を示す座標情報及び当該アノテーション画像に関連付けられている領域の座標情報がPC2からPC1に送信される。制御部101は、送受信部102を介して当該アノテーション画像を示す座標情報及び当該アノテーション画像に関連付けられている領域の座標情報を取得する。例えば、図6(B)に示すように、矩形のアノテーション画像31aは、その内部の領域32aと関連付けられている。また、矢印のアノテーション画像31bは、他印の先端にある円形の領域32bと関連付けられている。制御部101は、領域32a又は領域32bが上述した変化領域30に含まれる場合には、それぞれ矩形のアノテーション画像31a又は矢印のアノテーション画像31bを消去する。   Furthermore, the annotation image may be associated with a predetermined area. In this case, when an annotation image is written in the display area 12 of the display unit 205, coordinate information indicating the annotation image and coordinate information of the area associated with the annotation image are transmitted from the PC 2 to the PC 1. The control unit 101 acquires coordinate information indicating the annotation image and coordinate information of an area associated with the annotation image via the transmission / reception unit 102. For example, as shown in FIG. 6B, a rectangular annotation image 31a is associated with a region 32a therein. The arrow annotation image 31b is associated with a circular region 32b at the tip of the other mark. When the region 32a or the region 32b is included in the change region 30 described above, the control unit 101 deletes the rectangular annotation image 31a or the arrow annotation image 31b.

削除対象のアノテーション画像の形状等によっては、アノテーション画像が変化領域30に含まれない場合もあるが、変化領域30にアノテーション画像に関連付けられている領域が含まれる場合には、当該アノテーション画像を自動的に削除することができ、ユーザの操作負担を軽減することができる。   Depending on the shape or the like of the annotation image to be deleted, the annotation image may not be included in the change area 30, but when the change area 30 includes an area associated with the annotation image, the annotation image is automatically selected. Can be deleted automatically, and the operation burden on the user can be reduced.

以上詳細に説明したように、本実施の形態によれば、制御部101が、ビデオカメラ5により撮影された撮影画像に基づいて、対象物8の移動を検出し、対象物8の移動により生じた撮影画像上の変化領域を抽出し、当該変化領域にアノテーション画像が含まれる場合に、当該アノテーション画像を消去するので、対象物の移動により不要になった注釈画像を自動的に削除でき、ユーザの操作負担を軽減することができる。   As described above in detail, according to the present embodiment, the control unit 101 detects the movement of the object 8 based on the captured image captured by the video camera 5, and is caused by the movement of the object 8. If the change area on the captured image is extracted and the annotation image is included in the change area, the annotation image is deleted, so that the annotation image that is no longer needed due to the movement of the target object can be automatically deleted. Can reduce the operation burden.

また、制御部101は、ビデオカメラ5により撮影された撮影画像と、当該撮影画像の直後に撮影された撮影画像とを比較することにより、対象物8の移動を検出するので、対象物8の移動を追跡する処理を実行する場合と比べて、対象物8の移動を検出するのに必要な計算量を少なくすることができる。   The control unit 101 detects the movement of the object 8 by comparing the captured image captured by the video camera 5 with the captured image captured immediately after the captured image. Compared with the case where the process of tracking movement is executed, the amount of calculation required to detect the movement of the object 8 can be reduced.

(第2の実施の形態)
本実施の形態は、制御部101がアノテーション画像を消去する前に、表示部205に「消去中止ボタン」を表示し、ユーザの意思を確認する点で、第1の実施の形態と異なる。
(Second Embodiment)
This embodiment is different from the first embodiment in that the “deletion stop button” is displayed on the display unit 205 and the user's intention is confirmed before the control unit 101 deletes the annotation image.

本実施の形態に係る遠隔指示システムは、図1の遠隔指示システムと同一の構成を有するので、その説明は省略する。   The remote instruction system according to the present embodiment has the same configuration as that of the remote instruction system of FIG.

図7は、PC1で実行される処理を示すフローチャートである。図4の処理と同一の処理については、同一のステップ番号を付し、その説明は省略する。   FIG. 7 is a flowchart showing processing executed by the PC 1. The same steps as those in FIG. 4 are denoted by the same step numbers and description thereof is omitted.

ステップS6でYESの場合、制御部101は、変化領域30に含まれるアノテーション画像の点滅表示及び消去中止ボタンの表示の指示をPC2に送信する(ステップS11)。   In the case of YES in step S6, the control unit 101 transmits to the PC 2 an instruction for blinking display of the annotation image included in the change area 30 and display of the erasure stop button (step S11).

図8は、撮影画像を表示する表示領域12の一例を示す図である。   FIG. 8 is a diagram illustrating an example of the display area 12 that displays a captured image.

PC2の制御部201は、PC1から送受信部202を介して変化領域30に含まれるアノテーション画像の点滅表示及び消去中止ボタンの表示の指示を受信すると、表示部205に当該アノテーション画像を点滅表示させ、消去中止ボタンを表示させる。図8では、表示領域12内でアノテーション画像9が点滅表示され、消去中止ボタン40が表示されている。この消去中止ボタン40は一定時間(例えば1分間)表示され、当該一定時間経過すると、自動的に消される。また、ユーザが、操作部204を介して一定時間内に消去中止ボタン40を押下すると、制御部201は送受信部202を介してPC1の制御部101に消去中止の指示を送信する。   When the control unit 201 of the PC 2 receives an instruction to blink the annotation image included in the change area 30 and the display of the erasure stop button from the PC 1 via the transmission / reception unit 202, the control unit 201 causes the display unit 205 to blink the annotation image. Display the cancel button. In FIG. 8, the annotation image 9 is blinked in the display area 12 and an erasure cancel button 40 is displayed. The erasure cancel button 40 is displayed for a predetermined time (for example, 1 minute), and is automatically deleted when the predetermined time elapses. When the user presses the erasure cancel button 40 within a certain time via the operation unit 204, the control unit 201 transmits an erasure cancel instruction to the control unit 101 of the PC 1 via the transmission / reception unit 202.

上記ステップS11の処理後、制御部101は、一定時間内に消去中止ボタンが押下されたか否かを判別する(ステップS12)。ここでは、制御部101は、一定時間内にPC2から消去中止の指示を受信した場合に、消去中止ボタンが押下されたと判別し、一定時間内にPC2から消去中止の指示を受信しなかった場合に、消去中止ボタンが押下されていないと判別する。   After the process of step S11, the control unit 101 determines whether or not the erasure stop button has been pressed within a certain time (step S12). Here, the control unit 101 determines that the erasure cancellation button has been pressed when it receives an erasure cancellation instruction from the PC 2 within a certain time, and does not receive the erasure cancellation instruction from the PC 2 within a certain time. In addition, it is determined that the delete cancel button has not been pressed.

上記ステップS12でYESの場合には、変化領域30に含まれるアノテーション画像の消去は中止され、ステップS1に戻る。一方、ステップS12でNOの場合には、撮影画像から変化領域30に含まれるアノテーション画像を消去するために、上記ステップS7に進む。   If YES in step S12, erasure of the annotation image included in the change area 30 is stopped, and the process returns to step S1. On the other hand, if NO in step S12, the process proceeds to step S7 in order to delete the annotation image included in the change area 30 from the captured image.

尚、図8の例では、表示部205に消去中止ボタン40が表示されたが、消去ボタンが表示されるようにしてもよい。この場合、消去ボタンが押下された場合に、制御部101は、変化領域30に含まれるアノテーション画像を消去する。   In the example of FIG. 8, the erasure stop button 40 is displayed on the display unit 205, but the erasure button may be displayed. In this case, when the delete button is pressed, the control unit 101 deletes the annotation image included in the change area 30.

また、制御部101は、複数のアノテーション画像を1つのグループとして扱い、消去中止ボタン40が押下された場合に、同一グループに属する全てのアノテーション画像の消去を中止するようにしてもよい。この場合、消去中止ボタン40は1つのみ表示される。また、制御部101は、一定時間内に点滅する複数のアノテーション画像を1つのグループとして扱うようにしてもよい。この場合、複数のアノテーション画像の点滅は、同時に開始される必要はない。さらに、制御部101は、互いに表示位置の近い(例えば、20ピクセル以下しか離れていない)複数のアノテーション画像を1つのグループとして扱うようにしてもよい。   Further, the control unit 101 may treat a plurality of annotation images as one group, and cancel the deletion of all annotation images belonging to the same group when the deletion cancellation button 40 is pressed. In this case, only one deletion cancel button 40 is displayed. Further, the control unit 101 may handle a plurality of annotation images blinking within a certain time as one group. In this case, blinking of a plurality of annotation images need not be started simultaneously. Furthermore, the control unit 101 may handle a plurality of annotation images whose display positions are close to each other (for example, only 20 pixels or less) as one group.

以上説明したように、本実施の形態によれば、PC2の表示部205は、ビデオカメラ5による撮影画像を表示すると共に、PC1からの消去されるアノテーション画像の情報(座標情報)に応じて、当該アノテーション画像の消去の取消をPC1の制御部101に対して指示可能な消去中止ボタン40を表示するので、PC2のユーザが、アノテーション画像の消去の取消を指示することができる。   As described above, according to the present embodiment, the display unit 205 of the PC 2 displays a photographed image by the video camera 5 and according to the information (coordinate information) of the annotation image to be deleted from the PC 1. Since the deletion cancel button 40 that can instruct the control unit 101 of the PC 1 to cancel the deletion of the annotation image is displayed, the user of the PC 2 can instruct the cancellation of the deletion of the annotation image.

また、表示部205は、PC1からの消去されるアノテーション画像の情報に応じて、当該アノテーション画像を一定時間点滅表示するので、PC2のユーザに消去対象のアノテーション画像を知らせることができる。   Further, the display unit 205 blinks and displays the annotation image for a certain period of time according to the information of the annotation image to be deleted from the PC 1, so that the user of the PC 2 can be notified of the annotation image to be deleted.

上記第1及び第2の実施の形態では、制御部101は、記憶部103に記憶された撮影画像とビデオカメラ5から受信した直後の撮影画像とをピクセル毎に比較することにより、対象物が移動されているか否かを判別している(ステップS2、S3)。これに対して、図9に示すように、制御部101は、記憶部103に記憶された撮影画像とビデオカメラ5から受信した直後の撮影画像とをそれぞれ複数の小領域に分割し、互いに対応する分割された小領域同士を比較することにより、対象物が移動されているか否かを判別するようにしてもよい。これにより、撮影画像のノイズ等の影響を受けずに、正確に対象物が移動されているか否かを判別することができる。   In the first and second embodiments, the control unit 101 compares the captured image stored in the storage unit 103 with the captured image just received from the video camera 5 for each pixel, so that the object is It is determined whether or not it has been moved (steps S2 and S3). On the other hand, as shown in FIG. 9, the control unit 101 divides the photographed image stored in the storage unit 103 and the photographed image just received from the video camera 5 into a plurality of small areas, and corresponds to each other. It may be determined whether or not the object has been moved by comparing the divided small areas. Thereby, it is possible to determine whether or not the object is accurately moved without being influenced by noise or the like of the captured image.

また、制御部101は、アノテーション画像の周辺の一定数以上の小領域(例えば、5つ以上の小領域)で変化が起きたときに、アノテーション画像を消去するようにしてもよい。これにより、撮影画像のノイズ等の影響を回避し、不要になったアノテーション画像を消去することができる。   In addition, the control unit 101 may delete the annotation image when a change occurs in a certain number of small areas around the annotation image (for example, five or more small areas). Thereby, it is possible to avoid the influence of noise or the like of the photographed image and erase the annotation image that has become unnecessary.

上記第1及び第2の実施の形態では、対象物8(8a、8b)が移動した場合を想定したが、例えば、プロジェクタ4又はビデオカメラ5が移動された場合には、撮影画像全体が変化領域となるため、制御部101は撮影画像内の全てのアノテーション画像を消去するようにしてもよい。   In the first and second embodiments, it is assumed that the object 8 (8a, 8b) has moved. However, for example, when the projector 4 or the video camera 5 is moved, the entire captured image changes. Since this is an area, the control unit 101 may delete all annotation images in the captured image.

上記第1及び第2の実施の形態では、PC1にプロジェクタ4及びビデオカメラ5が接続されているが、図10に示すように、PC1の表示部106とPC2の表示部205に同一の対象物8及び同一のアノテーション画像9を表示するようにしてもよい。図10のシステムでは、対象物8は仮想物体である。図10のシステムでも、PC1は図4及び図7のフローチャートの処理が実行できる。   In the first and second embodiments, the projector 4 and the video camera 5 are connected to the PC 1, but as shown in FIG. 10, the same object is displayed on the display unit 106 of the PC 1 and the display unit 205 of the PC 2. 8 and the same annotation image 9 may be displayed. In the system of FIG. 10, the object 8 is a virtual object. Also in the system of FIG. 10, the PC 1 can execute the processing of the flowcharts of FIGS.

この場合、PC1の表示部106が対象物8及びPC1から入力されたアノテーション画像を表示部106の表示領域に表示する。そして、制御部101が、対象物8の移動を検出し、対象物8の移動により生じた、表示領域内の変化領域を抽出し、当該変化領域にアノテーション画像が含まれる場合に、当該アノテーション画像を消去する。これにより、対象物の移動により不要になったアノテーション画像を自動的に削除することができ、ユーザの操作負担を軽減することができる。   In this case, the display unit 106 of the PC 1 displays the annotation image input from the object 8 and the PC 1 in the display area of the display unit 106. Then, when the control unit 101 detects the movement of the object 8, extracts a change area in the display area caused by the movement of the object 8, and the annotation image is included in the change area, the annotation image Erase. As a result, annotation images that have become unnecessary due to the movement of the object can be automatically deleted, and the operation burden on the user can be reduced.

(第3の実施の形態)
次に、本発明の第3の実施形態について、図11〜図12(C)に基づいて説明する。本第3の実施形態では、制御部101により抽出された撮影画像上の変化領域にアノテーション画像が含まれた場合に、その直前の画像を記憶する点に特徴を有している。なお、本第3の実施形態に係る遠隔指示システムは、図1の遠隔指示システムと同一の構成を有するので、その説明は省略するものとする。
(Third embodiment)
Next, the 3rd Embodiment of this invention is described based on FIGS. 11-12C. The third embodiment is characterized in that when an annotation image is included in the change area on the captured image extracted by the control unit 101, the immediately preceding image is stored. The remote instruction system according to the third embodiment has the same configuration as the remote instruction system of FIG.

図11には、PC1で実行される処理がフローチャートにて示されている。この図11に示されるように、PC1の制御部101は、ビデオカメラ5から撮影画像(これを「撮影画像Pf」と呼ぶ)を受信(取得)する(ステップS101)。この撮影画像は、例えば、0.5秒ごとにフレーム画像としてビデオカメラ5から送られる。   FIG. 11 is a flowchart showing processing executed by the PC 1. As shown in FIG. 11, the control unit 101 of the PC 1 receives (acquires) a captured image (referred to as “captured image Pf”) from the video camera 5 (step S101). This photographed image is sent from the video camera 5 as a frame image every 0.5 seconds, for example.

制御部101は、ステップS101で取得した撮影画像Pfとビデオカメラ5から受信した直後の撮影画像(これを「撮影画像Pa」と呼ぶ)とをピクセル毎に比較する(ステップS102)。具体的には、制御部101は、ビデオカメラ5から受信した直後のフレーム画像と、その直前に記憶部103に記憶されたフレーム画像とをピクセル毎に比較する。   The control unit 101 compares the captured image Pf acquired in step S101 with the captured image immediately after received from the video camera 5 (referred to as “captured image Pa”) for each pixel (step S102). Specifically, the control unit 101 compares the frame image immediately after being received from the video camera 5 and the frame image stored in the storage unit 103 immediately before the frame image for each pixel.

制御部101は、ステップS102の比較結果に基づいて、対象物8が移動されたか否かを判別する(ステップS103)。このステップS103では、制御部101は、上記2つの撮影画像(フレーム画像)に差分があると、対象物8が移動したと判別する。なお、制御部101は、アノテーション画像の投影による撮影画像(フレーム画像)の変化は、検知しない。即ち、制御部101は、アノテーション画像の投影前後のフレーム画像間の差分のうちアノテーション画像の領域にあるものを無視する。これにより、必要な注釈画像の入力を確保することができる。   The control unit 101 determines whether or not the object 8 has been moved based on the comparison result of step S102 (step S103). In step S103, the control unit 101 determines that the object 8 has moved if there is a difference between the two captured images (frame images). Note that the control unit 101 does not detect a change in the captured image (frame image) due to the projection of the annotation image. That is, the control unit 101 ignores the difference between the frame images before and after the projection of the annotation image in the annotation image area. Thereby, the input of a required annotation image can be ensured.

このステップS103における判断が否定された場合(すなわち、対象物が移動していない場合)には、撮影画像Pfを記憶部103に記憶し(ステップS104)、ステップS101に戻る。   If the determination in step S103 is negative (ie, the object has not moved), the captured image Pf is stored in the storage unit 103 (step S104), and the process returns to step S101.

これに対し、ステップS103における判断が肯定された場合(すなわち、対象物が移動した場合)には、制御部101は、対象物8の移動が終了したか否かを判別する(ステップS105)。例えば、制御部101は、連続した50枚のフレーム画像に変化がなければ、対象物8の移動が終了したと判別する。   On the other hand, when the determination in step S103 is affirmative (that is, when the object has moved), the control unit 101 determines whether or not the movement of the object 8 has ended (step S105). For example, if there is no change in 50 consecutive frame images, the control unit 101 determines that the movement of the object 8 has ended.

ステップS105の判断が否定された場合には、当該判別処理を繰り返し、ステップS105の判断が肯定された段階で、制御部101は、ビデオカメラ5から受信した直後の撮影画像(フレーム画像)に含まれる、変化のあった領域(変化領域)を抽出する(ステップS106)。   If the determination in step S105 is negative, the determination process is repeated, and when the determination in step S105 is affirmed, the control unit 101 is included in the captured image (frame image) immediately after received from the video camera 5. The changed area (change area) is extracted (step S106).

表示部205の表示領域12内にアノテーション画像が書き込まれると、アノテーション画像を示す座標情報がPC2からPC1に送信される。よって、制御部101は、アノテーション画像を示す座標情報に基づいて、図11のステップS106で抽出された領域のうち、アノテーション画像の領域は除外するようにしてもよい。これにより、必要な注釈画像の入力を確保することができる。   When an annotation image is written in the display area 12 of the display unit 205, coordinate information indicating the annotation image is transmitted from the PC 2 to the PC 1. Therefore, the control unit 101 may exclude the region of the annotation image from the regions extracted in step S106 in FIG. 11 based on the coordinate information indicating the annotation image. Thereby, the input of a required annotation image can be ensured.

図12(A)には、表示領域12内に対象物8a,8bが表示されており、対象物8a上にアノテーション画像9が投影された状態(撮影画像Pf)が示されている。図12(B)には、対象物8aが図12(A)の状態から移動した状態(撮影画像Pa)が示されている。また、図12(C)には、変化のあった領域を抽出した状態(ステップS106)が示されている。この図12(C)において、符号130、130’で示される領域が変化領域である。なお、制御部101は、変化領域130、130’に対応する、撮影画像上の座標情報を保持する。   In FIG. 12A, the objects 8a and 8b are displayed in the display area 12, and a state where the annotation image 9 is projected on the object 8a (captured image Pf) is shown. FIG. 12B shows a state (captured image Pa) in which the object 8a has moved from the state of FIG. FIG. 12C shows a state where a changed area is extracted (step S106). In FIG. 12C, areas indicated by reference numerals 130 and 130 'are change areas. The control unit 101 holds coordinate information on the captured image corresponding to the change areas 130 and 130 '.

図11に戻り、制御部101は、変化領域130、130’にアノテーション画像が含まれているか否かを判別する(ステップS107)。表示部205の表示領域12内にアノテーション画像が書き込まれると、アノテーション画像を示す座標情報がPC2からPC1に送信される。よって、ステップS107の判別は、制御部101が、上記変化領域30に対応する座標情報にアノテーション画像を示す座標情報が含まれるか否かを判別することにより実行される。   Returning to FIG. 11, the control unit 101 determines whether or not an annotation image is included in the change areas 130 and 130 '(step S107). When an annotation image is written in the display area 12 of the display unit 205, coordinate information indicating the annotation image is transmitted from the PC 2 to the PC 1. Therefore, the determination in step S107 is performed by the control unit 101 determining whether the coordinate information indicating the annotation image is included in the coordinate information corresponding to the change area 30.

上記ステップS107の判断が否定された場合には、ステップS101に戻る。一方、ステップS107の判断が肯定された場合には、制御部101は、撮影画像Pf(対象物の移動前における撮影画像)を、記憶部103内の撮影画像リストに追加する(保存する)(ステップS108)。   If the determination in step S107 is negative, the process returns to step S101. On the other hand, if the determination in step S107 is affirmative, the control unit 101 adds (saves) the captured image Pf (the captured image before the movement of the object) to the captured image list in the storage unit 103 ( Step S108).

なお、上記ステップS107では、変化領域130、130’にアノテーション画像の全てが含まれている場合に、撮影画像Pfを記憶する場合について説明したが、これに限らず、変化領域130、130’にアノテーション画像の一部が含まれている場合にも、撮影画像Pfを記憶するようにしても良い。   In step S107, the case where the captured image Pf is stored when all the annotation images are included in the change areas 130 and 130 ′ has been described. However, the present invention is not limited to this, and the change areas 130 and 130 ′ include the change images 130 and 130 ′. The captured image Pf may be stored even when a part of the annotation image is included.

また、制御部101は、変化領域130、130’から所定距離広げた範囲内(例えば、変化領域130,130’から上下左右に30ピクセル広げた範囲)にアノテーション画像の少なくとも一部が含まれている場合に、撮影画像Pfを記憶するようにしても良い。このようにすることで、アノテーション画像を投影したプロジェクタの光によって撮影画像の変化が検出されなかった場合でも、適切なタイミングで撮影画像を記憶することができる。   In addition, the control unit 101 includes at least a part of the annotation image within a range widened by a predetermined distance from the change areas 130 and 130 ′ (for example, a range widened 30 pixels vertically and horizontally from the change areas 130 and 130 ′). If it is, the captured image Pf may be stored. In this way, even when no change in the captured image is detected by the light of the projector that projected the annotation image, the captured image can be stored at an appropriate timing.

上記のようにしてステップS101〜S108の処理・判断が順次繰り返されることにより、記憶部103の撮影画像リストには、撮影画像が適切なタイミングで蓄積されていくことになる。ユーザは、これら蓄積された撮影画像を用いることにより、本実施形態の遠隔指示システムを用いて行われた遠隔地間の会議などの議事録等を作成することができる。   As described above, the processing and determination in steps S101 to S108 are sequentially repeated, so that the captured images are accumulated in the captured image list of the storage unit 103 at an appropriate timing. The user can create minutes of a conference between remote locations held by using the remote instruction system according to the present embodiment by using these stored captured images.

以上詳細に説明したように、本第3の実施形態によれば、制御部101が、ビデオカメラ5により撮影された撮影画像に基づいて、対象物8の移動を検出し、対象物8の移動により生じた撮影画像上の変化領域を抽出し、当該変化領域にアノテーション画像が含まれる場合に、変化前の撮影画像Pfを記憶部103の撮影画像リストに追加(記憶)するため、適切なタイミングで撮影画像を自動的に記憶することができ、ユーザの操作負担を軽減することができる。また、適切なタイミングで記憶された撮影画像を用いることにより、適切な議事録等を作成することが可能である。   As described above in detail, according to the third embodiment, the control unit 101 detects the movement of the object 8 based on the captured image captured by the video camera 5 and moves the object 8. When the change area on the photographed image generated by the above is extracted and an annotation image is included in the change area, the photographed image Pf before the change is added (stored) to the photographed image list in the storage unit 103. Thus, the captured image can be automatically stored, and the operation burden on the user can be reduced. Moreover, it is possible to create appropriate minutes and the like by using captured images stored at appropriate timing.

なお、上記第3の実施形態では、撮影画像Pfを記憶部103に記憶する場合について説明したが、これに限られるものではなく、例えば、ネットワーク上に存在するPC1とは別の装置(PC)に、撮影画像Pfを記憶するようにしても良い。   In the third embodiment, the case where the captured image Pf is stored in the storage unit 103 has been described. However, the present invention is not limited to this, and for example, a device (PC) different from the PC 1 existing on the network. In addition, the captured image Pf may be stored.

(第4の実施形態)
次に、本発明の第4の実施形態について、図13〜図14(F)に基づいて説明する。この第4の実施形態は、制御部101により抽出された撮影画像上の変化領域にアノテーション画像が含まれた場合の、撮影画像の記憶方法が、上述した第3の実施形態と異なっている。したがって、以下においては、この点を中心にして説明するものとする。
(Fourth embodiment)
Next, the 4th Embodiment of this invention is described based on FIGS. 13-14F. The fourth embodiment is different from the third embodiment described above in the method of storing a photographed image when an annotation image is included in the change area on the photographed image extracted by the control unit 101. Therefore, in the following, this point will be mainly described.

図13には、PC1で実行される処理がフローチャートにて示されている。この図13と、図11(前述した第3の実施形態の処理)とを比較すると分かるように、図13のステップS201〜S206と、図11のステップS101〜S106とは、同一の処理内容となっている。したがって、ここではステップS201〜S206の説明は省略するものとする。   FIG. 13 is a flowchart showing processing executed by the PC 1. As can be seen by comparing FIG. 13 with FIG. 11 (the process of the third embodiment described above), steps S201 to S206 in FIG. 13 and steps S101 to S106 in FIG. It has become. Therefore, the description of steps S201 to S206 is omitted here.

制御部101は、ステップS206において変化領域の抽出を行った後、変化前の撮影画像Pfの重要度を計算する(ステップS207)。ここで、重要度を決定するためのパラメータとして、本実施形態では、変化領域に関するパラメータ(変化領域の大きさに関するパラメータ(β1)、変化領域が発生するまでの時間に関するパラメータ(β2)…など)や、変化領域に含まれるアノテーション画像に関するパラメータ(変化領域に含まれるアノテーション画像の数に関するパラメータ(βn-2)、変化領域内に複数のアノテーション画像が含まれる場合における各アノテーション画像間の距離に関するパラメータ(βn-1)、及び各アノテーション画像が描画された時間間隔に関するパラメータ(βn)…など)を採用することとしている。 After extracting the changed area in step S206, the control unit 101 calculates the importance of the photographed image Pf before the change (step S207). Here, as parameters for determining the importance, in the present embodiment, parameters related to the change region (parameters related to the size of the change region (β 1 ), parameters related to the time until the change region occurs (β 2 ),... Etc.), parameters related to annotation images included in the change region (parameters related to the number of annotation images included in the change region (β n-2 )), and between annotation images when multiple annotation images are included in the change region A parameter (β n-1 ) related to the distance and a parameter (β n )... Related to the time interval at which each annotation image is drawn are adopted.

ここで、重要度について具体的に説明すると、例えば、図14(A)、図14(B)に示されるように、変化領域130,130’に含まれるアノテーション画像の数が異なる場合には、アノテーション画像の数が多いほど、撮影画像Pfの重要度が高くなるように(「図14(A)の重要度<図14(B)の重要度」となるように)取り扱うこととする。また、図14(C)、図14(D)に示されるように、変化領域130,130’内に複数のアノテーション画像が存在する場合には、各アノテーション画像間の距離が小さい方(接近度が高い方)の撮影画像Pfの重要度が高くなるように(「図14(A)の重要度<図14(B)の重要度」となるように)取り扱うこととする。更に、図14(E)、図14(F)に示されるように、変化領域の大きさが異なる場合には、変化領域が大きいほど、撮影画像Pfの重要度が高くなるように(「図14(E)の重要度<図14(F)の重要度」となるように)取り扱うこととする。   Here, the importance will be specifically described. For example, as shown in FIGS. 14A and 14B, when the number of annotation images included in the change regions 130 and 130 ′ is different, The greater the number of annotation images, the higher the importance of the captured image Pf (ie, “importance in FIG. 14A <importance in FIG. 14B”). Further, as shown in FIGS. 14C and 14D, when there are a plurality of annotation images in the change areas 130 and 130 ′, the distance between the annotation images is smaller (the degree of approach). It is assumed that the importance of the captured image Pf is higher (so that “importance in FIG. 14A <importance in FIG. 14B”). Further, as shown in FIGS. 14E and 14F, when the size of the change area is different, the importance of the captured image Pf is increased as the change area is larger (see FIG. 14 (E) <importance in FIG. 14 (F) ”.

また、図示はしていないが、例えば、以前に撮影画像が記憶されてから、次の撮影画像を記憶するか否かの判断を行うまでに要した時間が短い場合と、長い場合とでは、長い方が、その画像について十分に話し合ったものと想定されるので、その時間が長ければ長いほど、撮影画像Pfの重要度が高くなるように取り扱うこととする。   Although not shown in the figure, for example, when the time taken from the time when a captured image was previously stored until it is determined whether to store the next captured image is short or long, Since it is assumed that the longer one has sufficiently discussed the image, the longer the time is, the higher the importance of the captured image Pf is handled.

更に、重要度を決定する際に描画されているアノテーション画像の描画間隔(時間間隔)が、短い場合と長い場合とでは、短い方が、その画像について活発な議論がされたものと想定されるので、その時間が短ければ短いほど、撮影画像Pfの重要度が高くなるように取り扱うこととする。   Furthermore, when the drawing interval (time interval) of the annotation image drawn when determining the importance is short or long, it is assumed that the shorter one has a lively discussion about the image. Therefore, the shorter the time is, the higher the importance of the captured image Pf is handled.

したがって、制御部101では、上記パラメータ(β1〜βn)と、これらパラメータの重み付けを行う重み付け係数(α1〜αn)とを用いて、重要度(γ)を次式(1)のようにして算出する。
γ=α1β1+α2β2+…+αnβn …(1)
Therefore, the control unit 101 uses the above parameters (β 1 to β n ) and the weighting coefficients (α 1 to α n ) for weighting these parameters to determine the importance (γ) of the following equation (1). Thus, the calculation is performed.
γ = α 1 β 1 + α 2 β 2 + ... + α n β n (1)

図13に戻り、制御部101は、上記のようにして算出された重要度(γ)と、予め定められた重要度の閾値(γs)とを比較して、重要度(γ)が、閾値(γs)以上であるか否かを判断する(ステップS208)。   Returning to FIG. 13, the control unit 101 compares the importance level (γ) calculated as described above with a predetermined importance level threshold value (γs). It is determined whether or not (γs) or more (step S208).

このステップS208における判断が肯定された場合には、撮影画像Pfの重要度が比較的高いと判断されたことを意味するので、制御部101は、その画像を、記憶部103の撮影画像リストに追加(記憶)する。   If the determination in step S208 is affirmative, it means that the importance of the captured image Pf is determined to be relatively high, and the control unit 101 places the image in the captured image list of the storage unit 103. Add (memorize).

これに対し、ステップS208における判断が否定された場合には、撮影画像Pfの重要度があまり高くないと判断されたことを意味するので、制御部101は、その画像を記憶せずに、ステップS201に戻る。   On the other hand, if the determination in step S208 is negative, it means that the importance of the captured image Pf is determined to be not so high, so that the control unit 101 does not store the image and does not store the image. Return to S201.

上記のようにしてステップS201〜S209の処理・判断が順次繰り返されることにより、記憶部103の撮影画像リストには、撮影画像が適切なタイミングで蓄積されていくことになる。ユーザは、これら蓄積された撮影画像を用いることにより、本実施形態の遠隔指示システムを用いて行われた遠隔地間の会議などの議事録等を作成することができる。   As described above, the processes and determinations in steps S201 to S209 are sequentially repeated, so that captured images are accumulated in the captured image list of the storage unit 103 at appropriate timing. The user can create minutes of a conference between remote locations held by using the remote instruction system according to the present embodiment by using these stored captured images.

以上詳細に説明したように、本第4の実施形態によれば、制御部101が、ビデオカメラ5により撮影された撮影画像に基づいて、対象物8の移動を検出し、対象物8の移動により生じた撮影画像上の変化領域を抽出するとともに、変化前の撮影画像の重要度(γ)を算出し、その重要度(γ)が閾値(γs)以上である場合にのみ撮影画像を自動的に記憶することとしているので、撮影画像のうち、重要度の高い画像のみを記憶することができる。また、このような重要度の高い撮影画像を用いて、議事録等を作成することにより、適切な議事録等の作成を行うことが可能である。   As described above in detail, according to the fourth embodiment, the control unit 101 detects the movement of the object 8 based on the captured image captured by the video camera 5 and moves the object 8. The change area on the captured image generated by the above is extracted, the importance (γ) of the captured image before the change is calculated, and the captured image is automatically only when the importance (γ) is equal to or greater than the threshold (γs). Therefore, only high-importance images can be stored among the captured images. Moreover, it is possible to create an appropriate minutes etc. by creating a minutes etc. using such a highly important photographed image.

なお、上記第4の実施形態では、重要度の算出を、式(1)により行うこととしたが、これに限られるものではなく、その他の統計演算式などを用いて、重要度の算出を行うことも可能である。統計演算式としては、たとえば標準偏差を用いることができる。すなわち、アノテーション画像が描画された時間間隔の全データに対する、各アノテーション画像が描画された時間間隔の標準偏差δnを用いて、
γ=α1δ1+α2δ2+…+αnδn …(2)
と表すことができる。なお、標準偏差を用いた式としては、上記式(2)以外の式を採用することも可能である。
In the fourth embodiment, the importance level is calculated using the equation (1). However, the present invention is not limited to this, and the importance level is calculated using other statistical formulas. It is also possible to do this. For example, a standard deviation can be used as the statistical calculation expression. That is, with respect to all the data of the time interval at which the annotation image was drawn, the standard deviation δ n of the time interval at which each annotation image was drawn,
γ = α 1 δ 1 + α 2 δ 2 + ... + α n δ n (2)
It can be expressed as. In addition, it is also possible to employ | adopt expressions other than said Formula (2) as a formula using a standard deviation.

なお、上記第4の実施形態では、重要度(γ)が閾値(γs)以上である場合に、撮影画像を記憶することとしたが、この撮影画像を記憶部103の撮影画像リストに追加(記憶)する際に作成されるテーブル(ファイル名や記憶日時などを管理するテーブル)に、図15に示されるように、重要度を記載することとしても良い。このようにすることで、ユーザは、撮影画像の重要度を参考にしながら、議事録等を作成することができる。   In the fourth embodiment, the captured image is stored when the importance (γ) is equal to or greater than the threshold (γs). However, the captured image is added to the captured image list in the storage unit 103 ( As shown in FIG. 15, the importance may be described in a table (a table for managing file names, storage dates and the like) created at the time of storage. By doing in this way, the user can create the minutes etc., referring to the importance of the captured image.

また、上記第4の実施形態では、図13のステップS208において、重要度が閾値以上であるか否かを判断することとしたが、これに限られるものではなく、例えば、重要度が閾値以上であるか否かの判断をせずに、重要度を算出した画像の全てを、重要度の値とともに記憶部103の撮影画像リストに追加(記憶)することとしても良い。このようにしても、ユーザは、撮影画像の重要度を参考にしながら、議事録等を作成することができる。   In the fourth embodiment, it is determined in step S208 in FIG. 13 whether or not the importance is equal to or higher than the threshold. However, the present invention is not limited to this. For example, the importance is equal to or higher than the threshold. It is also possible to add (store) all of the images for which importance has been calculated to the photographed image list in the storage unit 103 together with the value of importance, without determining whether or not the image is. Even in this way, the user can create the minutes and the like while referring to the importance of the captured image.

なお、上記第3及び第4の実施の形態では、制御部101は、記憶部103に記憶された撮影画像とビデオカメラ5から受信した直後の撮影画像とをピクセル毎に比較することにより、対象物が移動されているか否かを判別したが、これに限らず、記憶部103に記憶された撮影画像とビデオカメラ5から受信した直後の撮影画像とをそれぞれ複数の小領域に分割し、互いに対応する分割された小領域同士を比較することにより、対象物が移動されているか否かを判別するようにしてもよい(図9参照)。これにより、撮影画像のノイズ等の影響を受けずに、正確に対象物が移動されているか否かを判別することができる。   In the third and fourth embodiments, the control unit 101 compares the captured image stored in the storage unit 103 with the captured image immediately after received from the video camera 5 for each pixel. Although it is determined whether or not an object has been moved, the present invention is not limited thereto, and the captured image stored in the storage unit 103 and the captured image immediately after being received from the video camera 5 are each divided into a plurality of small areas, and You may make it discriminate | determine whether the target object is moved by comparing the corresponding divided | segmented small area | regions (refer FIG. 9). Thereby, it is possible to determine whether or not the object is accurately moved without being influenced by noise or the like of the captured image.

なお、上記第3及び第4の実施の形態においても、前述した第1、第2の実施形態の場合と同様、図10に示されるように、PC1の表示部106とPC2の表示部205に同一の対象物(仮想物体)8及び同一のアノテーション画像9を表示するようにしてもよい。この図10のシステムでも、PC1は図11や図13のフローチャートに沿った処理を実行することができる。   In the third and fourth embodiments, as in the case of the first and second embodiments described above, the display unit 106 of the PC 1 and the display unit 205 of the PC 2 are arranged as shown in FIG. The same object (virtual object) 8 and the same annotation image 9 may be displayed. In the system of FIG. 10 as well, the PC 1 can execute processing according to the flowcharts of FIGS. 11 and 13.

なお、上記第1又は第2の実施形態と、第3又は第4の実施形態とを併用することも可能である。すなわち、例えば、制御部101は、変化領域内にアノテーション画像が含まれていた場合に、その変化の直前の撮影画像を記憶部103(撮影画像リスト)に記憶するとともに、変化領域に含まれていたアノテーション画像を削除する処理を行うこととすることも可能である。   The first or second embodiment and the third or fourth embodiment can be used in combination. That is, for example, when an annotation image is included in the change area, the control unit 101 stores the captured image immediately before the change in the storage unit 103 (captured image list) and is included in the change area. It is also possible to perform processing for deleting the annotation image.

なお、上記各実施形態では、撮影画像がPC1からPC2に対して、ネットワークを介して、直接送信される場合について説明したが、これに限らず、例えば、PC1の近傍に別のハードウェアを設けておき、PC1から撮影画像を受信したその別のハードウェアからPC2に対して、ネットワークを介して、撮影画像を送信することとしても良い。   In each of the above embodiments, the case where the captured image is directly transmitted from the PC 1 to the PC 2 via the network has been described. However, the present invention is not limited to this, and for example, another hardware is provided in the vicinity of the PC 1. The captured image may be transmitted from the other hardware that has received the captured image from the PC 1 to the PC 2 via the network.

PC1〜PC2の機能を実現するためのソフトウェアのプログラムが記録されている記録媒体を、各PCに供給し、各PCのCPUが記憶媒体に格納されたプログラムを読み出し実行することによっても、上記実施の形態と同様の効果を奏する。プログラムを供給するための記憶媒体としては、例えば、CD−ROM、DVD、又はSDカードなどがある。   The above-mentioned implementation can also be realized by supplying a recording medium in which a software program for realizing the functions of PC1 to PC2 is recorded to each PC, and the CPU of each PC reads and executes the program stored in the storage medium. The same effect as that of the embodiment is produced. Examples of the storage medium for supplying the program include a CD-ROM, a DVD, or an SD card.

また、各PCのCPUが、各PCの機能を実現するためのソフトウェアのプログラムを実行することによっても、上記実施の形態と同様の効果を奏する。   Further, the same effects as those of the above-described embodiment can also be obtained when the CPU of each PC executes a software program for realizing the function of each PC.

なお、本発明は、上述した各実施の形態に限定されるものではなく、その要旨を逸脱しない範囲内で種々変形して実施することが可能である。   In addition, this invention is not limited to each embodiment mentioned above, In the range which does not deviate from the summary, it can change and implement variously.

本発明の実施の形態に係る情報処理装置を含む遠隔指示システムの構成を示す図である。It is a figure which shows the structure of the remote instruction | indication system containing the information processing apparatus which concerns on embodiment of this invention. PC1〜2の機能構成を示すブロック図である。It is a block diagram which shows the function structure of PC1-2. PC1のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of PC1. PC1で実行される処理を示すフローチャートである。It is a flowchart which shows the process performed by PC1. (A)は、記憶部に記憶された撮影画像の一例を示す図であり、(B)は、ビデオカメラから受信した直後の撮影画像の一例を示す図であり、(C)は、アノテーション画像の削除後の撮影画像の一例を示す。(A) is a figure which shows an example of the picked-up image memorize | stored in the memory | storage part, (B) is a figure which shows an example of the picked-up image immediately after receiving from a video camera, (C) is an annotation image. An example of the photographed image after deletion is shown. (A)は、2つのアノテーション画像を1つのグループとして扱う場合の撮影画像の一例を示す図であり、(B)は、アノテーション画像及び当該アノテーション画像に関連付けられている領域を含む撮影画像の一例を示す図である。(A) is a figure which shows an example of the picked-up image in the case of handling two annotation images as one group, (B) is an example of the picked-up image containing an annotation image and the area | region linked | related with the said annotation image. FIG. 第2の実施の形態に係るPC1で実行される処理を示すフローチャートである。It is a flowchart which shows the process performed with PC1 which concerns on 2nd Embodiment. 撮影画像を表示する表示領域の一例を示す図である。It is a figure which shows an example of the display area which displays a picked-up image. 複数の小領域に分割された撮影画像の一例を示す図である。It is a figure which shows an example of the picked-up image divided | segmented into the several small area | region. 情報処理装置を含む遠隔指示システムの構成の変形例を示す図である。It is a figure which shows the modification of a structure of the remote instruction | indication system containing an information processing apparatus. 第3の実施形態に係るPC1で実行される処理を示すフローチャートである。It is a flowchart which shows the process performed by PC1 which concerns on 3rd Embodiment. 図12(A)は、記憶部に記憶された撮影画像の一例を示す図であり、図12(B)は、ビデオカメラから受信した直後の撮影画像の一例を示す図であり、図12(C)は、変化領域の一例を示す図である。12A is a diagram illustrating an example of a captured image stored in the storage unit, and FIG. 12B is a diagram illustrating an example of a captured image immediately after being received from the video camera. C) is a diagram illustrating an example of a change region. 第4の実施形態に係るPC1で実行される処理を示すフローチャートである。It is a flowchart which shows the process performed by PC1 which concerns on 4th Embodiment. 図14(A)〜図14(F)は、重要度について説明するための図である。FIG. 14A to FIG. 14F are diagrams for explaining the importance. データを管理するために用いられるテーブルの一例を示す図である。It is a figure which shows an example of the table used in order to manage data.

符号の説明Explanation of symbols

1 PC(情報処理装置)
2 PC(外部端末)
3 ネットワーク
4 プロジェクタ(投影装置)
5 ビデオカメラ(撮影装置)
6 ハーフミラー
101 制御部(検出手段、抽出手段、処理手段、取得手段)
102 送受信部(送信手段)
103 記憶部
104 IF部
105 操作部
106 表示部(表示手段)
201 制御部
202 送受信部
203 記憶部
204 操作部
205 表示部(画像表示手段)
1 PC (information processing equipment)
2 PC (external terminal)
3 Network 4 Projector (Projector)
5 Video camera (photographing device)
6 half mirror 101 control unit (detection means, extraction means, processing means, acquisition means)
102 Transmission / reception unit (transmission means)
103 Storage Unit 104 IF Unit 105 Operation Unit 106 Display Unit (Display Unit)
201 Control Unit 202 Transmission / Reception Unit 203 Storage Unit 204 Operation Unit 205 Display Unit (Image Display Unit)

Claims (33)

外部端末から入力された注釈画像を対象物及び背景を含む投影領域に投影する投影装置、及び当該対象物及び当該背景を含む投影領域を撮影する撮影装置に接続される情報処理装置であって、
前記撮影装置により撮影された撮影画像に基づいて、前記対象物の移動を検出する検出手段と、
前記対象物の移動により生じた前記撮影画像上の変化領域を抽出する抽出手段と、
当該変化領域に前記注釈画像が含まれる場合に、前記撮影画像及び前記注釈画像の少なくとも一方に対する処理を実行する処理手段とを備えることを特徴とする情報処理装置。
An information processing apparatus connected to a projection apparatus that projects an annotation image input from an external terminal onto a projection area including an object and a background, and an imaging apparatus that captures the projection area including the object and the background,
Detection means for detecting movement of the object based on a photographed image photographed by the photographing device;
Extraction means for extracting a change area on the captured image caused by movement of the object;
An information processing apparatus comprising: processing means for executing processing on at least one of the captured image and the annotation image when the annotation image is included in the change area.
前記検出手段は、前記撮影装置により撮影された撮影画像と、当該撮影画像の直後に撮影された撮影画像とを比較することにより、前記対象物の移動を検出することを特徴とする請求項1記載の情報処理装置。 The detection unit detects movement of the object by comparing a captured image captured by the imaging device with a captured image captured immediately after the captured image. The information processing apparatus described. 前記検出手段は、前記撮影装置により撮影された撮影画像と、当該撮影画像の直後に撮影された撮影画像とをそれぞれ複数の小領域に分割し、互いに対応する分割された小領域同士を比較することにより、前記対象物の移動を検出することを特徴とする請求項1又は2記載の情報処理装置。 The detection unit divides a photographed image photographed by the photographing device and a photographed image photographed immediately after the photographed image into a plurality of small regions, and compares the divided small regions with each other. The information processing apparatus according to claim 1, wherein movement of the object is detected. 前記抽出手段は、前記外部端末からの前記注釈画像の入力中に生じる前記変化領域又は前記外部端末からの前記注釈画像の座標情報に基づいて前記表示領域内の前記注釈画像の領域を無視することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 The extraction means ignores the region of the annotation image in the display region based on the change region generated during the input of the annotation image from the external terminal or the coordinate information of the annotation image from the external terminal. The information processing apparatus according to any one of claims 1 to 3. 前記処理手段により実行される処理には、前記注釈画像の消去が含まれることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the processing executed by the processing unit includes erasure of the annotation image. 前記処理手段で消去される注釈画像の情報を前記外部端末に送信する送信手段をさらに備え、
前記外部端末は、前記撮影装置による撮影画像を表示すると共に、前記送信手段からの消去される注釈画像の情報に応じて、当該注釈画像の消去の取消を前記処理手段に対して指示可能な指示部を表示する画像表示手段を備えることを特徴とする請求項5に記載の情報処理装置。
Further comprising transmission means for transmitting information of the annotation image to be erased by the processing means to the external terminal,
The external terminal displays a photographed image by the photographing device and can instruct the processing means to cancel the erasure of the annotation image according to the information of the annotation image to be erased from the transmission means. 6. The information processing apparatus according to claim 5, further comprising image display means for displaying a part.
前記画像表示手段は、前記送信手段からの消去される注釈画像の情報に応じて、当該注釈画像を一定時間点滅表示することを特徴とする請求項6に記載の情報処理装置。 The information processing apparatus according to claim 6, wherein the image display unit displays the annotation image in a blinking manner for a certain period of time in accordance with information on the deleted annotation image from the transmission unit. 前記処理手段は、前記変化領域に前記注釈画像の一部が含まれる場合に、当該注釈画像の全てを消去することを特徴とする請求項5乃至7のいずれか1項に記載の情報処理装置。 8. The information processing apparatus according to claim 5, wherein when the change area includes a part of the annotation image, the processing unit deletes all of the annotation image. 9. . 前記処理手段は、前記変化領域から所定距離広げた範囲内にある注釈画像をも消去することを特徴とする請求項5乃至8のいずれか1項に記載の情報処理装置。 9. The information processing apparatus according to claim 5, wherein the processing unit also deletes an annotation image within a range extended by a predetermined distance from the change area. 10. 前記処理手段は、前記外部端末から入力された複数の注釈画像を1つのグループとして扱い、少なくとも1つの注釈画像を消去する場合には、同一グループに属する他の注釈画像も消去することを特徴とする請求項5乃至9のいずれか1項に記載の情報処理装置。 The processing means treats a plurality of annotation images input from the external terminal as one group, and when deleting at least one annotation image, deletes other annotation images belonging to the same group. The information processing apparatus according to any one of claims 5 to 9. 前記外部端末から前記注釈画像及び当該注釈画像に関連付けられている領域の情報を取得する取得手段を更に備え、
前記処理手段は、前記変化領域に前記注釈画像に関連付けられている領域が含まれる場合に、前記注釈画像を消去することを特徴とする請求項5乃至10のいずれか1項に記載の情報処理装置。
An acquisition means for acquiring information on the annotation image and an area associated with the annotation image from the external terminal;
11. The information processing according to claim 5, wherein the processing unit deletes the annotation image when the change region includes a region associated with the annotation image. apparatus.
前記処理手段により実行される処理には、前記変化領域に前記注釈画像が含まれる前の時点における前記撮影画像の記憶、が含まれることを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。 12. The process executed by the processing unit includes storing the captured image at a time point before the annotation image is included in the change area. The information processing apparatus described. 前記処理手段は、前記変化領域に前記注釈画像の少なくとも一部が含まれる場合に、その前の時点における前記撮影画像を記憶することを特徴とする請求項12に記載の情報処理装置。 The information processing apparatus according to claim 12, wherein when the change area includes at least a part of the annotation image, the processing unit stores the captured image at a previous time point. 前記処理手段は、前記変化領域から所定距離広げた範囲内に前記注釈画像の少なくとも一部が含まれる場合にも、その前の時点における前記撮影画像を記憶することを特徴とする請求項12又は13に記載の情報処理装置。 The processing unit stores the photographed image at a previous time point even when at least a part of the annotation image is included in a range that is widened by a predetermined distance from the change region. 13. The information processing apparatus according to 13. 対象物及び外部端末から入力された注釈画像を表示領域に表示する表示手段と、
前記対象物の移動を検出する検出手段と、
前記対象物の移動により生じた、前記表示領域内の変化領域を抽出する抽出手段と、
当該変化領域に前記注釈画像が含まれる場合に、前記表示領域内における表示に対する処理を実行する処理手段とを備えることを特徴とする情報処理装置。
Display means for displaying an annotation image input from an object and an external terminal in a display area;
Detecting means for detecting movement of the object;
Extraction means for extracting a change area in the display area caused by the movement of the object;
An information processing apparatus comprising: processing means for executing processing for display in the display area when the annotation area is included in the change area.
前記抽出手段は、前記外部端末からの前記注釈画像の入力中に生じる前記変化領域又は前記外部端末からの前記注釈画像の座標情報に基づいて前記表示領域内の前記注釈画像の領域を無視することを特徴とする請求項15に記載の情報処理装置。 The extraction means ignores the region of the annotation image in the display region based on the change region generated during the input of the annotation image from the external terminal or the coordinate information of the annotation image from the external terminal. The information processing apparatus according to claim 15. 前記処理手段により実行される処理には、前記注釈画像の消去が含まれることを特徴とする請求項15又は16に記載の情報処理装置。 The information processing apparatus according to claim 15, wherein the processing executed by the processing unit includes erasure of the annotation image. 前記処理手段は、前記変化領域に前記注釈画像の一部が含まれる場合に、当該注釈画像の全てを消去することを特徴とする請求項17に記載の情報処理装置。 The information processing apparatus according to claim 17, wherein when the change area includes a part of the annotation image, the processing unit deletes all of the annotation image. 前記処理手段は、前記変化領域から所定距離広げた範囲内にある注釈画像をも消去することを特徴とする請求項17又は18に記載の情報処理装置。 The information processing apparatus according to claim 17 or 18, wherein the processing unit also deletes an annotation image within a range that is widened by a predetermined distance from the change area. 前記処理手段は、前記外部端末から入力された複数の注釈画像を1つのグループとして扱い、少なくとも1つの注釈画像を消去する場合には、同一グループに属する他の注釈画像も消去することを特徴とする請求項17乃至19のいずれか1項に記載の情報処理装置。 The processing means treats a plurality of annotation images input from the external terminal as one group, and when deleting at least one annotation image, deletes other annotation images belonging to the same group. The information processing apparatus according to any one of claims 17 to 19. 前記外部端末から前記注釈画像及び当該注釈画像に関連付けられている領域の情報を取得する取得手段を更に備え、
前記処理手段は、前記変化領域に前記注釈画像に関連付けられている領域が含まれる場合に、前記注釈画像を消去することを特徴とする請求項17乃至20のいずれか1項に記載の情報処理装置。
An acquisition means for acquiring information on the annotation image and an area associated with the annotation image from the external terminal;
The information processing according to any one of claims 17 to 20, wherein the processing unit deletes the annotation image when the region associated with the annotation image is included in the change region. apparatus.
前記処理手段により実行される処理には、前記変化領域に前記注釈画像が含まれる前の時点における前記表示領域内の表示の記憶、が含まれることを特徴とする請求項15乃至21のいずれか1項に記載の情報処理装置。 The process executed by the processing means includes storing the display in the display area at a time before the annotation area is included in the change area. The information processing apparatus according to item 1. 前記処理手段は、前記変化領域に前記注釈画像の少なくとも一部が含まれる場合に、その前の時点における前記表示領域内の表示を記憶することを特徴とする請求項22に記載の情報処理装置。 The information processing apparatus according to claim 22, wherein when the change area includes at least a part of the annotation image, the processing unit stores a display in the display area at a previous time point. . 前記処理手段は、前記変化領域から所定距離広げた範囲内に前記注釈画像の少なくとも一部が含まれる場合にも、その前の時点における前記表示領域内の表示を記憶することを特徴とする請求項22又は23に記載の情報処理装置。 The processing means stores a display in the display area at a previous time point even when at least a part of the annotation image is included in a range extended by a predetermined distance from the change area. Item 24. The information processing apparatus according to Item 22 or 23. 外部端末から入力された注釈画像を対象物及び背景を含む投影領域に投影する投影装置、及び当該対象物及び当該背景を含む投影領域を撮影する撮影装置に接続される情報処理装置であって、
前記撮影装置により撮影された撮影画像に基づいて、前記対象物の移動を検出する検出手段と、
前記対象物の移動により生じた前記撮影画像上の変化領域を抽出する抽出手段と、
当該変化領域の情報と、当該変化領域に含まれる前記注釈画像の情報との少なくとも一方に基づいて、前記撮影画像の重要度を算出し、前記重要度に応じた前記撮影画像の記憶を実行する記憶手段とを備えることを特徴とする情報処理装置。
An information processing apparatus connected to a projection apparatus that projects an annotation image input from an external terminal onto a projection area including an object and a background, and an imaging apparatus that captures the projection area including the object and the background,
Detection means for detecting movement of the object based on a photographed image photographed by the photographing device;
Extraction means for extracting a change area on the captured image caused by movement of the object;
The importance of the captured image is calculated based on at least one of the information on the change area and the information on the annotation image included in the change area, and the captured image is stored according to the importance. An information processing apparatus comprising storage means.
対象物及び外部端末から入力された注釈画像を表示領域に表示する表示手段と、
前記対象物の移動を検出する検出手段と、
前記対象物の移動により生じた、前記表示領域内の変化領域を抽出する抽出手段と、
当該変化領域の情報と、当該変化領域に含まれる前記注釈画像の情報との少なくとも一方に基づいて、前記表示領域内の表示の重要度を算出し、前記重要度に応じた前記表示の記憶を実行する記憶手段とを備えることを特徴とする情報処理装置。
Display means for displaying an annotation image input from an object and an external terminal in a display area;
Detecting means for detecting movement of the object;
Extraction means for extracting a change area in the display area caused by the movement of the object;
Based on at least one of the information on the change area and the information on the annotation image included in the change area, the importance of the display in the display area is calculated, and the display is stored according to the importance. An information processing apparatus comprising storage means for executing.
前記記憶手段は、前記重要度が所定値以上である場合に、前記記憶を実行することを特徴とする請求項25又は26に記載の情報処理装置。 27. The information processing apparatus according to claim 25, wherein the storage unit executes the storage when the importance is equal to or greater than a predetermined value. 前記記憶手段は、前記記憶を実行する際に、前記重要度のデータも記憶することを特徴とする請求項25乃至27のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 25 to 27, wherein the storage unit also stores the data of the importance when the storage is executed. 前記重要度の算出に用いられる前記変化領域の情報には、該変化領域の大きさ、前記変化領域が発生するまでの時間の少なくとも一方が含まれ、
前記変化領域に含まれる前記注釈画像の情報には、前記変化領域に含まれる前記注釈画像の数、前記変化領域内に複数の注釈画像が含まれる場合における各注釈画像間の距離及び各注釈画像が描画された時間間隔の少なくとも1つが含まれることを特徴とする請求項25乃至28のいずれか1項に記載の情報処理装置。
The information of the change area used for the calculation of the importance includes at least one of the size of the change area and the time until the change area occurs,
The information on the annotation image included in the change area includes the number of the annotation images included in the change area, the distance between the annotation images in the case where a plurality of annotation images are included in the change area, and the annotation images. The information processing apparatus according to any one of claims 25 to 28, wherein at least one of time intervals in which is drawn is included.
外部端末から入力された注釈画像を対象物及び背景を含む投影領域に投影する投影装置、及び当該対象物及び当該背景を含む投影領域を撮影する撮影装置に接続されるコンピュータを、
前記撮影装置により撮影された撮影画像に基づいて、前記対象物の移動を検出する検出手段、
前記対象物の移動により生じた前記撮影画像上の変化領域を抽出する抽出手段、及び
当該変化領域に前記注釈画像が含まれる場合に、前記撮影画像及び前記注釈画像の少なくとも一方に対する処理を実行する処理手段として機能させることを特徴とするプログラム。
A projection device that projects an annotation image input from an external terminal onto a projection area including an object and a background, and a computer connected to an imaging apparatus that captures the projection area including the object and the background;
Detecting means for detecting movement of the object based on a photographed image photographed by the photographing device;
Extraction means for extracting a change area on the photographed image caused by the movement of the object, and processing for at least one of the photographed image and the annotation image when the annotation image is included in the change area A program characterized by functioning as a processing means.
コンピュータを、
対象物及び外部端末から入力された注釈画像を表示領域に表示する表示手段、
前記対象物の移動を検出する検出手段、
前記対象物の移動により生じた、前記表示領域内の変化領域を抽出する抽出手段、及び
当該変化領域に前記注釈画像が含まれる場合に、前記表示領域内における表示に対する処理を実行する処理手段として機能させることを特徴とするプログラム。
Computer
Display means for displaying an annotation image input from an object and an external terminal in a display area;
Detecting means for detecting movement of the object;
Extracting means for extracting a change area in the display area caused by movement of the object, and processing means for executing processing for display in the display area when the annotation image is included in the change area A program characterized by functioning.
外部端末から入力された注釈画像を対象物及び背景を含む投影領域に投影する投影装置、及び当該対象物及び当該背景を含む投影領域を撮影する撮影装置に接続されるコンピュータを、
前記撮影装置により撮影された撮影画像に基づいて、前記対象物の移動を検出する検出手段、
前記対象物の移動により生じた前記撮影画像上の変化領域を抽出する抽出手段、及び
当該変化領域の情報と、当該変化領域に含まれる前記注釈画像の情報との少なくとも一方に基づいて、前記撮影画像の重要度を算出し、前記重要度に応じた前記撮影画像の記憶を行う記憶手段として機能させることを特徴とするプログラム。
A projection device that projects an annotation image input from an external terminal onto a projection area including an object and a background, and a computer connected to an imaging apparatus that captures the projection area including the object and the background;
Detecting means for detecting movement of the object based on a photographed image photographed by the photographing device;
Extraction means for extracting a change area on the photographed image caused by the movement of the object, and the photographing based on at least one of information on the change area and information on the annotation image included in the change area. A program that calculates an importance level of an image and functions as a storage unit that stores the captured image according to the importance level.
コンピュータを、
対象物及び外部端末から入力された注釈画像を表示領域に表示する表示手段、
前記対象物の移動を検出する検出手段、
前記対象物の移動により生じた、前記表示領域内の変化領域を抽出する抽出手段、及び
当該変化領域の情報と、当該変化領域に含まれる前記注釈画像の情報との少なくとも一方に基づいて、前記表示領域内の表示の重要度を算出し、前記重要度に応じた前記表示の記憶を実行する記憶手段として機能させることを特徴とするプログラム。
Computer
Display means for displaying an annotation image input from an object and an external terminal in a display area;
Detecting means for detecting movement of the object;
Based on at least one of extraction means for extracting a change area in the display area caused by movement of the object, information on the change area, and information on the annotation image included in the change area, A program which calculates the importance of display in a display area and functions as storage means for executing storage of the display according to the importance.
JP2007237158A 2007-04-19 2007-09-12 Information processing apparatus and program Expired - Fee Related JP4858375B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007237158A JP4858375B2 (en) 2007-04-19 2007-09-12 Information processing apparatus and program
US12/044,009 US8022997B2 (en) 2007-04-19 2008-03-07 Information processing device and computer readable recording medium
US13/211,064 US8581993B2 (en) 2007-04-19 2011-08-16 Information processing device and computer readable recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007111067 2007-04-19
JP2007111067 2007-04-19
JP2007237158A JP4858375B2 (en) 2007-04-19 2007-09-12 Information processing apparatus and program

Publications (3)

Publication Number Publication Date
JP2008287691A true JP2008287691A (en) 2008-11-27
JP2008287691A5 JP2008287691A5 (en) 2010-09-30
JP4858375B2 JP4858375B2 (en) 2012-01-18

Family

ID=40147330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007237158A Expired - Fee Related JP4858375B2 (en) 2007-04-19 2007-09-12 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP4858375B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010288163A (en) * 2009-06-15 2010-12-24 Internatl Business Mach Corp <Ibm> Evaluation system, control method of marker display and program
JP2014130421A (en) * 2012-12-28 2014-07-10 Fujitsu Ltd Conference material creation support program, conference material creation support method, and conference material creation support device
JP2016157172A (en) * 2015-02-23 2016-09-01 富士ゼロックス株式会社 Display control device, communication terminal, and display control program
JP2021521557A (en) * 2018-05-07 2021-08-26 アップル インコーポレイテッドApple Inc. Devices and methods for measuring using augmented reality
US11615595B2 (en) 2020-09-24 2023-03-28 Apple Inc. Systems, methods, and graphical user interfaces for sharing augmented reality environments
US11632600B2 (en) 2018-09-29 2023-04-18 Apple Inc. Devices, methods, and graphical user interfaces for depth-based annotation
US11727650B2 (en) 2020-03-17 2023-08-15 Apple Inc. Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments
US11797146B2 (en) 2020-02-03 2023-10-24 Apple Inc. Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
US11941764B2 (en) 2021-04-18 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for adding effects in augmented reality environments
US12020380B2 (en) 2019-09-27 2024-06-25 Apple Inc. Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330612A (en) * 2002-05-13 2003-11-21 Ricoh Co Ltd Information input/output system, program and storage medium
JP2006252036A (en) * 2005-03-09 2006-09-21 Nippon Telegr & Teleph Corp <Ntt> Projection image creating device, program, projection image creating method, and image projection system
JP2006352497A (en) * 2005-06-16 2006-12-28 Fuji Xerox Co Ltd Remote instruction system and method thereof
JP2007208741A (en) * 2006-02-02 2007-08-16 Fuji Xerox Co Ltd Remote indication system and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330612A (en) * 2002-05-13 2003-11-21 Ricoh Co Ltd Information input/output system, program and storage medium
JP2006252036A (en) * 2005-03-09 2006-09-21 Nippon Telegr & Teleph Corp <Ntt> Projection image creating device, program, projection image creating method, and image projection system
JP2006352497A (en) * 2005-06-16 2006-12-28 Fuji Xerox Co Ltd Remote instruction system and method thereof
JP2007208741A (en) * 2006-02-02 2007-08-16 Fuji Xerox Co Ltd Remote indication system and method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010288163A (en) * 2009-06-15 2010-12-24 Internatl Business Mach Corp <Ibm> Evaluation system, control method of marker display and program
US8619096B2 (en) 2009-06-15 2013-12-31 International Business Machines Corporation Instant message analytics of historical conversations in relation to present communication
US8643672B2 (en) 2009-06-15 2014-02-04 International Business Machines Corporation Instant message analytics of historical conversations in relation to present communication
JP2014130421A (en) * 2012-12-28 2014-07-10 Fujitsu Ltd Conference material creation support program, conference material creation support method, and conference material creation support device
JP2016157172A (en) * 2015-02-23 2016-09-01 富士ゼロックス株式会社 Display control device, communication terminal, and display control program
US11808562B2 (en) 2018-05-07 2023-11-07 Apple Inc. Devices and methods for measuring using augmented reality
JP7097991B2 (en) 2018-05-07 2022-07-08 アップル インコーポレイテッド Devices and methods for measuring using augmented reality
US11391561B2 (en) 2018-05-07 2022-07-19 Apple Inc. Devices and methods for measuring using augmented reality
JP2021521557A (en) * 2018-05-07 2021-08-26 アップル インコーポレイテッドApple Inc. Devices and methods for measuring using augmented reality
US11632600B2 (en) 2018-09-29 2023-04-18 Apple Inc. Devices, methods, and graphical user interfaces for depth-based annotation
US11818455B2 (en) 2018-09-29 2023-11-14 Apple Inc. Devices, methods, and graphical user interfaces for depth-based annotation
US12131417B1 (en) 2018-09-29 2024-10-29 Apple Inc. Devices, methods, and graphical user interfaces for depth-based annotation
US12020380B2 (en) 2019-09-27 2024-06-25 Apple Inc. Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality
US11797146B2 (en) 2020-02-03 2023-10-24 Apple Inc. Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
US11727650B2 (en) 2020-03-17 2023-08-15 Apple Inc. Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments
US11615595B2 (en) 2020-09-24 2023-03-28 Apple Inc. Systems, methods, and graphical user interfaces for sharing augmented reality environments
US11941764B2 (en) 2021-04-18 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for adding effects in augmented reality environments

Also Published As

Publication number Publication date
JP4858375B2 (en) 2012-01-18

Similar Documents

Publication Publication Date Title
JP4858375B2 (en) Information processing apparatus and program
US8022997B2 (en) Information processing device and computer readable recording medium
US9135513B2 (en) Image processing apparatus and method for obtaining position and orientation of imaging apparatus
US8169469B2 (en) Information processing device, information processing method and computer readable medium
JP5839553B2 (en) Work support system, work support method, and work terminal
JP6455501B2 (en) Information processing apparatus, information processing system, control method, and program
CN108876934A (en) Key point mask method, device and system and storage medium
US20190012838A1 (en) Information processing apparatus, method and non-transitory computer-readable storage medium
CN113282262B (en) Control method and device for projection display picture, mobile terminal and storage medium
JP2009094868A (en) Information processing apparatus, remote indication system and program
CN111583280B (en) Image processing method, device, equipment and computer readable storage medium
JP2004532441A (en) System and method for extracting predetermined points of an object in front of a computer-controllable display captured by an imaging device
JP2007041866A (en) Information processing device, information processing method, and program
JP2009075846A (en) Outline extraction device and program
US8125525B2 (en) Information processing apparatus, remote indication system, and computer readable medium
US9196068B2 (en) Projector system, and method for drawings
JP6485522B2 (en) Management server, information processing terminal, control method, and program
JP2016157201A (en) Information processing apparatus, operation cancelling method, computer program, and storage medium
US9483125B2 (en) Position information obtaining device and method, and image display system
JP2020150364A (en) Information processing system, information processing device, and program
JP2012048392A (en) Image processing apparatus and image processing method
JP5065753B2 (en) Shielding control device, subject shielding control system, and shielding control program
JP2010117465A (en) Information processing device, information processing system and program
JP2009100192A (en) Information processing apparatus, storing method, and program
JP2009076983A (en) Information processing system, and information processor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100813

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111017

R150 Certificate of patent or registration of utility model

Ref document number: 4858375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141111

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees