JP2008287691A - Information processing device and program - Google Patents
Information processing device and program Download PDFInfo
- Publication number
- JP2008287691A JP2008287691A JP2007237158A JP2007237158A JP2008287691A JP 2008287691 A JP2008287691 A JP 2008287691A JP 2007237158 A JP2007237158 A JP 2007237158A JP 2007237158 A JP2007237158 A JP 2007237158A JP 2008287691 A JP2008287691 A JP 2008287691A
- Authority
- JP
- Japan
- Prior art keywords
- image
- annotation
- annotation image
- area
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and a program.
従来より、ビデオカメラ及びプロジェクタが接続されているサーバ(例えばコンピュータ)と、ネットワークを介して当該サーバに接続される遠隔地のクライアント(例えばコンピュータ)とを備える遠隔指示システムが知られている(例えば、特許文献1、2参照)。
Conventionally, a remote instruction system including a server (for example, a computer) to which a video camera and a projector are connected and a remote client (for example, a computer) connected to the server via a network is known (for example,
この遠隔指示システムでは、サーバは、サーバに接続されているビデオカメラによって撮影された対象物の撮影画像を、ネットワークを介してクライアントに送信する。クライアントは、クライアントに接続されている表示装置の表示画面に立体物を含む撮影画像を表示し、当該表示画面上にアノテーション画像(線、図形、文字)などが書き込まれると、当該アノテーション画像をネットワークを介してサーバに送信する。サーバは、受信したアノテーション画像をプロジェクタに送信し、プロジェクタは受信したアノテーション画像を対象物を含む投影領域の適切な位置(これは、クライアントが、撮影画像の範囲内でアノテーション画像を書き込んだ位置に対応する)に投影する。
しかしながら、上記遠隔指示システムでは、表示画面に表示されている対象物上に、クライアントのユーザによってアノテーション画像が書き込まれた後で、対象物が移動されると、当該アノテーション画像は意味のないものになる。このため、クライアントのユーザは意味のなくなったアノテーション画像を表示画面から削除するが、この作業は、クライアントのユーザにとって手間と時間がかかる。 However, in the above remote instruction system, if an annotation image is written on the object displayed on the display screen by the user of the client and then the object is moved, the annotation image becomes meaningless. Become. For this reason, the client user deletes the annotation image that has become meaningless from the display screen, but this operation takes time and effort for the client user.
また、上記遠隔指示システムでは、当該遠隔指示システムを用いた会議の議事録を作成したりするために、アノテーション画像が投影された対象物の画像を適宜保存しておくことが望ましい。しかしながら、ユーザが、画像を保存する適切なタイミングを判断するのは難しいため、適切な画像の保存を行うことができない可能性がある。また、ユーザは、会議の最中に、画像保存のための適切なタイミングを計らなければならないため、この作業が、ユーザにとって負担となる可能性がある。 In the remote instruction system, it is desirable to appropriately store an image of an object on which an annotation image is projected in order to create a minutes of a meeting using the remote instruction system. However, since it is difficult for the user to determine an appropriate timing for saving an image, there is a possibility that an appropriate image cannot be saved. Moreover, since the user must measure an appropriate timing for image storage during the meeting, this operation may be a burden on the user.
本発明は、このような事情に鑑みてなされたものであり、その目的は、ユーザの操作負担を軽減することができる情報処理装置及びプログラムを提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an information processing apparatus and a program capable of reducing a user's operation burden.
上記目的を達成するため、請求項1の情報処理装置は、外部端末から入力された注釈画像を対象物及び背景を含む投影領域に投影する投影装置、及び当該対象物及び当該背景を含む投影領域を撮影する撮影装置に接続される情報処理装置であって、前記撮影装置により撮影された撮影画像に基づいて、前記対象物の移動を検出する検出手段と、前記対象物の移動により生じた前記撮影画像上の変化領域を抽出する抽出手段と、当該変化領域に前記注釈画像が含まれる場合に、前記撮影画像及び前記注釈画像の少なくとも一方に対する処理を実行する処理手段とを備えることを特徴とする。
In order to achieve the above object, an information processing apparatus according to
請求項2の情報処理装置は、請求項1記載の情報処理装置において、前記検出手段は、前記撮影装置により撮影された撮影画像と、当該撮影画像の直後に撮影された撮影画像とを比較することにより、前記対象物の移動を検出することを特徴とする。
The information processing apparatus according to
請求項3の情報処理装置は、請求項1又は2記載の情報処理装置において、前記検出手段は、前記撮影装置により撮影された撮影画像と、当該撮影画像の直後に撮影された撮影画像とをそれぞれ複数の小領域に分割し、互いに対応する分割された小領域同士を比較することにより、前記対象物の移動を検出することを特徴とする。
The information processing apparatus according to
請求項4の情報処理装置は、請求項1乃至3のいずれか1項に記載の情報処理装置において、前記抽出手段は、前記外部端末からの前記注釈画像の入力中に生じる前記変化領域又は前記外部端末からの前記注釈画像の座標情報に基づいて前記表示領域内の前記注釈画像の領域を無視することを特徴とする。
The information processing device according to
請求項5の情報処理装置は、請求項1乃至4のいずれか1項に記載の情報処理装置において、前記処理手段により実行される処理には、前記注釈画像の消去が含まれることを特徴とする。
The information processing apparatus according to
請求項6の情報処理装置は、請求項5に記載の情報処理装置において、前記処理手段で消去される注釈画像の情報を前記外部端末に送信する送信手段をさらに備え、前記外部端末は、前記撮影装置による撮影画像を表示すると共に、前記送信手段からの消去される注釈画像の情報に応じて、当該注釈画像の消去の取消を前記処理手段に対して指示可能な指示部を表示する画像表示手段を備えることを特徴とする。
The information processing apparatus according to
請求項7の情報処理装置は、請求項6に記載の情報処理装置において、前記画像表示手段は、前記送信手段からの消去される注釈画像の情報に応じて、当該注釈画像を一定時間点滅表示することを特徴とする。
The information processing device according to claim 7 is the information processing device according to
請求項8の情報処理装置は、請求項5乃至7のいずれか1項に記載の情報処理装置において、前記処理手段は、前記変化領域に前記注釈画像の一部が含まれる場合に、当該注釈画像の全てを消去することを特徴とする。
The information processing device according to
請求項9の情報処理装置は、請求項5乃至8のいずれか1項に記載の情報処理装置において、前記処理手段は、前記変化領域から所定距離広げた範囲内にある注釈画像をも消去することを特徴とする。
The information processing apparatus according to
請求項10の情報処理装置は、請求項5乃至9のいずれか1項に記載の情報処理装置において、前記処理手段は、前記外部端末から入力された複数の注釈画像を1つのグループとして扱い、少なくとも1つの注釈画像を消去する場合には、同一グループに属する他の注釈画像も消去することを特徴とする。
The information processing apparatus according to
請求項11の情報処理装置は、請求項5乃至10のいずれか1項に記載の情報処理装置において、前記外部端末から前記注釈画像及び当該注釈画像に関連付けられている領域の情報を取得する取得手段を更に備え、前記処理手段は、前記変化領域に前記注釈画像に関連付けられている領域が含まれる場合に、前記注釈画像を消去することを特徴とする。
The information processing apparatus according to claim 11 is the information processing apparatus according to any one of
請求項12の情報処理装置は、請求項1乃至11のいずれか1項に記載の情報処理装置において、前記処理手段により実行される処理には、前記変化領域に前記注釈画像が含まれる前の時点における前記撮影画像の記憶、が含まれることを特徴とする。
The information processing device according to
請求項13の情報処理装置は、請求項12に記載の情報処理装置において、前記処理手段は、前記変化領域に前記注釈画像の少なくとも一部が含まれる場合に、その前の時点における前記撮影画像を記憶することを特徴とする。
The information processing device according to claim 13 is the information processing device according to
請求項14の情報処理装置は、請求項12又は13に記載の情報処理装置において、前記処理手段は、前記変化領域から所定距離広げた範囲内に前記注釈画像の少なくとも一部が含まれる場合にも、その前の時点における前記撮影画像を記憶することを特徴とする。
The information processing apparatus according to
請求項15の情報処理装置は、対象物及び外部端末から入力された注釈画像を表示領域に表示する表示手段と、前記対象物の移動を検出する検出手段と、前記対象物の移動により生じた、前記表示領域内の変化領域を抽出する抽出手段と、当該変化領域に前記注釈画像が含まれる場合に、前記表示領域内における表示に対する処理を実行する処理手段とを備えることを特徴とする。 The information processing apparatus according to claim 15 is caused by the movement of the target object, a display unit that displays an annotation image input from an external terminal in a display area, a detection unit that detects the movement of the target object, and the target object. And an extraction means for extracting a change area in the display area, and a processing means for executing a process for the display in the display area when the annotation image is included in the change area.
請求項16の情報処理装置は、請求項15に記載の情報処理装置において、前記抽出手段は、前記外部端末からの前記注釈画像の入力中に生じる前記変化領域又は前記外部端末からの前記注釈画像の座標情報に基づいて前記表示領域内の前記注釈画像の領域を無視することを特徴とする。 The information processing device according to claim 16 is the information processing device according to claim 15, wherein the extraction unit is configured to input the annotation region from the external terminal or the annotation image from the external terminal. The region of the annotation image in the display region is ignored based on the coordinate information.
請求項17の情報処理装置は、請求項15又は16に記載の情報処理装置において、前記処理手段により実行される処理には、前記注釈画像の消去が含まれることを特徴とする。 The information processing apparatus according to claim 17 is the information processing apparatus according to claim 15 or 16, wherein the processing executed by the processing means includes erasure of the annotation image.
請求項18の情報処理装置は、請求項17に記載の情報処理装置において、前記処理手段は、前記変化領域に前記注釈画像の一部が含まれる場合に、当該注釈画像の全てを消去することを特徴とする。 The information processing device according to claim 18 is the information processing device according to claim 17, wherein when the change area includes a part of the annotation image, the processing unit deletes all of the annotation image. It is characterized by.
請求項19の情報処理装置は、請求項17又は18に記載の情報処理装置において、前記処理手段は、前記変化領域から所定距離広げた範囲内にある注釈画像をも消去することを特徴とする。
The information processing device according to
請求項20の情報処理装置は、請求項17乃至19のいずれか1項に記載の情報処理装置において、前記処理手段は、前記外部端末から入力された複数の注釈画像を1つのグループとして扱い、少なくとも1つの注釈画像を消去する場合には、同一グループに属する他の注釈画像も消去することを特徴とする。 The information processing device according to claim 20 is the information processing device according to any one of claims 17 to 19, wherein the processing unit treats a plurality of annotation images input from the external terminal as one group, When erasing at least one annotation image, another annotation image belonging to the same group is also erased.
請求項21の情報処理装置は、請求項17乃至20のいずれか1項に記載の情報処理装置において、前記外部端末から前記注釈画像及び当該注釈画像に関連付けられている領域の情報を取得する取得手段を更に備え、前記処理手段は、前記変化領域に前記注釈画像に関連付けられている領域が含まれる場合に、前記注釈画像を消去することを特徴とする。
The information processing device according to
請求項22の情報処理装置は、請求項15乃至21のいずれか1項に記載の情報処理装置において、前記処理手段により実行される処理には、前記変化領域に前記注釈画像が含まれる前の時点における前記表示領域内の表示の記憶、が含まれることを特徴とする。
The information processing apparatus according to
請求項23の情報処理装置は、請求項22に記載の情報処理装置において、前記処理手段は、前記変化領域に前記注釈画像の少なくとも一部が含まれる場合に、その前の時点における前記表示領域内の表示を記憶することを特徴とする。
23. The information processing apparatus according to
請求項24の情報処理装置は、請求項22又は23に記載の情報処理装置において、前記処理手段は、前記変化領域から所定距離広げた範囲内に前記注釈画像の少なくとも一部が含まれる場合にも、その前の時点における前記表示領域内の表示を記憶することを特徴とする。
The information processing device according to claim 24 is the information processing device according to
請求項25の情報処理装置は、外部端末から入力された注釈画像を対象物及び背景を含む投影領域に投影する投影装置、及び当該対象物及び当該背景を含む投影領域を撮影する撮影装置に接続される情報処理装置であって、前記撮影装置により撮影された撮影画像に基づいて、前記対象物の移動を検出する検出手段と、前記対象物の移動により生じた前記撮影画像上の変化領域を抽出する抽出手段と、当該変化領域の情報と、当該変化領域に含まれる前記注釈画像の情報との少なくとも一方に基づいて、前記撮影画像の重要度を算出し、前記重要度に応じた前記撮影画像の記憶を実行する記憶手段とを備えることを特徴とする。
The information processing apparatus according to
請求項26の情報処理装置は、対象物及び外部端末から入力された注釈画像を表示領域に表示する表示手段と、前記対象物の移動を検出する検出手段と、前記対象物の移動により生じた、前記表示領域内の変化領域を抽出する抽出手段と、当該変化領域の情報と、当該変化領域に含まれる前記注釈画像の情報との少なくとも一方に基づいて、前記表示領域内の表示の重要度を算出し、前記重要度に応じた前記表示の記憶を実行する記憶手段とを備えることを特徴とする。
The information processing apparatus according to
請求項27の情報処理装置は、請求項25又は26に記載の情報処理装置において、前記記憶手段は、前記重要度が所定値以上である場合に、前記記憶を実行することを特徴とする。 An information processing apparatus according to a twenty-seventh aspect is the information processing apparatus according to the twenty-fifth or twenty-sixth aspect, wherein the storage unit executes the storage when the importance is equal to or greater than a predetermined value.
請求項28の情報処理装置は、請求項25乃至27のいずれか1項に記載の情報処理装置において、前記記憶手段は、前記記憶を実行する際に、前記重要度のデータも記憶することを特徴とする。
The information processing device according to
請求項29の情報処理装置は、請求項25乃至28のいずれか1項に記載の情報処理装置において、前記重要度の算出に用いられる前記変化領域の情報には、該変化領域の大きさ、前記変化領域が発生するまでの時間の少なくとも一方が含まれ、前記変化領域に含まれる前記注釈画像の情報には、前記変化領域に含まれる前記注釈画像の数、前記変化領域内に複数の注釈画像が含まれる場合における各注釈画像間の距離及び各注釈画像が描画された時間間隔の少なくとも1つが含まれることを特徴とする。
The information processing device according to
請求項30のプログラムは、外部端末から入力された注釈画像を対象物及び背景を含む投影領域に投影する投影装置、及び当該対象物及び当該背景を含む投影領域を撮影する撮影装置に接続されるコンピュータを、前記撮影装置により撮影された撮影画像に基づいて、前記対象物の移動を検出する検出手段、前記対象物の移動により生じた前記撮影画像上の変化領域を抽出する抽出手段、及び当該変化領域に前記注釈画像が含まれる場合に、前記撮影画像及び前記注釈画像の少なくとも一方に対する処理を実行する処理手段として機能させることを特徴とする。 A program according to a thirty-third aspect is connected to a projection device that projects an annotation image input from an external terminal onto a projection region including an object and a background, and an imaging device that photographs the projection region including the object and the background. Detecting means for detecting movement of the object based on a photographed image photographed by the photographing device; extraction means for extracting a change area on the photographed image caused by movement of the object; and When the annotation image is included in the change area, it is made to function as processing means for executing processing for at least one of the photographed image and the annotation image.
請求項31のプログラムは、コンピュータを、対象物及び外部端末から入力された注釈画像を表示領域に表示する表示手段、前記対象物の移動を検出する検出手段、前記対象物の移動により生じた、前記表示領域内の変化領域を抽出する抽出手段、及び当該変化領域に前記注釈画像が含まれる場合に、前記表示領域内における表示に対する処理を実行する処理手段として機能させることを特徴とする。 The program according to claim 31 is generated by a computer, a display unit that displays an annotation image input from an object and an external terminal in a display area, a detection unit that detects movement of the object, and the movement of the object. It is characterized by functioning as extraction means for extracting a change area in the display area, and processing means for executing processing for display in the display area when the annotation image is included in the change area.
請求項32のプログラムは、外部端末から入力された注釈画像を対象物及び背景を含む投影領域に投影する投影装置、及び当該対象物及び当該背景を含む投影領域を撮影する撮影装置に接続されるコンピュータを、前記撮影装置により撮影された撮影画像に基づいて、前記対象物の移動を検出する検出手段、前記対象物の移動により生じた前記撮影画像上の変化領域を抽出する抽出手段、及び当該変化領域の情報と、当該変化領域に含まれる前記注釈画像の情報との少なくとも一方に基づいて、前記撮影画像の重要度を算出し、前記重要度に応じた前記撮影画像の記憶を行う記憶手段として機能させることを特徴とする。 A program according to a thirty-second aspect is connected to a projection apparatus that projects an annotation image input from an external terminal onto a projection area including an object and a background, and an imaging apparatus that images the projection area including the object and the background. Detecting means for detecting movement of the object based on a photographed image photographed by the photographing device; extraction means for extracting a change area on the photographed image caused by movement of the object; and Storage means for calculating the importance of the captured image based on at least one of the information on the change area and the information on the annotation image included in the change area, and storing the captured image according to the importance It is made to function as.
請求項33のプログラムは、コンピュータを、対象物及び外部端末から入力された注釈画像を表示領域に表示する表示手段、前記対象物の移動を検出する検出手段、前記対象物の移動により生じた、前記表示領域内の変化領域を抽出する抽出手段、及び当該変化領域の情報と、当該変化領域に含まれる前記注釈画像の情報との少なくとも一方に基づいて、前記表示領域内の表示の重要度を算出し、前記重要度に応じた前記表示の記憶を実行する記憶手段として機能させることを特徴とする。 The program according to claim 33 is caused by a movement of the object, display means for displaying an annotation image input from the object and an external terminal in a display area, detection means for detecting movement of the object, and the computer. Based on at least one of extraction means for extracting a change area in the display area and information on the change area and information on the annotation image included in the change area, the importance of display in the display area is determined. It is calculated and functions as a storage unit for storing the display according to the importance.
請求項1、15の発明によれば、対象物の移動により、対象物と注釈画像との位置関係が変化したときに、画像又は表示に対する処理を自動的に行うので、ユーザの操作負担を軽減することができる。 According to the first and fifteenth aspects of the invention, when the positional relationship between the object and the annotation image changes due to the movement of the object, the processing for the image or the display is automatically performed, so the operation burden on the user is reduced. can do.
請求項2の発明によれば、対象物の移動を追跡する処理を実行する場合と比べて、対象物の移動を検出するのに必要な計算量を少なくすることができる。 According to the second aspect of the present invention, the amount of calculation required to detect the movement of the object can be reduced as compared with the case where the process of tracking the movement of the object is executed.
請求項3の発明によれば、撮影画像のノイズ等の影響を受けずに、正確に対象物の移動を検出することができる。
According to the invention of
請求項4、16の発明によれば、必要な注釈画像の入力を確保することができる。
According to the inventions of
請求項5、17の発明によれば、対象物の移動により不要になった注釈画像を自動的に削除でき、ユーザの操作負担を軽減することができる。 According to the fifth and 17th aspects of the present invention, it is possible to automatically delete an annotation image that is no longer necessary due to the movement of the object, thereby reducing the operation burden on the user.
請求項6の発明によれば、外部端末のユーザが、注釈画像の消去の取消を指示することができる。
According to the invention of
請求項7の発明によれば、外部端末のユーザに消去対象の注釈画像を知らせることができる。 According to the invention of claim 7, it is possible to notify the user of the external terminal of the annotation image to be deleted.
請求項8、18の発明によれば、対象物の移動により不要になった注釈画像を全て消去でき、ユーザの操作負担を軽減することができる。 According to the eighth and 18th aspects of the present invention, it is possible to erase all the annotation images that are no longer necessary due to the movement of the object, and to reduce the operation burden on the user.
請求項9、19の発明によれば、不要になった注釈画像を効果的に消去することができ、ユーザの操作負担を軽減することができる。 According to the ninth and nineteenth aspects of the present invention, it is possible to effectively erase an annotation image that is no longer necessary, and to reduce the operation burden on the user.
請求項10、20の発明によれば、複数の注釈画像を一度に消去することができ、ユーザの操作負担を軽減することができる。 According to the tenth and twentieth inventions, a plurality of annotation images can be erased at once, and the operation burden on the user can be reduced.
請求項11、21の発明によれば、変化領域に注釈画像に関連付けられている領域が含まれる場合には、当該注釈画像を自動的に削除することができ、ユーザの操作負担を軽減することができる。 According to the eleventh and twenty-first aspects of the present invention, when an area associated with an annotation image is included in the change area, the annotation image can be automatically deleted, and the operation burden on the user can be reduced. Can do.
請求項12、22の発明によれば、対象物の移動により、対象物と注釈画像との位置関係が変化したときに、その直前の画像又は表示を自動的に記憶するので、ユーザの操作負担を軽減することができる。
According to the inventions of
請求項13,23の発明によれば、対象物の移動により対象物と注釈画像との位置関係が変化した全ての場合において、その直前の画像又は表示を自動的に記憶するので、ユーザの操作負担を軽減することができる。
According to the inventions of
請求項14、24の発明によれば、画像を効果的に記憶することができ、ユーザの操作負担を軽減することができる。 According to the fourteenth and twenty-fourth aspects of the present invention, it is possible to store images effectively and to reduce the operation burden on the user.
請求項25、26の発明によれば、対象物の移動により、対象物と注釈画像との位置関係が変化したときに、撮影画像又は表示の重要度に応じた記憶を自動的に実行するので、適切な記憶を、ユーザの操作負担を軽減した状態で行うことができる。
According to the inventions of
請求項27の発明によれば、重要度の高い画像又は表示のみ、記憶することができる。 According to the twenty-seventh aspect of the present invention, it is possible to store only images or displays with high importance.
請求項28の発明によれば、画像又は表示とともに重要度も記憶するので、ユーザは、重要度に応じて画像又は表示を使用することができる。
According to the invention of
請求項29の発明によれば、重要度を定量的に判断することができる。
According to the invention of
請求項30、31の発明によれば、対象物の移動により、対象物と注釈画像との位置関係が変化したときに画像又は表示に対する処理を自動的に行うことができるので、ユーザの操作負担を軽減することができる。
According to the inventions of
請求項32、33の発明によれば、対象物の移動により、対象物と注釈画像との位置関係が変化したときに、撮影画像又は表示の重要度に応じた記憶を自動的に実行するので、適切な記憶を、ユーザの操作負担を軽減した状態で行うことができる。 According to the inventions of claims 32 and 33, when the positional relationship between the object and the annotation image changes due to the movement of the object, storage according to the importance of the captured image or the display is automatically executed. Appropriate storage can be performed in a state where the operation burden on the user is reduced.
以下、本発明の実施の形態について、図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
(第1の実施の形態)
図1は、本発明の実施の形態に係る情報処理装置を含む遠隔指示システムの構成を示す図である。
(First embodiment)
FIG. 1 is a diagram showing a configuration of a remote instruction system including an information processing apparatus according to an embodiment of the present invention.
図1の遠隔指示システムは、サーバとして機能するパーソナルコンピュータ(PC)1(情報処理装置)、クライアントとして機能するPC2(外部端末)を備えており、これらは、ネットワーク3を介して互いに接続されている。PC1には、プロジェクタ4(投影装置)、及びビデオカメラ5(撮影装置)が接続されている。プロジェクタ4は、PC1からの制御コマンドに基づいて、対象物8及びスクリーン10に対して、ハーフミラー6を介して単なる光線を照射する又はアノテーション画像(注釈画像)等を投影する。尚、アノテーション画像は、線、文字、記号、図形、色、フォント(書体)等のあらゆる態様の画像を含む。
1 includes a personal computer (PC) 1 (information processing apparatus) that functions as a server and a PC 2 (external terminal) that functions as a client, which are connected to each other via a
ビデオカメラ5は、対象物8を含むスクリーン10の反射画像をハーフミラー6を介して撮影し、撮影画像をPC1に出力する。
The
PC1は、ビデオカメラ5により撮影された撮影画像をネットワーク3を介してPC2に出力する。PC2は、表示部205に接続されており、表示部205は、撮影画像の表示領域12及びユーザインターフェース(UI)14を表示する。尚、PC2は、表示部205を備える一体型のパーソナルコンピュータで構成してもよい。
The
UI14は、ペン、テキスト、及び消去などのボタン群と、線種や色種のアイコンとを含む。表示領域12には、ビデオカメラ5で撮影された撮影画像が表示される。図1においては、対象物8を含むスクリーン10をビデオカメラ5により撮影した撮影画像が表示領域12に表示されている。
The
例えば、UI14のペンボタンが押下されて、表示領域12内の対象物8上に図形等が記載されると、当該図形の情報(具体的には、当該図形を示す、表示領域12における座標(x、y))はPC2からPC1に出力される。PC1は、当該図形の情報をプロジェクタ4の座標の情報に変換し、プロジェクタ4に出力する。プロジェクタ4は当該変換された図形の情報に基づいて対象物8上に当該図形を投影する。尚、撮影画像は表示部205の表示領域12に表示されるため、撮影画像における座標(x、y)は、表示領域12における座標(x、y)と一致する。
For example, when a pen button on the
また、PC2は、PC1に対して制御コマンドを出力し、プロジェクタ4及びビデオカメラ5の動作(例えば、ビデオカメラ5の撮影角度や撮影画像の明るさ、及びプロジェクタ4の投影画像の明るさなど)を制御することができる。
Further, the
尚、同図においては、クライアントは、PC2の1台が記載されているが、遠隔指示システムは、複数のクライアント(PC)を備えていてもよい。また、プロジェクタ4をPC1に接続し、ビデオカメラ5を不図示の他のPCに接続するようにしてもよい。この場合、ビデオカメラ5の撮影画像は、当該他のPCを介してPC2に出力される。
In the figure, one
図2は、PC1〜2の機能構成を示すブロック図である。
FIG. 2 is a block diagram illustrating a functional configuration of the
PC1は、装置全体を制御すると共にプロジェクタ4、ビデオカメラ5及び三次元計測装置7の動作を制御する制御部101(検出手段、抽出手段、処理手段、取得手段)と、ネットワーク3を介してPC2と情報やデータの送受信を行う送受信部102(送信手段)と、制御プログラム、データ及び情報等を記憶する記憶部103と、プロジェクタ4、及びビデオカメラ5と接続するためのインタフェース(IF)部104とを備えている。制御部101は、送受信部102、記憶部103、及びIF部104に接続されており、さらにIF部104を介してプロジェクタ4、及びビデオカメラ5に接続されている。
The
尚、PC1は、マウスやキーボードなどで構成される操作部105と、撮影画像を表示する表示部106(表示手段)とをさらに備えていてもよい。
The
PC2は、装置全体を制御する制御部201と、ネットワーク3を介してPC1と情報やデータの送受信を行う送受信部202と、制御プログラム、データ及び情報等を記憶する記憶部203と、マウスやキーボードなどで構成される操作部204と、表示部205(画像表示手段)とを備えている。制御部201は、送受信部202、記憶部203、操作部204、及び表示部205に接続されている。
The
図3は、PC1のハードウェア構成を示すブロック図である。
FIG. 3 is a block diagram illustrating a hardware configuration of the
PC1は、装置全体を制御するCPU21、制御プログラムを備えるROM22、ワーキングエリアとして機能するRAM23、各種の情報やプログラムを備えるハードディスクドライブ(HDD)24、マウス及びキーボード25、他のコンピュータと接続するためのネットワークインタフェース26、液晶モニタ又はCRTで構成されるディスプレイ27、及び不図示のUSB機器と接続するためのUSB(universal serial bus)インタフェース28を備えている。CPU21はシステムバス29を介してROM22、RAM23、ハードディスクドライブ(HDD)24、マウス及びキーボード25、ネットワークインタフェース26、ディスプレイ27及びUSBインタフェース28に接続されている。
The
制御部101は、制御プログラムに従って各種の処理を実行するCPU21に相当する。送受信部102は、ネットワークインタフェース26に相当し、記憶部103は、ハードディスクドライブ(HDD)24に相当する。IF部104は、USBインタフェース28に相当する。操作部105は、マウス及びキーボード25に相当し、表示部106は、ディスプレイ27に相当する。
The
PC2は、PC1と同様に、図3に示す構成を有している。
The
図4は、PC1で実行される処理を示すフローチャートである。
FIG. 4 is a flowchart showing processing executed by the
PC1の制御部101は、ビデオカメラ5から撮影画像を受信し、記憶部103に記憶する(ステップS1)。この撮影画像は、例えば、0.5秒ごとにフレーム画像としてビデオカメラ5から送られる。
The
制御部101は、記憶部103に記憶された撮影画像とビデオカメラ5から受信した直後の撮影画像とをピクセル毎に比較する(ステップS2)。具体的には、制御部101は、ビデオカメラ5から受信した直後のフレーム画像と、その直前に記憶部103に記憶されたフレーム画像とをピクセル毎に比較する。
The
制御部101は、ステップS2の比較結果に基づいて、対象物8が移動されたか否かを判別する(ステップS3)。このステップS3では、制御部101は、上記2つの撮影画像(フレーム画像)に差分があると、対象物8が移動したと判別する。
The
尚、制御部101は、アノテーション画像の投影による撮影画像(フレーム画像)の変化は、検知しない。即ち、制御部101は、アノテーション画像の投影前後のフレーム画像間の差分を無視する。これにより、必要な注釈画像の入力を確保することができる。
Note that the
次いで、制御部101は、対象物8の移動が終了したか否かを判別する(ステップS4)。例えば、制御部101は、連続した50枚のフレーム画像に変化がなければ、対象物8の移動が終了したと判別する。
Next, the
ステップS4でNOの場合には、当該判別処理を繰り返す。一方、ステップS4でYESの場合には、制御部101は、ビデオカメラ5から受信した直後の撮影画像(フレーム画像)に含まれる、変化のあった領域(即ち、撮影画像に含まれる対象物8の移動前及び移動後の領域)(以下、変化領域という)を抽出する(ステップS5)。
If NO in step S4, the determination process is repeated. On the other hand, in the case of YES in step S4, the
表示部205の表示領域12内にアノテーション画像が書き込まれると、アノテーション画像を示す座標情報がPC2からPC1に送信される。よって、制御部101は、アノテーション画像を示す座標情報に基づいて、図4のステップS5で抽出された領域のうち、アノテーション画像の領域は除外するようにしてもよい。これにより、必要な注釈画像の入力を確保することができる。
When an annotation image is written in the
図5(A)は、記憶部103に記憶された撮影画像の一例を示す図であり、図5(B)は、ビデオカメラ5から受信した直後の撮影画像の一例を示す図である。
FIG. 5A is a diagram illustrating an example of a captured image stored in the
図5(A)では、表示領域12内に対象物8a,8bが表示されており、対象物8a上にアノテーション画像9が投影されている。図5(B)では、対象物8aが図5(A)の状態から移動している。同図の符号30は、変化領域を示し、上記ステップS5では、この変化領域30が抽出される。尚、制御部101は、変化領域30に対応する、撮影画像上の座標情報を保持する。
In FIG. 5A, the
図4に戻り、制御部101は、変化領域30にアノテーション画像が含まれているか否かを判別する(ステップS6)。表示部205の表示領域12内にアノテーション画像が書き込まれると、アノテーション画像を示す座標情報がPC2からPC1に送信される。よって、ステップS6の判別は、制御部101が、上記変化領域30に対応する座標情報にアノテーション画像を示す座標情報が含まれるか否かを判別することにより実行される。
Returning to FIG. 4, the
上記ステップS6でNOの場合には、ステップS1に戻る。一方、ステップS6でYESの場合には、制御部101は、撮影画像から変化領域30に含まれるアノテーション画像を消去する(ステップS7)。制御部101は、PC2からアノテーション画像を示す座標情報を受信しているので、当該アノテーション画像を示す座標情報を破棄する又はプロジェクタ4に当該アノテーション画像を示す座標情報を出力しないことで、撮影画像から変化領域30に含まれるアノテーション画像を消去することができる。
If NO in step S6, the process returns to step S1. On the other hand, if YES in step S6, the
その後、制御部101は、消去対象のアノテーション画像の座標情報をPC2へ送信して(ステップS8)、ステップS1に戻る。尚、PC2の制御部201は、消去対象のアノテーション画像の座標情報をPC1から受信し、表示領域12から当該アノテーション画像を消去する。図5(C)は、アノテーション画像9の削除後の撮影画像の一例を示す。
Thereafter, the
上記ステップS7では、撮影画像から変化領域30に含まれるアノテーション画像を消去したが、変化領域30にアノテーション画像の一部が含まれている場合も、制御部101は、当該アノテーション画像を消去するようにしてもよい。このようなアノテーション画像は対象物が移動することにより意味をなさないからである。
In step S7, the annotation image included in the
また、制御部101は、変化領域30から所定距離広げた範囲内(例えば、変化領域30から上下左右に30ピクセル広げた範囲)にあるアノテーション画像を消去するようにしてもよい。アノテーション画像を投影した光によって撮影画像の変化が検出されなかった場合でも、不要になったアノテーション画像を消去することができる。
In addition, the
また、制御部101は、複数のアノテーション画像を1つのグループとして扱い、少なくとも1つのアノテーション画像を消去する場合には、同一グループに属する他のアノテーション画像も消去するようにしてもよい。これにより、複数の注釈画像を一度に消去することができ、ユーザの操作負担を軽減することができる。例えば、図6(A)に示すように、アノテーション画像31a,31bを1つのグループとして扱う場合、制御部101は、アノテーション画像31aを消去する場合には、同時にアノテーション画像31bも消去する。同一グループに属する複数のアノテーション画像は、例えば、一定時間内に表示領域12に書き込まれた複数のアノテーション画像、一定距離の範囲内に書き込まれた複数のアノテーション画像、又は一定時間内且つ一定距離の範囲内に書き込まれた複数のアノテーション画像などがある。
In addition, the
さらに、アノテーション画像は、所定の領域と関連付けされていてもよい。この場合、表示部205の表示領域12内にアノテーション画像が書き込まれると、アノテーション画像を示す座標情報及び当該アノテーション画像に関連付けられている領域の座標情報がPC2からPC1に送信される。制御部101は、送受信部102を介して当該アノテーション画像を示す座標情報及び当該アノテーション画像に関連付けられている領域の座標情報を取得する。例えば、図6(B)に示すように、矩形のアノテーション画像31aは、その内部の領域32aと関連付けられている。また、矢印のアノテーション画像31bは、他印の先端にある円形の領域32bと関連付けられている。制御部101は、領域32a又は領域32bが上述した変化領域30に含まれる場合には、それぞれ矩形のアノテーション画像31a又は矢印のアノテーション画像31bを消去する。
Furthermore, the annotation image may be associated with a predetermined area. In this case, when an annotation image is written in the
削除対象のアノテーション画像の形状等によっては、アノテーション画像が変化領域30に含まれない場合もあるが、変化領域30にアノテーション画像に関連付けられている領域が含まれる場合には、当該アノテーション画像を自動的に削除することができ、ユーザの操作負担を軽減することができる。
Depending on the shape or the like of the annotation image to be deleted, the annotation image may not be included in the
以上詳細に説明したように、本実施の形態によれば、制御部101が、ビデオカメラ5により撮影された撮影画像に基づいて、対象物8の移動を検出し、対象物8の移動により生じた撮影画像上の変化領域を抽出し、当該変化領域にアノテーション画像が含まれる場合に、当該アノテーション画像を消去するので、対象物の移動により不要になった注釈画像を自動的に削除でき、ユーザの操作負担を軽減することができる。
As described above in detail, according to the present embodiment, the
また、制御部101は、ビデオカメラ5により撮影された撮影画像と、当該撮影画像の直後に撮影された撮影画像とを比較することにより、対象物8の移動を検出するので、対象物8の移動を追跡する処理を実行する場合と比べて、対象物8の移動を検出するのに必要な計算量を少なくすることができる。
The
(第2の実施の形態)
本実施の形態は、制御部101がアノテーション画像を消去する前に、表示部205に「消去中止ボタン」を表示し、ユーザの意思を確認する点で、第1の実施の形態と異なる。
(Second Embodiment)
This embodiment is different from the first embodiment in that the “deletion stop button” is displayed on the
本実施の形態に係る遠隔指示システムは、図1の遠隔指示システムと同一の構成を有するので、その説明は省略する。 The remote instruction system according to the present embodiment has the same configuration as that of the remote instruction system of FIG.
図7は、PC1で実行される処理を示すフローチャートである。図4の処理と同一の処理については、同一のステップ番号を付し、その説明は省略する。
FIG. 7 is a flowchart showing processing executed by the
ステップS6でYESの場合、制御部101は、変化領域30に含まれるアノテーション画像の点滅表示及び消去中止ボタンの表示の指示をPC2に送信する(ステップS11)。
In the case of YES in step S6, the
図8は、撮影画像を表示する表示領域12の一例を示す図である。
FIG. 8 is a diagram illustrating an example of the
PC2の制御部201は、PC1から送受信部202を介して変化領域30に含まれるアノテーション画像の点滅表示及び消去中止ボタンの表示の指示を受信すると、表示部205に当該アノテーション画像を点滅表示させ、消去中止ボタンを表示させる。図8では、表示領域12内でアノテーション画像9が点滅表示され、消去中止ボタン40が表示されている。この消去中止ボタン40は一定時間(例えば1分間)表示され、当該一定時間経過すると、自動的に消される。また、ユーザが、操作部204を介して一定時間内に消去中止ボタン40を押下すると、制御部201は送受信部202を介してPC1の制御部101に消去中止の指示を送信する。
When the
上記ステップS11の処理後、制御部101は、一定時間内に消去中止ボタンが押下されたか否かを判別する(ステップS12)。ここでは、制御部101は、一定時間内にPC2から消去中止の指示を受信した場合に、消去中止ボタンが押下されたと判別し、一定時間内にPC2から消去中止の指示を受信しなかった場合に、消去中止ボタンが押下されていないと判別する。
After the process of step S11, the
上記ステップS12でYESの場合には、変化領域30に含まれるアノテーション画像の消去は中止され、ステップS1に戻る。一方、ステップS12でNOの場合には、撮影画像から変化領域30に含まれるアノテーション画像を消去するために、上記ステップS7に進む。
If YES in step S12, erasure of the annotation image included in the
尚、図8の例では、表示部205に消去中止ボタン40が表示されたが、消去ボタンが表示されるようにしてもよい。この場合、消去ボタンが押下された場合に、制御部101は、変化領域30に含まれるアノテーション画像を消去する。
In the example of FIG. 8, the
また、制御部101は、複数のアノテーション画像を1つのグループとして扱い、消去中止ボタン40が押下された場合に、同一グループに属する全てのアノテーション画像の消去を中止するようにしてもよい。この場合、消去中止ボタン40は1つのみ表示される。また、制御部101は、一定時間内に点滅する複数のアノテーション画像を1つのグループとして扱うようにしてもよい。この場合、複数のアノテーション画像の点滅は、同時に開始される必要はない。さらに、制御部101は、互いに表示位置の近い(例えば、20ピクセル以下しか離れていない)複数のアノテーション画像を1つのグループとして扱うようにしてもよい。
Further, the
以上説明したように、本実施の形態によれば、PC2の表示部205は、ビデオカメラ5による撮影画像を表示すると共に、PC1からの消去されるアノテーション画像の情報(座標情報)に応じて、当該アノテーション画像の消去の取消をPC1の制御部101に対して指示可能な消去中止ボタン40を表示するので、PC2のユーザが、アノテーション画像の消去の取消を指示することができる。
As described above, according to the present embodiment, the
また、表示部205は、PC1からの消去されるアノテーション画像の情報に応じて、当該アノテーション画像を一定時間点滅表示するので、PC2のユーザに消去対象のアノテーション画像を知らせることができる。
Further, the
上記第1及び第2の実施の形態では、制御部101は、記憶部103に記憶された撮影画像とビデオカメラ5から受信した直後の撮影画像とをピクセル毎に比較することにより、対象物が移動されているか否かを判別している(ステップS2、S3)。これに対して、図9に示すように、制御部101は、記憶部103に記憶された撮影画像とビデオカメラ5から受信した直後の撮影画像とをそれぞれ複数の小領域に分割し、互いに対応する分割された小領域同士を比較することにより、対象物が移動されているか否かを判別するようにしてもよい。これにより、撮影画像のノイズ等の影響を受けずに、正確に対象物が移動されているか否かを判別することができる。
In the first and second embodiments, the
また、制御部101は、アノテーション画像の周辺の一定数以上の小領域(例えば、5つ以上の小領域)で変化が起きたときに、アノテーション画像を消去するようにしてもよい。これにより、撮影画像のノイズ等の影響を回避し、不要になったアノテーション画像を消去することができる。
In addition, the
上記第1及び第2の実施の形態では、対象物8(8a、8b)が移動した場合を想定したが、例えば、プロジェクタ4又はビデオカメラ5が移動された場合には、撮影画像全体が変化領域となるため、制御部101は撮影画像内の全てのアノテーション画像を消去するようにしてもよい。
In the first and second embodiments, it is assumed that the object 8 (8a, 8b) has moved. However, for example, when the
上記第1及び第2の実施の形態では、PC1にプロジェクタ4及びビデオカメラ5が接続されているが、図10に示すように、PC1の表示部106とPC2の表示部205に同一の対象物8及び同一のアノテーション画像9を表示するようにしてもよい。図10のシステムでは、対象物8は仮想物体である。図10のシステムでも、PC1は図4及び図7のフローチャートの処理が実行できる。
In the first and second embodiments, the
この場合、PC1の表示部106が対象物8及びPC1から入力されたアノテーション画像を表示部106の表示領域に表示する。そして、制御部101が、対象物8の移動を検出し、対象物8の移動により生じた、表示領域内の変化領域を抽出し、当該変化領域にアノテーション画像が含まれる場合に、当該アノテーション画像を消去する。これにより、対象物の移動により不要になったアノテーション画像を自動的に削除することができ、ユーザの操作負担を軽減することができる。
In this case, the
(第3の実施の形態)
次に、本発明の第3の実施形態について、図11〜図12(C)に基づいて説明する。本第3の実施形態では、制御部101により抽出された撮影画像上の変化領域にアノテーション画像が含まれた場合に、その直前の画像を記憶する点に特徴を有している。なお、本第3の実施形態に係る遠隔指示システムは、図1の遠隔指示システムと同一の構成を有するので、その説明は省略するものとする。
(Third embodiment)
Next, the 3rd Embodiment of this invention is described based on FIGS. 11-12C. The third embodiment is characterized in that when an annotation image is included in the change area on the captured image extracted by the
図11には、PC1で実行される処理がフローチャートにて示されている。この図11に示されるように、PC1の制御部101は、ビデオカメラ5から撮影画像(これを「撮影画像Pf」と呼ぶ)を受信(取得)する(ステップS101)。この撮影画像は、例えば、0.5秒ごとにフレーム画像としてビデオカメラ5から送られる。
FIG. 11 is a flowchart showing processing executed by the
制御部101は、ステップS101で取得した撮影画像Pfとビデオカメラ5から受信した直後の撮影画像(これを「撮影画像Pa」と呼ぶ)とをピクセル毎に比較する(ステップS102)。具体的には、制御部101は、ビデオカメラ5から受信した直後のフレーム画像と、その直前に記憶部103に記憶されたフレーム画像とをピクセル毎に比較する。
The
制御部101は、ステップS102の比較結果に基づいて、対象物8が移動されたか否かを判別する(ステップS103)。このステップS103では、制御部101は、上記2つの撮影画像(フレーム画像)に差分があると、対象物8が移動したと判別する。なお、制御部101は、アノテーション画像の投影による撮影画像(フレーム画像)の変化は、検知しない。即ち、制御部101は、アノテーション画像の投影前後のフレーム画像間の差分のうちアノテーション画像の領域にあるものを無視する。これにより、必要な注釈画像の入力を確保することができる。
The
このステップS103における判断が否定された場合(すなわち、対象物が移動していない場合)には、撮影画像Pfを記憶部103に記憶し(ステップS104)、ステップS101に戻る。 If the determination in step S103 is negative (ie, the object has not moved), the captured image Pf is stored in the storage unit 103 (step S104), and the process returns to step S101.
これに対し、ステップS103における判断が肯定された場合(すなわち、対象物が移動した場合)には、制御部101は、対象物8の移動が終了したか否かを判別する(ステップS105)。例えば、制御部101は、連続した50枚のフレーム画像に変化がなければ、対象物8の移動が終了したと判別する。
On the other hand, when the determination in step S103 is affirmative (that is, when the object has moved), the
ステップS105の判断が否定された場合には、当該判別処理を繰り返し、ステップS105の判断が肯定された段階で、制御部101は、ビデオカメラ5から受信した直後の撮影画像(フレーム画像)に含まれる、変化のあった領域(変化領域)を抽出する(ステップS106)。
If the determination in step S105 is negative, the determination process is repeated, and when the determination in step S105 is affirmed, the
表示部205の表示領域12内にアノテーション画像が書き込まれると、アノテーション画像を示す座標情報がPC2からPC1に送信される。よって、制御部101は、アノテーション画像を示す座標情報に基づいて、図11のステップS106で抽出された領域のうち、アノテーション画像の領域は除外するようにしてもよい。これにより、必要な注釈画像の入力を確保することができる。
When an annotation image is written in the
図12(A)には、表示領域12内に対象物8a,8bが表示されており、対象物8a上にアノテーション画像9が投影された状態(撮影画像Pf)が示されている。図12(B)には、対象物8aが図12(A)の状態から移動した状態(撮影画像Pa)が示されている。また、図12(C)には、変化のあった領域を抽出した状態(ステップS106)が示されている。この図12(C)において、符号130、130’で示される領域が変化領域である。なお、制御部101は、変化領域130、130’に対応する、撮影画像上の座標情報を保持する。
In FIG. 12A, the
図11に戻り、制御部101は、変化領域130、130’にアノテーション画像が含まれているか否かを判別する(ステップS107)。表示部205の表示領域12内にアノテーション画像が書き込まれると、アノテーション画像を示す座標情報がPC2からPC1に送信される。よって、ステップS107の判別は、制御部101が、上記変化領域30に対応する座標情報にアノテーション画像を示す座標情報が含まれるか否かを判別することにより実行される。
Returning to FIG. 11, the
上記ステップS107の判断が否定された場合には、ステップS101に戻る。一方、ステップS107の判断が肯定された場合には、制御部101は、撮影画像Pf(対象物の移動前における撮影画像)を、記憶部103内の撮影画像リストに追加する(保存する)(ステップS108)。
If the determination in step S107 is negative, the process returns to step S101. On the other hand, if the determination in step S107 is affirmative, the
なお、上記ステップS107では、変化領域130、130’にアノテーション画像の全てが含まれている場合に、撮影画像Pfを記憶する場合について説明したが、これに限らず、変化領域130、130’にアノテーション画像の一部が含まれている場合にも、撮影画像Pfを記憶するようにしても良い。
In step S107, the case where the captured image Pf is stored when all the annotation images are included in the
また、制御部101は、変化領域130、130’から所定距離広げた範囲内(例えば、変化領域130,130’から上下左右に30ピクセル広げた範囲)にアノテーション画像の少なくとも一部が含まれている場合に、撮影画像Pfを記憶するようにしても良い。このようにすることで、アノテーション画像を投影したプロジェクタの光によって撮影画像の変化が検出されなかった場合でも、適切なタイミングで撮影画像を記憶することができる。
In addition, the
上記のようにしてステップS101〜S108の処理・判断が順次繰り返されることにより、記憶部103の撮影画像リストには、撮影画像が適切なタイミングで蓄積されていくことになる。ユーザは、これら蓄積された撮影画像を用いることにより、本実施形態の遠隔指示システムを用いて行われた遠隔地間の会議などの議事録等を作成することができる。
As described above, the processing and determination in steps S101 to S108 are sequentially repeated, so that the captured images are accumulated in the captured image list of the
以上詳細に説明したように、本第3の実施形態によれば、制御部101が、ビデオカメラ5により撮影された撮影画像に基づいて、対象物8の移動を検出し、対象物8の移動により生じた撮影画像上の変化領域を抽出し、当該変化領域にアノテーション画像が含まれる場合に、変化前の撮影画像Pfを記憶部103の撮影画像リストに追加(記憶)するため、適切なタイミングで撮影画像を自動的に記憶することができ、ユーザの操作負担を軽減することができる。また、適切なタイミングで記憶された撮影画像を用いることにより、適切な議事録等を作成することが可能である。
As described above in detail, according to the third embodiment, the
なお、上記第3の実施形態では、撮影画像Pfを記憶部103に記憶する場合について説明したが、これに限られるものではなく、例えば、ネットワーク上に存在するPC1とは別の装置(PC)に、撮影画像Pfを記憶するようにしても良い。
In the third embodiment, the case where the captured image Pf is stored in the
(第4の実施形態)
次に、本発明の第4の実施形態について、図13〜図14(F)に基づいて説明する。この第4の実施形態は、制御部101により抽出された撮影画像上の変化領域にアノテーション画像が含まれた場合の、撮影画像の記憶方法が、上述した第3の実施形態と異なっている。したがって、以下においては、この点を中心にして説明するものとする。
(Fourth embodiment)
Next, the 4th Embodiment of this invention is described based on FIGS. 13-14F. The fourth embodiment is different from the third embodiment described above in the method of storing a photographed image when an annotation image is included in the change area on the photographed image extracted by the
図13には、PC1で実行される処理がフローチャートにて示されている。この図13と、図11(前述した第3の実施形態の処理)とを比較すると分かるように、図13のステップS201〜S206と、図11のステップS101〜S106とは、同一の処理内容となっている。したがって、ここではステップS201〜S206の説明は省略するものとする。
FIG. 13 is a flowchart showing processing executed by the
制御部101は、ステップS206において変化領域の抽出を行った後、変化前の撮影画像Pfの重要度を計算する(ステップS207)。ここで、重要度を決定するためのパラメータとして、本実施形態では、変化領域に関するパラメータ(変化領域の大きさに関するパラメータ(β1)、変化領域が発生するまでの時間に関するパラメータ(β2)…など)や、変化領域に含まれるアノテーション画像に関するパラメータ(変化領域に含まれるアノテーション画像の数に関するパラメータ(βn-2)、変化領域内に複数のアノテーション画像が含まれる場合における各アノテーション画像間の距離に関するパラメータ(βn-1)、及び各アノテーション画像が描画された時間間隔に関するパラメータ(βn)…など)を採用することとしている。
After extracting the changed area in step S206, the
ここで、重要度について具体的に説明すると、例えば、図14(A)、図14(B)に示されるように、変化領域130,130’に含まれるアノテーション画像の数が異なる場合には、アノテーション画像の数が多いほど、撮影画像Pfの重要度が高くなるように(「図14(A)の重要度<図14(B)の重要度」となるように)取り扱うこととする。また、図14(C)、図14(D)に示されるように、変化領域130,130’内に複数のアノテーション画像が存在する場合には、各アノテーション画像間の距離が小さい方(接近度が高い方)の撮影画像Pfの重要度が高くなるように(「図14(A)の重要度<図14(B)の重要度」となるように)取り扱うこととする。更に、図14(E)、図14(F)に示されるように、変化領域の大きさが異なる場合には、変化領域が大きいほど、撮影画像Pfの重要度が高くなるように(「図14(E)の重要度<図14(F)の重要度」となるように)取り扱うこととする。
Here, the importance will be specifically described. For example, as shown in FIGS. 14A and 14B, when the number of annotation images included in the
また、図示はしていないが、例えば、以前に撮影画像が記憶されてから、次の撮影画像を記憶するか否かの判断を行うまでに要した時間が短い場合と、長い場合とでは、長い方が、その画像について十分に話し合ったものと想定されるので、その時間が長ければ長いほど、撮影画像Pfの重要度が高くなるように取り扱うこととする。 Although not shown in the figure, for example, when the time taken from the time when a captured image was previously stored until it is determined whether to store the next captured image is short or long, Since it is assumed that the longer one has sufficiently discussed the image, the longer the time is, the higher the importance of the captured image Pf is handled.
更に、重要度を決定する際に描画されているアノテーション画像の描画間隔(時間間隔)が、短い場合と長い場合とでは、短い方が、その画像について活発な議論がされたものと想定されるので、その時間が短ければ短いほど、撮影画像Pfの重要度が高くなるように取り扱うこととする。 Furthermore, when the drawing interval (time interval) of the annotation image drawn when determining the importance is short or long, it is assumed that the shorter one has a lively discussion about the image. Therefore, the shorter the time is, the higher the importance of the captured image Pf is handled.
したがって、制御部101では、上記パラメータ(β1〜βn)と、これらパラメータの重み付けを行う重み付け係数(α1〜αn)とを用いて、重要度(γ)を次式(1)のようにして算出する。
γ=α1β1+α2β2+…+αnβn …(1)
Therefore, the
γ = α 1 β 1 + α 2 β 2 + ... + α n β n (1)
図13に戻り、制御部101は、上記のようにして算出された重要度(γ)と、予め定められた重要度の閾値(γs)とを比較して、重要度(γ)が、閾値(γs)以上であるか否かを判断する(ステップS208)。
Returning to FIG. 13, the
このステップS208における判断が肯定された場合には、撮影画像Pfの重要度が比較的高いと判断されたことを意味するので、制御部101は、その画像を、記憶部103の撮影画像リストに追加(記憶)する。
If the determination in step S208 is affirmative, it means that the importance of the captured image Pf is determined to be relatively high, and the
これに対し、ステップS208における判断が否定された場合には、撮影画像Pfの重要度があまり高くないと判断されたことを意味するので、制御部101は、その画像を記憶せずに、ステップS201に戻る。
On the other hand, if the determination in step S208 is negative, it means that the importance of the captured image Pf is determined to be not so high, so that the
上記のようにしてステップS201〜S209の処理・判断が順次繰り返されることにより、記憶部103の撮影画像リストには、撮影画像が適切なタイミングで蓄積されていくことになる。ユーザは、これら蓄積された撮影画像を用いることにより、本実施形態の遠隔指示システムを用いて行われた遠隔地間の会議などの議事録等を作成することができる。
As described above, the processes and determinations in steps S201 to S209 are sequentially repeated, so that captured images are accumulated in the captured image list of the
以上詳細に説明したように、本第4の実施形態によれば、制御部101が、ビデオカメラ5により撮影された撮影画像に基づいて、対象物8の移動を検出し、対象物8の移動により生じた撮影画像上の変化領域を抽出するとともに、変化前の撮影画像の重要度(γ)を算出し、その重要度(γ)が閾値(γs)以上である場合にのみ撮影画像を自動的に記憶することとしているので、撮影画像のうち、重要度の高い画像のみを記憶することができる。また、このような重要度の高い撮影画像を用いて、議事録等を作成することにより、適切な議事録等の作成を行うことが可能である。
As described above in detail, according to the fourth embodiment, the
なお、上記第4の実施形態では、重要度の算出を、式(1)により行うこととしたが、これに限られるものではなく、その他の統計演算式などを用いて、重要度の算出を行うことも可能である。統計演算式としては、たとえば標準偏差を用いることができる。すなわち、アノテーション画像が描画された時間間隔の全データに対する、各アノテーション画像が描画された時間間隔の標準偏差δnを用いて、
γ=α1δ1+α2δ2+…+αnδn …(2)
と表すことができる。なお、標準偏差を用いた式としては、上記式(2)以外の式を採用することも可能である。
In the fourth embodiment, the importance level is calculated using the equation (1). However, the present invention is not limited to this, and the importance level is calculated using other statistical formulas. It is also possible to do this. For example, a standard deviation can be used as the statistical calculation expression. That is, with respect to all the data of the time interval at which the annotation image was drawn, the standard deviation δ n of the time interval at which each annotation image was drawn,
γ = α 1 δ 1 + α 2 δ 2 + ... + α n δ n (2)
It can be expressed as. In addition, it is also possible to employ | adopt expressions other than said Formula (2) as a formula using a standard deviation.
なお、上記第4の実施形態では、重要度(γ)が閾値(γs)以上である場合に、撮影画像を記憶することとしたが、この撮影画像を記憶部103の撮影画像リストに追加(記憶)する際に作成されるテーブル(ファイル名や記憶日時などを管理するテーブル)に、図15に示されるように、重要度を記載することとしても良い。このようにすることで、ユーザは、撮影画像の重要度を参考にしながら、議事録等を作成することができる。 In the fourth embodiment, the captured image is stored when the importance (γ) is equal to or greater than the threshold (γs). However, the captured image is added to the captured image list in the storage unit 103 ( As shown in FIG. 15, the importance may be described in a table (a table for managing file names, storage dates and the like) created at the time of storage. By doing in this way, the user can create the minutes etc., referring to the importance of the captured image.
また、上記第4の実施形態では、図13のステップS208において、重要度が閾値以上であるか否かを判断することとしたが、これに限られるものではなく、例えば、重要度が閾値以上であるか否かの判断をせずに、重要度を算出した画像の全てを、重要度の値とともに記憶部103の撮影画像リストに追加(記憶)することとしても良い。このようにしても、ユーザは、撮影画像の重要度を参考にしながら、議事録等を作成することができる。
In the fourth embodiment, it is determined in step S208 in FIG. 13 whether or not the importance is equal to or higher than the threshold. However, the present invention is not limited to this. For example, the importance is equal to or higher than the threshold. It is also possible to add (store) all of the images for which importance has been calculated to the photographed image list in the
なお、上記第3及び第4の実施の形態では、制御部101は、記憶部103に記憶された撮影画像とビデオカメラ5から受信した直後の撮影画像とをピクセル毎に比較することにより、対象物が移動されているか否かを判別したが、これに限らず、記憶部103に記憶された撮影画像とビデオカメラ5から受信した直後の撮影画像とをそれぞれ複数の小領域に分割し、互いに対応する分割された小領域同士を比較することにより、対象物が移動されているか否かを判別するようにしてもよい(図9参照)。これにより、撮影画像のノイズ等の影響を受けずに、正確に対象物が移動されているか否かを判別することができる。
In the third and fourth embodiments, the
なお、上記第3及び第4の実施の形態においても、前述した第1、第2の実施形態の場合と同様、図10に示されるように、PC1の表示部106とPC2の表示部205に同一の対象物(仮想物体)8及び同一のアノテーション画像9を表示するようにしてもよい。この図10のシステムでも、PC1は図11や図13のフローチャートに沿った処理を実行することができる。
In the third and fourth embodiments, as in the case of the first and second embodiments described above, the
なお、上記第1又は第2の実施形態と、第3又は第4の実施形態とを併用することも可能である。すなわち、例えば、制御部101は、変化領域内にアノテーション画像が含まれていた場合に、その変化の直前の撮影画像を記憶部103(撮影画像リスト)に記憶するとともに、変化領域に含まれていたアノテーション画像を削除する処理を行うこととすることも可能である。
The first or second embodiment and the third or fourth embodiment can be used in combination. That is, for example, when an annotation image is included in the change area, the
なお、上記各実施形態では、撮影画像がPC1からPC2に対して、ネットワークを介して、直接送信される場合について説明したが、これに限らず、例えば、PC1の近傍に別のハードウェアを設けておき、PC1から撮影画像を受信したその別のハードウェアからPC2に対して、ネットワークを介して、撮影画像を送信することとしても良い。
In each of the above embodiments, the case where the captured image is directly transmitted from the
PC1〜PC2の機能を実現するためのソフトウェアのプログラムが記録されている記録媒体を、各PCに供給し、各PCのCPUが記憶媒体に格納されたプログラムを読み出し実行することによっても、上記実施の形態と同様の効果を奏する。プログラムを供給するための記憶媒体としては、例えば、CD−ROM、DVD、又はSDカードなどがある。 The above-mentioned implementation can also be realized by supplying a recording medium in which a software program for realizing the functions of PC1 to PC2 is recorded to each PC, and the CPU of each PC reads and executes the program stored in the storage medium. The same effect as that of the embodiment is produced. Examples of the storage medium for supplying the program include a CD-ROM, a DVD, or an SD card.
また、各PCのCPUが、各PCの機能を実現するためのソフトウェアのプログラムを実行することによっても、上記実施の形態と同様の効果を奏する。 Further, the same effects as those of the above-described embodiment can also be obtained when the CPU of each PC executes a software program for realizing the function of each PC.
なお、本発明は、上述した各実施の形態に限定されるものではなく、その要旨を逸脱しない範囲内で種々変形して実施することが可能である。 In addition, this invention is not limited to each embodiment mentioned above, In the range which does not deviate from the summary, it can change and implement variously.
1 PC(情報処理装置)
2 PC(外部端末)
3 ネットワーク
4 プロジェクタ(投影装置)
5 ビデオカメラ(撮影装置)
6 ハーフミラー
101 制御部(検出手段、抽出手段、処理手段、取得手段)
102 送受信部(送信手段)
103 記憶部
104 IF部
105 操作部
106 表示部(表示手段)
201 制御部
202 送受信部
203 記憶部
204 操作部
205 表示部(画像表示手段)
1 PC (information processing equipment)
2 PC (external terminal)
3
5 Video camera (photographing device)
6 half
102 Transmission / reception unit (transmission means)
103
Claims (33)
前記撮影装置により撮影された撮影画像に基づいて、前記対象物の移動を検出する検出手段と、
前記対象物の移動により生じた前記撮影画像上の変化領域を抽出する抽出手段と、
当該変化領域に前記注釈画像が含まれる場合に、前記撮影画像及び前記注釈画像の少なくとも一方に対する処理を実行する処理手段とを備えることを特徴とする情報処理装置。 An information processing apparatus connected to a projection apparatus that projects an annotation image input from an external terminal onto a projection area including an object and a background, and an imaging apparatus that captures the projection area including the object and the background,
Detection means for detecting movement of the object based on a photographed image photographed by the photographing device;
Extraction means for extracting a change area on the captured image caused by movement of the object;
An information processing apparatus comprising: processing means for executing processing on at least one of the captured image and the annotation image when the annotation image is included in the change area.
前記外部端末は、前記撮影装置による撮影画像を表示すると共に、前記送信手段からの消去される注釈画像の情報に応じて、当該注釈画像の消去の取消を前記処理手段に対して指示可能な指示部を表示する画像表示手段を備えることを特徴とする請求項5に記載の情報処理装置。 Further comprising transmission means for transmitting information of the annotation image to be erased by the processing means to the external terminal,
The external terminal displays a photographed image by the photographing device and can instruct the processing means to cancel the erasure of the annotation image according to the information of the annotation image to be erased from the transmission means. 6. The information processing apparatus according to claim 5, further comprising image display means for displaying a part.
前記処理手段は、前記変化領域に前記注釈画像に関連付けられている領域が含まれる場合に、前記注釈画像を消去することを特徴とする請求項5乃至10のいずれか1項に記載の情報処理装置。 An acquisition means for acquiring information on the annotation image and an area associated with the annotation image from the external terminal;
11. The information processing according to claim 5, wherein the processing unit deletes the annotation image when the change region includes a region associated with the annotation image. apparatus.
前記対象物の移動を検出する検出手段と、
前記対象物の移動により生じた、前記表示領域内の変化領域を抽出する抽出手段と、
当該変化領域に前記注釈画像が含まれる場合に、前記表示領域内における表示に対する処理を実行する処理手段とを備えることを特徴とする情報処理装置。 Display means for displaying an annotation image input from an object and an external terminal in a display area;
Detecting means for detecting movement of the object;
Extraction means for extracting a change area in the display area caused by the movement of the object;
An information processing apparatus comprising: processing means for executing processing for display in the display area when the annotation area is included in the change area.
前記処理手段は、前記変化領域に前記注釈画像に関連付けられている領域が含まれる場合に、前記注釈画像を消去することを特徴とする請求項17乃至20のいずれか1項に記載の情報処理装置。 An acquisition means for acquiring information on the annotation image and an area associated with the annotation image from the external terminal;
The information processing according to any one of claims 17 to 20, wherein the processing unit deletes the annotation image when the region associated with the annotation image is included in the change region. apparatus.
前記撮影装置により撮影された撮影画像に基づいて、前記対象物の移動を検出する検出手段と、
前記対象物の移動により生じた前記撮影画像上の変化領域を抽出する抽出手段と、
当該変化領域の情報と、当該変化領域に含まれる前記注釈画像の情報との少なくとも一方に基づいて、前記撮影画像の重要度を算出し、前記重要度に応じた前記撮影画像の記憶を実行する記憶手段とを備えることを特徴とする情報処理装置。 An information processing apparatus connected to a projection apparatus that projects an annotation image input from an external terminal onto a projection area including an object and a background, and an imaging apparatus that captures the projection area including the object and the background,
Detection means for detecting movement of the object based on a photographed image photographed by the photographing device;
Extraction means for extracting a change area on the captured image caused by movement of the object;
The importance of the captured image is calculated based on at least one of the information on the change area and the information on the annotation image included in the change area, and the captured image is stored according to the importance. An information processing apparatus comprising storage means.
前記対象物の移動を検出する検出手段と、
前記対象物の移動により生じた、前記表示領域内の変化領域を抽出する抽出手段と、
当該変化領域の情報と、当該変化領域に含まれる前記注釈画像の情報との少なくとも一方に基づいて、前記表示領域内の表示の重要度を算出し、前記重要度に応じた前記表示の記憶を実行する記憶手段とを備えることを特徴とする情報処理装置。 Display means for displaying an annotation image input from an object and an external terminal in a display area;
Detecting means for detecting movement of the object;
Extraction means for extracting a change area in the display area caused by the movement of the object;
Based on at least one of the information on the change area and the information on the annotation image included in the change area, the importance of the display in the display area is calculated, and the display is stored according to the importance. An information processing apparatus comprising storage means for executing.
前記変化領域に含まれる前記注釈画像の情報には、前記変化領域に含まれる前記注釈画像の数、前記変化領域内に複数の注釈画像が含まれる場合における各注釈画像間の距離及び各注釈画像が描画された時間間隔の少なくとも1つが含まれることを特徴とする請求項25乃至28のいずれか1項に記載の情報処理装置。 The information of the change area used for the calculation of the importance includes at least one of the size of the change area and the time until the change area occurs,
The information on the annotation image included in the change area includes the number of the annotation images included in the change area, the distance between the annotation images in the case where a plurality of annotation images are included in the change area, and the annotation images. The information processing apparatus according to any one of claims 25 to 28, wherein at least one of time intervals in which is drawn is included.
前記撮影装置により撮影された撮影画像に基づいて、前記対象物の移動を検出する検出手段、
前記対象物の移動により生じた前記撮影画像上の変化領域を抽出する抽出手段、及び
当該変化領域に前記注釈画像が含まれる場合に、前記撮影画像及び前記注釈画像の少なくとも一方に対する処理を実行する処理手段として機能させることを特徴とするプログラム。 A projection device that projects an annotation image input from an external terminal onto a projection area including an object and a background, and a computer connected to an imaging apparatus that captures the projection area including the object and the background;
Detecting means for detecting movement of the object based on a photographed image photographed by the photographing device;
Extraction means for extracting a change area on the photographed image caused by the movement of the object, and processing for at least one of the photographed image and the annotation image when the annotation image is included in the change area A program characterized by functioning as a processing means.
対象物及び外部端末から入力された注釈画像を表示領域に表示する表示手段、
前記対象物の移動を検出する検出手段、
前記対象物の移動により生じた、前記表示領域内の変化領域を抽出する抽出手段、及び
当該変化領域に前記注釈画像が含まれる場合に、前記表示領域内における表示に対する処理を実行する処理手段として機能させることを特徴とするプログラム。 Computer
Display means for displaying an annotation image input from an object and an external terminal in a display area;
Detecting means for detecting movement of the object;
Extracting means for extracting a change area in the display area caused by movement of the object, and processing means for executing processing for display in the display area when the annotation image is included in the change area A program characterized by functioning.
前記撮影装置により撮影された撮影画像に基づいて、前記対象物の移動を検出する検出手段、
前記対象物の移動により生じた前記撮影画像上の変化領域を抽出する抽出手段、及び
当該変化領域の情報と、当該変化領域に含まれる前記注釈画像の情報との少なくとも一方に基づいて、前記撮影画像の重要度を算出し、前記重要度に応じた前記撮影画像の記憶を行う記憶手段として機能させることを特徴とするプログラム。 A projection device that projects an annotation image input from an external terminal onto a projection area including an object and a background, and a computer connected to an imaging apparatus that captures the projection area including the object and the background;
Detecting means for detecting movement of the object based on a photographed image photographed by the photographing device;
Extraction means for extracting a change area on the photographed image caused by the movement of the object, and the photographing based on at least one of information on the change area and information on the annotation image included in the change area. A program that calculates an importance level of an image and functions as a storage unit that stores the captured image according to the importance level.
対象物及び外部端末から入力された注釈画像を表示領域に表示する表示手段、
前記対象物の移動を検出する検出手段、
前記対象物の移動により生じた、前記表示領域内の変化領域を抽出する抽出手段、及び
当該変化領域の情報と、当該変化領域に含まれる前記注釈画像の情報との少なくとも一方に基づいて、前記表示領域内の表示の重要度を算出し、前記重要度に応じた前記表示の記憶を実行する記憶手段として機能させることを特徴とするプログラム。 Computer
Display means for displaying an annotation image input from an object and an external terminal in a display area;
Detecting means for detecting movement of the object;
Based on at least one of extraction means for extracting a change area in the display area caused by movement of the object, information on the change area, and information on the annotation image included in the change area, A program which calculates the importance of display in a display area and functions as storage means for executing storage of the display according to the importance.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007237158A JP4858375B2 (en) | 2007-04-19 | 2007-09-12 | Information processing apparatus and program |
US12/044,009 US8022997B2 (en) | 2007-04-19 | 2008-03-07 | Information processing device and computer readable recording medium |
US13/211,064 US8581993B2 (en) | 2007-04-19 | 2011-08-16 | Information processing device and computer readable recording medium |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007111067 | 2007-04-19 | ||
JP2007111067 | 2007-04-19 | ||
JP2007237158A JP4858375B2 (en) | 2007-04-19 | 2007-09-12 | Information processing apparatus and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2008287691A true JP2008287691A (en) | 2008-11-27 |
JP2008287691A5 JP2008287691A5 (en) | 2010-09-30 |
JP4858375B2 JP4858375B2 (en) | 2012-01-18 |
Family
ID=40147330
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007237158A Expired - Fee Related JP4858375B2 (en) | 2007-04-19 | 2007-09-12 | Information processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4858375B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010288163A (en) * | 2009-06-15 | 2010-12-24 | Internatl Business Mach Corp <Ibm> | Evaluation system, control method of marker display and program |
JP2014130421A (en) * | 2012-12-28 | 2014-07-10 | Fujitsu Ltd | Conference material creation support program, conference material creation support method, and conference material creation support device |
JP2016157172A (en) * | 2015-02-23 | 2016-09-01 | 富士ゼロックス株式会社 | Display control device, communication terminal, and display control program |
JP2021521557A (en) * | 2018-05-07 | 2021-08-26 | アップル インコーポレイテッドApple Inc. | Devices and methods for measuring using augmented reality |
US11615595B2 (en) | 2020-09-24 | 2023-03-28 | Apple Inc. | Systems, methods, and graphical user interfaces for sharing augmented reality environments |
US11632600B2 (en) | 2018-09-29 | 2023-04-18 | Apple Inc. | Devices, methods, and graphical user interfaces for depth-based annotation |
US11727650B2 (en) | 2020-03-17 | 2023-08-15 | Apple Inc. | Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments |
US11797146B2 (en) | 2020-02-03 | 2023-10-24 | Apple Inc. | Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments |
US11941764B2 (en) | 2021-04-18 | 2024-03-26 | Apple Inc. | Systems, methods, and graphical user interfaces for adding effects in augmented reality environments |
US12020380B2 (en) | 2019-09-27 | 2024-06-25 | Apple Inc. | Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003330612A (en) * | 2002-05-13 | 2003-11-21 | Ricoh Co Ltd | Information input/output system, program and storage medium |
JP2006252036A (en) * | 2005-03-09 | 2006-09-21 | Nippon Telegr & Teleph Corp <Ntt> | Projection image creating device, program, projection image creating method, and image projection system |
JP2006352497A (en) * | 2005-06-16 | 2006-12-28 | Fuji Xerox Co Ltd | Remote instruction system and method thereof |
JP2007208741A (en) * | 2006-02-02 | 2007-08-16 | Fuji Xerox Co Ltd | Remote indication system and method |
-
2007
- 2007-09-12 JP JP2007237158A patent/JP4858375B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003330612A (en) * | 2002-05-13 | 2003-11-21 | Ricoh Co Ltd | Information input/output system, program and storage medium |
JP2006252036A (en) * | 2005-03-09 | 2006-09-21 | Nippon Telegr & Teleph Corp <Ntt> | Projection image creating device, program, projection image creating method, and image projection system |
JP2006352497A (en) * | 2005-06-16 | 2006-12-28 | Fuji Xerox Co Ltd | Remote instruction system and method thereof |
JP2007208741A (en) * | 2006-02-02 | 2007-08-16 | Fuji Xerox Co Ltd | Remote indication system and method |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010288163A (en) * | 2009-06-15 | 2010-12-24 | Internatl Business Mach Corp <Ibm> | Evaluation system, control method of marker display and program |
US8619096B2 (en) | 2009-06-15 | 2013-12-31 | International Business Machines Corporation | Instant message analytics of historical conversations in relation to present communication |
US8643672B2 (en) | 2009-06-15 | 2014-02-04 | International Business Machines Corporation | Instant message analytics of historical conversations in relation to present communication |
JP2014130421A (en) * | 2012-12-28 | 2014-07-10 | Fujitsu Ltd | Conference material creation support program, conference material creation support method, and conference material creation support device |
JP2016157172A (en) * | 2015-02-23 | 2016-09-01 | 富士ゼロックス株式会社 | Display control device, communication terminal, and display control program |
US11808562B2 (en) | 2018-05-07 | 2023-11-07 | Apple Inc. | Devices and methods for measuring using augmented reality |
JP7097991B2 (en) | 2018-05-07 | 2022-07-08 | アップル インコーポレイテッド | Devices and methods for measuring using augmented reality |
US11391561B2 (en) | 2018-05-07 | 2022-07-19 | Apple Inc. | Devices and methods for measuring using augmented reality |
JP2021521557A (en) * | 2018-05-07 | 2021-08-26 | アップル インコーポレイテッドApple Inc. | Devices and methods for measuring using augmented reality |
US11632600B2 (en) | 2018-09-29 | 2023-04-18 | Apple Inc. | Devices, methods, and graphical user interfaces for depth-based annotation |
US11818455B2 (en) | 2018-09-29 | 2023-11-14 | Apple Inc. | Devices, methods, and graphical user interfaces for depth-based annotation |
US12131417B1 (en) | 2018-09-29 | 2024-10-29 | Apple Inc. | Devices, methods, and graphical user interfaces for depth-based annotation |
US12020380B2 (en) | 2019-09-27 | 2024-06-25 | Apple Inc. | Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality |
US11797146B2 (en) | 2020-02-03 | 2023-10-24 | Apple Inc. | Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments |
US11727650B2 (en) | 2020-03-17 | 2023-08-15 | Apple Inc. | Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments |
US11615595B2 (en) | 2020-09-24 | 2023-03-28 | Apple Inc. | Systems, methods, and graphical user interfaces for sharing augmented reality environments |
US11941764B2 (en) | 2021-04-18 | 2024-03-26 | Apple Inc. | Systems, methods, and graphical user interfaces for adding effects in augmented reality environments |
Also Published As
Publication number | Publication date |
---|---|
JP4858375B2 (en) | 2012-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4858375B2 (en) | Information processing apparatus and program | |
US8022997B2 (en) | Information processing device and computer readable recording medium | |
US9135513B2 (en) | Image processing apparatus and method for obtaining position and orientation of imaging apparatus | |
US8169469B2 (en) | Information processing device, information processing method and computer readable medium | |
JP5839553B2 (en) | Work support system, work support method, and work terminal | |
JP6455501B2 (en) | Information processing apparatus, information processing system, control method, and program | |
CN108876934A (en) | Key point mask method, device and system and storage medium | |
US20190012838A1 (en) | Information processing apparatus, method and non-transitory computer-readable storage medium | |
CN113282262B (en) | Control method and device for projection display picture, mobile terminal and storage medium | |
JP2009094868A (en) | Information processing apparatus, remote indication system and program | |
CN111583280B (en) | Image processing method, device, equipment and computer readable storage medium | |
JP2004532441A (en) | System and method for extracting predetermined points of an object in front of a computer-controllable display captured by an imaging device | |
JP2007041866A (en) | Information processing device, information processing method, and program | |
JP2009075846A (en) | Outline extraction device and program | |
US8125525B2 (en) | Information processing apparatus, remote indication system, and computer readable medium | |
US9196068B2 (en) | Projector system, and method for drawings | |
JP6485522B2 (en) | Management server, information processing terminal, control method, and program | |
JP2016157201A (en) | Information processing apparatus, operation cancelling method, computer program, and storage medium | |
US9483125B2 (en) | Position information obtaining device and method, and image display system | |
JP2020150364A (en) | Information processing system, information processing device, and program | |
JP2012048392A (en) | Image processing apparatus and image processing method | |
JP5065753B2 (en) | Shielding control device, subject shielding control system, and shielding control program | |
JP2010117465A (en) | Information processing device, information processing system and program | |
JP2009100192A (en) | Information processing apparatus, storing method, and program | |
JP2009076983A (en) | Information processing system, and information processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100813 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100813 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110420 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111004 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4858375 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141111 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |