JP6805375B2 - Information processing equipment, information processing methods and information processing programs - Google Patents
Information processing equipment, information processing methods and information processing programs Download PDFInfo
- Publication number
- JP6805375B2 JP6805375B2 JP2020002579A JP2020002579A JP6805375B2 JP 6805375 B2 JP6805375 B2 JP 6805375B2 JP 2020002579 A JP2020002579 A JP 2020002579A JP 2020002579 A JP2020002579 A JP 2020002579A JP 6805375 B2 JP6805375 B2 JP 6805375B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- positional relationship
- related information
- orientation
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明の実施形態は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 Embodiments of the present invention relate to information processing devices, information processing methods and information processing programs.
実空間に設けられた対象物に関する関連情報を、画像に重畳して表示するAR(Augmented Reality)アプリケーションがある。ARアプリケーションは、情報処理装置にインストールして用いられる。この情報処理装置においては、関連情報を見易く表示できることが望まれている。 There is an AR (Augmented Reality) application that superimposes and displays related information about an object provided in real space on an image. The AR application is installed and used in an information processing device. In this information processing device, it is desired that related information can be displayed in an easy-to-read manner.
本発明の実施形態は、対象物の関連情報を見易く表示可能な情報処理装置、情報処理方法及び情報処理プログラムを提供する。 An embodiment of the present invention provides an information processing device, an information processing method, and an information processing program capable of displaying information related to an object in an easy-to-see manner.
本発明の実施形態によれば、取得部と、処理部と、を含む情報処理装置が提供される。前記取得部は、第1時刻における第1画像と、前記第1時刻の後の第2時刻における第2画像と、を取得する。前記第1画像は、第1対象物の第1像及び第2対象物の第2像を含む。前記第2画像は、前記第1対象物の第3像及び前記第3像とは異なる第4像を含む。前記処理部は、第1動作と、第2動作と、を実施する。前記第1動作は、前記第1像に対応付けられた第1関連情報を、前記第1画像に重畳して表示させる第1データを生成する。前記第2動作は、前記第1像を基準としたときの前記第2像の相対的な第1位置関係と、前記第3像を基準としたときの前記第4像の相対的な第2位置関係と、の間の変化の状態が第1状態のときに、前記第1関連情報を、前記第2画像に重畳して表示させる第2データを生成する。 According to an embodiment of the present invention, an information processing device including an acquisition unit and a processing unit is provided. The acquisition unit acquires a first image at the first time and a second image at the second time after the first time. The first image includes a first image of the first object and a second image of the second object. The second image includes a third image of the first object and a fourth image different from the third image. The processing unit carries out the first operation and the second operation. The first operation generates first data in which the first related information associated with the first image is superimposed and displayed on the first image. The second operation is the relative first positional relationship of the second image with respect to the first image and the relative second position of the fourth image with respect to the third image. When the state of change between the positional relationship and the state of change is the first state, the second data for displaying the first related information superimposed on the second image is generated.
以下に、本発明の各実施の形態について図面を参照しつつ説明する。
なお、図面は模式的または概念的なものであり、各部分の厚みと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。また、同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。
なお、本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
The drawings are schematic or conceptual, and the relationship between the thickness and width of each part, the ratio of the sizes between the parts, and the like are not necessarily the same as the actual ones. Further, even when the same parts are represented, the dimensions and ratios may be different from each other depending on the drawings.
In addition, in the present specification and each figure, the same elements as those described above with respect to the above-mentioned figures are designated by the same reference numerals, and detailed description thereof will be omitted as appropriate.
(第1の実施形態)
図1は、第1の実施形態に係る情報処理装置を例示するブロック図である。
図1に表すように、実施形態に係る画像処理装置110は、取得部10と、処理部20と、表示部30と、第1記憶部40と、第2記憶部50と、を含む。取得部10には、例えば、入出力端子が用いられる。取得部10は、有線または無線を介して外部と通信する入出力インターフェイスを含む。処理部20には、例えば、CPU(Central Processing Unit)やメモリなどを含む演算装置が用いられる。処理部20の各ブロックの一部、又は全部には、LSI(Large Scale Integration)等の集積回路またはIC(Integrated Circuit)チップセットを用いることができる。各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。
(First Embodiment)
FIG. 1 is a block diagram illustrating an information processing apparatus according to the first embodiment.
As shown in FIG. 1, the
処理部20には、検出部21と、対応部22と、算出部23と、表示制御部24と、が設けられる。これらの各部は、例えば、画像処理プログラムとして実現される。すなわち、画像処理装置110は、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現される。画像処理装置110に含まれる各部の機能は、上記のコンピュータ装置に搭載されたプロセッサに画像処理プログラムを実行させることにより実現することができる。このとき、画像処理装置110は、上記の画像処理プログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記の画像処理プログラムを配布して、この画像処理プログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、処理部20は、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスクもしくはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現することができる。
The
この例においては、第1記憶部40と第2記憶部50とを別々に表しているが、第1記憶部40と第2記憶部50とを一つの記憶部として構成してもよい。
In this example, the
図2は、対象物と画像との関係を例示する模式図である。
図2に表すように、画像処理装置110には、デジタルスチルカメラなどの撮像部60が一体で設けられている。撮像部60は、画像処理装置110とは別体で設けられていてもよい。撮像部60は、実空間RSに設けられた第1対象物71及び第2対象物72を撮像して、第1画像61及び第2画像62を生成する。取得部10は、第1画像61及び第2画像62を取得する。第1画像61及び第2画像62は、動画または静止画のいずれでもよい。
FIG. 2 is a schematic diagram illustrating the relationship between the object and the image.
As shown in FIG. 2, the
第1画像61は、第1時刻t1における画像である。第1画像61は、第1対象物71の第1像81と、第2対象物72の第2像82と、を含む。第2画像62は、第1時刻t1よりも後の第2時刻t2における画像である。第2画像62は、第1対象物71の第3像83と、第3像83とは異なる第4像84と、を含む。本例においては、第1像81及び第3像83は共に、第1対象物71の像である。第2像82及び第4像84は共に、第2対象物72の像である。
The
本実施形態において、処理部20は、第1動作Op1と、第2動作Op2と、を実施する。第1動作Op1は、第1像81に対応付けられた第1関連情報41を、第1画像61に重畳して表示させる第1データd1を生成する。第2動作Op2は、第1位置関係51と第2位置関係52との間の変化の状態が第1状態のときに、第1関連情報41を、第2画像62に重畳して表示させる第2データd2を生成する。第1位置関係51は、第1像81を基準としたときの第2像82の相対的な位置関係である。第2位置関係52は、第3像83を基準としたときの第4像84の相対的な位置関係である。第1状態とは、例えば、第1位置関係51と第2位置関係52との間の変化がない、または、変化が小さい状態を含む。すなわち、第1状態とは、第1位置関係51と第2位置関係52とが実質的に変化しない状態を含む。
In the present embodiment, the
より具体的には、検出部21は、第1検出処理を実施する。第1検出処理では、第1画像61から第1像81及び第2像82を検出する。対応部22は、対応付け処理を実施する。対応付け処理では、第1対象物71に関する第1関連情報41を、第1像81に対応付ける。算出部23は、第1算出処理を実施する。第1算出処理では、第1像81を基準としたときの第2像82の相対的な第1位置関係51を算出する。表示制御部24は、第1表示制御処理を実施する。第1表示制御処理では、第1関連情報41を、第1画像62に重畳して表示させる第1データd1を生成する。
More specifically, the
さらに、検出部21は、第2検出処理を実施する。第2検出処理では、第2画像62から第3像83及び第4像84を検出する。算出部23は、第2算出処理を実施する。第2算出処理では、第3像83を基準としたときの第4像84の相対的な第2位置関係52を算出する。表示制御部24は、第2表示制御処理を実施する。第2表示制御処理では、第1位置関係51と第2位置関係52との間に変化の状態が第1状態のときに、第1関連情報41を、第2画像62に重畳して表示させる第2データd2を生成する。第1画像61及び第2画像62の表示は、表示部30が行う。
Further, the
このように、実施形態によれば、第1画像61において、関連情報を表示させる対象像(第1像81、以下、注目対象像ともいう)を基準として、その周囲の対象像(第2像82)との相対的な位置関係(第1位置関係51)を求める。さらに、第2画像62において、第3像83を基準として、その周囲の対象像(第4像84)との相対的な位置関係(第2位置関係52)を求める。これらの位置関係が実質的に変化しなければ、注目対象像の関連情報(第1関連情報41)の表示を継続する。
As described above, according to the embodiment, in the
実施形態に係る画像処理装置110は、実空間に存在する対象物をカメラ等で撮影し、撮影した画像に、対象物に関する関連情報を重畳して表示するARアプリケーションソフトウェアに適用される。関連情報とは、対象物に関する多種多様な情報であり、例えば、対象物に対する作業手順、及び、インターネット等を介して入手できる付随情報などが含まれる。
The
ここで、多くの対象物の対象像を含む画像の場合、対象像のそれぞれに関連情報を重畳して表示すると、非常に見難くなる。これに対して、カメラの画角の中心(画像の中心)またはユーザの視線に対応する部分に最も近い対象像を注目対象像として、注目対象像についてのみ関連情報を表示する参考例がある。 Here, in the case of an image including an object image of many objects, if related information is superimposed and displayed on each of the object images, it becomes very difficult to see. On the other hand, there is a reference example in which the target image closest to the center of the angle of view (center of the image) of the camera or the portion corresponding to the line of sight of the user is set as the target image of interest, and related information is displayed only for the target image of interest.
しかしながら、上記の参考例においては、連続的に撮像された複数の画像に対して、関連情報を表示するときに、ユーザの移動等に伴い、カメラの画角の中心またはユーザの視線が頻繁に移動することが起こり得る。このため、注目対象像が刻一刻と変化し、表示される関連情報が頻繁に切り替わり、見難くなる。 However, in the above reference example, when displaying related information for a plurality of images continuously captured, the center of the angle of view of the camera or the line of sight of the user frequently occurs due to the movement of the user or the like. It can happen to move. For this reason, the image of interest changes from moment to moment, and the related information displayed is frequently switched, making it difficult to see.
これに対して、実施形態によれば、複数の画像について、注目対象像とその周囲の対象像との間の相対的な位置関係を求め、これらの位置関係が実質的に変化しなければ、注目対象像の関連情報が継続して表示される。このため、ユーザの移動等に伴い表示される関連情報が頻繁に切り替わることがなく、関連情報を見易く表示することができる。 On the other hand, according to the embodiment, for a plurality of images, the relative positional relationship between the target image of interest and the surrounding target image is obtained, and if these positional relationships do not substantially change, Information related to the image of interest is continuously displayed. Therefore, the related information displayed does not change frequently due to the movement of the user, and the related information can be displayed in an easy-to-read manner.
すなわち、図1及び図2に表すように、取得部10は、実空間RSに存在する対象物を撮影した複数の画像(例えば、第1画像61及び第2画像62)を取得し、取得した複数の画像を検出部21に出力する。取得部10は、デジタルスチルカメラなどの撮像部60からリアルタイムで画像を取得してもよい。取得部10は、HDD(Hard Disk Drive)などの記憶媒体に記録された画像データを読み込んで取得しても良い。記憶媒体には、例えば、撮像部60から入力される画像を変換したデジタル画像データが記録されている。
That is, as shown in FIGS. 1 and 2, the
検出部21は、取得部10から入力された第1画像61を解析して、第1画像61中に含まれる対象像を検出し、対象像の位置を算出部23に出力し、対象像の種別を対応部22にそれぞれ出力する。ここで、対象像とは、例えば、看板、ロゴ、標識、銘板などの文字情報を含むものでもよい。対象像とは、例えば、店舗に配置された商品、街中に立っている建物、工場に設置された機械などの物体の形状情報を含むものでもよい。さらに、対象像とは、例えば、人の顔や人物に関する情報を含むものでもよい。
The
検出部21により出力される対象像の位置は、画像中で対象像が位置する座標情報として表現される。このときの対象物の座標情報は、厳密に対象像を囲うように設定してもよいし、外接矩形や重心座標などを用いて簡略化しても良い。検出部21により出力される対象像の種別は、他の対象像と区別するための情報である。例えば、文字情報を含む対象像を文字認識し、得られた文字列を対象像の種別としてもよい。物体の形状情報を含む対象像を形状認識し、得られた物体形状を対象像の種別としてもよい。さらには、対象像から切り出した画像部分そのものを種別としてもよい。
The position of the target image output by the
対応部22は、検出部21から入力された各対象像の種別に基づいて、各対象像の種別に対応する関連情報を、第1記憶部40に格納されている関連情報40aの中から選択し、選択した関連情報を表示制御部24に出力する。例えば、第1関連情報41が第1像81に対応付けられる。関連情報40aとは、対象物(対象像)に対応する文字などの情報である。例えば、日本語文字を英語文字に翻訳するARアプリケーションにおいては、翻訳結果の英語文字が関連情報に相当する。また、機器に対する作業手順を表示するARアプリケーションにおいては、機器の操作手順を説明する作業手順書や操作の概略を表した画像などが関連情報に相当する。なお、関連情報40aについて、特に限定はなく、対象物に関連して取得した画像に重畳表示できるものであれば良い。
The corresponding
算出部23は、検出部21から入力された複数の対象像の位置に基づいて、複数の対象像の相対的な位置関係50aを算出し、算出した位置関係50aを第2記憶部50に記録する。例えば、位置関係50aには、第1画像61に含まれる第1像81と第2像82との間の相対的な第1位置関係51が含まれる。ここでは、第1像81が注目対象像として設定されている。第1位置関係51は、第1像81を基準としたときの第2像82の相対的な位置関係である。
The
表示制御部24は、第1像81に対応付けられた第1関連情報41を、第1画像61に重畳して表示させる第1データd1を生成する。そして、表示制御部24は、表示部30を制御して、第1データd1を表示部30に表示させる。
The
検出部21、対応部22、及び算出部23は、第2画像62に含まれる複数の対象像に対して同様の処理を繰り返し、第2画像62に含まれる第3像83と第4像84との間の相対的な第2位置関係52を算出する。
The
表示制御部24は、第1位置関係51と、第2位置関係52と、を比較し、相対的な位置関係の変化の状態が第1状態であるか否かを判定する。第1状態であれば、第1関連情報41を第2画像62に重畳して表示させる。このとき、対象像の位置を起点として、どの位置に関連情報を表示するのか、表示位置を決定してもよい。一方、第1状態とは異なる第2状態であれば、第1関連情報41を第2画像62に表示させない。または、第2画像62に、第1関連情報41とは異なる別の関連情報を表示させてもよい。別の関連情報としては、例えば、第2対象物72に関する第2関連情報を表示させることができる。ここで、第2状態とは、第2位置関係52が第1位置関係51に対して変化している状態である。
The
このように、画像に含まれる複数の対象像の相対的な位置関係に基づいて、同じ関連情報を連続して表示するか、または、切り替えて別の関連情報を表示するか、を制御することができる。このため、連続して複数の画像が入力された場合にも、関連情報が頻繁に切り替わることがなく、ユーザにとって見易い関連情報を表示することができる。 In this way, it is possible to control whether the same related information is displayed continuously or switched to display another related information based on the relative positional relationship of a plurality of target images included in the image. Can be done. Therefore, even when a plurality of images are continuously input, the related information is not frequently switched, and the related information that is easy for the user to see can be displayed.
図3(a)及び図3(b)は、第1の実施形態に係る情報処理装置の適用例を示す模式図である。
図3(a)は、複数の対象物を例示する模式図である。
図3(b)は、作業者80が情報処理装置110を持って複数の対象物を撮像しながら地点Xから地点Zまで移動する様子を例示する模式図である。
3A and 3B are schematic views showing an application example of the information processing apparatus according to the first embodiment.
FIG. 3A is a schematic diagram illustrating a plurality of objects.
FIG. 3B is a schematic view illustrating how the
図3(a)に表すように、実空間RSには、第1対象物71、第2対象物72、及び第3対象物73が存在する。図3(b)に表すように、情報処理装置110は、例えば、カメラ(撮像部60)を備えたタブレット端末である。情報処理装置110には、例えば、第1対象物71に関する第1関連情報41が表示されており、作業者80はこの第1関連情報41を見ながら第1〜第3対象物71〜73に接近する。作業者80は、地点X、地点Y、地点Zの順に移動する。作業者80は、第1〜第3対象物71〜73に対して、情報処理装置110をかざしながら、移動している。第1画像61(地点X)は、第1像81、第2像82に加え、さらに、第3対象物73の第5像85を含む。第2画像62(地点Z)は、第3像83、第4像84に加え、第3対象物73の第6像86を含む。
As shown in FIG. 3A, there are a
本例においては、第1動作Op1は、第1像81に対応付けられた第1関連情報41を、第1画像61に重畳して表示させる第3データd3を生成する。第2動作Op2は、第1位置関係51と第2位置関係52との間の変化の状態が第1状態であり、第1像81を基準としたときの第5像85の相対的な第3位置関係53と、第3像を基準としたときの第6像86の相対的な第4位置関係54と、の間の変化の状態が第3状態のときに、第1関連情報41を、第2画像62に重畳して表示させる第4データd4を生成する。第3状態とは、第1状態と同様に、例えば、第3位置関係53と第4位置関係54との間の変化がない、または、変化が小さい状態を含む。すなわち、第3状態とは、第3位置関係53と第4位置関係54とが実質的に変化しない状態を含む。
In this example, the first operation Op1 generates the third data d3 in which the first
図4(a)及び図4(b)は、第1の実施形態に係る検出部21の動作を例示する図である。
図4(a)は、第1画像61を例示する模式図である。
図4(b)は、検出部21の動作例を説明するフローチャート図である。
4 (a) and 4 (b) are diagrams illustrating the operation of the
FIG. 4A is a schematic diagram illustrating the
FIG. 4B is a flowchart illustrating an operation example of the
図4(a)に表すように、情報処理装置110は、地点Xにおいて第1対象物71、第2対象物72、及び第3対象物73を撮像し、それぞれ第1像81、第2像82、及び第5像85を含む第1画像61を取得して画面に表示する。ここで、第1対象物71には文字ラベル「Type B」、第2対象物72には文字ラベル「Type A」、第3対象物73には文字ラベル「Type C」がそれぞれ付与されている。本例においては、第1画像61から文字ラベルを文字認識し、これに基づいて、各対象像(第1像81、第2像82、及び第5像85)の位置を算出すると共に、各対象像の種別を認識する。
As shown in FIG. 4A, the
図4(b)に表すように、検出部21は、第1画像61から複数の対象像(第1像81、第2像82、及び第5像85)を検出する(ステップS1)。例えば、第1画像61において文字認識を行い、文字を含む像を対象像として検出する。画像から文字を検出する技術は、情景文字検出と呼ばれ様々な方法がある。例えば、画像を複数の小領域に分割し、分割した小領域毎に多次元ベクトルで構成される特徴量を抽出する。特徴量としては、例えば、SIFT(Scale-Invariant Feature Transform)などの局所特徴量を利用することができる。例えば、典型的な文字画像のパターン(大文字または小文字の英数字)を登録したデータベースにあるパターンと局所特徴量によって対応付けて、一定数の対応が取れた小領域に対象像が存在すると判断することができる。これにより、第1画像61から、「Type B」を含む第1像81と、「Type A」を含む第2像82と、「Type C」を含む第5像85と、を検出する。
As shown in FIG. 4B, the
次に、検出部21は、各対象像(第1像81、第2像82、及び第5像85)の位置を算出する(ステップS2)。ここでは、複数の文字群に基づき各対象像の位置を算出する。例えば、隣接する文字の固まりを文字列として検出し、検出した文字列を内包する外接矩形の重心を対象像の位置として算出する。
Next, the
次に、検出部21は、各対象像(第1像81、第2像82、及び第5像85)の種別を認識する(ステップS3)。局所特徴量によって対応付けた文字パターンにより、各対象像の種別、すなわち、第1像81の「Type B」、第2像82の「Type A」、及び第5像85の「Type C」をそれぞれ認識する。
Next, the
図5(a)及び図5(b)は、第1の実施形態に係る対応部22の動作を例示する図である。
図5(a)は、関連情報40aを例示する図である。
図5(b)は、対応部22の動作例を説明するフローチャート図である。
5 (a) and 5 (b) are diagrams illustrating the operation of the corresponding
FIG. 5A is a diagram illustrating
FIG. 5B is a flowchart illustrating an operation example of the corresponding
図5(a)に表すように、各対象像(第1像81、第2像82、第5像85)の種別(「Type B」、「Type A」、「Type C」)と、関連情報40a(第1関連情報41、第2関連情報42、第3関連情報43)と、を対応付けるデータベースを保持する。このデータベースは、第1記憶部40に予め格納されている。この例においては、第1像81の「Type B」には、第1対象物71に関する「最初に点検する機器です」(第1関連情報41)が対応する。第2像82の「Type A」には、第2対象物72に関する「メーターが正常範囲かを確認して下さい」(第2関連情報42)が対応する。第5像85の「Type C」には、第3対象物73に関する「スイッチがついているか確認して下さい」(第3関連情報43)が対応する。
As shown in FIG. 5A, it is related to the type (“Type B”, “Type A”, “Type C”) of each target image (
図5(b)に表すように、対応部22は、各対象像の種別に基づいて、データベース(第1記憶部40)を検索し(ステップS11)、各対象像に関連情報を対応付ける(ステップS12)。例えば、第1画像61から検出した第2像82には、「Type A」という種別が付与されている。このため、第2関連情報42、すなわち、「メーターが正常範囲かを確認して下さい」が対応付けられる。同様に、第1像81には、「Type B」という種別が付与されている。このため、第1関連情報41、すなわち、「最初に点検する機器です」が対応付けられる。第5像85には、「Type C」という種別が付与されている。このため、第3関連情報43、すなわち、「スイッチがついているか確認して下さい」が対応付けられる。
As shown in FIG. 5B, the corresponding
なお、ここでは、第1像81が、関連情報を表示させる注目対象像として予め設定されている。このため、第1像81に対応付けられた第1関連情報41が、第1画像61に重畳して表示される。
Here, the
図3(b)に表すように、地点Zにおける第2画像62に対しても同様の処理が実施される。すなわち、検出部21は、第2画像62から複数の対象像(第3像83、第4像84、及び第6像86)を検出する。検出部21は、各対象像の位置を算出し、各対象像の種別を認識する。対応部22は、各対象像の種別に基づいて、データベース(第1記憶部40)を検索し、各対象像に関連情報を対応付ける。例えば、第2画像62から検出した第4像84には、「Type A」という種別が付与されている。このため、第2関連情報42、すなわち、「メーターが正常範囲かを確認して下さい」が対応付けられる。同様に、第3像83には、「Type B」という種別が付与されている。このため、第1関連情報41、すなわち、「最初に点検する機器です」が対応付けられる。第6像86には、「Type C」という種別が付与されている。このため、第3関連情報43、すなわち、「スイッチがついているか確認して下さい」が対応付けられる。
As shown in FIG. 3B, the same processing is performed on the
図6(a)〜図6(d)は、第1の実施形態に係る算出部23の動作を例示する図である。
図6(a)は、算出部23の動作例を説明するフローチャート図である。
図6(b)は、第1相対座標系を例示する模式図である。
図6(c)は、第2相対座標系を例示する模式図である。
図6(d)は、第1〜第4位置関係の算出結果を例示する図である。
6 (a) to 6 (d) are diagrams illustrating the operation of the
FIG. 6A is a flowchart illustrating an operation example of the
FIG. 6B is a schematic diagram illustrating the first relative coordinate system.
FIG. 6C is a schematic diagram illustrating a second relative coordinate system.
FIG. 6D is a diagram illustrating the calculation results of the first to fourth positional relationships.
図6(a)に表すように、算出部23は、地点Xにおいて第1画像61に含まれる複数の対象像(第1像81、第2像82、第5像85)それぞれの座標を取得する(ステップS21)。そして、算出部23は、これら複数の対象像の相対位置関係を算出するため、相対座標系における中心点を決定する(ステップS22)。例えば、図6(b)に表すように、地点Xにおいて画角の中心に最も近い文字列「Type B」を含む第1像81中の第1位置b1を中心点とする第1相対座標系c1を設定する。そして、算出部23は、第1相対座標系c1に基づいて、図6(d)に表すように、第1位置関係51及び第3位置関係53を算出する(ステップS23)。
As shown in FIG. 6A, the
ここで、第1相対座標系c1は、第1軸a1と、第2軸a2と、を含む。第1軸a1は、第1位置b1を通り第1方向D1に延びる。第2軸a2は、第1位置b1を通り第1方向D1と交差する第2方向D2に延びる。第1方向D1は、例えば、第1画像61のX軸方向である。第2方向D2は、例えば、第1画像61のY軸方向である。
Here, the first relative coordinate system c1 includes the first axis a1 and the second axis a2. The first axis a1 passes through the first position b1 and extends in the first direction D1. The second axis a2 extends in the second direction D2 through the first position b1 and intersecting the first direction D1. The first direction D1 is, for example, the X-axis direction of the
第1位置関係51は、第1向きhd1と、第2向きhd2と、を含む。第1向きhd1は、第3方向D3の第1軸a1に沿う向きである。第3方向D3は、第1像81から第2像82に向かう方向である。第2向きhd2は、第3方向D3の第2軸a2に沿う向きである。すなわち、第2像82が第2軸a2よりも右側にあれば、第1向きhd1は右向きとなる。第1向きhd1が右向きの状態を「+」で表す。第2像82が第2軸a2よりも左側にあれば、第1向きhd1は左向きとなる。第1向きhd1が左向きの状態を「−」で表す。また、第2像82が第1軸a1よりも上側にあれば、第2向きhd2は上向きとなる。第2向きhd2が上向きの状態を「+」で表す。第2像82が第1軸a1よりも下側にあれば、第2向きhd2は下向きとなる。第2向きhd2が下向きの状態を「−」で表す。図6(b)の例の場合、第1像81(Type B)と第2像82(Type A)との間の位置関係は、(左側、上側)となるため、(第1向きhd1、第2向きhd2)は、(−、+)と表される。
The first
第3位置関係53は、第5向きhd5と、第6向きhd6と、を含む。第5向きhd5は、第5方向D5の第1軸a1に沿う向きである。第5方向D5は、第1像81から第5像85に向かう方向である。第6向きhd6は、第5方向D5の第2軸a2に沿う向きである。すなわち、第5像85が第2軸a2よりも右側にあれば、第5向きhd5は右向きとなる。第5向きhd5が右向きの状態を「+」で表す。第5像85が第2軸a2よりも左側にあれば、第5向きhd5は左向きとなる。第5向きhd5が左向きの状態を「−」で表す。また、第5像85が第1軸a1よりも上側にあれば、第6向きhd6は上向きとなる。第6向きhd6が上向きの状態を「+」で表す。第5像85が第1軸a1よりも下側にあれば、第6向きhd6は下向きとなる。第6向きhd6が下向きの状態を「−」で表す。図6(b)の例の場合、第1像81(Type B)と第5像85(Type C)との間の位置関係は、(右側、上側)となるため、(第5向きhd5、第6向きhd6)は、(+、+)と表される。
The third
算出部23は、地点Zにおいて第2画像62に対して同様の処理を実施する。つまり、算出部23は、第2画像62に含まれる複数の対象像(第3像83、第4像84、第6像86)それぞれの座標を取得する(ステップS21)。そして、算出部23は、これら複数の対象像の相対位置関係を算出するため、相対座標系における中心点を決定する(ステップS22)。例えば、図6(c)に表すように、地点Zにおいて画角の中心に最も近い文字列「Type B」を含む第3像83の第2位置b2を中心点とする第2相対座標系c2を設定する。そして、算出部23は、第2相対座標系c2に基づいて、図6(d)に表すように、第2位置関係52及び第4位置関係54を算出する(ステップS23)。
The
ここで、第2相対座標系c2は、第3軸a3と、第4軸a4と、を含む。第3軸a3は、第2位置b2を通り第1方向D1に延びる。第4軸a4は、第2位置b2を通り第1方向D2と交差する第2方向D2に延びる。第1方向D1は、例えば、第2画像62のX軸方向である。第2方向D2は、例えば、第2画像62のY軸方向である。
Here, the second relative coordinate system c2 includes the third axis a3 and the fourth axis a4. The third axis a3 passes through the second position b2 and extends in the first direction D1. The fourth axis a4 extends in the second direction D2 through the second position b2 and intersecting the first direction D2. The first direction D1 is, for example, the X-axis direction of the
第2位置関係52は、第3向きhd3と、第4向きhd4と、を含む。第3向きhd3は、第4方向D4の第3軸a3に沿う向きである。第4方向D4は、第3像83から第4像84に向かう方向である。第4向きhd4は、第4方向D4の第4軸a4に沿う向きである。すなわち、第4像84が第4軸a4よりも右側にあれば、第3向きhd3は右向きとなる。第3向きhd3が右向きの状態を「+」で表す。第4像84が第4軸a4よりも左側にあれば、第3向きhd3は左向きとなる。第3向きhd3が左向きの状態を「−」で表す。また、第4像84が第3軸a3よりも上側にあれば、第4向きhd4は上向きとなる。第4向きhd4が上向きの状態を「+」で表す。第4像84が第3軸a3よりも下側にあれば、第4向きhd4は下向きとなる。第4向きhd4が下向きの状態を「−」で表す。図6(c)の例の場合、第3像83(Type B)と第4像84(Type A)との間の位置関係は、(左側、上側)となるため、(第3向きhd3、第4向きhd4)は、(−、+)と表される。
The second
第4位置関係54は、第7向きhd7と、第8向きhd8と、を含む。第7向きhd7は、第6方向D6の第3軸a3に沿う向きである。第6方向D6は、第3像83から第6像86に向かう方向である。第8向きhd8は、第6方向D6の第4軸a4に沿う向きである。すなわち、第6像86が第4軸a4よりも右側にあれば、第7向きhd7は右向きとなる。第7向きhd7が右向きの状態を「+」で表す。第6像86が第4軸a4よりも左側にあれば、第7向きhd7は左向きとなる。第7向きhd7が左向きの状態を「−」で表す。また、第6像86が第3軸a3よりも上側にあれば、第8向きhd8は上向きとなる。第8向きhd8が上向きの状態を「+」で表す。第6像86が第3軸a3よりも下側にあれば、第8向きhd8は下向きとなる。第8向きhd8が下向きの状態を「−」で表す。図6(c)の例の場合、第3像83(Type B)と第6像86(Type C)との間の位置関係は、(右側、上側)となるため、(第7向きhd7、第8向きhd8)は、(+、+)と表される。
The fourth
図7(a)及び図7(b)は、第1の実施形態に係る表示制御部24の動作を例示する図である。
図7(a)は、表示制御部24の動作例を説明するフローチャート図である。
図7(b)は、注目対象像の決定結果を例示する図である。
7 (a) and 7 (b) are diagrams illustrating the operation of the
FIG. 7A is a flowchart illustrating an operation example of the
FIG. 7B is a diagram illustrating the determination result of the target image of interest.
図7(a)及び図7(b)に表すように、表示制御部24は、第1位置関係51と第2位置関係52との間、及び、第3位置関係53と第4位置関係54との間、のそれぞれに実質的な変化があるか否かを判定し(ステップS31)、判定結果に基づいて、表示する関連情報を決定し(ステップS32)、関連情報の表示位置を決定する(ステップS33)。
As shown in FIGS. 7 (a) and 7 (b), the
本例においては、第1方向hd1と第3方向hd3とが同じであり、第2方向hd2と第4方向hd4とが同じである。このため、第1位置関係51と第2位置関係52との間の変化の状態は、第1状態と判定される。また、第5方向hd5と第7方向hd7とが同じであり、第6方向hd6と第8方向hd8とが同じである。このため、第3位置関係53と第4位置関係54との間の変化の状態は、第3状態と判定される。この場合、表示制御部24は、地点Zにおいて位置関係に実質的な変化がないと判定し、地点Xで表示していた関連情報を継続して表示する。一方、地点Zにおいて位置関係が変化していると判定したときは、注目対象像を再度設定し、表示する関連情報を別の関連情報に切り替える。
In this example, the first direction hd1 and the third direction hd3 are the same, and the second direction hd2 and the fourth direction hd4 are the same. Therefore, the state of change between the first
地点X、地点Yにおいては、「Type B」の対象像が注目対象像として決定されていたものとする。地点Zに到着した際に、相対的な位置関係が実質的に変化したか否かを判定する。地点X(及び地点Y)での位置関係と、地点Zでの位置関係と、を比較すると、これらの位置関係は実質的に変化していないことがわかる。そのため、注目対象像は、地点X(及び地点Y)と同じく「Type B」の対象像であると判定できる。この場合、表示すべき関連情報は、第1関連情報41、すなわち、「最初に点検する機器です」と決定できる。
At points X and Y, it is assumed that the target image of "Type B" has been determined as the target image of interest. When arriving at the point Z, it is determined whether or not the relative positional relationship has substantially changed. Comparing the positional relationship at the point X (and the point Y) with the positional relationship at the point Z, it can be seen that these positional relationships have not changed substantially. Therefore, it can be determined that the target image of interest is a “Type B” target image like the point X (and the point Y). In this case, the related information to be displayed can be determined as the first
表示制御部24においては、関連情報の表示位置を適応的に決定してもよい。例えば、注目対象像の周辺で、かつ検出された他の対象像に重ならない位置を表示位置として決定することができる。
The
図8(a)〜図8(c)は、第1の実施形態に係る関連情報の表示結果を例示する模式図である。
図8(a)は、地点Xにおける関連情報の表示結果を例示する図である。
図8(b)は、地点Yにおける関連情報の表示結果を例示する図である。
図8(c)は、地点Zにおける関連情報の表示結果を例示する図である。
8 (a) to 8 (c) are schematic views illustrating the display result of the related information according to the first embodiment.
FIG. 8A is a diagram illustrating a display result of related information at the point X.
FIG. 8B is a diagram illustrating the display result of the related information at the point Y.
FIG. 8C is a diagram illustrating a display result of related information at the point Z.
図3(a)に表したように、実空間RSには、第1対象物71、第2対象物72、及び第3対象物73が存在する。情報処理装置110には、例えば、第1対象物71に関する第1関連情報41が表示されており、作業者80は第1関連情報41を見ながら、第1〜第3対象物71〜73に接近する。作業者80は、地点X、地点Y、地点Zの順に移動する。作業者80は、これら複数の対象物に対して、情報処理装置110をかざしながら、移動している。
As shown in FIG. 3A, the real space RS has a
図8(a)に表すように、第1画像61(地点X)は、第1像81、第2像82に加え、さらに、第3対象物73の第5像85を含む。図8(c)に表すように、第2画像62(地点Z)は、第3像83、第4像84に加え、さらに、第3対象物73の第6像86を含む。地点Xと地点Zとにおいて、複数の対象像の相対的な位置関係に実質的な変化はない。このため、地点Zにおいて、地点Xで表示していた第1関連情報41が継続して表示される。
As shown in FIG. 8A, the first image 61 (point X) includes the
なお、上記の実施例では、地点Xの第1画像、地点Yの第2画像、地点Zの第3画像において対象物が正確に検出された状況を想定している。しかし、連続する、ある画像で対象物が一瞬検出されなかった場合でも、前後の画像により未検出の対象物を補完することによって、相対的な位置関係が変化したかどうかを判断すれば良い。例えば、ユーザから見た風景中に複数の建物を撮像する場合、撮像機器を保持したユーザ自身が移動するために、画像がぼけたり、障害物等によって対象となる建物が一瞬だけ隠れることがある。この場合、前後の画像の検出対象物を補完して対応してもよいし、撮像画像のすべてを処理対象とせず、所定のフレーム間隔で処理してもよい。さらに、例えば、所定のコースを移動する車や荷物など、対象物が動く場合でも同様である。これらは、所定の状況によって切り替える手段を別途用意して、ユーザの指示によって処理を付け加えてもよい。 In the above embodiment, it is assumed that the object is accurately detected in the first image of the point X, the second image of the point Y, and the third image of the point Z. However, even if an object is not detected for a moment in a continuous image, it is sufficient to determine whether or not the relative positional relationship has changed by complementing the undetected object with the images before and after. For example, when a plurality of buildings are imaged in a landscape seen by the user, the image may be blurred or the target building may be hidden for a moment due to an obstacle or the like because the user holding the imaging device moves. .. In this case, the detection objects of the preceding and following images may be complemented and dealt with, or all the captured images may not be processed and may be processed at predetermined frame intervals. Further, the same applies when an object moves, for example, a car or luggage moving on a predetermined course. For these, a means for switching according to a predetermined situation may be separately prepared, and processing may be added according to a user's instruction.
このように、実施形態によれば、作業者の移動によって画像におさまる複数の対象像の位置が変化しても、これら複数の対象像の相対的な位置関係が変化しなければ、同じ関連情報を継続して表示することができる。このため、関連情報を見易く表示することが可能となる。 As described above, according to the embodiment, even if the positions of the plurality of target images that fit in the image change due to the movement of the worker, the same related information does not change as long as the relative positional relationship of the plurality of target images does not change. Can be displayed continuously. Therefore, it is possible to display the related information in an easy-to-read manner.
(第2の実施形態)
図9は、第2の実施形態に係る情報処理装置を例示するブロック図である。
図9に表すように、実施形態に係る情報処理装置111は、さらに、設定部25が設けられている。
(Second Embodiment)
FIG. 9 is a block diagram illustrating an information processing apparatus according to the second embodiment.
As shown in FIG. 9, the
処理部20は、第1位置関係51を導出する動作をさらに実施する。導出の動作は、第1像81の中心と第1画像61の中心との距離が、第2像82の中心と第1画像61の中心との距離よりも短い状態が所定時間継続したときに、第1位置関係51を導出することを含む。第1位置関係51は、第1像81を基準としたときに第2像82の相対的な位置関係である。設定部25は、第1像81を基準に設定する。つまり、第1像81を、注目対象像に設定する。
The
図10(a)及び図10(b)は、第2の実施形態に係る情報処理装置の適用例を示す模式図である。
図10(a)は、複数の対象物を例示する模式図である。
図10(b)は、作業者80が情報処理装置111を持って複数の対象物を撮像した様子を例示する模式図である。
10 (a) and 10 (b) are schematic views showing an application example of the information processing apparatus according to the second embodiment.
FIG. 10A is a schematic diagram illustrating a plurality of objects.
FIG. 10B is a schematic view illustrating a state in which the
図10(a)に表すように、実空間RSには、複数の対象物として、文字列「Type B」を含む第1対象物71と、文字列「Type A」を含む第2対象物72と、文字列「Type C」を含む第3対象物73と、文字列「Type D」を含む第4対象物74と、文字列「Type E」を含む第5対象物75と、が設けられている。
As shown in FIG. 10A, in the real space RS, as a plurality of objects, a
図10(b)に表すように、情報処理装置111は、第1〜第5対象物71〜75を撮像した第1画像61を表示する。第1画像61は、第1対象物71の第1像81と、第2対象物72の第2像82と、第3対象物73の第5像85と、第4対象物74の第7像87と、第5対象物75の第8像88と、を含む。
As shown in FIG. 10B, the
情報処理装置111は、例えば、カメラ(撮像部60)を備えたタブレット端末である。このように、実空間RSに複数の対象物が存在し、作業者80が複数の対象物に対して情報処理装置111をかざしている状況を想定する。本実施形態においては、注目対象像を設定する設定部25が追加される。この設定部25の動作例について以下に説明する。
The
図11(a)及び図11(b)は、第2の実施形態に係る設定部25の動作を例示する図である。
図11(a)は、設定部25の動作例を説明するフローチャート図である。
図11(b)は、設定部25の動作を例示する模式図である。
11 (a) and 11 (b) are diagrams illustrating the operation of the
FIG. 11A is a flowchart illustrating an operation example of the
FIG. 11B is a schematic diagram illustrating the operation of the
図11(a)に表すように、設定部25は、第1画像61に対して注目対象像の位置を推定するための座標を指定する(ステップS41)。例えば、表示部30に座標入力のためのタッチパネル等を搭載して入力しても良い。または、画角に存在する特定の領域を座標として指定しても良い。ここでは、図11(b)に表すように、画角の中心座標61aを指定する。第1〜第5対象物71〜75に対応する5つの像81、82、85、87、88のうち、「Type B」の第1像81が最も中心座標61aに近い。このため、「Type B」の第1像81を、候補対象像として決定する(ステップS42)。
As shown in FIG. 11A, the setting
設定部25は、継続時間を測定する(ステップS43)。例えば、閾値を2秒とした場合、2秒以上、情報処理装置111の画角を固定することで、第1像81を、注目対象像に設定する(ステップS44)。
The setting
すなわち、第1像81の中心と第1画像61の中心座標61aとの距離は、第2像82の中心と第1画像61の中心座標61aとの距離よりも短い。この位置関係が所定時間継続したときに、第1像81を、注目対象像に設定する。これにより、第1位置関係51が導出される。なお、第1像81と、第5像85、第7像87及び第8像88のそれぞれと、の間のそれぞれの位置関係についても、第1像81と第2像82との間の位置関係と同様である。
That is, the distance between the center of the
さらに、表示制御部24においては、作業者80が明示的に注目対象像を設定した後は、相対位置関係が変化しない限り、注目対象像に関する関連情報の表示を継続するように制御する。
Further, the
図12(a)〜図12(c)は、第2の実施形態に係る関連情報の表示結果を例示する模式図である。
図12(a)は、地点Xにおける関連情報の表示結果を例示する図である。
図12(b)は、地点Yにおける関連情報の表示結果を例示する図である。
図12(c)は、地点Zにおける関連情報の表示結果を例示する図である。
12 (a) to 12 (c) are schematic views illustrating the display result of the related information according to the second embodiment.
FIG. 12A is a diagram illustrating the display result of the related information at the point X.
FIG. 12B is a diagram illustrating the display result of the related information at the point Y.
FIG. 12C is a diagram illustrating the display result of the related information at the point Z.
図10(a)に表したように、実空間RSには、第1〜第5対象物71〜75が存在する。本例における地点X、Y、Zは、図3(b)に示す地点X、Y、Zと同様である。情報処理装置111には、例えば、第1対象物71に関する第1関連情報41が表示されており、作業者80は第1関連情報41を見ながら、第1〜第5対象物71〜75に接近する。作業者80は、地点X、地点Y、地点Zの順に移動する。作業者80は、これら複数の対象物に対して、情報処理装置111をかざしながら、移動している。
As shown in FIG. 10A, there are 71st to
図12(a)に表すように、第1画像61(地点X)は、第1像81、第2像82及び第5像85に加え、さらに、第4対象物74の第7像87、第5対象物75の第8像88を含む。図12(c)に表すように、第2画像62(地点Z)は、第3像83、第4像84及び第6像86に加え、さらに、第4対象物74の第9像89、第5対象物75の第10像90を含む。地点Xと地点Zとにおいて、複数の対象像の相対的な位置関係に実質的な変化はない。このため、地点Zにおいて、地点Xで表示していた第1関連情報41が継続して表示される。
As shown in FIG. 12A, the first image 61 (point X) includes the
このように、実施形態によれば、設定部を設けることで、作業者が所望の注目対象像を設定することができる、さらに、設定した注目対象像に関する関連情報の表示を継続できるため、関連情報を見易く提供することが可能となる。 As described above, according to the embodiment, by providing the setting unit, the operator can set the desired target image of interest, and further, the display of the related information regarding the set target image of interest can be continued. It is possible to provide information in an easy-to-read manner.
(第3の実施形態)
図13(a)及び図13(b)は、第3の実施形態に係る情報処理装置の適用例を示す模式図である。
図13(a)は、複数の対象物を例示する模式図である。
図13(b)は、作業者80が情報処理装置112を持って複数の対象物を撮像しながら地点Xから地点Zまで移動する様子を例示する模式図である。
(Third Embodiment)
13 (a) and 13 (b) are schematic views showing an application example of the information processing apparatus according to the third embodiment.
FIG. 13A is a schematic diagram illustrating a plurality of objects.
FIG. 13B is a schematic view illustrating how the
図13(a)に表すように、実空間RSには、第1〜第5対象物71〜75が存在する。図13(b)に表すように、情報処理装置112は、例えば、カメラ(撮像部60)を備えたタブレット端末である。情報処理装置112には、例えば、第1対象物71に関する第1関連情報41が表示されており、作業者80は第1関連情報41を見ながら、第1〜第5対象物71〜75に接近する。作業者80は、地点X、地点Y、地点Zの順に移動する。作業者80は、これら複数の対象物に対して、情報処理装置112をかざしながら、移動している。第1画像61(地点X)は、第1像81、第2像82及び第5像85に加え、さらに、第4対象物74の第7像87、第5対象物75の第8像88を含む。第2画像62(地点Z)は、第3像83、第4像84及び第6像86に加え、さらに、第4対象物74の第9像89、第5対象物75の第10像90を含む。
As shown in FIG. 13A, there are 71st to
図14(a)及び図14(b)は、第3の実施形態に係る算出部23の動作を例示する図である。
図14(a)は、算出部23の動作例を説明するフローチャート図である。
図14(b)は、対象像の位置関係の算出結果を例示する図である。
14 (a) and 14 (b) are diagrams illustrating the operation of the
FIG. 14A is a flowchart illustrating an operation example of the
FIG. 14B is a diagram illustrating the calculation result of the positional relationship of the target image.
本実施形態においては、第1画像61に表示される全ての対象像の中から、注目対象像と距離の近い対象像を選択的に抽出し、抽出した対象像のみを用いて相対位置関係の変化を判定する。
In the present embodiment, a target image having a close distance to the target image of interest is selectively extracted from all the target images displayed on the
すなわち、算出部23は、第1画像61(地点X)に含まれる複数の対象像、すなわち、第1像81、第2像82、第5像85、第7像87、及び第8像88のそれぞれの座標を取得する(ステップS51)。算出部23は、複数の対象像間の相対的な位置関係を算出する。これにより、相対座標系の中心点を決定する(ステップS52)。例えば、地点Xにおいて画角の中心に最も近い「Type B」の第1像81を注目対象像として決定し、第1像81の位置を、相対座標系の中心点として決定する。
That is, the
「Type B」の第1像81を基準としたときに、「Type A」の第2像82と、「Type C」の第5像85と、「Type D」の第7像87と、「Type E」の第8像88と、のそれぞれについて、相対的な位置関係を算出する。この位置関係の算出方法は、前述の図6(a)〜図6(d)で説明した通りである。そしてさらに、第1像81の大きさなどに基づいて基準距離を設定し、第1像81と、他の像それぞれ(第2像82、第5像85、第7像87、第8像88)との距離を求める。
Based on the
図14(b)に表すように、「Type B」の第1像81と、「Type A」の第2像82との関係においては、第2像82は、第1像81の(左側、上側)に位置する。さらに、第1像81と第2像82との間の距離は、例えば、基準距離の5倍である。このため、これを(−、+、5)と表現する。同様に、「Type B」の第1像81と、「Type C」の第5像85との関係においては、(+、+、5)と表現できる。「Type B」の第1像81と、「Type D」の第7像87との関係においては、(−、+、15)と表現できる。「Type B」の第1像81と、「Type E」の第8像88との関係においては、(+、+、15)と表現できる。
As shown in FIG. 14B, in the relationship between the
ここで、算出部23は、第1像81の位置から一定の範囲内に位置する対象像(ここでは、第2像82、第5像85)のみを選択的に抽出し、抽出した対象像による相対的な位置関係のみを、比較の対象とする。例えば、距離の閾値を、「10」と設定した場合、「Type D」の第7像87の相対的な位置関係と、「Type E」の第8像88の相対的な位置関係とは、比較対象として考慮されない。つまり、「Type D」と「Type E」とは無視される。従って、第2画像62(地点Z)においては、「Type D」の第9像89の相対的な位置関係と、「Type E」の第10像90の相対的な位置関係とは、算出されず、比較対象として考慮されない。
Here, the
図15(a)及び図15(b)は、第3の実施形態に係る表示制御部24の動作を例示する図である。
図15(a)は、表示制御部24の動作例を説明するフローチャート図である。
図15(b)は、注目対象像の決定結果を例示する図である。
15 (a) and 15 (b) are diagrams illustrating the operation of the
FIG. 15A is a flowchart illustrating an operation example of the
FIG. 15B is a diagram illustrating the determination result of the target image of interest.
図15(a)に表すように、表示制御部24は、地点X(及び地点Y)における位置関係と、地点Zにおける位置関係と、の間に実質的な変化があるか否かを判定し(ステップS61)、判定結果に基づいて、表示する関連情報を決定し(ステップS62)、関連情報の表示位置を決定する(ステップS63)。
As shown in FIG. 15A, the
本例においては、第1方向hd1と第3方向hd3とが同じであり、第2方向hd2と第4方向hd4とが同じである。このため、第1位置関係51と第2位置関係52との間の変化の状態は、第1状態と判定される。また、第5方向hd5と第7方向hd7とが同じであり、第6方向hd6と第8方向hd8とが同じである。このため、第3位置関係53と第4位置関係54との間の変化の状態は、第3状態と判定される。この場合、表示制御部24は、地点Zにおいて位置関係に実質的な変化がないと判定し、地点Xで表示していた関連情報を継続して表示する。一方、地点Zにおいて位置関係が変化していると判定したときは、注目対象像を再度設定し、表示する関連情報を別の関連情報に切り替える。
In this example, the first direction hd1 and the third direction hd3 are the same, and the second direction hd2 and the fourth direction hd4 are the same. Therefore, the state of change between the first
地点X、地点Yにおいては、「Type B」の対象像が注目対象像として決定されていたものとする。地点Zに到着した際に、相対的な位置関係が実質的に変化したか否かを判定する。地点X(及び地点Y)での位置関係と、地点Zでの位置関係と、を比較すると、これらの位置関係は実質的に変化していないことがわかる。そのため、注目対象像は、地点X(及び地点Y)と同じく「Type B」の対象像であると判定できる。この場合、表示すべき関連情報は、第1関連情報41、すなわち、「最初に点検する機器です」と決定できる。
At points X and Y, it is assumed that the target image of "Type B" has been determined as the target image of interest. When arriving at the point Z, it is determined whether or not the relative positional relationship has substantially changed. Comparing the positional relationship at the point X (and the point Y) with the positional relationship at the point Z, it can be seen that these positional relationships have not changed substantially. Therefore, it can be determined that the target image of interest is a “Type B” target image like the point X (and the point Y). In this case, the related information to be displayed can be determined as the first
表示制御部24においては、関連情報の表示位置を適応的に決定してもよい。例えば、注目対象像の周辺で、かつ検出された他の対象像に重ならない位置を表示位置として決定することができる。
The
図16(a)〜図16(c)は、第3の実施形態に係る関連情報の表示結果を例示する模式図である。
図16(a)は、地点Xにおける関連情報の表示結果を例示する図である。
図16(b)は、地点Yにおける関連情報の表示結果を例示する図である。
図16(c)は、地点Zにおける関連情報の表示結果を例示する図である。
16 (a) to 16 (c) are schematic views illustrating the display result of the related information according to the third embodiment.
FIG. 16A is a diagram illustrating a display result of related information at the point X.
FIG. 16B is a diagram illustrating the display result of the related information at the point Y.
FIG. 16C is a diagram illustrating a display result of related information at the point Z.
図13(a)に表したように、実空間RSには、第1〜第5対象物71〜75が存在する。本例における地点X、Y、Zは、図13(b)に示す地点X、Y、Zと同様である。情報処理装置112には、例えば、第1対象物71に関する第1関連情報41が表示されており、作業者80は第1関連情報41を見ながら、第1〜第5対象物71〜75に接近する。作業者80は、地点X、地点Y、地点Zの順に移動する。作業者80は、これら複数の対象物に対して、情報処理装置112をかざしながら、移動している。
As shown in FIG. 13A, there are 71st to
図16(a)に表すように、第1画像61(地点X)は、第1像81、第2像82及び第5像85に加え、さらに、第4対象物74の第7像87、第5対象物75の第8像88を含む。しかしながら、第7像87と第8像88とは相対位置関係の比較の対象にはならない。点線で囲まれた第1像81、第2像82及び第5像85のみが相対位置関係の比較の対象とされる。図16(c)に表すように、第2画像62(地点Z)は、第3像83、第4像84及び第6像86のみを含む。すなわち、第2画像62には、第4対象物74の第9像89、第5対象物75の第10像90は含まれていないが、これらの対象像の相対位置関係は、比較対象として考慮されていない。このため、地点Zにおいて、地点Xで表示していた第1関連情報41がそのまま継続して表示される。
As shown in FIG. 16A, the first image 61 (point X) includes the
このように、実施形態によれば、多くの対象像が表示されるときに、注目対象像と距離の近い対象像に絞って相対位置関係を算出、比較することができる。このため、演算処理を迅速に実施することが可能となる。 As described above, according to the embodiment, when many target images are displayed, the relative positional relationship can be calculated and compared by focusing on the target images having a short distance from the target image of interest. Therefore, the arithmetic processing can be executed quickly.
(第4の実施形態)
図17(a)及び図17(b)は、第4の実施形態に係る情報処理装置の適用例を示す模式図である。
図17(a)は、複数の対象人物を例示する模式図である。
図17(b)は、案内者80aが情報処理装置113を持って複数の対象人物を撮像した様子を例示する模式図である。
(Fourth Embodiment)
17 (a) and 17 (b) are schematic views showing an application example of the information processing apparatus according to the fourth embodiment.
FIG. 17A is a schematic diagram illustrating a plurality of target persons.
FIG. 17B is a schematic view illustrating a state in which the
情報処理装置113は、例えば、カメラ(撮像部60)を備えたタブレット端末である。本実施形態においては、実空間の中に複数の人物が存在している。これに対して、案内者80aが情報処理装置113をかざして、注目人物に応じた案内のインストラクションを確認する状況を想定する。
The
図17(a)に表すように、実空間RSには、複数の対象人物として、「10代未満女性」の第1対象人物91と、「30代女性」の第2対象人物92と、「40代男性」の第3対象人物93と、が存在する。
As shown in FIG. 17A, in the real space RS, as a plurality of target persons, a
図17(b)に表すように、情報処理装置113は、第1〜第3対象人物91〜93を撮像した第1画像61を表示する。第1画像61は、第1対象人物91の第1像101と、第2対象人物92の第2像102と、第3対象人物93の第3像103と、を含む。
As shown in FIG. 17B, the
図18(a)及び図18(b)は、第4の実施形態に係る検出部21の動作を例示する図である。
図18(a)は、第1画像61を例示する模式図である。
図18(b)は、検出部21の動作例を説明するフローチャート図である。
18 (a) and 18 (b) are diagrams illustrating the operation of the
FIG. 18A is a schematic diagram illustrating the
FIG. 18B is a flowchart illustrating an operation example of the
図18(a)に表すように、各対象人物の像はそれぞれ顔を含む。図18(b)に表すように、検出部21は、顔を検出する(ステップS71)。顔検出の技術には、様々な方法がある。例えば、画像において様々なサイズのウィンドウを走査させながら、顔の有無を検出する。これによれば、大小サイズの異なる顔に対応できる。個々のウィンドウに対して、顔の構造的な特徴を表現する輝度変化の共起パターンを用いて顔の有無を判断する。これにより、照明条件の変動や肌の色の違いなどの影響を抑制することが可能となる。
As shown in FIG. 18A, each target person's image includes a face. As shown in FIG. 18B, the
検出部21は、顔の特徴点を検出する(ステップS72)。検出した顔領域から、目・鼻・口などの顔の構造的な特徴を表す位置(特徴点)を抽出する。この顔特徴点検出により、対象とする人物像の位置を合わせて取得することができる。
The
検出部21は、属性を認識する(ステップS73)。属性認識では、検出した顔の様々な属性を判定する。具体例として、性別と年齢を挙げることができる。検出した顔毎に、男性か女性かを区別し、年齢層を10代ごとにクラス分けする。性別や年齢層の識別方法としては、検出した顔の特徴点に基づいて、顔の特徴点と、参照する顔のモデルとの対応付けを行う。顔の向きを正面に補正した上で、事前にクラス毎に収集した顔のパターンから辞書を作成し、辞書との距離が近いクラスを分類結果として出力する。
The
図19(a)及び図19(b)は、第4の実施形態に係る対応部22の動作を例示する図である。
図19(a)は、関連情報40aを例示する図である。
図19(b)は、対応部22の動作例を説明するフローチャート図である。
19 (a) and 19 (b) are diagrams illustrating the operation of the corresponding
FIG. 19A is a diagram illustrating
FIG. 19B is a flowchart illustrating an operation example of the corresponding
図19(a)に表すように、対象人物像の属性種別と、関連情報40aと、を対応付けるデータベースを保持する。このデータベースは、第1記憶部40に予め格納されている。
As shown in FIG. 19A, it holds a database that associates the attribute type of the target person image with the
図19(b)に表すように、対応部22は、各対象人物像の属性種別に基づいて、データベース(第1記憶部40)を検索し(ステップS81)、各対象人物像に関連情報を対応付ける(ステップS82)。対応部22では、画像から検出した顔属性の種別と、関連情報を対応付けるデータベースを保持することができる。例えば、「10代未満女性」の第1像101が注目対象人物像として設定されていたとする。これに基づきデータベースを参照すると、「10代未満」の条件に合致するために、第4関連情報44、すなわち、「子供向け×××イベントが30分後開催されます。案内下さい。」が対応付けされる。
As shown in FIG. 19B, the corresponding
図20は、第4の実施形態に係る関連情報の表示結果を例示する模式図である。
図20に表すように、情報処理装置113には、「10代未満の女性」の第1像101に、第4関連情報44、すなわち、「子供向け×××イベントが30分後開催されます。案内下さい。」が表示される。
FIG. 20 is a schematic diagram illustrating the display result of the related information according to the fourth embodiment.
As shown in FIG. 20, in the
このように、顔を対象とした場合にも、人物の属性種別に合った関連情報を利用者(案内者)に提示することが可能となる。この場合においても、対象とする人物の相対的な位置関係が変わらなければ、同じ関連情報を継続して表示することができる。このため、関連情報を見易く表示することが可能となる。 In this way, even when the face is targeted, it is possible to present the related information suitable for the attribute type of the person to the user (guide). Even in this case, the same related information can be continuously displayed as long as the relative positional relationship of the target person does not change. Therefore, it is possible to display the related information in an easy-to-read manner.
(第5の実施形態)
図21は、第5の実施形態に係る情報処理装置を例示するブロック図である。
図21に表すように、実施形態に係る情報処理装置114は、さらに、操作入力部26が設けられている。
(Fifth Embodiment)
FIG. 21 is a block diagram illustrating an information processing apparatus according to a fifth embodiment.
As shown in FIG. 21, the
処理部20は、相対位置関係の基準とする注目対象像を、第1像81から第2像82に変更する動作をさらに実施する。変更の動作は、第2像82に対応付けられた第2関連情報42(図5(a)参照)を、第1画像61に重畳して表示させる第5データd5を生成することを含む。処理部20は、操作入力部26により受け付けた操作入力に基づいて、変更の動作を実施する。
The
図22(a)〜図22(c)は、第5の実施形態に係る情報処理装置の適用例を示す図である。
図22(a)は、操作入力部26を例示するブロック図である。
図22(b)は、操作領域の画面表示例を示す模式図である。
図22(c)は、操作方向と対象像との関係を例示する図である。
22 (a) to 22 (c) are diagrams showing an application example of the information processing apparatus according to the fifth embodiment.
FIG. 22A is a block diagram illustrating the
FIG. 22B is a schematic diagram showing a screen display example of the operation area.
FIG. 22C is a diagram illustrating the relationship between the operation direction and the target image.
情報処理装置114は、例えば、カメラ(撮像部60)を備えたタブレット端末である。本実施形態においては、実空間に複数の対象物が存在し、作業者80が情報処理装置114をかざしている状況を想定する。
The
図22(a)に表すように、操作入力部26は、操作取得部26aと、相対座標算出部26bと、対象像変更部26cと、を含む。操作入力部26は、検出部21から入力された複数の対象像の位置と、設定部25で設定された注目対象像と、さらには、操作入力部26に入力される操作方向と、に基づいて、注目対象像を変更する。例えば、「Type B」の第1像81が注目対象像に設定されている場合、注目対象像を、「Type A」の第2像82または「Type C」の第5像85に変更する変更処理を実施する。
As shown in FIG. 22A, the
操作取得部26aは、図22(b)に表すように、情報処理装置114の表示画面上に設けられた操作領域26dにおいて、作業者80によるドラッグ方向を検知して操作方向を取得する。ここでは右上に操作したとする。
As shown in FIG. 22B, the
相対座標算出部26bは、算出部23で求めた注目対象像(第1像81)を起点とした相対座標(第1位置関係51、第3位置関係53)に基づいて、どの方向にどの対象像が存在するかを求める。本例においては、X軸及びY軸にて操作方向を分割し、4象限、つまり、(−、−)、(−、+)、(+、+)、(+、−)のそれぞれの位置に存在する対象像を特定する。図22(c)に算出結果を示す。
The relative coordinate
対象像変更部26cは、操作取得部26aで取得した操作方向と、相対座標算出部26bで特定した対象像と、を対応付けて、注目対象像を変更する。ここでは、第1像81の右上(相対座標(+、+))に位置する「Type C」の第5像85に注目対象像が変更される。または、第1像81の左上(相対座標(−、+))に位置する「Type A」の第2像82に注目対象像が変更される。
The target
図23(a)〜図23(c)は、第5の実施形態に係る関連情報の表示結果を例示する模式図である。
図23(a)は、操作前における関連情報の表示結果を例示する図である。
図23(b)は、操作中の画面を例示する図である。
図23(c)は、操作後における関連情報の表示結果を例示する図である。
23 (a) to 23 (c) are schematic views illustrating the display results of the related information according to the fifth embodiment.
FIG. 23A is a diagram illustrating a display result of related information before the operation.
FIG. 23B is a diagram illustrating a screen during operation.
FIG. 23 (c) is a diagram illustrating a display result of related information after the operation.
図23(a)〜図23(c)に表すように、操作入力部26により第5像85に注目対象像が変更されると、表示制御部24は、第5像85に対応付けられている第3関連情報43を、第1画像61に重畳して表示させる。
As shown in FIGS. 23 (a) to 23 (c), when the
一方、操作入力部26により第2像82に注目対象像が変更されると、表示制御部24は、第2像82に対応付けられている第2関連情報42を、第1画像61に重畳して表示させる。
On the other hand, when the
なお、操作入力部26により注目対象像を選択する方法としては、画面上の対象像を直接タッチして注目対象像を選択する方法、トグル操作により注目対象像を選択する方法、同じ方向に複数の対象像がある場合でもドラッグ操作の長さに応じて注目対象像を選択する方法、など様々な実現手段が考えられる。
The method of selecting the target image of interest by the
このように、実施形態によれば、作業者が注目対象像を主体的に変更する操作入力部を備えることで、関連情報の継続表示を終了したいタイミングにおいて、関連情報の表示内容を切り替えることができる。これにより、関連情報の見易い表示が可能となる。 As described above, according to the embodiment, by providing the operation input unit for the operator to independently change the image of interest, the display content of the related information can be switched at the timing when the continuous display of the related information is desired to be completed. it can. This makes it possible to display related information in an easy-to-read manner.
(第6の実施形態)
図24は、第6の実施形態に係る情報処理装置を例示するブロック図である。
実施形態に係る情報処理装置115は、デスクトップ型またはラップトップ型の汎用計算機、携帯型の汎用計算機、その他の携帯型の情報機器、撮像デバイスを有する情報機器、スマートフォン、その他の情報処理装置など、様々なデバイスによって実現可能である。
(Sixth Embodiment)
FIG. 24 is a block diagram illustrating an information processing apparatus according to a sixth embodiment.
The
図24に表すように、実施形態の情報処理装置115は、ハードウェアの構成例として、CPU201と、入力部202と、出力部203と、RAM204と、ROM205と、外部メモリインターフェイス206と、通信インターフェイス207と、を含む。
As shown in FIG. 24, the
上述の実施形態の中で示した処理手順に示された指示は、ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用の計算機システムが、このプログラムを予め記憶しておき、このプログラムを読み込むことにより、上述した実施形態の情報処理装置による効果と同様な効果を得ることも可能である。上述の実施形態に記載された指示は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RWなど)、半導体メモリ、またはこれに類する記録媒体に記録される。コンピュータまたは組み込みシステムが読み取り可能な記録媒体であれば、その記憶形式は何れの形態であってもよい。コンピュータは、この記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させれば、上述した実施形態の情報処理装置と同様な動作を実現することができる。もちろん、コンピュータがプログラムを取得する場合または読み込む場合はネットワークを通じて取得または読み込んでもよい。 The instructions given in the processing procedure shown in the above embodiments can be executed based on a program that is software. By storing this program in advance in a general-purpose computer system and reading this program, it is possible to obtain an effect similar to the effect of the information processing apparatus of the above-described embodiment. The instructions described in the above-described embodiments are the programs that can be executed by the computer, such as a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD-ROM, CD-R, CD-RW, DVD-ROM, DVD). It is recorded on a recording medium (± R, DVD ± RW, etc.), a semiconductor memory, or a similar recording medium. The storage format may be any form as long as it is a recording medium that can be read by a computer or an embedded system. The computer can realize the same operation as the information processing apparatus of the above-described embodiment by reading the program from the recording medium and executing the instruction described in the program based on the program on the CPU. Of course, if the computer acquires or loads the program, it may acquire or load it through the network.
また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等で動作するMW(ミドルウェア)などが実施形態を実現するための各処理の一部を実行してもよい。 In addition, an OS (operating system) running on a computer based on instructions of a program installed on a computer or an embedded system from a recording medium, database management software, MW (middleware) running on a network, or the like is an embodiment. A part of each process for realizing it may be executed.
さらに、実施形態における記録媒体は、コンピュータあるいは組み込みシステムと独立した記録媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記録媒体も含まれる。また、記録媒体は1つに限らず、複数の記録媒体から実施形態における処理が実行される場合も、実施形態における記録媒体に含まれる。記録媒体の構成は何れの構成であってもよい。 Further, the recording medium in the embodiment is not limited to a recording medium independent of a computer or an embedded system, but also includes a recording medium in which a program transmitted by a LAN, the Internet, or the like is downloaded and stored or temporarily stored. Further, the recording medium is not limited to one, and the case where the processing in the embodiment is executed from a plurality of recording media is also included in the recording medium in the embodiment. The structure of the recording medium may be any structure.
なお、実施形態におけるコンピュータまたは組み込みシステムは、記録媒体に記憶されたプログラムに基づき、実施形態における各処理を実行するためのものであって、パーソナルコンピュータ、マイクロコンピュータ等の1つからなる装置、あるいは、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。 The computer or embedded system in the embodiment is for executing each process in the embodiment based on the program stored in the recording medium, and is a device including one such as a personal computer and a microcomputer, or , A system in which a plurality of devices are connected to a network, or the like may be used.
また、実施形態におけるコンピュータとは、パーソナルコンピュータに限らず、情報処理機器に含まれる演算処理装置、マイクロコンピュータ等も含み、プログラムによって実施形態における機能を実現することが可能な機器、装置を総称している。 Further, the computer in the embodiment is not limited to a personal computer, but also includes an arithmetic processing device, a microcomputer, etc. included in an information processing device, and is a general term for devices and devices capable of realizing the functions in the embodiment by a program. ing.
実施形態によれば、対象物に関連する関連情報を見易く表示可能な情報処理装置、情報処理方法及び情報処理プログラムが提供できる。 According to the embodiment, it is possible to provide an information processing device, an information processing method, and an information processing program capable of easily displaying related information related to an object.
以上、具体例を参照しつつ、本発明の実施の形態について説明した。しかし、本発明は、これらの具体例に限定されるものではない。例えば、取得部、処理部などの各要素の具体的な構成に関しては、当業者が公知の範囲から適宜選択することにより本発明を同様に実施し、同様の効果を得ることができる限り、本発明の範囲に包含される。 The embodiments of the present invention have been described above with reference to specific examples. However, the present invention is not limited to these specific examples. For example, regarding the specific configuration of each element such as the acquisition unit and the processing unit, the present invention can be similarly carried out by appropriately selecting from a range known to those skilled in the art, and as long as the same effect can be obtained. It is included in the scope of the invention.
また、各具体例のいずれか2つ以上の要素を技術的に可能な範囲で組み合わせたものも、本発明の要旨を包含する限り本発明の範囲に含まれる。 Further, a combination of any two or more elements of each specific example to the extent technically possible is also included in the scope of the present invention as long as the gist of the present invention is included.
その他、本発明の実施の形態として上述した情報処理装置、情報処理方法及び情報処理プログラムを基にして、当業者が適宜設計変更して実施し得る全ての情報処理装置、情報処理方法及び情報処理プログラムも、本発明の要旨を包含する限り、本発明の範囲に属する。 In addition, based on the above-mentioned information processing device, information processing method, and information processing program as an embodiment of the present invention, all information processing devices, information processing methods, and information processing that can be appropriately designed and implemented by those skilled in the art. The program also belongs to the scope of the present invention as long as it includes the gist of the present invention.
その他、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変更例及び修正例についても本発明の範囲に属するものと了解される。 In addition, within the scope of the idea of the present invention, those skilled in the art can come up with various modified examples and modified examples, and it is understood that these modified examples and modified examples also belong to the scope of the present invention. ..
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.
10…取得部、 20…処理部、 21…検出部、 22…対応部、 23…算出部、 24…表示制御部、 25…設定部、 26…操作入力部、 26a…操作取得部、 26b…相対座標算出部、 26c…対象像変更部、 26d…操作領域、 30…表示部、 40…第1記憶部、 40a…関連情報、 41〜44…第1〜第4関連情報、 50…第2記憶部、 50a…位置関係、 51〜54…第1〜第4位置関係、 60…撮像部、 61、62…第1、第2画像、 61a…中心座標、 71〜75…第1〜第5対象物、 80…作業者、 80a…案内者、 81〜90…第1〜第10像、 91〜93…第1〜第3対象人物、 101〜103…第1〜第3像、 110〜115…情報処理装置、 201…CPU、 202…入力部、 203…出力部、 204…RAM、 205…ROM、 206…外部メモリインターフェイス、 207…通信インターフェイス、 a1〜a4…第1〜第4軸、 b1、b2…第1、第2位置、 c1、c2…第1、第2相対座標系、 d1〜d5…第1〜第5データ、 hd1〜hd8…第1〜第8向き、 t1、t2…第1、第2時刻、 RS…実空間 10 ... Acquisition unit, 20 ... Processing unit, 21 ... Detection unit, 22 ... Corresponding unit, 23 ... Calculation unit, 24 ... Display control unit, 25 ... Setting unit, 26 ... Operation input unit, 26a ... Operation acquisition unit, 26b ... Relative coordinate calculation unit, 26c ... Target image change unit, 26d ... Operation area, 30 ... Display unit, 40 ... First storage unit, 40a ... Related information, 41-44 ... First to fourth related information, 50 ... Second Storage unit, 50a ... Positional relationship, 51-54 ... 1st to 4th positional relationships, 60 ... Imaging unit, 61, 62 ... 1st and 2nd images, 61a ... Center coordinates, 71-75 ... 1st to 5th Object, 80 ... worker, 80a ... guide, 81-90 ... 1st to 10th images, 91-93 ... 1st to 3rd target persons, 101-103 ... 1st to 3rd images, 110-115 ... Information processing device, 201 ... CPU, 202 ... Input unit, 203 ... Output unit, 204 ... RAM, 205 ... ROM, 206 ... External memory interface, 207 ... Communication interface, a1 to a4 ... 1st to 4th axes, b1 , B2 ... 1st and 2nd positions, c1, c2 ... 1st and 2nd relative coordinate systems, d1 to d5 ... 1st to 5th data, hd1 to hd8 ... 1st to 8th directions, t1, t2 ... 1, 2nd time, RS ... Real space
Claims (12)
前記第1像に対応付けられた第1関連情報を、前記第1画像に重畳して表示させる第1データを生成する第1動作と、
前記第1画像内における、前記第1像を基準としたときの前記第2像の相対的な第1位置関係と、前記第2画像内における、前記第3像を基準としたときの前記第4像の相対的な第2位置関係と、の間の変化がない、または、第2状態における前記第1位置関係と前記第2位置関係との間の変化よりも小さい第1状態のときに、前記第1関連情報を、前記第2画像に重畳して表示させる第2データを生成し、前記第1位置関係と前記第2位置関係との間の変化がある前記第2状態のときに、前記第1関連情報を前記第2画像に重畳して表示させない、または、前記第1関連情報とは異なる別の関連情報を、前記第2画像に重畳して表示させる、第2動作と、
を実施する処理部と、
を備え、
前記処理部は、
前記第1像中の第1位置を中心とする第1相対座標系に基づいて前記第1位置関係を算出する動作と、
前記第3像中の第2位置を中心とする第2相対座標系に基づいて前記第2位置関係を算出する動作と、
をさらに実施し、
前記第1相対座標系は、前記第1位置を通り第1方向に延びる第1軸と、前記第1位置を通り前記第1方向と交差する第2方向に延びる第2軸と、を含み、
前記第1位置関係は、前記第1像から前記第2像に向かう第3方向の前記第1軸に沿う第1向きと、前記第3方向の前記第2軸に沿う第2向きと、を含み、
前記第2相対座標系は、前記第2位置を通り前記第1方向に延びる第3軸と、前記第2位置を通り前記第2方向に延びる第4軸と、を含み、
前記第2位置関係は、前記第3像から前記第4像に向かう第4方向の前記第3軸に沿う第3向きと、前記第4方向の前記第4軸に沿う第4向きと、を含み、
前記処理部は、前記第1向きと前記第3向きとを比較し、前記第2向きと前記第4向きとを比較し、前記第1状態か否かを判定する動作をさらに実施し、
前記第1状態では、前記第1向きと前記第3向きとが同じであり、前記第2向きと前記第4向きとが同じであり、
前記第2状態では、前記第1向きと前記第3向きとが異なる、または、前記第2向きと前記第4向きとが異なる、情報処理装置。 The first image at the first time, the first image including the first image of the first object and the second image of the second object, and the second image at the second time after the first time. An acquisition unit for acquiring the third image of the first object and the second image including the fourth image of the second object unlike the third image.
The first operation of generating the first data in which the first related information associated with the first image is superimposed on the first image and displayed.
The relative first positional relationship of the second image when the first image is used as a reference in the first image, and the third image when the third image is used as a reference in the second image. When there is no change between the relative second positional relationships of the four images, or when the first state is smaller than the change between the first positional relationship and the second positional relationship in the second state. In the second state, where the first related information is superimposed on the second image to generate second data, and there is a change between the first positional relationship and the second positional relationship. The second operation, in which the first related information is not superimposed on the second image and displayed, or another related information different from the first related information is superimposed and displayed on the second image.
And the processing department that implements
With
The processing unit
The operation of calculating the first positional relationship based on the first relative coordinate system centered on the first position in the first image, and
The operation of calculating the second positional relationship based on the second relative coordinate system centered on the second position in the third image, and
Further implemented,
The first relative coordinate system includes a first axis that passes through the first position and extends in a first direction, and a second axis that passes through the first position and extends in a second direction that intersects the first direction.
The first positional relationship includes a first direction along the first axis in the third direction from the first image to the second image and a second direction along the second axis in the third direction. Including
The second relative coordinate system includes a third axis that passes through the second position and extends in the first direction, and a fourth axis that passes through the second position and extends in the second direction.
The second positional relationship includes a third direction along the third axis in the fourth direction from the third image to the fourth image and a fourth direction along the fourth axis in the fourth direction. Including
The processing unit further performs an operation of comparing the first direction and the third direction, comparing the second direction and the fourth direction, and determining whether or not it is in the first state.
In the first state, the first orientation and the third orientation are the same, and the second orientation and the fourth orientation are the same.
In the second state, the information processing device in which the first orientation and the third orientation are different, or the second orientation and the fourth orientation are different.
前記第2動作は、前記第3像と、前記第4像と、を認識する動作をさらに含む、
請求項1記載の情報処理装置。 The first operation further includes an operation of recognizing the first image and the second image.
The second operation further includes an operation of recognizing the third image and the fourth image.
The information processing device according to claim 1.
前記第4像は、前記第3像の位置から前記範囲内に位置する請求項1〜5のいずれか1つに記載の情報処理装置。 The second image is located within a certain range from the position of the first image.
The information processing device according to any one of claims 1 to 5, wherein the fourth image is located within the range from the position of the third image.
前記第2画像は、前記第3像及び前記第4像とは異なり前記第3対象物の第6像をさらに含み、
前記第1動作は、前記第1関連情報を、前記第1画像に重畳して表示させる第3データを生成することをさらに含み、
前記第2動作は、前記変化の前記状態が前記第1状態であり、前記第1像を基準としたときの前記第5像の相対的な第3位置関係と、前記第3像を基準としたときの前記第6像の相対的な第4位置関係と、の間の変化の状態が第3状態のときに、前記第1関連情報を、前記第2画像に重畳して表示させる第4データを生成することをさらに含む請求項1〜6のいずれか1つに記載の情報処理装置。 The first image further includes a fifth image of the third object.
The second image, unlike the third image and the fourth image, further includes a sixth image of the third object.
The first operation further includes generating third data in which the first related information is superimposed and displayed on the first image.
In the second operation, the state of the change is the first state, and the relative third positional relationship of the fifth image when the first image is used as a reference and the third image as a reference. When the relative fourth positional relationship of the sixth image and the state of change between them are the third state, the first related information is superimposed and displayed on the second image. The information processing apparatus according to any one of claims 1 to 6, further comprising generating data.
前記処理部は、前記操作入力部により受け付けた操作入力に基づいて、前記変更の前記動作を実施する請求項8または9に記載の情報処理装置。 Equipped with an operation input unit
The information processing device according to claim 8 or 9, wherein the processing unit executes the operation of the change based on the operation input received by the operation input unit.
前記第1像に対応付けられた第1関連情報を、前記第1画像に重畳して表示させる第1データを生成し、
前記第1画像内における、前記第1像を基準としたときの前記第2像の相対的な第1位置関係と、前記第2画像内における、前記第3像を基準としたときの前記第4像の相対的な第2位置関係と、の間の変化がない、または、第2状態における前記第1位置関係と前記第2位置関係との間の変化よりも小さい第1状態のときに、前記第1関連情報を、前記第2画像に重畳して表示させる第2データを生成し、前記第1位置関係と前記第2位置関係との間の変化がある前記第2状態のときに、前記第1関連情報を前記第2画像に重畳して表示させない、または、前記第1関連情報とは異なる別の関連情報を、前記第2画像に重畳して表示させる、
前記第1像中の第1位置を中心とする第1相対座標系に基づいて前記第1位置関係を算出する動作と、
前記第3像中の第2位置を中心とする第2相対座標系に基づいて前記第2位置関係を算出する動作と、
を実施し、
前記第1相対座標系は、前記第1位置を通り第1方向に延びる第1軸と、前記第1位置を通り前記第1方向と交差する第2方向に延びる第2軸と、を含み、
前記第1位置関係は、前記第1像から前記第2像に向かう第3方向の前記第1軸に沿う第1向きと、前記第3方向の前記第2軸に沿う第2向きと、を含み、
前記第2相対座標系は、前記第2位置を通り前記第1方向に延びる第3軸と、前記第2位置を通り前記第2方向に延びる第4軸と、を含み、
前記第2位置関係は、前記第3像から前記第4像に向かう第4方向の前記第3軸に沿う第3向きと、前記第4方向の前記第4軸に沿う第4向きと、を含み、
前記第1向きと前記第3向きとを比較し、前記第2向きと前記第4向きとを比較し、前記第1状態か否かを判定する動作を実施し、
前記第1状態では、前記第1向きと前記第3向きとが同じであり、前記第2向きと前記第4向きとが同じであり、
前記第2状態では、前記第1向きと前記第3向きとが異なる、または、前記第2向きと前記第4向きとが異なる、情報処理方法。 The first image at the first time, the first image including the first image of the first object and the second image of the second object, and the second image at the second time after the first time. Therefore, the third image of the first object and the second image including the fourth image of the second object, which is different from the third image, are acquired.
The first data in which the first related information associated with the first image is superimposed on the first image and displayed is generated.
The relative first positional relationship of the second image when the first image is used as a reference in the first image, and the third image when the third image is used as a reference in the second image. When there is no change between the relative second positional relationships of the four images, or when the first state is smaller than the change between the first positional relationship and the second positional relationship in the second state. In the second state, where the first related information is superimposed on the second image to generate second data, and there is a change between the first positional relationship and the second positional relationship. , The first related information is not superimposed on the second image and displayed, or another related information different from the first related information is superimposed and displayed on the second image.
The operation of calculating the first positional relationship based on the first relative coordinate system centered on the first position in the first image, and
The operation of calculating the second positional relationship based on the second relative coordinate system centered on the second position in the third image, and
And carry out
The first relative coordinate system includes a first axis that passes through the first position and extends in a first direction, and a second axis that passes through the first position and extends in a second direction that intersects the first direction.
The first positional relationship includes a first direction along the first axis in the third direction from the first image to the second image and a second direction along the second axis in the third direction. Including
The second relative coordinate system includes a third axis that passes through the second position and extends in the first direction, and a fourth axis that passes through the second position and extends in the second direction.
The second positional relationship includes a third direction along the third axis in the fourth direction from the third image to the fourth image and a fourth direction along the fourth axis in the fourth direction. Including
An operation of comparing the first direction and the third direction, comparing the second direction and the fourth direction, and determining whether or not the state is the first state is performed.
In the first state, the first orientation and the third orientation are the same, and the second orientation and the fourth orientation are the same.
In the second state, the information processing method in which the first orientation and the third orientation are different, or the second orientation and the fourth orientation are different.
の第3像及び前記第3像とは異なり前記第2対象物の第4像を含む前記第2画像と、を取得する処理と、
前記第1像に対応付けられた第1関連情報を、前記第1画像に重畳して表示させる第1データを生成する処理と、
前記第1画像内における、前記第1像を基準としたときの前記第2像の相対的な第1位置関係と、前記第2画像内における、前記第3像を基準としたときの前記第4像の相対的な第2位置関係と、の間の変化がない、または、第2状態における前記第1位置関係と前記第2位置関係との間の変化よりも小さい第1状態のときに、前記第1関連情報を、前記第2画像に重畳して表示させる第2データを生成し、前記第1位置関係と前記第2位置関係との間の変化がある前記第2状態のときに、前記第1関連情報を前記第2画像に重畳して表示させない、または、前記第1関連情報とは異なる別の関連情報を、前記第2画像に重畳して表示させる、処理と、
前記第1像中の第1位置を中心とする第1相対座標系に基づいて前記第1位置関係を算出する動作と、前記第3像中の第2位置を中心とする第2相対座標系に基づいて前記第2位置関係を算出する動作と、を含む処理であって、前記第1相対座標系は、前記第1位置を通り第1方向に延びる第1軸と、前記第1位置を通り前記第1方向と交差する第2方向に延びる第2軸と、を含み、前記第1位置関係は、前記第1像から前記第2像に向かう第3方向の前記第1軸に沿う第1向きと、前記第3方向の前記第2軸に沿う第2向きと、を含み、前記第2相対座標系は、前記第2位置を通り前記第1方向に延びる第3軸と、前記第2位置を通り前記第2方向に延びる第4軸と、を含み、前記第2位置関係は、前記第3像から前記第4像に向かう第4方向の前記第3軸に沿う第3向きと、前記第4方向の前記第4軸に沿う第4向きと、を含む、処理と、
前記第1向きと前記第3向きとを比較し、前記第2向きと前記第4向きとを比較し、前記第1状態か否かを判定する動作を含む処理であって、前記第1状態では、前記第1向きと前記第3向きとが同じであり、前記第2向きと前記第4向きとが同じであり、前記第2状態では、前記第1向きと前記第3向きとが異なる、または、前記第2向きと前記第4向きとが異なる、処理と、
をコンピュータに実施させる情報処理プログラム。 The first image at the first time, the first image including the first image of the first object and the second image of the second object, and the second image at the second time after the first time. The process of acquiring the third image of the first object and the second image including the fourth image of the second object, which is different from the third image.
A process of generating first data in which the first related information associated with the first image is superimposed on the first image and displayed.
The relative first positional relationship of the second image when the first image is used as a reference in the first image, and the third image when the third image is used as a reference in the second image. When there is no change between the relative second positional relationships of the four images, or when the first state is smaller than the change between the first positional relationship and the second positional relationship in the second state. In the second state, where the first related information is superimposed on the second image to generate second data, and there is a change between the first positional relationship and the second positional relationship. , The process of not displaying the first related information superimposed on the second image, or displaying another related information different from the first related information superimposed on the second image.
The operation of calculating the first positional relationship based on the first relative coordinate system centered on the first position in the first image and the second relative coordinate system centered on the second position in the third image. A process including the operation of calculating the second positional relationship based on the above, wherein the first relative coordinate system has a first axis extending in the first direction through the first position and the first position. The first positional relationship includes the second axis extending in the second direction intersecting the first direction, and the first positional relationship is along the first axis in the third direction from the first image to the second image. The second relative coordinate system includes a first direction and a second direction along the second axis in the third direction, and the second relative coordinate system includes a third axis extending in the first direction through the second position and the first direction. The second positional relationship includes a fourth axis that passes through two positions and extends in the second direction, and the second positional relationship is a third direction along the third axis in the fourth direction from the third image to the fourth image. , A fourth orientation along the fourth axis of the fourth orientation, and processing.
The first state is a process including an operation of comparing the first direction and the third direction, comparing the second direction and the fourth direction, and determining whether or not the state is the first state. Then, the first orientation and the third orientation are the same, the second orientation and the fourth orientation are the same, and in the second state, the first orientation and the third orientation are different. that, or the second direction and said fourth direction are different, and processing,
An information processing program that lets a computer execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020002579A JP6805375B2 (en) | 2020-01-10 | 2020-01-10 | Information processing equipment, information processing methods and information processing programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020002579A JP6805375B2 (en) | 2020-01-10 | 2020-01-10 | Information processing equipment, information processing methods and information processing programs |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015175827A Division JP2017054185A (en) | 2015-09-07 | 2015-09-07 | Information processor, information processing method, and information processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020074150A JP2020074150A (en) | 2020-05-14 |
JP6805375B2 true JP6805375B2 (en) | 2020-12-23 |
Family
ID=70610173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020002579A Active JP6805375B2 (en) | 2020-01-10 | 2020-01-10 | Information processing equipment, information processing methods and information processing programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6805375B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8509483B2 (en) * | 2011-01-31 | 2013-08-13 | Qualcomm Incorporated | Context aware augmentation interactions |
JP6056178B2 (en) * | 2012-04-11 | 2017-01-11 | ソニー株式会社 | Information processing apparatus, display control method, and program |
US10685487B2 (en) * | 2013-03-06 | 2020-06-16 | Qualcomm Incorporated | Disabling augmented reality (AR) devices at speed |
JP2014191688A (en) * | 2013-03-28 | 2014-10-06 | Sony Corp | Information processor, information processing method and storage medium |
US9098934B2 (en) * | 2013-06-27 | 2015-08-04 | Hcl Technologies Limited | Augmented reality system with correlation among multiple markers |
JP6459972B2 (en) * | 2013-11-13 | 2019-01-30 | ソニー株式会社 | Display control apparatus, display control method, and program |
-
2020
- 2020-01-10 JP JP2020002579A patent/JP6805375B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020074150A (en) | 2020-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6079832B2 (en) | Human computer interaction system, hand-to-hand pointing point positioning method, and finger gesture determination method | |
US10082879B2 (en) | Head mounted display device and control method | |
JP4799105B2 (en) | Information processing apparatus and control method therefor, computer program, and storage medium | |
JP6075110B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5381569B2 (en) | Gesture recognition device, gesture recognition method, and gesture recognition program | |
KR20150055543A (en) | Gesture recognition device and gesture recognition device control method | |
US10489640B2 (en) | Determination device and determination method of persons included in imaging data | |
US10496874B2 (en) | Facial detection device, facial detection system provided with same, and facial detection method | |
JP7188240B2 (en) | Human detection device and human detection method | |
JP2007087345A (en) | Information processing device, control method therefor, computer program, and memory medium | |
JP2014029656A (en) | Image processor and image processing method | |
US11887331B2 (en) | Information processing apparatus, control method, and non-transitory storage medium | |
JP2011089784A (en) | Device for estimating direction of object | |
JP2007034525A (en) | Information processor, information processing method and computer program | |
JP6805375B2 (en) | Information processing equipment, information processing methods and information processing programs | |
JP6858159B2 (en) | A telepresence framework that uses a head-mounted device to label areas of interest | |
US10235776B2 (en) | Information processing device, information processing method, and information processing program | |
Desai | Segmentation and recognition of fingers using Microsoft Kinect | |
US10489921B2 (en) | Behavior analysis apparatus and behavior analysis method | |
JP6467994B2 (en) | Image processing program, image processing apparatus, and image processing method | |
KR101844367B1 (en) | Apparatus and Method for Head pose estimation using coarse holistic initialization followed by part localization | |
Viitaniemi et al. | Detecting hand-head occlusions in sign language video | |
WO2023017723A1 (en) | Information processing device, information processing system, information processing method, and program | |
JP7560015B2 (en) | OBJECT RECOGNITION DEVICE, OBJECT RECOGNITION METHOD, AND PROGRAM | |
JP7459151B2 (en) | Information processing device, information processing system, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200930 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201009 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201203 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6805375 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |