[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2018185182A - Position specifying device - Google Patents

Position specifying device Download PDF

Info

Publication number
JP2018185182A
JP2018185182A JP2017085889A JP2017085889A JP2018185182A JP 2018185182 A JP2018185182 A JP 2018185182A JP 2017085889 A JP2017085889 A JP 2017085889A JP 2017085889 A JP2017085889 A JP 2017085889A JP 2018185182 A JP2018185182 A JP 2018185182A
Authority
JP
Japan
Prior art keywords
image
magnetic field
observation target
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017085889A
Other languages
Japanese (ja)
Inventor
俊喜 南雲
Toshiki Nagumo
俊喜 南雲
浩和 石毛
Hirokazu Ishige
浩和 石毛
治雄 甘利
Haruo Amari
治雄 甘利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electric Power Co Holdings Inc
Original Assignee
Tokyo Electric Power Co Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electric Power Co Holdings Inc filed Critical Tokyo Electric Power Co Holdings Inc
Priority to JP2017085889A priority Critical patent/JP2018185182A/en
Publication of JP2018185182A publication Critical patent/JP2018185182A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately specify the position and bearing of an observation object in a specific space such as the inside of a building.SOLUTION: A position specifying device 100 includes a data processing control unit 1 for specifying, on the basis of reference data 20 that includes position information 201 indicating a specific position in an observation object space, bearing information 202 indicating bearing and an image 203 imaged facing a prescribed bearing at the specific position and observation object data 321 that includes an image 322 imaged by an imaging device 31 possessed by the observation object, the position of the observation object and the bearing of the observation object in the observation object space. The data processing control unit compares the image included in the reference data with the image included in the observation object data, and specifies the position and bearing of the observation object on the basis of the position information and bearing information of the reference data that includes an image that matches or resembles the image included in the observation object data.SELECTED DRAWING: Figure 1

Description

本発明は、対象空間における観測対象の位置および向きを特定する位置特定装置に関する。   The present invention relates to a position specifying device that specifies the position and orientation of an observation target in a target space.

スマートフォン等の携帯端末を利用した位置情報サービスにおいて、GPS(global positioning system)を用いて観測対象の位置を特定する技術が知られている(例えば、特許文献1参照)。   In a position information service using a mobile terminal such as a smartphone, a technique is known in which the position of an observation target is specified using GPS (global positioning system) (see, for example, Patent Document 1).

特開2009−63336号公報JP 2009-63336 A

近年、オフィス、飲食店、工場などの限定された空間における人の動きを分析することにより、生産性の向上を図りたいというニーズがある。例えば、飲食店の厨房のような限定された空間において、観測対象者としての従業員の移動の軌跡を分析することにより、従業員の行動の効率化を促したり、厨房内のレイアウトの改善を行ったりすることにより、生産性の向上を図ることが可能となる。   In recent years, there is a need to improve productivity by analyzing the movement of people in limited spaces such as offices, restaurants and factories. For example, in a limited space such as a kitchen in a restaurant, by analyzing the trajectory of the movement of the employee as the observation target, the employee's behavior can be improved and the layout in the kitchen can be improved. By doing so, it becomes possible to improve productivity.

しかしながら、地下街や建物内等の屋内では、スマートフォン等の携帯端末に内蔵されたGPS受信器の測位精度が低下するため、その携帯端末を所持している観測対象者の位置を正確に特定することは困難である。   However, in indoor locations such as underground malls and buildings, the positioning accuracy of GPS receivers built into mobile terminals such as smartphones decreases, so the position of the observation subject who owns the mobile terminal must be accurately identified. It is difficult.

この問題を解決するための一つの手法として、測位対象の空間に定間隔でビーコン等の無線機器を配置し、それらの無線機器から発せられた電波をスマートフォンなどの携帯端末で受信することにより、その携帯端末の測位対象の空間における位置を特定する手法が考えられる。しかしながら、この手法では、無線機器等の部材費や設置費用が無視できず、コストの増大を招く。また、無線機器の電波が乱れた場合、観測対象者の正確な位置を特定できないおそれもある。   As one method for solving this problem, by placing wireless devices such as beacons at regular intervals in the positioning target space, and receiving radio waves emitted from those wireless devices with a mobile terminal such as a smartphone, A method for specifying the position of the portable terminal in the space to be measured can be considered. However, with this method, the member cost and installation cost of a wireless device and the like cannot be ignored, resulting in an increase in cost. In addition, when the radio wave of the wireless device is disturbed, there is a possibility that the exact position of the observation subject cannot be specified.

また、上述のGPSやビーコンを用いた手法では、観測対象者がどの方向(方位)を向いているのかを正確に特定することが困難である。例えば、カウンターと調理用コンロとが通路を挟んで対向して配置された厨房の場合、通路にいる従業員が接客のためにカウンター側を向いているのか、カウンターの反対側にある調理用コンロで調理をしているのかを正確に判別することは困難である。   Moreover, with the above-described method using GPS or beacon, it is difficult to accurately specify which direction (orientation) the observation target person is facing. For example, in the case of a kitchen in which a counter and a cooking stove are placed facing each other across the passage, whether the employee in the passage is facing the counter for customer service, or the cooking stove on the opposite side of the counter It is difficult to accurately determine whether or not cooking is done.

本発明は、上述した課題に鑑みてなされたものであり、特定の空間における観測対象の位置および方位をより正確に特定することを目的とする。   The present invention has been made in view of the above-described problems, and an object thereof is to more accurately specify the position and orientation of an observation target in a specific space.

本発明の代表的な実施の形態に係る位置特定装置は、測位対象空間における特定の位置を示す位置情報と、前記特定の位置での方位を示す方位情報と、前記特定の位置で所定の方位を向いて撮影された画像とを関連付けた基準データを記憶する記憶部と、観測対象が有する撮像装置によって撮影された画像を含む観測対象データと、前記記憶部に記憶された前記基準データとに基づいて、前記測位対象空間における前記観測対象の位置および前記観測対象の向きを特定するデータ処理制御部とを備え、前記データ処理制御部は、前記観測対象データを取得するデータ取得部と、前記データ取得部によって取得した前記観測対象データに含まれる画像と、前記基準データに含まれる画像とを照合する画像照合部と、前記画像照合部による照合によって前記観測対象データに含まれる画像と一致または類似すると判定された画像を含む前記基準データの前記位置情報および前記方位情報に基づいて、前記観測対象の位置および向きを特定する特定部と、を含むことを特徴とする。   A position specifying device according to a representative embodiment of the present invention includes position information indicating a specific position in a positioning target space, direction information indicating an azimuth at the specific position, and a predetermined direction at the specific position. A storage unit that stores reference data in association with an image captured facing the camera, observation target data that includes an image captured by an imaging device included in the observation target, and the reference data stored in the storage unit. Based on a data processing control unit that specifies the position of the observation target and the direction of the observation target in the positioning target space, the data processing control unit, the data acquisition unit for acquiring the observation target data; An image collation unit that collates an image included in the observation target data acquired by the data acquisition unit with an image included in the reference data, and for verification by the image verification unit Based on the position information and the azimuth information of the reference data including an image determined to match or similar to the image included in the observation target data, a specifying unit that specifies the position and orientation of the observation target; It is characterized by including.

本発明に係る位置特定装置によれば、特定の空間における観測対象の位置および方位をより正確に特定することが可能となる。   According to the position specifying apparatus according to the present invention, the position and orientation of the observation target in a specific space can be specified more accurately.

実施の形態1に係る位置特定装置を含む位置特定システムの構成を示す図である。It is a figure which shows the structure of the position specific system containing the position specific apparatus which concerns on Embodiment 1. FIG. 携帯端末を用いた撮影手法の一例を示す図である。It is a figure which shows an example of the imaging | photography method using a portable terminal. 携帯端末で撮影した画像の一例を示す図である。It is a figure which shows an example of the image image | photographed with the portable terminal. 測位対象空間の一例を示す図である。It is a figure which shows an example of a positioning object space. 測位対象空間における方位を説明するための図である。It is a figure for demonstrating the azimuth | direction in the positioning object space. 実施の形態1に係る位置特定装置による測位対象空間における観測対象の位置および向きを特定する処理の流れを示すフロー図である。6 is a flowchart showing a flow of processing for specifying the position and orientation of an observation target in a positioning target space by the position specifying device according to Embodiment 1. FIG. 実施の形態2に係る位置特定装置を含む位置特定システムの構成を示す図である。It is a figure which shows the structure of the position specific system containing the position specific apparatus which concerns on Embodiment 2. FIG. 磁場マップの一例を示す図である。It is a figure which shows an example of a magnetic field map. 磁場照合部による方位の特定方法を説明するための図である。It is a figure for demonstrating the identification method of the direction by a magnetic field collation part. 実施の形態2に係る位置特定装置による測位対象空間における観測対象の位置および向きを特定する処理の流れを示すフロー図である。FIG. 10 is a flowchart showing a flow of processing for specifying the position and orientation of an observation target in a positioning target space by the position specifying device according to the second embodiment.

1.実施の形態の概要
先ず、本願において開示される発明の代表的な実施の形態について概要を説明する。なお、以下の説明では、一例として、発明の構成要素に対応する図面上の参照符号を、括弧を付して記載している。
1. First, an outline of a typical embodiment of the invention disclosed in the present application will be described. In the following description, as an example, reference numerals on the drawings corresponding to constituent elements of the invention are shown in parentheses.

〔1〕本発明の代表的な実施の形態に係る位置特定装置(100,100A)は、測位対象空間(5)における特定の位置(50_1〜50_n)を示す位置情報(201)と、前記特定の位置での方位を示す方位情報(202)と、前記特定の位置で所定の方位を向いて撮影された画像(203)とを関連付けた基準データ(20)を記憶する記憶部(2,2A)と、観測対象(4)が有する撮像装置(31)によって撮影された画像(322)を含む観測対象データ(321,321A)と、前記記憶部に記憶された前記基準データとに基づいて、前記測位対象空間における前記観測対象の位置および前記観測対象の向きを特定するデータ処理制御部(1,1A)とを備え、前記データ処理制御部は、前記観測対象データを取得するデータ取得部(11,11A)と、前記データ取得部によって取得した前記観測対象データに含まれる画像と、前記基準データに含まれる画像とを照合する画像照合部(12,12A)と、前記画像照合部による照合によって前記観測対象データに含まれる画像と一致または類似すると判定された画像を含む前記基準データの前記位置情報および前記方位情報に基づいて、前記観測対象の位置および向きを特定する特定部(13,13A)と、を含むことを特徴とする。   [1] The position specifying device (100, 100A) according to the representative embodiment of the present invention includes position information (201) indicating a specific position (50_1 to 50_n) in the positioning target space (5), and the specifying A storage unit (2, 2A) that stores reference data (20) that associates the azimuth information (202) indicating the azimuth at the position and the image (203) photographed with the specific position facing the predetermined azimuth. ), Observation target data (321, 321A) including an image (322) taken by the imaging device (31) of the observation target (4), and the reference data stored in the storage unit, A data processing control unit (1, 1A) for specifying the position of the observation target and the direction of the observation target in the positioning target space, wherein the data processing control unit is a data acquisition unit for acquiring the observation target data. An acquisition unit (11, 11A), an image verification unit (12, 12A) for verifying an image included in the observation target data acquired by the data acquisition unit and an image included in the reference data, and the image verification A specifying unit that specifies the position and orientation of the observation target based on the position information and the azimuth information of the reference data including an image determined to match or similar to an image included in the observation target data (13, 13A).

〔2〕上記位置特定装置(100A)において、前記記憶部(2A)は、前記測位対象空間における磁場の情報を含む磁場マップ(22)を更に記憶し、前記観測対象データは、前記撮像装置によって画像を撮影した位置における磁場の情報(323)を更に含み、前記データ処理制御部は、前記磁場マップと前記観測対象データに含まれる磁場の情報とを照合する磁場照合部(14)を更に含み、前記特定部(13A)は、前記画像照合部による照合結果と前記磁場照合部による照合結果とに基づいて、前記測位対象空間における前記観測対象の位置および向きを特定してもよい。   [2] In the position specifying device (100A), the storage unit (2A) further stores a magnetic field map (22) including information on the magnetic field in the positioning target space, and the observation target data is transmitted by the imaging device. It further includes magnetic field information (323) at the position where the image is taken, and the data processing control unit further includes a magnetic field collating unit (14) for collating the magnetic field map with the magnetic field information included in the observation target data. The specifying unit (13A) may specify the position and orientation of the observation target in the positioning target space based on the matching result by the image matching unit and the matching result by the magnetic field matching unit.

〔3〕上記位置特定装置(100A)において、前記観測対象データは、前記撮像装置によって画像を撮影したときに計測された磁場の大きさおよび方向を示す第1ベクトル(B)を含み、前記磁場マップは、前記測位対象空間における前記特定の位置において計測された磁場の大きさおよび方向を示す第2ベクトル(B1〜Bn)と、前記測位対象空間において所定の方位を向いて計測された磁場の大きさおよび方向を示す第3ベクトル(B0)とを含み、前記磁場照合部は、前記第1ベクトルと前記第2ベクトルとを照合し、その照合結果に基づいて位置の候補を決定するとともに、当該候補の位置における前記第2ベクトルと、前記第1ベクトルと、前記第3ベクトルとに基づいて、方位の候補を決定してもよい。   [3] In the position specifying device (100A), the observation target data includes a first vector (B) indicating the magnitude and direction of a magnetic field measured when an image is captured by the imaging device, and the magnetic field The map includes a second vector (B1 to Bn) indicating the magnitude and direction of the magnetic field measured at the specific position in the positioning target space, and the magnetic field measured in a predetermined direction in the positioning target space. A third vector (B0) indicating a magnitude and a direction, the magnetic field collating unit collates the first vector and the second vector, determines a position candidate based on the collation result, A direction candidate may be determined based on the second vector, the first vector, and the third vector at the candidate position.

〔4〕上記位置特定装置(100A)において、前記画像照合部は、前記観測対象データに含まれる画像と一致または類似する画像の前記基準データに基づいて、位置および方位の候補を決定し、前記特定部は、前記画像照合部によって決定した位置および方位の候補の中から、前記磁場照合部によって決定した位置および方位の候補に最も近い位置および方位を選択し、その選択した位置および方位を、前記測位対象空間における前記観測対象の位置および向きとしてもよい。   [4] In the position specifying device (100A), the image matching unit determines position and orientation candidates based on the reference data of an image that matches or is similar to an image included in the observation target data, The specifying unit selects a position and orientation closest to the position and orientation candidate determined by the magnetic field verification unit from the position and orientation candidates determined by the image verification unit, and the selected position and orientation are The position and orientation of the observation target in the positioning target space may be used.

〔5〕本発明の代表的な実施の形態に係る位置特定システム(500,500A)は、前記位置特定装置と、前記撮像装置を有する携帯端末(3,3A)とを備え、前記携帯端末と前記位置特定装置とが有線または無線によって接続されていることを特徴とする。   [5] A position specifying system (500, 500A) according to a typical embodiment of the present invention includes the position specifying device and a portable terminal (3, 3A) having the imaging device, The position specifying device is connected by wire or wireless.

2.実施の形態の具体例
以下、本発明の実施の形態の具体例について図を参照して説明する。なお、以下の説明において、各実施の形態において共通する構成要素には同一の参照符号を付し、繰り返しの説明を省略する。
2. Specific Examples of Embodiments Hereinafter, specific examples of embodiments of the present invention will be described with reference to the drawings. In the following description, the same reference numerals are given to components common to the respective embodiments, and repeated description is omitted.

≪実施の形態1≫
図1は、本発明の実施の形態1に係る位置特定装置を含む位置特定システムの構成を示す図である。
同図に示される位置特定システム500は、測位対象空間における観測対象(例えば、人)の位置および向きを特定するためのシステムであり、位置特定装置100と携帯端末3とを備えている。
<< Embodiment 1 >>
FIG. 1 is a diagram showing a configuration of a position specifying system including a position specifying device according to Embodiment 1 of the present invention.
A position specifying system 500 shown in the figure is a system for specifying the position and orientation of an observation target (for example, a person) in a positioning target space, and includes a position specifying device 100 and a mobile terminal 3.

位置特定装置100は、測位対象空間において観測対象(例えば、人)が有する携帯端末3によって撮影された画像から、測位対象空間における観測対象の位置および方位を特定するための装置である。   The position specifying device 100 is a device for specifying the position and orientation of the observation target in the positioning target space from the image taken by the mobile terminal 3 possessed by the observation target (for example, a person) in the positioning target space.

ここで、測位対象空間とは、位置特定が可能な範囲を示す空間であり、例えば、オフィスの1フロアや工場等の敷地内、飲食店の店内や厨房等の限られた空間である。本実施の形態では、測位対象空間が屋内である場合を一例として説明する。   Here, the positioning target space is a space indicating a range in which the position can be specified, and is, for example, a limited space such as one floor of an office or a site such as a factory, a restaurant or a kitchen. In the present embodiment, a case where the positioning target space is indoor will be described as an example.

携帯端末3は、観測対象が存在する位置の周囲環境の画像を撮影するための機器であり、例えば、カメラを内蔵したスマートフォンに代表される小型電子機器や、人の衣服等に装着可能な、カメラを内蔵したウェアラブル端末等である。   The mobile terminal 3 is a device for taking an image of the surrounding environment at the position where the observation target exists, and can be attached to, for example, a small electronic device typified by a smartphone with a built-in camera, a human clothes, A wearable terminal with a built-in camera.

具体的に、携帯端末3は、撮像装置31と、記憶部32と、出力部33とを備えている。
撮像装置31は、画像を撮影するための機能部であり、例えば、撮像素子およびレンズ等の光学系を含んで構成されたカメラである。撮像装置31は、静止画のみならず、動画が撮影可能な構成を有していてもよい。
Specifically, the mobile terminal 3 includes an imaging device 31, a storage unit 32, and an output unit 33.
The imaging device 31 is a functional unit for taking an image, and is, for example, a camera configured to include an optical system such as an imaging element and a lens. The imaging device 31 may have a configuration capable of shooting not only a still image but also a moving image.

記憶部32は、撮像装置31によって撮影された画像322を記憶する機能部であり、例えば、フラッシュメモリなどの不揮発性メモリを含んで構成されている。出力部33は、記憶部32に記憶された画像を外部機器に出力するための機能部であり、外部機器と有線または無線によってデータの送受信を行うための外部インターフェース回路等から構成されている。   The storage unit 32 is a functional unit that stores an image 322 taken by the imaging device 31, and includes a nonvolatile memory such as a flash memory, for example. The output unit 33 is a functional unit for outputting an image stored in the storage unit 32 to an external device, and includes an external interface circuit for transmitting / receiving data to / from the external device by wire or wireless.

図2は、携帯端末3を用いた撮影手法の一例を示す図である。
図2に示されるように、測位対象空間5において携帯端末3を用いて画像を撮影する際には、携帯端末3を有する観測対象4が向いている方向(正面方向)を撮影できるように、撮像装置31の向きを調整しておくことが望ましい。
FIG. 2 is a diagram illustrating an example of a photographing method using the mobile terminal 3.
As shown in FIG. 2, when an image is captured using the mobile terminal 3 in the positioning target space 5, so that the direction (front direction) in which the observation target 4 having the mobile terminal 3 is facing can be captured. It is desirable to adjust the orientation of the imaging device 31 in advance.

図3は、携帯端末3で撮影した画像の一例を示す図である。
同図に示されるような、携帯端末3の撮像装置31によって撮影された画像322は、撮影された時刻を示す情報等の画像322に付随する情報とともに、観測対象データ321として記憶部32に記憶され、出力部33を介して読み出し可能となっている。
FIG. 3 is a diagram illustrating an example of an image captured by the mobile terminal 3.
An image 322 taken by the imaging device 31 of the portable terminal 3 as shown in the figure is stored in the storage unit 32 as observation target data 321 together with information accompanying the image 322 such as information indicating the time of taking. The data can be read out via the output unit 33.

撮像装置31は、単位時間毎に撮影を行い、撮影した画像322を記憶部32に逐次記憶する。例えば、撮像装置31は、単位時間(例えば1分)毎に静止画を撮影し、その静止画を画像322として記憶部32に逐次記憶する。あるいは、撮像装置31は、動画を撮影し、その動画から単位時間毎に静止画を切り出し、その切り出した静止画を画像322として記憶部32に逐次記憶してもよい。   The imaging device 31 performs imaging every unit time, and sequentially stores the captured images 322 in the storage unit 32. For example, the imaging device 31 captures a still image every unit time (for example, 1 minute), and sequentially stores the still image as an image 322 in the storage unit 32. Alternatively, the imaging device 31 may capture a moving image, cut out a still image from the moving image every unit time, and sequentially store the cut-out still image as the image 322 in the storage unit 32.

位置特定装置100は、データ処理制御部1と記憶部2とを備える。
記憶部2は、観測対象が有する携帯端末3によって撮影された画像に基づいて測位対象空間における観測対象の位置および方位を特定するための基準となる基準データ20を記憶するための機能部である。
The position specifying device 100 includes a data processing control unit 1 and a storage unit 2.
The storage unit 2 is a functional unit for storing reference data 20 serving as a reference for specifying the position and orientation of the observation target in the positioning target space based on the image taken by the mobile terminal 3 included in the observation target. .

記憶部2は、例えば、パーソナルコンピュータなどに接続可能なHDD(Hard Disc Drive)やフラッシュメモリ等の外付け記憶装置やデータサーバ、後述するデータ処理制御部1を構成するコンピュータに内蔵された各種の記憶装置等によって実現することができる。   The storage unit 2 is, for example, an external storage device such as an HDD (Hard Disc Drive) or a flash memory that can be connected to a personal computer or the like, a data server, and various types of computers built in the data processing control unit 1 described later. It can be realized by a storage device or the like.

ここで、基準データ20について詳細に説明する。
基準データ20は、測位対象空間5における特定の位置を示す位置情報201と、特定の位置での方位を示す方位情報202と、特定の位置で所定の方位を向いて撮影された画像203とを関連付けたデータである。
Here, the reference data 20 will be described in detail.
The reference data 20 includes position information 201 indicating a specific position in the positioning target space 5, azimuth information 202 indicating an azimuth at the specific position, and an image 203 photographed at a specific position and facing a predetermined azimuth. The associated data.

図4は、測位対象空間の一例を示す図である。
同図に示されるように、測位対象空間5は、X軸と、X軸に直交するY軸とによって形成されるX―Y平面上の領域によって表される。測位対象空間5における特定の位置50_1〜50_n(nは2以上の整数)は、X軸およびY軸上の座標によって表される。したがって、測位対象空間5の各特定の位置50_1〜50_nを示す位置情報201は、測位対象空間5を表すX―Y平面上のX、Y座標の情報となる。
FIG. 4 is a diagram illustrating an example of a positioning target space.
As shown in the figure, the positioning target space 5 is represented by a region on the XY plane formed by the X axis and the Y axis orthogonal to the X axis. Specific positions 50_1 to 50_n (n is an integer of 2 or more) in the positioning target space 5 are represented by coordinates on the X axis and the Y axis. Therefore, the position information 201 indicating the specific positions 50_1 to 50_n of the positioning target space 5 is information on the X and Y coordinates on the XY plane representing the positioning target space 5.

図5は、測位対象空間における方位を説明するための図である。
同図に示されるように、測位対象空間5における特定の位置50_i(1≦i≦n)毎に、複数の方位が特定される。例えば、図3に示されるように、特定の位置50_iにおいて、北(N)、北東(NE)、東(E)、南東(SE)、南(S)、南西(SW)、西(W)、および北西(NW)の8方向を特定することができる。この例の場合、方位情報202は、北(N)、北東(NE)、東(E)、南東(SE)、南(S)、南西(SW)、西(W)、および北西(NW)の何れかの方位を示す情報となる。
FIG. 5 is a diagram for explaining the orientation in the positioning target space.
As shown in the figure, a plurality of azimuths are specified for each specific position 50 — i (1 ≦ i ≦ n) in the positioning target space 5. For example, as shown in FIG. 3, at a specific position 50_i, north (N), northeast (NE), east (E), southeast (SE), south (S), southwest (SW), west (W) , And north-west (NW) eight directions. In this example, the orientation information 202 includes north (N), northeast (NE), east (E), southeast (SE), south (S), southwest (SW), west (W), and northwest (NW). It becomes the information which shows either direction.

画像203は、特定の位置において所定の方位を向いて撮影された画像である。例えば、画像203は、図4に示す測位対象空間5内の各位置50_1〜50_nにおいて、上述の8方向を向いて撮影された画像である。   The image 203 is an image taken in a predetermined direction at a specific position. For example, the image 203 is an image taken in the above eight directions at each position 50_1 to 50_n in the positioning target space 5 shown in FIG.

このように、測位対象空間5における特定の位置50_1〜50_nにおいて各方位を向いて撮影された画像203が、その画像203を撮影したときの位置情報201および方位情報202とともに、基準データ20として記憶部2に記憶される。   As described above, the image 203 photographed in each direction at the specific positions 50_1 to 50_n in the positioning target space 5 is stored as the reference data 20 together with the position information 201 and the direction information 202 when the image 203 is photographed. Stored in part 2.

基準データ20は、位置特定装置100による位置特定処理を実行する前に、予め記憶部2に記憶されている。例えば、カメラを搭載した小型調査装置(ロボット)に測位対象空間5内を移動させて、特定の位置50_1〜50_n毎に各方位の画像203をカメラで撮影する。そして、撮影したそれらの画像203を、その画像203を撮影したときの位置情報201および方位情報202と紐付けて、基準データ20として記憶部2に記憶させればよい。   The reference data 20 is stored in the storage unit 2 in advance before the position specifying process by the position specifying device 100 is executed. For example, a small survey device (robot) equipped with a camera is moved in the positioning target space 5, and images 203 in each direction are photographed by the camera at specific positions 50_1 to 50_n. Then, the captured images 203 may be stored in the storage unit 2 as the reference data 20 in association with the position information 201 and the orientation information 202 when the images 203 are captured.

基準データ20を作成する際に使用するカメラとしては、例えば、上下左右全方位の画像を撮影できる全方位カメラ(所謂360度カメラ)が好ましい。これによれば、特定の位置50_iで撮影した360度のパノラマ画像において一つの方位(例えば“北”)を特定しておくことで、公知の画像処理技術によって、その方位を基準として各方位の画像を上記パノラマ画像から切り出すことが容易となり、測位対象空間5における各特定の位置50_1〜50_nでの各方位の画像を効率よく取得することが可能となる。   As a camera used when creating the reference data 20, for example, an omnidirectional camera (so-called 360 degree camera) capable of capturing images in all directions, up and down, left and right is preferable. According to this, by specifying one azimuth (for example, “north”) in a 360-degree panoramic image photographed at a specific position 50_i, a known image processing technique can be used to set each azimuth as a reference. It becomes easy to cut out the image from the panoramic image, and it is possible to efficiently acquire images in each direction at each specific position 50_1 to 50_n in the positioning target space 5.

また、基準データ20の画像203を撮影するときの上記カメラの地面からの高さ(Z方向の高さ)は、観測対象4に撮像装置31を装着したときのその撮像装置31の地面からの高さ(Z方向の高さ)に合わせることが望ましい。   Further, the height of the camera from the ground (the height in the Z direction) when the image 203 of the reference data 20 is taken is the height from the ground of the imaging device 31 when the imaging device 31 is attached to the observation target 4. It is desirable to match the height (the height in the Z direction).

次に、データ処理制御部1について説明する。
データ処理制御部1は、携帯端末3によって撮影された画像を含む観測対象データ321と、記憶部2に格納された基準データ20とに基づいて、測位対象空間5における観測対象の位置および方位を特定するための機能部である。データ処理制御部1は、データ取得部11、画像照合部12、および特定部13を有する。
Next, the data processing control unit 1 will be described.
The data processing control unit 1 determines the position and orientation of the observation target in the positioning target space 5 based on the observation target data 321 including the image taken by the mobile terminal 3 and the reference data 20 stored in the storage unit 2. It is a functional part for specifying. The data processing control unit 1 includes a data acquisition unit 11, an image collation unit 12, and a specification unit 13.

ここで、データ処理制御部1は、例えば、パーソナルコンピュータなどのコンピュータによって実現される。具体的には、CPU(Central Processing Unit)等の演算装置と、メモリやHDD等の記憶装置と、キーボード、マウス、ポインティングデバイス、ボタン、またはタッチパネル等の外部から情報の入力を検出する入力装置と、外部との情報の送受を行うI/F(Interface)装置と、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)等の表示装置とを備えたコンピュータが、そのコンピュータにインストールされたプログラムを実行することにより、データ取得部11、画像照合部12、および特定部13が実現される。   Here, the data processing control unit 1 is realized by a computer such as a personal computer, for example. Specifically, an arithmetic device such as a CPU (Central Processing Unit), a storage device such as a memory or an HDD, and an input device that detects an input of information from the outside such as a keyboard, a mouse, a pointing device, a button, or a touch panel A computer having an I / F (Interface) device that transmits and receives information to and from the outside, and a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) is installed on the computer. By executing, the data acquisition unit 11, the image matching unit 12, and the specifying unit 13 are realized.

データ処理制御部1と携帯端末3とは、有線または無線によって接続され、相互にデータの送受信が可能となっている。   The data processing control unit 1 and the mobile terminal 3 are connected by wire or wireless, and data can be transmitted and received between them.

データ取得部11は、携帯端末3によって撮影された画像を取得するための機能部である。データ取得部11は、携帯端末3の出力部33から出力された観測対象データ321を有線通信または無線通信によって取得する。例えば、データ処理制御部1がパーソナルコンピュータであって、携帯端末3がUSB(Universal Serial Bus)通信に対応している場合、データ処理制御部1としてのパーソナルコンピュータと携帯端末3とをUSBケーブルによって接続することにより、データ取得部11は、携帯端末3の記憶部32から観測対象データ321を読み出す。   The data acquisition unit 11 is a functional unit for acquiring an image taken by the mobile terminal 3. The data acquisition unit 11 acquires observation target data 321 output from the output unit 33 of the mobile terminal 3 by wired communication or wireless communication. For example, when the data processing control unit 1 is a personal computer and the portable terminal 3 is compatible with USB (Universal Serial Bus) communication, the personal computer as the data processing control unit 1 and the portable terminal 3 are connected by a USB cable. By connecting, the data acquisition unit 11 reads the observation target data 321 from the storage unit 32 of the mobile terminal 3.

画像照合部12は、記憶部2に記憶された基準データ20に含まれる画像203と、データ取得部11によって取得した観測対象データ321に含まれる画像322とを照合する画像照合処理を行う。この画像照合処理は、携帯端末3によって撮影された画像322から抽出した特徴量と、各基準データ20に含まれる画像203から抽出した特徴量との一致の度合いから、両画像の一致の度合いを判定するデータ処理である。この画像照合処理は、よく知られた種々の画像マッチング技術を適用することによって実現することができる。   The image collation unit 12 performs image collation processing for collating the image 203 included in the reference data 20 stored in the storage unit 2 with the image 322 included in the observation target data 321 acquired by the data acquisition unit 11. In this image matching process, the degree of coincidence between both images is determined based on the degree of coincidence between the feature amount extracted from the image 322 photographed by the mobile terminal 3 and the feature amount extracted from the image 203 included in each reference data 20. Data processing for determination. This image collation process can be realized by applying various well-known image matching techniques.

画像照合部12は、画像照合処理によって観測対象データ321に含まれる画像322に最も近い(一致または最も類似する)画像203が見つかった場合、その画像203を含む基準データ20によって特定される位置50_1〜50_nおよび方位を、観測対象4の測位対象空間5における位置および方位の候補とし、その候補の情報を画像照合結果120として特定部13に与える。   When the image 203 that is closest (matched or most similar) to the image 322 included in the observation target data 321 is found by the image matching process, the image matching unit 12 determines the position 50_1 specified by the reference data 20 including the image 203. ˜50 — n and the direction are set as candidates for the position and direction of the observation target 4 in the positioning target space 5, and information on the candidates is given to the specifying unit 13 as the image matching result 120.

画像照合結果120には、観測対象データ321の画像322と一致または類似する画像203に係る基準データ20に含まれる位置情報201および方位情報202が含まれる。   The image matching result 120 includes position information 201 and azimuth information 202 included in the reference data 20 related to the image 203 that matches or is similar to the image 322 of the observation target data 321.

特定部13は、画像照合部12による画像照合結果120に基づいて、観測対象4の測位対象空間5における位置および方位を特定する。具体的に、特定部13は、画像照合結果120に含まれる位置情報201で特定される位置50_1〜50_nを、その観測対象データ321の画像322が撮影された時刻における観測対象4の測位対象空間5内の位置とする。   The identifying unit 13 identifies the position and orientation of the observation target 4 in the positioning target space 5 based on the image matching result 120 by the image matching unit 12. Specifically, the specifying unit 13 uses the positions 50_1 to 50_n specified by the position information 201 included in the image matching result 120 as the positioning target space of the observation target 4 at the time when the image 322 of the observation target data 321 is captured. The position within 5.

また、特定部13は、画像照合結果120に含まれる方位情報202で特定される方位を、その観測対象データ321の画像322が撮影された時刻における観測対象4の向き(方位)とする。   Further, the specifying unit 13 sets the direction specified by the direction information 202 included in the image matching result 120 as the direction (direction) of the observation target 4 at the time when the image 322 of the observation target data 321 is taken.

次に、位置特定装置100による位置特定処理の流れについて説明する。
図6は、位置特定装置100による位置特定処理の流れを示すフロー図である。
Next, the flow of the position specifying process by the position specifying device 100 will be described.
FIG. 6 is a flowchart showing a flow of position specifying processing by the position specifying device 100.

先ず、位置特定装置100において、データ処理制御部1のデータ取得部11が、上述した手法により、携帯端末3から観測対象データ321を取得し、その観測対象データ321に含まれる画像322を画像照合部12に与える(ステップS1)。   First, in the position specifying device 100, the data acquisition unit 11 of the data processing control unit 1 acquires the observation target data 321 from the portable terminal 3 by the above-described method, and performs image verification on the image 322 included in the observation target data 321. It gives to the part 12 (step S1).

次に、画像照合部12が、ステップS1で取得した観測対象データ321の画像322と記憶部2に予め記憶されている基準データ20の画像203とに基づいて、上述の画像照合処理を開始する(ステップS2)。   Next, the image matching unit 12 starts the above-described image matching process based on the image 322 of the observation target data 321 acquired in step S1 and the image 203 of the reference data 20 stored in advance in the storage unit 2. (Step S2).

画像照合処理において、画像照合部12は、記憶部2に記憶されている基準データ20中に、観測対象データ321の画像322と一致または類似する画像203を含む基準データ20の有無を判定する(ステップS3)。   In the image matching process, the image matching unit 12 determines whether or not the reference data 20 including the image 203 that matches or is similar to the image 322 of the observation target data 321 in the reference data 20 stored in the storage unit 2 ( Step S3).

ステップS3において、記憶部2に記憶されている基準データ20の中に画像322と一致または類似する画像203を含む基準データ20がない場合には、位置特定処理を停止する。   In step S3, when there is no reference data 20 including the image 203 that matches or is similar to the image 322 in the reference data 20 stored in the storage unit 2, the position specifying process is stopped.

ステップS3において、記憶部2に記憶されている基準データ20の中に画像322と一致または類似する画像203を含む基準データ20がある場合には、画像照合部12が、画像322と一致または最も類似する画像203に係る基準データ20に含まれる位置情報201および方位情報202を、画像照合結果120として特定部13に与える(ステップS4)。   In step S <b> 3, when there is the reference data 20 including the image 203 that matches or is similar to the image 322 in the reference data 20 stored in the storage unit 2, the image matching unit 12 matches or most matches the image 322. The position information 201 and the azimuth information 202 included in the reference data 20 related to the similar image 203 are given to the specifying unit 13 as the image matching result 120 (step S4).

次に、特定部13が、ステップS4で受け取った画像照合結果120に基づいて、上述した手法により、ステップS1で取得した観測対象データ321の画像322が撮影された時刻における観測対象4の測位対象空間5における位置および方位を特定する(ステップS5)。   Next, based on the image matching result 120 received in step S4, the specifying unit 13 uses the above-described method to determine the positioning target of the observation target 4 at the time when the image 322 of the observation target data 321 acquired in step S1 was taken. The position and orientation in the space 5 are specified (step S5).

位置特定装置100は、上述したステップS1〜S5までの処理を、携帯端末3の記憶部32に記憶されている観測対象データ321毎に行うことにより、各観測対象データ321の画像322が撮影された時刻毎の、測位対象空間5における観測対象4の位置および向きを特定することができる。   The position specifying device 100 performs the processes from steps S1 to S5 described above for each observation target data 321 stored in the storage unit 32 of the mobile terminal 3, so that an image 322 of each observation target data 321 is captured. The position and orientation of the observation target 4 in the positioning target space 5 for each time can be specified.

以上、実施の形態1に係る位置特定装置100は、携帯端末3によって撮影された観測対象データ321に含まれる画像322と、特定の位置毎の基準データ20に含まれる画像203とを照合し、観測対象データ321に含まれる画像322に一致または類似する画像203を含む基準データ20の位置情報201および方位情報202に基づいて観測対象の観測対象の位置および方位を特定する。   As described above, the position specifying device 100 according to Embodiment 1 collates the image 322 included in the observation target data 321 captured by the mobile terminal 3 with the image 203 included in the reference data 20 for each specific position, Based on the position information 201 and the azimuth information 202 of the reference data 20 including the image 203 that matches or resembles the image 322 included in the observation target data 321, the position and orientation of the observation target to be observed are specified.

これによれば、観測対象が有する携帯端末3によって撮影した画像から、測位対象空間5における観測対象の位置とその観測対象の向きとを特定することが可能となるので、GPS受信器の測位精度が低下する地下街や建物内などの屋内においても、観測対象の位置および方位を正確に特定することが可能となる。   According to this, since the position of the observation target in the positioning target space 5 and the direction of the observation target can be specified from the image taken by the mobile terminal 3 of the observation target, the positioning accuracy of the GPS receiver It is possible to accurately specify the position and orientation of the observation target even indoors such as in an underground shopping center or a building where the fall of the brightness is reduced.

また、位置特定装置100によって特定された各観測対象データ321に係る観測対象の位置、観測対象の向き(方位)、および時刻を含むデータを時系列に並べることにより、測位対象空間5における観測対象の行動の軌跡を示す軌跡データを容易に生成することができる。   In addition, by arranging data including the position of the observation target, the direction (direction) of the observation target, and the time related to each observation target data 321 specified by the position specifying device 100 in time series, the observation target in the positioning target space 5 Trajectory data indicating the trajectory of the action can be easily generated.

これにより、オフィス、飲食店、および工場等の限定された空間における人の動きを分析することが容易となり、生産性の向上を図ることが可能となる。例えば、上述した飲食店の厨房の例の場合、位置特定装置100によって特定した従業員の位置および向きに基づいて生成した軌跡データを分析することにより、従業員の行動の効率化を促したり、厨房内のレイアウトの改善を行ったりすることが可能となり、生産性の向上を図ることが可能となる。   Thereby, it becomes easy to analyze the movement of a person in a limited space such as an office, a restaurant, and a factory, and productivity can be improved. For example, in the case of the restaurant kitchen described above, by analyzing the trajectory data generated based on the position and orientation of the employee specified by the position specifying device 100, the employee's action can be made more efficient, It becomes possible to improve the layout in the kitchen, and to improve productivity.

《実施の形態2》
図7は、実施の形態2に係る位置特定装置を含む位置特定システムの構成を示す図である。
同図に示される位置特定システム500Aにおける位置特定装置100Aは、携帯端末3Aによって撮影された画像と携帯端末3Aによって測定された磁場の情報とを用いて、観測対象の位置および方位を特定する点において実施の形態1に係る位置特定装置100と相違し、その他の点においては、実施の形態1に係る位置特定装置100と同様である。
<< Embodiment 2 >>
FIG. 7 is a diagram illustrating a configuration of a position specifying system including the position specifying device according to the second embodiment.
The position specifying device 100A in the position specifying system 500A shown in the figure specifies the position and orientation of the observation target using the image taken by the mobile terminal 3A and the magnetic field information measured by the mobile terminal 3A. However, it is different from the position specifying device 100 according to the first embodiment, and is otherwise the same as the position specifying device 100 according to the first embodiment.

実施の形態2における携帯端末3Aは、実施の形態1に係る携帯端末3の機能部に加えて、磁気センサ34を更に有する。   The mobile terminal 3A in the second embodiment further includes a magnetic sensor 34 in addition to the functional units of the mobile terminal 3 according to the first embodiment.

磁気センサ34は、3軸(互いに直交するX軸、Y軸、およびZ軸)方向の磁場の大きさおよび方向を示すベクトル情報を計測する。具体的に、磁気センサ34は、撮像装置31によって画像322を撮影したときに計測した磁場の大きさおよび方向を示す第1ベクトルとしての磁場ベクトルB=(x’,y’,z’)を、磁場情報323として記憶部32に記憶する。   The magnetic sensor 34 measures vector information indicating the magnitude and direction of the magnetic field in the direction of three axes (X axis, Y axis, and Z axis orthogonal to each other). Specifically, the magnetic sensor 34 uses a magnetic field vector B = (x ′, y ′, z ′) as a first vector indicating the magnitude and direction of the magnetic field measured when the image 322 is captured by the imaging device 31. And stored in the storage unit 32 as the magnetic field information 323.

携帯端末3Aは、例えば撮像装置31によって画像を撮影する毎に、撮影した画像322、磁気センサ34によって計測された磁場情報323、および画像322を撮影した時刻の情報等を、観測対象データ321Aとして記憶部32に記憶する。   The portable terminal 3A, for example, every time an image is captured by the imaging device 31, the captured image 322, the magnetic field information 323 measured by the magnetic sensor 34, the information on the time when the image 322 was captured, and the like as observation target data 321A. Store in the storage unit 32.

実施の形態2に係る位置特定装置100Aの記憶部2Aには、基準データ20に加えて、磁場マップ22が記憶部2に記憶される。磁場マップ22は、測位対象空間5の磁場の情報を含むデータである。   In addition to the reference data 20, a magnetic field map 22 is stored in the storage unit 2 in the storage unit 2A of the position specifying device 100A according to the second embodiment. The magnetic field map 22 is data including information on the magnetic field of the positioning target space 5.

図8は、磁場マップの一例を示す図である。
図8に示されるように、磁場マップ22は、3次元空間としての測位対象空間5における磁場の情報である。具体的に、磁場マップ22は、3軸(互いに直交するX軸、Y軸、およびZ軸)方向の磁場の大きさおよび方向を示すベクトル情報として、第2ベクトルおよび第3ベクトルを含む。
FIG. 8 is a diagram illustrating an example of a magnetic field map.
As shown in FIG. 8, the magnetic field map 22 is information on the magnetic field in the positioning target space 5 as a three-dimensional space. Specifically, the magnetic field map 22 includes a second vector and a third vector as vector information indicating the magnitude and direction of the magnetic field in the directions of three axes (X axis, Y axis, and Z axis orthogonal to each other).

ここで、第2ベクトルは、測位対象空間5における特定の位置50_1〜50_nにおいて計測された磁場の大きさおよび方向を示す磁場ベクトルB1=(x,y,z)〜Bn=(x,y,z)である。 Here, the second vector is a magnetic field vector B1 = (x 1 , y 1 , z 1 ) to Bn = (x) indicating the magnitude and direction of the magnetic field measured at specific positions 50_1 to 50_n in the positioning target space 5. n, y n, is the z n).

また、第3ベクトルは、測位対象空間5において所定の方位を向いて計測された磁場の大きさおよび方向を示す基準ベクトルB0=(x,y,z)である。例えば、図8に示すように、測位対象空間5の位置50_1において、真北(地磁気の方向)を基準方位とした場合に、磁気センサをその基準方位に向けて計測した磁場の大きさおよび方位を、基準ベクトルB0=(x,y,z)とする。 The third vector is a reference vector B0 = (x 0 , y 0 , z 0 ) indicating the magnitude and direction of the magnetic field measured in a predetermined direction in the positioning target space 5. For example, as illustrated in FIG. 8, when the true north (the direction of geomagnetism) is set as the reference direction at the position 50_1 in the positioning target space 5, the magnitude and direction of the magnetic field measured with the magnetic sensor toward the reference direction. Is a reference vector B0 = (x 0 , y 0 , z 0 ).

なお、基準ベクトルを計測する場所は、測位対象空間5内の任意の位置であればよく、上述の“位置50_1”に限定されない。また、基準ベクトルB0を計測する際の基準方位も“真北”である必要はなく、既知の任意の方位に合わせればよい。   The place where the reference vector is measured may be any position in the positioning target space 5, and is not limited to the above-mentioned “position 50_1”. Further, the reference orientation for measuring the reference vector B0 does not need to be “true north”, and may be adjusted to a known arbitrary orientation.

磁場マップ22は、基準データ20とともに、位置特定装置100による位置特定処理を実行する前に、予め記憶部2Aに記憶されている。例えば、基準データ20の場合と同様に、磁気センサを搭載した小型調査装置(ロボット)に測位対象空間5内を移動させ、特定の位置50_1〜50_n毎に上記磁気センサで測定した磁場のベクトルB1=(x,y,z)〜Bn=(x,y,z)を、各特定の位置50_1〜50_nを示す位置情報と紐付けて、磁場マップ22の情報として記憶部2Aに記憶させればよい。 The magnetic field map 22 is stored together with the reference data 20 in the storage unit 2A in advance before the position specifying process by the position specifying device 100 is executed. For example, as in the case of the reference data 20, a small survey apparatus (robot) equipped with a magnetic sensor is moved in the positioning target space 5, and the magnetic field vector B1 measured by the magnetic sensor for each specific position 50_1 to 50_n. = (X 1 , y 1 , z 1 ) to Bn = (x n , y n , z n ) are associated with position information indicating each specific position 50_1 to 50_n, and stored as information of the magnetic field map 22 What is necessary is just to memorize | store in 2A.

また、小型調査装置に搭載した磁気センサによって、測位対象空間5内の任意の位置において特定の方位を向いたときの基準ベクトルB0を計測し、磁場マップ22の情報として記憶部2Aに記憶する。例えば、小型調査ロボットを位置50_1に配置し、その場所で磁気センサを真北方向(地磁気の方向)に向けて磁場の大きさおよび方位を計測し、計測した磁場の大きさおよび方位を基準ベクトルB0とすればよい。   In addition, the reference vector B0 when facing a specific direction at an arbitrary position in the positioning target space 5 is measured by a magnetic sensor mounted on the small survey device, and stored in the storage unit 2A as information of the magnetic field map 22. For example, a small survey robot is placed at a position 50_1, the magnetic sensor is directed to the true north direction (the direction of geomagnetism) at that location, and the magnitude and direction of the magnetic field are measured. B0 may be used.

磁場マップ22を作成する際には、小型調査装置に搭載する磁気センサの計測の基準となる3軸(ローカル座標)と、測位対象空間5(マップ)を表す3軸(グローバル座標)とを一致させておく必要がある。例えば、測位対象空間5を表すグローバル座標を図4に示すX軸、Y軸、およびZ軸に定めた場合、小型調査装置に搭載する磁気センサの計測の基準となるX軸、Y軸、およびZ軸のローカル座標を、上記図4のX軸、Y軸、Z軸に一致させた状態で、測位対象空間5の各位置50_1〜50_nにおける磁場ベクトルB1〜Bnをそれぞれ計測する。
したがって、任意の位置50_iにおけるローカル座標上での磁場ベクトルをBi’=(x’,y’,z’)とし、任意の位置50_iにおけるグローバル座標上での磁場ベクトルをBi=(x,y,z)としたとき、磁場マップ22の任意の位置50_iにおける磁場ベクトルBiは、Bi=(x,y,z)=(x’,y’,z’)となる。
When the magnetic field map 22 is created, the three axes (local coordinates) serving as the measurement reference of the magnetic sensor mounted on the small survey device and the three axes (global coordinates) representing the positioning target space 5 (map) are matched. It is necessary to keep it. For example, when the global coordinates representing the positioning target space 5 are set to the X axis, the Y axis, and the Z axis shown in FIG. 4, the X axis, the Y axis, and the measurement reference of the magnetic sensor mounted on the small survey device, The magnetic field vectors B1 to Bn at the respective positions 50_1 to 50_n in the positioning target space 5 are measured in a state where the local coordinates of the Z axis are made coincident with the X axis, the Y axis, and the Z axis in FIG.
Therefore, the magnetic field vector on the local coordinates at an arbitrary position 50 — i is Bi ′ = (x i ′, y i ′, z i ′), and the magnetic field vector on the global coordinates at the arbitrary position 50 — i is Bi = (x i , y i , z i ), the magnetic field vector Bi at an arbitrary position 50 — i of the magnetic field map 22 is represented by Bi = (x i , y i , z i ) = (x i ′, y i ′, z i). ').

また、磁場マップ22の磁場ベクトルB1〜Bnおよび基準ベクトルB0を計測するときの上記磁気センサの地面からの高さ(Z方向の高さ)は、観測対象4に装着される磁気センサ34の地面からの高さ(Z方向の高さ)と同程度にすることが望ましい。   The height of the magnetic sensor from the ground (height in the Z direction) when measuring the magnetic field vectors B1 to Bn and the reference vector B0 of the magnetic field map 22 is the ground of the magnetic sensor 34 attached to the observation target 4. It is desirable that the height be approximately the same as the height from (the height in the Z direction).

実施の形態2に係る位置特定装置100Aのデータ処理制御部1Aは、データ取得部11A、画像照合部12A、特定部13A、および磁場照合部14を有する。   The data processing control unit 1A of the position specifying device 100A according to the second embodiment includes a data acquisition unit 11A, an image matching unit 12A, a specifying unit 13A, and a magnetic field matching unit 14.

データ取得部11Aは、実施の形態1に係るデータ取得部11と同様に、携帯端末3Aの出力部33から出力された観測対象データ321Aを有線通信または無線通信によって取得する。データ取得部11Aは、携帯端末3Aから取得した観測対象データ321Aから画像322を抽出して画像照合部12Aに与えるとともに、当該観測対象データ321Aから磁場情報323を抽出して、磁場照合部14に与える。   Similarly to the data acquisition unit 11 according to the first embodiment, the data acquisition unit 11A acquires the observation target data 321A output from the output unit 33 of the mobile terminal 3A by wired communication or wireless communication. The data acquisition unit 11A extracts the image 322 from the observation target data 321A acquired from the mobile terminal 3A and gives the image 322 to the image verification unit 12A, and extracts the magnetic field information 323 from the observation target data 321A. give.

画像照合部12Aは、記憶部2Aに記憶された基準データ20に含まれる画像203と、データ取得部11Aから受け取った画像322とを照合する画像照合処理を行う。具体的には、画像照合部12Aは、携帯端末3Aによって撮影された画像322の特徴量と一致または類似する特徴量を有する画像203を選択する。そして、選択した画像203を含む基準データ20に対応する位置50_1〜50_nおよび方位を、観測対象4の測位対象空間5における位置50_1〜50_nおよび方位の候補とし、その候補の位置および方位の情報を、画像照合結果120Aとして特定部13に与える。   The image matching unit 12A performs an image matching process for matching the image 203 included in the reference data 20 stored in the storage unit 2A and the image 322 received from the data acquisition unit 11A. Specifically, the image collation unit 12A selects an image 203 having a feature amount that matches or is similar to the feature amount of the image 322 captured by the mobile terminal 3A. Then, the positions 50_1 to 50_n and the direction corresponding to the reference data 20 including the selected image 203 are set as the positions 50_1 to 50_n and the direction candidates in the positioning target space 5 of the observation target 4, and information on the positions and directions of the candidates is used. The image matching result 120A is given to the specifying unit 13.

磁場照合部14は、記憶部2Aに記憶された磁場マップ22とデータ取得部11から与えられた磁場情報323とを照合する磁場照合処理を行う。具体的には、磁場情報323に含まれる携帯端末3Aの磁気センサ34によって計測された磁場ベクトルB=(x’,y’,z’)を特徴量とし、この特徴量と一致または類似する磁場ベクトルBj=(x’,y’,z’)を磁場マップ22に含まれる磁場ベクトルB1〜Bnの中から選択する。そして、選択した磁場ベクトルBjに対応する位置50_jを、観測対象4の測位対象空間5における位置の候補とする。なお、1≦j≦nである。 The magnetic field collation unit 14 performs a magnetic field collation process for collating the magnetic field map 22 stored in the storage unit 2 </ b> A and the magnetic field information 323 given from the data acquisition unit 11. Specifically, a magnetic field vector B = (x ′, y ′, z ′) measured by the magnetic sensor 34 of the mobile terminal 3A included in the magnetic field information 323 is used as a feature value, and a magnetic field that matches or is similar to this feature value. The vector Bj = (x j ′, y j ′, z j ′) is selected from the magnetic field vectors B1 to Bn included in the magnetic field map 22. The position 50 — j corresponding to the selected magnetic field vector Bj is set as a position candidate of the observation target 4 in the positioning target space 5. Note that 1 ≦ j ≦ n.

また、磁場照合部14は、上記磁場照合処理によって候補とした位置50_jの磁場ベクトルBjと、磁場情報323に含まれる携帯端末3Aの磁気センサ34によって計測された磁場ベクトルB=(x’,y’,z’)と、磁場マップ22に含まれる基準ベクトルB0=(x,y,z)とに基づいて、携帯端末3Aを有する観測対象4の方位の候補を決定する。以下、磁場照合部14による方位の特定方法について図を用いて詳細に説明する。 The magnetic field collation unit 14 also uses the magnetic field vector Bj at the position 50 — j as a candidate by the magnetic field collation process and the magnetic field vector B = (x ′, y measured by the magnetic sensor 34 of the mobile terminal 3A included in the magnetic field information 323. Based on ', z') and the reference vector B0 = (x 0 , y 0 , z 0 ) included in the magnetic field map 22, the azimuth candidate of the observation target 4 having the mobile terminal 3A is determined. Hereinafter, the direction specifying method by the magnetic field matching unit 14 will be described in detail with reference to the drawings.

図9は、磁場照合部14による方位の特定方法を説明するための図である。
ここでは、一例として、観測対象4の正面方向と磁気センサ34のローカル座標のY軸とを一致させた状態で、観測対象4が磁気センサ34を装着しているものとする。
FIG. 9 is a diagram for explaining a method of specifying an orientation by the magnetic field matching unit 14.
Here, as an example, it is assumed that the observation target 4 is mounted with the magnetic sensor 34 in a state where the front direction of the observation target 4 and the Y axis of the local coordinates of the magnetic sensor 34 are matched.

同図に示されるように、磁場照合部14は、先ず、上記磁場照合処理によって候補とした位置50_jの磁場ベクトルBj=(x’,y’,z’)と、携帯端末3Aの磁気センサ34によって計測された磁場ベクトルB=(x’,y’,z’)との差分に基づいて、角度θ,φを算出する。 As shown in the figure, the magnetic field collation unit 14 first determines the magnetic field vector Bj = (x j ′, y j ′, z j ′) at the position 50 — j that is a candidate by the magnetic field collation process and the mobile terminal 3A. Based on the difference from the magnetic field vector B = (x ′, y ′, z ′) measured by the magnetic sensor 34, the angles θ and φ are calculated.

ここで、角度θは、磁場ベクトルBのy’成分と磁場ベクトルBjとのなす角である。角度φは、磁場ベクトルBのy’成分とx’成分とによって定まるx’−y’平面と磁場ベクトルBjとのなす角である。
上述したように、観測対象4の正面方向と磁気センサ34のローカル座標のY軸とを一致させた場合、角度θは、観測対象4の測位対象空間5における水平方向の向きを表し、角度φは、観測対象4の測位対象空間5における上下方向の向き(x’−y’平面に対する角度)を表す。
Here, the angle θ is an angle formed between the y ′ component of the magnetic field vector B and the magnetic field vector Bj. The angle φ is an angle formed by the x′-y ′ plane determined by the y ′ component and the x ′ component of the magnetic field vector B and the magnetic field vector Bj.
As described above, when the front direction of the observation target 4 is matched with the Y axis of the local coordinates of the magnetic sensor 34, the angle θ represents the horizontal direction of the observation target 4 in the positioning target space 5, and the angle φ Represents the vertical direction of the observation target 4 in the positioning target space 5 (angle relative to the x′-y ′ plane).

具体的に、磁場照合部14は、式(1)に基づいて角度θを算出し、式(2)に基づいて角度φを算出する。   Specifically, the magnetic field matching unit 14 calculates the angle θ based on the formula (1), and calculates the angle φ based on the formula (2).

Figure 2018185182
Figure 2018185182

Figure 2018185182
Figure 2018185182

上述の手法により、磁気センサ34によって計測した磁場ベクトルBの磁場ベクトルBjに対する角度θ,φがわかるので、磁場マップ22から基準ベクトルB0に対する角度を算出することが可能となる。   By the above-described method, the angles θ and φ with respect to the magnetic field vector Bj of the magnetic field vector B measured by the magnetic sensor 34 can be known, and therefore the angle with respect to the reference vector B0 can be calculated from the magnetic field map 22.

具体的には、磁場照合部14は、角度θ,φと基準ベクトルB0とに基づいて方位を決定し、その方位を観測対象4の向きの候補とする。より具体的には、磁場ベクトルBj=(x’,y’,z’)と基準ベクトルB0=(x,y,z)との差分に基づいて、基準ベクトルB0に対する磁場ベクトルBjの角度を算出するとともに、その角度を上記角度θ,φによって補正(例えば、θ,φを加算または減算)し、補正した角度に対応する方位を観測対象4の向きの候補とする。 Specifically, the magnetic field matching unit 14 determines an orientation based on the angles θ and φ and the reference vector B0, and sets the orientation as a candidate for the orientation of the observation target 4. More specifically, the magnetic field vector Bj = (x j ', y j', z j ') based on the difference between the reference vector B0 = (x 0, y 0 , z 0), the magnetic field relative to a reference vector B0 The angle of the vector Bj is calculated, and the angle is corrected by the angles θ and φ (for example, θ or φ is added or subtracted), and the direction corresponding to the corrected angle is set as a candidate for the direction of the observation target 4.

そして、磁場照合部14は、上述の磁場の照合によって決定した位置の候補の情報と、角度θ,φに基づいて決定した観測対象4の向きの候補の情報とを、磁場照合結果140として特定部13に与える。   Then, the magnetic field matching unit 14 specifies, as magnetic field matching results 140, information on position candidates determined by the above-described magnetic field matching and information on candidate orientations of the observation target 4 determined based on the angles θ and φ. Part 13 is given.

特定部13Aは、画像照合部12Aによる画像照合結果120Aと磁場照合部14による磁場照合結果140とに基づいて、観測対象4の位置および方位を特定する。   The specifying unit 13A specifies the position and orientation of the observation target 4 based on the image matching result 120A by the image matching unit 12A and the magnetic field matching result 140 by the magnetic field matching unit 14.

具体的に、特定部13Aは、画像照合結果120Aに含まれる位置情報201および方位情報202の候補の中から、磁場照合結果140に含まれる位置および方位の候補に最も近い位置および方位(一致または最も類似する位置および方位)を選択する。そして、選択した候補の位置情報201に対応する位置を、観測対象データ321の画像322が撮影された時刻における観測対象4の測位対象空間5における位置とし、選択した候補の方位情報202に対応する方位を、観測対象データ321の画像322が撮影された時刻における観測対象4の測位対象空間5における向きとする。   Specifically, the specifying unit 13A selects the position and direction (match or match) closest to the position and direction candidates included in the magnetic field verification result 140 from the candidates of the position information 201 and the direction information 202 included in the image verification result 120A. Select the most similar position and orientation). Then, the position corresponding to the position information 201 of the selected candidate is set as the position in the positioning target space 5 of the observation target 4 at the time when the image 322 of the observation target data 321 is taken, and corresponds to the direction information 202 of the selected candidate. The azimuth is the orientation of the observation target 4 in the positioning target space 5 at the time when the image 322 of the observation target data 321 is taken.

次に、実施の形態2に係る位置特定装置100Aによる位置特定処理の流れについて説明する。
図10は、実施の形態2に係る位置特定装置100Aによる位置特定処理の流れを示すフロー図である。
Next, the flow of position specifying processing by the position specifying device 100A according to Embodiment 2 will be described.
FIG. 10 is a flowchart showing a flow of position specifying processing by the position specifying apparatus 100A according to the second embodiment.

先ず、位置特定装置100Aにおいて、データ処理制御部1Aのデータ取得部11が、上述した手法により、携帯端末3Aから観測対象データ321を取得し、その観測対象データ321に含まれる画像322を画像照合部12Aに与えるとともに、その観測対象データ321に含まれる磁場情報323を磁場照合部14に与える(ステップS11)。   First, in the position specifying device 100A, the data acquisition unit 11 of the data processing control unit 1A acquires the observation target data 321 from the portable terminal 3A by the above-described method, and the image 322 included in the observation target data 321 is subjected to image verification. The magnetic field information 323 included in the observation target data 321 is given to the magnetic field verification unit 14 while being given to the unit 12A (step S11).

次に、画像照合部12Aが、ステップS11で取得した観測対象データ321Aの画像322と記憶部2に予め記憶されている基準データ20の画像203とに基づいて、上述の画像照合処理を開始する(ステップS12)。   Next, the image matching unit 12A starts the above-described image matching process based on the image 322 of the observation target data 321A acquired in step S11 and the image 203 of the reference data 20 stored in advance in the storage unit 2. (Step S12).

画像照合処理において、画像照合部12Aは、記憶部2に記憶されている基準データ20中に、観測対象データ321Aの画像322と一致または類似する画像203を含む基準データ20の有無を判定する(ステップS13)。   In the image matching process, the image matching unit 12A determines whether or not the reference data 20 including the image 203 that matches or is similar to the image 322 of the observation target data 321A in the reference data 20 stored in the storage unit 2 ( Step S13).

ステップS13において、記憶部2に記憶されている基準データ20の中に画像322と一致または類似する画像203を含む基準データ20がない場合には、位置特定処理を停止する。   In step S13, when there is no reference data 20 including the image 203 that matches or is similar to the image 322 in the reference data 20 stored in the storage unit 2, the position specifying process is stopped.

ステップS13において、記憶部2に記憶されている基準データ20の中に画像322と一致または類似する画像203を含む基準データ20がある場合には、画像照合部12Aが、画像322と一致または類似する画像203を含む基準データ20に対応する位置および方位を、観測対象4の測位対象空間5における位置50_1〜50_nおよび方向の候補とし、その候補の位置および方位の情報を、画像照合結果120Aとして特定部13に与える(ステップS14)。   In step S <b> 13, when there is reference data 20 including the image 203 that matches or is similar to the image 322 in the reference data 20 stored in the storage unit 2, the image matching unit 12 </ b> A matches or is similar to the image 322. The position and orientation corresponding to the reference data 20 including the image 203 to be used are candidates for positions 50_1 to 50_n and directions in the positioning target space 5 of the observation object 4, and information on the positions and orientations of the candidates is used as the image matching result 120A. It gives to the specific part 13 (step S14).

一方、磁場照合部14は、ステップS11で取得した観測対象データ321Aの磁場情報323と記憶部2に予め記憶されている磁場マップ22とに基づいて、上述の磁場照合処理を開始する(ステップS15)。   On the other hand, the magnetic field verification unit 14 starts the above-described magnetic field verification process based on the magnetic field information 323 of the observation target data 321A acquired in step S11 and the magnetic field map 22 stored in advance in the storage unit 2 (step S15). ).

磁場照合処理において、磁場照合部14は、記憶部2に記憶されている磁場マップ22の磁場ベクトルB1〜Bnの中に、観測対象データ321Aの磁場情報323に基づく磁場ベクトルBと一致または類似する磁場ベクトルB1〜Bnの有無を判定する(ステップS16)。   In the magnetic field matching process, the magnetic field matching unit 14 matches or resembles the magnetic field vector B based on the magnetic field information 323 of the observation target data 321A among the magnetic field vectors B1 to Bn of the magnetic field map 22 stored in the storage unit 2. The presence / absence of the magnetic field vectors B1 to Bn is determined (step S16).

ステップS16において、磁場マップ22の中に、磁場ベクトルBと一致または類似する磁場ベクトルB1〜Bnがない場合には、後述するステップS20に移行する。   In step S16, when there are no magnetic field vectors B1 to Bn that match or are similar to the magnetic field vector B in the magnetic field map 22, the process proceeds to step S20 described later.

一方、ステップS16において、磁場マップ22の中に、磁場ベクトルBと一致または類似する磁場ベクトルB1〜Bnがある場合には、磁場照合部14は、一致または類似する磁場ベクトルBjに対応する位置50_jを、観測対象4の測位対象空間5における位置の候補として決定する(ステップS17)。   On the other hand, in step S16, when the magnetic field map 22 includes magnetic field vectors B1 to Bn that match or are similar to the magnetic field vector B, the magnetic field matching unit 14 positions 50_j corresponding to the matching or similar magnetic field vector Bj. Are determined as position candidates of the observation target 4 in the positioning target space 5 (step S17).

次に、磁場照合部14は、ステップS17で候補とした位置50_jの磁場ベクトルBjと、磁場マップ22に含まれる基準ベクトルB0と、磁場情報323に基づく磁場ベクトルBとに基づいて、観測対象4の方位の候補を決定する(ステップS18)。具体的には、上述したように、磁場ベクトルBjと磁場ベクトルBとの差分から角度θ,φを算出し、その角度θ,φと基準ベクトルB0とに基づいて、観測対象4の向きの候補を決定する。   Next, the magnetic field matching unit 14 observes 4 based on the magnetic field vector Bj at the position 50_j that is a candidate in step S17, the reference vector B0 included in the magnetic field map 22, and the magnetic field vector B based on the magnetic field information 323. Are determined (step S18). Specifically, as described above, the angles θ and φ are calculated from the difference between the magnetic field vector Bj and the magnetic field vector B, and based on the angles θ and φ and the reference vector B0, candidates for the orientation of the observation target 4 To decide.

次に、磁場照合部14は、ステップS17で決定した観測対象4の位置の候補の情報と、ステップS18で決定した観測対象4の向きの候補の情報とを、磁場照合結果140として特定部13に与える(ステップS19)。   Next, the magnetic field matching unit 14 uses the information on the candidate position of the observation target 4 determined in step S17 and the information on the candidate direction of the observation target 4 determined in step S18 as the magnetic field matching result 140 to the specifying unit 13. (Step S19).

次に、特定部13が、ステップS14で受け取った画像照合結果120Aと、ステップS19で受け取った磁場照合結果140とに基づいて、上述した手法により、ステップS11で取得した観測対象データ321の画像322が撮影された時刻における観測対象4の位置および向きを特定する(ステップS20)。   Next, based on the image matching result 120A received in step S14 and the magnetic field matching result 140 received in step S19, the specifying unit 13 uses the method described above to obtain the image 322 of the observation target data 321 acquired in step S11. The position and orientation of the observation object 4 at the time when is photographed are identified (step S20).

なお、ステップS16において、磁場マップ22の中に磁場ベクトルBと一致または類似する磁場ベクトルB1〜Bnがなかった場合には、ステップS20において、実施の形態1と同様の手法により、ステップS14の画像照合結果120Aを用いて観測対象4の位置および向きを特定する。すなわち、この場合には、磁場の情報を用いずに、画像のみによって観測対象4の位置および向きを特定する。   In step S16, if there are no magnetic field vectors B1 to Bn that match or are similar to the magnetic field vector B in the magnetic field map 22, the image of step S14 is obtained in step S20 by the same method as in the first embodiment. The position and orientation of the observation object 4 are specified using the collation result 120A. That is, in this case, the position and orientation of the observation object 4 are specified by using only the image without using the magnetic field information.

位置特定装置100Aは、上述したステップS11〜S20までの処理を、携帯端末3Aの記憶部32に記憶されている観測対象データ321A毎に行うことにより、各観測対象データ321Aの画像322が撮影された時刻毎の、観測対象4の位置および向きを特定することができる。   The position specifying device 100A performs the processing from step S11 to S20 described above for each observation target data 321A stored in the storage unit 32 of the mobile terminal 3A, whereby an image 322 of each observation target data 321A is taken. It is possible to specify the position and orientation of the observation object 4 for each time.

なお、図10に示す処理フローでは、画像照合処理(ステップS12〜S14)の後に、磁場照合処理(ステップS15〜S19)を実行する場合を例示したが、これに限定されない。例えば、磁場照合処理(ステップS15〜S19)の後に画像照合処理(ステップS12〜S14)を行ってもよいし、磁場照合処理(ステップS15〜S19)と画像照合処理(ステップS12〜S14)を並列的に行ってもよい。   In the processing flow shown in FIG. 10, the case where the magnetic field matching process (steps S15 to S19) is executed after the image matching process (steps S12 to S14) is illustrated, but the present invention is not limited to this. For example, the image matching process (steps S12 to S14) may be performed after the magnetic field matching process (steps S15 to S19), or the magnetic field matching process (steps S15 to S19) and the image matching process (steps S12 to S14) are performed in parallel. It may be done automatically.

以上、実施の形態2に係る位置特定装置100Aは、携帯端末3Aによって撮影された観測対象データ321Aに含まれる画像322と基準データ20に含まれる画像203との画像照合結果120Aと、磁場マップ22と観測対象データ321Aに含まれる磁場情報323との磁場照合結果140とに基づいて、観測対象の位置および向きを特定する。   As described above, the position specifying device 100A according to Embodiment 2 includes the image matching result 120A between the image 322 included in the observation target data 321A photographed by the mobile terminal 3A and the image 203 included in the reference data 20, and the magnetic field map 22. And the position and orientation of the observation target are specified based on the magnetic field comparison result 140 with the magnetic field information 323 included in the observation target data 321A.

これによれば、画像のみを用いる場合に比べてより正確に、測位対象空間5における観測対象4の位置および向きを特定することが可能となる。特に、測位対象空間5が屋内である場合に、観測対象4の位置および向きをより精度良く特定することが可能となる。すなわち、一般に、屋内は、屋外に比べて地磁気が乱れる傾向があり、特に、電磁波を発生する電気製品やコンクリートの壁に近づくほど地磁気が乱れる傾向があるので、位置特定装置100Aのように地磁気の乱れを積極的に利用することにより、屋内での観測対象の位置を、より正確に特定することが可能となる。   This makes it possible to specify the position and orientation of the observation target 4 in the positioning target space 5 more accurately than when only the image is used. In particular, when the positioning target space 5 is indoors, the position and orientation of the observation target 4 can be specified with higher accuracy. That is, in general, the geomagnetism tends to be disturbed indoors compared to the outdoors, and in particular, the geomagnetism tends to be disturbed as it approaches an electric product or concrete wall that generates electromagnetic waves. By actively using the disturbance, it is possible to specify the position of the observation target indoors more accurately.

また、位置特定装置100Aによれば、画像照合結果120Aに基づく候補の位置および方位の中から、磁場照合結果140に基づく候補の位置および方位に最も近い位置および方位を選択し、選択した位置および方位に基づいて、測位対象空間5における観測対象4の位置および向きを決定するので、例えば、観測対象に装着した携帯端末3Aによって撮影した画像に類似する画像を含む基準データ20が複数存在する場合であっても、最適な位置および方位を特定することが容易となる。   Further, according to the position specifying device 100A, the position and orientation closest to the candidate position and orientation based on the magnetic field matching result 140 are selected from the candidate positions and orientations based on the image matching result 120A, and the selected position and orientation are selected. Since the position and orientation of the observation target 4 in the positioning target space 5 are determined based on the azimuth, for example, when there are a plurality of reference data 20 including an image similar to an image photographed by the mobile terminal 3A attached to the observation target Even so, it becomes easy to specify the optimum position and orientation.

また、位置特定装置100Aは、上述したように、磁場照合によって候補とした位置50_jの磁場ベクトルBjと、磁場マップ22に含まれる基準ベクトルB0と、予め特定の方位を向いて計測した磁場の基準ベクトルB0とに基づいて、方位の候補を決定するので、観測対象の向きをより正確に特定することが可能となる。   In addition, as described above, the position specifying device 100A has the magnetic field vector Bj at the position 50_j that is a candidate by the magnetic field matching, the reference vector B0 included in the magnetic field map 22, and the reference of the magnetic field measured in advance in a specific direction. Since the azimuth candidates are determined based on the vector B0, the direction of the observation target can be specified more accurately.

≪実施の形態の拡張≫
以上、本発明者らによってなされた発明を実施の形態に基づいて具体的に説明したが、本発明はそれに限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは言うまでもない。
<< Extended embodiment >>
Although the invention made by the present inventors has been specifically described based on the embodiments, it is needless to say that the present invention is not limited thereto and can be variously modified without departing from the gist thereof. Yes.

例えば、上記実施の形態では、測位対象空間が屋内である場合を一例として説明したが、範囲が限定された空間であれば、屋外であってもよい。この場合、基準データに含まれる位置情報として、座標情報ではなく、GPSによって取得した緯度および経度の情報を用いてもよい。   For example, in the above-described embodiment, the case where the positioning target space is indoor has been described as an example, but it may be outdoor as long as the range is limited. In this case, as position information included in the reference data, information on latitude and longitude acquired by GPS may be used instead of coordinate information.

また、上記実施の形態では、位置特定システム500,500Aとして、データ処理制御部1,1Aおよび記憶部2,2Aを含む位置特定装置100,100Aとしてのパーソナルコンピュータと携帯端末3,3AとがUSBケーブル等で接続された構成を例示したが、これに限られない。   In the above embodiment, the position specifying system 500, 500A includes a personal computer as the position specifying device 100, 100A including the data processing control unit 1, 1A and the storage unit 2, 2A, and the portable terminal 3, 3A. Although the structure connected by the cable etc. was illustrated, it is not restricted to this.

例えば、所謂クラウドサービスのように、位置特定システム500,500Aを、位置特定装置100,100Aとしてのサーバと携帯端末3とが無線通信回線から成るネットワークに接続された構成としてもよい。この位置特定システム500,500Aでは、携帯端末3,3Aによって撮影した観測対象データ321,321Aを順次所定のタイミングでサーバに転送し、サーバがその観測対象データ321に基づいて上述した位置特定に係る処理を実行してもよい。この場合、上記ネットワークに別の監視端末(パーソナルコンピュータ)を接続しておき、上記サーバが位置特定に係る処理の結果を、監視端末に適宜送信してもよい。
これによれば、携帯端末3,3Aを所持している作業者の動きを、作業者とは別の場所に設置した監視端末によって監視することが可能となる。
For example, as in the so-called cloud service, the position specifying system 500, 500A may be configured such that the server as the position specifying apparatus 100, 100A and the mobile terminal 3 are connected to a network formed by a wireless communication line. In the position specifying systems 500 and 500A, the observation target data 321 and 321A photographed by the portable terminals 3 and 3A are sequentially transferred to the server at a predetermined timing, and the server relates to the above-described position specification based on the observation target data 321. Processing may be executed. In this case, another monitoring terminal (personal computer) may be connected to the network, and the server may appropriately transmit the result of the processing relating to the position specification to the monitoring terminal.
According to this, it is possible to monitor the movement of the worker carrying the portable terminals 3 and 3A by the monitoring terminal installed at a place different from the worker.

また、上記実施の形態では、基準データに記憶される方位情報202として、測位対象空間5におけるX−Y平面上の方位の情報を記憶する場合を例示したが、これに限られない。例えば、方位情報202として、Z軸方向の成分、すなわちX−Y平面に対する角度の情報も含めてもよい。   Moreover, although the case where the information of the azimuth | direction on the XY plane in the positioning object space 5 was memorize | stored as the azimuth | direction information 202 memorize | stored in reference | standard data was demonstrated in the said embodiment, it is not restricted to this. For example, the azimuth information 202 may include information on the component in the Z-axis direction, that is, information on the angle with respect to the XY plane.

100,100A‥位置特定装置、1,1A…データ処理制御部、2,2A…記憶部、3,3A…携帯端末、4…観測対象、5…測位対象空間、11,11A…データ取得部、12,12A…画像照合部、13,13A…特定部、14…磁場照合部、20…基準データ、22…磁場マップ、31…撮像装置、32…記憶部、33…出力部、34…磁気センサ、50_1〜50_n,50_i,50_j…測位対象空間内の位置、120,120A…画像照合結果、140…磁場照合結果、201…位置情報、202…方位情報、203,322…画像、321,321A…観測対象データ、323…磁場情報、500…位置特定システム。   DESCRIPTION OF SYMBOLS 100,100A ... Position identification apparatus, 1, 1A ... Data processing control part, 2, 2A ... Memory | storage part, 3, 3A ... Portable terminal, 4 ... Observation object, 5 ... Positioning object space, 11, 11A ... Data acquisition part, DESCRIPTION OF SYMBOLS 12, 12A ... Image collation part, 13, 13A ... Identification part, 14 ... Magnetic field collation part, 20 ... Reference | standard data, 22 ... Magnetic field map, 31 ... Imaging device, 32 ... Memory | storage part, 33 ... Output part, 34 ... Magnetic sensor , 50_1 to 50_n, 50_i, 50_j ... positions in the positioning target space, 120,120A ... image matching results, 140 ... magnetic field matching results, 201 ... position information, 202 ... azimuth information, 203,322 ... images, 321,321A ... Observation target data, 323... Magnetic field information, 500.

Claims (5)

測位対象空間における特定の位置を示す位置情報と、前記特定の位置での方位を示す方位情報と、前記特定の位置で所定の方位を向いて撮影された画像とを関連付けた基準データを記憶する記憶部と、
観測対象が有する撮像装置によって撮影された画像を含む観測対象データと、前記記憶部に記憶された前記基準データとに基づいて、前記測位対象空間における前記観測対象の位置および前記観測対象の向きを特定するデータ処理制御部と、を備え、
前記データ処理制御部は、
前記観測対象データを取得するデータ取得部と、
前記データ取得部によって取得した前記観測対象データに含まれる画像と、前記基準データに含まれる画像とを照合する画像照合部と、
前記画像照合部による照合によって前記観測対象データに含まれる画像と一致または類似すると判定された画像を含む前記基準データの前記位置情報および前記方位情報に基づいて、前記観測対象の位置および向きを特定する特定部と、を含む
ことを特徴とする位置特定装置。
Stores reference data associating position information indicating a specific position in the positioning target space, direction information indicating an azimuth at the specific position, and an image shot at the specific position facing a predetermined direction. A storage unit;
Based on observation target data including an image photographed by an imaging device included in the observation target and the reference data stored in the storage unit, the position of the observation target and the direction of the observation target in the positioning target space are determined. A data processing control unit to identify,
The data processing control unit
A data acquisition unit for acquiring the observation target data;
An image collation unit that collates an image included in the observation target data acquired by the data acquisition unit with an image included in the reference data;
The position and orientation of the observation target are specified based on the position information and the azimuth information of the reference data including the image determined to match or similar to the image included in the observation target data by the verification by the image verification unit A position specifying device, comprising:
請求項1に記載の位置特定装置において、
前記記憶部は、前記測位対象空間における磁場の情報を含む磁場マップを更に記憶し、
前記観測対象データは、前記撮像装置によって画像を撮影した位置における磁場の情報を更に含み、
前記データ処理制御部は、
前記磁場マップと前記観測対象データに含まれる磁場の情報とを照合する磁場照合部を更に含み、
前記特定部は、前記画像照合部による照合結果と前記磁場照合部による照合結果とに基づいて、前記測位対象空間における前記観測対象の位置および向きを特定する
ことを特徴とする位置特定装置。
The position identifying device according to claim 1,
The storage unit further stores a magnetic field map including information on a magnetic field in the positioning target space,
The observation target data further includes magnetic field information at a position where an image is captured by the imaging device,
The data processing control unit
A magnetic field collation unit for collating the magnetic field map with information on the magnetic field included in the observation target data;
The specifying unit specifies a position and an orientation of the observation target in the positioning target space based on a matching result by the image matching unit and a matching result by the magnetic field matching unit.
請求項2に記載の位置特定装置において、
前記観測対象データは、前記撮像装置によって画像を撮影したときに計測された磁場の大きさおよび方向を示す第1ベクトルを含み、
前記磁場マップは、前記測位対象空間における前記特定の位置において計測された磁場の大きさおよび方向を示す第2ベクトルと、前記測位対象空間において所定の方位を向いて計測された磁場の大きさおよび方向を示す第3ベクトルとを含み、
前記磁場照合部は、前記第1ベクトルと前記第2ベクトルとを照合し、その照合結果に基づいて位置の候補を決定するとともに、当該候補の位置における前記第2ベクトルと、前記第1ベクトルと、前記第3ベクトルとに基づいて、方位の候補を決定する
ことを特徴とする位置特定装置。
The position specifying device according to claim 2,
The observation target data includes a first vector indicating the magnitude and direction of a magnetic field measured when an image is captured by the imaging device,
The magnetic field map includes a second vector indicating the magnitude and direction of the magnetic field measured at the specific position in the positioning target space, the magnitude of the magnetic field measured in a predetermined direction in the positioning target space, and A third vector indicating the direction,
The magnetic field collation unit collates the first vector and the second vector, determines a position candidate based on the collation result, the second vector at the candidate position, the first vector, A position specifying device that determines azimuth candidates based on the third vector.
請求項3に記載の位置特定装置において、
前記画像照合部は、前記観測対象データに含まれる画像と一致または類似する画像の前記基準データに基づいて、位置および方位の候補を決定し、
前記特定部は、前記画像照合部によって決定した位置および方位の候補の中から、前記磁場照合部によって決定した位置および方位の候補に最も近い位置および方位を選択し、その選択した位置および方位を、前記測位対象空間における前記観測対象の位置および向きとする
ことを特徴とする位置特定装置。
The position specifying device according to claim 3,
The image matching unit determines position and orientation candidates based on the reference data of an image that matches or is similar to an image included in the observation target data,
The specifying unit selects a position and orientation closest to the position and orientation candidate determined by the magnetic field verification unit from the position and orientation candidates determined by the image verification unit, and selects the selected position and orientation. The position specifying device characterized in that the position and orientation of the observation target in the positioning target space.
請求項1乃至4の何れか一項に記載の位置特定装置と、
前記撮像装置を有する携帯端末と、を備え、
前記携帯端末と前記位置特定装置とが有線または無線によって接続されている
ことを特徴とする位置特定システム。
The position specifying device according to any one of claims 1 to 4,
A portable terminal having the imaging device,
The position specifying system, wherein the portable terminal and the position specifying device are connected by wire or wireless.
JP2017085889A 2017-04-25 2017-04-25 Position specifying device Pending JP2018185182A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017085889A JP2018185182A (en) 2017-04-25 2017-04-25 Position specifying device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017085889A JP2018185182A (en) 2017-04-25 2017-04-25 Position specifying device

Publications (1)

Publication Number Publication Date
JP2018185182A true JP2018185182A (en) 2018-11-22

Family

ID=64356716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017085889A Pending JP2018185182A (en) 2017-04-25 2017-04-25 Position specifying device

Country Status (1)

Country Link
JP (1) JP2018185182A (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003102706A1 (en) * 2002-05-31 2003-12-11 Fujitsu Limited Remotely-operated robot, and robot self position identifying method
JP2004133567A (en) * 2002-10-09 2004-04-30 Hitachi Ltd Mobile object and its position detector
JP2004219332A (en) * 2003-01-16 2004-08-05 National Institute Of Advanced Industrial & Technology Location information processor
JP2005222548A (en) * 2004-02-04 2005-08-18 Samsung Electronics Co Ltd Method and device for generating magnetic field map and method and device for confirming pose of mobile object using the same
JP2009289145A (en) * 2008-05-30 2009-12-10 Utsunomiya Univ Self-position recognition method and self-position recognition apparatus
US20150002663A1 (en) * 2013-06-28 2015-01-01 Google Inc. Systems and Methods for Generating Accurate Sensor Corrections Based on Video Input
JP2015513235A (en) * 2012-01-27 2015-04-30 クアルコム,インコーポレイテッド System and method for locating a device using an opposing camera
US9462423B1 (en) * 2011-07-12 2016-10-04 Google Inc. Qualitative and quantitative sensor fusion for indoor navigation
US9465129B1 (en) * 2009-03-06 2016-10-11 See Scan, Inc. Image-based mapping locating system
WO2016163492A1 (en) * 2015-04-10 2016-10-13 日本電気株式会社 Position determining device, position determining method, and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003102706A1 (en) * 2002-05-31 2003-12-11 Fujitsu Limited Remotely-operated robot, and robot self position identifying method
JP2004133567A (en) * 2002-10-09 2004-04-30 Hitachi Ltd Mobile object and its position detector
JP2004219332A (en) * 2003-01-16 2004-08-05 National Institute Of Advanced Industrial & Technology Location information processor
JP2005222548A (en) * 2004-02-04 2005-08-18 Samsung Electronics Co Ltd Method and device for generating magnetic field map and method and device for confirming pose of mobile object using the same
JP2009289145A (en) * 2008-05-30 2009-12-10 Utsunomiya Univ Self-position recognition method and self-position recognition apparatus
US9465129B1 (en) * 2009-03-06 2016-10-11 See Scan, Inc. Image-based mapping locating system
US9462423B1 (en) * 2011-07-12 2016-10-04 Google Inc. Qualitative and quantitative sensor fusion for indoor navigation
JP2015513235A (en) * 2012-01-27 2015-04-30 クアルコム,インコーポレイテッド System and method for locating a device using an opposing camera
US20150002663A1 (en) * 2013-06-28 2015-01-01 Google Inc. Systems and Methods for Generating Accurate Sensor Corrections Based on Video Input
WO2016163492A1 (en) * 2015-04-10 2016-10-13 日本電気株式会社 Position determining device, position determining method, and program

Similar Documents

Publication Publication Date Title
KR100649674B1 (en) Method for recognizing position using a built-in camera and apparatus thereof
EP3213031B1 (en) Simultaneous localization and mapping by using earth&#39;s magnetic fields
US9349195B2 (en) Apparatus and method for spatially referencing images
CN103827634B (en) Logo detection for indoor positioning
JP5255595B2 (en) Terminal location specifying system and terminal location specifying method
KR101645613B1 (en) Pose estimation based on peripheral information
US20160327946A1 (en) Information processing device, information processing method, terminal device, and setting method
JP6321570B2 (en) Indoor position information positioning system and indoor position information positioning method
KR101286169B1 (en) System and method for mersuring location in wireless communication terminal, method for collecting fingerprint information in wireless communication terminal, fingerprint server and method for providing location using the same
KR20130091908A (en) Apparatus and method for providing indoor navigation service
KR20140012574A (en) System and method for determining indoor position
JP5274192B2 (en) Position estimation system, position estimation server, and position estimation method
KR101413605B1 (en) System and method for Navigation
CN107193820B (en) Position information acquisition method, device and equipment
JP2021103168A (en) Augmented reality device and positioning method
JP6436461B2 (en) Vertical axis calibration apparatus, method and program
JP7001711B2 (en) A position information system that uses images taken by a camera, and an information device with a camera that uses it.
JP2014209680A (en) Land boundary display program, method, and terminal device
JP2018185182A (en) Position specifying device
JP2011180021A (en) Server device, program, and location specifying system
EP2569958B1 (en) Method, computer program and apparatus for determining an object in sight
CN110320496B (en) Indoor positioning method and device
WO2019037517A1 (en) Mobile electronic device and method for processing task in task area
JP2019139642A (en) Device, system, and method for detecting locations
JP2019164001A (en) Information provision system, server device, terminal program, and information provision method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210803