JP5795278B2 - Navigation device, autonomous navigation support method, and autonomous navigation support program - Google Patents
Navigation device, autonomous navigation support method, and autonomous navigation support program Download PDFInfo
- Publication number
- JP5795278B2 JP5795278B2 JP2012068942A JP2012068942A JP5795278B2 JP 5795278 B2 JP5795278 B2 JP 5795278B2 JP 2012068942 A JP2012068942 A JP 2012068942A JP 2012068942 A JP2012068942 A JP 2012068942A JP 5795278 B2 JP5795278 B2 JP 5795278B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- current position
- unit
- analysis
- navigation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
Description
この発明は、例えば、自動車、オートバイ、自転車等に搭載して利用される、あるいは、歩行者が手に持ちながら利用されるナビゲーション装置、当該ナビゲーション装置において用いられる方法、プログラムに関する。 The present invention relates to, for example, a navigation device that is used by being mounted on an automobile, a motorcycle, a bicycle, or the like, or is used while being held by a pedestrian, and a method and program used in the navigation device.
現在、多くの自動車にはナビゲーション装置が搭載されている。ナビゲーション装置は、GPS(Global Positioning System)を利用して自車の現在位置を測位し、地図上に自車の位置を表示し、音声ガイダンスを併用するなどして目的地までの経路案内を行う。また、ナビゲーション装置は、自車に搭載された速度センサ、方位センサ(地磁気センサ)、加速度センサ等の検出出力を用いたマップマッチング機能や自律航法機能を備えている。これにより、GPS電波に誤差が含まれていても、また、GPS衛星からの電波が一時的に受信できないときでも、自機の現在位置を適切に特定できる。 Currently, many automobiles are equipped with navigation devices. The navigation device measures the current position of the vehicle using GPS (Global Positioning System), displays the position of the vehicle on a map, and provides route guidance to the destination by using voice guidance together. . Further, the navigation device has a map matching function and an autonomous navigation function using detection outputs of a speed sensor, a direction sensor (geomagnetic sensor), an acceleration sensor and the like mounted on the host vehicle. Thereby, even if an error is included in the GPS radio wave, or even when the radio wave from the GPS satellite cannot be temporarily received, the current position of the own device can be appropriately specified.
しかし、従来のナビゲーション装置では、高速道路と一般道路とが上下に並行して存在している場所では、自車が高速道路と一般道路のどちらを走行しているのか判別できないという問題がある。また、例えば、トンネルや地下道の中ではGPS衛星からの電波が受信できなくなるが、従来のナビゲーション装置では、何故、GPS衛星からの電波が受信できないのかを認識できない。 However, the conventional navigation apparatus has a problem that it cannot be determined whether the vehicle is traveling on the highway or the general road in a place where the highway and the general road exist in parallel with each other. In addition, for example, radio waves from GPS satellites cannot be received in tunnels and underpasses, but conventional navigation devices cannot recognize why radio waves from GPS satellites cannot be received.
前者の問題を解決するため、特許文献1には、測定区間の走行時間と測定区間の交通状況に応じて高速道路か一般道路かを判別する発明が開示されている。また、特許文献2、3には、高速道路と一般道路とで運転状態が異なる点に着目し、高速道路か一般道路かを判別する発明が開示されている。また、特許文献4には、撮影された道路状の白線の長さに基づいて、高速道路か一般道路かを判別する発明が開示されている。また、後者の問題を解決する一案として、特許文献5には、撮影された画像データの輝度の特徴量と、色相の特徴量に基づいて、トンネルか否かを検出する発明が開示されている。
In order to solve the former problem,
上述したように、従来のナビゲーション装置は、二次元(平面上)の位置については特定できるが、高速道路か一般道路かといった上下(標高)を捕捉する手段に乏しい。また、トンネルや地下道の中か否かを判別して、自己の現在位置を適切に把握する手段も乏しい。もちろん、上述した特許文献に記載された技術を利用することも可能であるが、種々の処理機能を搭載しなければならなくなり、ナビゲーション装置の負荷が大きくなるという問題がある。 As described above, the conventional navigation device can specify a two-dimensional (on a plane) position, but lacks means for capturing the top and bottom (altitude) such as an expressway or a general road. In addition, there is a lack of means for determining whether or not the vehicle is in a tunnel or underpass and properly grasping its current position. Of course, it is possible to use the technique described in the above-mentioned patent document, but there is a problem in that various processing functions must be installed and the load on the navigation device increases.
近年においては、PND(Portable Navigation Device)と呼ばれる小型化、軽量化され、自動車のダッシュボードへの取り付け/取り外しが容易に行えるナビゲーション装置が広く利用されるようになってきている。PNDは、据付型のナビゲーション装置のように自動車に搭載された種々のセンサからの検出出力の供給を受けるこができないため、据付型のナビゲーション装置に比べ機能を簡略化したものが多い。このようなPNDでは、より精度のよいナビゲーション機能を実現することが望まれている。 In recent years, a navigation device called PND (Portable Navigation Device), which is reduced in size and weight and can be easily attached to / detached from a dashboard of an automobile, has been widely used. Since the PND cannot receive detection outputs from various sensors mounted on an automobile like a stationary navigation device, the PND has many simplified functions compared to a stationary navigation device. In such a PND, it is desired to realize a more accurate navigation function.
また、近年においては、スマートフォンなどと呼ばれる高機能携帯電話端末やタブレットPC(PCはパーソナルコンピュータの略称)等の携帯情報端末が広く利用されるようになってきている。そして、これら高機能携帯電話端末やタブレットPCなどにも、精度のよいナビゲーション機能を搭載することが望まれている。 In recent years, portable information terminals such as high-function mobile phone terminals called smartphones and tablet PCs (PC is an abbreviation for personal computer) have come to be widely used. And it is desired that these high-function mobile phone terminals, tablet PCs, and the like be equipped with an accurate navigation function.
以上のことにかんがみ、この発明は、PNDや種々の携帯情報端末においても、精度のよいナビゲーション機能を実現することを目的とする。 In view of the above, an object of the present invention is to realize an accurate navigation function even in PNDs and various portable information terminals.
上記課題を解決するため、請求項1に記載の発明のナビゲーション装置は、
現在位置測位手段からの現在位置と地図データベースの地図データとのマッチング処理を行うことにより、経路案内を行うナビゲーション装置であって、
進行方向の映像を撮影する撮影手段と、
撮影された映像を解析することにより、自己がいる場所に関する情報を取得する第1の解析手段と、
撮影された映像を解析することにより、右左折認識を行って自己の移動軌跡を取得する第2の解析手段と、
前記第1の解析手段を通じて取得した前記自己がいる場所に関する情報と、前記第2の解析手段を通じて取得した前記自己の移動軌跡とに基づいて、前記現在位置測位手段からの現在位置と前記地図データベースの地図データとのマッチング処理の結果を補正する補正手段と
を備えることを特徴とする。
In order to solve the above problem, the navigation device of the invention according to
A navigation device that provides route guidance by performing a matching process between the current position from the current position measurement means and the map data of the map database,
Photographing means for photographing a moving image;
A first analysis means for obtaining information about a place where the user is by analyzing the captured video;
A second analysis means for recognizing a right or left turn to obtain a movement locus of the subject by analyzing the captured image;
Based on the information about the place where the self is obtained through the first analysis means and the movement locus of the self obtained through the second analysis means , the current position from the current position measurement means and the map database Correction means for correcting the result of the matching process with the map data.
この請求項1に記載の発明のナビゲーション装置によれば、現在位置測位手段からの現在位置と地図データベースの地図データとのマッチング処理を行うことにより、経路案内を行う。この場合に、撮影手段を通じて撮影された映像を、第1の解析手段が解析して自己がいる場所に関する情報を取得する。そして、第2の解析手段が撮像手段を通じて撮影された映像を解析することにより、右左折認識を行って自己の移動軌跡を取得する。この後、第1の解析手段を通じて取得した自己がいる場所に関する情報と、第2の解析手段を通じて取得した自己の移動軌跡とに基づいて、補正手段が、上述した現在位置測位手段からの現在位置と地図データベースの地図データとのマッチング処理の結果を補正する。 According to the navigation apparatus of the first aspect of the present invention, route guidance is performed by performing a matching process between the current position from the current position positioning means and the map data of the map database. In this case, the first analysis unit analyzes the video shot through the shooting unit and acquires information about the location where the user is. Then, the second analysis unit analyzes the video imaged through the imaging unit, thereby performing right / left turn recognition and acquiring its own movement trajectory. Thereafter, based on the information about the place where the self is obtained through the first analyzing means and the movement locus of the self obtained through the second analyzing means , the correcting means performs the current position from the above-described current position measuring means. The result of the matching process between the map data and the map data in the map database is corrected.
このように、マッチング処理により求められる地図上における自己のいる場所が、撮影された映像を解析することにより得られる自己がいる場所に関する情報に基づいて補正される。これにより、精度のよいナビゲーション装置が実現できる。 In this manner, the location where the subject is on the map obtained by the matching process is corrected based on the information regarding the location where the subject is present obtained by analyzing the captured video. Thereby, a highly accurate navigation device can be realized.
この発明によれば、撮影された映像を利用することにより、PNDや種々の携帯情報端末においても、精度のよいナビゲーション機能が実現できる。 According to the present invention, an accurate navigation function can be realized in a PND and various portable information terminals by using the captured video.
以下、図を参照しながら、この発明の装置、方法、プログラムの一実施の形態について説明する。なお、この発明は、進行方向を撮影可能なカメラ機能を備えたPND、あるいは、スマートフォンなど呼ばれる高機能携帯電話端末やタブレットPCなどの携帯情報端末に適用できる。以下に説明する実施の形態においては、説明を簡単にするため、広く普及しているカメラ機能を備えた高機能携帯電話端末にこの発明を適用した場合を例にして説明する。 Hereinafter, embodiments of the apparatus, method, and program of the present invention will be described with reference to the drawings. Note that the present invention can be applied to a PND having a camera function capable of photographing the traveling direction, or a portable information terminal such as a smart phone or a tablet PC. In the embodiment described below, in order to simplify the description, a case where the present invention is applied to a high-function mobile phone terminal having a widely used camera function will be described as an example.
[高機能携帯電話端末1の構成例]
この実施の形態の高機能携帯電話端末(以下、単に携帯電話端末と記載する。)1は、自動車のダッシュボード上に例えば吸盤や両面テープにより簡易に取り付けられたフレームに対して、簡単に着脱可能なものである。そして、当該携帯電話端末は、当該フレームに対して取り付けられた場合には、ナビゲーション装置として利用できるものである。もちろん、オートバイ、自転車等に取り付けて利用することもできるし、ユーザーが手に持った状態で、歩行者用のナビゲーション装置としても利用できる。
[Configuration example of high-function mobile phone terminal 1]
A high-performance mobile phone terminal (hereinafter simply referred to as a mobile phone terminal) 1 according to this embodiment is easily attached to and detached from a frame that is simply attached to a dashboard of an automobile by, for example, a suction cup or double-sided tape. It is possible. The mobile phone terminal can be used as a navigation device when attached to the frame. Of course, it can be used by attaching it to a motorcycle, a bicycle, or the like, or it can be used as a navigation device for pedestrians while it is held by a user.
以下においては、自動車のダッシュボード上のフレームに装着され、自動車のナビゲーション装置として利用される場合を例にして説明する。まず、この実施の形態の携帯電話端末1の構成について説明する。図1は、この実施の形態の携帯電話端末1の構成例を説明するためのブロック図である。
In the following, a case where the vehicle is mounted on a frame on a dashboard of an automobile and used as a navigation apparatus for an automobile will be described as an example. First, the configuration of the
[携帯電話端末1の基本構成部分について]
制御部100は、携帯電話端末1の各部を制御するものであり、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103がCPUバス104を通じて接続されたコンピュータ装置である。記憶装置110は、記録媒体として不揮発性メモリを備え、種々のアプリケーションプログラムや種々の処理により得られたデータ等の当該不揮発性メモリへの書込み/記録保持/読み出し/削除を行う。なお、記憶装置110には、ナビゲーション用の音声ガイダンスを放音するための音声データ等も記録保持されている。
[Basic components of mobile phone terminal 1]
The
送受信アンテナ111、無線通信部112は、携帯電話網やインターネットなどの広域ネットワークを通じて通信を行う機能を実現する。受話器(スピーカ)113および送話器(マイクロホン)114は、通話を行うためのものである。すなわち、無線通信部112は、携帯電話網を通じて相手先との間に通話回線を接続し、受話器(スピーカ)113および送話器(マイクロホン)114を通じての通話を可能にする。また、無線通信部112は、インターネットに接続し、インターネットを通じてのデータの送受信を可能にし、電子メールの送受信やインターネット上に開示されたWebページの閲覧等を可能にする。
The transmission /
キー操作部121は、携帯電話端末1に設けられたハードウェアキーからなり、ユーザーからの操作入力を受け付ける。表示処理部122と表示部123とは、種々の映像(画像)、表示メッセージなどの表示情報を表示するためのものである。タッチパネル124は、表示部123の表示画面に貼付され、ユーザーの指等の指示体による接触位置(接触座標)を検出し、これを制御部100に通知する。したがって、タッチパネル124は、制御部100によって表示位置が制御される表示部123の表示画面に表示される表示情報と共に入力インターフェースを構成する。音声出力部125とスピーカ126とは、種々の音声情報を出力するためのものである。
The
カメラ部127は、撮像レンズ、撮像素子、カメラ信号処理回路などを備え、被写体の映像(画像)を撮影し、これをデジタル信号の映像(画像)データとして取り込み、例えば、記憶装置110の所定の記録エリアに記録する機能を有する。この実施の形態の携帯電話端末1において、カメラ部127は、表示部123の表示画面とは反対側の面に設けられている。そして、携帯電話端末1が自動車内のダュシュボード上に載置されたときには、カメラ部127の撮影レンズは自動車の進行方向(自動車の前方外側)に向けられた状態となり、進行方向の映像を撮影することが可能な状態となる。したがって、カメラ部127とは反対側の面に設けられる表示部123の表示画面は自動車の内部に向けられ運転者が観視可能な状態になる。
The
そして、この実施の形態の携帯電話端末1においては、詳しくは後述するが、ナビゲーション機能の実行時においては、カメラ部127を通じて撮影される撮影映像(映像データ)の映像解析を行って、自己がいる場所に関する情報を取得する。この取得した自己がいる場所に関する情報を用いて、自己の現在位置を補正する機能を有する。なお、ナビゲーション機能の実行時においては、表示部123には地図等のナビゲーション情報が表示されるため、カメラ部127からの映像データに応じた映像は映像解析の対象とされるが表示部123に表示されることはない。
In the
地図データベース(以下、地図DBと記載する。)131は、不揮発性メモリなどの大容量記録媒体に作成され、地図を描画するためのベクトルデータやラスタデータ等の地図データ(地図用の描画データ)を緯度・経度情報に対応付けて記憶保持する。当該地図は、ナビゲーション機能の実行時に表示部123に表示されるものである。また、地図DB131は、地図上に表示する注記データ、方面看板、交差点名称、トンネルや地下道の名称などの文字情報やそれらの画像情報等のいわゆる誘導データについても、緯度・経度情報に対応付けて記憶保持する。時間制御部132は、現在年月日、現在曜日、現在時刻を管理すると共に、所定の時点からの時間を計測するタイマーとしての機能をも備えたものである。
A map database (hereinafter referred to as map DB) 131 is created on a large-capacity recording medium such as a non-volatile memory, and map data (map drawing data) such as vector data and raster data for drawing a map. Is stored in association with latitude / longitude information. The map is displayed on the display unit 123 when the navigation function is executed. The
センサ部141は、加速度センサや方位センサ(地磁気センサ)を備える。加速度センサは、携帯電話端末1の例えば姿勢を特定するために携帯電話端末1の傾きを検出する。方位センサは、地磁気を検出することにより、携帯電話端末1がどちらの方向を向いているかを検出する。この方位センサにより、カメラ部127を用いて撮影を行う場合には、どちらの方向を撮影しているのかが検出できる。なお、センサ部141は、3軸(前後、左右、上下)の加速度センサ他、加速度センサと角速度センサを組み合わせた6軸センサが用いられる場合もある。また、GPS部142およびGPSアンテナ143は、自機の現在位置を測位するためのものである。なお、図1には図示しないが、この実施の形態の携帯電話端末1は、着信や警告等の発生を通知するためのバイブレータやリンガ等も備えている。
The
これらの構成を有する携帯電話端末1は、電話を掛けたり、受けたりすることができる。また、電子メールの作成や参照を行ったり、インターネットにアクセスして電子メールの送受信を行ったり、Webページを閲覧したり、SNS(Social Networking Service)を利用したりすることができる。
The
また、図1に示すように、制御部100が備えるナビゲーション処理部の機能により、ナビゲーション機能を提供することができる。この場合、制御部100は、ユーザーから入力された出発地から目的地までの経路探索を地図DB131の地図データを用いて行う。そして、制御部100は、地図DB131の地図データに応じた地図を、表示処理部122を通じて表示部123に表示する。さらに、制御部100は、GPS部142からの現在位置を用いると共に、センサ部141からの検出出力をも利用して、自機の現在位置を表示された地図上に示し、表示情報と音声情報とにより、目的地までの経路案内(ナビゲーション)を行うことができる。
Further, as shown in FIG. 1, the navigation function can be provided by the function of the navigation processing unit included in the
[撮影された映像を用いたナビゲーション支援を行う部分について]
そして、この実施の形態の携帯電話端末1は、撮影された映像を用いたナビゲーション支援を行う部分として、映像解析部151、距離取得部152、速度算出部153、場所補正部154を備えている。これらの各部が機能することにより、GPS部142からの現在位置と地図DB131の地図データとのマッチング処理の結果を補正して、精度のよいナビゲーション機能を実現している。
[About the navigation support using the captured video]
The
映像解析部151は、カメラ部127を通じて撮影することにより得られた映像(映像データ)を解析することにより、自己がいる場所に関する情報を取得する。映像解析部151では、例えば、撮影映像についてエッジ検出を行って撮影映像に含まれる物の形状を認識し、その認識した物の形状についてパターンマッチングを行ってその物が何かを特定したり、撮影映像に含まれる文字情報を認識したりする。そして、映像解析部151は、その認識結果に基づいて、自己がいる場所に関する情報を取得する。
The
ここで、映像解析部151で行われる処理について具体的に説明する。図2、図3は、携帯電話端末1が自動車内のダッシュボード上に載置され、ナビゲーション機能が実行されているときに、図2、図3において点線で示したように、進行方向に撮影レンズが向けられているカメラ部127により撮影されている映像の例を示している。
Here, the process performed by the
[案内標識に基づく自己がいる場所に関する情報の取得]
図2Aに示すように、撮影映像中に方面看板等の案内標識が含まれていたとする。この場合、映像解析部151では、まず、方面看板等の案内標識の存在を認識し、その案内標識に記載された文字情報を認識(文字認識)する。図2Aに示した例の場合、「白石蔵王」、「24」、「出口1km」という文字が認識できる。このため、当該撮影映像を撮影した時点では、携帯電話端末1は、「高速道路上の白石蔵王の出口の1km手前」にいるという、自己がいる場所に関する情報が取得できる。
[Obtaining information about where you are based on guide signs]
As shown in FIG. 2A, it is assumed that a guide sign such as a direction signboard is included in the captured video. In this case, the
また、この実施の形態の地図DB131には、上述もしたように、方面看板(案内標識)の画像と、その方面看板が設けられている位置を示す位置情報も記憶されている。このため、図2Aに示した撮影映像に含まれる方面看板部分の画像と、地図DB131に記憶されている方面看板のマッチングを行うことにより、当該方面看板が設置されている位置を特定できる。この場合、当該方面看板は高速道路に設置されているものであることも把握されており、高速道上にいることと、撮影映像に含まれる方面看板の設置位置(緯度、経度)を自己がいる場所に関する情報として取得できる。
Further, as described above, the
また、図2Bに示すように、撮影映像中に建物に取り付けられた看板が含まれていたとする。この場合、映像解析部151では、まず、建物とその建物に取り付けられた看板の存在を認識し、その看板に記載された文字情報を認識(文字認識)する。図2Bに示した例の場合、「○○病院」という文字が認識できる。このため、直近にGPS部142から取得した現在位置を含む地図上において、「○○病院」の所在地を特定することにより、自己がいる場所は「○○病院」の近傍であるというように、自己のいる場所に関する情報が取得できる。
Further, as shown in FIG. 2B, it is assumed that a signboard attached to a building is included in the captured video. In this case, the
[周辺の設備、施設、道路状況等に基づく自己がいる場所に関する情報の取得]
また、図2Aに示すように、撮影映像中に道路の進行方向と交差する方向に複数の白点線が設けられていることを認識した場合には、利用している道路は複数の車線が設けられた大きな道路であるという自己がいる場所に関する情報を取得できる。また、撮影映像を解析し、中央分離帯やガードレールの有無を検出することにより、走行している道路が大きな道路か小さな道路かなどの自己がいる場所に関する情報を取得できる。また、道路に設けられている白点線の間隔の違いに応じて、自己がいる道路は高速道路か、一般道路かといった自己がいる場所に関する情報を取得できる。道路に設けられる白点線の間隔は、高速道路が20m、一般道路が10mと決まっているためである。
[Obtaining information about where you are based on surrounding equipment, facilities, road conditions, etc.]
In addition, as shown in FIG. 2A, when it is recognized that a plurality of white dotted lines are provided in a direction intersecting with the traveling direction of the road in the captured image, the road being used is provided with a plurality of lanes. It is possible to obtain information on the place where the self is a big road. In addition, by analyzing the captured video and detecting the presence of a median strip or guardrail, it is possible to acquire information about a place where the user is present, such as whether the road on which the vehicle is traveling is a large road or a small road. In addition, according to the difference between white dotted lines provided on the road, it is possible to acquire information on the location where the self is, such as whether the road where the self is located is an expressway or a general road. This is because the distance between the white dotted lines provided on the road is determined to be 20 m for a highway and 10 m for a general road.
また、図3Aに示すように、撮影映像中に交差点に設置された信号機が含まれていたとする。この場合、映像解析部151では、上述したように、形状認識と、認識した形状についてのパターンマッチングにより、信号機の存在を認識できる。したがって、少なくとも、信号機が設置されている交差点の近傍に位置しているという、自己のいる場所に関する情報を取得することができる。また、図3Aに示すように、比較的に大きな交差点の信号機には、信号部分の上側や下側、あるいは横側に、当該信号機が設置されている交差点の名称を示す表示板が設けられている。
Further, as shown in FIG. 3A, it is assumed that a traffic light installed at an intersection is included in the captured video. In this case, as described above, the
この場合には、図2を用いて説明した場合と同様に、信号機に設けられている表示板に記載されている文字を認識することにより、当該信号機が設置されている交差点の名称を特定できる。図3Aに示した例の場合には、「△△一丁目」という交差点の近傍にいることが特定できる。そして、直近にGPS部142から取得した現在位置を含む地図上において、特定した交差点の名称に対応する交差点の所在地を特定することにより、自己がいる場所は、特定した交差点の所在地近傍であるというように、自己のいる場所に関する情報が取得できる。
In this case, as in the case described with reference to FIG. 2, the name of the intersection where the traffic signal is installed can be identified by recognizing the characters written on the display board provided in the traffic signal. . In the case of the example shown in FIG. 3A, it can be specified that the vehicle is in the vicinity of the intersection “ΔΔ 1-chome”. Then, by identifying the location of the intersection corresponding to the identified intersection name on the map including the current position acquired from the
また、走行中に、撮影映像から1つも信号機の存在を認識できなかった場合であって、複数車線の大きな道路である、あるいは、中央分離帯やガードレールのある大きな道路であると認識したときには、走行している道路は、高速道路あると認識できる。 In addition, when it is not possible to recognize the presence of any traffic light from the captured image while traveling, it is recognized that the road is a large road with multiple lanes, or a large road with a median strip or guardrail. The traveling road can be recognized as an expressway.
[トンネルや地下道等に入った場合の自己がいる場所に関する情報の取得]
また、トンネル内や地下道内ではGPS衛星からの電波を受信できないために、GPS部142を通じては自己の現在位置を取得できない。そこで、この実施の形態の携帯電話端末1の映像解析部151は、以下のようにして自己がトンネル内や地下道内にいる場合を特定する。まず、上述もしたように、映像解析部151が、例えば、トンネルや地下道の入り口の上部などに設けられているトンネルや地下道の名称看板の文字認識を行うことにより、トンネルや地下道に自己が入ることを認識できる。
[Obtaining information about where you are when you enter a tunnel or underpass]
Further, since the radio wave from the GPS satellite cannot be received in the tunnel or the underground passage, the current position cannot be acquired through the
また、GPS部142を通じて自己の現在位置が測位できなくなった場合に、図3Bに示すように、カメラ部127からの撮影映像がトンネル内において撮影されたものであったとする。この場合、映像解析部151は、光の到達方向から照明の設置位置は上方(斜め上方)か否か、また、移動に伴う照明の明暗状態から照明は一定の間隔毎に設けられているか否かを判別する。このように、照明(光源)の設置位置が上方であり、その照明の配列パターンが規則的である場合には、トンネル内や地下道内である可能性が高くなる。
In addition, when the current position of the user cannot be measured through the
そして、映像解析部151では、上述のように、トンネルや地下道の名称の文字認識、GPSのロスト(GPS衛星からの電波の消失)、光源(照明)の位置と間隔が一定であること等を総合的に勘案してトンネルや地下道内か否かを判別する。なお、照明の色がオレンジ色か否かを判別してもよい。トンネル内や地下道内では、排気ガス、塵等の影響を受け難く光が通り易いオレンジ色の光を発光させる低圧ナトリウムランプが多く用いられているためである。
In the
これにより、自己のいる場所に関する情報(トンネルや地下道内か否か)を取得できる。そして、例えば、直近にGPS部142から取得した現在位置の近傍にあるトンネルや地下道を地図上において特定することにより、自己がいる場所を正確に特定できる。
As a result, it is possible to obtain information about the place where the user is (whether or not it is in a tunnel or an underpass). Then, for example, by specifying on the map a tunnel or an underground passage in the vicinity of the current position acquired from the
このように、映像解析部151は、カメラ部127を通じて撮影される映像を解析することにより、自己のいる場所に関する情報を適切に取得することができる。当該自己のいる場所に関する情報は、平面上における位置を特定できるだけでなく、高速道上か一般道路上か、あるいは、トンネル内や地下道内かなどを含めた自己のいる場所、すなわち、3次元空間上における自己のいる場所を特定できる。
As described above, the
[映像認識を利用した自己の移動速度の算出]
そして、映像解析部151は、以下に説明するように、距離取得部152や時間制御部132と協働することにより、自己の移動速度をも把握可能にしている。距離取得部152は、上述した映像解析部151と協働して、自己の移動速度を算出するための2点間の距離を取得する。上述したように、映像解析部151は撮影映像を解析することにより、「位置に関連している文字情報(位置が地図上で既知の案内標識(方面看板や信号機に付された交差点名称の表示板等))」を認識できる。このため、距離取得部152は、映像解析部151で認識された距離的に離れた2ヶ所の「位置に関連している文字情報」の検出結果に基づいて、当該2ヶ所間の距離を、地図DB131の地図データから取得する。
[Calculation of moving speed using video recognition]
Then, as will be described below, the
より具体的には、(1)撮影されることにより記載内容が認識される2ヶ所の方面看板間の距離、(2)撮影されることにより交差点名称が認識される2ヶ所の信号機間の距離等を取得する。もちろん、これらは一例であり、設置されている位置が地図上において決まっており、形状が定まっている目標物がある場合には、撮影されることにより認識される2ヶ所の所定の目標物間の距離を取得することもできる。 More specifically, (1) the distance between the two direction signboards whose contents are recognized by being photographed, and (2) the distance between the two traffic lights whose intersection names are recognized by being photographed. Etc. Of course, these are only examples. If there is a target with a fixed shape on the map and a fixed shape, the distance between the two predetermined targets recognized by shooting You can also get the distance.
また、移動速度を算出するためには、当該所定の2ヶ所間の距離に加えて、当該所定の2ヶ所間の移動時間を取得する必要がある。このため、この実施の形態の携帯電話端末1では、映像解析部151で認識した距離的に離れた2ヶ所の「位置に関連している文字情報」の検出タイミングで、時間制御部132から現在時刻を取得する。そして、2ヶ所のそれぞれで取得した現在時刻の差分を求めることにより、当該2ヶ所間における移動時間を取得できる。
Further, in order to calculate the moving speed, it is necessary to acquire the moving time between the two predetermined locations in addition to the distance between the two predetermined locations. For this reason, in the
すなわち、映像解析部151は、「所定の位置に関連している文字情報」を検知すると、制御部100を通じて時間制御部132から現在時刻を取得し、これを速度算出部153に供給する。そして、映像解析部151は、次に別の「所定の位置に関連している文字情報」を検知すると、制御部100を通じて時間制御部132から現在時刻を取得し、これを速度算出部153に供給する。
That is, when detecting “character information related to a predetermined position”, the
速度算出部153は、距離取得部152で取得された距離的に離れた2ヶ所の「位置に関連している文字情報」間の距離を、時間制御部132から供給された当該2ヶ所での現在時刻の差分を取ることにより得られる移動時間で割り算し、自己の移動速度を算出する。そして、この実施の形態の携帯電話端末1は、センサ部141に方位センサを備えており、移動方向を認識することはできる。したがって、GPS部142を通じて現在位置の測位が一時的にできなくなっても、移動方向と移動速度、さらに地図DB131の地図データを考慮することにより、自己の現在位置を把握できる。
The
[映像解析を利用したその他の情報の取得]
また、カメラ部127を通じて撮影された撮影映像の映像解析を行うことにより、映像が左に流れるか、右に流れるかによって、右左折認識を行うことができる。したがって、このような右左折認識を利用し、自己の移動軌跡を取得して保持しておくこともできる。当該移動軌跡は、マップマッチング時などに利用できる。また、映像の前後の流れの速さから移動速度を認識することもできる。すなわち、カメラ部127からの映像データによる映像がどれ位の速さで変化しているのかを解析することにより自己の移動速度を求めることができる。そして、上述したように、2点間の距離と移動時間に応じて求める自己の移動速度と、映像の流れる速さに応じて求められる移動速度とに基づいて、実際に用いる移動速度を決めることもできる。もちろん、いずれか一方の移動速度だけを用いるようにしてもよい。
[Obtaining other information using video analysis]
Further, by performing video analysis of a shot video shot through the
[場所補正部154の機能]
そして、場所補正部154は、映像解析部151が取得した自己のいる場所に関する情報や速度算出部153が算出した移動速度等を考慮して、制御部100のナビゲーション処理部としての機能により把握されている自己の現在位置を補正する。すなわち、携帯電話端末1においては、制御部100が実現するナビゲーション処理部としての機能により、地図DB131の地図データ、GPS部142からの現在位置、センサ部141からの検出出力を用いて、自己の現在位置を把握し、目的地までの経路案内を行う。
[Function of the location correction unit 154]
Then, the
しかし、主にGPS部142からの現在位置だけからでは、高速道路と一般道路が並走する区間では、高速道路を走っているのか、一般道路を走っているのかの区別ができない。また、トンネルや地下道に入った場合には、GPS衛星からの電波が受信できないために、自己の現在位置を把握できない。また、道幅が狭く高層ビルが多い場所でも、GPS衛星からの電波が受信しし難くなり、自己の現在位置を正確に把握できない。
However, it is not possible to distinguish whether the vehicle is running on a highway or a general road in a section where the highway and a general road run side by side only from the current position mainly from the
そこで、場所補正部154は、映像解析部151により取得される自己のいる場所に関する情報と、速度算出部153で算出される情報、さらに、センサ部141の検出出力等に基づいて、ナビゲーション処理部として機能する制御部100により特定される自己の現在位置を補正する。これにより、目的地までの経路案内(ナビゲーション)を適切に行うことができる。
Therefore, the
したがって、高速道路を走っているのに、「次の信号を左折してください。」とか、一般道路を走っているのに、「次の○○出口で高速道路を降りて下さい。」といった誤った案内を行わないようにできる。また、比較的に長いトンネルや地下道に入った場合であっても、入ったトンネルや地下道を特定でき、また、自己の速度や移動方向も把握できているので、自己の現在位置を正しく把握し、適切に案内を行うことができる。また、高層ビルの陰になり、GPS衛星からの電波を受信できない場合でも、撮影映像に含まれる看板等の情報により、自己の現在位置を正しく把握し、適切に案内を行うことができる。 Therefore, while driving on the highway, “Please turn left at the next traffic light” or on the general road, “Please get off the highway at the next XX exit.” You can avoid giving guidance. Also, even if you enter a relatively long tunnel or underpass, you can identify the tunnel or underpass that has entered, and also know your own speed and direction of movement, so you can correctly grasp your current location. , Can guide appropriately. Moreover, even when it is behind a high-rise building and cannot receive radio waves from GPS satellites, it is possible to correctly grasp its own current position and properly provide guidance based on information such as a signboard included in the captured video.
もちろん、GPS衛星からの電波を受信できない場合(GPSロストの場合)には、場所補正部154は、制御部100と協働し、上述した映像認識により得られる情報に加えて、センサ部141の加速度センサや方位センサから得られる情報を総合して、地図上の経路に最も近い位置に自己位置をマップマッチングすることができる。すなわち、この実施の形態の携帯電話端末1もまた、マップマッチング機能や自律航法機能を備えたものである。
Of course, when the radio wave from the GPS satellite cannot be received (in the case of GPS lost), the
[ナビゲーション機能実行時の処理のまとめ]
次に、上述したこの実施の形態の携帯電話端末1において実行されるナビゲーション処理について、フローチャートを参照しながらまとめる。図4は、携帯電話端末1で実行されるナビゲーション処理の概要を説明するためのフローチャートである。この図4に示す処理は、携帯電話端末1に用意されているナビゲーションプログラム(アプリケーションプログラム)によって行われる処理であり、携帯電話端末1の所定のメニューから当該ナビゲーションプログラムの実行を選択することにより制御部100において実行される。
[Summary of processing when the navigation function is executed]
Next, the navigation processing executed in the
図4に示す処理が実行されると、制御部100は、ナビゲーション処理部として機能し、GPS部142から取得する自機の現在位置と、地図DB131の地図データと、センサ部141からの検出出力に基づいて、ナビゲーション処理を開始する(ステップS101)。なお、図示しなかったが、ステップS101においては、ユーザーからの操作入力を受け付けて、出発地と目的地の入力を受け付けて、出発地から目的地までの経路探索処理も行われる。そして、表示部123の表示画面に携帯電話端末1の現在位置を含む地図が表示され、当該地図上の自己の現在位置や進むべき経路等が示されると共に、音声によっても経路の案内が行われる。
When the processing shown in FIG. 4 is executed, the
次に、制御部100は、カメラ部127を制御し、進行方向の映像の撮影を開始する(ステップS102)。そして、制御部100は、映像解析部151、距離取得部152、時間制御部132、速度算出部153を制御して、自己がいる場所に関する情報や自己の移動速度を取得する処理を実行する(ステップS103)。なお、このステップS103で行なわれる処理の詳細については後述する。
Next, the
この後、場所補正部154が機能し、ステップS103において取得した自己がいる場所に関する情報や自己の移動速度に基づいて、自己がいる場所を特定する(ステップS104)。そして、場所補正部154は、制御部100が実現するナビゲーション処理部の機能により行われる、GPS部142からの現在位置と、地図DB131の地図データとのマッチング結果を、ステップS104で特定した自己がいる場所に基づいて補正する(ステップS105)。
Thereafter, the
そして、設定した目的地に到着するなどして、ナビゲーション処理を終了させる操作が行われたか否かを判別する(ステップS106)。ステップS106の判別処理において、終了させる操作が行われていないと判別したときには、ステップS103からの処理を繰り返し、ナビゲーション処理を継続する。また、ステップS106の判別処理において、終了させる操作が行われたと判別したときには、この図4に示す処理を終了する。 Then, it is determined whether or not an operation for ending the navigation process has been performed by arriving at the set destination (step S106). If it is determined in step S106 that the operation to be ended is not performed, the process from step S103 is repeated, and the navigation process is continued. If it is determined in the determination process in step S106 that an operation to be ended has been performed, the process shown in FIG. 4 ends.
このように、この実施の形態の携帯電話端末1で行われるナビゲーション処理においては、図4に示したステップS102〜ステップS105の処理により、撮影映像を解析することにより得られる情報をも用いて、自己の現在位置を正しく補正できる。
As described above, in the navigation processing performed in the
[自己がいる場所に関する情報等の取得処理]
次に、図4に示した処理のステップS103において行なわれる、自己がいる場所に関する情報等の取得処理について具体的に説明する。図5は、自己がいる場所に関する情報等の取得処理について説明するためのフローチャートである。この図5に示す処理が実行されると、まず、制御部100の制御の下、映像解析部151が機能し、カメラ部127を通じて撮影される撮影映像(映像データ)を解析し、自己のいる場所に関する情報を取得する処理を行う(ステップS201)。具体的に、ステップS201においては、図2および図3Aを用いて説明したように、(1)案内標識に基づく自己がいる場所に関する情報の取得や(2)周辺の設備、施設、道路状況等に基づく自己がいる場所に関する情報の取得が行われる。
[Acquisition processing of information about where you are]
Next, a specific description will be given of the process for acquiring information on the place where the user is, which is performed in step S103 of the process shown in FIG. FIG. 5 is a flowchart for explaining an acquisition process of information on a place where the user is present. When the processing shown in FIG. 5 is executed, first, the
そして、映像解析部151は、上述もしたように、2点間の距離を取得するための開始ポイントや終了ポイントとなる方面看板や信号機に付された交差点名称等の「位置に関連している文字情報」を認識したか否かを判別する(ステップS202)。ステップS202の判別処理において、ポイントとなる「位置に関連している文字情報」を認識したと判別したとする。この場合、映像解析部151は制御部100を通じて時間制御部132を制御し、現在時刻を取得して、これを速度算出部153に供給する(ステップS203)。
Then, as described above, the
そして、映像解析部151は今回検出したポイントの前に既に検出したポイントが存在するか否かを判別する(ステップS204)。ステップS204の判別処理において、今回検出したポイントの前に既に検出したポイントが存在すると判別したときには、映像解析部151は、制御部100を通じて距離取得部152と速度算出部153を制御して、自己の移動速度を算出する(ステップS205)。すなわち、前回のポイントの位置と今回のポイントの位置とから2点間の距離を求め、前回のポイント検出時の現在時刻と今回のポイント検出時の現在時刻とから当該2点間の移動時間を求め、これらから移動速度を算出する。
Then, the
ステップS205の処理の後においては、ステップS206の処理に進む。また、ステップS202において、ポイントとなる「位置に関連している文字情報」を認識していない判別した場合、ステップS204において、今回検出したポイントの前に既に検出したポイントは存在しないと判別した場合にも、ステップS206の処理に進む。 After the process of step S205, the process proceeds to step S206. Also, when it is determined in step S202 that the “character information related to position” as a point is not recognized, it is determined in step S204 that there is no point already detected before the point detected this time. In addition, the process proceeds to step S206.
この場合、映像解析部151は、制御部100を通じてGPS部142が現在位置を測位できているか否か、換言すれば、GPS衛星からの電波を受信できているか否かを判別する(ステップS206)。ステップS206の判別処理において、GPS衛星からの電波を受信できていない(GPSロストである)と判別したとする。この場合、映像解析部151は、図3Bを用いて説明したように、トンネルや地下道等に入った場合の自己がいる場所に関する情報を取得する処理を行う(ステップS207)。
In this case, the
ステップS207の処理の後、また、ステップS206の判別処理において、GPS衛星からの電波は受信できている(GPSロストではない)と判別したときには、この図5に示す処理を終了する。 After the process of step S207, and in the determination process of step S206, if it is determined that the radio wave from the GPS satellite has been received (not the GPS lost), the process shown in FIG. 5 is terminated.
このように、この実施の形態の携帯電話端末1においては、カメラ部127、映像解析部151、距離取得部152、速度算出部153、場所補正部154の機能により、自己のいる場所に関する情報を取得することができる。また、自己の移動速度を適切に算出することができる。また、自己の移動速度の算出は、2点間の距離を取得するための開始ポイントや終了ポイントとなる方面看板や信号機に付された交差点名称等の「位置に関連している文字情報」を認識する毎に、2点間の距離と当該2点間の移動時間に基づいて、継続して行うことができる。
As described above, in the
[実施の形態の効果]
自動車のドライバ等のナビゲーション装置の利用者は、自己が走行している場所は、高速道路か一般道路か、トンネルや地下道(地下)か地上か、どのレーンを走行しているかは認識できている。したがって、利用者がナビゲーション装置に求めることは、目的地までの道順を適切に案内して欲しいということである。しかし、上述もしたように、従来のナビゲーション装置の場合、二次元の位置は特定できるが、高速道路か一般道路か、地下か地上かなどの上下(標高)を捕捉する手段に乏しい。加えて、PND、携帯電話端末やタブレットPCなどの携帯情報端末でナビゲーション機能を実現する場合には、自動車の据付型のナビゲーション装置のように、自動車に搭載された高精度の車速パルスセンサ、ジャイロセンサ、イルミセンサなどの検出出力は利用できない。
[Effect of the embodiment]
Users of navigation devices such as automobile drivers can recognize which lane they are driving, whether they are driving on highways or ordinary roads, tunnels, underground roads (underground), or above ground. . Therefore, what the user requests from the navigation device is that he / she wants to appropriately guide the route to the destination. However, as described above, in the case of a conventional navigation device, a two-dimensional position can be specified, but there is a lack of means for capturing up and down (altitude) such as whether it is an expressway or a general road, underground or ground. In addition, when a navigation function is realized by a portable information terminal such as a PND, a mobile phone terminal, or a tablet PC, a highly accurate vehicle speed pulse sensor or gyro mounted on a car like a car-mounted navigation device. Detection output from sensors, illumination sensors, etc. cannot be used.
しかし、この実施の形態の携帯電話端末1は、カメラ部127を通じて撮影する撮影映像を解析することにより得られる情報、また、地図DB131に格納されている地図データが備える種々の誘導データ等をも考慮することにより、自己がいる場所に関する情報や自己の移動速度を適切に取得できる。ここで、自己がいる場所に関する情報は、単に、緯度、経度で特定可能な二次元平面上の位置だけでなく、高速道路上か一般道路上か、トンネル内や地下道内かなどをも特定できる。そして、少なくとも、取得した自己がいる場所に関する情報に基づいて、自己がいる場所を特定できる場合には、当該特定した自己がいる場所で、ナビゲーション処理部(制御部100)が機能して特定した自己の現在位置を補正することができる。
However, the
もちろん、取得した自己がいる場所に関する情報や自己の移動速度を考慮して、また、地図DB131の種々の地図データや自己に搭載されたセンサの検出出力の一方または両方をも考慮することにより、より適切に自己のいる場所を特定することができる。そして、特定した自己のいる場所に基づいて、制御部100により実現されるナビゲーション処理部の機能により特定される自己の現在位置を適切に補正できる。
Of course, by considering the information about the location where the acquired self is and the moving speed of the self, and by considering one or both of various map data of the
すなわち、カメラ部127を通じて撮影する撮影映像を解析して得られる情報に基づいて、自己の現在位置を適切に補正できる。したがって、高精度の種々のセンサを特別に設けたりすること無く、高精度のナビゲーション機能を実現することができる。この発明は、PNDや携帯情報端末に適用して特に好適であり、コストを増大させたり、ナビゲーション装置の構成を複雑化させたりすることなく、高性能のナビゲーション装置を実現することができる。
In other words, the current position of the subject can be appropriately corrected based on the information obtained by analyzing the captured image captured through the
[変形例等]
なお、上述した実施の形態の映像解析部151では、連続的に撮影される映像データ(動画像データ)について、所定のタイミング毎のフレーム画像を解析の対象としたり、所定のタイミング毎に静止画像データを撮影して、これを解析の対象としたりすることもできる。なお、解析対象が動画データの場合のフレーム画像を特定する所定のタイミングや静止画像を撮影する所定のタイミングは、予め決められた時間間隔毎のタイミングとしてもよいし、初めは予め決められた時間間隔毎のタイミングとし、その後、速度算出部153等で算出される移動速度に応じて、当該所定のタイミングを変更するようにしてもよい。
[Modifications, etc.]
Note that, in the
また、自己の移動速度の算出に用いる所定区間の移動時間の取得は、上述したように、「位置に関連している文字情報」の検出タイミングで取得する現在時刻の差分により取得するものに限らない。例えば、時間制御部132のタイマー機能を用いて、「位置に関連している文字情報」の検出タイミング間の時間間隔を計測し、これを2点間の移動時間として取得することもできる。
Further, as described above, the acquisition of the movement time of the predetermined section used for the calculation of the movement speed of the user is limited to that acquired by the difference in the current time acquired at the detection timing of “character information related to position”. Absent. For example, by using the timer function of the
また、この発明は、PND、携帯電話端末やタブレットPCなどの携帯情報端末に適用して好適なものであるが、自動車に据付けられるナビゲーション装置に適用してももちろんよい。 In addition, the present invention is suitable for application to a portable information terminal such as a PND, a mobile phone terminal, or a tablet PC. However, the present invention may be applied to a navigation device installed in an automobile.
[その他]
なお、上述した実施の形態の説明からも明らかであるように、ナビゲーション装置の撮影手段の機能は、携帯電話端末1のカメラ部127が実現し、ナビゲーション装置の第1、第2の解析手段の機能は、携帯電話端末1の映像解析部151が実現している。また、ナビゲーション装置の補正手段の機能は、携帯電話端末1の場所補正部154が実現している。また、ナビゲーション装置の距離取得手段の機能は、携帯電話端末1の映像解析部151と距離取得部152が協働して実現し、ナビゲーション装置の移動時間取得手段としての機能は、携帯電話端末1の映像解析部151と時間制御部132とが協働して実現している。また、ナビゲーション装置の算出手段の機能は、携帯電話端末1の速度算出部153が実現している。
[Others]
As is clear from the description of the above-described embodiment, the
また、図4、図5に示したフローチャートの処理が、この発明の自律航法支援方法が適用されたものである。また、図4、図5に示した処理を実行するプログラムが、携帯電話端末1で実行される自律航法支援プログラムに対応している。したがって、図4、図5に示した処理を実行するプログラムを形成し、携帯電話端末やタブレットPC等の携帯情報端末やPND等に搭載することにより、この発明のナビゲーション装置を実現できる。
The processing of the flowcharts shown in FIGS. 4 and 5 is the one to which the autonomous navigation support method of the present invention is applied. Further, the program for executing the processing shown in FIGS. 4 and 5 corresponds to the autonomous navigation support program executed on the
1…携帯電話端末、100…制御部、101…CPU、102…ROM、103…RAM、104…CPUバス、110…記憶装置、111…送受信アンテナ、112…無線通信部、113…受話器、114…送話器、121…キー操作部、122…表示処理部、123…表示部、124…タッチパネル、125…音声出力部、126…スピーカ、127…カメラ部、131…地図DB、132…時間制御部、141…センサ部、142…GPS部、143…GPSアンテナ、151…映像解析部、152…距離取得部、153…速度算出部、154…場所補正部
DESCRIPTION OF
Claims (7)
進行方向の映像を撮影する撮影手段と、
撮影された映像を解析することにより、自己がいる場所に関する情報を取得する第1の解析手段と、
撮影された映像を解析することにより、右左折認識を行って自己の移動軌跡を取得する第2の解析手段と、
前記第1の解析手段を通じて取得した前記自己がいる場所に関する情報と、前記第2の解析手段を通じて取得した前記自己の移動軌跡とに基づいて、前記現在位置測位手段からの現在位置と前記地図データベースの地図データとのマッチング処理の結果を補正する補正手段と
を備えることを特徴とするナビゲーション装置。 A navigation device that provides route guidance by performing a matching process between the current position from the current position measurement means and the map data of the map database,
Photographing means for photographing a moving image;
A first analysis means for obtaining information about a place where the user is by analyzing the captured video;
A second analysis means for recognizing a right or left turn to obtain a movement locus of the subject by analyzing the captured image;
Based on the information about the place where the self is obtained through the first analysis means and the movement locus of the self obtained through the second analysis means , the current position from the current position measurement means and the map database A navigation device comprising: correction means for correcting a result of matching processing with the map data.
前記第1の解析手段は、撮影された映像に含まれる看板や標識の文字情報を認識することにより、自己がいる場所に関する情報を取得することを特徴とするナビゲーション装置。 The navigation device according to claim 1,
The navigation apparatus according to claim 1, wherein the first analysis unit acquires information about a place where the user is present by recognizing character information of a signboard or a sign included in the photographed video.
前記第1の解析手段は、撮影された映像に含まれる所定の設備の有無、道路の特徴を認識することにより、自己がいる場所に関する情報を取得することを特徴とするナビゲーション装置。 The navigation device according to claim 1 or 2,
The navigation apparatus according to claim 1, wherein the first analysis unit acquires information on a location where the user is present by recognizing presence or absence of predetermined equipment and road characteristics included in the captured video.
前記第1の解析手段は、少なくとも照明の設置位置、配列パターンを認識することにより、自己がいる場所に関する情報を取得することを特徴とするナビゲーション装置。 A navigation device according to any one of claims 1, 2 or 3,
The navigation apparatus according to claim 1, wherein the first analysis unit obtains information about a place where the user is present by recognizing at least a light installation position and an arrangement pattern.
前記第1の解析手段は、撮影された映像に含まれる場所に関する情報であって、前記地図データベースの地図データ上において場所が特定可能な場所特定情報を取得し、
前記第1の解析手段により順次に取得される2つの前記場所特定情報により特定される区間の距離と移動方向とを取得する距離取得手段と、
順次に取得される2つの前記場所特定情報により特定される区間の移動時間を取得する移動時間取得手段と、
前記距離取得手段で取得される距離と前記移動時間取得手段で取得される移動時間とに基づいて、自己の移動速度を算出する算出手段と
を備え、
前記補正手段は、前記移動方向と前記移動速度とに基づいて、前記マッチング処理の結果を補正することを特徴とするナビゲーション装置。 A navigation device according to any one of claims 1, 2, 3, or 4,
The first analysis means is information related to a location included in the captured video, and acquires location specifying information that can specify the location on the map data of the map database,
Distance acquisition means for acquiring a distance and a moving direction of a section specified by the two pieces of location specifying information sequentially acquired by the first analysis means ;
Travel time acquisition means for acquiring the travel time of the section specified by the two pieces of location specifying information acquired sequentially;
Based on the distance acquired by the distance acquisition means and the movement time acquired by the movement time acquisition means, and a calculation means for calculating its own movement speed,
The navigation device according to claim 1, wherein the correction unit corrects a result of the matching process based on the moving direction and the moving speed.
移動中において撮影手段を通じて進行方向の映像を撮影する撮影工程と、
撮影された映像を第1の解析手段が解析することにより、自己がいる場所に関する情報を取得する第1の解析工程と、
撮影された映像を第2の解析手段が解析することにより、右左折認識を行って自己の移動軌跡を取得する第2の解析工程と、
前記第1の解析工程を通じて取得した前記自己がいる場所に関する情報と、前記第2の解析工程を通じて取得した自己の移動軌跡とに基づいて、補正手段が、前記現在位置測位手段からの現在位置と前記地図データベースの地図データとのマッチング処理の結果を補正する補正工程と
を有することを特徴とする自律航法支援方法。 An autonomous navigation support method used in a navigation device that provides route guidance by performing matching processing between the current position from the current position measurement means and the map data in the map database,
A shooting process of shooting a moving image through a shooting means while moving;
A first analysis step of obtaining information about a place where the user is present by analyzing the photographed video by the first analysis means;
A second analysis step in which the second analysis means analyzes the captured image to perform right / left turn recognition and acquire its own movement trajectory;
Based on the information about the location where the self is obtained through the first analysis step and the movement trajectory of the self obtained through the second analysis step , the correction unit includes the current position from the current position measurement unit, and And a correction step of correcting a result of the matching process with the map data of the map database.
移動中において撮影手段が進行方向の映像を撮影する処理を行なう撮影ステップと、
撮影された映像を第1の解析手段が解析することにより、自己がいる場所に関する情報を取得する第1の解析ステップと、
撮影された映像を第2の解析手段が解析することにより、右左折認識を行って自己の移動軌跡を取得する第2の解析ステップと、
前記第1の解析ステップを通じて取得した前記自己がいる場所に関する情報と、前記第2の解析ステップを通じて取得した自己の移動軌跡とに基づいて、補正手段を通じて前記現在位置測位手段からの現在位置と前記地図データベースの地図データとのマッチング処理の結果を補正する補正ステップと
を実行することを特徴とする自律航法支援プログラム。 A program executed by a computer mounted on a navigation device that performs route guidance by performing matching processing between the current position from the current position measurement means and the map data of the map database,
A shooting step in which the shooting means performs a process of shooting a moving image while moving;
A first analysis step of acquiring information about a place where the user is present by analyzing the photographed video by the first analysis means;
A second analysis step in which the second analysis means analyzes the photographed video so as to perform right / left turn recognition and acquire its own movement trajectory;
Based on the information on the location where the self is obtained through the first analysis step and the movement locus of the self obtained through the second analysis step, the current position from the current position measurement unit through the correction unit, and the An autonomous navigation support program, comprising: executing a correction step for correcting a result of matching processing with map data in a map database.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012068942A JP5795278B2 (en) | 2012-03-26 | 2012-03-26 | Navigation device, autonomous navigation support method, and autonomous navigation support program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012068942A JP5795278B2 (en) | 2012-03-26 | 2012-03-26 | Navigation device, autonomous navigation support method, and autonomous navigation support program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013200218A JP2013200218A (en) | 2013-10-03 |
JP5795278B2 true JP5795278B2 (en) | 2015-10-14 |
Family
ID=49520572
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012068942A Active JP5795278B2 (en) | 2012-03-26 | 2012-03-26 | Navigation device, autonomous navigation support method, and autonomous navigation support program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5795278B2 (en) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6342681B2 (en) * | 2014-03-14 | 2018-06-13 | パイオニア株式会社 | Position determination apparatus, position determination method, and position determination program |
CN111351495B (en) * | 2015-02-10 | 2024-05-28 | 御眼视觉技术有限公司 | Server system, method, and machine-readable medium |
JP2016169991A (en) * | 2015-03-12 | 2016-09-23 | 株式会社ゼンリンデータコム | Route guidance device, route guidance method, and route guidance program |
JP6500607B2 (en) * | 2015-05-28 | 2019-04-17 | 日産自動車株式会社 | Vehicle position determination device and vehicle position determination method |
JP6727032B2 (en) * | 2016-05-26 | 2020-07-22 | 三菱電機株式会社 | Mobile terminal, self-position estimation system using the same, server and self-position estimation method |
JP6764693B2 (en) * | 2016-06-02 | 2020-10-07 | 日産自動車株式会社 | Satellite signal processing method and satellite signal processing equipment |
JP2018025915A (en) * | 2016-08-09 | 2018-02-15 | 三菱電機株式会社 | Driving support device |
JP6737242B2 (en) * | 2017-06-20 | 2020-08-05 | 株式会社Jvcケンウッド | Brightness control device, head-up display device, brightness control method and program |
WO2018235340A1 (en) * | 2017-06-20 | 2018-12-27 | 株式会社Jvcケンウッド | Brightness control device, imaging control device, digital mirror control device, head-up display device, display device for vehicles, imaging device for vehicles, and digital mirror |
JP6747390B2 (en) * | 2017-06-30 | 2020-08-26 | 株式会社Jvcケンウッド | Imaging control device, vehicle imaging device, imaging control method, and program |
JP6777048B2 (en) * | 2017-09-20 | 2020-10-28 | 株式会社Jvcケンウッド | Vehicle projection control device, head-up display device, vehicle projection control method and program |
US11650059B2 (en) * | 2018-06-06 | 2023-05-16 | Toyota Research Institute, Inc. | Systems and methods for localizing a vehicle using an accuracy specification |
CN111750881B (en) * | 2019-03-29 | 2022-05-13 | 北京魔门塔科技有限公司 | Vehicle pose correction method and device based on light pole |
JP2021162399A (en) * | 2020-03-31 | 2021-10-11 | パイオニア株式会社 | Display control device, display control method, and display control program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0935189A (en) * | 1995-07-20 | 1997-02-07 | Fujitsu Ten Ltd | Vehicle operation management system |
JP3399506B2 (en) * | 1998-12-22 | 2003-04-21 | アイシン・エィ・ダブリュ株式会社 | Vehicle navigation system |
JP4496964B2 (en) * | 2005-01-14 | 2010-07-07 | 株式会社デンソー | Tunnel detection device for vehicle and light control device for vehicle |
KR101400699B1 (en) * | 2007-05-18 | 2014-05-29 | 가부시키가이샤 한도오따이 에네루기 켄큐쇼 | Semiconductor substrate, semiconductor device and manufacturing method thereof |
US7928905B2 (en) * | 2008-10-26 | 2011-04-19 | Mitac International Corp. | Method of using road signs to augment global positioning system (GPS) coordinate data for calculating a current position of a personal navigation device |
JP2012002595A (en) * | 2010-06-15 | 2012-01-05 | Sony Corp | Information processing device, information processing method, information processing system, and program |
-
2012
- 2012-03-26 JP JP2012068942A patent/JP5795278B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013200218A (en) | 2013-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5795278B2 (en) | Navigation device, autonomous navigation support method, and autonomous navigation support program | |
JP6763448B2 (en) | Visually enhanced navigation | |
US11692842B2 (en) | Augmented reality maps | |
US8473201B2 (en) | Current position determining device and current position determining method for correcting estimated position based on detected lane change at road branch | |
EP2598842B1 (en) | Guidance device, guidance method, and guidance program | |
US20100292895A1 (en) | Driving support device | |
WO2014115563A1 (en) | Driving support device, driving support method, and recording medium storing driving support program | |
WO2011053335A1 (en) | System and method of detecting, populating and/or verifying condition, attributions, and/or objects along a navigable street network | |
JP6106495B2 (en) | Detection device, control method, program, and storage medium | |
CN110998684B (en) | Image collection system, image collection method, image collection device, and recording medium | |
CN110260877B (en) | Driving related guidance providing method and apparatus, and computer readable recording medium | |
KR20120079341A (en) | Method, electronic device and recorded medium for updating map data | |
CN107727103A (en) | Air navigation aid, terminal and computer-readable medium | |
JP6165422B2 (en) | Information processing system, information processing device, server, terminal device, information processing method, and program | |
JP2019008528A (en) | Image recording device and image recording method | |
JP2011232271A (en) | Navigation device, accuracy estimation method for on-vehicle sensor, and program | |
JP4798549B2 (en) | Car navigation system | |
JP2011022004A (en) | Device, method and program for updating of map data, and recording medium | |
CN102288180A (en) | Real-time image navigation system and method | |
US20200294119A1 (en) | Computer program product and computer-implemented method | |
JP2008262481A (en) | Vehicle control device | |
JPWO2008047449A1 (en) | Image display device, display control method, display control program, and recording medium | |
JP2007071539A (en) | On-vehicle navigation device | |
JP2014066595A (en) | Navigation apparatus | |
JP2007232787A (en) | On-board navigation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150722 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150812 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5795278 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |