[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5795278B2 - Navigation device, autonomous navigation support method, and autonomous navigation support program - Google Patents

Navigation device, autonomous navigation support method, and autonomous navigation support program Download PDF

Info

Publication number
JP5795278B2
JP5795278B2 JP2012068942A JP2012068942A JP5795278B2 JP 5795278 B2 JP5795278 B2 JP 5795278B2 JP 2012068942 A JP2012068942 A JP 2012068942A JP 2012068942 A JP2012068942 A JP 2012068942A JP 5795278 B2 JP5795278 B2 JP 5795278B2
Authority
JP
Japan
Prior art keywords
information
current position
unit
analysis
navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012068942A
Other languages
Japanese (ja)
Other versions
JP2013200218A (en
Inventor
光昭 小関
光昭 小関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zenrin Datacom Co Ltd
Original Assignee
Zenrin Datacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zenrin Datacom Co Ltd filed Critical Zenrin Datacom Co Ltd
Priority to JP2012068942A priority Critical patent/JP5795278B2/en
Publication of JP2013200218A publication Critical patent/JP2013200218A/en
Application granted granted Critical
Publication of JP5795278B2 publication Critical patent/JP5795278B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Description

この発明は、例えば、自動車、オートバイ、自転車等に搭載して利用される、あるいは、歩行者が手に持ちながら利用されるナビゲーション装置、当該ナビゲーション装置において用いられる方法、プログラムに関する。   The present invention relates to, for example, a navigation device that is used by being mounted on an automobile, a motorcycle, a bicycle, or the like, or is used while being held by a pedestrian, and a method and program used in the navigation device.

現在、多くの自動車にはナビゲーション装置が搭載されている。ナビゲーション装置は、GPS(Global Positioning System)を利用して自車の現在位置を測位し、地図上に自車の位置を表示し、音声ガイダンスを併用するなどして目的地までの経路案内を行う。また、ナビゲーション装置は、自車に搭載された速度センサ、方位センサ(地磁気センサ)、加速度センサ等の検出出力を用いたマップマッチング機能や自律航法機能を備えている。これにより、GPS電波に誤差が含まれていても、また、GPS衛星からの電波が一時的に受信できないときでも、自機の現在位置を適切に特定できる。   Currently, many automobiles are equipped with navigation devices. The navigation device measures the current position of the vehicle using GPS (Global Positioning System), displays the position of the vehicle on a map, and provides route guidance to the destination by using voice guidance together. . Further, the navigation device has a map matching function and an autonomous navigation function using detection outputs of a speed sensor, a direction sensor (geomagnetic sensor), an acceleration sensor and the like mounted on the host vehicle. Thereby, even if an error is included in the GPS radio wave, or even when the radio wave from the GPS satellite cannot be temporarily received, the current position of the own device can be appropriately specified.

しかし、従来のナビゲーション装置では、高速道路と一般道路とが上下に並行して存在している場所では、自車が高速道路と一般道路のどちらを走行しているのか判別できないという問題がある。また、例えば、トンネルや地下道の中ではGPS衛星からの電波が受信できなくなるが、従来のナビゲーション装置では、何故、GPS衛星からの電波が受信できないのかを認識できない。   However, the conventional navigation apparatus has a problem that it cannot be determined whether the vehicle is traveling on the highway or the general road in a place where the highway and the general road exist in parallel with each other. In addition, for example, radio waves from GPS satellites cannot be received in tunnels and underpasses, but conventional navigation devices cannot recognize why radio waves from GPS satellites cannot be received.

前者の問題を解決するため、特許文献1には、測定区間の走行時間と測定区間の交通状況に応じて高速道路か一般道路かを判別する発明が開示されている。また、特許文献2、3には、高速道路と一般道路とで運転状態が異なる点に着目し、高速道路か一般道路かを判別する発明が開示されている。また、特許文献4には、撮影された道路状の白線の長さに基づいて、高速道路か一般道路かを判別する発明が開示されている。また、後者の問題を解決する一案として、特許文献5には、撮影された画像データの輝度の特徴量と、色相の特徴量に基づいて、トンネルか否かを検出する発明が開示されている。   In order to solve the former problem, Patent Document 1 discloses an invention for discriminating between a highway and a general road according to the travel time of the measurement section and the traffic situation of the measurement section. Patent Documents 2 and 3 disclose inventions that discriminate between highways and ordinary roads by paying attention to different driving states between highways and ordinary roads. Patent Document 4 discloses an invention for discriminating between a highway and a general road based on the length of a photographed road-like white line. As a proposal for solving the latter problem, Patent Document 5 discloses an invention for detecting whether or not a tunnel is based on a luminance feature amount and a hue feature amount of captured image data. Yes.

特開2007−093393号公報JP 2007-093393 A 特開2005−292052号公報JP 2005-292052 A 特開2000−292191号公報JP 2000-292191 A 特開2005−114535号公報JP 2005-114535 A 特開2007−030734号公報JP 2007-030734 A

上述したように、従来のナビゲーション装置は、二次元(平面上)の位置については特定できるが、高速道路か一般道路かといった上下(標高)を捕捉する手段に乏しい。また、トンネルや地下道の中か否かを判別して、自己の現在位置を適切に把握する手段も乏しい。もちろん、上述した特許文献に記載された技術を利用することも可能であるが、種々の処理機能を搭載しなければならなくなり、ナビゲーション装置の負荷が大きくなるという問題がある。   As described above, the conventional navigation device can specify a two-dimensional (on a plane) position, but lacks means for capturing the top and bottom (altitude) such as an expressway or a general road. In addition, there is a lack of means for determining whether or not the vehicle is in a tunnel or underpass and properly grasping its current position. Of course, it is possible to use the technique described in the above-mentioned patent document, but there is a problem in that various processing functions must be installed and the load on the navigation device increases.

近年においては、PND(Portable Navigation Device)と呼ばれる小型化、軽量化され、自動車のダッシュボードへの取り付け/取り外しが容易に行えるナビゲーション装置が広く利用されるようになってきている。PNDは、据付型のナビゲーション装置のように自動車に搭載された種々のセンサからの検出出力の供給を受けるこができないため、据付型のナビゲーション装置に比べ機能を簡略化したものが多い。このようなPNDでは、より精度のよいナビゲーション機能を実現することが望まれている。   In recent years, a navigation device called PND (Portable Navigation Device), which is reduced in size and weight and can be easily attached to / detached from a dashboard of an automobile, has been widely used. Since the PND cannot receive detection outputs from various sensors mounted on an automobile like a stationary navigation device, the PND has many simplified functions compared to a stationary navigation device. In such a PND, it is desired to realize a more accurate navigation function.

また、近年においては、スマートフォンなどと呼ばれる高機能携帯電話端末やタブレットPC(PCはパーソナルコンピュータの略称)等の携帯情報端末が広く利用されるようになってきている。そして、これら高機能携帯電話端末やタブレットPCなどにも、精度のよいナビゲーション機能を搭載することが望まれている。   In recent years, portable information terminals such as high-function mobile phone terminals called smartphones and tablet PCs (PC is an abbreviation for personal computer) have come to be widely used. And it is desired that these high-function mobile phone terminals, tablet PCs, and the like be equipped with an accurate navigation function.

以上のことにかんがみ、この発明は、PNDや種々の携帯情報端末においても、精度のよいナビゲーション機能を実現することを目的とする。   In view of the above, an object of the present invention is to realize an accurate navigation function even in PNDs and various portable information terminals.

上記課題を解決するため、請求項1に記載の発明のナビゲーション装置は、
現在位置測位手段からの現在位置と地図データベースの地図データとのマッチング処理を行うことにより、経路案内を行うナビゲーション装置であって、
進行方向の映像を撮影する撮影手段と、
撮影された映像を解析することにより、自己がいる場所に関する情報を取得する第1の解析手段と、
撮影された映像を解析することにより、右左折認識を行って自己の移動軌跡を取得する第2の解析手段と、
前記第1の解析手段を通じて取得した前記自己がいる場所に関する情報と、前記第2の解析手段を通じて取得した前記自己の移動軌跡とに基づいて、前記現在位置測位手段からの現在位置と前記地図データベースの地図データとのマッチング処理の結果を補正する補正手段と
を備えることを特徴とする。
In order to solve the above problem, the navigation device of the invention according to claim 1 is:
A navigation device that provides route guidance by performing a matching process between the current position from the current position measurement means and the map data of the map database,
Photographing means for photographing a moving image;
A first analysis means for obtaining information about a place where the user is by analyzing the captured video;
A second analysis means for recognizing a right or left turn to obtain a movement locus of the subject by analyzing the captured image;
Based on the information about the place where the self is obtained through the first analysis means and the movement locus of the self obtained through the second analysis means , the current position from the current position measurement means and the map database Correction means for correcting the result of the matching process with the map data.

この請求項1に記載の発明のナビゲーション装置によれば、現在位置測位手段からの現在位置と地図データベースの地図データとのマッチング処理を行うことにより、経路案内を行う。この場合に、撮影手段を通じて撮影された映像を、第1の解析手段が解析して自己がいる場所に関する情報を取得する。そして、第2の解析手段が撮像手段を通じて撮影された映像を解析することにより、右左折認識を行って自己の移動軌跡を取得する。この後、第1の解析手段を通じて取得した自己がいる場所に関する情報と、第2の解析手段を通じて取得した自己の移動軌跡とに基づいて、補正手段が、上述した現在位置測位手段からの現在位置と地図データベースの地図データとのマッチング処理の結果を補正する。 According to the navigation apparatus of the first aspect of the present invention, route guidance is performed by performing a matching process between the current position from the current position positioning means and the map data of the map database. In this case, the first analysis unit analyzes the video shot through the shooting unit and acquires information about the location where the user is. Then, the second analysis unit analyzes the video imaged through the imaging unit, thereby performing right / left turn recognition and acquiring its own movement trajectory. Thereafter, based on the information about the place where the self is obtained through the first analyzing means and the movement locus of the self obtained through the second analyzing means , the correcting means performs the current position from the above-described current position measuring means. The result of the matching process between the map data and the map data in the map database is corrected.

このように、マッチング処理により求められる地図上における自己のいる場所が、撮影された映像を解析することにより得られる自己がいる場所に関する情報に基づいて補正される。これにより、精度のよいナビゲーション装置が実現できる。   In this manner, the location where the subject is on the map obtained by the matching process is corrected based on the information regarding the location where the subject is present obtained by analyzing the captured video. Thereby, a highly accurate navigation device can be realized.

この発明によれば、撮影された映像を利用することにより、PNDや種々の携帯情報端末においても、精度のよいナビゲーション機能が実現できる。   According to the present invention, an accurate navigation function can be realized in a PND and various portable information terminals by using the captured video.

実施の形態の携帯電話端末1の構成例を説明するためのブロック図である。It is a block diagram for demonstrating the structural example of the mobile telephone terminal 1 of embodiment. 映像解析部151で解析される撮影映像の例を示す図である。It is a figure which shows the example of the picked-up image | video analyzed by the image | video analysis part 151. FIG. 映像解析部151で解析される撮影映像の例を示す図である。It is a figure which shows the example of the picked-up image | video analyzed by the image | video analysis part 151. FIG. 携帯電話端末1で実行されるナビゲーション処理の概要を説明するためのフローチャートである。4 is a flowchart for explaining an outline of navigation processing executed in the mobile phone terminal 1; 携帯電話端末1で実行される自己がいる場所に関する情報等の取得処理について説明するためのフローチャートである。5 is a flowchart for explaining an acquisition process of information relating to a place where the user is present, which is executed in the mobile phone terminal 1;

以下、図を参照しながら、この発明の装置、方法、プログラムの一実施の形態について説明する。なお、この発明は、進行方向を撮影可能なカメラ機能を備えたPND、あるいは、スマートフォンなど呼ばれる高機能携帯電話端末やタブレットPCなどの携帯情報端末に適用できる。以下に説明する実施の形態においては、説明を簡単にするため、広く普及しているカメラ機能を備えた高機能携帯電話端末にこの発明を適用した場合を例にして説明する。   Hereinafter, embodiments of the apparatus, method, and program of the present invention will be described with reference to the drawings. Note that the present invention can be applied to a PND having a camera function capable of photographing the traveling direction, or a portable information terminal such as a smart phone or a tablet PC. In the embodiment described below, in order to simplify the description, a case where the present invention is applied to a high-function mobile phone terminal having a widely used camera function will be described as an example.

[高機能携帯電話端末1の構成例]
この実施の形態の高機能携帯電話端末(以下、単に携帯電話端末と記載する。)1は、自動車のダッシュボード上に例えば吸盤や両面テープにより簡易に取り付けられたフレームに対して、簡単に着脱可能なものである。そして、当該携帯電話端末は、当該フレームに対して取り付けられた場合には、ナビゲーション装置として利用できるものである。もちろん、オートバイ、自転車等に取り付けて利用することもできるし、ユーザーが手に持った状態で、歩行者用のナビゲーション装置としても利用できる。
[Configuration example of high-function mobile phone terminal 1]
A high-performance mobile phone terminal (hereinafter simply referred to as a mobile phone terminal) 1 according to this embodiment is easily attached to and detached from a frame that is simply attached to a dashboard of an automobile by, for example, a suction cup or double-sided tape. It is possible. The mobile phone terminal can be used as a navigation device when attached to the frame. Of course, it can be used by attaching it to a motorcycle, a bicycle, or the like, or it can be used as a navigation device for pedestrians while it is held by a user.

以下においては、自動車のダッシュボード上のフレームに装着され、自動車のナビゲーション装置として利用される場合を例にして説明する。まず、この実施の形態の携帯電話端末1の構成について説明する。図1は、この実施の形態の携帯電話端末1の構成例を説明するためのブロック図である。   In the following, a case where the vehicle is mounted on a frame on a dashboard of an automobile and used as a navigation apparatus for an automobile will be described as an example. First, the configuration of the mobile phone terminal 1 of this embodiment will be described. FIG. 1 is a block diagram for explaining a configuration example of the mobile phone terminal 1 of this embodiment.

[携帯電話端末1の基本構成部分について]
制御部100は、携帯電話端末1の各部を制御するものであり、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103がCPUバス104を通じて接続されたコンピュータ装置である。記憶装置110は、記録媒体として不揮発性メモリを備え、種々のアプリケーションプログラムや種々の処理により得られたデータ等の当該不揮発性メモリへの書込み/記録保持/読み出し/削除を行う。なお、記憶装置110には、ナビゲーション用の音声ガイダンスを放音するための音声データ等も記録保持されている。
[Basic components of mobile phone terminal 1]
The control unit 100 controls each unit of the cellular phone terminal 1, and is a computer in which a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, and a RAM (Random Access Memory) 103 are connected through a CPU bus 104. Device. The storage device 110 includes a nonvolatile memory as a recording medium, and performs writing / recording holding / reading / deleting various application programs and data obtained by various processes to the nonvolatile memory. The storage device 110 also records and holds voice data and the like for emitting voice guidance for navigation.

送受信アンテナ111、無線通信部112は、携帯電話網やインターネットなどの広域ネットワークを通じて通信を行う機能を実現する。受話器(スピーカ)113および送話器(マイクロホン)114は、通話を行うためのものである。すなわち、無線通信部112は、携帯電話網を通じて相手先との間に通話回線を接続し、受話器(スピーカ)113および送話器(マイクロホン)114を通じての通話を可能にする。また、無線通信部112は、インターネットに接続し、インターネットを通じてのデータの送受信を可能にし、電子メールの送受信やインターネット上に開示されたWebページの閲覧等を可能にする。   The transmission / reception antenna 111 and the wireless communication unit 112 realize a function of performing communication through a wide area network such as a mobile phone network or the Internet. A handset (speaker) 113 and a handset (microphone) 114 are for making a call. That is, the wireless communication unit 112 connects a call line to the other party through the mobile phone network, and enables a call through the handset (speaker) 113 and the handset (microphone) 114. In addition, the wireless communication unit 112 is connected to the Internet, enables transmission / reception of data through the Internet, transmission / reception of electronic mail, browsing of Web pages disclosed on the Internet, and the like.

キー操作部121は、携帯電話端末1に設けられたハードウェアキーからなり、ユーザーからの操作入力を受け付ける。表示処理部122と表示部123とは、種々の映像(画像)、表示メッセージなどの表示情報を表示するためのものである。タッチパネル124は、表示部123の表示画面に貼付され、ユーザーの指等の指示体による接触位置(接触座標)を検出し、これを制御部100に通知する。したがって、タッチパネル124は、制御部100によって表示位置が制御される表示部123の表示画面に表示される表示情報と共に入力インターフェースを構成する。音声出力部125とスピーカ126とは、種々の音声情報を出力するためのものである。   The key operation unit 121 includes hardware keys provided in the mobile phone terminal 1 and accepts operation inputs from the user. The display processing unit 122 and the display unit 123 are for displaying display information such as various images (images) and display messages. The touch panel 124 is affixed to the display screen of the display unit 123, detects a contact position (contact coordinates) by an indicator such as a user's finger, and notifies the control unit 100 of this. Therefore, the touch panel 124 constitutes an input interface together with display information displayed on the display screen of the display unit 123 whose display position is controlled by the control unit 100. The audio output unit 125 and the speaker 126 are for outputting various audio information.

カメラ部127は、撮像レンズ、撮像素子、カメラ信号処理回路などを備え、被写体の映像(画像)を撮影し、これをデジタル信号の映像(画像)データとして取り込み、例えば、記憶装置110の所定の記録エリアに記録する機能を有する。この実施の形態の携帯電話端末1において、カメラ部127は、表示部123の表示画面とは反対側の面に設けられている。そして、携帯電話端末1が自動車内のダュシュボード上に載置されたときには、カメラ部127の撮影レンズは自動車の進行方向(自動車の前方外側)に向けられた状態となり、進行方向の映像を撮影することが可能な状態となる。したがって、カメラ部127とは反対側の面に設けられる表示部123の表示画面は自動車の内部に向けられ運転者が観視可能な状態になる。   The camera unit 127 includes an imaging lens, an imaging device, a camera signal processing circuit, and the like. The camera unit 127 captures a video (image) of a subject and captures the video as video (image) data of a digital signal. It has a function of recording in the recording area. In the mobile phone terminal 1 of this embodiment, the camera unit 127 is provided on the surface of the display unit 123 opposite to the display screen. When the mobile phone terminal 1 is placed on the dash board in the automobile, the photographing lens of the camera unit 127 is directed to the traveling direction of the automobile (the front outside of the automobile), and photographs the image in the traveling direction. Will be possible. Therefore, the display screen of the display unit 123 provided on the surface opposite to the camera unit 127 is directed to the inside of the automobile so that the driver can view it.

そして、この実施の形態の携帯電話端末1においては、詳しくは後述するが、ナビゲーション機能の実行時においては、カメラ部127を通じて撮影される撮影映像(映像データ)の映像解析を行って、自己がいる場所に関する情報を取得する。この取得した自己がいる場所に関する情報を用いて、自己の現在位置を補正する機能を有する。なお、ナビゲーション機能の実行時においては、表示部123には地図等のナビゲーション情報が表示されるため、カメラ部127からの映像データに応じた映像は映像解析の対象とされるが表示部123に表示されることはない。   In the mobile phone terminal 1 of this embodiment, as will be described in detail later, when the navigation function is executed, the mobile phone terminal 1 performs video analysis of the shot video (video data) shot through the camera unit 127, Get information about where you are. It has a function of correcting the current position of the self using the acquired information on the place where the self is. Note that when the navigation function is executed, navigation information such as a map is displayed on the display unit 123, so that the video corresponding to the video data from the camera unit 127 is subject to video analysis. It is never displayed.

地図データベース(以下、地図DBと記載する。)131は、不揮発性メモリなどの大容量記録媒体に作成され、地図を描画するためのベクトルデータやラスタデータ等の地図データ(地図用の描画データ)を緯度・経度情報に対応付けて記憶保持する。当該地図は、ナビゲーション機能の実行時に表示部123に表示されるものである。また、地図DB131は、地図上に表示する注記データ、方面看板、交差点名称、トンネルや地下道の名称などの文字情報やそれらの画像情報等のいわゆる誘導データについても、緯度・経度情報に対応付けて記憶保持する。時間制御部132は、現在年月日、現在曜日、現在時刻を管理すると共に、所定の時点からの時間を計測するタイマーとしての機能をも備えたものである。   A map database (hereinafter referred to as map DB) 131 is created on a large-capacity recording medium such as a non-volatile memory, and map data (map drawing data) such as vector data and raster data for drawing a map. Is stored in association with latitude / longitude information. The map is displayed on the display unit 123 when the navigation function is executed. The map DB 131 also associates so-called guidance data such as text data such as note data, direction signboards, intersection names, names of tunnels and underground passages, and image information thereof, which are displayed on the map, in association with latitude / longitude information. Keep in memory. The time control unit 132 manages the current date, current day of the week, and the current time, and also has a function as a timer that measures the time from a predetermined time point.

センサ部141は、加速度センサや方位センサ(地磁気センサ)を備える。加速度センサは、携帯電話端末1の例えば姿勢を特定するために携帯電話端末1の傾きを検出する。方位センサは、地磁気を検出することにより、携帯電話端末1がどちらの方向を向いているかを検出する。この方位センサにより、カメラ部127を用いて撮影を行う場合には、どちらの方向を撮影しているのかが検出できる。なお、センサ部141は、3軸(前後、左右、上下)の加速度センサ他、加速度センサと角速度センサを組み合わせた6軸センサが用いられる場合もある。また、GPS部142およびGPSアンテナ143は、自機の現在位置を測位するためのものである。なお、図1には図示しないが、この実施の形態の携帯電話端末1は、着信や警告等の発生を通知するためのバイブレータやリンガ等も備えている。   The sensor unit 141 includes an acceleration sensor and an orientation sensor (geomagnetic sensor). The acceleration sensor detects the inclination of the mobile phone terminal 1 in order to specify, for example, the posture of the mobile phone terminal 1. The direction sensor detects which direction the mobile phone terminal 1 is facing by detecting geomagnetism. With this azimuth sensor, when taking a picture using the camera unit 127, it is possible to detect which direction is taken. The sensor unit 141 may be a triaxial (front / rear, left / right, up / down) acceleration sensor or a 6-axis sensor that combines an acceleration sensor and an angular velocity sensor. The GPS unit 142 and the GPS antenna 143 are for positioning the current position of the own device. Although not shown in FIG. 1, the cellular phone terminal 1 of this embodiment also includes a vibrator, a ringer, and the like for notifying the occurrence of an incoming call or warning.

これらの構成を有する携帯電話端末1は、電話を掛けたり、受けたりすることができる。また、電子メールの作成や参照を行ったり、インターネットにアクセスして電子メールの送受信を行ったり、Webページを閲覧したり、SNS(Social Networking Service)を利用したりすることができる。   The cellular phone terminal 1 having these configurations can make and receive calls. It is also possible to create and refer to an e-mail, access the Internet to send and receive e-mail, browse a web page, and use SNS (Social Networking Service).

また、図1に示すように、制御部100が備えるナビゲーション処理部の機能により、ナビゲーション機能を提供することができる。この場合、制御部100は、ユーザーから入力された出発地から目的地までの経路探索を地図DB131の地図データを用いて行う。そして、制御部100は、地図DB131の地図データに応じた地図を、表示処理部122を通じて表示部123に表示する。さらに、制御部100は、GPS部142からの現在位置を用いると共に、センサ部141からの検出出力をも利用して、自機の現在位置を表示された地図上に示し、表示情報と音声情報とにより、目的地までの経路案内(ナビゲーション)を行うことができる。   Further, as shown in FIG. 1, the navigation function can be provided by the function of the navigation processing unit included in the control unit 100. In this case, the control unit 100 performs a route search from the departure point to the destination input by the user using the map data of the map DB 131. And the control part 100 displays the map according to the map data of map DB131 on the display part 123 through the display process part 122. FIG. Further, the control unit 100 uses the current position from the GPS unit 142 and also uses the detection output from the sensor unit 141 to indicate the current position of the own device on the displayed map, and displays information and audio information. Thus, route guidance (navigation) to the destination can be performed.

[撮影された映像を用いたナビゲーション支援を行う部分について]
そして、この実施の形態の携帯電話端末1は、撮影された映像を用いたナビゲーション支援を行う部分として、映像解析部151、距離取得部152、速度算出部153、場所補正部154を備えている。これらの各部が機能することにより、GPS部142からの現在位置と地図DB131の地図データとのマッチング処理の結果を補正して、精度のよいナビゲーション機能を実現している。
[About the navigation support using the captured video]
The mobile phone terminal 1 according to this embodiment includes a video analysis unit 151, a distance acquisition unit 152, a speed calculation unit 153, and a place correction unit 154 as parts for performing navigation support using the captured video. . As these units function, the result of matching processing between the current position from the GPS unit 142 and the map data in the map DB 131 is corrected to realize a highly accurate navigation function.

映像解析部151は、カメラ部127を通じて撮影することにより得られた映像(映像データ)を解析することにより、自己がいる場所に関する情報を取得する。映像解析部151では、例えば、撮影映像についてエッジ検出を行って撮影映像に含まれる物の形状を認識し、その認識した物の形状についてパターンマッチングを行ってその物が何かを特定したり、撮影映像に含まれる文字情報を認識したりする。そして、映像解析部151は、その認識結果に基づいて、自己がいる場所に関する情報を取得する。   The video analysis unit 151 analyzes the video (video data) obtained by shooting through the camera unit 127, thereby acquiring information on the location where the user is. In the video analysis unit 151, for example, edge detection is performed on a captured video to recognize the shape of an object included in the captured video, and pattern matching is performed on the recognized shape of the object to identify what the object is, Recognize text information included in captured images. And the video analysis part 151 acquires the information regarding the place where self exists based on the recognition result.

ここで、映像解析部151で行われる処理について具体的に説明する。図2、図3は、携帯電話端末1が自動車内のダッシュボード上に載置され、ナビゲーション機能が実行されているときに、図2、図3において点線で示したように、進行方向に撮影レンズが向けられているカメラ部127により撮影されている映像の例を示している。   Here, the process performed by the video analysis unit 151 will be specifically described. 2 and 3, when the mobile phone terminal 1 is placed on the dashboard in the automobile and the navigation function is executed, the shooting is performed in the traveling direction as indicated by the dotted line in FIGS. 2 and 3. The example of the image | video currently image | photographed by the camera part 127 to which the lens is directed is shown.

[案内標識に基づく自己がいる場所に関する情報の取得]
図2Aに示すように、撮影映像中に方面看板等の案内標識が含まれていたとする。この場合、映像解析部151では、まず、方面看板等の案内標識の存在を認識し、その案内標識に記載された文字情報を認識(文字認識)する。図2Aに示した例の場合、「白石蔵王」、「24」、「出口1km」という文字が認識できる。このため、当該撮影映像を撮影した時点では、携帯電話端末1は、「高速道路上の白石蔵王の出口の1km手前」にいるという、自己がいる場所に関する情報が取得できる。
[Obtaining information about where you are based on guide signs]
As shown in FIG. 2A, it is assumed that a guide sign such as a direction signboard is included in the captured video. In this case, the video analysis unit 151 first recognizes the presence of a guide sign such as a direction signboard, and recognizes (character recognition) character information described on the guide sign. In the example shown in FIG. 2A, the characters “Shiroishi Zao”, “24”, and “Exit 1 km” can be recognized. For this reason, at the time of capturing the captured video, the mobile phone terminal 1 can acquire information regarding the location where the mobile phone terminal 1 is located “1 km before the exit of Zao Shiraishi on the highway”.

また、この実施の形態の地図DB131には、上述もしたように、方面看板(案内標識)の画像と、その方面看板が設けられている位置を示す位置情報も記憶されている。このため、図2Aに示した撮影映像に含まれる方面看板部分の画像と、地図DB131に記憶されている方面看板のマッチングを行うことにより、当該方面看板が設置されている位置を特定できる。この場合、当該方面看板は高速道路に設置されているものであることも把握されており、高速道上にいることと、撮影映像に含まれる方面看板の設置位置(緯度、経度)を自己がいる場所に関する情報として取得できる。   Further, as described above, the map DB 131 of this embodiment also stores an image of a direction sign (guide sign) and position information indicating a position where the direction sign is provided. For this reason, by matching the image of the direction signboard included in the captured video shown in FIG. 2A with the direction signboard stored in the map DB 131, the position where the direction signboard is installed can be specified. In this case, it is also known that the direction signboard is installed on the expressway, and that it is on the expressway and that the location signboard installation position (latitude and longitude) included in the captured video is self. It can be acquired as information about the place.

また、図2Bに示すように、撮影映像中に建物に取り付けられた看板が含まれていたとする。この場合、映像解析部151では、まず、建物とその建物に取り付けられた看板の存在を認識し、その看板に記載された文字情報を認識(文字認識)する。図2Bに示した例の場合、「○○病院」という文字が認識できる。このため、直近にGPS部142から取得した現在位置を含む地図上において、「○○病院」の所在地を特定することにより、自己がいる場所は「○○病院」の近傍であるというように、自己のいる場所に関する情報が取得できる。   Further, as shown in FIG. 2B, it is assumed that a signboard attached to a building is included in the captured video. In this case, the video analysis unit 151 first recognizes the existence of a building and a signboard attached to the building, and recognizes (character recognition) character information described on the signboard. In the case of the example shown in FIG. 2B, the character “XX hospital” can be recognized. For this reason, on the map including the current position acquired from the GPS unit 142 most recently, by identifying the location of “XX hospital”, the place where the person is is in the vicinity of “XX hospital” You can get information about where you are.

[周辺の設備、施設、道路状況等に基づく自己がいる場所に関する情報の取得]
また、図2Aに示すように、撮影映像中に道路の進行方向と交差する方向に複数の白点線が設けられていることを認識した場合には、利用している道路は複数の車線が設けられた大きな道路であるという自己がいる場所に関する情報を取得できる。また、撮影映像を解析し、中央分離帯やガードレールの有無を検出することにより、走行している道路が大きな道路か小さな道路かなどの自己がいる場所に関する情報を取得できる。また、道路に設けられている白点線の間隔の違いに応じて、自己がいる道路は高速道路か、一般道路かといった自己がいる場所に関する情報を取得できる。道路に設けられる白点線の間隔は、高速道路が20m、一般道路が10mと決まっているためである。
[Obtaining information about where you are based on surrounding equipment, facilities, road conditions, etc.]
In addition, as shown in FIG. 2A, when it is recognized that a plurality of white dotted lines are provided in a direction intersecting with the traveling direction of the road in the captured image, the road being used is provided with a plurality of lanes. It is possible to obtain information on the place where the self is a big road. In addition, by analyzing the captured video and detecting the presence of a median strip or guardrail, it is possible to acquire information about a place where the user is present, such as whether the road on which the vehicle is traveling is a large road or a small road. In addition, according to the difference between white dotted lines provided on the road, it is possible to acquire information on the location where the self is, such as whether the road where the self is located is an expressway or a general road. This is because the distance between the white dotted lines provided on the road is determined to be 20 m for a highway and 10 m for a general road.

また、図3Aに示すように、撮影映像中に交差点に設置された信号機が含まれていたとする。この場合、映像解析部151では、上述したように、形状認識と、認識した形状についてのパターンマッチングにより、信号機の存在を認識できる。したがって、少なくとも、信号機が設置されている交差点の近傍に位置しているという、自己のいる場所に関する情報を取得することができる。また、図3Aに示すように、比較的に大きな交差点の信号機には、信号部分の上側や下側、あるいは横側に、当該信号機が設置されている交差点の名称を示す表示板が設けられている。   Further, as shown in FIG. 3A, it is assumed that a traffic light installed at an intersection is included in the captured video. In this case, as described above, the video analysis unit 151 can recognize the presence of the traffic light by shape recognition and pattern matching for the recognized shape. Therefore, it is possible to acquire at least information regarding the location where the vehicle is located, that is, the location where the traffic light is located. In addition, as shown in FIG. 3A, a traffic signal at a relatively large intersection is provided with a display board indicating the name of the intersection where the signal is installed on the upper side, lower side, or side of the signal portion. Yes.

この場合には、図2を用いて説明した場合と同様に、信号機に設けられている表示板に記載されている文字を認識することにより、当該信号機が設置されている交差点の名称を特定できる。図3Aに示した例の場合には、「△△一丁目」という交差点の近傍にいることが特定できる。そして、直近にGPS部142から取得した現在位置を含む地図上において、特定した交差点の名称に対応する交差点の所在地を特定することにより、自己がいる場所は、特定した交差点の所在地近傍であるというように、自己のいる場所に関する情報が取得できる。   In this case, as in the case described with reference to FIG. 2, the name of the intersection where the traffic signal is installed can be identified by recognizing the characters written on the display board provided in the traffic signal. . In the case of the example shown in FIG. 3A, it can be specified that the vehicle is in the vicinity of the intersection “ΔΔ 1-chome”. Then, by identifying the location of the intersection corresponding to the identified intersection name on the map including the current position acquired from the GPS unit 142 most recently, it is said that the location where the self is is near the location of the identified intersection In this way, it is possible to obtain information on the place where the person is.

また、走行中に、撮影映像から1つも信号機の存在を認識できなかった場合であって、複数車線の大きな道路である、あるいは、中央分離帯やガードレールのある大きな道路であると認識したときには、走行している道路は、高速道路あると認識できる。   In addition, when it is not possible to recognize the presence of any traffic light from the captured image while traveling, it is recognized that the road is a large road with multiple lanes, or a large road with a median strip or guardrail. The traveling road can be recognized as an expressway.

[トンネルや地下道等に入った場合の自己がいる場所に関する情報の取得]
また、トンネル内や地下道内ではGPS衛星からの電波を受信できないために、GPS部142を通じては自己の現在位置を取得できない。そこで、この実施の形態の携帯電話端末1の映像解析部151は、以下のようにして自己がトンネル内や地下道内にいる場合を特定する。まず、上述もしたように、映像解析部151が、例えば、トンネルや地下道の入り口の上部などに設けられているトンネルや地下道の名称看板の文字認識を行うことにより、トンネルや地下道に自己が入ることを認識できる。
[Obtaining information about where you are when you enter a tunnel or underpass]
Further, since the radio wave from the GPS satellite cannot be received in the tunnel or the underground passage, the current position cannot be acquired through the GPS unit 142. Therefore, the video analysis unit 151 of the mobile phone terminal 1 according to this embodiment identifies the case where the mobile phone terminal 1 is in a tunnel or an underpass as follows. First, as described above, the video analysis unit 151 performs self-recognition of a name sign of a tunnel or an underground passage provided at the upper part of the entrance of the tunnel or the underground passage, for example, so that the self enters the tunnel or the underground passage. I can recognize that.

また、GPS部142を通じて自己の現在位置が測位できなくなった場合に、図3Bに示すように、カメラ部127からの撮影映像がトンネル内において撮影されたものであったとする。この場合、映像解析部151は、光の到達方向から照明の設置位置は上方(斜め上方)か否か、また、移動に伴う照明の明暗状態から照明は一定の間隔毎に設けられているか否かを判別する。このように、照明(光源)の設置位置が上方であり、その照明の配列パターンが規則的である場合には、トンネル内や地下道内である可能性が高くなる。   In addition, when the current position of the user cannot be measured through the GPS unit 142, it is assumed that the captured video from the camera unit 127 is captured in the tunnel as illustrated in FIG. 3B. In this case, the video analysis unit 151 determines whether or not the installation position of the illumination is upward (obliquely upward) from the light arrival direction, and whether or not the illumination is provided at regular intervals from the light / dark state of the illumination accompanying the movement. Is determined. Thus, when the installation position of the illumination (light source) is upward and the arrangement pattern of the illumination is regular, there is a high possibility that it is in a tunnel or an underground passage.

そして、映像解析部151では、上述のように、トンネルや地下道の名称の文字認識、GPSのロスト(GPS衛星からの電波の消失)、光源(照明)の位置と間隔が一定であること等を総合的に勘案してトンネルや地下道内か否かを判別する。なお、照明の色がオレンジ色か否かを判別してもよい。トンネル内や地下道内では、排気ガス、塵等の影響を受け難く光が通り易いオレンジ色の光を発光させる低圧ナトリウムランプが多く用いられているためである。   In the video analysis unit 151, as described above, character recognition of the names of tunnels and underground passages, lost GPS (disappearance of radio waves from GPS satellites), and the position and interval of the light source (illumination) are constant. Comprehensively consider whether it is inside a tunnel or underpass. It may be determined whether the illumination color is orange. This is because many low-pressure sodium lamps that emit orange light that is not easily affected by exhaust gas, dust, and the like and easily pass through are used in tunnels and underground passages.

これにより、自己のいる場所に関する情報(トンネルや地下道内か否か)を取得できる。そして、例えば、直近にGPS部142から取得した現在位置の近傍にあるトンネルや地下道を地図上において特定することにより、自己がいる場所を正確に特定できる。   As a result, it is possible to obtain information about the place where the user is (whether or not it is in a tunnel or an underpass). Then, for example, by specifying on the map a tunnel or an underground passage in the vicinity of the current position acquired from the GPS unit 142 most recently, the location where the user is located can be accurately specified.

このように、映像解析部151は、カメラ部127を通じて撮影される映像を解析することにより、自己のいる場所に関する情報を適切に取得することができる。当該自己のいる場所に関する情報は、平面上における位置を特定できるだけでなく、高速道上か一般道路上か、あるいは、トンネル内や地下道内かなどを含めた自己のいる場所、すなわち、3次元空間上における自己のいる場所を特定できる。   As described above, the video analysis unit 151 can appropriately acquire information regarding the location where the user is by analyzing the video shot through the camera unit 127. The information about where you are is not only able to specify the position on the plane, but also on the expressway, the general road, the place where you are, including the inside of the tunnel or underpass, that is, in the 3D space. You can identify where your self is.

[映像認識を利用した自己の移動速度の算出]
そして、映像解析部151は、以下に説明するように、距離取得部152や時間制御部132と協働することにより、自己の移動速度をも把握可能にしている。距離取得部152は、上述した映像解析部151と協働して、自己の移動速度を算出するための2点間の距離を取得する。上述したように、映像解析部151は撮影映像を解析することにより、「位置に関連している文字情報(位置が地図上で既知の案内標識(方面看板や信号機に付された交差点名称の表示板等))」を認識できる。このため、距離取得部152は、映像解析部151で認識された距離的に離れた2ヶ所の「位置に関連している文字情報」の検出結果に基づいて、当該2ヶ所間の距離を、地図DB131の地図データから取得する。
[Calculation of moving speed using video recognition]
Then, as will be described below, the video analysis unit 151 cooperates with the distance acquisition unit 152 and the time control unit 132 to make it possible to grasp its own moving speed. The distance acquisition unit 152 acquires the distance between two points for calculating its own moving speed in cooperation with the video analysis unit 151 described above. As described above, the video analysis unit 151 analyzes the captured video to display “character information related to the position (information indicating the position of a guide sign known to the map (an intersection name given to a direction signboard or a traffic light). Board))) ”. For this reason, the distance acquisition unit 152 calculates the distance between the two locations based on the detection results of the two “positionally related character information” recognized by the video analysis unit 151. Obtained from the map data in the map DB 131.

より具体的には、(1)撮影されることにより記載内容が認識される2ヶ所の方面看板間の距離、(2)撮影されることにより交差点名称が認識される2ヶ所の信号機間の距離等を取得する。もちろん、これらは一例であり、設置されている位置が地図上において決まっており、形状が定まっている目標物がある場合には、撮影されることにより認識される2ヶ所の所定の目標物間の距離を取得することもできる。   More specifically, (1) the distance between the two direction signboards whose contents are recognized by being photographed, and (2) the distance between the two traffic lights whose intersection names are recognized by being photographed. Etc. Of course, these are only examples. If there is a target with a fixed shape on the map and a fixed shape, the distance between the two predetermined targets recognized by shooting You can also get the distance.

また、移動速度を算出するためには、当該所定の2ヶ所間の距離に加えて、当該所定の2ヶ所間の移動時間を取得する必要がある。このため、この実施の形態の携帯電話端末1では、映像解析部151で認識した距離的に離れた2ヶ所の「位置に関連している文字情報」の検出タイミングで、時間制御部132から現在時刻を取得する。そして、2ヶ所のそれぞれで取得した現在時刻の差分を求めることにより、当該2ヶ所間における移動時間を取得できる。   Further, in order to calculate the moving speed, it is necessary to acquire the moving time between the two predetermined locations in addition to the distance between the two predetermined locations. For this reason, in the cellular phone terminal 1 according to this embodiment, the time control unit 132 presently detects the “character information related to the position” at two positions separated by the distance recognized by the video analysis unit 151. Get the time. And the movement time between the two places can be obtained by obtaining the difference between the current times obtained at the two places.

すなわち、映像解析部151は、「所定の位置に関連している文字情報」を検知すると、制御部100を通じて時間制御部132から現在時刻を取得し、これを速度算出部153に供給する。そして、映像解析部151は、次に別の「所定の位置に関連している文字情報」を検知すると、制御部100を通じて時間制御部132から現在時刻を取得し、これを速度算出部153に供給する。   That is, when detecting “character information related to a predetermined position”, the video analysis unit 151 acquires the current time from the time control unit 132 through the control unit 100 and supplies this to the speed calculation unit 153. Then, when the video analysis unit 151 detects another “character information related to a predetermined position” next time, the video analysis unit 151 acquires the current time from the time control unit 132 through the control unit 100, and sends this to the speed calculation unit 153. Supply.

速度算出部153は、距離取得部152で取得された距離的に離れた2ヶ所の「位置に関連している文字情報」間の距離を、時間制御部132から供給された当該2ヶ所での現在時刻の差分を取ることにより得られる移動時間で割り算し、自己の移動速度を算出する。そして、この実施の形態の携帯電話端末1は、センサ部141に方位センサを備えており、移動方向を認識することはできる。したがって、GPS部142を通じて現在位置の測位が一時的にできなくなっても、移動方向と移動速度、さらに地図DB131の地図データを考慮することにより、自己の現在位置を把握できる。   The speed calculation unit 153 calculates the distance between the two “character information related to the position” that are separated by the distance acquired by the distance acquisition unit 152 at the two locations supplied from the time control unit 132. Dividing by the moving time obtained by taking the difference of the current time, the self moving speed is calculated. And the mobile telephone terminal 1 of this embodiment is provided with the direction sensor in the sensor part 141, and can recognize a moving direction. Therefore, even if the current position cannot be measured temporarily through the GPS unit 142, the current position can be grasped by considering the moving direction and moving speed and the map data in the map DB 131.

[映像解析を利用したその他の情報の取得]
また、カメラ部127を通じて撮影された撮影映像の映像解析を行うことにより、映像が左に流れるか、右に流れるかによって、右左折認識を行うことができる。したがって、このような右左折認識を利用し、自己の移動軌跡を取得して保持しておくこともできる。当該移動軌跡は、マップマッチング時などに利用できる。また、映像の前後の流れの速さから移動速度を認識することもできる。すなわち、カメラ部127からの映像データによる映像がどれ位の速さで変化しているのかを解析することにより自己の移動速度を求めることができる。そして、上述したように、2点間の距離と移動時間に応じて求める自己の移動速度と、映像の流れる速さに応じて求められる移動速度とに基づいて、実際に用いる移動速度を決めることもできる。もちろん、いずれか一方の移動速度だけを用いるようにしてもよい。
[Obtaining other information using video analysis]
Further, by performing video analysis of a shot video shot through the camera unit 127, right / left turn recognition can be performed depending on whether the video flows to the left or to the right. Therefore, it is also possible to acquire and hold the own movement trajectory using such right / left turn recognition. The movement trajectory can be used for map matching. Also, the moving speed can be recognized from the speed of the flow before and after the video. That is, by analyzing how fast the image based on the image data from the camera unit 127 is changing, it is possible to obtain the moving speed of itself. Then, as described above, the actual moving speed is determined based on the own moving speed determined according to the distance between the two points and the moving time, and the moving speed determined according to the moving speed of the image. You can also. Of course, only one of the moving speeds may be used.

[場所補正部154の機能]
そして、場所補正部154は、映像解析部151が取得した自己のいる場所に関する情報や速度算出部153が算出した移動速度等を考慮して、制御部100のナビゲーション処理部としての機能により把握されている自己の現在位置を補正する。すなわち、携帯電話端末1においては、制御部100が実現するナビゲーション処理部としての機能により、地図DB131の地図データ、GPS部142からの現在位置、センサ部141からの検出出力を用いて、自己の現在位置を把握し、目的地までの経路案内を行う。
[Function of the location correction unit 154]
Then, the location correction unit 154 is grasped by the function as the navigation processing unit of the control unit 100 in consideration of the information on the location where the video analysis unit 151 is located, the moving speed calculated by the speed calculation unit 153, and the like. Correct the current position of the self. That is, in the cellular phone terminal 1, the function as the navigation processing unit realized by the control unit 100 uses the map data of the map DB 131, the current position from the GPS unit 142, and the detection output from the sensor unit 141, Know your current location and provide route guidance to your destination.

しかし、主にGPS部142からの現在位置だけからでは、高速道路と一般道路が並走する区間では、高速道路を走っているのか、一般道路を走っているのかの区別ができない。また、トンネルや地下道に入った場合には、GPS衛星からの電波が受信できないために、自己の現在位置を把握できない。また、道幅が狭く高層ビルが多い場所でも、GPS衛星からの電波が受信しし難くなり、自己の現在位置を正確に把握できない。   However, it is not possible to distinguish whether the vehicle is running on a highway or a general road in a section where the highway and a general road run side by side only from the current position mainly from the GPS unit 142. In addition, when entering a tunnel or an underground passage, radio waves from GPS satellites cannot be received, so that the current position of the user cannot be grasped. In addition, even in places where the road width is narrow and there are many high-rise buildings, it is difficult to receive radio waves from GPS satellites, and it is impossible to accurately grasp the current position of itself.

そこで、場所補正部154は、映像解析部151により取得される自己のいる場所に関する情報と、速度算出部153で算出される情報、さらに、センサ部141の検出出力等に基づいて、ナビゲーション処理部として機能する制御部100により特定される自己の現在位置を補正する。これにより、目的地までの経路案内(ナビゲーション)を適切に行うことができる。   Therefore, the location correction unit 154 is based on the information about the location where the user is present obtained by the video analysis unit 151, the information calculated by the speed calculation unit 153, the detection output of the sensor unit 141, and the like. The current position specified by the control unit 100 that functions as the current position is corrected. Thereby, route guidance (navigation) to the destination can be performed appropriately.

したがって、高速道路を走っているのに、「次の信号を左折してください。」とか、一般道路を走っているのに、「次の○○出口で高速道路を降りて下さい。」といった誤った案内を行わないようにできる。また、比較的に長いトンネルや地下道に入った場合であっても、入ったトンネルや地下道を特定でき、また、自己の速度や移動方向も把握できているので、自己の現在位置を正しく把握し、適切に案内を行うことができる。また、高層ビルの陰になり、GPS衛星からの電波を受信できない場合でも、撮影映像に含まれる看板等の情報により、自己の現在位置を正しく把握し、適切に案内を行うことができる。   Therefore, while driving on the highway, “Please turn left at the next traffic light” or on the general road, “Please get off the highway at the next XX exit.” You can avoid giving guidance. Also, even if you enter a relatively long tunnel or underpass, you can identify the tunnel or underpass that has entered, and also know your own speed and direction of movement, so you can correctly grasp your current location. , Can guide appropriately. Moreover, even when it is behind a high-rise building and cannot receive radio waves from GPS satellites, it is possible to correctly grasp its own current position and properly provide guidance based on information such as a signboard included in the captured video.

もちろん、GPS衛星からの電波を受信できない場合(GPSロストの場合)には、場所補正部154は、制御部100と協働し、上述した映像認識により得られる情報に加えて、センサ部141の加速度センサや方位センサから得られる情報を総合して、地図上の経路に最も近い位置に自己位置をマップマッチングすることができる。すなわち、この実施の形態の携帯電話端末1もまた、マップマッチング機能や自律航法機能を備えたものである。   Of course, when the radio wave from the GPS satellite cannot be received (in the case of GPS lost), the location correction unit 154 cooperates with the control unit 100 to add the information obtained by the above-described video recognition to the sensor unit 141. By combining the information obtained from the acceleration sensor and the direction sensor, it is possible to map match the self position to the position closest to the route on the map. That is, the cellular phone terminal 1 of this embodiment also has a map matching function and an autonomous navigation function.

[ナビゲーション機能実行時の処理のまとめ]
次に、上述したこの実施の形態の携帯電話端末1において実行されるナビゲーション処理について、フローチャートを参照しながらまとめる。図4は、携帯電話端末1で実行されるナビゲーション処理の概要を説明するためのフローチャートである。この図4に示す処理は、携帯電話端末1に用意されているナビゲーションプログラム(アプリケーションプログラム)によって行われる処理であり、携帯電話端末1の所定のメニューから当該ナビゲーションプログラムの実行を選択することにより制御部100において実行される。
[Summary of processing when the navigation function is executed]
Next, the navigation processing executed in the mobile phone terminal 1 of this embodiment described above will be summarized with reference to a flowchart. FIG. 4 is a flowchart for explaining an outline of navigation processing executed in the mobile phone terminal 1. The process shown in FIG. 4 is performed by a navigation program (application program) prepared in the mobile phone terminal 1 and is controlled by selecting execution of the navigation program from a predetermined menu of the mobile phone terminal 1. It is executed in the unit 100.

図4に示す処理が実行されると、制御部100は、ナビゲーション処理部として機能し、GPS部142から取得する自機の現在位置と、地図DB131の地図データと、センサ部141からの検出出力に基づいて、ナビゲーション処理を開始する(ステップS101)。なお、図示しなかったが、ステップS101においては、ユーザーからの操作入力を受け付けて、出発地と目的地の入力を受け付けて、出発地から目的地までの経路探索処理も行われる。そして、表示部123の表示画面に携帯電話端末1の現在位置を含む地図が表示され、当該地図上の自己の現在位置や進むべき経路等が示されると共に、音声によっても経路の案内が行われる。   When the processing shown in FIG. 4 is executed, the control unit 100 functions as a navigation processing unit, and obtains the current position of the own device acquired from the GPS unit 142, the map data of the map DB 131, and the detection output from the sensor unit 141. Based on the above, navigation processing is started (step S101). Although not shown in the drawing, in step S101, an operation input from the user is accepted, and an input of the departure place and the destination is accepted, and a route search process from the departure place to the destination is also performed. Then, a map including the current position of the mobile phone terminal 1 is displayed on the display screen of the display unit 123, the current position on the map, the route to be traveled, and the like are shown, and the route is also guided by voice. .

次に、制御部100は、カメラ部127を制御し、進行方向の映像の撮影を開始する(ステップS102)。そして、制御部100は、映像解析部151、距離取得部152、時間制御部132、速度算出部153を制御して、自己がいる場所に関する情報や自己の移動速度を取得する処理を実行する(ステップS103)。なお、このステップS103で行なわれる処理の詳細については後述する。   Next, the control unit 100 controls the camera unit 127 to start capturing an image in the traveling direction (step S102). And the control part 100 performs the process which controls the image | video analysis part 151, the distance acquisition part 152, the time control part 132, and the speed calculation part 153, and acquires the information regarding the place where self exists, and its moving speed ( Step S103). Details of the process performed in step S103 will be described later.

この後、場所補正部154が機能し、ステップS103において取得した自己がいる場所に関する情報や自己の移動速度に基づいて、自己がいる場所を特定する(ステップS104)。そして、場所補正部154は、制御部100が実現するナビゲーション処理部の機能により行われる、GPS部142からの現在位置と、地図DB131の地図データとのマッチング結果を、ステップS104で特定した自己がいる場所に基づいて補正する(ステップS105)。   Thereafter, the location correction unit 154 functions to identify the location where the subject is present based on the information regarding the location where the subject is present acquired in step S103 and the own moving speed (step S104). Then, the location correction unit 154 determines the matching result between the current position from the GPS unit 142 and the map data of the map DB 131, which is performed by the function of the navigation processing unit realized by the control unit 100, in step S104. The correction is made based on the location (step S105).

そして、設定した目的地に到着するなどして、ナビゲーション処理を終了させる操作が行われたか否かを判別する(ステップS106)。ステップS106の判別処理において、終了させる操作が行われていないと判別したときには、ステップS103からの処理を繰り返し、ナビゲーション処理を継続する。また、ステップS106の判別処理において、終了させる操作が行われたと判別したときには、この図4に示す処理を終了する。   Then, it is determined whether or not an operation for ending the navigation process has been performed by arriving at the set destination (step S106). If it is determined in step S106 that the operation to be ended is not performed, the process from step S103 is repeated, and the navigation process is continued. If it is determined in the determination process in step S106 that an operation to be ended has been performed, the process shown in FIG. 4 ends.

このように、この実施の形態の携帯電話端末1で行われるナビゲーション処理においては、図4に示したステップS102〜ステップS105の処理により、撮影映像を解析することにより得られる情報をも用いて、自己の現在位置を正しく補正できる。   As described above, in the navigation processing performed in the mobile phone terminal 1 of this embodiment, the information obtained by analyzing the captured video by the processing of step S102 to step S105 shown in FIG. You can correct your current position correctly.

[自己がいる場所に関する情報等の取得処理]
次に、図4に示した処理のステップS103において行なわれる、自己がいる場所に関する情報等の取得処理について具体的に説明する。図5は、自己がいる場所に関する情報等の取得処理について説明するためのフローチャートである。この図5に示す処理が実行されると、まず、制御部100の制御の下、映像解析部151が機能し、カメラ部127を通じて撮影される撮影映像(映像データ)を解析し、自己のいる場所に関する情報を取得する処理を行う(ステップS201)。具体的に、ステップS201においては、図2および図3Aを用いて説明したように、(1)案内標識に基づく自己がいる場所に関する情報の取得や(2)周辺の設備、施設、道路状況等に基づく自己がいる場所に関する情報の取得が行われる。
[Acquisition processing of information about where you are]
Next, a specific description will be given of the process for acquiring information on the place where the user is, which is performed in step S103 of the process shown in FIG. FIG. 5 is a flowchart for explaining an acquisition process of information on a place where the user is present. When the processing shown in FIG. 5 is executed, first, the video analysis unit 151 functions under the control of the control unit 100, analyzes the shot video (video data) shot through the camera unit 127, and is present. A process for acquiring information about a place is performed (step S201). Specifically, in step S201, as described with reference to FIG. 2 and FIG. 3A, (1) acquisition of information related to the place where the user is based on the guide signs, and (2) surrounding facilities, facilities, road conditions, etc. The information about the place where the self is based on is acquired.

そして、映像解析部151は、上述もしたように、2点間の距離を取得するための開始ポイントや終了ポイントとなる方面看板や信号機に付された交差点名称等の「位置に関連している文字情報」を認識したか否かを判別する(ステップS202)。ステップS202の判別処理において、ポイントとなる「位置に関連している文字情報」を認識したと判別したとする。この場合、映像解析部151は制御部100を通じて時間制御部132を制御し、現在時刻を取得して、これを速度算出部153に供給する(ステップS203)。   Then, as described above, the video analysis unit 151 relates to the “position” such as the intersection name given to the direction signboard or the traffic signal that becomes the start point and the end point for acquiring the distance between the two points. It is determined whether or not “character information” has been recognized (step S202). Assume that it is determined in the determination process in step S202 that “character information related to position” as a point has been recognized. In this case, the video analysis unit 151 controls the time control unit 132 through the control unit 100, acquires the current time, and supplies this to the speed calculation unit 153 (step S203).

そして、映像解析部151は今回検出したポイントの前に既に検出したポイントが存在するか否かを判別する(ステップS204)。ステップS204の判別処理において、今回検出したポイントの前に既に検出したポイントが存在すると判別したときには、映像解析部151は、制御部100を通じて距離取得部152と速度算出部153を制御して、自己の移動速度を算出する(ステップS205)。すなわち、前回のポイントの位置と今回のポイントの位置とから2点間の距離を求め、前回のポイント検出時の現在時刻と今回のポイント検出時の現在時刻とから当該2点間の移動時間を求め、これらから移動速度を算出する。   Then, the video analysis unit 151 determines whether there is a point already detected before the point detected this time (step S204). If it is determined in step S204 that the detected point is present before the detected point, the video analysis unit 151 controls the distance acquisition unit 152 and the velocity calculation unit 153 through the control unit 100 to Is calculated (step S205). That is, the distance between two points is obtained from the position of the previous point and the position of the current point, and the movement time between the two points is calculated from the current time at the previous point detection and the current time at the current point detection. The movement speed is calculated from these values.

ステップS205の処理の後においては、ステップS206の処理に進む。また、ステップS202において、ポイントとなる「位置に関連している文字情報」を認識していない判別した場合、ステップS204において、今回検出したポイントの前に既に検出したポイントは存在しないと判別した場合にも、ステップS206の処理に進む。   After the process of step S205, the process proceeds to step S206. Also, when it is determined in step S202 that the “character information related to position” as a point is not recognized, it is determined in step S204 that there is no point already detected before the point detected this time. In addition, the process proceeds to step S206.

この場合、映像解析部151は、制御部100を通じてGPS部142が現在位置を測位できているか否か、換言すれば、GPS衛星からの電波を受信できているか否かを判別する(ステップS206)。ステップS206の判別処理において、GPS衛星からの電波を受信できていない(GPSロストである)と判別したとする。この場合、映像解析部151は、図3Bを用いて説明したように、トンネルや地下道等に入った場合の自己がいる場所に関する情報を取得する処理を行う(ステップS207)。   In this case, the video analysis unit 151 determines whether or not the GPS unit 142 can measure the current position through the control unit 100, in other words, whether or not the radio wave from the GPS satellite can be received (step S206). . It is assumed that it is determined in step S206 that the radio wave from the GPS satellite has not been received (GPS lost). In this case, as described with reference to FIG. 3B, the video analysis unit 151 performs a process of acquiring information regarding a location where the user is present when entering a tunnel, an underground passage, or the like (step S207).

ステップS207の処理の後、また、ステップS206の判別処理において、GPS衛星からの電波は受信できている(GPSロストではない)と判別したときには、この図5に示す処理を終了する。   After the process of step S207, and in the determination process of step S206, if it is determined that the radio wave from the GPS satellite has been received (not the GPS lost), the process shown in FIG. 5 is terminated.

このように、この実施の形態の携帯電話端末1においては、カメラ部127、映像解析部151、距離取得部152、速度算出部153、場所補正部154の機能により、自己のいる場所に関する情報を取得することができる。また、自己の移動速度を適切に算出することができる。また、自己の移動速度の算出は、2点間の距離を取得するための開始ポイントや終了ポイントとなる方面看板や信号機に付された交差点名称等の「位置に関連している文字情報」を認識する毎に、2点間の距離と当該2点間の移動時間に基づいて、継続して行うことができる。   As described above, in the cellular phone terminal 1 of this embodiment, information on the location where the user is located is obtained by the functions of the camera unit 127, the video analysis unit 151, the distance acquisition unit 152, the speed calculation unit 153, and the location correction unit 154. Can be acquired. In addition, it is possible to appropriately calculate its own moving speed. In addition, the calculation of the movement speed of the self is based on the “character information related to the position” such as the name of the intersection or the name of the direction signboard or traffic signal that becomes the start point or end point for obtaining the distance between the two points. Each time it is recognized, it can be performed continuously based on the distance between the two points and the movement time between the two points.

[実施の形態の効果]
自動車のドライバ等のナビゲーション装置の利用者は、自己が走行している場所は、高速道路か一般道路か、トンネルや地下道(地下)か地上か、どのレーンを走行しているかは認識できている。したがって、利用者がナビゲーション装置に求めることは、目的地までの道順を適切に案内して欲しいということである。しかし、上述もしたように、従来のナビゲーション装置の場合、二次元の位置は特定できるが、高速道路か一般道路か、地下か地上かなどの上下(標高)を捕捉する手段に乏しい。加えて、PND、携帯電話端末やタブレットPCなどの携帯情報端末でナビゲーション機能を実現する場合には、自動車の据付型のナビゲーション装置のように、自動車に搭載された高精度の車速パルスセンサ、ジャイロセンサ、イルミセンサなどの検出出力は利用できない。
[Effect of the embodiment]
Users of navigation devices such as automobile drivers can recognize which lane they are driving, whether they are driving on highways or ordinary roads, tunnels, underground roads (underground), or above ground. . Therefore, what the user requests from the navigation device is that he / she wants to appropriately guide the route to the destination. However, as described above, in the case of a conventional navigation device, a two-dimensional position can be specified, but there is a lack of means for capturing up and down (altitude) such as whether it is an expressway or a general road, underground or ground. In addition, when a navigation function is realized by a portable information terminal such as a PND, a mobile phone terminal, or a tablet PC, a highly accurate vehicle speed pulse sensor or gyro mounted on a car like a car-mounted navigation device. Detection output from sensors, illumination sensors, etc. cannot be used.

しかし、この実施の形態の携帯電話端末1は、カメラ部127を通じて撮影する撮影映像を解析することにより得られる情報、また、地図DB131に格納されている地図データが備える種々の誘導データ等をも考慮することにより、自己がいる場所に関する情報や自己の移動速度を適切に取得できる。ここで、自己がいる場所に関する情報は、単に、緯度、経度で特定可能な二次元平面上の位置だけでなく、高速道路上か一般道路上か、トンネル内や地下道内かなどをも特定できる。そして、少なくとも、取得した自己がいる場所に関する情報に基づいて、自己がいる場所を特定できる場合には、当該特定した自己がいる場所で、ナビゲーション処理部(制御部100)が機能して特定した自己の現在位置を補正することができる。   However, the mobile phone terminal 1 according to this embodiment also has information obtained by analyzing a captured image captured through the camera unit 127, various guidance data included in the map data stored in the map DB 131, and the like. By considering it, it is possible to appropriately acquire information on the location where the person is and the moving speed of the person. Here, the information about where you are can not only identify the position on the two-dimensional plane that can be specified by latitude and longitude, but also specify whether it is on a highway or a general road, in a tunnel or underpass . And, at least if the location where the self is located can be identified based on the information regarding the location where the obtained self is present, the navigation processing unit (the control unit 100) functions and identifies the location where the identified self is located. The current position of the self can be corrected.

もちろん、取得した自己がいる場所に関する情報や自己の移動速度を考慮して、また、地図DB131の種々の地図データや自己に搭載されたセンサの検出出力の一方または両方をも考慮することにより、より適切に自己のいる場所を特定することができる。そして、特定した自己のいる場所に基づいて、制御部100により実現されるナビゲーション処理部の機能により特定される自己の現在位置を適切に補正できる。   Of course, by considering the information about the location where the acquired self is and the moving speed of the self, and by considering one or both of various map data of the map DB 131 and the detection output of the sensor mounted on the self, It is possible to identify the place where you are more appropriately. Then, based on the identified location of the self, the current position of the self specified by the function of the navigation processing unit realized by the control unit 100 can be appropriately corrected.

すなわち、カメラ部127を通じて撮影する撮影映像を解析して得られる情報に基づいて、自己の現在位置を適切に補正できる。したがって、高精度の種々のセンサを特別に設けたりすること無く、高精度のナビゲーション機能を実現することができる。この発明は、PNDや携帯情報端末に適用して特に好適であり、コストを増大させたり、ナビゲーション装置の構成を複雑化させたりすることなく、高性能のナビゲーション装置を実現することができる。   In other words, the current position of the subject can be appropriately corrected based on the information obtained by analyzing the captured image captured through the camera unit 127. Therefore, a highly accurate navigation function can be realized without specially providing various highly accurate sensors. The present invention is particularly suitable when applied to a PND or a portable information terminal, and can realize a high-performance navigation device without increasing the cost or complicating the configuration of the navigation device.

[変形例等]
なお、上述した実施の形態の映像解析部151では、連続的に撮影される映像データ(動画像データ)について、所定のタイミング毎のフレーム画像を解析の対象としたり、所定のタイミング毎に静止画像データを撮影して、これを解析の対象としたりすることもできる。なお、解析対象が動画データの場合のフレーム画像を特定する所定のタイミングや静止画像を撮影する所定のタイミングは、予め決められた時間間隔毎のタイミングとしてもよいし、初めは予め決められた時間間隔毎のタイミングとし、その後、速度算出部153等で算出される移動速度に応じて、当該所定のタイミングを変更するようにしてもよい。
[Modifications, etc.]
Note that, in the video analysis unit 151 according to the above-described embodiment, for continuously captured video data (moving image data), a frame image at every predetermined timing is an analysis target, or a still image is taken every predetermined timing. Data can also be taken and used as an analysis target. Note that the predetermined timing for specifying a frame image and the predetermined timing for capturing a still image when the analysis target is moving image data may be a predetermined time interval, or initially a predetermined time. The predetermined timing may be changed in accordance with the movement speed calculated by the speed calculation unit 153 or the like after that.

また、自己の移動速度の算出に用いる所定区間の移動時間の取得は、上述したように、「位置に関連している文字情報」の検出タイミングで取得する現在時刻の差分により取得するものに限らない。例えば、時間制御部132のタイマー機能を用いて、「位置に関連している文字情報」の検出タイミング間の時間間隔を計測し、これを2点間の移動時間として取得することもできる。   Further, as described above, the acquisition of the movement time of the predetermined section used for the calculation of the movement speed of the user is limited to that acquired by the difference in the current time acquired at the detection timing of “character information related to position”. Absent. For example, by using the timer function of the time control unit 132, a time interval between detection timings of “character information related to position” can be measured and acquired as a moving time between two points.

また、この発明は、PND、携帯電話端末やタブレットPCなどの携帯情報端末に適用して好適なものであるが、自動車に据付けられるナビゲーション装置に適用してももちろんよい。   In addition, the present invention is suitable for application to a portable information terminal such as a PND, a mobile phone terminal, or a tablet PC. However, the present invention may be applied to a navigation device installed in an automobile.

[その他]
なお、上述した実施の形態の説明からも明らかであるように、ナビゲーション装置の撮影手段の機能は、携帯電話端末1のカメラ部127が実現し、ナビゲーション装置の第1、第2の解析手段の機能は、携帯電話端末1の映像解析部151が実現している。また、ナビゲーション装置の補正手段の機能は、携帯電話端末1の場所補正部154が実現している。また、ナビゲーション装置の距離取得手段の機能は、携帯電話端末1の映像解析部151と距離取得部152が協働して実現し、ナビゲーション装置の移動時間取得手段としての機能は、携帯電話端末1の映像解析部151と時間制御部132とが協働して実現している。また、ナビゲーション装置の算出手段の機能は、携帯電話端末1の速度算出部153が実現している。
[Others]
As is clear from the description of the above-described embodiment, the camera unit 127 of the mobile phone terminal 1 realizes the function of the imaging unit of the navigation device, and the functions of the first and second analysis units of the navigation device . The function is realized by the video analysis unit 151 of the mobile phone terminal 1. The function of the correction means of the navigation device is realized by the location correction unit 154 of the mobile phone terminal 1. In addition, the function of the distance acquisition unit of the navigation device is realized by the cooperation of the video analysis unit 151 and the distance acquisition unit 152 of the mobile phone terminal 1, and the function as the movement time acquisition unit of the navigation device is the mobile phone terminal 1. The video analysis unit 151 and the time control unit 132 are realized in cooperation with each other. The function of the calculation means of the navigation device is realized by the speed calculation unit 153 of the mobile phone terminal 1.

また、図4、図5に示したフローチャートの処理が、この発明の自律航法支援方法が適用されたものである。また、図4、図5に示した処理を実行するプログラムが、携帯電話端末1で実行される自律航法支援プログラムに対応している。したがって、図4、図5に示した処理を実行するプログラムを形成し、携帯電話端末やタブレットPC等の携帯情報端末やPND等に搭載することにより、この発明のナビゲーション装置を実現できる。   The processing of the flowcharts shown in FIGS. 4 and 5 is the one to which the autonomous navigation support method of the present invention is applied. Further, the program for executing the processing shown in FIGS. 4 and 5 corresponds to the autonomous navigation support program executed on the mobile phone terminal 1. Therefore, the navigation apparatus of the present invention can be realized by forming a program for executing the processing shown in FIGS. 4 and 5 and mounting the program on a portable information terminal such as a mobile phone terminal or a tablet PC, a PND, or the like.

1…携帯電話端末、100…制御部、101…CPU、102…ROM、103…RAM、104…CPUバス、110…記憶装置、111…送受信アンテナ、112…無線通信部、113…受話器、114…送話器、121…キー操作部、122…表示処理部、123…表示部、124…タッチパネル、125…音声出力部、126…スピーカ、127…カメラ部、131…地図DB、132…時間制御部、141…センサ部、142…GPS部、143…GPSアンテナ、151…映像解析部、152…距離取得部、153…速度算出部、154…場所補正部   DESCRIPTION OF SYMBOLS 1 ... Cell-phone terminal, 100 ... Control part, 101 ... CPU, 102 ... ROM, 103 ... RAM, 104 ... CPU bus, 110 ... Memory | storage device, 111 ... Transmission / reception antenna, 112 ... Wireless communication part, 113 ... Handset, 114 ... Transmitter 121, key operation unit 122, display processing unit, 123 display unit, 124 touch panel, 125 voice output unit, 126 speaker, 127 camera unit, 131 map DB, 132 time control unit , 141 ... Sensor unit, 142 ... GPS unit, 143 ... GPS antenna, 151 ... Video analysis unit, 152 ... Distance acquisition unit, 153 ... Speed calculation unit, 154 ... Location correction unit

Claims (7)

現在位置測位手段からの現在位置と地図データベースの地図データとのマッチング処理を行うことにより、経路案内を行うナビゲーション装置であって、
進行方向の映像を撮影する撮影手段と、
撮影された映像を解析することにより、自己がいる場所に関する情報を取得する第1の解析手段と、
撮影された映像を解析することにより、右左折認識を行って自己の移動軌跡を取得する第2の解析手段と、
前記第1の解析手段を通じて取得した前記自己がいる場所に関する情報と、前記第2の解析手段を通じて取得した前記自己の移動軌跡とに基づいて、前記現在位置測位手段からの現在位置と前記地図データベースの地図データとのマッチング処理の結果を補正する補正手段と
を備えることを特徴とするナビゲーション装置。
A navigation device that provides route guidance by performing a matching process between the current position from the current position measurement means and the map data of the map database,
Photographing means for photographing a moving image;
A first analysis means for obtaining information about a place where the user is by analyzing the captured video;
A second analysis means for recognizing a right or left turn to obtain a movement locus of the subject by analyzing the captured image;
Based on the information about the place where the self is obtained through the first analysis means and the movement locus of the self obtained through the second analysis means , the current position from the current position measurement means and the map database A navigation device comprising: correction means for correcting a result of matching processing with the map data.
請求項1に記載のナビゲーション装置であって、
前記第1の解析手段は、撮影された映像に含まれる看板や標識の文字情報を認識することにより、自己がいる場所に関する情報を取得することを特徴とするナビゲーション装置。
The navigation device according to claim 1,
The navigation apparatus according to claim 1, wherein the first analysis unit acquires information about a place where the user is present by recognizing character information of a signboard or a sign included in the photographed video.
請求項1または請求項2のいずれかに記載のナビゲーション装置であって、
前記第1の解析手段は、撮影された映像に含まれる所定の設備の有無、道路の特徴を認識することにより、自己がいる場所に関する情報を取得することを特徴とするナビゲーション装置。
The navigation device according to claim 1 or 2,
The navigation apparatus according to claim 1, wherein the first analysis unit acquires information on a location where the user is present by recognizing presence or absence of predetermined equipment and road characteristics included in the captured video.
請求項1、請求項2または請求項3のいずれかに記載のナビゲーション装置であって、
前記第1の解析手段は、少なくとも照明の設置位置、配列パターンを認識することにより、自己がいる場所に関する情報を取得することを特徴とするナビゲーション装置。
A navigation device according to any one of claims 1, 2 or 3,
The navigation apparatus according to claim 1, wherein the first analysis unit obtains information about a place where the user is present by recognizing at least a light installation position and an arrangement pattern.
請求項1、請求項2、請求項3または請求項4のいずれかに記載のナビゲーション装置であって、
前記第1の解析手段は、撮影された映像に含まれる場所に関する情報であって、前記地図データベースの地図データ上において場所が特定可能な場所特定情報を取得し、
前記第1の解析手段により順次に取得される2つの前記場所特定情報により特定される区間の距離と移動方向とを取得する距離取得手段と、
順次に取得される2つの前記場所特定情報により特定される区間の移動時間を取得する移動時間取得手段と、
前記距離取得手段で取得される距離と前記移動時間取得手段で取得される移動時間とに基づいて、自己の移動速度を算出する算出手段と
を備え、
前記補正手段は、前記移動方向と前記移動速度とに基づいて、前記マッチング処理の結果を補正することを特徴とするナビゲーション装置。
A navigation device according to any one of claims 1, 2, 3, or 4,
The first analysis means is information related to a location included in the captured video, and acquires location specifying information that can specify the location on the map data of the map database,
Distance acquisition means for acquiring a distance and a moving direction of a section specified by the two pieces of location specifying information sequentially acquired by the first analysis means ;
Travel time acquisition means for acquiring the travel time of the section specified by the two pieces of location specifying information acquired sequentially;
Based on the distance acquired by the distance acquisition means and the movement time acquired by the movement time acquisition means, and a calculation means for calculating its own movement speed,
The navigation device according to claim 1, wherein the correction unit corrects a result of the matching process based on the moving direction and the moving speed.
現在位置測位手段からの現在位置と地図データベースの地図データとのマッチング処理を行うことにより、経路案内を行うナビゲーション装置で用いられる自律航法支援方法であって、
移動中において撮影手段を通じて進行方向の映像を撮影する撮影工程と、
撮影された映像を第1の解析手段が解析することにより、自己がいる場所に関する情報を取得する第1の解析工程と、
撮影された映像を第2の解析手段が解析することにより、右左折認識を行って自己の移動軌跡を取得する第2の解析工程と、
前記第1の解析工程を通じて取得した前記自己がいる場所に関する情報と、前記第2の解析工程を通じて取得した自己の移動軌跡とに基づいて、補正手段が、前記現在位置測位手段からの現在位置と前記地図データベースの地図データとのマッチング処理の結果を補正する補正工程と
を有することを特徴とする自律航法支援方法。
An autonomous navigation support method used in a navigation device that provides route guidance by performing matching processing between the current position from the current position measurement means and the map data in the map database,
A shooting process of shooting a moving image through a shooting means while moving;
A first analysis step of obtaining information about a place where the user is present by analyzing the photographed video by the first analysis means;
A second analysis step in which the second analysis means analyzes the captured image to perform right / left turn recognition and acquire its own movement trajectory;
Based on the information about the location where the self is obtained through the first analysis step and the movement trajectory of the self obtained through the second analysis step , the correction unit includes the current position from the current position measurement unit, and And a correction step of correcting a result of the matching process with the map data of the map database.
現在位置測位手段からの現在位置と地図データベースの地図データとのマッチング処理を行うことにより、経路案内を行うナビゲーション装置に搭載されたコンピュータが実行するプログラムであって、
移動中において撮影手段が進行方向の映像を撮影する処理を行なう撮影ステップと、
撮影された映像を第1の解析手段が解析することにより、自己がいる場所に関する情報を取得する第1の解析ステップと、
撮影された映像を第2の解析手段が解析することにより、右左折認識を行って自己の移動軌跡を取得する第2の解析ステップと、
前記第1の解析ステップを通じて取得した前記自己がいる場所に関する情報と、前記第2の解析ステップを通じて取得した自己の移動軌跡とに基づいて、補正手段を通じて前記現在位置測位手段からの現在位置と前記地図データベースの地図データとのマッチング処理の結果を補正する補正ステップと
を実行することを特徴とする自律航法支援プログラム。
A program executed by a computer mounted on a navigation device that performs route guidance by performing matching processing between the current position from the current position measurement means and the map data of the map database,
A shooting step in which the shooting means performs a process of shooting a moving image while moving;
A first analysis step of acquiring information about a place where the user is present by analyzing the photographed video by the first analysis means;
A second analysis step in which the second analysis means analyzes the photographed video so as to perform right / left turn recognition and acquire its own movement trajectory;
Based on the information on the location where the self is obtained through the first analysis step and the movement locus of the self obtained through the second analysis step, the current position from the current position measurement unit through the correction unit, and the An autonomous navigation support program, comprising: executing a correction step for correcting a result of matching processing with map data in a map database.
JP2012068942A 2012-03-26 2012-03-26 Navigation device, autonomous navigation support method, and autonomous navigation support program Active JP5795278B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012068942A JP5795278B2 (en) 2012-03-26 2012-03-26 Navigation device, autonomous navigation support method, and autonomous navigation support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012068942A JP5795278B2 (en) 2012-03-26 2012-03-26 Navigation device, autonomous navigation support method, and autonomous navigation support program

Publications (2)

Publication Number Publication Date
JP2013200218A JP2013200218A (en) 2013-10-03
JP5795278B2 true JP5795278B2 (en) 2015-10-14

Family

ID=49520572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012068942A Active JP5795278B2 (en) 2012-03-26 2012-03-26 Navigation device, autonomous navigation support method, and autonomous navigation support program

Country Status (1)

Country Link
JP (1) JP5795278B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6342681B2 (en) * 2014-03-14 2018-06-13 パイオニア株式会社 Position determination apparatus, position determination method, and position determination program
CN111351495B (en) * 2015-02-10 2024-05-28 御眼视觉技术有限公司 Server system, method, and machine-readable medium
JP2016169991A (en) * 2015-03-12 2016-09-23 株式会社ゼンリンデータコム Route guidance device, route guidance method, and route guidance program
JP6500607B2 (en) * 2015-05-28 2019-04-17 日産自動車株式会社 Vehicle position determination device and vehicle position determination method
JP6727032B2 (en) * 2016-05-26 2020-07-22 三菱電機株式会社 Mobile terminal, self-position estimation system using the same, server and self-position estimation method
JP6764693B2 (en) * 2016-06-02 2020-10-07 日産自動車株式会社 Satellite signal processing method and satellite signal processing equipment
JP2018025915A (en) * 2016-08-09 2018-02-15 三菱電機株式会社 Driving support device
JP6737242B2 (en) * 2017-06-20 2020-08-05 株式会社Jvcケンウッド Brightness control device, head-up display device, brightness control method and program
WO2018235340A1 (en) * 2017-06-20 2018-12-27 株式会社Jvcケンウッド Brightness control device, imaging control device, digital mirror control device, head-up display device, display device for vehicles, imaging device for vehicles, and digital mirror
JP6747390B2 (en) * 2017-06-30 2020-08-26 株式会社Jvcケンウッド Imaging control device, vehicle imaging device, imaging control method, and program
JP6777048B2 (en) * 2017-09-20 2020-10-28 株式会社Jvcケンウッド Vehicle projection control device, head-up display device, vehicle projection control method and program
US11650059B2 (en) * 2018-06-06 2023-05-16 Toyota Research Institute, Inc. Systems and methods for localizing a vehicle using an accuracy specification
CN111750881B (en) * 2019-03-29 2022-05-13 北京魔门塔科技有限公司 Vehicle pose correction method and device based on light pole
JP2021162399A (en) * 2020-03-31 2021-10-11 パイオニア株式会社 Display control device, display control method, and display control program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935189A (en) * 1995-07-20 1997-02-07 Fujitsu Ten Ltd Vehicle operation management system
JP3399506B2 (en) * 1998-12-22 2003-04-21 アイシン・エィ・ダブリュ株式会社 Vehicle navigation system
JP4496964B2 (en) * 2005-01-14 2010-07-07 株式会社デンソー Tunnel detection device for vehicle and light control device for vehicle
KR101400699B1 (en) * 2007-05-18 2014-05-29 가부시키가이샤 한도오따이 에네루기 켄큐쇼 Semiconductor substrate, semiconductor device and manufacturing method thereof
US7928905B2 (en) * 2008-10-26 2011-04-19 Mitac International Corp. Method of using road signs to augment global positioning system (GPS) coordinate data for calculating a current position of a personal navigation device
JP2012002595A (en) * 2010-06-15 2012-01-05 Sony Corp Information processing device, information processing method, information processing system, and program

Also Published As

Publication number Publication date
JP2013200218A (en) 2013-10-03

Similar Documents

Publication Publication Date Title
JP5795278B2 (en) Navigation device, autonomous navigation support method, and autonomous navigation support program
JP6763448B2 (en) Visually enhanced navigation
US11692842B2 (en) Augmented reality maps
US8473201B2 (en) Current position determining device and current position determining method for correcting estimated position based on detected lane change at road branch
EP2598842B1 (en) Guidance device, guidance method, and guidance program
US20100292895A1 (en) Driving support device
WO2014115563A1 (en) Driving support device, driving support method, and recording medium storing driving support program
WO2011053335A1 (en) System and method of detecting, populating and/or verifying condition, attributions, and/or objects along a navigable street network
JP6106495B2 (en) Detection device, control method, program, and storage medium
CN110998684B (en) Image collection system, image collection method, image collection device, and recording medium
CN110260877B (en) Driving related guidance providing method and apparatus, and computer readable recording medium
KR20120079341A (en) Method, electronic device and recorded medium for updating map data
CN107727103A (en) Air navigation aid, terminal and computer-readable medium
JP6165422B2 (en) Information processing system, information processing device, server, terminal device, information processing method, and program
JP2019008528A (en) Image recording device and image recording method
JP2011232271A (en) Navigation device, accuracy estimation method for on-vehicle sensor, and program
JP4798549B2 (en) Car navigation system
JP2011022004A (en) Device, method and program for updating of map data, and recording medium
CN102288180A (en) Real-time image navigation system and method
US20200294119A1 (en) Computer program product and computer-implemented method
JP2008262481A (en) Vehicle control device
JPWO2008047449A1 (en) Image display device, display control method, display control program, and recording medium
JP2007071539A (en) On-vehicle navigation device
JP2014066595A (en) Navigation apparatus
JP2007232787A (en) On-board navigation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150722

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150812

R150 Certificate of patent or registration of utility model

Ref document number: 5795278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250