JP2013161466A - Point designation system in three-dimensional map - Google Patents
Point designation system in three-dimensional map Download PDFInfo
- Publication number
- JP2013161466A JP2013161466A JP2012025707A JP2012025707A JP2013161466A JP 2013161466 A JP2013161466 A JP 2013161466A JP 2012025707 A JP2012025707 A JP 2012025707A JP 2012025707 A JP2012025707 A JP 2012025707A JP 2013161466 A JP2013161466 A JP 2013161466A
- Authority
- JP
- Japan
- Prior art keywords
- data
- frame
- point
- feature
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、地物を3次元的に表現した3次元地図上でユーザが地点を指定するための地点指定システムに関する。 The present invention relates to a point designation system for a user to designate a point on a three-dimensional map that represents a feature three-dimensionally.
建造物や道路などの地物を3次元的に表示した3次元地図を経路案内に利用する技術がある。3次元地図の表示は、通常、建物等の3次元的な形状を表した3次元モデルを利用し、透視投影によってレンダリングする方法で行われる。3次元地図は、ユーザが現実に視認する景色に近い状態が表示されるため、これを経路案内に利用すると、現在位置や進むべき経路を直感的に把握しやすくなる利点がある。 There is a technology that uses a three-dimensional map in which features such as buildings and roads are three-dimensionally displayed for route guidance. A three-dimensional map is usually displayed by a method of rendering by perspective projection using a three-dimensional model representing a three-dimensional shape such as a building. Since the three-dimensional map displays a state close to the scenery that the user visually recognizes, using this for route guidance has an advantage that it is easy to intuitively grasp the current position and the route to be traveled.
一方、3次元モデルを用いた透視投影によって3次元地図を表示する方法は、計算負荷が高いという課題がある。こうした課題を解決する技術として、特許文献1は、平行投影による3次元地図の表示技術を開示している。
図1は、平行投影による3次元地図の表示例を示す説明図である。図1(a)に示すように、平行投影では、現実の地物CSTの各点を通る所定の平行線PRJと投影面PLとの交点で、投影結果PIが得られる。
図1(b)は平行投影によって描かれた地図の例である。例えば、建物BLD1、BLD2、BLD3の辺は平行線で構成されている。平行投影では、透視投影と異なり投影方向に当たる平行線PRJを定義しさえすれば、「視点」を定義する必要がない。従って、3次元地図を表示する際にユーザの視点に応じてレンダリングをする必要がなく、平行投影して得られた2次元の画像データを予め用意しておくだけで軽い計算負荷で3次元地図を表示できる利点がある。
On the other hand, the method of displaying a three-dimensional map by perspective projection using a three-dimensional model has a problem that the calculation load is high. As a technique for solving such problems, Patent Document 1 discloses a technique for displaying a three-dimensional map by parallel projection.
FIG. 1 is an explanatory diagram showing a display example of a three-dimensional map by parallel projection. As shown in FIG. 1A, in the parallel projection, a projection result PI is obtained at the intersection of a predetermined parallel line PRJ passing through each point of the actual feature CST and the projection plane PL.
FIG. 1B is an example of a map drawn by parallel projection. For example, the sides of buildings BLD1, BLD2, and BLD3 are formed of parallel lines. In the parallel projection, unlike the perspective projection, it is not necessary to define the “viewpoint” as long as the parallel line PRJ corresponding to the projection direction is defined. Therefore, there is no need to render according to the user's viewpoint when displaying the 3D map, and the 3D map can be obtained with a light computational load simply by preparing 2D image data obtained by parallel projection in advance. There is an advantage that can be displayed.
しかし、3次元地図では、地図上の各点に対応する地点が複数存在するため、経路案内に3次元地図を利用する場合、3次元地図内で出発地や目的地などを指定しようとすると、ユーザが地図上で指定した地点を一義的に特定することができないという課題がある。
図1(c)に示す3次元地図を例にとって説明する。この地図内には、道路RDおよび建物BLD4、BLD5が3次元的に表示されている。ユーザがこの3次元地図内の点Paを指定したとすると、この状態だけからは、ユーザが建物BLD4を指定したのか、道路RD上の地点を指定したのかを、一義的に特定することはできない。また、別の点Pbを指定したとすると、同様に、ユーザが建物BLD4を指定したのか、建物BLD5を指定したのか、道路RD上の地点を指定したのか、特定することはできない。
このように、3次元地図では、地図内で指定された点に基づいて、ユーザが指定した地点を一義的に特定することができない課題がある。
However, since there are multiple points corresponding to each point on the map in the 3D map, when using the 3D map for route guidance, if you try to specify the starting point and destination in the 3D map, There exists a subject that the point which the user specified on the map cannot be specified uniquely.
A description will be given by taking the three-dimensional map shown in FIG. In this map, roads RD and buildings BLD4 and BLD5 are three-dimensionally displayed. If the user designates a point Pa in the 3D map, it is not possible to uniquely identify whether the user has designated the building BLD4 or the point on the road RD from this state alone. . Further, if another point Pb is designated, similarly, it cannot be specified whether the user has designated the building BLD4, the building BLD5, or the point on the road RD.
As described above, in the three-dimensional map, there is a problem that the point specified by the user cannot be uniquely specified based on the point specified in the map.
かかる課題を解決するための方法として、特許文献2は、3次元地図の表示時に、目的地など特定のポイントを指定するための操作がなされた場合には、表示を2次元の地図に切り換えるという技術を開示する。2次元の地図上であれば、地図上の点に基づいてユーザにより指定された地点を一義的に特定することが可能となるからである。
しかし、この方法は、3次元地図上で地点を指定する技術ではない。目的地などの地点を指定するために2次元地図への切り換えを行っていては、地点を把握しやすいという3次元地図の利点を損ねてしまう。
As a method for solving such a problem, Patent Document 2 says that, when an operation for designating a specific point such as a destination is performed during display of a three-dimensional map, the display is switched to a two-dimensional map. Disclose technology. This is because, on a two-dimensional map, a point designated by the user can be uniquely specified based on a point on the map.
However, this method is not a technique for designating a point on a three-dimensional map. If switching to a two-dimensional map is performed to designate a point such as a destination, the advantage of the three-dimensional map that it is easy to grasp the point is lost.
地図表示時にレンダリングをするのではなく、特許文献1のように予め用意された2次元画像を用いて3次元地図表示を行う場合には、さらなる課題が存在する。予め用意された2次元画像では、この画像内の各点と現実の地物との対応関係を特定することができないのである。例えば、図1(c)に示す3次元地図内で、ユーザが点Paまたは点Pbを指定した場合、予め用意された2次元画像では、指定された点Pa、Pbと、建物BLD4、BLD5との関係を特定することもできない。この結果、ユーザが建物BLD4、BLD5を指定する意図であったとしても、ナビゲーション装置等がユーザの意図に添って認識することは非常に困難となる。 When rendering a three-dimensional map using a two-dimensional image prepared in advance as in Patent Document 1, instead of rendering when displaying a map, there is a further problem. In the two-dimensional image prepared in advance, the correspondence between each point in the image and the actual feature cannot be specified. For example, in the 3D map shown in FIG. 1C, when the user designates the point Pa or the point Pb, the designated points Pa and Pb and the buildings BLD4 and BLD5 It is also impossible to specify the relationship. As a result, even if the user intends to specify the buildings BLD4 and BLD5, it is very difficult for the navigation device or the like to recognize it in accordance with the user's intention.
上述の課題は、平行投影によって描画された3次元地図に限らず、予め何らかの投影方法によって用意された2次元画像を用いて3次元地図を表示する際に共通の課題であった。
本発明は、かかる課題を解決するものであり、予め2次元画像として用意された3次元地図において、ユーザの意図に沿った地点指定を可能とすることを目的とする。
The above-described problem is not limited to a three-dimensional map drawn by parallel projection, but is a common problem when displaying a three-dimensional map using a two-dimensional image prepared in advance by some projection method.
The present invention solves such a problem, and an object of the present invention is to make it possible to specify a point in accordance with the user's intention in a three-dimensional map prepared in advance as a two-dimensional image.
本発明は、
地物を3次元的に表現した3次元地図においてユーザの指示に基づいて特定の地点の指定を入力する地点指定システムであって、
所定の投影方法によって前記地物の全てを平面上に投影した2次元表示データとしての地物データと、前記地物のそれぞれを前記投影方法によって前記平面上に投影した場合の全体または一部の形状または存在を表すオブジェクト枠を表示するための枠データとを格納する地図データベースと、
前記地物データを読み込んで3次元地図を表示する表示制御部と、
前記3次元地図内でユーザが指定した点の座標値を入力するコマンド入力部と、
前記指定した座標値に応じた前記枠データを特定し、該枠データに基づいて前記オブジェクト枠を表示するとともに、該枠データに対応した地点を、前記ユーザが指定した地点として特定する指定点特定部とを備える地点指定システムとして構成することができる。
The present invention
A point designation system for inputting designation of a specific point on the basis of a user instruction in a three-dimensional map representing a feature in three dimensions,
Feature data as two-dimensional display data obtained by projecting all of the features onto a plane by a predetermined projection method, and all or part of the features when each of the features is projected onto the plane by the projection method A map database for storing frame data for displaying an object frame representing a shape or presence;
A display control unit that reads the feature data and displays a three-dimensional map;
A command input unit for inputting coordinate values of points designated by the user in the three-dimensional map;
Specify the frame data according to the specified coordinate value, display the object frame based on the frame data, and specify a point corresponding to the frame data as a point specified by the user It can comprise as a point designation system provided with a section.
本発明では、地図データベースには、地物データを2次元表示データとして格納しているため、表示時にはレンダリングを行うまでなく軽い負荷で3次元地図を表示することができる。ただし、この地物データは、地物の全てを平面上に投影したものであるから、投影時に他の地物に遮蔽される地物は含まれなくなる。また、一部が遮蔽される場合には、地物データには、遮蔽されずに視認できる部分しか存在しなくなる。地物データは、平面の画像データでしかないから、地物同士の遠近関係を特定することはできない。
そこで、本発明は、ユーザが指定した点に対応する枠データを表示する。枠データは、地物の形状を表すデータであるから、これを表示することにより、ユーザは指定している地点が、他の地物等によって遮蔽される地点であっても、いずれの地物に対応する点として認識されているかを容易に知ることができる。
従って、本発明によれば、表示時の負荷を軽減した3次元地図を用いながら、ユーザの意図通りに地点を指定することが可能となる。
In the present invention, since the feature data is stored as two-dimensional display data in the map database, it is possible to display a three-dimensional map with a light load without performing rendering at the time of display. However, since this feature data is obtained by projecting all of the features on a plane, features that are shielded by other features at the time of projection are not included. In addition, when a part is shielded, the feature data includes only a part that can be visually recognized without being shielded. Since the feature data is only planar image data, the perspective relationship between the features cannot be specified.
Therefore, the present invention displays frame data corresponding to the point designated by the user. Since the frame data is data representing the shape of the feature, any feature can be displayed even if the point specified by the user is blocked by another feature or the like by displaying it. It can be easily known whether the point is recognized as a point corresponding to.
Therefore, according to the present invention, it is possible to designate a spot as intended by the user while using a three-dimensional map that reduces the load during display.
本発明において、地物データは2次元表示データとして用意されたものであればよく、透視投影法を含め、種々の投影方法で生成したデータを用いることができる。地物データは、ラスタデータおよびポリゴンデータのいずれの形式で備えてもよい。ただし、解像度によもよるが、通常は、ポリゴンデータの方が、全体のデータ量を抑制でき、拡大して表示する際にも画像が粗くならないため高画質な地図を提供することができる利点がある。 In the present invention, the feature data may be prepared as two-dimensional display data, and data generated by various projection methods including a perspective projection method can be used. The feature data may be provided in any format of raster data and polygon data. However, although it depends on the resolution, the advantage is that polygon data can usually provide a high-quality map because the overall data volume can be reduced and the image does not become rough when enlarged and displayed. There is.
オブジェクト枠とは、地物の全体または一部の形状を表すものであり、その形状は任意であるが、ユーザが3次元地図上で、オブジェクト枠が表示されている地物を認識できるものであることが好ましい。例えば、オブジェクト枠としては、地物の輪郭の全部または一部を用いた形状、地物の輪郭を包含する楕円形などの一般的な形状などとすることができる。
図2は、オブジェクト枠を例示する説明図である。図2(a)には、地物OBJ2の陰に一部が隠れる地物OBJ1を示した。オブジェクト枠としては、例えば、地物OBJ1全体の輪郭F1を用いることができる。本発明では、このように地物データとは別に、オブジェクト枠を表示可能な枠データを用意しておくことにより、ユーザが地点を指定する際に、この輪郭F1を表示することが可能となる。図2に示したのは、オブジェクト枠の一例であり、オブジェクト枠は、上述した通り種々の形状で用意することが可能である。
枠データに対応した地点も種々の方法で特定することができる。例えば、図2(b)に示すように、地物OBJ1の地表面の形状における重心位置CGを指定する方法をとってもよい。また、重心CG以外に地表面の形状内で設定された任意の代表点を用いても良い。さらに、地物OBJ1の地表面内の形状をはみ出した地点を用いてもよい。
The object frame represents the shape of the whole or a part of the feature, and the shape is arbitrary, but the user can recognize the feature on which the object frame is displayed on the 3D map. Preferably there is. For example, the object frame may have a general shape such as a shape using all or part of the contour of the feature, or an ellipse including the contour of the feature.
FIG. 2 is an explanatory diagram illustrating an object frame. FIG. 2A shows the feature OBJ1 that is partially hidden behind the feature OBJ2. As the object frame, for example, the outline F1 of the entire feature OBJ1 can be used. In the present invention, by preparing the frame data capable of displaying the object frame separately from the feature data as described above, the contour F1 can be displayed when the user designates the spot. . FIG. 2 shows an example of an object frame. The object frame can be prepared in various shapes as described above.
The point corresponding to the frame data can also be specified by various methods. For example, as shown in FIG. 2B, a method of designating the center of gravity position CG in the shape of the ground surface of the feature OBJ1 may be taken. In addition to the center of gravity CG, any representative point set within the shape of the ground surface may be used. Furthermore, you may use the point which protruded the shape in the ground surface of terrestrial feature OBJ1.
本発明の地点指定システムにおいて、
前記投影方法は、鉛直方向に対して所定の投影角度だけ傾けた斜め方向からの平行投影であるものとしてもよい。
透視投影では、投影する基準となる視点を定める必要があるため、視点ごとに地物データを用意する必要がある。これに対し、平行投影では、視点を定める必要がないため、地図の表示範囲をどのように指定した場合でも単一の地物データを共通して利用することができる。従って、平行投影を用いることにより、地物データの容量を抑制することができる。また、平行投影では、左右方向、奥行き方向の縮尺が維持されるという特性があるため、地図としての機能を損なわないという利点もある。
In the point designation system of the present invention,
The projection method may be parallel projection from an oblique direction inclined by a predetermined projection angle with respect to the vertical direction.
In perspective projection, since it is necessary to determine a viewpoint as a reference for projection, it is necessary to prepare feature data for each viewpoint. On the other hand, in parallel projection, since it is not necessary to determine the viewpoint, a single feature data can be used in common regardless of how the map display range is designated. Therefore, the volume of the feature data can be suppressed by using parallel projection. In addition, parallel projection has a characteristic that the scale in the left-right direction and the depth direction is maintained, and thus has an advantage that the function as a map is not impaired.
また、本発明の地点指定システムにおいて、
前記指定点特定部は、前記座標値に対応する地点が複数存在する場合に、ユーザの操作に応じて、前記ユーザが指定した点を該複数の地点間で切り換えるとともに、前記オブジェクト枠の表示態様を切り換えるものとしてもよい。
こうすることにより、ユーザは、その表示態様により、いずれの地点が指定されているかを容易に把握することが可能となる。表示態様は種々の方法で切り換え可能である。例えば、指定されている地物のオブジェクト枠を表示し、その他のオブジェクト枠を非表示としてもよい。図2の例では、地物OBJ1が指定されているときは、オブジェクト枠F1を表示し、地物OBJ2が指定されているときは、オブジェクト枠F1を非表示とする態様にあたる。また別の態様として、指定されている地物に対応するオブジェクト枠を点滅表示し、その他のオブジェクト枠は非点滅で表示する態様としてもよい。さらに別の態様として、指定されている地物とその他の地物で、オブジェクト枠の表示色を変えてもよい。
In the point designation system of the present invention,
The designated point specifying unit switches the point designated by the user between the plurality of points according to a user operation when there are a plurality of points corresponding to the coordinate values, and displays the object frame. It is good also as what switches.
By doing so, the user can easily grasp which point is designated by the display mode. The display mode can be switched by various methods. For example, the object frame of the specified feature may be displayed and the other object frames may be hidden. In the example of FIG. 2, the object frame F1 is displayed when the feature OBJ1 is specified, and the object frame F1 is not displayed when the feature OBJ2 is specified. As another aspect, an object frame corresponding to a specified feature may be displayed in a blinking manner, and other object frames may be displayed in a non-flashing manner. As yet another aspect, the display color of the object frame may be changed between the designated feature and other features.
本発明の地点指定システムにおいては、
前記オブジェクト枠は、前記地物のうち前記3次元地図上に描かれる可視形状を表す可視枠と、他の地物によって遮蔽される部分の形状を表す不可視枠とを含み、
前記指定点特定部は、前記可視枠と前記不可視枠のうち、ユーザが指定した座標値が入る側を用いて前記オブジェクト枠の表示を行うものとしてもよい。
図2の例において、地物OBJ1のうち、地物OBJ2に遮蔽される部分F3が不可視枠に当たり、その他の部分F2が可視枠に当たる。このように不可視枠、可視枠を設け、両者を使い分けることにより、地物の遠近関係を把握しやすくなる利点がある。例えば、図2の例において、ユーザが指定した点に対し、不可視枠F3が表示されれば、ユーザは、地物OBJ2の陰に地物OBJ1が存在することを容易に把握することが可能となる。
In the point designation system of the present invention,
The object frame includes a visible frame representing a visible shape drawn on the three-dimensional map of the features, and an invisible frame representing a shape of a portion shielded by other features,
The designated point specifying unit may display the object frame by using a side where a coordinate value designated by a user enters between the visible frame and the invisible frame.
In the example of FIG. 2, among the features OBJ1, the portion F3 shielded by the feature OBJ2 hits the invisible frame, and the other portion F2 hits the visible frame. Thus, by providing an invisible frame and a visible frame and using both separately, there is an advantage that it becomes easy to grasp the perspective relationship of the feature. For example, in the example of FIG. 2, if the invisible frame F3 is displayed for the point designated by the user, the user can easily grasp that the feature OBJ1 exists behind the feature OBJ2. Become.
本発明の地点指定システムにおいては、
前記枠データは、さらに前記地物の地表面上の形状を表す平面枠を有すデータを有し、
前記コマンド入力部は、前記ユーザの指定に基づき、地表面上の地点を表す座標値を入力し、
前記指定点特定部は、前記座標値を含む前記平面枠を特定し、該平面枠を表示するとともに、該平面枠に対応した地物に基づいて、前記ユーザが指定した地点を特定するものとしてもよい。
地表面上の形状を表す平面枠は、例えば、図2(b)に示す枠F4が相当する。このように平面枠を用意しておくことにより、ユーザが地表面上の座標値を入力した場合、この平面枠に基づいて、いずれの地物が指定されているかを特定することができる。地表面上の座標値の入力としては、例えば、3次元地図ではなく平面状の地図内の点を入力する方法、3次元地図内において「地表面上の地点を指定する」という入力モードを設け、かかる入力モードでいずれかの点を入力する方法などをとることができる。地物データは地表面の座標を入力しても、その座標値と地物との対応関係を特定することはできないが、このように平面枠を用意しておくことにより、地物との対応関係を特定することが可能となる。
In the point designation system of the present invention,
The frame data further includes data having a plane frame representing the shape on the ground surface of the feature,
The command input unit inputs a coordinate value representing a point on the ground surface based on the designation of the user,
The specified point specifying unit specifies the plane frame including the coordinate value, displays the plane frame, and specifies a point specified by the user based on a feature corresponding to the plane frame. Also good.
The flat frame representing the shape on the ground surface corresponds to, for example, a frame F4 shown in FIG. By preparing a plane frame in this way, when a user inputs a coordinate value on the ground surface, it is possible to specify which feature is specified based on the plane frame. For input of coordinate values on the ground surface, for example, a method of inputting a point in a planar map instead of a three-dimensional map is provided with an input mode of “designating a point on the ground surface” in the three-dimensional map. In this input mode, a method of inputting any point can be taken. For feature data, even if the coordinates of the ground surface are input, the correspondence between the coordinate value and the feature cannot be specified. However, by preparing a plane frame in this way, the correspondence with the feature can be obtained. It becomes possible to specify the relationship.
本発明において、上述した各特徴は、必ずしも全てを備えている必要はない。一部のみを備えるようにしてもよいし、適宜、組み合わせて適用してもよい。
また本発明は、上述した地点指定システムとしての態様に限らず、種々の態様で構成することができる。
In the present invention, each of the above-described features does not necessarily have to be provided. You may make it provide only one part and may apply in combination suitably.
Further, the present invention is not limited to the above-described aspect as the point designation system, and can be configured in various aspects.
例えば、本発明は、地点指定システムとしての構成だけでなく、かかる地点指定システムで用いられる枠データを生成する枠データ生成システムとして構成してもよい。
即ち、本発明の地点指定システムで用いられる枠データを生成する枠データ生成システムであって、
前記地物の3次元形状を表す3次元モデルを記憶する3D地図データベースと、
前記3D地図データベースのうち前記枠データの生成対象となる地物を、前記所定の投影方法によって前記平面上に投影し、該投影された形状に基づいて、前記オブジェクト枠を表示するための前記枠データを生成する枠データ生成部とを備える枠データ生成システムとしてもよい。
枠データ生成システムとしての構成においても、上述した種々の特徴を適用可能である。
こうすることにより、枠データを容易に生成することができる。枠データも、ポリゴンデータ、ベクトルデータ、ラスタデータなど種々の形式で用意することが可能である。
For example, the present invention may be configured not only as a point designation system but also as a frame data generation system that generates frame data used in such a point designation system.
That is, a frame data generation system for generating frame data used in the point designation system of the present invention,
A 3D map database storing a 3D model representing the 3D shape of the feature;
The frame for displaying the object frame based on the projected shape by projecting a feature on which the frame data is to be generated in the 3D map database onto the plane by the predetermined projection method. It is good also as a frame data generation system provided with the frame data generation part which produces | generates data.
The various features described above can also be applied to the configuration as the frame data generation system.
By doing so, the frame data can be easily generated. The frame data can also be prepared in various formats such as polygon data, vector data, and raster data.
本発明は、その他、コンピュータによって地点を指定するための地点指定方法として構成してもよいし、かかる地点指定システムで用いられる枠データを生成するためのデータ生成方法として構成してもよい。かかる地点指定やデータ生成をコンピュータに実行させるためのコンピュータプログラムとして構成してもよい。
また、かかるコンピュータプログラムを記録したコンピュータが読み取り可能な記録媒体として構成してもよい。記録媒体としては、フレキシブルディスクやCD−ROM、光磁気ディスク、ICカード、ROMカートリッジ、パンチカード、バーコードなどの符号が印刷された印刷物、コンピュータの内部記憶装置(RAMやROMなどのメモリ)および外部記憶装置等、コンピュータが読取り可能な種々の媒体を利用できる。
In addition, the present invention may be configured as a point specifying method for specifying a point by a computer, or may be configured as a data generation method for generating frame data used in such a point specifying system. You may comprise as a computer program for making a computer perform such a point designation | designated and data generation.
Moreover, you may comprise as a computer-readable recording medium which recorded such a computer program. Recording media include flexible disks, CD-ROMs, magneto-optical disks, IC cards, ROM cartridges, punch cards, printed matter printed with codes such as bar codes, computer internal storage devices (memory such as RAM and ROM), and Various media that can be read by a computer, such as an external storage device, can be used.
本発明の実施例について以下の順序で説明する。
A.装置構成
B.地物データ構造
B1.平行投影によるデータ
B2.複数の投影方位
C.枠データ
D.地物データ生成処理
E.地図表示処理
F.経路案内処理
F1.全体の処理
F2.座標変換
F3.現在位置表示処理
Embodiments of the present invention will be described in the following order.
A. Device Configuration B. Feature data structure
B1. Parallel projection data
B2. Multiple projection orientations C.I. Frame data D. Feature data generation processing E. Map display processing Route guidance processing
F1. Overall processing
F2. Coordinate transformation
F3. Current position display processing
A.装置構成:
図3は、実施例における経路案内システムの構成を示す説明図である。サーバ200からネットワークNE2等を介して提供される地図データに基づいて、ナビゲーション装置300に地図を表示し、経路案内を行う構成例を示した。地図を表示する端末としては、パーソナルコンピュータ、携帯端末などを用いてもよい。また、経路案内システムは、ナビゲーション装置300のような端末とサーバ200とからなるシステムの他、スタンドアロンで稼働するシステムとして構成してもよい。
図中に示したシステムのうち、ナビゲーション装置300およびサーバ200は、地物を3次元的に表現した3次元地図において、ユーザが目的地などの地点を指定するための地点指定システムとしても機能する。
図中には、3次元地図データを生成するデータ生成装置100も併せて示した。
A. Device configuration:
FIG. 3 is an explanatory diagram showing the configuration of the route guidance system in the embodiment. Based on the map data provided from the server 200 via the network NE2 or the like, a configuration example is shown in which a map is displayed on the navigation device 300 and route guidance is performed. As a terminal for displaying a map, a personal computer, a portable terminal, or the like may be used. Further, the route guidance system may be configured as a system that operates in a stand-alone manner, in addition to a system that includes a terminal such as the navigation device 300 and the server 200.
Among the systems shown in the figure, the navigation device 300 and the server 200 also function as a point designation system for a user to designate a point such as a destination in a three-dimensional map that represents a feature three-dimensionally. .
In the figure, a data generation device 100 that generates three-dimensional map data is also shown.
ナビゲーション装置300には、主制御部304の下で稼働する種々の機能ブロックが構成されている。本実施例では、主制御部304および各機能ブロックは、それぞれの機能を実現するソフトウェアをインストールすることによって構成したが、その一部または全部をハードウェア的に構成してもよい。
送受信部301は、サーバ200とのネットワークNE2を介した通信を行う。本実施例では、3次元地図を表示するための地図データおよびコマンドの送受信が主として行われる。
コマンド入力部302は、ユーザによる操作等を通じて指示を入力する。本実施例における指示としては、3次元地図の表示範囲、拡大・縮小の指定、経路案内を行う際の出発地、目的地の設定などが揚げられる。
コマンド入力部302には、ユーザがナビゲーション装置300に表示された地図内で指定した点に基づいて、ユーザが3次元空間におけるいずれの地点を指定したのかを特定する指定点特定部302Aが設けられている。
GPS入力部303は、GPS(Global Positioning System)の信号に基づいて緯度経度の座標値を得る。また、経路案内では、緯度経度の変化に基づいて進行方向を算出する。
地図情報記憶部305は、サーバ200から提供された地図データを一時的に記憶しておくバッファである。経路案内時のように表示すべき地図が時々刻々と移動していく場合、地図情報記憶部305では不足する範囲の地図データをサーバ200から受信して地図を表示する。予め全体の地図データを記憶しておくものとしてもよい。
マップマッチング変換部307は、経路案内をする場合に、探索された経路および現在位置を、平行投影された3次元地図上の道路上にずれなく表示するため、経路位置および現在位置の座標値に対して必要な座標変換を施す。座標変換の方法については後述する。
表示制御部306は、地図情報記憶部305およびマップマッチング変換部307から提供されるデータに基づいて、ナビゲーション装置300のディスプレイ300dに3次元地図を表示する。
The navigation device 300 includes various functional blocks that operate under the main control unit 304. In the present embodiment, the main control unit 304 and each functional block are configured by installing software that realizes the respective functions, but part or all of them may be configured by hardware.
The transmission / reception unit 301 communicates with the server 200 via the network NE2. In the present embodiment, transmission / reception of map data and commands for displaying a three-dimensional map is mainly performed.
The command input unit 302 inputs an instruction through a user operation or the like. As an instruction in the present embodiment, a display range of a three-dimensional map, designation of enlargement / reduction, setting of a starting point and a destination when performing route guidance, and the like are listed.
The command input unit 302 is provided with a specified point specifying unit 302A that specifies which point in the three-dimensional space the user has specified based on the point specified by the user in the map displayed on the navigation device 300. ing.
The GPS input unit 303 obtains coordinate values of latitude and longitude based on a GPS (Global Positioning System) signal. In the route guidance, the traveling direction is calculated based on changes in latitude and longitude.
The map information storage unit 305 is a buffer that temporarily stores map data provided from the server 200. When a map to be displayed moves from moment to moment as in route guidance, the map information storage unit 305 receives map data in an insufficient range from the server 200 and displays the map. The entire map data may be stored in advance.
The map matching conversion unit 307 displays the searched route and the current position on the road on the parallel projected three-dimensional map without any deviation when performing route guidance. Necessary coordinate transformations are applied to it. A method of coordinate conversion will be described later.
The display control unit 306 displays a three-dimensional map on the display 300 d of the navigation device 300 based on the data provided from the map information storage unit 305 and the map matching conversion unit 307.
サーバ200には、図示する機能ブロックが構成されている。本実施例では、これらの機能ブロックは、それぞれの機能を実現するソフトウェアをインストールすることによって構成したが、その一部または全部をハードウェア的に構成してもよい。
地図データベース210は、3次元地図を表示するためのデータベースである。本実施例では、地物データ211、文字データ212、ネットワークデータ213、枠データ214を含む地図データを格納する。地物データ211は、道路、建物などの地物を3次元的に表示するためのデータであり、地物の3次元モデルを平行投影することで得られた2次元のポリゴンデータである。文字データ212は、地図に表示すべき文字、例えば、地物の名称や地名などのデータである。ネットワークデータ213は、道路をノード、リンクの集まりで表現したデータである。ノードとは、道路同士の交点や道路の端点に相当するデータである。リンクはノードとノードとを結ぶ線分であり、道路に相当するデータである。本実施例では、ネットワークデータ213を構成するノード、リンクの位置は、緯度経度および高さの3次元データで定められている。枠データ214は、3次元地図において、各地物の輪郭形状を個別に描画するための画像データである。枠データ214は、ラスタデータ、ベクトルデータ、ポリゴンデータなどの形式で備えることができる。
送受信部201は、ネットワークNE2を介してナビゲーション装置300とのデータの送受信を行う。本実施例では、3次元地図を表示するための地図データおよびコマンドの送受信が主として行われる。また、送受信部201は、ネットワークNE1を介してデータ生成装置100との通信も行う。本実施例では、生成された地図データの授受が主として行われる。
データベース管理部202は、地図データベース210からのデータの読み出し、書き込みを制御する。
経路探索部203は、地図データベース210内のネットワークデータ213を用いて、経路探索を行う。経路探索には、ダイクストラ法などを用いることができる。
The server 200 includes functional blocks shown in the figure. In the present embodiment, these functional blocks are configured by installing software that realizes the respective functions, but a part or all of the functional blocks may be configured by hardware.
The map database 210 is a database for displaying a three-dimensional map. In this embodiment, map data including feature data 211, character data 212, network data 213, and frame data 214 is stored. The feature data 211 is data for three-dimensionally displaying features such as roads and buildings, and is two-dimensional polygon data obtained by parallel projection of a three-dimensional model of the feature. The character data 212 is data such as characters and names of features to be displayed on the map. The network data 213 is data representing a road as a collection of nodes and links. A node is data corresponding to an intersection of roads or an end point of a road. A link is a line segment connecting nodes, and is data corresponding to a road. In the present embodiment, the positions of nodes and links constituting the network data 213 are determined by three-dimensional data of latitude and longitude and height. The frame data 214 is image data for individually drawing the contour shape of each feature in the three-dimensional map. The frame data 214 can be provided in the form of raster data, vector data, polygon data, or the like.
The transmission / reception unit 201 transmits / receives data to / from the navigation device 300 via the network NE2. In the present embodiment, transmission / reception of map data and commands for displaying a three-dimensional map is mainly performed. The transmission / reception unit 201 also communicates with the data generation device 100 via the network NE1. In the present embodiment, the generated map data is mainly exchanged.
The database management unit 202 controls reading and writing of data from the map database 210.
The route search unit 203 performs route search using the network data 213 in the map database 210. A Dijkstra method or the like can be used for the route search.
データ生成装置100には、図示する機能ブロックが構成されている。本実施例では、これらの機能ブロックは、パーソナルコンピュータに、それぞれの機能を実現するソフトウェアをインストールすることによって構成したが、その一部または全部をハードウェア的に構成してもよい。
送受信部105は、ネットワークNE1を介してサーバ200とデータの授受を行う。
コマンド入力部101は、キーボード等を介してオペレータの指示を入力する。本実施例では、地図データを生成すべき領域の指定、平行投影パラメータ、枠データを生成する際の条件の指定等が含まれる。
3D地図データベース110は、地図データを生成するために用いられる3次元モデルからなる3D地図データ、およびネットワークデータを格納するデータベースである。道路、建物などの地物については、3次元形状を表す電子データが格納されている。3D地図データとしては、従来、透視投影によって3次元地図を表示するために備えられる3次元モデルを利用することができる。ネットワークデータは、サーバ200に格納されるネットワークデータ213と共通とすることができる。
平行投影部102は、3D地図データベース110における3D地図データを用いて平行投影による表示を行って、2次元画像としての地物データを生成する。表示された投影図は、平行投影データ103に格納され、送受信部105を介してサーバ200の地図データベース210の地物データ211に格納される。
枠データ生成部106は、平行投影部102を利用して、個別に地物の平行投影を行い、枠データ214の生成を行う。地物データ211を生成する際には、3D地図データに格納されている地物全体を対象とする平行投影が行われるが、枠データ214を生成する際には、特定の地物のみを対象として平行投影が行われる。本実施例では、枠データ214は、後述する通り、可視枠、不可視枠などに分かれて構成されており、枠データ生成部106は、地物の平行投影の結果に基づき、これらの各種枠を生成する処理も行う。この処理内容については、後述する。
The data generation device 100 includes functional blocks shown in the figure. In this embodiment, these functional blocks are configured by installing software that realizes the respective functions in a personal computer, but a part or all of the functional blocks may be configured by hardware.
The transmission / reception unit 105 exchanges data with the server 200 via the network NE1.
The command input unit 101 inputs an operator instruction via a keyboard or the like. In the present embodiment, designation of an area for generating map data, parallel projection parameters, designation of conditions for generating frame data, and the like are included.
The 3D map database 110 is a database that stores 3D map data composed of a three-dimensional model used for generating map data and network data. Electronic features representing a three-dimensional shape are stored for features such as roads and buildings. Conventionally, as the 3D map data, a 3D model provided for displaying a 3D map by perspective projection can be used. The network data can be shared with the network data 213 stored in the server 200.
The parallel projection unit 102 performs display by parallel projection using the 3D map data in the 3D map database 110 to generate feature data as a two-dimensional image. The displayed projection map is stored in the parallel projection data 103 and is stored in the feature data 211 of the map database 210 of the server 200 via the transmission / reception unit 105.
The frame data generation unit 106 performs parallel projection of features individually using the parallel projection unit 102 and generates frame data 214. When the feature data 211 is generated, parallel projection is performed on the entire feature stored in the 3D map data. However, when generating the frame data 214, only a specific feature is targeted. Parallel projection is performed. In this embodiment, the frame data 214 is divided into a visible frame and an invisible frame as will be described later, and the frame data generation unit 106 selects these various frames based on the result of parallel projection of features. The process to generate is also performed. Details of this processing will be described later.
B.地物データ構造:
B1.平行投影によるデータ:
図4は、地物データの内容を示す説明図である。3次元データD3から平行投影によって2次元画像データD1、D2が得られる様子を示している。3次元データD3は、平面P3上に、建物M3の形状をx、y、zの3次元座標で表したデータである。
この建物M3を鉛直方向(図中の矢印A1方向)に平面P1上に平行投影すると、建物M3が長方形M1のように2次元的に表現された2次元画像データD1となる。これは、従来の2次元地図データに相当する。
これに対し、本実施例では、鉛直方向に対して所定の投影角度だけ傾けた斜め方向(図中の矢印A2方向)の平面P2上に平行投影する。この結果、2次元画像データD2上には、建物M2のように3次元的に建物が表示される。建物M2は3次元的に表現されてはいるものの、2次元画像データD2は、あくまでも投影された2次元の表示データである。本実施例では、投影面内のuv座標内の座標値(u1、v1)、(u2、v2)などの点列で、建物M2を表示するためのポリゴンデータを規定した。建物M2の側壁、屋根部分で個別のポリゴンデータとしてもよいし、全体を一つのポリゴンデータとしてもよい。窓Wは、建物の壁面に貼り付けるテクスチャ、つまりラスタデータとして用意してもよいし、窓を個別のポリゴンデータとして用意してもよい。
本実施例の地物データは、このように斜め方向の平行投影によって各地物を投影した2次元データによって構成されている。枠データも同様の平行投影によって生成された2次元画像データである。
B. Feature data structure:
B1. Parallel projection data:
FIG. 4 is an explanatory diagram showing the contents of the feature data. A state is shown in which two-dimensional image data D1 and D2 are obtained from the three-dimensional data D3 by parallel projection. The three-dimensional data D3 is data representing the shape of the building M3 on the plane P3 with three-dimensional coordinates of x, y, and z.
When the building M3 is projected in parallel on the plane P1 in the vertical direction (arrow A1 direction in the figure), the building M3 becomes two-dimensional image data D1 expressed two-dimensionally like a rectangle M1. This corresponds to conventional two-dimensional map data.
On the other hand, in this embodiment, parallel projection is performed on a plane P2 in an oblique direction (in the direction of arrow A2 in the figure) inclined by a predetermined projection angle with respect to the vertical direction. As a result, on the two-dimensional image data D2, a building is displayed three-dimensionally like a building M2. Although the building M2 is expressed three-dimensionally, the two-dimensional image data D2 is only projected two-dimensional display data. In the present embodiment, polygon data for displaying the building M2 is defined by a point sequence such as coordinate values (u1, v1) and (u2, v2) in the uv coordinates in the projection plane. Individual polygon data may be used for the side wall and roof portion of the building M2, or the whole may be used as one polygon data. The window W may be prepared as a texture to be pasted on the wall of the building, that is, raster data, or the window may be prepared as individual polygon data.
The feature data of the present embodiment is constituted by two-dimensional data obtained by projecting each feature by oblique parallel projection in this way. The frame data is also two-dimensional image data generated by the same parallel projection.
図5は、地物データのデータ構造を示す説明図である。一つの建物BL01を例にとって、データ構造を説明する。
図の左側には、この建物BL01の位置関係を2次元的に示した。地図データは、メッシュM01、M02に区切って整備されている。左下の緯度経度がP01(LAT01、LON01)で表されるメッシュM01内の矩形が建物BL01である。建物BL01の緯度経度は座標G(LATb、L0Nb)で表される。ここでは、建物BL01はメッシュM01からはみ出していない場合を例示した。
FIG. 5 is an explanatory diagram showing the data structure of the feature data. The data structure will be described using one building BL01 as an example.
On the left side of the figure, the positional relationship of this building BL01 is shown two-dimensionally. The map data is maintained by being divided into meshes M01 and M02. The rectangle in the mesh M01 in which the lower left latitude and longitude are represented by P01 (LAT01, LON01) is the building BL01. The latitude and longitude of the building BL01 is represented by coordinates G (LATb, L0Nb). Here, the case where the building BL01 does not protrude from the mesh M01 is illustrated.
この位置に存在する建物BL01を平行投影すると(矢印CH01)、メッシュM03、M04に示すように建物BL01は3次元的に表示される。本実施例では、メッシュM03の左下の緯度経度P02(LAT02、LON02)は、メッシュM01のP01と一致している。本実施例では、このようにメッシュM03、M04は、各頂点の緯度経度が、平面上のメッシュM01、M02の頂点の緯度経度と一致するように定義した。もっとも、投影面におけるメッシュM03、M04は、平面におけるメッシュM01、M02と無関係に設定することも可能である。
平行投影の結果、建物BL01は、メッシュM03内の部分BL03だけでなく、メッシュM04内の部分BL04によって描かれる。本実施例では、矢印CH03、CH04に示すように、一つの建物BL01を表示するポリゴンのうち、メッシュM03に属する部分BL03と、メッシュM04に属する部分BL04とを分離し、それぞれ別個のポリゴンデータとして管理する。
When the building BL01 existing at this position is projected in parallel (arrow CH01), the building BL01 is displayed three-dimensionally as shown by the meshes M03 and M04. In the present embodiment, the lower left latitude / longitude P02 (LAT02, LON02) of the mesh M03 matches P01 of the mesh M01. In the present embodiment, the meshes M03 and M04 are defined so that the latitude and longitude of each vertex coincide with the latitude and longitude of the vertexes of the meshes M01 and M02 on the plane. However, the meshes M03 and M04 on the projection plane can be set independently of the meshes M01 and M02 on the plane.
As a result of the parallel projection, the building BL01 is drawn not only by the portion BL03 in the mesh M03 but also by the portion BL04 in the mesh M04. In the present embodiment, as indicated by arrows CH03 and CH04, among the polygons displaying one building BL01, the part BL03 belonging to the mesh M03 and the part BL04 belonging to the mesh M04 are separated, and each is obtained as separate polygon data. to manage.
図の右側に、それぞれのポリゴンデータの構造を例示した。各ポリゴンに対するデータには、名称、位置、形状、種別、文字、属性等が格納される。
本実施例では、名称としては、建物の名称BL01を用いた。メッシュM03に属する部分BL03、およびM04に属する部分BL04には、共通の名称が付されることになるので、両者が同一の建物に対するポリゴンであることが判別可能となる。名称としてポリゴンに固有の名称を用いることもできる。この場合には、同一の建物に対するポリゴン同士を関連づける情報を別途用意しておくことが好ましい。
The structure of each polygon data is illustrated on the right side of the figure. The data for each polygon stores a name, position, shape, type, character, attribute, and the like.
In this example, the name BL01 of the building was used as the name. Since a common name is assigned to the part BL03 belonging to the mesh M03 and the part BL04 belonging to M04, it is possible to determine that both are polygons for the same building. A name unique to the polygon can also be used as the name. In this case, it is preferable to separately prepare information for associating polygons for the same building.
位置は、建物BL01が存在する緯度経度の座標(LATb,L0Nb)である。形状は、各メッシュ内で定義される相対的な2次元座標uvで、ポリゴンを形成する点列を規定するデータである。部分BL03に対する形状データのPb1(u1、v1)、Pb2(u2、v2)等のデータは、頂点Pb1、Pb2の位置を、メッシュM03内のuv座標で表した値である。部分BL04に対する形状データのPb3(u3、v3)、Pb4(u4、v4)等のデータは、頂点Pb3、Pb4の位置を、メッシュM04内のuv座標で表した値である。 The position is the latitude and longitude coordinates (LATb, L0Nb) where the building BL01 exists. The shape is data defining a sequence of points forming a polygon with relative two-dimensional coordinates uv defined in each mesh. Data such as Pb1 (u1, v1) and Pb2 (u2, v2) of the shape data for the part BL03 are values representing the positions of the vertices Pb1 and Pb2 by uv coordinates in the mesh M03. Data such as Pb3 (u3, v3) and Pb4 (u4, v4) of the shape data for the portion BL04 are values representing the positions of the vertices Pb3 and Pb4 in uv coordinates in the mesh M04.
種別には、ポリゴンが表す地物の種類を格納する。文字は、地物の名称を示すデータであるが、本実施例では、文字データは地物データとは別に用意しているため、地物データには文字データの格納先を示すデータ(図中のLINK)を格納するものとした。格納先を表すデータとしては、建物BL01に対する文字データに対するパス、アドレス、URL(Uniform Resource Locator)などを用いることができる。
属性は、地物に対する付加情報である。例えば、建物であれば高さ、階数;道路であれば車線幅、国道等の種別などを用いることができる。後述する枠データを、属性として格納するようにしてもよい。
The type stores the type of the feature represented by the polygon. The character is data indicating the name of the feature, but in this embodiment, since the character data is prepared separately from the feature data, the feature data includes data indicating the storage location of the character data (in the figure). LINK) is stored. As data representing the storage destination, a path, address, URL (Uniform Resource Locator), etc. for character data for the building BL01 can be used.
The attribute is additional information for the feature. For example, the height, number of floors for buildings, and the type of lane width, national road, etc. for roads can be used. You may make it store the frame data mentioned later as an attribute.
本実施例では、地物データは、現実の建物をそのまま平行投影するのではなく、高さ方向にのみ1よりも大きい係数を乗じた上で平行投影した。ユーザは通常、建物を下方から見上げることが多い。従って、上方から見る形で平行投影を施すと、投影図から得られる建物の高さ感覚は、現実に見上げた時の高さ感覚に合わないことがある。これに対し、上述のように、高さ方向にのみ拡大した仮想的な建物に対して平行投影を施せば、高さ感覚の違和感を緩和することができる。高さ方向に乗ずる係数は、視覚的な効果を考慮して任意に設定可能である。 In the present embodiment, the feature data is not subjected to parallel projection of the actual building as it is, but is parallel projected after multiplying a coefficient larger than 1 only in the height direction. Users often look up at buildings from below. Therefore, if parallel projection is performed as viewed from above, the height sensation of the building obtained from the projection may not match the height sensation when actually looking up. On the other hand, as described above, if parallel projection is performed on a virtual building that is enlarged only in the height direction, the uncomfortable feeling of height can be alleviated. The coefficient multiplied in the height direction can be arbitrarily set in consideration of visual effects.
B2.複数の投影方位:
平行投影パラメータは、投影角度と投影方位である。投影角度は、鉛直からどれだけ傾けた方向に投影するかを表すパラメータである。投影方位は、いずれの方位に傾けるかを表すパラメータである。地物データは、単一の投影方位に対して用意することもできるが、本実施例では、複数の方位に対して用意している。
B2. Multiple projection orientations:
The parallel projection parameters are a projection angle and a projection direction. The projection angle is a parameter that represents how much the image is projected from the vertical direction. The projection azimuth is a parameter that indicates which azimuth to incline. The feature data can be prepared for a single projection direction, but in this embodiment, it is prepared for a plurality of directions.
図6は、平行投影の投影方位を示す説明図である。図示する通り、本実施例では、一つの領域ARに対して、方位を45度ずつずらして方位1〜方位8の8方位について、それぞれ平行投影を行い、地物データを生成した。例えば、方位1では北側から見た状態で平行投影した投影図が得られ、方位5では南側から見た状態で平行投影した投影図が得られる。方位1で死角になっていた建物でも、逆方向の方位5では死角にならず表示されることになる。多方位で地物データを用意しておけば、このように死角が生じた場合でも、その死角の地理は他の方位の地図で確認可能であるため、3次元的に表示することによって死角が生じることによる支障を緩和することができる。
本実施例では、8方位の地物データを用意したが、4方位としてもよいし、16方位またはそれ以上としてもよい。本発明者が検討した結果によれば、16方位で地物データを用意し、各方位の投影図を順次切り換えていけば、あたかも領域ARの周りを周回しながら、領域ARを見ているかのような表示を違和感なく実現することができることが分かっている。かかる観点からは、地物データは16方位に対して用意することが好ましいとも言える。
枠データも地物データと同様の方位に対して用意されている。
FIG. 6 is an explanatory diagram showing the projection direction of parallel projection. As shown in the drawing, in this embodiment, the azimuth is shifted by 45 degrees with respect to one area AR, and parallel projection is performed for each of the eight azimuths from azimuth 1 to azimuth 8, thereby generating feature data. For example, in azimuth 1, a projection projected in parallel when viewed from the north side is obtained, and in azimuth 5, a projection projected in parallel when viewed from the south is obtained. Even a building that had a blind spot in direction 1 will be displayed in a reverse direction with no blind spot in direction 5. If feature data is prepared in multiple directions, even if a blind spot occurs in this way, the geographic location of the blind spot can be confirmed on a map of another orientation. It is possible to alleviate the trouble caused by the occurrence.
In this embodiment, feature data of 8 directions is prepared, but it may be 4 directions, or 16 directions or more. According to the result of the study by the present inventor, if feature data is prepared in 16 directions and the projection maps of each direction are sequentially switched, it is as if the area AR is viewed while circling around the area AR. It has been found that such a display can be realized without a sense of incongruity. From this point of view, it can be said that it is preferable to prepare the feature data for 16 directions.
Frame data is also prepared for the same orientation as the feature data.
C.枠データ:
以下、本実施例における枠データについて例示する。本実施例では、枠データとして、各地物についてオブジェクト枠を表示するための画像データが用意されている。図7は枠データのデータ構造を示す説明図である。
地図データベース210は、地図を所定サイズのメッシュに分割し、メッシュ単位でデータを格納・管理している。このメッシュのことをパーセルと称することもある。図7に示す通り、枠データも各パーセル内に存在する地物ごとに複数用意されており、パーセル単位で管理されている。
C. Frame data:
Hereinafter, the frame data in the present embodiment will be exemplified. In this embodiment, image data for displaying an object frame for each feature is prepared as the frame data. FIG. 7 is an explanatory diagram showing the data structure of the frame data.
The map database 210 divides a map into meshes of a predetermined size, and stores and manages data in units of meshes. This mesh may be referred to as a parcel. As shown in FIG. 7, a plurality of frame data are prepared for each feature existing in each parcel, and are managed in units of parcels.
各地物に対する枠データは、キー情報、平面枠データ、可視枠データ、不可視枠データを備えている。
キー情報は、枠データが付された地物を特定するためのIDである。
平面枠データは、図2(b)に示した枠F4のように、3次元地図において各地物の地表面上の平面形状を描画するためのデータである。本実施例では、平面枠データとして、平面枠座標および平面代表点座標を有している。平面枠座標は、平面枠に相当するポリゴンの頂点の座標列である。平面代表点座標は、地物の位置を表すために用いられる代表点3次元空間における座標値である。平面代表点座標は、任意に設定可能であるが、本実施例では、平面枠の重心位置の緯度経度を用いるものとした。
The frame data for each feature includes key information, plane frame data, visible frame data, and invisible frame data.
The key information is an ID for specifying the feature to which the frame data is attached.
The plane frame data is data for drawing a plane shape on the ground surface of each feature in the three-dimensional map as in the frame F4 shown in FIG. In this embodiment, the plane frame data includes plane frame coordinates and plane representative point coordinates. The plane frame coordinates are a coordinate sequence of the vertices of the polygon corresponding to the plane frame. The plane representative point coordinates are coordinate values in a representative point three-dimensional space used for representing the position of the feature. The plane representative point coordinates can be arbitrarily set, but in this embodiment, the latitude and longitude of the center of gravity of the plane frame are used.
可視枠データおよび不可視枠データは、地物データが用意されている方位(図6参照)に対応した方位ごとに用意されている。可視枠データは、図2(a)に示した枠F2のように特定の視線方向から視認できる部分の形状を描くためのデータである。不可視枠データは、図2(a)に示した枠F3のように特定の視線方向から視認できない部分の形状を描くためのデータである。可視枠データおよび不可視枠データは、これらの枠を描くポリゴンの頂点の座標列とすることができる。枠データには、可視枠データおよび不可視枠データの他に、全体枠、即ち図2(a)に示す枠F1を描くためのデータを用意してもよい。 The visible frame data and the invisible frame data are prepared for each direction corresponding to the direction (see FIG. 6) for which the feature data is prepared. The visible frame data is data for drawing the shape of a portion that can be viewed from a specific line-of-sight direction like the frame F2 shown in FIG. The invisible frame data is data for drawing the shape of a portion that cannot be viewed from a specific line-of-sight direction like the frame F3 shown in FIG. The visible frame data and the invisible frame data can be a coordinate sequence of vertices of polygons that draw these frames. As the frame data, in addition to the visible frame data and the invisible frame data, data for drawing the entire frame, that is, the frame F1 shown in FIG. 2A may be prepared.
D.地物データ生成処理:
2次元画像データとしての地物データの生成処理について説明する。
図8は地物データ生成処理のフローチャートである。これは、データ生成装置100の平行投影部102(図3参照)が実行する処理であり、ハードウェア的には、データ生成装置100のCPUが実行する処理である。
処理を開始すると、データ生成装置100は、データを生成する対象となる対象メッシュおよび平行投影パラメータ、即ち投影方位および投影角度を入力する(ステップS100、S101)。これらの条件は、ユーザが入力するものとしてもよいし、予め設定しておいてもよい。
D. Feature data generation processing:
Processing for generating feature data as two-dimensional image data will be described.
FIG. 8 is a flowchart of the feature data generation process. This is a process executed by the parallel projection unit 102 (see FIG. 3) of the data generation apparatus 100, and is a process executed by the CPU of the data generation apparatus 100 in terms of hardware.
When the process is started, the data generation apparatus 100 inputs a target mesh for generating data and parallel projection parameters, that is, a projection direction and a projection angle (steps S100 and S101). These conditions may be input by the user or may be set in advance.
データ生成装置100は、ステップS100で指定された対象メッシュおよびその周辺所定範囲のメッシュから、3D地図データを読み込む(ステップS102)。
対象メッシュの周辺からもデータを読み込むのは、図5のメッシュM03、M04に示したように、平行投影で地物データを生成する場合、処理対象となるメッシュに対しては、そのメッシュ内に存在しない地物の一部が投影されることもあるからである。対象メッシュの周辺からもデータを読み込み、これらを合わせて平行投影することにより、他のメッシュに存在する地物も含む地物データを得ることが可能となる。
The data generation device 100 reads 3D map data from the target mesh specified in step S100 and a mesh in a predetermined range around the target mesh (step S102).
Data is also read from the periphery of the target mesh, as shown in meshes M03 and M04 in FIG. 5, when generating feature data by parallel projection, the mesh to be processed is included in the mesh. This is because a part of a feature that does not exist may be projected. By reading data also from the periphery of the target mesh and projecting them in parallel, it is possible to obtain feature data including features existing in other meshes.
こうしてデータの読み込みが完了すると、データ生成装置100は、これらを平行投影パラメータに基づいて平行投影し、2次元画像を生成する(ステップS103)。そして、平行投影で生成されたポリゴンデータから、対象メッシュに相当する領域を切り出し(ステップS104)、平行投影データをデータベースに格納する(ステップS105)。 When the data reading is thus completed, the data generation device 100 performs parallel projection based on the parallel projection parameters to generate a two-dimensional image (step S103). Then, an area corresponding to the target mesh is cut out from the polygon data generated by the parallel projection (step S104), and the parallel projection data is stored in the database (step S105).
E.枠データ生成処理:
2次元画像データとしての枠データの生成処理について説明する。本実施例では、まず各地物について全体枠のデータおよび可視枠のデータを生成し、これらに基づいて不可視枠のデータを生成する。また、これらの処理とは独立に、平面枠データの生成も行う。これらの処理は、地物単位で行われる処理である。
以下、全体枠、可視枠、不可視枠、平面枠の順にデータ生成処理の内容を説明する。それぞれの処理は、データ生成装置100の枠データ生成部106(図3参照)が実行し、ハードウェア的には、データ生成装置100のCPUが実行する。
E. Frame data generation processing:
A process for generating frame data as two-dimensional image data will be described. In the present embodiment, first, the data of the entire frame and the data of the visible frame are generated for each feature, and the data of the invisible frame is generated based on these data. Also, plane frame data is generated independently of these processes. These processes are processes performed in units of features.
Hereinafter, the contents of the data generation process will be described in the order of the entire frame, visible frame, invisible frame, and plane frame. Each processing is executed by the frame data generation unit 106 (see FIG. 3) of the data generation device 100, and is executed by the CPU of the data generation device 100 in terms of hardware.
E1.全体枠データ生成処理:
図9は、全体枠データ生成処理のフローチャートである。
データ生成装置100は、処理を開始すると、3D地図データベースから、処理対象となる地物の形状データを読み込む(ステップS110)。
そして、この形状データを各投影方位について平行投影する(ステップS111)。図中に平行投影結果を示した。この時点で、形状データは、3次元的に描かれた2次元の画像データとなる。
データ生成装置100は、この平行投影結果を単色で塗りつぶす(ステップS112)。図中に塗りつぶした結果を例示した。この状態で、平行投影データは、いわゆるベタ画像のような状態となる。
データ生成装置100は、塗りつぶされた形状の最外殻となる輪郭Fを抽出し、その重心位置CGを算出する(ステップS113)。こうして抽出された輪郭Fが全体枠となる。重心位置CGの算出は省略してもよい。
E1. Whole frame data generation processing:
FIG. 9 is a flowchart of the entire frame data generation process.
When starting the processing, the data generation device 100 reads shape data of the feature to be processed from the 3D map database (step S110).
The shape data is projected in parallel for each projection direction (step S111). The parallel projection results are shown in the figure. At this point, the shape data becomes two-dimensional image data drawn three-dimensionally.
The data generation device 100 paints this parallel projection result with a single color (step S112). The result of painting is illustrated in the figure. In this state, the parallel projection data is in a state like a so-called solid image.
The data generation device 100 extracts the outline F that is the outermost shell of the filled shape, and calculates the center-of-gravity position CG (step S113). The contour F thus extracted becomes the entire frame. The calculation of the center of gravity position CG may be omitted.
E2.可視枠データ生成処理:
図10は、可視枠データ生成処理のフローチャートである。
データ生成装置100は、処理を開始すると、3D地図データベースから、処理対象となるオブジェクトおよびその周辺の地物の形状データを読み込む(ステップS120)。オブジェクトとは、地物を表す3次元の形状データを意味する。
そして、データ生成装置は、この各オブジェクトの表面を異なる色で塗りつぶす(ステップS121)。図中に塗りつぶした例を示した。この例では、4つの地物O3D1〜O3D4の表面が異なる色で塗りつぶされている。もっとも、このように塗りつぶすのは、後述する通り可視枠に相当する形状を抽出しやすくするための処理であるから、必ずしも全てのオブジェクトを異なる色で塗りつぶす必要はない。処理対象のオブジェクトを特定の色で塗りつぶし、その他のオブジェクトはこれと異なる色であれば全てを同じ色で塗りつぶしてもよい。
データ生成装置100は、塗りつぶしが完了すると、これらのオブジェクトを各投影方位について平行投影する(ステップS122)。
データ生成装置100は、平行投影によって得られた画像から、処理対象となるオブジェクトの色と同一色の領域を抽出する(ステップS123)。図中に抽出例を示した。左上に示したのは、平行投影した結果である。ステップS121に示したオブジェクトO3D1〜O3D4を平行投影することにより、それぞれベタ画像O2D1〜O2D4が得られる。この中から、オブジェクトO3D4の色に対応する領域のみを抽出すれば、矢印O2D4に示すように、可視枠P4を得ることができる。また、オブジェクトO3D3の色に対応する領域のみを抽出すれば、矢印O2D3に示すように、可視枠P3を得ることができる。
E2. Visible frame data generation processing:
FIG. 10 is a flowchart of the visible frame data generation process.
When starting the processing, the data generation device 100 reads shape data of the object to be processed and the surrounding features from the 3D map database (step S120). An object means three-dimensional shape data representing a feature.
Then, the data generation device paints the surface of each object with a different color (step S121). A filled example is shown in the figure. In this example, the surfaces of the four features O3D1 to O3D4 are filled with different colors. However, the painting in this way is a process for facilitating the extraction of the shape corresponding to the visible frame as will be described later, and therefore it is not always necessary to paint all the objects with different colors. An object to be processed may be painted with a specific color, and all other objects may be painted with the same color as long as they are different colors.
When the filling is completed, the data generation device 100 projects these objects in parallel for each projection direction (step S122).
The data generation device 100 extracts an area having the same color as the color of the object to be processed from the image obtained by parallel projection (step S123). An example of extraction is shown in the figure. Shown in the upper left is the result of parallel projection. Solid images O2D1 to O2D4 are obtained by performing parallel projection on the objects O3D1 to O3D4 shown in step S121. If only the region corresponding to the color of the object O3D4 is extracted from this, the visible frame P4 can be obtained as shown by the arrow O2D4. If only the region corresponding to the color of the object O3D3 is extracted, the visible frame P3 can be obtained as shown by the arrow O2D3.
図11は、枠データの生成例を示す説明図である。図11(a)には地物データを平行投影した状態を示した。図11(b)は枠データ生成処理を施した状態を示している。図11(b)には、全地物の全体枠を示したが、枠データの生成処理は、地物単位で行われる。
図11(a)における地物B1、B2について、それぞれ図11(b)では、輪郭B1a、B2aとなっていることが分かる。地物B1の場合、他の地物によって隠される部分はないから、輪郭B1aが全体枠であると同時に、可視枠となる。地物B2の場合、右下の部分が一部、他の地物B3によって遮蔽されている。このことは、図11(b)においても、地物B2の輪郭B2aと、地物B3の輪郭B3aが一部で重なっていることからも確認できる。従って、地物B2については、可視枠は全体枠から地物B3との重なり部分を削った形状となる。可視枠の形状は、図10で説明した処理によって求められる。
FIG. 11 is an explanatory diagram of an example of generating frame data. FIG. 11A shows a state in which the feature data is projected in parallel. FIG. 11B shows a state in which the frame data generation process has been performed. FIG. 11B shows the entire frame of all the features, but the frame data generation processing is performed in units of features.
It can be seen that the features B1 and B2 in FIG. 11A are contours B1a and B2a in FIG. 11B, respectively. In the case of the feature B1, since there is no portion hidden by other features, the contour B1a is the entire frame and at the same time a visible frame. In the case of the feature B2, the lower right part is partially shielded by the other feature B3. This can also be confirmed from FIG. 11 (b) because the outline B2a of the feature B2 and the outline B3a of the feature B3 partially overlap. Therefore, for the feature B2, the visible frame has a shape obtained by removing the overlapping portion with the feature B3 from the entire frame. The shape of the visible frame is obtained by the process described with reference to FIG.
E3.不可視枠データ生成処理:
図12は、不可視枠データ生成処理のフローチャートである。
処理を開始すると、データ生成装置100は、対象となる地物の全体枠データを読み込む(ステップS130)。図中に全体枠FAを例示した。
次に、データ生成装置100は、対象となる地物の可視枠データを読み込む(ステップS131)。図中に可視枠FVを塗りつぶした状態で例示した。
そして、データ生成装置100は、全体枠と可視枠とを重ね合わせて、不可視枠データを設定する(ステップS132)。図中に示すように、全体枠FVに、可視枠FAを重ね合わせ、全体枠FVのうち、可視枠FAに含まれない部分FUVを抽出することによって不可視枠を設定することができる。不可視枠の設定は、例えば、全体枠FVおよび可視枠FAを所定の色で塗りつぶし、全体枠FVに可視枠FAを不透明な状態で上書きした上で、全体枠FVの色に対応する領域を抽出する方法をとることができる。
E3. Invisible frame data generation processing:
FIG. 12 is a flowchart of invisible frame data generation processing.
When the process is started, the data generation device 100 reads the entire frame data of the target feature (step S130). The whole frame FA is illustrated in the figure.
Next, the data generation device 100 reads the visible frame data of the target feature (step S131). In the figure, the visible frame FV is illustrated as being filled.
Then, the data generation device 100 sets the invisible frame data by superimposing the entire frame and the visible frame (step S132). As shown in the drawing, the invisible frame can be set by superimposing the visible frame FA on the entire frame FV and extracting a portion FUV not included in the visible frame FA from the entire frame FV. To set the invisible frame, for example, fill the entire frame FV and the visible frame FA with a predetermined color, overwrite the entire frame FV with the visible frame FA in an opaque state, and then extract an area corresponding to the color of the entire frame FV. You can take a method.
E4.平面枠データ生成処理:
図13は、平面枠データ生成処理のフローチャートである。
処理を開始すると、データ生成装置100は、3D地図データから、対象となるオブジェクトの平面形状を読み込む(ステップS140)。図中に示すように、オブジェクトOBJに対し、その地表面の形状BPが読み込まれる。3D地図データに、地表面の形状BPに対応するポリゴンが格納されている場合には、当該データを読み込めばよいし、かかるポリゴンが存在しない場合には、3D地図データから地表面形状BPの頂点に相当する座標を入力してもよい。
データ生成装置100は、読み込んだ底面形状を、図6で示した各投影方位について平行投影する(ステップS141)。3D地図データは、地表面の起伏も含む3次元データを有しているため、地表面上の形状であっても、平行投影前後で形状が変わる。こうして得られた形状が、平面枠データとなる。データ生成装置100は、得られた平面枠データの重心位置を代表点として算出する(ステップS142)。
E4. Plane frame data generation processing:
FIG. 13 is a flowchart of plane frame data generation processing.
When the process is started, the data generation device 100 reads the planar shape of the target object from the 3D map data (step S140). As shown in the drawing, the shape BP of the ground surface is read for the object OBJ. If polygons corresponding to the shape BP of the ground surface are stored in the 3D map data, the data may be read. If such polygons do not exist, the vertex of the ground surface shape BP is obtained from the 3D map data. Coordinates corresponding to may be input.
The data generation device 100 performs parallel projection of the read bottom surface shape for each projection direction shown in FIG. 6 (step S141). Since the 3D map data has 3D data including the undulations of the ground surface, the shape changes before and after parallel projection even if the shape is on the ground surface. The shape thus obtained becomes the plane frame data. The data generation device 100 calculates the position of the center of gravity of the obtained plane frame data as a representative point (step S142).
F.地図表示処理:
図14は、地図表示処理のフローチャートである。本実施例では、ナビゲーション装置300の主制御部304および表示制御部306が実行する処理であり、ハードウェア的にはナビゲーション装置300のCPUが実行する処理である。
F. Map display processing:
FIG. 14 is a flowchart of the map display process. In the present embodiment, the processing is executed by the main control unit 304 and the display control unit 306 of the navigation device 300, and is the processing executed by the CPU of the navigation device 300 in terms of hardware.
この処理では、まずCPUは、表示位置、方位、範囲の指定を入力する(ステップS350)。ユーザがキーボード等でこれらを指定するものとしてもよいし、GPSで得られる現在位置を表示位置として用いるものとしてもよい。
CPUは、従前の地図表示処理において既に取得しナビゲーション装置300内に保持されている地図情報から、指定に対応する地図情報を抽出する(ステップS351)。地図情報とは、地物データ、文字データ、ネットワークデータ、枠データなど、地図を表示するために必要となる種々のデータの総称である。
図に抽出の様子を示した。メッシュで区切られた地図情報MEのうち、ハッチングを付した部分が既にナビゲーション装置300に保持されている地図情報である。領域IAは、ユーザからの指定に対応する範囲を表している。この例では、保持されている地図情報のうち領域IAに重なる部分、つまりメッシュME3、ME4を除く部分が抽出されることになる。
領域IAと重複しないメッシュME3、ME4については、不要な情報として消去してもよいし、ナビゲーション装置300のメモリが許容する限り、残しておくようにしてもよい。
In this process, first, the CPU inputs designation of the display position, orientation, and range (step S350). The user may specify these with a keyboard or the like, or the current position obtained by GPS may be used as the display position.
CPU extracts the map information corresponding to designation | designated from the map information already acquired in the conventional map display process and hold | maintained in the navigation apparatus 300 (step S351). The map information is a general term for various data necessary for displaying a map such as feature data, character data, network data, frame data, and the like.
The state of extraction is shown in the figure. Of the map information ME delimited by the mesh, the hatched portion is the map information already held in the navigation device 300. An area IA represents a range corresponding to designation from the user. In this example, a portion that overlaps the area IA in the held map information, that is, a portion excluding the meshes ME3 and ME4 is extracted.
The meshes ME3 and ME4 that do not overlap with the area IA may be deleted as unnecessary information, or may be left as long as the memory of the navigation device 300 allows.
CPUは、抽出した地図情報では、地図を表示するのに不足する場合には(ステップS352)、サーバ200から不足部分の地図情報を取得する(ステップS353)。上述の例では、領域IAを表示するためには、メッシュME1、ME2が不足しているから、これらの地図情報が取得されることになる。 If the extracted map information is insufficient to display a map (step S352), the CPU acquires the map information of the insufficient part from the server 200 (step S353). In the above-described example, since the meshes ME1 and ME2 are insufficient to display the area IA, these pieces of map information are acquired.
こうして地図情報を取得し終えると、CPUは地物を表示する(ステップS354)。本実施例では、地物データは既に平行投影された後の2次元のポリゴンデータに過ぎないから、取得した地物データに従ってポリゴンを表示すれば3次元地図を表示することができる。
従来は3次元モデルを用いて、レンダリングと呼ばれる処理を行って透視投影図を作成し、3次元地図を表示していたため、レンダリングに要する処理負荷が非常に大きかったのに対し、本実施例では、非常に軽い負荷で3次元地図を表示可能となる大きな利点がある。
When the map information is thus acquired, the CPU displays the feature (step S354). In the present embodiment, the feature data is only two-dimensional polygon data that has already been projected in parallel, and therefore a three-dimensional map can be displayed by displaying polygons according to the acquired feature data.
Conventionally, a processing called rendering is performed using a three-dimensional model to create a perspective projection map and a three-dimensional map is displayed. Thus, the processing load required for rendering is very large. In this embodiment, There is a great advantage that a three-dimensional map can be displayed with a very light load.
G.座標変換:
経路案内時などにおいて、地図中に現在位置等を表示する場合や、ユーザが地図中で指定した点に対応する3次元座標を特定する場合などには、以下に示す通り、地表の起伏(アンジュレーション)を考慮した座標変換を施す必要がある。
図15は、アンジュレーションによる影響を示す説明図である。
図中の面A2Dは2次元地図における地表を表し、面A3Dは3次元地図における地表を表している。右側に示す通り、本実施例におけるネットワークデータ213、および地物データの生成に用いられる3D地図データベース110は、面A3Dに相当する3次元の情報を有するデータである。2次元平面A2D内のメッシュM2Dに対応する範囲は、起伏のあるメッシュM3Dに対応する。
面Apは平行投影による投影図を示している。矢印Vpjで示す方向に投影するため、2次元平面A2D内のメッシュM2Dに対応する範囲は、やや斜めにずれた位置のメッシュMP2となる。
一番下に示した面Agは、GPSで得られた緯度経度の座標面である。
G. Coordinate transformation:
When displaying the current position, etc. on the map at the time of route guidance, or when specifying the three-dimensional coordinates corresponding to the point specified by the user on the map, as shown below, Coordinate conversion that takes into account
FIG. 15 is an explanatory diagram showing the influence of undulation.
A plane A2D in the figure represents the ground surface in the two-dimensional map, and a plane A3D represents the ground surface in the three-dimensional map. As shown on the right side, the network data 213 and the 3D map database 110 used for generating the feature data in this embodiment are data having three-dimensional information corresponding to the plane A3D. The range corresponding to the mesh M2D in the two-dimensional plane A2D corresponds to the undulating mesh M3D.
A plane Ap shows a projection view by parallel projection. Since the projection is performed in the direction indicated by the arrow Vpj, the range corresponding to the mesh M2D in the two-dimensional plane A2D is the mesh MP2 at a slightly shifted position.
A plane Ag shown at the bottom is a latitude / longitude coordinate plane obtained by GPS.
例えば、現在位置が点P3D(x、y、z)のように3次元の位置座標で与えられた場合を考える。この座標は、2次元的には位置Cpg(緯度、経度)に対応し、2次元地図が表示される面A2Dでは、メッシュM2D内の点P2D(X、Y)に相当する。
点P3Dを平行投影すれば、面Ap上のメッシュMp2内の点Pp2に表示される。これに対し、点P3Dの3次元座標のうち、2次元の要素(X、Y)を、平行投影が施された座標値であると想定すると、面Ap内では、本来のメッシュMp2とは異なるメッシュMp1内の点Pp1に表示されてしまう。本来の点Pp2との誤差Vcが生じてしまうのである。
そこで、本実施例では、面Ap内で点P3Dに対して、誤差Vc分の移動に相当する座標変換を施すことにより、点P3Dを平行投影した状態での表示を実現した。
For example, consider a case where the current position is given by three-dimensional position coordinates such as a point P3D (x, y, z). This coordinate corresponds to the position Cpg (latitude, longitude) two-dimensionally, and corresponds to the point P2D (X, Y) in the mesh M2D on the plane A2D on which the two-dimensional map is displayed.
If the point P3D is projected in parallel, it is displayed at the point Pp2 in the mesh Mp2 on the surface Ap. On the other hand, assuming that the two-dimensional element (X, Y) of the three-dimensional coordinates of the point P3D is a coordinate value subjected to parallel projection, it is different from the original mesh Mp2 in the plane Ap. It will be displayed at the point Pp1 in the mesh Mp1. An error Vc from the original point Pp2 occurs.
Thus, in this embodiment, the display in the state in which the point P3D is projected in parallel is realized by performing coordinate conversion corresponding to the movement by the error Vc on the point P3D in the surface Ap.
図16は、アンジュレーションを考慮した座標変換方法を示す説明図である。図15で示した誤差Vcに相応するベクトルを求め、これを補正量として座標変換を行う。この意味で、以下、誤差Vcを補正ベクトルVcとも呼ぶ。
図中の矢印Vpjは平行投影の方向を示している。点P3Dは、この平行投影によって点Pp2に投影されるべきものとする。
点P3DのX、Y座標のみを用いて投影した結果は点Pp1であるから、誤差Vcは、点Pp1から点Pp2に向かうベクトルとなり、図中のベクトルVcに等しくなる。
FIG. 16 is an explanatory diagram showing a coordinate conversion method considering undulation. A vector corresponding to the error Vc shown in FIG. 15 is obtained, and coordinate conversion is performed using this as a correction amount. In this sense, hereinafter, the error Vc is also referred to as a correction vector Vc.
An arrow Vpj in the figure indicates the direction of parallel projection. The point P3D is assumed to be projected onto the point Pp2 by this parallel projection.
Since the result of projection using only the X and Y coordinates of the point P3D is the point Pp1, the error Vc is a vector from the point Pp1 to the point Pp2, and is equal to the vector Vc in the drawing.
補正ベクトルVcは、回転および平行移動を組み合わせたアフィン変換行列によって求めることができる。
点P3Dの高さを保持したまま、−X方向に平行移動するベクトルVc0に相当する変換行列を求める。投影角度Apを用いれば、ベクトルVc0の大きさは、点P3Dの高さzとtan(Ap)の積で表されるから、ベクトルVc0(Vc0x、Vc0y、Vc0z)は、次の通り表される。
Vc0x=−z×tan(Ap);
Vc0y=0;
Vc0z=0;
The correction vector Vc can be obtained by an affine transformation matrix that combines rotation and translation.
A transformation matrix corresponding to the vector Vc0 that translates in the −X direction is obtained while maintaining the height of the point P3D. If the projection angle Ap is used, the magnitude of the vector Vc0 is represented by the product of the height z of the point P3D and tan (Ap), and thus the vector Vc0 (Vc0x, Vc0y, Vc0z) is represented as follows. .
Vc0x = −z × tan (Ap);
Vc0y = 0;
Vc0z = 0;
補正ベクトルVcは、ベクトルVc0をz軸回りに投影方位(−Ay)だけ回転すればよい。従って、補正ベクトルVc(Vcx、Vcy、Vcz)は、次の通り表される。
Vcx=−z×tan(Ap)×cos(Ay);
Vcy= z×tan(Ap)×sin(Ay);
Vcz=0;
従って、P3Dを鉛直に投影した点Pp1に対して、上述の補正ベクトルVcを適用すれば点Pp2を求めることができる。補正ベクトルVcは、実質的には(Vcx、Vcy)の2次元ベクトルであるから、平行投影の投影面内で補正が可能である。
The correction vector Vc only needs to be rotated by the projection direction (−Ay) about the vector Vc0 about the z axis. Therefore, the correction vector Vc (Vcx, Vcy, Vcz) is expressed as follows.
Vcx = −z × tan (Ap) × cos (Ay);
Vcy = z × tan (Ap) × sin (Ay);
Vcz = 0;
Therefore, the point Pp2 can be obtained by applying the correction vector Vc described above to the point Pp1 obtained by projecting P3D vertically. Since the correction vector Vc is substantially a two-dimensional vector (Vcx, Vcy), it can be corrected within the projection plane of parallel projection.
上述の補正ベクトルVcは、y軸を北、x軸を東、z軸を高さ方向に定義し、北を0度として東、南、西、北の向きの角度で投影方位を表すものとした場合の値である。x、y、zおよび投影方位の定義に応じて、それぞれ適した変換式を用いる必要がある。
上述した座標変換の逆変換により、地表面上等の拘束条件を設ければ、平行投影後の2次元の座標を3次元の座標値に変換することもできる。
The correction vector Vc described above defines the y-axis as the north, the x-axis as the east, and the z-axis as the height direction. This is the value when In accordance with the definitions of x, y, z, and projection direction, it is necessary to use a suitable conversion formula.
If a constraint condition on the ground surface or the like is provided by the inverse transformation of the coordinate transformation described above, the two-dimensional coordinates after parallel projection can be converted into a three-dimensional coordinate value.
図17は、座標変換処理のフローチャートである。経路案内中であれば場合には、ナビゲーション装置300のマップマッチング変換部307(図3参照)が実行することになる。
処理を開始すると、ナビゲーション装置300は、平行投影パラメータAp(投影角度)、Ay(投影方位)を入力する(ステップS301)。そして、平行投影パラメータに基づいて座標変換行列を生成する(ステップS302)。行列の内容は、図16で説明した通りである。
FIG. 17 is a flowchart of the coordinate conversion process. If it is during route guidance, the map matching conversion unit 307 (see FIG. 3) of the navigation device 300 executes.
When the process is started, the navigation apparatus 300 inputs parallel projection parameters Ap (projection angle) and Ay (projection direction) (step S301). Then, a coordinate transformation matrix is generated based on the parallel projection parameters (step S302). The contents of the matrix are as described in FIG.
次に、ナビゲーション装置300は、座標変換の対象となる対象データを入力し(ステップS303)、図16で示した座標変換を施す(ステップS304)。 Next, the navigation device 300 inputs target data to be subjected to coordinate conversion (step S303), and performs the coordinate conversion shown in FIG. 16 (step S304).
F.経路案内処理:
F1.全体の処理:
図18は、経路案内処理のフローチャートである。左側にナビゲーション装置300の処理を示し、右側にサーバ200の処理を示した。これらは、図3に示した種々の機能ブロックが協同して実行する処理であり、ハードウェア的には、ナビゲーション装置300およびサーバ200のCPUが実行する処理である。
F. Route guidance process:
F1. Overall processing:
FIG. 18 is a flowchart of route guidance processing. The process of the navigation device 300 is shown on the left side, and the process of the server 200 is shown on the right side. These are processes executed by the various functional blocks shown in FIG. 3 in cooperation, and are executed by the CPU of the navigation device 300 and the server 200 in terms of hardware.
まず、ナビゲーション装置300のユーザが、経路探索の出発地、目的地を指定する(ステップS200)。出発地は、GPSで取得される現在位置を用いてもよい。目的地は、地物名称、住所、緯度経度の座標値など種々の方法で設定可能である。ナビゲーション装置300は、これらの指定結果をサーバ200に送信する。
出発地・目的地の設定は、ユーザが3次元地図の画面上の一点を指定することで行うこともできる。かかる方法で指定する場合の処理については、後述する。
First, the user of the navigation device 300 designates a starting point and a destination for route search (step S200). As the departure place, a current position acquired by GPS may be used. The destination can be set by various methods such as a feature name, an address, and a coordinate value of latitude and longitude. The navigation device 300 transmits these designation results to the server 200.
The setting of the departure point and the destination can also be performed by the user specifying one point on the screen of the three-dimensional map. The processing for designating by this method will be described later.
サーバ200は、出発地、目的地の指定を入力すると(ステップS280)、ネットワークデータ213(図3参照)を用いて経路探索を行う(ステップS281)。経路探索は、例えば、ダイクストラ法等を用いることができる。サーバ200は探索結果、即ち経路となるべきネットワークデータをナビゲーション装置300に出力する(ステップS282)。
経路探索処理は、必ずしもサーバ200で行う必要はなく、ナビゲーション装置300にネットワークデータを格納しておき、スタンドアロンで経路探索可能な構成としてもよい。
When the designation of the departure point and destination is input (step S280), the server 200 performs a route search using the network data 213 (see FIG. 3) (step S281). For the route search, for example, the Dijkstra method or the like can be used. The server 200 outputs the search result, that is, network data to be a route to the navigation device 300 (step S282).
The route search process is not necessarily performed by the server 200, and network data may be stored in the navigation device 300 so that the route search process can be performed stand-alone.
ナビゲーション装置300は、探索結果を受信すると(ステップS290)、以下の手順で経路案内を行う。
まず、ナビゲーション装置300は、ユーザの現在位置、進行方向を入力する(ステップS291)。現在位置は、GPSによって特定できる。進行方向は、従前の位置から現在位置までの変化に基づいて求めることができる。
次に、ナビゲーション装置300は表示範囲決定処理を行う(ステップS292)。この処理は、現在位置、進行方向に基づいて地図の表示範囲を決定する処理であり、次に示す手順で行うことができる。
ナビゲーション装置300は、まず進行方向に基づいて、地図の方位を決定する。本実施例では8方位に対して地物データが用意されているため、使用すべき方位を、進行方向に応じて選択するのである。各方位には、破線で示すように、それぞれ45度の角度領域を割り当てておき、ナビゲーション装置300は、これらの8つの角度領域から進行方向が含まれるものを選択するようにすればよい。角度領域は地物データが用意されている方位数に応じて決めることができる。16方位の地物データが用意されている場合には22.5度とすればよいし、4方位の場合には90度とすればよい。
When the navigation apparatus 300 receives the search result (step S290), the navigation apparatus 300 performs route guidance according to the following procedure.
First, the navigation device 300 inputs the current position and traveling direction of the user (step S291). The current position can be specified by GPS. The traveling direction can be obtained based on a change from the previous position to the current position.
Next, the navigation apparatus 300 performs display range determination processing (step S292). This process is a process for determining the display range of the map based on the current position and the traveling direction, and can be performed by the following procedure.
The navigation device 300 first determines the orientation of the map based on the traveling direction. In this embodiment, since feature data is prepared for eight directions, the direction to be used is selected according to the traveling direction. Each azimuth may be assigned an angle region of 45 degrees, as indicated by a broken line, and the navigation apparatus 300 may select one including the traveling direction from these eight angle regions. The angle region can be determined according to the number of directions in which the feature data is prepared. If feature data of 16 directions is prepared, it may be 22.5 degrees, and 90 degrees may be used in the case of 4 directions.
次に、ナビゲーション装置300は、探索結果および現在位置の座標変換処理を行う(ステップS300)。処理内容は、図15〜17で説明した通りである。
以上の処理が完了すると、ナビゲーション装置300は、指定された表示範囲に従って地図表示処理を実行する(ステップS350)。この処理内容は、先に図14で示した処理と同じである。
次に、ナビゲーション装置300は、現在位置を表示する(ステップS360)。現在位置の他に経路探索で得られた経路を表示してもよい。経路は、道路とは異なる色、線などで示してもよいし、進行すべき方向や曲がり角などに、矢印その他を表示してもよい。
ナビゲーション装置300は、ユーザが目的地に到着するまで(ステップS361)、ステップS220以降の処理を繰り返し実行し、経路案内を行う。
Next, the navigation apparatus 300 performs a coordinate conversion process of the search result and the current position (step S300). The processing contents are as described with reference to FIGS.
When the above processing is completed, the navigation device 300 executes map display processing according to the designated display range (step S350). The contents of this process are the same as those shown in FIG.
Next, the navigation device 300 displays the current position (step S360). In addition to the current position, a route obtained by route search may be displayed. The route may be indicated by a color, line, or the like different from that of the road, or an arrow or the like may be displayed in a direction to travel or a corner.
The navigation device 300 performs route guidance by repeatedly executing the processing from step S220 onward until the user arrives at the destination (step S361).
F3.出発地・目的地指定処理:
図19は、出発地・目的地指定処理のフローチャートである。ナビゲーション装置300の指定点特定分302Aが実行する処理であり、ハードウェア的にはナビゲーション装置300のCPUが実行する処理である。
出発地・目的地の指定は、地物名称、住所、緯度経度の座標値など種々の方法で設定可能であるが、ここでは、ユーザが3次元地図の画面上の一点を指定することで行う場合についての処理内容に絞って示している。
F3. Departure / Destination Designation Processing:
FIG. 19 is a flowchart of a departure / destination designation process. This is a process executed by the specified point identification portion 302A of the navigation device 300, and is a process executed by the CPU of the navigation device 300 in terms of hardware.
The origin and destination can be specified by various methods such as feature names, addresses, and latitude and longitude coordinate values. Here, the user designates a point on the 3D map screen. It shows only the processing contents for the case.
処理を開始すると、ナビゲーション装置300は、3次元地図が表示された画面上でユーザが指定した点の画面上での座標値を取得する(ステップS201)。
ナビゲーション装置300は、枠データを参照し、ステップS201で取得した座標値を含むオブジェクトを抽出する(ステップS202)。抽出されるオブジェクトは、一つとは限らず、2以上のオブジェクトが抽出されることもある。ユーザが指定した点は、抽出されたオブジェクトおよび地表面の地点のいずれかを表していると言える。
When the process is started, the navigation apparatus 300 acquires the coordinate value on the screen of the point designated by the user on the screen on which the three-dimensional map is displayed (step S201).
The navigation device 300 refers to the frame data and extracts an object including the coordinate value acquired in step S201 (step S202). The number of objects to be extracted is not limited to one, and two or more objects may be extracted. It can be said that the point designated by the user represents either an extracted object or a point on the ground surface.
ナビゲーション装置300は、ユーザが指定した可能性がある複数の地点、即ち抽出されたオブジェクトおよび地表面について、ユーザの意図を確認するための優先順位を設定する(ステップS203)。優先順位は、任意に設定可能であるが、本実施例では、可視枠→不可視枠→地表面の順という規則に従って、設定するものとした。不可視枠に対応するオブジェクトが複数存在する場合、それらの間での優先順位も任意に設定可能である。
図中に優先順位の設定例を示した。オブジェクトBLD4、BLD5および道路RDがある場合に、点Pbが指定された場合を考える。点Pbは、オブジェクトBLD4の可視枠に含まれ、オブジェクトBLD5の不可視枠に含まれるため、これらのオブジェクトを指している可能性がある。さらに、これらのオブジェクトの背後にある道路RD上の地点を指している可能性もある。そこで、この例では、ナビゲーション装置300は、オブジェクトBLD4、BLD5および地表の3通りの中で優先順位を設定することになる。
上述の通り、本実施例では、可視枠、不可視枠、地表の順に優先順位を設定するものとした。従って、図中に示す通り、オブジェクトBLD4、BLD5、地表の順に優先順位が設定されることになる。
The navigation device 300 sets priorities for confirming the user's intention with respect to a plurality of points that may be designated by the user, that is, the extracted objects and the ground surface (step S203). The priority can be set arbitrarily, but in this embodiment, the priority is set according to the order of visible frame → invisible frame → ground surface. When there are a plurality of objects corresponding to the invisible frame, the priority order among them can be arbitrarily set.
An example of setting the priority order is shown in the figure. Consider a case where a point Pb is specified when there are objects BLD4, BLD5 and a road RD. Since the point Pb is included in the visible frame of the object BLD4 and included in the invisible frame of the object BLD5, the point Pb may point to these objects. Furthermore, it may point to a point on the road RD behind these objects. Therefore, in this example, the navigation apparatus 300 sets priorities among the three types of the objects BLD4, BLD5, and the ground surface.
As described above, in this embodiment, the priority order is set in the order of the visible frame, the invisible frame, and the ground surface. Therefore, as shown in the figure, the priority order is set in the order of the objects BLD4, BLD5, and the ground surface.
ナビゲーション装置300は、こうして設定された優先順位に従い、選択状況表示を行う(ステップS204)。選択状況表示とは、ユーザが指定した可能性のある地点のうち、いずれが選択されているかをユーザが認識できるようにするための表示である。選択状況表示としては、例えば、選択されているオブジェクト等のオブジェクト枠を表示する方法を採ることができる。選択状況表示の例は、後で示す。
この状況で、ユーザが所定の切換操作を行うと(ステップS205)、ナビゲーション装置300は、優先順位に従い、順次、選択状況表示を切り換える(ステップS204)。ステップS203に示した例では、オブジェクトBLD4のオブジェクト枠が表示されている状態で、ユーザが切換操作を行うと、オブジェクトBLD5のオブジェクト枠が表示される。
こうして、ユーザの意図した地物等が選択されている状態になったときに、ユーザが決定操作を行うと(ステップS205)、ナビゲーション装置300は、その結果に応じて、選択地点の座標値を設定する(ステップS206)。決定操作は、決定ボタンを設けたり、いわゆるダブルクリックをするなど、任意に設定可能である。
選択地点の座標値の設定方法としては、例えば、地物が選択された場合には、平面枠データの重心位置を設定し、地表が選択された場合には指定された地点の座標値を設定する方法をとることができる。
ステップS206の処理で得られるのは、ユーザが指定した画面上の座標値である。そこで、ナビゲーション装置300は、この選択地点を座標変換して、3次元空間での位置座標を得る(ステップS207)。画面上の座標値と3次元空間での位置座標との間の座標変換は、図5〜7で説明した方法によって行うことができる。
The navigation device 300 displays the selection status according to the priority order set in this way (step S204). The selection status display is a display for allowing the user to recognize which one of the points that may have been designated by the user is selected. As the selection status display, for example, a method of displaying an object frame such as a selected object can be employed. An example of the selection status display will be shown later.
In this situation, when the user performs a predetermined switching operation (step S205), the navigation device 300 sequentially switches the selection status display according to the priority order (step S204). In the example shown in step S203, when the user performs a switching operation while the object frame of the object BLD4 is displayed, the object frame of the object BLD5 is displayed.
Thus, when the user performs a determination operation when the feature or the like intended by the user is selected (step S205), the navigation device 300 sets the coordinate value of the selected point according to the result. Setting is made (step S206). The determination operation can be arbitrarily set by providing a determination button or performing a so-called double click.
As a method for setting the coordinate value of the selected point, for example, when a feature is selected, the center of gravity of the plane frame data is set, and when the ground surface is selected, the coordinate value of the specified point is set. You can take a method.
What is obtained by the process of step S206 is a coordinate value on the screen designated by the user. Therefore, the navigation apparatus 300 performs coordinate conversion on the selected point to obtain position coordinates in the three-dimensional space (step S207). Coordinate conversion between the coordinate value on the screen and the position coordinate in the three-dimensional space can be performed by the method described with reference to FIGS.
F4.選択状況表示:
図20は、オブジェクト枠の表示態様切り換え例を示す説明図である。図20(a)には、地物Fが選択されている状態を示した。3次元地図において、ユーザが点Pを指定した場合、その点は、地物Fおよびその背後の道路の地点に対応している。点Pが地物Fに対応していることを示すための表示として、図20(a)では、地物Fのオブジェクト枠を表示している。ユーザの切り換え操作によって、点Pが地物Fではなく道路上の点に対応することとなった時には、地物Fのオブジェクト枠の表示を消す。いずれのオブジェクト枠も表示されていなければ、地表面が選択状況にあることを意味することになる。このようにオブジェクト枠の表示/非表示を切り換えることで、点Pがどの地点をさしているかを、ユーザが視覚的に容易に認識することが可能となる。
F4. Selection status display:
FIG. 20 is an explanatory diagram illustrating an example of switching the display mode of the object frame. FIG. 20A shows a state in which the feature F is selected. In the three-dimensional map, when the user designates a point P, the point corresponds to the feature F and the point of the road behind it. As a display for indicating that the point P corresponds to the feature F, the object frame of the feature F is displayed in FIG. When the user's switching operation causes the point P to correspond to a point on the road instead of the feature F, the object frame display of the feature F is erased. If no object frame is displayed, it means that the ground surface is in a selected state. By switching between display and non-display of the object frame in this way, the user can easily visually recognize which point the point P points to.
点Pがいずれの地点をさしているかを切り換える方法としては、種々の操作が考えられる。例えば、点Pにおいてユーザがクリック等をする度に、地物Fと地表上の点との間で、切り換えが生じるようにしてもよい。クリックに変えて、矢印a方向にドラッグまたはスワイプするようにしてもよい。
また選択状況の表示および切り換え操作の別の態様として、図20(b)に示すように、メニューを表示してもよい。かかる態様においても、同様にユーザのクリックやドラッグによって、順次、選択状況を切り換えることができる。直接、メニューの中からユーザが意図する点を選択可能としてもよい。
Various methods can be considered as a method of switching which point the point P points to. For example, every time the user clicks on the point P, a change may be made between the feature F and a point on the ground surface. Instead of clicking, it may be dragged or swiped in the direction of arrow a.
Further, as another aspect of the selection status display and switching operation, a menu may be displayed as shown in FIG. Also in this aspect, the selection status can be sequentially switched by the user clicking or dragging. The point intended by the user may be directly selectable from the menu.
F5.出発地・目的地指定処理の変形例:
変形例としての出発地・目的地の指定方法について説明する。ここでは、2次元地図と3次元地図の連携によって出発地・目的地を指定する例を示す。
図21は、オブジェクト枠の表示例を示す説明図である。上側に3次元地図V3Dを示し、下側に2次元地図V2Dを示した。まず、ユーザが2次元地図上で点PP2を指定したとする。2次元地図は画像データでしかないから、点PP2から地物を直ちに特定することはできない。
そこで、変形例では、点PP2を座標変換して、3次元地図V3D内における座標を求める。座標変換は、図5〜7で示した方法で行うことができる。点PP2を座標変換することで、3次元地図V3D内の点PP3aが得られたとする。3次元地図V3D内では、各地物に平面枠FP2が設定されているから、点PP3aが存在する平面枠FP2を検索することにより、点PP3aに対応する地物を特定することができる。
F5. Variations of the departure / destination designation process:
A starting point / destination specifying method as a modification will be described. Here, an example is shown in which a starting point and a destination are designated by cooperation between a two-dimensional map and a three-dimensional map.
FIG. 21 is an explanatory diagram illustrating a display example of an object frame. A three-dimensional map V3D is shown on the upper side, and a two-dimensional map V2D is shown on the lower side. First, it is assumed that the user designates the point PP2 on the two-dimensional map. Since the two-dimensional map is only image data, the feature cannot be immediately identified from the point PP2.
Therefore, in the modification, the coordinates of the point PP2 are converted to obtain the coordinates in the three-dimensional map V3D. Coordinate conversion can be performed by the method shown in FIGS. It is assumed that a point PP3a in the three-dimensional map V3D is obtained by coordinate conversion of the point PP2. Since the plane frame FP2 is set for each feature in the three-dimensional map V3D, the feature corresponding to the point PP3a can be specified by searching the plane frame FP2 where the point PP3a exists.
別の態様として、3次元地図V3Dで点を指定した場合、その点に対応する地物を2次元地図V2Dで確認可能としてもよい。例えば、3次元地図V3Dで、ユーザが可視枠FP3内の点PP3bを指定したとする。点PP3bが可視枠FP3に存在することから、オブジェクトが特定でき、これに対応する平面枠FP2および代表点PP3aの座標を特定することができる。この代表点PP3aを座標変換すれば、2次元地図V2Dにおける点PP2を特定することができ、ユーザが指定した点に対応する地物を2次元地図V2D上で特定することができる。 As another aspect, when a point is specified on the three-dimensional map V3D, a feature corresponding to the point may be confirmed on the two-dimensional map V2D. For example, assume that the user designates a point PP3b in the visible frame FP3 on the three-dimensional map V3D. Since the point PP3b exists in the visible frame FP3, the object can be specified, and the coordinates of the plane frame FP2 and the representative point PP3a corresponding to the object can be specified. If the representative point PP3a is coordinate-transformed, the point PP2 on the two-dimensional map V2D can be specified, and the feature corresponding to the point designated by the user can be specified on the two-dimensional map V2D.
図22は、変形例としての出発地・目的地指定処理のフローチャートである。図21で説明した処理のうち、2次元地図V2Dで指定された点に基づいて、地物を特定するための処理を示した。
処理を開始すると、ナビゲーション装置300は、2次元地図V2Dを表示する(ステップS210)。そして、ナビゲーション装置300は、2次元地図の画面上でユーザが指定した点の座標値を取得する(ステップS211)。
ナビゲーション装置300は、こうして得られた座標値を、座標変換し、3次元地図画面上の座標値を求める(ステップS212)。そして、座標値が属する平面枠データを検索し、オブジェクトを特定する(ステップS213)。
地物を特定すると、ナビゲーション装置300は、2次元地図表示から3次元地図表示に切り換え、特定された地物を強調表示する(ステップS214)。強調表示は、例えば、図21に示すように、地物とともにオブジェクト枠を表示する方法などをとることができる。ユーザが、決定のための操作を行えば(ステップS215)、ナビゲーション装置300は、特定された地物に対応する地点を採用し、この処理を終了する。決定のための操作を行わない場合には、ナビゲーション装置300は、新たな点を入力するため、ステップS210以降の処理を実行する。
FIG. 22 is a flowchart of a departure / destination designation process as a modified example. Of the processes described with reference to FIG. 21, a process for specifying a feature based on a point specified by the two-dimensional map V2D is shown.
When the process is started, the navigation device 300 displays the two-dimensional map V2D (step S210). And the navigation apparatus 300 acquires the coordinate value of the point which the user designated on the screen of a two-dimensional map (step S211).
The navigation device 300 performs coordinate conversion on the coordinate values obtained in this way to obtain the coordinate values on the three-dimensional map screen (step S212). Then, the plane frame data to which the coordinate value belongs is searched and the object is specified (step S213).
When the feature is specified, the navigation apparatus 300 switches from the two-dimensional map display to the three-dimensional map display, and highlights the specified feature (step S214). As the highlighting, for example, as shown in FIG. 21, a method of displaying an object frame together with a feature can be used. If the user performs an operation for determination (step S215), the navigation apparatus 300 adopts a point corresponding to the identified feature and ends this process. When the operation for determination is not performed, the navigation device 300 performs the processing after step S210 in order to input a new point.
G.効果および変形例:
以上で説明した本実施例の地点指定システムによれば、予め用意された2次元画像としての地物データを用いながら軽い負荷で3次元地図を表示しつつ、画面内でユーザが指定した点を特定することが可能となる。
地点指定システムは、必ずしも上述した実施例の全ての機能を備えている必要はなく、一部のみを実現するようにしてもよい。また、上述した内容に追加の機能を設けてもよい。
本発明は上述の実施例に限定されず、その趣旨を逸脱しない範囲で種々の構成を採ることができることはいうまでもない。例えば、実施例においてハードウェア的に構成されている部分は、ソフトウェア的に構成することもでき、その逆も可能である。
G. Effects and variations:
According to the point designation system of the present embodiment described above, a point designated by the user on the screen is displayed while displaying a three-dimensional map with a light load using feature data as a two-dimensional image prepared in advance. It becomes possible to specify.
The point designation system does not necessarily have all the functions of the above-described embodiments, and only a part may be realized. Moreover, you may provide an additional function in the content mentioned above.
Needless to say, the present invention is not limited to the above-described embodiments, and various configurations can be adopted without departing from the spirit of the present invention. For example, a part configured in hardware in the embodiment can be configured in software and vice versa.
本発明は、地物を3次元的に表現した3次元地図において地点を指定するために利用可能である。 The present invention can be used for designating a point in a three-dimensional map that represents a feature three-dimensionally.
100…データ生成装置
101…コマンド入力部
102…平行投影部
103…平行投影データ
110…3D地図データベース
105…送受信部
106…枠データ生成部
200…サーバ
201…送受信部
202…データベース管理部
203…経路探索部
210…地図データベース
211…地物データ
212…文字データ
213…ネットワークデータ
214…枠データ
300…ナビゲーション装置
301…送受信部
302…コマンド入力部
302A…指定点特定部
303…GPS入力部
304…主制御部
305…地図情報記憶部
306…表示制御部
307…マップマッチング変換部
DESCRIPTION OF SYMBOLS 100 ... Data generation apparatus 101 ... Command input part 102 ... Parallel projection part 103 ... Parallel projection data 110 ... 3D map database 105 ... Transmission / reception part 106 ... Frame data generation part 200 ... Server 201 ... Transmission / reception part 202 ... Database management part 203 ... Path | route Search unit 210 ... Map database 211 ... feature data 212 ... character data 213 ... network data 214 ... frame data 300 ... navigation device 301 ... transmission / reception unit 302 ... command input unit 302A ... designated point specifying unit 303 ... GPS input unit 304 ... main Control unit 305 ... Map information storage unit 306 ... Display control unit 307 ... Map matching conversion unit
Claims (8)
所定の投影方法によって前記地物の全てを平面上に投影した2次元表示データとしての地物データと、前記地物のそれぞれを前記投影方法によって前記平面上に投影した場合の全体または一部の形状または存在を表すオブジェクト枠を表示するための枠データとを格納する地図データベースと、
前記地物データを読み込んで3次元地図を表示する表示制御部と、
前記3次元地図内でユーザが指定した点の座標値を入力するコマンド入力部と、
前記指定した座標値に応じた前記枠データを特定し、該枠データに基づいて前記オブジェクト枠を表示するとともに、該枠データに対応した地点を、前記ユーザが指定した地点として特定する指定点特定部とを備える地点指定システム。 A point designation system for inputting designation of a specific point on the basis of a user instruction in a three-dimensional map representing a feature in three dimensions,
Feature data as two-dimensional display data obtained by projecting all of the features onto a plane by a predetermined projection method, and all or part of the features when each of the features is projected onto the plane by the projection method A map database for storing frame data for displaying an object frame representing a shape or presence;
A display control unit that reads the feature data and displays a three-dimensional map;
A command input unit for inputting coordinate values of points designated by the user in the three-dimensional map;
Specify the frame data according to the specified coordinate value, display the object frame based on the frame data, and specify a point corresponding to the frame data as a point specified by the user A point designation system comprising a department.
前記投影方法は、鉛直方向に対して所定の投影角度だけ傾けた斜め方向からの平行投影である地点指定システム。 The point designation system according to claim 1,
The projection method is a point designation system that is parallel projection from an oblique direction inclined by a predetermined projection angle with respect to a vertical direction.
前記指定点特定部は、前記座標値に対応する地点が複数存在する場合に、ユーザの操作に応じて、前記ユーザが指定した点を該複数の地点間で切り換えるとともに、前記オブジェクト枠の表示態様を切り換える地点指定システム。 The point designation system according to claim 1 or 2,
The designated point specifying unit switches the point designated by the user between the plurality of points according to a user operation when there are a plurality of points corresponding to the coordinate values, and displays the object frame. Point designation system for switching.
前記オブジェクト枠は、前記地物のうち前記3次元地図上に描かれる可視形状を表す可視枠と、他の地物によって遮蔽される部分の形状を表す不可視枠とを含み、
前記指定点特定部は、前記可視枠と前記不可視枠のうち、ユーザが指定した座標値が入る側を用いて前記オブジェクト枠の表示を行う地点指定システム。 The point designation system according to any one of claims 1 to 3,
The object frame includes a visible frame representing a visible shape drawn on the three-dimensional map of the features, and an invisible frame representing a shape of a portion shielded by other features,
The specified point specifying unit is a point specifying system that displays the object frame using a side where a coordinate value specified by a user enters between the visible frame and the invisible frame.
前記枠データは、さらに前記地物の地表面上の形状を表す平面枠を有すデータを有し、
前記コマンド入力部は、前記ユーザの指定に基づき、地表面上の地点を表す座標値を入力し、
前記指定点特定部は、前記座標値を含む前記平面枠を特定し、該平面枠を表示するとともに、該平面枠に対応した地物に基づいて、前記ユーザが指定した地点を特定する地点指定システム。 The point designation system according to any one of claims 1 to 4,
The frame data further includes data having a plane frame representing the shape on the ground surface of the feature,
The command input unit inputs a coordinate value representing a point on the ground surface based on the designation of the user,
The specified point specifying unit specifies the plane frame including the coordinate value, displays the plane frame, and specifies a point specified by the user based on a feature corresponding to the plane frame system.
前記地物の3次元形状を表す3次元モデルを記憶する3D地図データベースと、
前記3D地図データベースのうち前記枠データの生成対象となる地物を、前記所定の投影方法によって前記平面上に投影し、該投影された形状に基づいて、前記オブジェクト枠を表示するための前記枠データを生成する枠データ生成部とを備える枠データ生成システム。 A frame data generation system for generating frame data used in the point designation system according to claim 1,
A 3D map database storing a 3D model representing the 3D shape of the feature;
The frame for displaying the object frame based on the projected shape by projecting a feature on which the frame data is to be generated in the 3D map database onto the plane by the predetermined projection method. A frame data generation system comprising a frame data generation unit for generating data.
前記コンピュータは、所定の投影方法によって前記地物の全てを平面上に投影した2次元表示データとしての地物データと、前記地物のそれぞれを前記投影方法によって前記平面上に投影した場合の全体または一部の形状または存在を表すオブジェクト枠を表示するための枠データとを格納する地図データベースを備え、
前記地物データを読み込んで3次元地図を表示する工程と、
前記3次元地図内でユーザが指定した点の座標値を入力する工程と、
前記指定した座標値に応じた前記枠データを特定し、該枠データに基づいて前記オブジェクト枠を表示するとともに、該枠データに対応した地点を、前記ユーザが指定した地点として特定する工程とを備える地点指定方法。 A point designation method for inputting designation of a specific point on the basis of a user instruction in a three-dimensional map representing a feature three-dimensionally by a computer,
The computer includes feature data as two-dimensional display data obtained by projecting all of the features onto a plane by a predetermined projection method, and an entire case where each of the features is projected onto the plane by the projection method. Or a map database for storing frame data for displaying an object frame representing a part of shape or presence,
Reading the feature data and displaying a three-dimensional map;
Inputting coordinate values of points designated by the user in the three-dimensional map;
Identifying the frame data according to the designated coordinate value, displaying the object frame based on the frame data, and identifying a point corresponding to the frame data as a point designated by the user; A point designation method to prepare.
前記コンピュータは、所定の投影方法によって前記地物の全てを平面上に投影した2次元表示データとしての地物データと、前記地物のそれぞれを前記投影方法によって前記平面上に投影した場合の全体または一部の形状または存在を表すオブジェクト枠を表示するための枠データとを格納する地図データベースを備え、
前記コンピュータに、
前記地物データを読み込んで3次元地図を表示する機能と、
前記3次元地図内でユーザが指定した点の座標値を入力する機能と、
前記指定した座標値に応じた前記枠データを特定し、該枠データに基づいて前記オブジェクト枠を表示するとともに、該枠データに対応した地点を、前記ユーザが指定した地点として特定する機能とを実現させるためのコンピュータプログラム。 A computer program for inputting designation of a specific point on the basis of a user's instruction in a three-dimensional map in which features are three-dimensionally expressed by a computer,
The computer includes feature data as two-dimensional display data obtained by projecting all of the features onto a plane by a predetermined projection method, and an entire case where each of the features is projected onto the plane by the projection method. Or a map database for storing frame data for displaying an object frame representing a part of shape or presence,
In the computer,
A function of reading the feature data and displaying a three-dimensional map;
A function of inputting coordinate values of points designated by the user in the three-dimensional map;
A function of specifying the frame data corresponding to the specified coordinate value, displaying the object frame based on the frame data, and specifying a point corresponding to the frame data as a point specified by the user; Computer program for realizing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012025707A JP5883673B2 (en) | 2012-02-09 | 2012-02-09 | Point designation system in 3D map |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012025707A JP5883673B2 (en) | 2012-02-09 | 2012-02-09 | Point designation system in 3D map |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013161466A true JP2013161466A (en) | 2013-08-19 |
JP5883673B2 JP5883673B2 (en) | 2016-03-15 |
Family
ID=49173609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012025707A Expired - Fee Related JP5883673B2 (en) | 2012-02-09 | 2012-02-09 | Point designation system in 3D map |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5883673B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015087616A1 (en) * | 2013-12-13 | 2015-06-18 | 株式会社ジオ技術研究所 | Three-dimensional map display system and composite texture generation device |
CN105354878A (en) * | 2014-08-22 | 2016-02-24 | 北京协进科技发展有限公司 | Electronic map data making method and apparatus |
JP2019079255A (en) * | 2017-10-24 | 2019-05-23 | 清水建設株式会社 | Information communication system, information originator, and information receiver |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111260779B (en) * | 2018-11-30 | 2022-12-27 | 华为技术有限公司 | Map construction method, device and system and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002366974A (en) * | 2001-06-12 | 2002-12-20 | Hitachi Software Eng Co Ltd | Method for selecting and controlling object |
JP2007093661A (en) * | 2005-09-27 | 2007-04-12 | Alpine Electronics Inc | Navigation system and map display device |
JP2011186960A (en) * | 2010-03-11 | 2011-09-22 | Geo Technical Laboratory Co Ltd | Three-dimensional map drawing system |
-
2012
- 2012-02-09 JP JP2012025707A patent/JP5883673B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002366974A (en) * | 2001-06-12 | 2002-12-20 | Hitachi Software Eng Co Ltd | Method for selecting and controlling object |
JP2007093661A (en) * | 2005-09-27 | 2007-04-12 | Alpine Electronics Inc | Navigation system and map display device |
JP2011186960A (en) * | 2010-03-11 | 2011-09-22 | Geo Technical Laboratory Co Ltd | Three-dimensional map drawing system |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015087616A1 (en) * | 2013-12-13 | 2015-06-18 | 株式会社ジオ技術研究所 | Three-dimensional map display system and composite texture generation device |
JP2015114953A (en) * | 2013-12-13 | 2015-06-22 | 株式会社ジオ技術研究所 | Three-dimensional map display system and composite texture generation apparatus |
CN105354878A (en) * | 2014-08-22 | 2016-02-24 | 北京协进科技发展有限公司 | Electronic map data making method and apparatus |
JP2019079255A (en) * | 2017-10-24 | 2019-05-23 | 清水建設株式会社 | Information communication system, information originator, and information receiver |
Also Published As
Publication number | Publication date |
---|---|
JP5883673B2 (en) | 2016-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20130057550A1 (en) | Three-dimensional map drawing system | |
EP2428769B1 (en) | Generating a multi-layered geographic image and the use thereof | |
JP4858197B2 (en) | Information processing apparatus, image display apparatus, information processing system, information processing method, and program | |
CN102782729A (en) | Integrated Gis system with interactive 3D interface | |
US9549169B2 (en) | Stereoscopic map display system | |
JP5883818B2 (en) | 3D map display system | |
US9741164B2 (en) | 3D map display system | |
JP5883673B2 (en) | Point designation system in 3D map | |
JPH10207351A (en) | Navigation system and medium which stores navigation program using the system | |
JP2012150823A (en) | Three-dimensional map drawing system | |
JP5837841B2 (en) | 3D map display system | |
JP4099776B2 (en) | 3D model creation device, 3D model creation method, and 3D model creation program | |
JPH10207356A (en) | Navigation system and medium which stores navigation program using the system | |
KR20040055308A (en) | Texture mapping method of 3D feature model using the CCD line camera | |
JP2009020906A (en) | Map display device, method for specifying position on map, and computer program | |
KR100517590B1 (en) | System and method for processing three dimension data and recording medium having program for three dimension data processing function | |
JP5196426B2 (en) | Navigation device | |
CN111431953A (en) | Data processing method, terminal, server and storage medium | |
JP6091676B2 (en) | 3D map display system | |
JP6512425B2 (en) | 3D map display system | |
JP4017351B2 (en) | 3D model generation apparatus and 3D model generation program | |
JP5964611B2 (en) | 3D map display system | |
WO2024095356A1 (en) | Graphics generation device, graphics generation method, and program | |
JP2006221199A (en) | Three-dimensional map display device | |
JP2022018015A (en) | Information processing device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5883673 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |