[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR100735564B1 - 정보 매핑 장치, 시스템, 및 방법 - Google Patents

정보 매핑 장치, 시스템, 및 방법 Download PDF

Info

Publication number
KR100735564B1
KR100735564B1 KR1020050117175A KR20050117175A KR100735564B1 KR 100735564 B1 KR100735564 B1 KR 100735564B1 KR 1020050117175 A KR1020050117175 A KR 1020050117175A KR 20050117175 A KR20050117175 A KR 20050117175A KR 100735564 B1 KR100735564 B1 KR 100735564B1
Authority
KR
South Korea
Prior art keywords
information
image
dimensional model
camera
mapping
Prior art date
Application number
KR1020050117175A
Other languages
English (en)
Other versions
KR20070057561A (ko
Inventor
김재우
김기응
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020050117175A priority Critical patent/KR100735564B1/ko
Priority to US11/584,493 priority patent/US8121353B2/en
Publication of KR20070057561A publication Critical patent/KR20070057561A/ko
Application granted granted Critical
Publication of KR100735564B1 publication Critical patent/KR100735564B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 정보 매핑 장치, 시스템, 및 방법에 관한 것으로서, 본 발명의 실시예에 따른 정보 매핑 장치는, 특정 지역에서의 영상 정보 및 위치-시야 정보를 제공하는 정보 입력부; 상기 특정 지역 내의 구조물의 3 차원 모델 데이터를 저장하며, 상기 제공된 위치-시야 정보를 이용하여 상기 3 차원 모델 데이터로부터 2 차원 이미지를 생성하는 3 차원 모델 데이터베이스부; 상기 제공된 2 차원 이미지와 상기 영상 정보를 비교함으로써 상기 영상 정보를 분석하는 영상 처리부; 상기 분석된 상기 영상 정보를 참조하여, 상기 특정 지역 내의 구조물 관련 정보를 획득하는 관련 정보 획득부; 및 상기 제공된 영상 정보 상에 상기 구조물 관련 정보를 매핑한 결과를 출력하는 정보 매핑 처리부를 포함한다.
정보 매핑, 위성 항법 장치(GPS), 투시 투영법

Description

정보 매핑 장치, 시스템, 및 방법{Apparatus, system, and method for mapping information}
도 1은 본 발명의 실시예에 따른 정보 매핑 장치의 블럭 구성을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 정보 매핑 시스템의 블럭 구성을 나타내는 도면이다.
도 3은 본 발명의 실시예에 따른 정보 매핑 방법의 전체 흐름을 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 정보 매핑 방법 중 영상 및 위치-시야 정보와 2 차원 이미지를 제공받는 단계의 흐름을 나타내는 도면이다.
도 5는 본 발명의 실시예에 따른 정보 매핑 장치 중 관련 정보 획득부에 의해 획득된 구조물 관련 정보를 예시한 도면이다.
도 6은 본 발명의 실시예에 따른 정보 매핑 장치 중 영상 처리부에 의해 특정 지역의 영상 정보와 2 차원 이미지를 비교 분석하는 과정을 예시한 도면이다.
도 7은 본 발명의 실시예에 따른 정보 매핑 장치 중 정보 매핑 처리부에 의해 출력된 결과 이미지를 예시한 도면이다.
*도면의 주요 부분에 대한 설명*
100: 정보 입력부 200: 3 차원 모델 DB부
300: 영상 처리부 400: 관련 정보 획득부
500: 정보 매핑 처리부 1000: 휴대 단말
2000: 3 차원 모델 DB부 3000: 서버
본 발명은 정보 매핑 장치, 시스템, 및 방법에 관한 것으로서, 더욱 상세하게는, 특정 지역을 촬영한 영상 이미지를 분석하고 상기 특정 지역 내의 구조물 관련 정보를 획득하여 상기 영상 이미지 상에 매핑하여 결과를 출력하는, 정보 매핑 장치, 시스템, 및 방법에 관한 발명이다.
사용자가 평소에 잘 알지 못하는 생소한 장소에 위치하고 있는 경우에 주변의 구조물 등에 대한 정보를 얻고자 하는 경우가 있다. 특히, 인터넷 상에 존재하는 구조물 관련 정보를 실시간으로 파악하여 사용자가 목적하는 구조물 내의 상점을 찾아가거나 해당 상점에 대하여 다른 인터넷 사용자들이 남긴 의견을 참조하거나, 또는 특정 유적 건축물에 대해 남겨진 설명을 참조하거나 자신의 의견을 남기고 싶어하는 경우가 있다. 현재까지는 위성 항법 장치(Global Positioning System; 이하, GPS)와 무선 인터넷 접속 기능을 가진 휴대 단말기를 통해 정보를 획득하여 이러한 욕구를 해결하여 왔다. 즉, 무선 인터넷 기능과 GPS를 가진 휴대 단말기에 특정 지역의 지도를 표시하고 이 지도 위에 사용자가 관심을 가지는 구조 물(상점이나 회사나 유적지 등)에 대한 정보를 표기하는 방식을 이용한 것이다.
그러나, 사용자 자신의 현재 위치를 중심으로 주변에 대한 정보를 알아내기 위해 무선으로 인터넷에 접속하는 경우, 고층 건물이 많이 존재하는 도심 지역에서는 고층 건물 내에 수많은 기관이나 회사나 영업 주체들이 존재하여 하나의 고층 건물에 대해 수많은 정보가 집중되어 표시되므로 사용자가 원하는 특정 정보를 인식하기가 불편하다는 문제가 있다.
본 발명은 상기와 같은 문제점을 해결하기 위해 고안된 것으로서, 특정 지역을 촬영한 영상 이미지를 3 차원 모델 DB를 이용하여 비교 분석하고 상기 특정 지역 내의 구조물 관련 정보를 사용자의 요구 조건에 따라 획득하여 상기 영상 이미지 상에 매핑함으로써 사용자가 직관적으로 특정 지역에 관련된 정보를 전달받을 수 있는, 정보 매핑 장치, 시스템, 및 방법을 제공하는 데 있다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상술한 목적을 달성하기 위한 본 발명의 실시예에 따른 정보 매핑 장치는, 특정 지역에서의 영상 정보 및 위치-시야 정보를 제공하는 정보 입력부; 상기 특정 지역 내의 구조물의 3 차원 모델 데이터를 저장하고 있으며, 상기 정보 입력부로부터 상기 위치-시야 정보를 제공받아 상기 3 차원 모델 데이터로부터 2 차원 이미지를 생성하는 3 차원 모델 데이터베이스부; 상기 3 차원 모델 데이터베이스부로부터 상기 2 차원 이미지를 제공받고, 상기 정보 입력부로부터 상기 영상 정보를 제공받으며, 상기 제공받은 2 차원 이미지와 상기 영상 정보를 비교함으로써 상기 영상 정보를 분석하는 영상 처리부; 상기 영상 처리부에 의해 분석된 상기 영상 정보를 참조하여, 상기 특정 지역 내의 구조물에 관련된 정보인 구조물 관련 정보를 사용자의 명령에 의해 인터넷 상에서 또는 인터넷과 연결된 서버에서 획득하는 관련 정보 획득부; 및 상기 정보 입력부로부터 상기 영상 정보를 제공받으며, 상기 제공받은 영상 정보 상에 상기 관련 정보 획득부에 의해 획득된 상기 구조물 관련 정보를 매핑하여 결과를 출력하는 정보 매핑 처리부를 포함한다.
또한, 상술한 목적을 달성하기 위한 본 발명의 실시예에 따른 정보 매핑 시스템은, 특정 지역에서의 영상 정보 및 위치-시야 정보를 제공하는 정보 입력부를 포함하는 휴대 단말; 상기 특정 지역 내의 구조물의 3 차원 모델 데이터를 저장하고 있으며, 상기 정보 입력부로부터 상기 위치-시야 정보를 제공받아 상기 3 차원 모델 데이터로부터 2 차원 이미지를 생성하는 3 차원 모델 데이터베이스부; 상기 3 차원 모델 데이터베이스부로부터 상기 2 차원 이미지를 제공받고, 상기 정보 입력부로부터 상기 영상 정보를 제공받으며, 상기 제공받은 2 차원 이미지와 상기 영상 정보를 비교함으로써 상기 영상 정보를 분석하는 영상 처리부, 상기 영상 처리부에 의해 분석된 상기 영상 정보를 참조하여, 상기 특정 지역 내의 구조물에 관련된 정보인 구조물 관련 정보를 사용자의 명령에 의해 인터넷 상에서 또는 인터넷과 연결된 서버에서 획득하는 관련 정보 획득부; 및 상기 정보 입력부로부터 상기 영상 정보를 제공받으며, 상기 제공받은 영상 정보 상에 상기 관련 정보 획득부에 의해 획득된 상기 구조물 관련 정보를 매핑하여 결과를 상기 휴대 단말로 전송하는 정보 매핑 처리부를 포함하는 서버를 포함하며, 상기 휴대 단말은 상기 서버로부터 상기 결과를 전송받아 디스플레이한다.
또한, 상술한 목적을 달성하기 위한 본 발명의 실시예에 따른 정보 매핑 방법은, (a) 특정 지역에서의 영상 정보 및 위치-시야 정보를 제공받고, 상기 특정 지역 내의 구조물의 3 차원 모델 데이터를 저장하고 있는 3 차원 모델 데이터베이스부로부터 상기 3 차원 모델 데이터의 2 차원 이미지를 제공받는 단계; (b) 상기 제공받은 2 차원 이미지와 상기 제공받은 영상 정보를 비교함으로써 상기 영상 정보를 분석하는 단계; (c) 상기 분석된 영상 정보를 참조하여 상기 구조물에 관련된 정보인 구조물 관련 정보를 사용자의 명령에 의해 인터넷 상에서 또는 인터넷과 연결된 서버에서 획득하는 단계; 및 (d) 상기 제공받은 영상 정보 상에 상기 획득된 구조물 관련 정보를 매핑하여 결과를 출력하는 단계를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 본 발명의 바람직한 실시예들을 설명하기 위한 블럭도 또는 흐름도들을 참조하여 보다 상세히 설명한다.
도 1은 본 발명의 실시예에 따른 정보 매핑 장치의 블럭 구성을 나타내는 도면이다. 상기 도 1을 참조하면, 상기 정보 매핑 장치는, 정보 입력부(100), 3 차원 모델 데이터베이스부(200), 영상 처리부(300), 관련 정보 획득부(400) 및 정보 매핑 처리부(500)를 포함한다.
정보 입력부(100)는 사용자가 존재하는 현재의 특정 지역을 촬영한 이미지의 영상 정보를 카메라를 통해서 입력받고, 상기 사용자가 현재 위치한 곳의 위치-시야 정보를 여러 종류의 감지 센서 등을 통해 입력받아 영상 처리부(300) 또는 3 차원 모델 데이터베이스부(200)로 제공하는 역할을 한다. 여기서, 정보 입력부(100)는 상기 특정 지역을 촬영하여 영상 정보를 검출하는 카메라를 기본적으로 포함하며, 그 외의 위치-시야 정보를 여러 종류의 센서를 통해서 입력받는데, 상기 사용자가 촬영하는 카메라의 위치 정보는 GPS 수신기를 통해, 상기 카메라가 촬영을 위하여 향하고 있는 방향 정보는 지자기 센서를 통해, 지평면에 대한 상기 카메라의 각도 정보는 자이로 센서를 통해, 상기 카메라의 고도 정보는 고도계 센서를 통해 검출하게 된다. 바람직하게는, 정보 입력부(100)가 상기의 모든 센서를 다 구비하는 것이 좋지만, 실제 발명의 구현 과정에서는 일부의 센서가 구비되지 않는 경우나 일부의 센서가 오작동되어 노이즈가 발생되는 경우도 상정할 수 있다. 이러한 경우에는 보정 알고리즘을 이용한 보정이 필요한데, 일반적으로 다이나믹 베이시언 네트워크(Dynamic Bayesian Network) 알고리즘을 사용하여 시간적으로 앞선 이전의 측정값으로부터 현재의 실제 값의 분포를 유추하여 상기 정보들을 검출하게 된다. 상기 알고리즘은 공지의 기술이므로 본 발명에서는 상세한 설명을 생략하기로 한 다. 상기와 같은 센서들 또는 상기 알고리즘을 이용하여 검출된 정보들로부터 상기 사용자가 위치한 곳의 위치-시야 정보를 검출해 낼 수 있는 것이다.
즉, 상기와 같은 방식으로 검출되어 획득된 상기 위치 정보, 상기 방향 정보, 상기 각도 정보 및 상기 고도 정보를 이용하여 사용자의 카메라에 대한 전체 좌표계 상에서의 좌표 정보 (X, Y, Z) 및 국부 좌표계(local coordinate) 상에서의 좌표 정보 (U, V, W)를 산출하고 상기 좌표 정보로부터 상기 위치-시야 정보를 검출하여 상기 카메라에 의해 검출된 특정 지역의 영상 정보와 함께 영상 처리부(300)로 제공하게 된다. 이때, 영상 처리부(300)는 정보 입력부(100)에 의해 제공받은 상기 정보들 중 상기 위치-시야 정보를 3 차원 모델 데이터베이스부(200)로 전달하게 된다. 또는, 정보 입력부(100)가 상기 위치-시야 정보를 영상 처리부(300)를 거치지 않고 3 차원 모델 데이터베이스부(200)로 직접 전달할 수도 있다.
3 차원 모델 데이터베이스부(200)는 영상 처리부(300) 또는 정보 입력부(100)로부터 상기 전체 좌표계 및 국부 좌표계 상의 좌표 정보인 상기 위치-시야 정보를 제공받아서 3 차원 모델 데이터로부터 2 차원 이미지를 생성하여 영상 처리부(300)로 다시 전송하는 역할을 한다. 3 차원 모델 데이터베이스부(200)는 상기 특정 지역 내에 존재하는 구조물의 3 차원 모델 데이터를 저장하고 있는데, 종래의 공지 기술을 통해 미리 확보해 놓은 각종 건물이나 도로나 유적지 또는 나무 등에 대한 3 차원 모델의 집합이라고 할 수 있다. 이러한 상기 3 차원 모델 데이터는 건물이나 도로 같은 구조물에 대한 GPS 정보, 우편 주소 및 구조물 이름 등을 포함하는 속성(attribute) 정보를 함께 가지고 있으며, 상기 구조물에 대한 실사 이미 지가 텍스쳐 매핑(texture mapping)되어 있는 데이터들로 구성된다.
한편, 3 차원 모델 데이터베이스부(200)가 상기 3 차원 모델 데이터로부터 상기 2 차원 이미지를 생성하는 방법으로는 컴퓨터 그래픽에서 주로 사용되는 투시 투영법(Perspective Projection)을 사용하게 된다. 투시 투영법은 시점(視点)을 정점(頂点)으로 하여 스크린을 통하여 넓어지는 시야의 중심에 있는 물체의 상대적인 크기를 고려하는 방법으로서, 원근감의 표현이 가능하며, 대표적인 방법으로는 Z-Buffer 법과 레이 트레이싱(Ray Tracing)법이 사용된다.
영상 처리부(300)는 3 차원 모델 데이터베이스부(200)로부터 제공받은 상기 3 차원 모델 데이터의 2 차원 이미지와 정보 입력부(100)로부터 제공받은 상기 특정 지역의 영상 정보를 비교함으로써 상기 영상 정보를 분석하는 역할을 한다. 이러한 상기 2 차원 이미지와 상기 특정 지역의 영상 정보를 비교하는 과정을 나타내는 것이 도 6에 나타나 있는바, 상기 도 6은 본 발명의 실시예에 따른 영상 처리부(300)에 의해 특정 지역의 영상 정보(610)와 2 차원 이미지(620)를 비교 분석하는 과정을 예시한 도면이다. 상기 도 6에서 알 수 있듯이, 영상 처리부(300)는, 상기 전송받은 2 차원 이미지(620)와 정보 입력부(100)로부터 제공받은 상기 특정 지역의 영상 정보(610)를 영상 이미지 분석 방법을 통해 비교하고, 상기 비교 결과, 영상 정보(610) 내의 구조물들이 어떤 건축 구조물인지를 알아 내게 된다. 그리고, 상기 영상 정보(610) 내의 특정 지역을 상기 구조물을 기준으로 구획하고 구획된 영역마다 상기 구조물의 속성 정보를 매핑하게 된다. 여기서의 속성 정보란 상술하였듯이, 상기 특정 영역 내의 건물이나 도로 같은 구조물에 대한 'GPS 정보', ' 우편 주소' 및 '구조물 이름' 등을 포함하는 정보를 의미하는데, 영상 처리부(300)의 영상 이미지 분석 방법을 통해 상기 구조물마다 상기 속성 정보를 매핑하는 것이다.
한편, 상기 영상 이미지 분석 방법으로서 주로 패턴 매칭법이 사용되는데, 상기 방법은 사용자가 찍은 상기 영상 정보(610)와 3 차원 모델 데이터베이스부(200)로부터 제공받은 상기 2 차원 이미지(620) 모두 모서리 검출(Edge Detection)을 거친 후에 상호간 패턴 매칭(Pattern Matching)을 하는 방법으로서, 최소 특징 거리 비교(Minimum Feature Distance Comparison) 방법이 대표적이다.
관련 정보 획득부(400)는 영상 처리부(300)에 의해 분석된 상기 특정 지역의 영상 정보(610)를 참조하여 상기 특정 지역 내의 구조물에 관련된 정보인 구조물 관련 정보를 획득하는 역할을 한다. 상기 구조물 관련 정보는 상기 구조물 자체 또는 상기 구조물 내부에 존재하는 구성 주체인 상점이나 회사나 음식점 등에 관련된 인터넷 상의 인식 정보 또는 인터넷 사용자들이 홈페이지의 게시판이나 의견란에 남긴 정보를 포함하는데, 사용자가 상기 구조물 관련 정보에 대하여 요구하는 사항을 메뉴 선택 수단 또는 문자 입력 수단을 통해 입력하게 되면, 관련 정보 획득부(400)는 정보 검색용 로봇 엔진을 사용하여 인터넷 상에서 또는 인터넷에 연결된 서버에서 획득할 수 있다.
상기 구조물 관련 정보를 나타낸 것이 도 5인데, 상기 도 5는 본 발명의 실시예에 따른 관련 정보 획득부(400)에 의해 획득된 구조물 관련 정보를 예시한 도면이다. 상기 도 5를 참조하면, "갑을 빌딩"과 "남대문"이라는 구조물에 대한 속성 정보인 '구조물 이름'과 '우편 주소'와 'GPS 위치' 정보가 영상 처리부(300)의 영상 이미지 분석 방법에 의해 제공되어 있으며, '구조물 내 상점', '상점 정보', '남긴 글', '구조물 내 회사' 등과 같은 구조물 관련 정보가 관련 정보 획득부(400)에 의해 획득된 것을 알 수 있다.
정보 매핑 처리부(500)는 정보 입력부(100)로부터 제공받은 영상 정보(610) 상에 상기 획득된 구조물 관련 정보를 매핑하여 결과를 출력하는 역할을 한다. 이를 나타낸 것이 도 7인 바, 상기 도 7은 본 발명의 실시예에 따른 정보 매핑 처리부(500)에 의해 출력된 결과 이미지를 예시한 도면이다. 상기 도 7을 참조하면, 사용자가 촬영한 영상 정보(610) 위에 구조물 관련 정보들, 즉, 식당의 메뉴 정보, 영업 시간 정보, 가격 정보 등이 매핑되어 출력되고 있음을 알 수 있다. 예를 들어, 사용자의 요구 사항이 태국 음식점 관련 정보인 경우에는, 특정 태국 음식점이 존재하는 빌딩 영역 위에 태국 음식점의 관련 정보를 표시하고, 사용자가 모바일 쿠폰과 같은 특수한 처리를 요구하거나 관련 홈페이지를 직접 방문하기를 원하는 경우, 또는 이전 사용자들이 홈페이지에 남긴 글을 검색하거나 자신이 직접 홈페이지에 글을 남기고자 하는 경우에는 관련 정보 획득부(400)에서 얻은 인터넷 홈페이지 주소 정보가 상기 도 7에 매핑되어 표시되며, 상기 사용자는 상기 홈페이지 주소를 활용하여 태국 음식점의 홈페이지로 연결을 시킬 수 있는 것이다.
한편, 상술한 바와 같이 정보 매핑 장치의 모든 구성 요소를 휴대용 단말 기기 내에 구비하고 관련 정보 획득부(400)에 의한 구조물 관련 정보의 검색의 경우에만 검색 엔진 로봇을 인터넷으로 보내는 실시예에 대해 설명하였다. 그런데, 상기의 방식과 달리 정보 입력부(100)를 휴대용 단말로 별도로 구현하고, 영상 처리 부(300)와 관련 정보 획득부(400)와 정보 매핑 처리부(500)는 별도의 서버로 구성할 수도 있다. 이러한 실시예가 도 2에 나타나 있는 바, 상기 도 2는 본 발명의 실시예에 따른 정보 매핑 시스템의 블럭 구성을 나타내는 도면이다.
상기 도 2를 참조하면, 휴대 단말(1000), 3 차원 모델 DB부(2000) 및 서버(3000)를 포함하고 있다. 휴대 단말(1000)은 특정 지역의 영상 정보 및 위치-시야 정보를 제공하는 역할을 하는데, 상기 도 1에서의 정보 입력부(100)와 동일한 역할을 한다고 볼 수 있다.
3 차원 모델 데이터베이스부(2000)는 상기 특정 지역 내의 구조물의 3 차원 모델 데이터를 저장하고 있으며, 역시 상기 도 1에서의 3 차원 모델 DB부(200)와 동일한 역할을 하므로 상세한 설명은 생략하기로 한다.
서버(3000)는 3 차원 모델 데이터베이스부(2000)로부터 제공받은 상기 3 차원 모델 데이터의 2 차원 이미지와 휴대 단말(1000) 내의 정보 입력부(100)로부터 제공받은 상기 영상 정보를 비교함으로써 상기 영상 정보를 분석하는 영상 처리부(300), 영상 처리부(300)에 의해 분석된 상기 영상 정보를 참조하여 상기 특정 지역 내의 구조물에 관련된 구조물 관련 정보를 획득하는 관련 정보 획득부(400), 및 정보 입력부(100)로부터 제공받은 영상 정보 상에 관련 정보 획득부(400)에 의해 획득된 상기 구조물 관련 정보를 매핑하여 결과를 휴대 단말(1000)로 전송하는 정보 매핑 처리부(500)를 포함한다. 상기 휴대 단말(1000)은 서버(3000)의 정보 매핑 처리부(500)로부터 상기 결과 이미지를 전송받아 디스플레이하게 된다. 한편, 상기 도 2와 같은 방식은 사용자의 휴대 단말(1000)과 서버(3000)와 3 차원 모델 DB부(2000)를 구성 요소로 하는 시스템이라는 점을 제외하면, 상기 도 1의 방식과 동일하므로, 정보 매핑 시스템을 구성하는 각 구성 요소의 구체적인 역할에 대해서는 상기 도 1의 방식에서의 설명 내용과 동일하므로 여기서는 설명을 생략하기로 한다.
한편, 상기와 같은 본 발명의 실시예에서 사용되는 '~부'라는 용어, 즉 '~모듈' 또는 '~테이블' 등은 소프트웨어, FPGA(Field Programmable Gate Array) 또는 주문형 반도체(Application Specific Integrated Circuit, ASIC)와 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 기능들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 모듈은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 모듈들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 모듈들은 디바이스 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
이제, 도 3과 도 4를 참조하여 정보 매핑 방법의 흐름을 시간적 순서대로 살펴보기로 한다. 도 3은 본 발명의 실시예에 따른 정보 매핑 방법의 전체 흐름을 나타내는 도면이며, 도 4는 본 발명의 실시예에 따른 정보 매핑 방법 중 영상 및 위치-시야 정보와 2 차원 이미지를 제공받는 단계의 흐름을 나타내는 도면이다.
먼저, 특정 지역의 영상 정보 및 위치-시야 정보를 제공받고, 상기 특정 지역 내의 구조물의 3 차원 모델 데이터를 저장하고 있는 3 차원 모델 데이터베이스부로부터 상기 3 차원 모델 데이터의 2 차원 이미지를 제공받는 단계(S100)를 수행하게 되는데, 이러한 단계는 상기 도 4를 참조하여 상세히 설명하기로 한다.
즉, 카메라에 의해 사용자가 존재하는 특정 지역을 촬영하고 촬영한 이미지인 영상 정보(610)를 정보 입력부(100) 또는 이를 포함하고 있는 휴대 단말(1000)로부터 영상 처리부(300)가 제공받게 된다(S102). 정보 입력부(100) 또는 이를 포함하고 있는 휴대 단말(1000)은 GPS 수신기에 의해 상기 카메라의 위치 정보를 검출하고, 지자기 센서에 의해 상기 카메라가 촬영을 위하여 향하고 있는 방향 정보를 검출하고, 자이로 센서에 의해 지평면에 대한 상기 카메라의 각도 정보를 검출하고, 고도계 센서에 의해 상기 카메라의 고도 정보를 검출함으로써, 상기 카메라에 대한 전체 좌표계 및 국부 좌표계 상에서의 위치-시야 정보를 검출하며(S104), 상기 검출된 위치-시야 정보를 3 차원 모델 DB부(200, 2000)로 전송하고, 이를 전송받은 3 차원 모델 DB부(200, 2000)는 상기 위치-시야 정보를 이용하여 상기 3 차원 모델 데이터로부터 2 차원 이미지(620)를 생성하고, 상기 생성된 2 차원 이미지(620)를 영상 처리부(300)로 제공하게 된다(S106). 여기서, 상기 3 차원 모델 데이터는, 상기 구조물에 대한 GPS 정보, 우편 주소 및 구조물 이름 등을 포함하는 속성 정보를 가지고 있으며, 상기 구조물에 대한 실사 이미지가 텍스쳐 매핑되어 있는 데이터이다.
영상 처리부(300)는 상기 제공받은 2 차원 이미지(620)와 상기 특정 지역의 영상 정보(610)를 비교함으로써 상기 특정 지역의 영상 정보(610)를 분석하는 단계(S200)를 수행하는데, 바람직하게는, 상기 제공받은 2 차원 이미지(620)와 상기 특정 지역의 영상 정보(610)를 영상 이미지 분석 방법을 통해 비교하고, 상기 비교 결과 상기 특정 지역을 상기 구조물을 기준으로 구획하고 구획된 영역마다 상기 구조물의 속성 정보를 매핑함으로써 상기 영상 정보를 분석하는 단계(S200)를 수행한다.
그리고, 관련 정보 획득부(400)는 상기 분석된 영상 정보를 참조하여 상기 특정 지역 내의 구조물에 관련된 정보인 구조물 관련 정보를 획득하는 단계(S300)를 수행하게 되는데, 바람직하게는, 사용자의 메뉴 선택 수단 또는 문자 입력 수단에 의해 상기 구조물 관련 정보를 정보 검색용 로봇 엔진을 사용하여 인터넷 상에서 획득하는 단계를 수행한다. 상기 구조물 관련 정보는 상기 구조물 자체 또는 상기 구조물 내부에 존재하는 구성 주체에 관련된 인터넷 상의 인식 정보 또는 인터넷 사용자들이 남긴 정보를 포함하는 개념이다.
마지막 과정으로서, 정보 매핑 처리부(500)는 상기 제공받은 영상 정보 상에 상기 획득된 구조물 관련 정보를 매핑하여 결과를 출력하는 단계(S400)를 수행하게 된다.
한편, 본 발명의 실시예에 따른 정보 매핑 장치의 권리 범위는 상기와 같은 방법을 컴퓨터에서 실행하기 위한 프로그램 코드를 기록한 컴퓨터로 읽을 수 있는 기록 매체에도 미침은 당업자에게 자명하다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 벗어나지 않는 범위 내에서 여러 가지로 치환, 변형 및 변경이 가능하므로 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고, 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
본 발명의 실시예에 따른 정보 매핑 장치, 시스템, 및 방법에 따르면, 사용자가 위치하고 있는 특정 지역 내의 구조물 관련 정보를 사용자의 요구 조건에 따라 획득하여 사용자가 촬영한 영상 이미지 상에 매핑함으로써 사용자가 직관적으로 특정 지역에 관련된 정보를 전달받을 수 있는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.

Claims (27)

  1. 특정 지역에서의 영상 정보 및 위치-시야 정보를 제공하는 정보 입력부;
    상기 특정 지역 내의 구조물의 3 차원 모델 데이터를 저장하며, 상기 제공된 위치-시야 정보를 이용하여 상기 3 차원 모델 데이터로부터 2 차원 이미지를 생성하는 3 차원 모델 데이터베이스부;
    상기 제공된 2 차원 이미지와 상기 영상 정보를 비교함으로써 상기 영상 정보를 분석하는 영상 처리부;
    상기 분석된 상기 영상 정보를 참조하여, 상기 특정 지역 내의 구조물 관련 정보를 사용자의 명령에 의해 인터넷 상에서 또는 인터넷과 연결된 서버에서 획득하는 관련 정보 획득부; 및
    상기 제공된 영상 정보 상에 상기 구조물 관련 정보를 매핑한 결과를 출력하는 정보 매핑 처리부를 포함하는, 정보 매핑 장치.
  2. 제 1 항에 있어서,
    상기 정보 입력부는,
    상기 특정 지역을 촬영하여 상기 영상 정보를 검출하는 카메라; 및
    상기 카메라에 대한 전체 좌표계 및 국부 좌표계 상에서의 상기 위치-시야 정보를 검출하는 소정 센서를 포함하며,
    상기 검출된 영상 정보 및 위치-시야 정보를 상기 영상 처리부로 제공하는, 정보 매핑 장치.
  3. 제 2 항에 있어서,
    상기 소정 센서는,
    상기 카메라의 위치 정보를 검출하는 GPS 수신기, 상기 카메라가 촬영을 위하여 향하고 있는 방향 정보를 검출하는 지자기 센서, 지평면에 대한 상기 카메라의 각도 정보를 검출하는 자이로 센서 및 상기 카메라의 고도 정보를 검출하는 고도계 센서 중 적어도 하나 이상을 포함하는, 정보 매핑 장치.
  4. 제 3 항에 있어서,
    상기 3 차원 모델 데이터는,
    상기 구조물에 대한 GPS 정보, 우편 주소 및 구조물 이름 등을 포함하는 속성 정보를 가지고 있으며, 상기 구조물에 대한 실사 이미지가 텍스쳐 매핑되어 있는 데이터인, 정보 매핑 장치.
  5. 제 4 항에 있어서,
    상기 3 차원 모델 데이터베이스부는,
    상기 영상 처리부로부터 상기 위치-시야 정보를 제공받아 상기 3 차원 모델 데이터로부터 2 차원 이미지를 생성하여 상기 영상 처리부로 다시 전송하는, 정보 매핑 장치.
  6. 제 5 항에 있어서,
    상기 3 차원 모델 데이터베이스부는,
    투시 투영법에 의해 상기 3 차원 모델 데이터로부터 상기 2 차원 이미지를 생성하는, 정보 매핑 장치.
  7. 제 5 항에 있어서,
    상기 영상 처리부는,
    상기 전송받은 2 차원 이미지와 상기 정보 입력부로부터 제공받은 상기 영상 정보를 영상 이미지 분석 방법을 통해 비교하고, 상기 비교 결과 상기 특정 지역을 상기 구조물을 기준으로 구획하고 구획된 영역마다 상기 구조물의 속성 정보를 매핑함으로써 상기 영상 정보를 분석하는, 정보 매핑 장치.
  8. 제 7 항에 있어서,
    상기 관련 정보 획득부는,
    사용자의 메뉴 선택 수단 또는 문자 입력 수단에 의해 상기 구조물 관련 정보를 획득하는, 정보 매핑 장치.
  9. 제 8 항에 있어서,
    상기 관련 정보 획득부는,
    상기 구조물 관련 정보를 정보 검색용 로봇 엔진을 사용하여 인터넷 상에서 획득하는, 정보 매핑 장치.
  10. 제 9 항에 있어서,
    상기 구조물 관련 정보는,
    상기 구조물 자체 또는 상기 구조물 내부에 존재하는 구성 주체에 관련된 인터넷 상의 인식 정보 또는 인터넷 사용자들이 남긴 정보를 포함하는, 정보 매핑 장치.
  11. 특정 지역에서의 영상 정보 및 위치-시야 정보를 제공하는 정보 입력부를 포함하는 휴대 단말;
    상기 특정 지역 내의 구조물의 3 차원 모델 데이터를 저장하며, 상기 제공된 위치-시야 정보를 이용하여 상기 3 차원 모델 데이터로부터 2 차원 이미지를 생성하는 3 차원 모델 데이터베이스부;
    상기 제공된 2 차원 이미지와 상기 영상 정보를 비교함으로써 상기 영상 정보를 분석하는 영상 처리부, 상기 분석된 상기 영상 정보를 참조하여, 상기 특정 지역 내의 구조물 관련 정보를 사용자의 명령에 의해 인터넷 상에서 또는 인터넷과 연결된 서버에서 획득하는 관련 정보 획득부, 및 상기 제공된 영상 정보 상에 상기 구조물 관련 정보를 매핑한 결과를 출력하는 정보 매핑 처리부를 포함하는 서버를 포함하며,
    상기 휴대 단말은 상기 서버로부터 상기 결과를 전송받아 디스플레이하는, 정보 매핑 시스템.
  12. 제 11 항에 있어서,
    상기 정보 입력부는,
    상기 특정 지역을 촬영하여 상기 영상 정보를 검출하는 카메라; 및
    상기 카메라에 대한 전체 좌표계 및 국부 좌표계 상에서의 상기 위치-시야 정보를 검출하는 소정 센서를 포함하며,
    상기 검출된 영상 정보 및 위치-시야 정보를 상기 영상 처리부로 제공하는, 정보 매핑 시스템.
  13. 제 12 항에 있어서,
    상기 소정 센서는,
    상기 카메라의 위치 정보를 검출하는 GPS 수신기, 상기 카메라가 촬영을 위하여 향하고 있는 방향 정보를 검출하는 지자기 센서, 지평면에 대한 상기 카메라의 각도 정보를 검출하는 자이로 센서 및 상기 카메라의 고도 정보를 검출하는 고도계 센서 중 적어도 하나 이상을 포함하는, 정보 매핑 시스템.
  14. 제 13 항에 있어서,
    상기 3 차원 모델 데이터는,
    상기 구조물에 대한 GPS 정보, 우편 주소 및 구조물 이름 등을 포함하는 속성 정보를 가지고 있으며, 상기 구조물에 대한 실사 이미지가 텍스쳐 매핑되어 있 는 데이터인, 정보 매핑 시스템.
  15. 제 14 항에 있어서,
    상기 3 차원 모델 데이터베이스부는,
    상기 영상 처리부로부터 상기 위치-시야 정보를 제공받아 상기 3 차원 모델 데이터로부터 2 차원 이미지를 생성하여 상기 영상 처리부로 다시 전송하는, 정보 매핑 시스템.
  16. 제 15 항에 있어서,
    상기 3 차원 모델 데이터베이스부는,
    투시 투영법에 의해 상기 3 차원 모델 데이터로부터 상기 2 차원 이미지를 생성하는, 정보 매핑 시스템.
  17. 제 15 항에 있어서,
    상기 영상 처리부는,
    상기 전송받은 2 차원 이미지와 상기 정보 입력부로부터 제공받은 상기 영상 정보를 영상 이미지 분석 방법을 통해 비교하고, 상기 비교 결과 상기 특정 지역을 상기 구조물을 기준으로 구획하고 구획된 영역마다 상기 구조물의 속성 정보를 매핑함으로써 상기 영상 정보를 분석하는, 정보 매핑 시스템.
  18. 제 17 항에 있어서,
    상기 관련 정보 획득부는,
    사용자의 메뉴 선택 수단 또는 문자 입력 수단에 의해 상기 구조물 관련 정보를 획득하는, 정보 매핑 시스템.
  19. 제 18 항에 있어서,
    상기 관련 정보 획득부는,
    상기 구조물 관련 정보를 정보 검색용 로봇 엔진을 사용하여 인터넷 상에서 획득하는, 정보 매핑 시스템.
  20. 제 19 항에 있어서,
    상기 구조물 관련 정보는,
    상기 구조물 자체 또는 상기 구조물 내부에 존재하는 구성 주체에 관련된 인터넷 상의 인식 정보 또는 인터넷 사용자들이 남긴 정보를 포함하는, 정보 매핑 시스템.
  21. (a) 특정 지역에서의 영상 정보 및 위치-시야 정보를 제공받고, 상기 특정 지역 내의 구조물의 3 차원 모델 데이터를 저장하고 있는 3 차원 모델 데이터베이스부로부터 상기 3 차원 모델 데이터의 2 차원 이미지를 제공받는 단계;
    (b) 상기 제공받은 2 차원 이미지와 상기 제공받은 영상 정보를 비교함으로써 상기 영상 정보를 분석하는 단계;
    (c) 상기 분석된 영상 정보를 참조하여 상기 구조물에 관련된 정보인 구조물 관련 정보를 사용자의 명령에 의해 인터넷 상에서 또는 인터넷과 연결된 서버에서 획득하는 단계; 및
    (d) 상기 제공받은 영상 정보 상에 상기 획득된 구조물 관련 정보를 매핑하여 결과를 출력하는 단계를 포함하는, 정보 매핑 방법.
  22. 제 21 항에 있어서,
    상기 (a) 단계는,
    (a1) 카메라에 의해 상기 특정 지역을 촬영하여 영상 정보를 제공받는 단계;
    (a2) GPS 수신기에 의해 상기 카메라의 위치 정보를 검출하고, 지자기 센서에 의해 상기 카메라가 촬영을 위하여 향하고 있는 방향 정보를 검출하고, 자이로 센서에 의해 지평면에 대한 상기 카메라의 각도 정보를 검출하고, 고도계 센서에 의해 상기 카메라의 고도 정보를 검출함으로써, 상기 카메라에 대한 전체 좌표계 및 국부 좌표계 상에서의 상기 위치-시야 정보를 검출하는 단계; 및
    (a3) 상기 검출된 위치-시야 정보를 이용하여 상기 3 차원 모델 데이터로부터 2 차원 이미지를 생성하고, 상기 생성된 2 차원 이미지를 제공받는 단계를 포함하는, 정보 매핑 방법.
  23. 제 22 항에 있어서,
    상기 3 차원 모델 데이터는,
    상기 구조물에 대한 GPS 정보, 우편 주소 및 구조물 이름 등을 포함하는 속성 정보를 가지고 있으며, 상기 구조물에 대한 실사 이미지가 텍스쳐 매핑되어 있는 데이터인, 정보 매핑 방법.
  24. 제 22 항에 있어서,
    상기 (b) 단계는,
    상기 제공받은 2 차원 이미지와 상기 영상 정보를 영상 이미지 분석 방법을 통해 비교하고, 상기 비교 결과 상기 특정 지역을 상기 구조물을 기준으로 구획하고 구획된 영역마다 상기 구조물의 속성 정보를 매핑함으로써, 상기 영상 정보를 분석하는 단계를 포함하는, 정보 매핑 방법.
  25. 제 24 항에 있어서,
    상기 (c) 단계는,
    사용자의 메뉴 선택 수단 또는 문자 입력 수단에 의해 상기 구조물 관련 정보를 정보 검색용 로봇 엔진을 사용하여 인터넷 상에서 획득하는 단계를 포함하는, 정보 매핑 방법.
  26. 제 25 항에 있어서,
    상기 구조물 관련 정보는,
    상기 구조물 자체 또는 상기 구조물 내부에 존재하는 구성 주체에 관련된 인 터넷 상의 인식 정보 또는 인터넷 사용자들이 남긴 정보를 포함하는, 정보 매핑 방법.
  27. 제 21 항 내지 제 26 항 중 어느 한 항의 방법을 컴퓨터에서 실행하기 위한 프로그램 코드를 기록한 컴퓨터로 읽을 수 있는 기록 매체.
KR1020050117175A 2005-12-02 2005-12-02 정보 매핑 장치, 시스템, 및 방법 KR100735564B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020050117175A KR100735564B1 (ko) 2005-12-02 2005-12-02 정보 매핑 장치, 시스템, 및 방법
US11/584,493 US8121353B2 (en) 2005-12-02 2006-10-23 Apparatus, system and method for mapping information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050117175A KR100735564B1 (ko) 2005-12-02 2005-12-02 정보 매핑 장치, 시스템, 및 방법

Publications (2)

Publication Number Publication Date
KR20070057561A KR20070057561A (ko) 2007-06-07
KR100735564B1 true KR100735564B1 (ko) 2007-07-04

Family

ID=38118845

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050117175A KR100735564B1 (ko) 2005-12-02 2005-12-02 정보 매핑 장치, 시스템, 및 방법

Country Status (2)

Country Link
US (1) US8121353B2 (ko)
KR (1) KR100735564B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110072684A (ko) * 2009-12-23 2011-06-29 엘지이노텍 주식회사 위치 기반 정보 제공 방법 및 시스템
KR101750896B1 (ko) * 2010-10-12 2017-07-03 엘지전자 주식회사 이동 단말기 및 그 제어방법

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4994256B2 (ja) * 2008-01-28 2012-08-08 株式会社ジオ技術研究所 経路案内データベースのデータ構造
US8428341B2 (en) * 2008-12-08 2013-04-23 Electronics And Telecommunications Research Institute Apparatus for calculating 3D spatial coordinates of digital images and method thereof
JP5223062B2 (ja) * 2010-03-11 2013-06-26 株式会社ジオ技術研究所 3次元地図描画システム
KR101303948B1 (ko) * 2010-08-13 2013-09-05 주식회사 팬택 비가시 객체에 대한 증강 현실 정보 제공 장치 및 방법
US8452048B2 (en) 2011-02-28 2013-05-28 Intuit Inc. Associating an object in an image with an asset in a financial application
KR101113699B1 (ko) * 2011-04-26 2012-02-27 (주)비엔티솔루션 모바일 기기에 연동되는 공간정보 프레임 제작도구 개발 시스템 및 그 방법
US9236024B2 (en) 2011-12-06 2016-01-12 Glasses.Com Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
US9030505B2 (en) * 2012-05-17 2015-05-12 Nokia Technologies Oy Method and apparatus for attracting a user's gaze to information in a non-intrusive manner
US20130314401A1 (en) 2012-05-23 2013-11-28 1-800 Contacts, Inc. Systems and methods for generating a 3-d model of a user for a virtual try-on product
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9404751B2 (en) * 2012-06-06 2016-08-02 Samsung Electronics Co., Ltd. Apparatus and method for providing 3D map showing area of interest in real time
US9367870B2 (en) * 2012-10-05 2016-06-14 Sap Se Determining networked mobile device position and orientation for augmented-reality window shopping
KR102125563B1 (ko) * 2014-05-29 2020-06-22 삼성전자주식회사 실내의 구조를 나타내는 데이터를 생성하는 디바이스 및 방법
US11126846B2 (en) * 2018-01-18 2021-09-21 Ebay Inc. Augmented reality, computer vision, and digital ticketing systems
KR102180194B1 (ko) * 2019-12-12 2020-11-18 문희열 위치정보를 가진 영상콘텐츠의 실시간 정보 매핑시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1013720A (ja) 1996-06-21 1998-01-16 Canon Inc 情報提示装置
JPH10274537A (ja) 1997-03-31 1998-10-13 Toyota Motor Corp 車両用案内表示装置
JP2004271232A (ja) 2003-03-05 2004-09-30 Denso Corp ナビゲーション装置、プログラム
JP2004334855A (ja) 2003-04-16 2004-11-25 Matsushita Electric Ind Co Ltd 画像データ処理店舗検索送受信システム、画像データ処理店舗検索送受信方法、電子カメラ付き携帯端末、サーバー、プログラム、及び記録媒体
KR100489890B1 (ko) 2002-11-22 2005-05-17 한국전자통신연구원 스테레오 비디오 또는/및 지리객체의 상세정보 제공 장치및 그방법
KR20060064458A (ko) * 2004-12-08 2006-06-13 한국전자통신연구원 위치 탐지 장치 및 그 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001290820A (ja) * 2000-01-31 2001-10-19 Mitsubishi Electric Corp 映像収集装置、映像検索装置および映像収集検索システム
JP2002098548A (ja) 2000-09-22 2002-04-05 Casio Comput Co Ltd ガイド情報送信装置及び記録媒体
JP2004048674A (ja) 2002-05-24 2004-02-12 Olympus Corp 視野一致型情報呈示システム、並びに、それに用いられる携帯情報端末及びサーバ
JP2004078451A (ja) 2002-08-14 2004-03-11 Nippon Telegr & Teleph Corp <Ntt> 地図案内情報提示方法、端末装置、サーバ装置、およびプログラム
JP2004226170A (ja) 2003-01-21 2004-08-12 Daihatsu Motor Co Ltd 位置情報提供システム
JP2005321370A (ja) * 2004-04-05 2005-11-17 Sony Corp ナビゲーション装置、およびデータ処理方法、並びにコンピュータ・プログラム
US8843309B2 (en) * 2005-04-21 2014-09-23 Microsoft Corporation Virtual earth mapping

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1013720A (ja) 1996-06-21 1998-01-16 Canon Inc 情報提示装置
JPH10274537A (ja) 1997-03-31 1998-10-13 Toyota Motor Corp 車両用案内表示装置
KR100489890B1 (ko) 2002-11-22 2005-05-17 한국전자통신연구원 스테레오 비디오 또는/및 지리객체의 상세정보 제공 장치및 그방법
JP2004271232A (ja) 2003-03-05 2004-09-30 Denso Corp ナビゲーション装置、プログラム
JP2004334855A (ja) 2003-04-16 2004-11-25 Matsushita Electric Ind Co Ltd 画像データ処理店舗検索送受信システム、画像データ処理店舗検索送受信方法、電子カメラ付き携帯端末、サーバー、プログラム、及び記録媒体
KR20060064458A (ko) * 2004-12-08 2006-06-13 한국전자통신연구원 위치 탐지 장치 및 그 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110072684A (ko) * 2009-12-23 2011-06-29 엘지이노텍 주식회사 위치 기반 정보 제공 방법 및 시스템
KR101675160B1 (ko) 2009-12-23 2016-11-11 엘지이노텍 주식회사 위치 기반 정보 제공 방법 및 시스템
KR101750896B1 (ko) * 2010-10-12 2017-07-03 엘지전자 주식회사 이동 단말기 및 그 제어방법

Also Published As

Publication number Publication date
US8121353B2 (en) 2012-02-21
US20070127848A1 (en) 2007-06-07
KR20070057561A (ko) 2007-06-07

Similar Documents

Publication Publication Date Title
US8121353B2 (en) Apparatus, system and method for mapping information
US8280107B2 (en) Method and apparatus for identification and position determination of planar objects in images
US10134196B2 (en) Mobile augmented reality system
US8467810B2 (en) Method and system for reporting errors in a geographic database
US10445772B1 (en) Label placement based on objects in photographic images
KR101330805B1 (ko) 증강 현실 제공 장치 및 방법
JP5582548B2 (ja) 実環境視像における仮想情報の表示方法
US7272501B2 (en) System and method for automatically collecting images of objects at geographic locations and displaying same in online directories
US9583074B2 (en) Optimization of label placements in street level images
US9625612B2 (en) Landmark identification from point cloud generated from geographic imagery data
JP2011529568A (ja) ナビゲーションデータを三次元で表示する方法
JP2011529569A (ja) ナビゲーションデータを三次元で表示するコンピュータ装置および方法
JP2003132068A (ja) ナビゲーションシステム及びナビゲーション端末
KR20150075532A (ko) 증강 현실 제공 장치 및 방법
KR20160027735A (ko) 클라우드 포인트를 이용한 실내 지도 구축 장치 및 방법
US20080319655A1 (en) Method for Generating an Enhanced Map
JP2011170599A (ja) 屋外構造物計測装置及び屋外構造物計測方法
Zollmann et al. VISGIS: Dynamic situated visualization for geographic information systems
Haala et al. A multi-sensor system for positioning in urban environments
US20140002499A1 (en) Method, System, and Computer-Readable Recording Medium for Providing Information on an Object Using Viewing Frustums
US8688368B2 (en) Image-based localization for addresses
JP2009229180A (ja) ナビゲーション装置
JPWO2010150643A1 (ja) 情報システム、サーバ装置、端末装置、情報処理方法、およびプログラム
JP6019680B2 (ja) 表示装置、表示方法、及び、表示プログラム
Haala et al. An integrated approach for the orientation of terrestrial outdoor scenes

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20130522

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140522

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150522

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160520

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170518

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20180517

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20190520

Year of fee payment: 13