[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20090132317A - Method and system for providing additional information based on video images - Google Patents

Method and system for providing additional information based on video images Download PDF

Info

Publication number
KR20090132317A
KR20090132317A KR1020080058517A KR20080058517A KR20090132317A KR 20090132317 A KR20090132317 A KR 20090132317A KR 1020080058517 A KR1020080058517 A KR 1020080058517A KR 20080058517 A KR20080058517 A KR 20080058517A KR 20090132317 A KR20090132317 A KR 20090132317A
Authority
KR
South Korea
Prior art keywords
additional information
virtual
video
providing unit
information
Prior art date
Application number
KR1020080058517A
Other languages
Korean (ko)
Inventor
김병재
김남규
김근영
이용기
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020080058517A priority Critical patent/KR20090132317A/en
Publication of KR20090132317A publication Critical patent/KR20090132317A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/744Displaying an avatar, e.g. an animated cartoon character
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Pathology (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Signal Processing (AREA)
  • Economics (AREA)
  • Biophysics (AREA)
  • Strategic Management (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A method and a system for providing additional information based on video images are provided to offer video and additional information to a user according to the virtual location and view points. CONSTITUTION: The space information provider(10) offers the virtual position which user demands and the image corresponding to the virtual view point with 360 degree which records is the moving picture information. According to the virtual location and view point, the additional information provider(30) indicates the additional information for the object within the offered video. The 360 degree video information comprises GPS coordinates data according to each frame.

Description

동영상 기반 부가정보 제공 방법 및 시스템{Method and system for providing additional information based on video images}Method and system for providing additional information based on video images}

본 발명은 3차원 지리정보 서비스에 관한 것으로, 보다 상세하게는 360도 동영상을 이용하여 사용자가 원하는 위치의 영상 정보와 부가 정보를 제공할 수 있는 동영상 기반 부가정보 제공 방법 및 시스템에 관한 것이다. The present invention relates to a three-dimensional geographic information service, and more particularly, to a method and system for providing video-based additional information that can provide image information and additional information of a desired location by using a 360-degree video.

인터넷 분야가 새로운 산업분야로 부각되고 이에 따른 각종 서비스와 비즈니스가 활성화되고 있는 시점에서 멀티미디어의 기능과 효과들이 놀라운 성장세를 보이고 있다. 이러한 인터넷 분야에서 최근 주목을 받고 있는 것들 중 하나가 3차원 지리 정보 서비스이다. 즉, 항공사진촬영, 정밀 측량 등 GIS(Geographic Information System) 기술을 활용하여 구축된 공간정보를 이용하여 인터넷 상에서 3차원 지도를 제공하고 이를 기반으로 길 찾기, 지역정보 검색 등을 수행하는 새로운 형태의 서비스가 최근 주목을 받고 있다. As the Internet is emerging as a new industry and various services and businesses are being activated, the functions and effects of multimedia are showing remarkable growth. One of the hot spots recently in the Internet field is 3D geographic information service. In other words, it provides a three-dimensional map on the Internet using spatial information built using Geographic Information System (GIS) technology such as aerial photography and precision surveying. The service is getting attention recently.

아울러 3차원 지도에 부가하여 주요 도로의 사진 이미지를 파노라마 형태로 연결하여 제공해 주는 서비스도 등장하고 있다. 그러나, 이러한 지리 정보 서비스 구현 방법은 복수 개의 카메라로 촬영된 영상 정보들을 합성시켜 구현한 것으로서 비용이 많이 소요되며 제작 기간이 길어지는 문제점이 있었다.In addition to the three-dimensional map, a service that provides a panorama of the photographic image of the main road has appeared. However, such a method of implementing a geographic information service is implemented by synthesizing image information photographed by a plurality of cameras, which is expensive and has a problem in that a production period is long.

또한, 종래의 360도 영상 서비스는 지도정보와 연동된 특정 지점에서의 360도 영상만을 제공해 줄 뿐 사용자의 위치 변화에 따라 능동적으로 그 변화된 위치에서의 360도 영상을 실시간으로 제공해 주지는 못하고 있으며, 그에 따른 부가정보 역시 실시간으로 제공해 주지 못하고 있다. In addition, the conventional 360-degree image service only provides a 360-degree image at a specific point linked to the map information, but does not actively provide a 360-degree image at the changed position in real time according to the change of the user's position, The additional information is also not provided in real time.

본 발명이 이루고자 하는 기술적 과제는 360도 동영상 정보를 활용하여 사용자의 가상 위치와 가상 시점에 따라 사용자에게 영상을 제공하고 그에 따른 부가정보를 효과적으로 제공할 수 있는 동영상 기반 부가정보 제공 방법 및 시스템을 제공하는 데 있다. The technical problem to be achieved by the present invention is to provide a video-based additional information providing method and system that can provide a video to the user according to the user's virtual location and the virtual view by using 360-degree video information and effectively provide the additional information accordingly. There is.

상기 기술적 과제를 해결하기 위하여 본 발명에 따른 동영상 기반 부가정보 제공 방법은, 미리 촬영된 360도 동영상 정보를 가지고 사용자가 요구하는 가상 위치와 가상 시점에 대응하는 영상을 제공하는 단계; 및 상기 가상 위치와 가상 시점에 따라서 상기 제공되는 영상 내의 객체를 위한 부가정보를 표시하는 단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a video-based additional information providing method comprising: providing an image corresponding to a virtual position and a virtual viewpoint requested by a user with 360-degree video information photographed in advance; And displaying additional information for an object in the provided image according to the virtual position and the virtual viewpoint.

여기서, 상기 360도 동영상 정보는 각 프레임 별로 GPS 좌표 데이터를 가지며, 상기 영상 제공 단계는 상기 GPS 좌표 데이터를 이용하여 상기 가상 위치에 대응하는 영상을 제공할 수 있다.Here, the 360 degree video information may have GPS coordinate data for each frame, and the providing of the image may provide an image corresponding to the virtual position by using the GPS coordinate data.

또한, 상기 동영상 기반 부가정보 제공 방법은, 상기 가상 위치와 가상 시점을 나타내는 아바타를 미리 마련된 지도 이미지 상에 표시하는 단계를 더 포함할 수 있다.The video-based additional information providing method may further include displaying an avatar indicating the virtual location and the virtual viewpoint on a map image prepared in advance.

또한, 상기 부가정보 표시 단계는 상기 아바타가 나타내는 가상 위치와 가상 시점에 따라서 상기 부가정보를 표시할 수 있다.In the displaying of the additional information, the additional information may be displayed according to the virtual position and the virtual viewpoint indicated by the avatar.

또한, 상기 부가정보 표시 단계는 상기 부가정보를 상기 제공되는 영상 내에 중첩하여 표시할 수 있다. 이때 상기 부가정보를 상기 객체의 기준 위치 상에 중첩하여 표시할 수 있고, 현재 영상 프레임이 취득된 지점의 GPS 좌표와 상기 객체의 기준 위치의 좌표를 이용하여 상기 부가정보가 표시될 위치와 크기를 결정할 수 있다. 여기서, 상기 부가정보가 표시될 크기는 상기 현재 영상 프레임이 취득된 지점의 GPS 좌표와 상기 객체의 기준 위치의 좌표의 차에 따라서 결정될 수 있으며, 상기 부가정보가 표시될 위치는 상기 현재 영상 프레임이 취득된 지점의 GPS 좌표와 상기 객체의 기준 위치의 좌표의 차와 상기 현재 영상 프레임의 중심방위정보에 따라서 결정될 수 있다.In the displaying of the additional information, the additional information may be displayed by being superimposed on the provided image. In this case, the additional information may be displayed by being superimposed on the reference position of the object. You can decide. The size at which the additional information is displayed may be determined according to a difference between the GPS coordinates of the point at which the current image frame is obtained and the coordinates of the reference position of the object. The difference between the GPS coordinates of the acquired point and the coordinates of the reference position of the object and the central orientation information of the current image frame may be determined.

또한, 상기 부가정보 표시 단계는 상기 가상 위치의 변화로 인한 상기 현재 영상 프레임의 변화에 따라 상기 부가정보가 표시될 위치와 크기를 변화시킬 수 있다.The additional information display step may change the position and size at which the additional information is displayed according to the change of the current image frame due to the change in the virtual position.

상기 기술적 과제를 해결하기 위하여 본 발명에 따른 동영상 기반 부가정보 제공 시스템은, 미리 촬영된 360도 동영상 정보를 가지고 사용자가 요구하는 가상 위치와 가상 시점에 대응하는 영상을 제공하는 공간정보 제공부; 및 상기 가상 위 치와 가상 시점에 따라서 상기 제공되는 영상 내의 객체를 위한 부가정보를 표시하는 부가정보 제공부를 포함하는 것을 특징으로 한다.In order to solve the above technical problem, the video-based additional information providing system according to the present invention includes a spatial information providing unit for providing an image corresponding to a virtual position and a virtual viewpoint requested by the user with 360-degree video information photographed in advance; And an additional information providing unit displaying additional information for an object in the provided image according to the virtual location and the virtual viewpoint.

상기 기술적 과제를 해결하기 위하여 상기된 본 발명에 따른 동영상 기반 부가정보 제공 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다. In order to solve the above technical problem, there is provided a computer-readable recording medium having recorded thereon a program for executing the video-based additional information providing method according to the present invention.

상술한 본 발명에 의하면, 360도 동영상 정보를 활용하여 사용자의 가상 위치와 가상 시점에 따라 사용자에게 영상을 제공하고 그에 따른 부가정보를 효과적으로 제공할 수 있다. According to the present invention described above, by using the 360-degree video information can provide an image to the user according to the user's virtual position and the virtual view point and effectively provide additional information accordingly.

이하에서는 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이하 설명 및 첨부된 도면들에서 실질적으로 동일한 구성요소들은 각각 동일한 부호들로 나타냄으로써 중복 설명을 생략하기로 한다. 또한 본 발명을 설명함에 있어 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, the substantially identical components are represented by the same reference numerals, and thus redundant description will be omitted. In addition, in the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

도 1은 본 발명의 일 실시예에 따른 동영상 기반 부가정보 제공 시스템의 블록도이다. 도 1을 참조하면, 동영상 기반 부가정보 시스템은 공간정보 제공부(10), 동영상 DB(20), 부가정보 제공부(30), 부가정보 DB(40), 사용자 인터페이스(50)를 포함하여 이루어진다. 1 is a block diagram of a video-based additional information providing system according to an embodiment of the present invention. Referring to FIG. 1, the video-based additional information system includes a spatial information providing unit 10, a video DB 20, an additional information providing unit 30, an additional information DB 40, and a user interface 50. .

공간정보 제공부(10)는 미리 촬영된 360도 동영상 정보를 가지고 사용자가 요구하는 가상 위치와 가상 시점에 대응하는 영상을 제공한다. 공간정보 DB(20)에는 각 프레임 별로 GPS 좌표 데이터를 가지는 360도 동영상 정보로 이루어지는 공간 정보가 구축되고, 공간 정보 제공부(10)는 GPS 좌표 데이터를 이용하여 사용자가 요구하는 가상 위치와 가상 시점에 대응하는 영상을 제공한다. The spatial information providing unit 10 provides an image corresponding to a virtual position and a virtual viewpoint requested by the user with 360-degree video information photographed in advance. The spatial information DB 20 is constructed with spatial information consisting of 360-degree video information having GPS coordinate data for each frame, and the spatial information providing unit 10 uses the GPS coordinate data to determine a virtual position and a virtual viewpoint requested by the user. Provides a video corresponding to the.

GPS 좌표 데이터를 가지는 360도 동영상 정보의 취득에 관하여 설명하면 다음과 같다. 도 2a는 현재 상용되고 있는 360도 동영상 카메라의 일 예의 모습을 나타내며 도 2b는 도시된 카메라로 촬영된 360도 구형 영상을 평면적으로 나타낸 모습을 보여준다. 도 2a와 같은 360도 동영상 카메라는 단일 카메라에 복수 개(예컨대, 6개)의 렌즈들이 구비되어 한번 촬영으로 도 2b와 같이 주변 환경에 대한 360 도 영상 정보를 획득한 후 이를 결합시켜 3차원 정지영상 및 동영상을 획득할 수 있도록 해 준다. 도로 주변에 대한 360도 동영상을 얻기 위해서는 도 3에서와 같이 차량에 360도 동영상 카메라(1)를 장착한 후 도로를 주행하면서 주행된 도로의 주변 환경을 촬영하게 된다. 그리고 360도 동영상 카메라(1)를 통해 획득된 360도 동영상의 각 프레임에 대한 GPS 좌표 데이터를 GPS 수신기(2)를 통해 취득한 후 이를 도 4에서와 같이 360도 동영상의 해당 프레임과 매칭시켜 각 촬영경로 별로 공간정보 DB(20)에 저장한다. 공간정보 DB(20)에 저장된 360도 동영상은 사용자에게 제공되기 위하여 적절한 수정이 가해진다. 예컨대, 360도 동영상 프레임들을 일정한 비율(예컨대 1m마다 1프레임)로 추출하여 균일화된 360도 동영상을 생성하고, 균일화된 동영상을 도로의 분기점 도는 기 설정된 기준거리에 따라 분할하여 세그먼트화한다. 도 5는 동영상이 분할되어 세그먼트화된 모습을 보여주는 도면이다. 도 5를 참조하면, 세그먼트들 간의 연결 부분에 대한 부드러운 화면 처리를 위해 세그먼트의 분할 지점에서 이웃하는 세그먼트와 일정 영역이 중첩되도록 동영상을 분할한다. 이때 각 세그먼트의 동영상에서 중첩되는 프레임들에는 도 6에서와 같이 중첩영역 ID에 대한 정보가 매칭되어 공간정보 DB(20)에 저장된다. 또한, 도 6에 도시된 바와 같이 도로를 따라 촬영이 진행될 때 촬영의 진행 방향도 도로의 굽어 있는 방향에 따라 변화하게 되므로 해당 세그먼트에서 굽은 영역의 각 프레임에 대한 중심방위정보(사용자가 해당 도로를 실제 주행시 바라보게 되는 방향에 대한 정보)가 함께 저장된다. 도 6에서 중심방위는 정북 방향을 0도로 설정하고 사용자가 도로를 따라 진행시 바라보게 되는 방향의 각도를 0도 ~ 360도까지의 범위로 표시되고 있 다.The acquisition of 360 degree video information with GPS coordinate data is described below. FIG. 2A illustrates an example of a 360-degree video camera that is currently commercially available, and FIG. 2B shows a 360-degree spherical image captured by the illustrated camera in a plan view. The 360-degree video camera as shown in FIG. 2A is provided with a plurality of lenses (for example, six lenses) in a single camera, and acquires 360-degree image information of the surrounding environment as shown in FIG. It allows you to acquire images and videos. In order to obtain a 360 degree video of the surroundings of the road, as shown in FIG. 3, a 360 degree video camera 1 is mounted on the vehicle, and then the surrounding environment of the driven road is photographed while driving the road. Then, the GPS coordinate data of each frame of the 360 degree video acquired through the 360 degree video camera 1 is acquired through the GPS receiver 2 and then matched with the corresponding frame of the 360 degree video as shown in FIG. The spatial information DB 20 is stored for each path. The 360 degree video stored in the spatial information DB 20 is appropriately modified to be provided to the user. For example, 360-degree video frames are extracted at a constant ratio (for example, 1 frame per 1m) to generate a uniform 360-degree video, and the segmented by dividing the uniformed video according to the branching point of the road or a predetermined reference distance. 5 is a diagram illustrating a video segmented and segmented. Referring to FIG. 5, a video is segmented so that a neighboring segment and a predetermined region overlap at a segmentation point of a segment for smooth screen processing of a connection portion between segments. In this case, as shown in FIG. 6, the overlapping frames in the video of each segment are matched with information about the overlapping area ID and stored in the spatial information DB 20. In addition, as the photographing progresses along the road as shown in FIG. 6, the photographing progression direction also changes according to the bending direction of the road. Therefore, the center direction information of each frame of the curved area in the segment (the user may Information about the direction to be viewed in actual driving) is stored together. In FIG. 6, the central direction is set to 0 degrees in the true north direction, and the angle of the direction that the user faces when proceeding along the road is displayed in the range of 0 degrees to 360 degrees.

공간정보 제공부(10)는 상기된 바와 같이 공간정보 DB(20)에 마련된 360도 동영상 정보를 가지고 사용자 인터페이스(50)로 사용자가 요구하는 가상 위치와 가상 시점에 대응하는 영상을 표시하여 준다. As described above, the spatial information providing unit 10 displays 360-degree video information provided in the spatial information DB 20 and displays an image corresponding to a virtual position and a virtual viewpoint requested by the user through the user interface 50.

공간정보 제공부(10)의 영상 표시에 관하여 구체적으로 설명하면 다음과 같다. 도 7은 공간정보 제공부(10)가 웹브라우저를 통하여 사용자 인터페이스(50)에 제공하는 화면의 예를 나타낸다. 도 7을 참조하면, 웹브라우저의 하단에 미리 마련된 지도 이미지가 표시되고, 사용자가 요구하는 가상 위치와 가상 시점을 나타내는 아바타(붉은색 화살표 모양)가 표시된다. 하단의 지도 이미지는 공간정보 DB(20)에 공간정보가 구축된 구간을 푸른색 선으로 표시하여 사용자가 가상 공간을 탐색하는 경로를 안내한다. 지도 이미지 상에 표시된 아바타는 사용자가 요구하는 가상 위치와 가상 시점을 화살표의 위치와 방향으로 나타낸다. 가상 위치의 이동은 사용자가 가상 공간 상에 위치하고 있는 위치 정보를 새로운 위치 정보로 변환함을 의미하며, 이때 공간정보 제공부(10)는 사용자의 키보드 또는 마우스 조작에 따라 아바타의 위치를 변화시키며, 그에 따라 새로운 위치에 해당하는 프레임으로 현재 프레임을 변경시켜 연속적인 실사 영상을 제공해 준다. 가상 시점 역시 사용자의 키보드 또는 마우스 조작으로 가능하며, 동영상을 구성하는 각 프레임은 해당 촬영 지점에서의 완전한 360도 영상 정보를 모두 보유하고 있으므로 가상 시점의 좌우화전, 상하회전, 줌 레벨 조정과 같은 사항이 현재 보여지는 프레임 내에서 처리가 가능하다. 가상 위치 이동은 전진 또는 후진의 값을 가질 수 있으며, 사용자 시점의 좌우 회전은 0도(정북 방향)에서 360도까지의 값을 가질 수 있다. Hereinafter, the image display of the spatial information providing unit 10 will be described in detail. 7 illustrates an example of a screen provided by the spatial information providing unit 10 to the user interface 50 through a web browser. Referring to FIG. 7, a map image prepared in advance is displayed at the bottom of the web browser, and an avatar (a red arrow shape) indicating a virtual location and a virtual viewpoint requested by the user is displayed. The map image at the bottom displays a section in which the spatial information is constructed in the spatial information DB 20 with a blue line to guide a path through which the user searches for a virtual space. The avatar displayed on the map image indicates the virtual position and the virtual viewpoint requested by the user in the position and direction of the arrow. The movement of the virtual location means that the user converts location information located in the virtual space into new location information, wherein the spatial information providing unit 10 changes the location of the avatar according to the user's keyboard or mouse operation. Accordingly, the current frame is changed to a frame corresponding to the new position to provide a continuous photorealistic image. The virtual viewpoint can also be operated with the user's keyboard or mouse. Since each frame of the movie holds all 360-degree image information at the shooting point, such as left-right panning, vertical rotation, and zoom level adjustment of the virtual viewpoint. Processing is possible within this currently visible frame. The virtual position movement may have a value of forward or backward, and the left and right rotations of the user's viewpoint may have a value from 0 degrees (north north direction) to 360 degrees.

도 8은 사용자의 입력에 따라 가상 공간에서의 아바타의 움직임이 지도 이미지 상에 나타나는 모습을 보여 준다. 가상 공간을 구현하기 위해서 360도 동영상이 촬영되는 각 거리의 분기점마다 고유의 식별 정보를 할당하여 구분해 주며, 이때 각 분기점을 경계로 거리에 대하여도 고유의 식별 정보를 할당해 줄 수 있다. 도 8에 도시된 바와 같이 현재 아바타가 위치한 거리를 1번 거리라 하고 전방의 분기점을 지날 경우 2, 3, 4번 거리 중의 어느 한 거리로 진입할 수 있다. 도 8의 우측 지도 이미지는 아바타가 분기점을 지나 1번 거리에서 2번 거리로 진입한 결과를 나타낸다. FIG. 8 shows how an avatar's movement in a virtual space appears on a map image according to a user's input. In order to realize a virtual space, unique identification information is allocated to each branch of each distance where a 360-degree video is captured, and unique identification information can be allocated to distances at each branch. As shown in FIG. 8, when the distance where the current avatar is located is referred to as 1st distance and passes through a fork in front of it, the user may enter any one of 2, 3, and 4th distances. The map image on the right side of FIG. 8 shows a result of the avatar entering the distance from the distance 1 to the distance 2 through the fork.

부가정보 제공부(30)는 사용자가 요구하는 가상 위치와 가상 시점에 따라서 사용자 인터페이스에 표시되는 영상 내의 객체를 위한 부가정보를 표시한다. 여기서, 부가정보는 영상 내에 존재하는 건물, 도로, 상가, 기타 객체에 대한 정보로서 예컨대 주소, 전화번호, 추천회수, 광고 정보 등 이해관계자가 사용자에게 제공하기를 원하거나 사용자가 필요로 하는 각종 정보나 해당 정보를 제공하기 위한 링크를 표시하는 기호 등이 될 수 있다. The additional information providing unit 30 displays additional information for the object in the image displayed on the user interface according to the virtual position and the virtual viewpoint requested by the user. Here, the additional information is information on buildings, roads, malls, and other objects existing in the image, such as address, phone number, number of recommendation, and advertisement information. Or a symbol indicating a link for providing the information.

가상 공간 내의 객체들 각각에 대한 부가정보는 부가정보 DB(40)에 저장되어 부가정보 제공부(30)에 의해 조회된다. 한편, 이러한 부가정보는 부가정보 DB(40) 외에 부가정보 제공부(30)와 네트워크로 연결된 다른 여러 DB들로부터 제공될 수도 있다. The additional information about each of the objects in the virtual space is stored in the additional information DB 40 and inquired by the additional information providing unit 30. On the other hand, such additional information may be provided from various other DBs connected to the additional information providing unit 30 in addition to the additional information DB (40).

도 9는 본 발명의 일 실시예에 따라 부가정보 제공부(30)가 부가정보 DB(40) 로부터 필요한 객체들에 대한 부가정보를 조회하여 표시하는 과정을 구체적으로 나타낸 흐름도이다. FIG. 9 is a flowchart illustrating a process in which the additional information providing unit 30 inquires and displays additional information about necessary objects from the additional information DB 40 according to an embodiment of the present invention.

910단계에서 사용자의 키보드 또는 마우스의 조작으로 가상 위치와 가상 시점의 이동 명령이 발생하면, 920단계에서 공간정보 제공부(10)는 그 이동 명령에 따라 새로운 가상 위치 및 가상 시점으로 지도 이미지 상에서 아바타를 이동시키고 그에 해당하는 동영상 정보를 공간정보 DB(20)에서 조회하여 사용자 인터페이스(50)에 가상 위치 및 가상 시점에 대응하는 영상을 표시한다. When a movement command of the virtual position and the virtual viewpoint occurs by the manipulation of the user's keyboard or the mouse in step 910, the spatial information providing unit 10 moves to the avatar on the map image with the new virtual position and the virtual viewpoint in step 920. Move and search the corresponding video information in the spatial information DB 20 to display an image corresponding to the virtual position and the virtual viewpoint on the user interface 50.

아바타가 분기점을 통과하여 새로운 거리로 진입하지 않았으면, 다시 910단계로 돌아가(930단계), 910단계 및 920단계가 반복된다.If the avatar has not entered the new distance through the branch point, the process returns to step 910 (step 930), and steps 910 and 920 are repeated.

아바타가 분기점을 통과하여 새로운 거리로 진입하였으면, 940단계로 진행하여 부가정보 제공부(30)는 새로운 거리의 동영상에 포함되는 객체들에 대한 부가정보를 부가정보 DB(40)에서 조회하여 사용자 인터페이스(50)의 영상 화면에 중첩하여 표시하여 준다. 부가정보 조회를 위하여 사용될 수 있는 정보는 해당 거리에 대한 고유의 식별정보나 거리의 양 끝점에 해당하는 분기점의 식별 정보 또는 해당 거리를 포함하는 영역의 좌표 정보 등을 사용할 수 있다. 부가정보 DB(40)에는 이러한 식별 정보 또는 좌표 정보, 그리고 그에 속한 객체와 해당 부가 정보가 매칭되어 저장되어 있다. 부가정보는 정보의 내용과 함께 관련된 객체의 기준 위치의 좌표(예를 들어 (X, Y) 좌표)로 구성된다. If the avatar has entered the new distance through the branch point, the process proceeds to step 940 where the additional information providing unit 30 inquires additional information about the objects included in the video of the new distance from the additional information DB 40 and the user interface. Overlaid on the video screen of (50). The information that can be used to search for additional information may use unique identification information of the corresponding distance, identification information of a branch point corresponding to both ends of the distance, or coordinate information of an area including the corresponding distance. The additional information DB 40 stores such identification information or coordinate information, and an object belonging thereto and corresponding additional information. The side information consists of the coordinates (eg, (X, Y) coordinates) of the reference position of the associated object with the content of the information.

도 10은 사용자 인터페이스(50)에 부가 정보가 표시되는 모습을 자세히 나타낸 도면이다. 도시된 바와 같이 부가정보는 해당 객체의 기준 위치(예를 들어 해당 객체가 상가인 경우 그 상가의 간판) 상에 중첩하여 표시된다. 부가정보는 말풍선, 아이콘 등 다양한 형태로 표시될 수 있다. 이처럼 영상 상의 특정 위치에 부가정보를 중첩하여 표시하기 위해서는 부가정보가 표시될 위치를 결정하여야 한다. 10 is a diagram illustrating in detail how additional information is displayed on the user interface 50. As shown, the additional information is displayed by being superimposed on the reference position of the object (for example, when the object is a mall). The additional information may be displayed in various forms such as a speech bubble and an icon. As such, in order to display the additional information at a specific position on the image by overlapping, the location where the additional information is displayed must be determined.

도 11은 동영상을 구성하는 하나의 영상 프레임과 임의의 객체(예를 들어 건물)와의 관계를 설명하기 위한 참고도이다. 도 11을 참조하면, 영상 프레임은 그 영상이 취득된 지점의 GPS 좌표 (x, y)와 중심방위정보 C를 가진다. GPS 좌표 (x, y)는 곧 현재 영상 프레임의 중심 위치의 좌표가 된다. 따라서 GPS 좌표 (x, y)와 건물의 기준 위치의 좌표 (X, Y)의 차를 구하게 되면 영상의 중심 위치로부터 건물의 기준 위치로의 벡터 T를 구할 수 있다. 그러면 중심방위 C를 가리키는 벡터와 상기 벡터 T를 이용하여 중심방위를 기준으로 하는 건물의 상대 방위 Θ를 구할 수 있다. FIG. 11 is a reference diagram for explaining a relationship between one image frame constituting a video and an arbitrary object (for example, a building). Referring to FIG. 11, an image frame has GPS coordinates (x, y) and center orientation information C of a point at which the image is acquired. The GPS coordinates (x, y) soon become the coordinates of the center position of the current video frame. Therefore, if the difference between the GPS coordinates (x, y) and the coordinates (X, Y) of the reference position of the building is obtained, the vector T from the center position of the image can be obtained. Then, the relative bearing Θ of the building based on the center direction can be obtained using the vector indicating the center direction C and the vector T.

Θ는 다음 수학식에 따라 구해질 수 있다.Θ can be obtained according to the following equation.

Figure 112008044409788-PAT00001
Figure 112008044409788-PAT00001

이 Θ 값을 이용하여 영상에서 부가 정보가 중첩되어야 할 위치를 결정할 수 있다. 즉, 영상 프레임은 중심방위정보를 가지고 있으므로 중심방위정보에 해당하는 지점으로부터 Θ 값만큼 떨어진 위치에 부가정보를 표시하면 된다.The value of Θ may be used to determine the location where the additional information should overlap in the image. That is, since the image frame has the center orientation information, the additional information may be displayed at a position Θ away from the point corresponding to the center orientation information.

또한, 상기 벡터 T의 크기 D=|T|는 영상의 중심 위치로부터 건물의 기준 위치까지의 거리에 해당하게 된다. 따라서 상기 벡터 T의 크기 D 값을 이용하여 부가 정보 표시를 위한 아이콘, 말풍선 등의 크기를 조절하여 원근감을 나타낼 수 있다. 예를 들어, 미리 정하여진 기준에 따라서, D 값이 작은 경우 부가정보를 표시하는 말풍선을 상대적으로 크게, D 값이 큰 경우 말풍선을 상대적으로 크게 표시한다. In addition, the size D = | T | of the vector T corresponds to the distance from the center position of the image to the reference position of the building. Accordingly, the size of the icon, speech bubble, or the like for displaying additional information may be adjusted using the size D of the vector T to indicate perspective. For example, according to a predetermined criterion, the speech bubble displaying additional information is relatively large when the D value is small, and the speech balloon is relatively large when the D value is large.

도 12는 사용자의 가상 위치의 변화에 따라 건물의 기준 위치로의 벡터와 상대 방위가 변화되는 모습을 보여 주는 도면이다. 도 12에서 붉은색 원은 각 영상 프레임이 취득된 지점의 기준 위치를, 푸른색 원은 부가정보가 표시될 대상이 되는 건물의 기준 위치를 나타낸다. 사용자가 마우스 또는 키보드의 조작을 통하여 가상 위치를 변화시키면 그에 따라 아바타의 위치(영상 정보 취득 기준 위치)와 그 위치에서 건물을 바라보게 되는 방향이 변화된다. 그에 따라 사용자 인터페이스(50)에는 일정 간격마다 영상 프레임이 대체되어 표시되고 따라서 부가정보를 표시할 대상이 되는 건물로의 벡터와 상대 방위가 변화하게 된다. 부가정보 제공부(30)는 영상 프레임이 바뀜에 따라 변화되는 해당 건물로의 벡터와 상대 방위에 따라서 그 위치와 크기를 변화시켜 부가정보를 표시한다. 따라서 사용자의 가상 위치 및 가상 시점에 따라서 부가정보의 표시 위치와 크기를 적응적, 연속적으로 반영할 수 있게 된다.FIG. 12 is a diagram illustrating a state in which a vector and a relative orientation change to a reference position of a building according to a change of a virtual position of a user. In FIG. 12, a red circle indicates a reference position of a point at which each image frame is acquired, and a blue circle indicates a reference position of a building to which additional information is to be displayed. When the user changes the virtual position by operating the mouse or the keyboard, the position of the avatar (image information acquisition reference position) and the direction of looking at the building from the position change accordingly. Accordingly, the image frame is replaced and displayed at regular intervals in the user interface 50, and thus, the vector and the relative orientation to the building to which the additional information is displayed are changed. The additional information providing unit 30 displays the additional information by changing its position and size according to the vector and the relative orientation to the corresponding building that changes as the image frame changes. Therefore, the display position and size of the additional information can be adaptively and continuously reflected according to the virtual position and the virtual viewpoint of the user.

한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인 터넷을 통한 전송)와 같은 저장매체를 포함한다.Meanwhile, the above-described embodiments of the present invention can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium. The computer-readable recording medium may include a magnetic storage medium (eg, ROM, floppy disk, hard disk, etc.), an optical reading medium (eg, CD-ROM, DVD, etc.) and a carrier wave (eg, internet). Storage medium).

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far I looked at the center of the preferred embodiment for the present invention. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.

도 1은 본 발명의 일 실시예에 따른 동영상 기반 부가정보 제공 시스템의 블록도이다.1 is a block diagram of a video-based additional information providing system according to an embodiment of the present invention.

도 2는 현재 상용되고 있는 동영상 카메라 및 그 카메라로 촬영된 360도 구형 영상을 평면적으로 나타낸 모습을 보여주는 도면이다.2 is a view showing a plan view of a video camera and a 360-degree spherical image captured by the camera that is currently commercially available.

도 3은 360도 동영상 카메라와 GPS 수신기를 차량에 장착한 모습을 보여주는 도면이다. 3 is a diagram illustrating a state in which a 360 degree video camera and a GPS receiver are mounted on a vehicle.

도 4는 촬영경로 별로 촬영된 동영상의 프레임과 GPS 좌표 데이터를 매칭시켜 저장한 모습을 보여주는 도면이다.4 is a diagram illustrating a state in which frames and GPS coordinate data of a video photographed for each shooting path are matched and stored.

도 5는 동영상이 분할되어 세그먼트화된 모습을 보여주는 도면이다.5 is a diagram illustrating a video segmented and segmented.

도 6은 도로가 굽어 있는 부분의 각 프레임에 대한 중심방위정보가 부가로 저장되는 모습을 보여주는 도면이다.FIG. 6 is a diagram illustrating a state in which center orientation information for each frame of a road curved portion is additionally stored.

도 7은 공간정보 제공부(10)가 웹브라우저를 통하여 사용자 인터페이스(50)에 제공하는 화면의 예를 나타낸다.7 illustrates an example of a screen provided by the spatial information providing unit 10 to the user interface 50 through a web browser.

도 8은 사용자의 입력에 따라 가상 공간에서의 아바타의 움직임이 지도 이미지 상에 나타나는 모습을 보여 준다.FIG. 8 shows how an avatar's movement in a virtual space appears on a map image according to a user's input.

도 9는 본 발명의 일 실시예에 따라 필요한 객체들에 대한 부가정보를 조회하여 표시하는 과정을 구체적으로 나타낸 흐름도이다. 9 is a flowchart illustrating a process of inquiring and displaying additional information about necessary objects according to an embodiment of the present invention.

도 10은 사용자 인터페이스(50)에 부가 정보가 표시되는 모습을 자세히 나타낸 도면이다.10 is a diagram illustrating in detail how additional information is displayed on the user interface 50.

도 11은 동영상을 구성하는 하나의 영상 프레임과 임의의 객체와의 관계를 설명하기 위한 참고도이다.11 is a reference diagram for explaining a relationship between one image frame constituting a video and an arbitrary object.

도 12는 사용자의 가상 위치의 변화에 따라 건물의 기준 위치로의 벡터와 상대 방위가 변화되는 모습을 보여 주는 도면이다.FIG. 12 is a diagram illustrating a state in which a vector and a relative orientation change to a reference position of a building according to a change of a virtual position of a user.

Claims (19)

미리 촬영된 360도 동영상 정보를 가지고 사용자가 요구하는 가상 위치와 가상 시점에 대응하는 영상을 제공하는 단계; 및Providing an image corresponding to a virtual position and a virtual viewpoint requested by a user with 360-degree video information photographed in advance; And 상기 가상 위치와 가상 시점에 따라서 상기 제공되는 동영상 내의 객체를 위한 부가정보를 표시하는 단계를 포함하는 것을 특징으로 하는 동영상 기반 부가정보 제공 방법.And displaying additional information for an object in the provided video according to the virtual position and the virtual view point. 제1항에 있어서,The method of claim 1, 상기 360도 동영상 정보는 각 프레임 별로 GPS 좌표 데이터를 가지며, 상기 영상 제공 단계는 상기 GPS 좌표 데이터를 이용하여 상기 가상 위치에 대응하는 영상을 제공하는 것을 특징으로 하는 동영상 기반 부가정보 제공 방법.The 360-degree video information has GPS coordinate data for each frame, and the providing of the video includes providing the video corresponding to the virtual position by using the GPS coordinate data. 제1항에 있어서,The method of claim 1, 상기 가상 위치와 가상 시점을 나타내는 아바타를 미리 마련된 지도 이미지 상에 표시하는 단계를 더 포함하는 것을 특징으로 하는 동영상 기반 부가정보 제공 방법.And displaying the avatar representing the virtual location and the virtual viewpoint on a map image prepared in advance. 제3항에 있어서,The method of claim 3, 상기 부가정보 표시 단계는 상기 아바타가 나타내는 가상 위치와 가상 시점 에 따라서 상기 부가정보를 표시하는 것을 특징으로 하는 동영상 기반 부가정보 제공 방법.The additional information display step of displaying the additional information according to the virtual position and the virtual view represented by the avatar, characterized in that the video-based additional information providing method. 제1항에 있어서,The method of claim 1, 상기 부가정보 표시 단계는 상기 부가정보를 상기 제공되는 영상 내에 중첩하여 표시하는 것을 특징으로 하는 동영상 기반 부가정보 제공 방법.The additional information display step includes displaying the additional information superimposed in the provided image. 제5항에 있어서,The method of claim 5, 상기 부가정보 표시 단계는 상기 부가정보를 상기 객체의 기준 위치 상에 중첩하여 표시하는 것을 특징으로 하는 동영상 기반 부가정보 제공 방법.The additional information display step includes displaying the additional information superimposed on a reference position of the object. 제6항에 있어서,The method of claim 6, 상기 부가정보 표시 단계는 현재 영상 프레임이 취득된 지점의 GPS 좌표와 상기 객체의 기준 위치의 좌표를 이용하여 상기 부가정보가 표시될 위치와 크기를 결정하는 것을 특징으로 하는 동영상 기반 부가정보 제공 방법.The displaying of the additional information comprises: determining a location and a size at which the additional information is displayed using the GPS coordinates of the point at which the current image frame is acquired and the coordinates of the reference position of the object. 제7항에 있어서, The method of claim 7, wherein 상기 부가정보가 표시될 크기는 상기 현재 영상 프레임이 취득된 지점의 GPS 좌표와 상기 객체의 기준 위치의 좌표의 차에 따라서 결정되는 것을 특징으로 하는 동영상 기반 부가정보 제공 방법.The size of the additional information to be displayed is determined based on the difference between the coordinates of the GPS coordinates of the point where the current image frame is obtained and the reference position of the object. 제7항에 있어서,The method of claim 7, wherein 상기 부가정보가 표시될 위치는 상기 현재 영상 프레임이 취득된 지점의 GPS 좌표와 상기 객체의 기준 위치의 좌표의 차와 상기 현재 영상 프레임의 중심방위정보에 따라서 결정되는 것을 특징으로 하는 동영상 기반 부가정보 제공 방법.The position at which the additional information is to be displayed is determined based on a difference between the coordinates of the GPS coordinates of the point at which the current image frame is acquired, the coordinates of the reference position of the object, and the central orientation information of the current image frame. How to Provide. 제7항에 있어서,The method of claim 7, wherein 상기 부가정보 표시 단계는 상기 가상 위치의 변화로 인한 상기 현재 영상 프레임의 변화에 따라 상기 부가정보가 표시될 위치와 크기를 변화시키는 것을 특징으로 하는 동영상 기반 부가정보 제공 방법.And displaying the additional information by changing the position and size at which the additional information is displayed according to the change of the current image frame due to the change in the virtual position. 제1항 내지 제10항 중 어느 한 항에 기재된 동영상 기반 부가정보 제공 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.A computer-readable recording medium having recorded thereon a program for executing the video-based additional information providing method according to any one of claims 1 to 10. 미리 촬영된 360도 동영상 정보를 가지고 사용자가 요구하는 가상 위치와 가상 시점에 대응하는 영상을 제공하는 공간정보 제공부; 및A spatial information providing unit which provides an image corresponding to a virtual position and a virtual viewpoint requested by the user with 360-degree video information previously photographed; And 상기 가상 위치와 가상 시점에 따라서 상기 제공되는 영상 내의 객체를 위한 부가정보를 표시하는 부가정보 제공부를 포함하는 것을 특징으로 하는 동영상 기반 부가정보 제공 시스템.And an additional information providing unit displaying additional information for an object in the provided image according to the virtual position and the virtual viewpoint. 제12항에 있어서,The method of claim 12, 상기 360도 동영상 정보는 각 프레임 별로 GPS 좌표 데이터를 가지며, 상기 공간정보 제공부는 상기 GPS 좌표 데이터를 이용하여 상기 가상 위치에 대응하는 영상을 제공하는 것을 특징으로 하는 동영상 기반 부가정보 제공 시스템.The 360-degree video information has GPS coordinate data for each frame, and the spatial information providing unit provides an image corresponding to the virtual position by using the GPS coordinate data. 제12항에 있어서,The method of claim 12, 상기 공간정보 제공부는 상기 가상 위치와 가상 시점을 나타내는 아바타를 미리 마련된 지도 이미지 상에 표시하는 것을 특징으로 하는 동영상 기반 부가정보 제공 시스템.The spatial information providing unit displays an avatar indicating the virtual location and the virtual viewpoint on a map image prepared in advance. 제14항에 있어서,The method of claim 14, 상기 부가정보 제공부는 상기 아바타가 나타내는 가상 위치와 가상 시점에 따라서 상기 부가정보를 표시하는 것을 특징으로 하는 동영상 기반 부가정보 제공 시스템.The additional information providing unit displays the additional information according to the virtual position and the virtual viewpoint indicated by the avatar. 제12항에 있어서,The method of claim 12, 상기 부가정보 제공부는 상기 부가정보를 상기 제공되는 영상 내에 중첩하여 표시하는 것을 특징으로 하는 동영상 기반 부가정보 제공 시스템.The additional information providing unit displays the additional information superimposed within the provided image. 제16항에 있어서,The method of claim 16, 상기 부가정보 제공부는 상기 부가정보를 상기 객체의 기준 위치 상에 중첩하여 표시하는 것을 특징으로 하는 동영상 기반 부가정보 제공 시스템.The additional information providing unit displays the additional information superimposed on the reference position of the object. 제17항에 있어서,The method of claim 17, 상기 부가정보 제공부는 현재 영상 프레임이 취득된 지점의 GPS 좌표와 상기 객체의 기준 위치의 좌표를 이용하여 상기 부가정보가 표시될 위치와 크기를 결정하는 것을 특징으로 하는 동영상 기반 부가정보 제공 시스템.The additional information providing unit determines a location and size at which the additional information is displayed by using the GPS coordinates of the point where the current image frame is obtained and the coordinates of the reference position of the object. 제18항에 있어서,The method of claim 18, 상기 부가정보 제공부는 상기 가상 위치의 변화로 인한 상기 현재 영상 프레임의 변화에 따라 상기 부가정보가 표시될 위치와 크기를 변화시키는 것을 특징으로 하는 동영상 기반 부가정보 제공 시스템.The additional information providing unit changes the position and size at which the additional information is displayed according to the change of the current image frame due to the change of the virtual position.
KR1020080058517A 2008-06-20 2008-06-20 Method and system for providing additional information based on video images KR20090132317A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080058517A KR20090132317A (en) 2008-06-20 2008-06-20 Method and system for providing additional information based on video images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080058517A KR20090132317A (en) 2008-06-20 2008-06-20 Method and system for providing additional information based on video images

Publications (1)

Publication Number Publication Date
KR20090132317A true KR20090132317A (en) 2009-12-30

Family

ID=41691402

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080058517A KR20090132317A (en) 2008-06-20 2008-06-20 Method and system for providing additional information based on video images

Country Status (1)

Country Link
KR (1) KR20090132317A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110123142A (en) * 2010-05-06 2011-11-14 엘지전자 주식회사 Operating a mobile termianl with a vibration module
WO2012006356A2 (en) * 2010-07-06 2012-01-12 Mark Lane Apparatus, system, and method for an improved video stream
KR20190027172A (en) * 2017-09-06 2019-03-14 단국대학교 산학협력단 360-degree Image Generation System and Method for Synchronizing Time and Position of Object
US20190191203A1 (en) * 2016-08-17 2019-06-20 Vid Scale, Inc. Secondary content insertion in 360-degree video

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110123142A (en) * 2010-05-06 2011-11-14 엘지전자 주식회사 Operating a mobile termianl with a vibration module
WO2012006356A2 (en) * 2010-07-06 2012-01-12 Mark Lane Apparatus, system, and method for an improved video stream
WO2012006356A3 (en) * 2010-07-06 2012-04-12 Mark Lane Apparatus, system, and method for an improved video stream
US9277164B2 (en) 2010-07-06 2016-03-01 Mark Lane Apparatus, system, and method for tagging objects in a video stream
US20190191203A1 (en) * 2016-08-17 2019-06-20 Vid Scale, Inc. Secondary content insertion in 360-degree video
US11575953B2 (en) * 2016-08-17 2023-02-07 Vid Scale, Inc. Secondary content insertion in 360-degree video
US11974001B2 (en) 2016-08-17 2024-04-30 Vid Scale, Inc. Secondary content insertion in 360-degree video
KR20190027172A (en) * 2017-09-06 2019-03-14 단국대학교 산학협력단 360-degree Image Generation System and Method for Synchronizing Time and Position of Object

Similar Documents

Publication Publication Date Title
US10008021B2 (en) Parallax compensation
US9454847B2 (en) System and method of indicating transition between street level images
US9251174B2 (en) System and method for producing multi-angle views of an object-of-interest from images in an image dataset
US8893026B2 (en) System and method for creating and broadcasting interactive panoramic walk-through applications
AU2013257788B2 (en) A system for mixing or compositing in real-time, computer generated 3D objects and a video feed from a film camera
US20050116964A1 (en) Image reproducing method and apparatus for displaying annotations on a real image in virtual space
JP2009134719A (en) System and method of revealing occluded object in image dataset
US20130155047A1 (en) Image three-dimensional (3d) modeling
EP3196840B1 (en) Displaying visual information of views captured at geographic locations
KR20090132317A (en) Method and system for providing additional information based on video images
KR100926231B1 (en) Spatial information construction system and method using spherical video images
JP5811534B2 (en) Image display control server
KR101484314B1 (en) System and method for constructing spatial information using video images
CN112055034B (en) Interaction method and system based on optical communication device
Okatani et al. Creating multi-viewpoint panoramas of streets with sparsely located buildings
Zheng et al. Scene tunnels for seamless virtual tour
Zheng et al. Scanning and rendering scene tunnels for virtual city traversing
EP3274873A1 (en) Systems and methods for selective incorporation of imagery in a low-bandwidth digital mapping application
KR20100103153A (en) Method and system for providing motion-picture-based real estate information specialized for each real estate agent
JP2009199291A (en) Image display processing program, image display processor, and image display processing method
JP2004341742A (en) Facility information display device
Molina et al. Mosaic-based modeling and rendering of large-scale dynamic scenes for internet applications

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application