ES2558255T3 - Anotación automatizada de una vista - Google Patents
Anotación automatizada de una vista Download PDFInfo
- Publication number
- ES2558255T3 ES2558255T3 ES10161664.7T ES10161664T ES2558255T3 ES 2558255 T3 ES2558255 T3 ES 2558255T3 ES 10161664 T ES10161664 T ES 10161664T ES 2558255 T3 ES2558255 T3 ES 2558255T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- information
- correspondence
- annotation
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3679—Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/904—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/003—Maps
- G09B29/006—Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
- G09B29/008—Touring maps or guides to public transport networks
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/10—Map spot or coordinate position indicators; Map reading aids
- G09B29/106—Map spot or coordinate position indicators; Map reading aids using electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
- H04N1/00323—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a measuring, monitoring or signaling apparatus, e.g. for transmitting measured information to a central location
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32128—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N2201/3201—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N2201/3225—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
- H04N2201/3253—Position information, e.g. geographical position at time of capture, GPS data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N2201/3201—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N2201/3273—Display
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Educational Technology (AREA)
- Mathematical Physics (AREA)
- Educational Administration (AREA)
- Business, Economics & Management (AREA)
- Automation & Control Theory (AREA)
- Life Sciences & Earth Sciences (AREA)
- Ecology (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Iron Core Of Rotating Electric Machines (AREA)
- Valve Device For Special Equipments (AREA)
- Control Of Motors That Do Not Use Commutators (AREA)
Abstract
Un procedimiento informatizado para anotar un elemento de una imagen (4) de una vista de una secuencia de vídeo, que comprende las etapas de: (a) obtener una identificación del elemento; (b) relacionar la identificación con datos de anotación (1) asociados al elemento; y (c) hacer que los datos de anotación sean exhibidos, en el que dicha imagen de la vista es tomada con un teléfono móvil portátil que incluye una cámara y una pantalla táctil; en el que la información de anotación está basada en la posición y orientación del teléfono móvil portátil, y en el que el apareo de correspondencia aprovecha una correspondencia para una vista previa en dicha secuencia, estableciendo la nueva correspondencia por refinación iterativa en base a la correspondencia para la vista previa que sirve como una conjetura inicial.
Description
Anotación automatizada de una vista
Esta invención se refiere a la anotación automatizada de un elemento en una vista, de acuerdo a las reivindicaciones independientes.
Se han desarrollado sistemas electrónicos de formación de imágenes que generan representaciones gráficas en forma digital, usando una cámara digital o un escáner de digitalización, por ejemplo, o usando un generador informatizado de realidad virtual. Habitualmente, una imagen está representada por una formación de un gran
15 número de píxeles para los cuales se proporcionan valores de parámetros numéricos. En el caso de imágenes en blanco y negro, un único valor numérico es suficiente por píxel, indicando el brillo. Para imágenes en color, se usan tres parámetros, p. ej., para niveles de rojo, verde y azul, o de tono, saturación e intensidad.
La representación digital de imágenes es ventajosa en cuanto a que tales representaciones pueden ser reproducidas sin pérdida, por lo que no hay ninguna degradación de la calidad de la imagen al copiar. Además, las imágenes digitales pueden ser transmitidas inmediatamente por canales de datos de alta velocidad, y pueden ser procesadas por técnicas informatizadas, p. ej., para la corrección del color, para la manipulación, tal como por deformación informatizada, y para combinar múltiples imágenes en una vista panorámica compuesta. Las vistas panorámicas, obtenidas como una composición, o de otro modo, son de considerable importancia para el turismo, por ejemplo.
25 En vistas gráficas tales como las vistas panorámicas, es a menudo deseable anotar rasgos prominentes con información de identificación o de caracterización. Por ejemplo, en una vista de una cadena de montañas, puede desearse información de identificación para picos montañosos prominentes y otros rasgos en el horizonte.
El documento EP-A-0 867 690 está divulgando un dispositivo y sistema para la rotulación de vistas que comprende una sección de adquisición de imágenes para tomar imágenes, una sección de adquisición de posición en una formación, para registrar una posición de cámara mientras se están tomando las imágenes, una sección de adquisición de información descriptiva de cámara, para adquirir el ángulo de cámara, la distancia focal y el tamaño de la imagen mientras se está tomando la imagen, una sección de gestión de información de mapas para gestionar
35 información de mapas, determinar un espacio de vista dentro del espacio de información de mapa en base a la posición adquirida, el ángulo de la cámara, la distancia focal y el tamaño de la imagen, y capturar estructuras presentes dentro del espacio de vista; una sección de preparación de información de rotulación para preparar información de rotulación que incluye los nombres o información descriptiva de estructuras y posiciones de transferencia, una sección de salida de información de rotulación para superponer los nombres o información descriptiva proveniente de la información de mapas en posiciones en las imágenes, correspondientes a información de posición en la información de rotulación preparada, y una sección de control para controlar cada una de las secciones descritas anteriormente.
45 Hemos reconocido que un elemento en una vista puede ser anotado por una técnica informatizada, en base a datos cartográficos u otra información espacial adecuada en forma digital.
La presente invención está caracterizada por las características de las reivindicaciones independientes. Las reivindicaciones dependientes dan realizaciones ventajosas de la invención.
La invención será mejor entendida con la ayuda de las figuras, en las cuales: 55 la Fig. 1 es un diagrama de bloques para el procesamiento informatizado.
La Fig. 2 es una representación de salida gráfica anotada ejemplar, resultante de tal procesamiento.
La Fig. 3 es un diagrama de flujo para la extracción de características en el procesamiento.
La Fig. 4 es una cuadrícula cartográfica de un mapa del cual ha de extraerse la línea del horizonte.
La Fig. 5 es una elevación correspondiente a una franja en la cuadrícula de la Fig. 4.
65 La Fig. 6 es un diagrama de flujo para un procedimiento de extracción de líneas de horizonte.
La Fig. 7 es un diagrama de flujo para el procesamiento de coincidencias y anotaciones.
La Fig. 8 es un diagrama de bloques para la inclusión informatizada de información transmitida por radio. 5 La Fig. 9 es una representación gráfica de la anotación automatizada en un museo.
La Fig. 10 es una representación gráfica de la anotación automatizada en una conferencia.
Usando el apareo de correspondencia entre datos cartográficos y gráficos, los datos gráficos pueden ser anotados con datos cartográficos. Según lo ilustrado por la Fig. 1, esta técnica incluye las siguientes etapas procedimentales:
(a) en base a datos cartográficos 1 dados y a datos de posición de espectador 2, extraer el entorno del espectador 3,
15 es decir, de rasgos cartográficos que son visibles desde la posición del espectador; (b) poner los rasgos cartográficos extraídos del entorno del espectador en correspondencia con rasgos de los datos de descripción gráfica 4; (c) anotar los rasgos en los datos gráficos 4 en base al entorno de espectador 3, generando de tal modo una descripción ambiental anotada 5; y (d) generar una vista integrada deseada 6 en base a los datos gráficos 4 y a la descripción ambiental anotada 5.
Un ejemplo de una vista integrada de ese tipo se muestra en la Fig. 2. Los rasgos topográficos son como en la imagen dada, y las anotaciones textuales se toman de datos cartográficos. Los rasgos topográficos anotados incluyen seis picos montañosos en el horizonte, un lago y un pueblo en el fondo, y un pico montañoso adicional a media distancia.
25 Los detalles adicionales para las etapas de la técnica son los siguientes:
- (a)
- Extracción del Entorno de Espectador.
Dada una posición de espectador, son identificados rasgos en la representación cartográfica, que son visibles desde la posición del espectador. Tales rasgos pueden incluir la línea del horizonte, puntos específicos en la línea del horizonte y rasgos geográficos significativos tales como lagos, montañas, bosques y edificios, por ejemplo. La posición del espectador puede estar dada como incluida con los datos gráficos a partir del conocimiento del fotógrafo
- o a partir de un sistema de localización tal como el G.P.S. (Sistema de Localización Global). También son útiles para
35 los fines presentes el ángulo de visualización, p. ej., según lo especificado por el azimut y la elevación, y la longitud focal de la vista a anotar.
A partir de los datos cartográficos, la técnica extrae una descripción del entorno del espectador, dando como resultado una lista de objetos a la vista, junto con sus respectivas posiciones cartográficas. Este procedimiento es ilustrado por la Fig. 3. Los rasgos representados en los datos cartográficos son comprobados en cuanto a su visibilidad desde la posición del espectador y, para cada uno de los rasgos visibles, se genera una entrada de tabla que incluye su posición cartográfica e información descriptiva.
Habitualmente, p. ej., al extraer el entorno del espectador para una vista escénica, es importante determinar el
45 horizonte. Una técnica adecuada con este fin está ilustrada por las Figs. 4 a 6. Según se muestra en la Fig. 4, con el origen de un sistema de coordenadas x-y escogido en la posición de espectador O en el mapa, los puntos Pi = (xi, yi) están identificados en una franja estrecha S originada en el punto O y con ángulo de azimut Y, digamos.
Los puntos identificados también se muestran en la Fig. 5, que es una elevación a lo largo de la franja S. Se muestran además las coordenadas verticales zi correspondientes a la altitud cartográfica. Hallar un punto del horizonte equivale ahora a identificar un punto (xk, yk) entre los puntos (xi, yi) para los cuales se maximiza la razón zi(xi2+yi2). En el caso actual, el punto P2 está en el horizonte.
Para obtener el horizonte, la franja se recorre en 360 grados, incrementando sucesivamente el valor de en una
55 pequeña cantidad, . Este procedimiento está ilustrado por la Fig. 6. Si se conoce el ángulo de visión (a 90 grados, por ejemplo), es suficiente recorrer el ángulo en 180 grados solamente. Esta gama puede ser reducida adicionalmente si se proporciona la longitud focal de la vista a anotar. En algunas vistas, tales como las siluetas panorámicas, el horizonte puede ser la única parte del entorno del espectador que tiene interés. Pero la técnica actual no está limitada de ese modo, ya que el entorno de espectador extraído puede incluir rasgos visibles por debajo del horizonte. Y efectivamente, la técnica es aplicable ya sea que una vista tenga o no un horizonte de interés.
(b) Apareo de correspondencia.
65 Un tipo básico de apareo de correspondencia está ilustrado por la Fig. 7, que también ilustra las etapas (c) y (d). Para cada rasgo en el entorno de visualización registrado en la etapa (a), se halla un rasgo coincidente en la imagen. Alternativamente, la lista extraída puede ser globalmente apareada con los datos gráficos, hallando la mejor coincidencia global del entorno del usuario en la imagen. Puede usarse una medida de coincidencia global que tiene en cuenta cada objeto y la confianza de cada coincidencia respectiva.
5 Como un ejemplo más sencillo, en una imagen según se muestra en la Fig. 2, el horizonte puede ser rastreado inmediatamente por técnicas conocidas, basadas en el color o el brillo del cielo en comparación con el terreno. El horizonte rastreado puede ser apareado con el horizonte obtenido según (a) en lo que antecede, produciendo así una correspondencia entre rasgos incluidos en el mapa y rasgos que aparecen en la imagen.
El apareo automatizado puede ser facilitado por una calibración adecuada, p. ej., por el establecimiento interactivo de la correspondencia entre un pequeño número de puntos distinguidos en el mapa y la imagen. Por ejemplo, un usuario que visualiza el mapa y la imagen lado a lado puede pinchar primero en un punto en el mapa y luego en el punto correspondiente en la imagen, estableciendo así una primera correspondencia. Cuando mayor sea el número de correspondencias así establecidas, más fácil es la tarea técnica del apareo.
15 El apareo automatizado puede también ser facilitado si la imagen es estereográfica, es decir, está representada por un par de vistas desde dos puntos especificados. La información de profundidad obtenida de una vista estereográfica tridimensional puede ser usada para abordar las ambigüedades, que una vista bidimensional no puede resolver. El apareo de correspondencia puede estar bajo control del usuario, de modo que un punto sea anotado en la vista cuando el usuario pincha en el punto.
(c) Anotación.
En base a la correspondencia según (b) en lo que antecede, resulta una lista de anotaciones, consistiendo cada 25 anotación en la información cartográfica, junto con su posición en la imagen.
(d) Vista integrada.
En base a su ubicación en la imagen, las anotaciones son superpuestas sobre la imagen, dando como resultado una vista integrada. Las sucesivas vistas integradas pueden ser usadas para explorar y buscar, ya que cada movimiento en el dominio cartográfico corresponde a un movimiento en el dominio de la imagen, y viceversa. Los dos movimientos pueden ser visualizados conjuntamente, facilitando así la exploración.
Otro rasgo de la vista integrada es la capacidad de superponer distintos niveles de información cartográfica sobre la
35 imagen, tanto dinámicamente, sobre una pantalla, como estáticamente, para imprimir. Por ejemplo, si se cambia una vista en cuanto a la longitud focal, como en la ampliación, distintos niveles de detalle en los datos cartográficos pueden tornarse relevantes para su inclusión en el entorno del espectador.
Dado que, habitualmente, los datos geográficos y gráficos se suministran en escalas distintas, el procedimiento puede enlazar anotaciones obtenidas en una escala con anotaciones obtenidas en otras escalas. Con este fin, puede usarse una representación piramidal enlazada de anotaciones, en la cual cada anotación tiene descendientes en una escala más fina y ancestros en una escala más basta. Los descendientes de una anotación son anotaciones más detalladas de un objeto geográfico, y un ancestro de una anotación es una anotación común de varios objetos geográficos. Algunas anotaciones pueden originarse solamente en una escala suficientemente fina, ya que los
45 rasgos correspondientes pueden no ser reconocibles en escalas más bastas.
Las siguientes están entre las aplicaciones contempladas para la técnica: generación automatizada de vistas panorámicas para los atlas, para la promoción del turismo, y para información turística en ubicaciones populares; servicio automatizado, p. ej., proporcionado en Internet, para anotar imágenes tomadas con una cámara electrónica que también registra la posición del espectador en base a datos de entrada del G.P.S., por ejemplo; un sistema de navegación automotriz automatizada que produce vistas panorámicas anotadas, en lugar de meras vistas cartográficas como actualmente; un sistema de simulación que produce vistas anotadas del terreno, proveyendo la exploración y la búsqueda en dominios cartográficos y gráficos, con acoplamiento de movimiento en los dos dominios; y un sistema de vídeo en tiempo real con anotación continua o intermitente.
55 Como ejemplo del uso de un sistema de vídeo en tiempo real, en la navegación aérea, un piloto de helicóptero que lleva puesto un visor de exhibición proyectada (bidimensional o tridimensional) puede activar la anotación de rasgos del terreno en la visión efectiva. En la anotación, el sistema puede usar información de posición del G.P.S. e información cartográfica disponible. En la selección de rasgos para la anotación, el sistema puede responder a la postura de la cabeza del piloto y / o a los ojos del piloto.
En una aplicación adicional, una secuencia de vídeo puede ser anotada después de que ha sido registrada, p. ej., como una bitácora de viaje. En cualquier caso, al anotar una vista de una secuencia de vídeo, el apareo de correspondencia entre rasgos cartográficos y gráficos puede aprovechar una correspondencia establecida para una
65 vista previa en la secuencia. La correspondencia previa puede servir como una conjetura inicial a partir de la cual puede ser establecida la nueva correspondencia deseada por refinación iterativa.
La anotación automatizada de una vista o escena puede incluir el realce y la inclusión de información de identificación y / o descriptiva, distinta a la información cartográfica. Una anotación puede ser generada selectivamente, p. ej., en respuesta a ser situado un puntero, y la anotación puede ser producida en distintas formas
5 sensoriales, incluyendo las visuales, las auditivas y las táctiles. En lo que sigue, un elemento o un objeto designará cualquier cosa de interés o interés potencial en una escena de imagen / vídeo, a anotar, realzar o algo similar.
La Fig. 8 ilustra una técnica de acuerdo a una realización ejemplar de la invención, usando entradas de radio así como entradas visuales, de ubicación y dirección / orientación de cámara. Para los objetos, las entradas de radio 10 proporcionan información con respecto a su ubicación, así como meta-información para la anotación. Las entradas de radio son descodificadas en el módulo 11. Las entradas de cámara son de una imagen que representa una vista, y de parámetros de cámara desde los cuales se obtienen la ubicación, la dirección y el campo de visión en el módulo
12. Los datos de los módulos 11 y 12 se usan en el módulo 13 para decidir en cuanto a cuáles objetos están a la vista. En el módulo 14, los objetos a la vista son anotados / realzados. El módulo 15 sirve para exhibir y activar los
15 objetos con meta-información. En respuesta a comandos de pinchazos de ratón para tales objetos, el módulo 16 hace que sea exhibida su meta-información.
A. Rastreo y provisión de meta-información
20 Las formas habituales de identificar un objeto / elemento incluyen las siguientes:
1. Puede usarse una base de datos para correlacionar contenido de imagen con elementos en la base de datos,
p. ej., según lo descrito anteriormente en anotación cartográfica.
25 2. Un objeto en la escena puede emitir una baliza de radio que emite información acerca del objeto, p. ej., que incluye su posición. Un dispositivo de cámara portátil que adquiere la escena puede recoger la información y colocarla en la imagen, en base a la ubicación del objeto en la imagen. El establecimiento de una correspondencia entre objeto y ubicación en la imagen puede ser facilitado por el uso de información de posición emitida, si está disponible. Además, una imagen adquirida por cámara y las señales de baliza pueden ser
30 conscientes de su posición y orientación de toma, de modo que, para colocar la información, la cámara puede indicar la ubicación de la baliza. La información puede luego ser colocada en la ubicación adecuada, p. ej., la ubicación de la baliza u otra ubicación adecuadamente relacionada, p. ej., en una imagen, periféricamente. Puede incluirse una línea conductora para la asociación positiva entre un objeto y su anotación. En una alternativa adicional para colocar la información, la cámara y el receptor de radio pueden localizar la baliza
35 mediante el procesamiento de formaciones. Entre los medios de transmisión adecuados, distintos a la radio, están las balizas de infrarrojos o ultrasonido, así como los canales de comunicación establecidos, tales como los de teléfonos móviles, por ejemplo.
3. Una estación base puede ser usada para generar información de despacho que incluye una posición de
40 usuario con respecto a objetos. La estación base puede incluir uno o más receptores, siendo ventajoso el uso de al menos dos receptores para la triangulación de uno o más usuarios y objetos. Los objetos pueden ser activos,
p. ej., como orígenes de radio según lo descrito anteriormente, o pasivos, con ubicación conocida. Entonces, la imagen, o el vídeo, vistos por el usuario pueden ser anotados con información proporcionada desde la estación base, y en base a la posición de la cámara y a la dirección de la toma. Por ejemplo, los participantes en una
45 reunión pueden ser anotados sobre una imagen en vivo, rastreando su posición, de modo que un orador que usa un idioma inusual pueda aparecer como acompañado por una traducción textual de sus palabras.
4. El rastreo puede estar basado en indicios visuales según se usa en la visión por ordenador, ya sea de un objeto, su entorno o un objetivo colocado sobre el objeto. El objeto rastreado puede luego ser anotado con meta
50 información relevante. En una tienda, por ejemplo, si se rastrean las etiquetas en los productos, puede añadirse información en un visor con respecto a promociones y al precio de los objetos a los cuales se apunta la cámara.
Los procedimientos de rastreo pueden ser usados individualmente o en combinación. Los procedimientos pueden complementarse entre sí en base a su resolución, p. ej., con rastreo por radio para la ubicación grosera y óptica para
55 la localización fina.
B. Agregado de información
Las siguientes están entre las maneras de anotar o añadir información a un objeto seleccionado: (i) hacer que el
60 objeto sea seleccionable por ratón, de modo que, cuando el objeto sea pinchado, se exhiba información adicional; (ii) realzar el objeto, segmentándolo del fondo según se está exhibiendo información adicional; (iii) hacer una lista de objetos en una imagen, con información asociada, p. ej., para exhibir los nombres de individuos en una imagen; y
(iv) exhibir información con respecto a un objeto sin siquiera exhibir el objeto mismo, usando cualquier posición
adecuada y técnica de captura de datos según lo descrito anteriormente. 65
C. Establecimiento de correspondencias
Para poner en correspondencia objetos, sus representaciones y su información asociada, puede emplearse el procesamiento centralizado o descentralizado. Por ejemplo, en la anotación cartográfica, todos los objetos se
5 mantienen con sus coordenadas e información asociada, juntos en la misma base de datos. En el procesamiento descentralizado, este no necesariamente es el caso, y las disposiciones híbridas también pueden ser ventajosas. Por ejemplo, los nombres de restaurantes en una localidad pueden ser obtenidos de una base de datos tales como las Páginas Amarillas, sus menús habituales desde bases de datos adicionales individuales, y sus platos especiales del día pueden ser despachados con una baliza.
Un objeto puede ser anotado en base a la posición relativa de un dispositivo de visualización con respecto al objeto, incluyendo su relación espacial y la orientación del dispositivo. En el caso de imágenes o vídeo, la posición relativa de un elemento en una pantalla puede ser calculada a partir de parámetros de cámara y de información de posición relativa de la cámara con respecto al elemento. Allí donde la anotación se exhibe sin exhibir una imagen del
15 elemento, la información a exhibir puede ser seleccionada en base a la ubicación y orientación de un dispositivo de visualización con relación al elemento al que se apunta. Además, puede usarse una señal de baliza que sea suficientemente direccional y / o que tenga una captura suficientemente direccional. La señal de baliza puede llevar información de identificación y, posiblemente, información de anotación.
D. Aplicaciones representativas
La anotación de imágenes y de vídeo puede ser usada en vivo, p. ej., para entrenamiento y guía, y para servicios de información, realidad aumentada, compras y realce de reuniones.
25 Más específicamente, en cuando a entrenamiento y guía, allí donde una pieza de maquinaria necesita ser fabricada
o reparada, por ejemplo, puede ser señalada interactivamente una base de datos de puntos claves, con información de asociación. De tal modo, un trabajador de ensamblaje o un reparador puede ser entrenado o guiado para realizar las acciones requeridas, tales como el montaje de una cierta pieza en su ubicación adecuada.
Los servicios de información pueden ser implementados a fin de evitar antiestéticos signos y carteleras frente a tiendas y restaurantes, p. ej., en ubicaciones pintorescas. Una imagen anotada puede proporcionar información adicional, específica para un elemento, así como información más general, p. ej., información turística. En otra aplicación, en señalización de carreteras, los signos pueden ser aumentados con información adicional, p. ej., para su uso por sistemas de navegación de carreteras.
35 Otra aplicación más está ilustrada por la Fig. 9. En un sistema de información museística, un dispositivo de mano exhibe una imagen de una vista que incluye obras de arte en exhibición. El dispositivo muestra un retrato, anotado con el epígrafe La Gioconda, y texto adicional que puede incluir información relevante, tal como el nombre del autor artístico. El dispositivo puede tener una pantalla táctil, para la exhibición de anotaciones, activada por el tacto. Alternativamente, p. ej., con una simple pantalla alfanumérica, la exhibición puede aparecer tras solo apuntar al dispositivo.
En un sistema de realidad aumentada, la información específica acerca de objetos, distancias, ángulos, velocidades y similares puede ser incluida en una imagen o vídeo en vivo, de interés en sistemas de navegación, por ejemplo.
45 Para las compras, un almacén, un paseo de compras o una tienda pueden ser realzados suministrando información adicional, descriptiva y / o de precios, para un objeto sobre una imagen que muestra el objeto.
En una reunión, un participante puede usar un dispositivo personal, que sirve como baliza y visor según lo ilustrado por la Fig. 10. Cuando es orientado hacia otro participante, aquí tal como la persona del medio en el visor, un dispositivo puede incluir información de identificación como una anotación del participante. Si el participante habla en una lengua inusual, la traducción automatizada puede ser exhibida en forma de texto.
D. Implementación ejemplar
55 La técnica puede ser implementada para su uso con un dispositivo portátil, p. ej., un dispositivo que incluye una cámara, en cuyo caso puede ser anotada una imagen en movimiento. O bien, sin una cámara en un dispositivo de mano, por ejemplo, puede mostrarse una vista fija con una anotación. Puede usarse una pantalla táctil para apuntar a un objeto. Además, sin requerir una cámara, e incluso con capacidad limitada de exhibición, como en el caso de un teléfono portátil, puede producirse información de anotaciones mientras esté disponible la ubicación del dispositivo y, posiblemente, la información de orientación. Luego, puede proporcionarse información en respuesta a apuntar al dispositivo. Apuntar al dispositivo puede implicar algo distinto al movimiento manual, p. ej., movimiento de cabeza con antiparras o gafas de realidad virtual, que pueden mostrar una vista generada por ordenador en combinación con una vista directa. Tal movimiento puede también ser para objetos grandes, tales como un coche,
65 un barco o un avión en sistemas de automoción y navegación marítima y aérea.
Claims (10)
-
imagen1 REIVINDICACIONES1. Un procedimiento informatizado para anotar un elemento de una imagen (4) de una vista de una secuenciade vídeo, que comprende las etapas de: 5- (a)
- obtener una identificación del elemento;
- (b)
- relacionar la identificación con datos de anotación (1) asociados al elemento; y
- (c)
- hacer que los datos de anotación sean exhibidos, en el que dicha imagen de la vista es tomada con un teléfono móvil portátil que incluye una cámara y una
10 pantalla táctil; en el que la información de anotación está basada en la posición y orientación del teléfono móvil portátil, y en el que el apareo de correspondencia aprovecha una correspondencia para una vista previa en dicha secuencia, estableciendo la nueva correspondencia por refinación iterativa en base a la correspondencia para la vista previa que sirve como una conjetura inicial.15 - 2. El procedimiento de la reivindicación 1, en el que la identificación ha hecho uso de un dispositivo que apunta al elemento.
- 3. El procedimiento de la reivindicación 1, en el que un objeto es anotado en base a la posición relativa del 20 teléfono portátil con respecto al objeto, incluyendo su relación espacial y la orientación del dispositivo.
- 4. El procedimiento de la reivindicación 3, que comprende además hacer el objeto sensible al pinchazo del ratón, de modo que, cuando el objeto sea pinchado, se exhiba información adicional.25 5. El procedimiento de la reivindicación 1, en el que la identificación ha hecho uso de una señal desde el elemento, y en el que la señal es una entre una señal de radio y una señal de teléfono móvil.
- 6. El procedimiento de la reivindicación 1, en el que la relación de la identificación con los datos de anotacióncomprende referirse a una base de datos (1). 30
- 7. El procedimiento de la reivindicación 1, en el que la relación de la identificación con los datos de anotación (1) comprende recibir los datos de anotación como una señal desde el elemento.
-
- 8.
- El procedimiento de la reivindicación 7, en el que la señal desde el elemento ha sido ubicada usando 35 procesamiento de formaciones.
- 9. El procedimiento de una de las reivindicaciones 1 a 8, en el que la vista es de participantes en una reunión.
-
- 10.
- Un sistema para anotar un elemento de una imagen de una vista en una secuencia de vídeo, que 40 comprende:
- (a)
- medios para obtener la imagen (4) de la vista por parte de un dispositivo;
- (b)
- medios para obtener una identificación del elemento;
- (c)
- medios para relacionar la identificación con datos de anotación (1) asociados al elemento; y
45 (d) medios para hacer que los datos de anotación sean exhibidos en el que dicho dispositivo es un teléfono móvil portátil que incluye una cámara y una pantalla táctil; en el que la información de anotación está basada en la posición y orientación del teléfono móvil portátil, y en el que el apareo de correspondencia aprovecha una correspondencia para una vista previa en dicha secuencia, estableciendo la nueva correspondencia por refinación iterativa en base a la correspondencia50 para la vista previa que sirve como una conjetura inicial. - 11. El sistema de la reivindicación 10, que comprende medios para determinar la posición relativa del teléfono móvil portátil con respecto a un objeto, y medios para basar la anotación sobre dicha posición relativa del teléfono móvil portátil con respecto a un objeto, incluyendo su relación espacial y la orientación del teléfono55 móvil portátil.7
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US817314 | 2001-03-26 | ||
US09/817,314 US8432414B2 (en) | 1997-09-05 | 2001-03-26 | Automated annotation of a view |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2558255T3 true ES2558255T3 (es) | 2016-02-02 |
Family
ID=25222797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES10161664.7T Expired - Lifetime ES2558255T3 (es) | 2001-03-26 | 2002-03-25 | Anotación automatizada de una vista |
Country Status (5)
Country | Link |
---|---|
US (2) | US8432414B2 (es) |
EP (2) | EP2207113B1 (es) |
AT (1) | ATE467189T1 (es) |
DE (1) | DE60236234D1 (es) |
ES (1) | ES2558255T3 (es) |
Families Citing this family (82)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002080106A2 (en) * | 2001-03-30 | 2002-10-10 | Koninklijke Philips Electronics N.V. | Method, system and device for augmented reality |
GB2383247A (en) * | 2001-12-13 | 2003-06-18 | Hewlett Packard Co | Multi-modal picture allowing verbal interaction between a user and the picture |
GB0129787D0 (en) * | 2001-12-13 | 2002-01-30 | Hewlett Packard Co | Method and system for collecting user-interest information regarding a picture |
US7823058B2 (en) * | 2002-12-30 | 2010-10-26 | The Board Of Trustees Of The Leland Stanford Junior University | Methods and apparatus for interactive point-of-view authoring of digital video content |
JP4864295B2 (ja) * | 2003-06-02 | 2012-02-01 | 富士フイルム株式会社 | 画像表示システム、画像表示装置およびプログラム |
US7190496B2 (en) * | 2003-07-24 | 2007-03-13 | Zebra Imaging, Inc. | Enhanced environment visualization using holographic stereograms |
US7995090B2 (en) * | 2003-07-28 | 2011-08-09 | Fuji Xerox Co., Ltd. | Video enabled tele-presence control host |
CN100433050C (zh) | 2004-01-08 | 2008-11-12 | 日本电气株式会社 | 移动通信系统、移动终端和固定站设备,字符识别设备、方法和程序 |
US20050209849A1 (en) * | 2004-03-22 | 2005-09-22 | Sony Corporation And Sony Electronics Inc. | System and method for automatically cataloguing data by utilizing speech recognition procedures |
US20050216464A1 (en) * | 2004-03-27 | 2005-09-29 | Microsoft Corporation | Automated authoring tool and method to facilitate inclusion of maps and other geographical data into travelogues |
WO2005124594A1 (en) * | 2004-06-16 | 2005-12-29 | Koninklijke Philips Electronics, N.V. | Automatic, real-time, superimposed labeling of points and objects of interest within a view |
US8547401B2 (en) * | 2004-08-19 | 2013-10-01 | Sony Computer Entertainment Inc. | Portable augmented reality device and method |
GB0502844D0 (en) | 2005-02-11 | 2005-03-16 | Univ Edinburgh | Storing digital content for access using a captured image |
US20070166671A1 (en) * | 2005-12-20 | 2007-07-19 | Peter Walter | Display device |
US7836437B2 (en) * | 2006-02-10 | 2010-11-16 | Microsoft Corporation | Semantic annotations for virtual objects |
US9843790B2 (en) | 2006-03-15 | 2017-12-12 | Fovi 3D, Inc. | Dynamic autostereoscopic displays |
EP1994768A2 (en) * | 2006-03-15 | 2008-11-26 | Zebra Imaging, Inc. | Dynamic autostereoscopic displays |
US20080144174A1 (en) * | 2006-03-15 | 2008-06-19 | Zebra Imaging, Inc. | Dynamic autostereoscopic displays |
KR100775354B1 (ko) * | 2006-04-27 | 2007-11-09 | 팅크웨어(주) | 네비게이션 배경 정보 제공 방법 및 이를 이용한네비게이션 시스템 |
DE102006062061B4 (de) * | 2006-12-29 | 2010-06-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera |
WO2008149537A1 (ja) * | 2007-05-31 | 2008-12-11 | Panasonic Corporation | 画像撮影装置、付加情報提供サーバ及び付加情報フィルタリングシステム |
US8994851B2 (en) * | 2007-08-07 | 2015-03-31 | Qualcomm Incorporated | Displaying image data and geographic element data |
US9329052B2 (en) * | 2007-08-07 | 2016-05-03 | Qualcomm Incorporated | Displaying image data and geographic element data |
US8713421B2 (en) * | 2007-08-28 | 2014-04-29 | Autodesk, Inc. | Scale information for drawing annotations |
US8180396B2 (en) | 2007-10-18 | 2012-05-15 | Yahoo! Inc. | User augmented reality for camera-enabled mobile devices |
CA2643570C (en) * | 2007-11-08 | 2013-01-22 | Carole Moquin | Virtual environment simulating travel by various modes of transportation |
US8131750B2 (en) * | 2007-12-28 | 2012-03-06 | Microsoft Corporation | Real-time annotator |
US8116596B2 (en) * | 2008-01-30 | 2012-02-14 | Eastman Kodak Company | Recognizing image environment from image and position |
US8711176B2 (en) | 2008-05-22 | 2014-04-29 | Yahoo! Inc. | Virtual billboards |
US20090289955A1 (en) * | 2008-05-22 | 2009-11-26 | Yahoo! Inc. | Reality overlay device |
SG192397A1 (en) * | 2008-06-03 | 2013-08-30 | Mitsubishi Electric Corp | In-train information delivery service system, in-train information delivery method, and information display unit for passenger-carrying car |
AU2008359900A1 (en) * | 2008-07-31 | 2010-02-04 | Tele Atlas B.V. | Method of displaying navigation data in 3D |
EP2321953B1 (en) * | 2008-09-02 | 2013-11-06 | Ecole Polytechnique Federale De Lausanne (EPFL) | Image annotation on portable devices |
JP5293025B2 (ja) | 2008-09-11 | 2013-09-18 | ブラザー工業株式会社 | ヘッドマウントディスプレイ |
US20100085350A1 (en) * | 2008-10-02 | 2010-04-08 | Microsoft Corporation | Oblique display with additional detail |
KR101554643B1 (ko) * | 2009-02-17 | 2015-09-21 | 삼성전자주식회사 | 이동통신 단말기에서 화상통화 시 자동으로 이모티콘을 전송하기 위한 장치 및 방법 |
IT1399396B1 (it) * | 2009-06-23 | 2013-04-16 | Midulla | Metodo e sistema di identificazione di oggetti presenti in una foto o in un video digitali |
US8427508B2 (en) * | 2009-06-25 | 2013-04-23 | Nokia Corporation | Method and apparatus for an augmented reality user interface |
US8083149B2 (en) * | 2009-11-05 | 2011-12-27 | Hand Held Products, Inc. | Annotation of optical images on a mobile device |
KR20110087530A (ko) * | 2010-01-26 | 2011-08-03 | 주식회사 팬택 | 목표물에 대한 위치 정보 획득이 가능한 이동통신 단말기 및 이동통신 단말기를 이용한 목표물의 정보 획득 방법 |
WO2011106520A1 (en) | 2010-02-24 | 2011-09-01 | Ipplex Holdings Corporation | Augmented reality panorama supporting visually impaired individuals |
DE102010010951A1 (de) * | 2010-03-10 | 2011-09-15 | Astrium Gmbh | Informationswiedergabegerät |
US20120038668A1 (en) * | 2010-08-16 | 2012-02-16 | Lg Electronics Inc. | Method for display information and mobile terminal using the same |
KR101669119B1 (ko) * | 2010-12-14 | 2016-10-25 | 삼성전자주식회사 | 다층 증강 현실 시스템 및 방법 |
US8265866B2 (en) * | 2010-12-15 | 2012-09-11 | The Boeing Company | Methods and systems for augmented navigation |
WO2012084362A1 (en) | 2010-12-21 | 2012-06-28 | Ecole polytechnique fédérale de Lausanne (EPFL) | Computerized method and device for annotating at least one feature of an image of a view |
US10455089B2 (en) * | 2011-03-22 | 2019-10-22 | Fmr Llc | Augmented reality system for product selection |
US8644673B2 (en) * | 2011-03-22 | 2014-02-04 | Fmr Llc | Augmented reality system for re-casting a seminar with private calculations |
US10114451B2 (en) | 2011-03-22 | 2018-10-30 | Fmr Llc | Augmented reality in a virtual tour through a financial portfolio |
US8810598B2 (en) | 2011-04-08 | 2014-08-19 | Nant Holdings Ip, Llc | Interference based augmented reality hosting platforms |
US9921641B1 (en) * | 2011-06-10 | 2018-03-20 | Amazon Technologies, Inc. | User/object interactions in an augmented reality environment |
US9996972B1 (en) * | 2011-06-10 | 2018-06-12 | Amazon Technologies, Inc. | User/object interactions in an augmented reality environment |
US10008037B1 (en) | 2011-06-10 | 2018-06-26 | Amazon Technologies, Inc. | User/object interactions in an augmented reality environment |
CN102237010B (zh) * | 2011-07-28 | 2015-07-15 | 中国测绘科学研究院 | 一种复杂线状要素的注记方法 |
CN104081389A (zh) | 2011-11-08 | 2014-10-01 | 维迪诺蒂有限公司 | 图像标注方法和系统 |
EP2783340A4 (en) | 2011-11-21 | 2015-03-25 | Nant Holdings Ip Llc | SUBSCRIPTION ACCOUNTING SERVICE AND SYSTEMS AND METHOD THEREFOR |
CN103177034B (zh) * | 2011-12-23 | 2016-03-30 | 上海优途信息科技有限公司 | 一种路网中平行线的生成方法及装置 |
EP2672458A3 (en) * | 2012-06-06 | 2017-04-26 | Samsung Electronics Co., Ltd | Terminal, apparatus and method for providing an augmented reality service |
KR20150082195A (ko) | 2012-10-05 | 2015-07-15 | 비디노티 에스아 | 어노테이션 방법 및 기기 |
US9237263B2 (en) | 2012-10-05 | 2016-01-12 | Vidinoti Sa | Annotation method and apparatus |
WO2014059387A2 (en) * | 2012-10-11 | 2014-04-17 | Imsi Design, Llc | Method of annotating a document displayed on an electronic device |
WO2014094874A1 (en) | 2012-12-21 | 2014-06-26 | Vidinoti Sa | Method and apparatus for adding annotations to a plenoptic light field |
CN103335645B (zh) * | 2013-06-04 | 2015-10-07 | 东南大学 | 面向景观规划的空间精确定位的图像获取方法 |
WO2014198351A1 (en) | 2013-06-12 | 2014-12-18 | Vidinoti Sa | Method and apparatus for identifying local features |
US10168871B2 (en) * | 2013-09-16 | 2019-01-01 | Rovi Guides, Inc. | Methods and systems for presenting direction-specific media assets |
US9582516B2 (en) | 2013-10-17 | 2017-02-28 | Nant Holdings Ip, Llc | Wide area augmented reality location-based services |
US20160342839A1 (en) * | 2014-03-20 | 2016-11-24 | Hewlett Packard Enterprise Development Lp | Identifying electronic components for augmented reality |
CN105338479B (zh) | 2014-06-09 | 2020-03-10 | 阿里巴巴集团控股有限公司 | 基于场所的信息处理方法及装置 |
US10816638B2 (en) * | 2014-09-16 | 2020-10-27 | Symbol Technologies, Llc | Ultrasonic locationing interleaved with alternate audio functions |
JP6468656B2 (ja) * | 2015-09-30 | 2019-02-13 | Kddi株式会社 | Ar情報表示装置 |
CN106971129A (zh) * | 2016-01-13 | 2017-07-21 | 深圳超多维光电子有限公司 | 一种3d图像的应用方法和装置 |
US10460457B2 (en) * | 2016-07-12 | 2019-10-29 | Novartis Ag | Adaptive adjustment of overlay image parameters |
TWI611307B (zh) * | 2016-08-24 | 2018-01-11 | 李雨暹 | 適地性空間物件資料建立方法、顯示方法與應用系統 |
JP6832794B2 (ja) * | 2017-06-05 | 2021-02-24 | ルネサスエレクトロニクス株式会社 | 無線通信システム |
US10430987B1 (en) * | 2017-06-09 | 2019-10-01 | Snap Inc. | Annotating an image with a texture fill |
US10508925B2 (en) | 2017-08-31 | 2019-12-17 | Uber Technologies, Inc. | Pickup location selection and augmented reality navigation |
CN109584295B (zh) * | 2017-09-29 | 2022-08-26 | 阿里巴巴集团控股有限公司 | 对图像内目标物体进行自动标注的方法、装置及系统 |
US11218639B1 (en) * | 2018-10-12 | 2022-01-04 | Staples, Inc. | Mobile interface for marking and organizing images |
US10740615B2 (en) | 2018-11-20 | 2020-08-11 | Uber Technologies, Inc. | Mutual augmented reality experience for users in a network system |
US11631119B2 (en) | 2019-01-11 | 2023-04-18 | Target Brands, Inc. | Electronic product recognition |
US11436826B2 (en) | 2019-01-11 | 2022-09-06 | Target Brands, Inc. | Augmented reality experience for shopping |
US11461974B2 (en) | 2020-07-31 | 2022-10-04 | Arknet Inc. | System and method for creating geo-located augmented reality communities |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60200379A (ja) * | 1984-03-26 | 1985-10-09 | Hitachi Ltd | 画像処理用セグメンテ−シヨン装置 |
JPH0644292B2 (ja) * | 1984-07-09 | 1994-06-08 | オムロン株式会社 | 二次元視覚認識装置 |
EP0298250B1 (de) * | 1987-07-10 | 1992-05-06 | Siemens Aktiengesellschaft | Flexible Erkennung von Objektstrukturen in Farb- und Grauwertbildern |
US5544045A (en) * | 1991-10-30 | 1996-08-06 | Canon Inc. | Unified scanner computer printer |
US5815411A (en) * | 1993-09-10 | 1998-09-29 | Criticom Corporation | Electro-optic vision system which exploits position and attitude |
JP2521035B2 (ja) * | 1993-12-03 | 1996-07-31 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 表示装置への注釈の配置 |
US5553209A (en) * | 1994-01-28 | 1996-09-03 | Hughes Aircraft Company | Method for automatically displaying map symbols |
US5526478A (en) * | 1994-06-30 | 1996-06-11 | Silicon Graphics, Inc. | Three dimensional model with three dimensional pointers and multimedia functions linked to the pointers |
GB9422012D0 (en) * | 1994-11-01 | 1994-12-21 | Rank Xerox Ltd | Document processing and data distribution system |
US5729471A (en) * | 1995-03-31 | 1998-03-17 | The Regents Of The University Of California | Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene |
US5717406A (en) * | 1995-06-07 | 1998-02-10 | Sanconix Inc. | Enhanced position calculation |
US6181302B1 (en) * | 1996-04-24 | 2001-01-30 | C. Macgill Lynde | Marine navigation binoculars with virtual display superimposing real world image |
US5737491A (en) * | 1996-06-28 | 1998-04-07 | Eastman Kodak Company | Electronic imaging system capable of image capture, local wireless transmission and voice recognition |
US5689472A (en) * | 1996-10-31 | 1997-11-18 | Silicon Magic Corporation | System and method for providing efficient access to a memory bank |
JP2927350B2 (ja) * | 1997-03-27 | 1999-07-28 | 株式会社モノリス | 多重解像度フィルタ処理方法およびその方法を利用することのできる画像マッチング方法 |
US6222583B1 (en) | 1997-03-27 | 2001-04-24 | Nippon Telegraph And Telephone Corporation | Device and system for labeling sight images |
US6154788A (en) * | 1997-04-25 | 2000-11-28 | Simple Technology, Inc. | Multi-function module incorporating flash memory having additional controller adapted to configure the data from the memory that is to be provided to the external source |
WO1998055833A1 (en) * | 1997-06-03 | 1998-12-10 | Stephen Bide | Portable navigation system comprising direction detector, position detector and database |
JP3586361B2 (ja) * | 1997-07-23 | 2004-11-10 | 新キャタピラー三菱株式会社 | 防犯携帯電話システム |
US6292830B1 (en) * | 1997-08-08 | 2001-09-18 | Iterations Llc | System for optimizing interaction among agents acting on multiple levels |
US6208353B1 (en) * | 1997-09-05 | 2001-03-27 | ECOLE POLYTECHNIQUE FEDéRALE DE LAUSANNE | Automated cartographic annotation of digital images |
US6327594B1 (en) * | 1999-01-29 | 2001-12-04 | International Business Machines Corporation | Methods for shared data management in a pervasive computing environment |
US6587601B1 (en) * | 1999-06-29 | 2003-07-01 | Sarnoff Corporation | Method and apparatus for performing geo-spatial registration using a Euclidean representation |
US6401105B1 (en) * | 1999-07-08 | 2002-06-04 | Telescan, Inc. | Adaptive textual system for associating descriptive text with varying data |
US6307573B1 (en) * | 1999-07-22 | 2001-10-23 | Barbara L. Barros | Graphic-information flow method and system for visually analyzing patterns and relationships |
US6330356B1 (en) * | 1999-09-29 | 2001-12-11 | Rockwell Science Center Llc | Dynamic visual registration of a 3-D object with a graphical model |
US6611725B1 (en) * | 2000-02-03 | 2003-08-26 | Solidworks Corporation | Computer drawing system |
KR100359770B1 (ko) * | 2000-03-02 | 2002-11-04 | 주식회사 하이닉스반도체 | 씨모스 이미지 센서의 액티브 픽셀 회로 |
US6895126B2 (en) * | 2000-10-06 | 2005-05-17 | Enrico Di Bernardo | System and method for creating, storing, and utilizing composite images of a geographic location |
US6904392B1 (en) * | 2000-10-13 | 2005-06-07 | Dassault Systemes | Annotation management |
US6765569B2 (en) * | 2001-03-07 | 2004-07-20 | University Of Southern California | Augmented-reality tool employing scene-feature autocalibration during camera motion |
US7751805B2 (en) * | 2004-02-20 | 2010-07-06 | Google Inc. | Mobile image-based information retrieval system |
US7835577B2 (en) * | 2005-01-18 | 2010-11-16 | Siemens Corporation | System and method for multi-label image segmentation of digital photographs |
US7840059B2 (en) * | 2006-09-21 | 2010-11-23 | Microsoft Corporation | Object recognition using textons and shape filters |
-
2001
- 2001-03-26 US US09/817,314 patent/US8432414B2/en not_active Expired - Lifetime
-
2002
- 2002-03-25 DE DE60236234T patent/DE60236234D1/de not_active Expired - Lifetime
- 2002-03-25 ES ES10161664.7T patent/ES2558255T3/es not_active Expired - Lifetime
- 2002-03-25 EP EP10161664.7A patent/EP2207113B1/en not_active Expired - Lifetime
- 2002-03-25 EP EP02006821A patent/EP1246080B1/en not_active Expired - Lifetime
- 2002-03-25 AT AT02006821T patent/ATE467189T1/de not_active IP Right Cessation
-
2012
- 2012-03-28 US US13/432,952 patent/US8675016B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
DE60236234D1 (de) | 2010-06-17 |
EP1246080B1 (en) | 2010-05-05 |
EP2207113B1 (en) | 2015-11-11 |
EP1246080A2 (en) | 2002-10-02 |
US8432414B2 (en) | 2013-04-30 |
US20120212507A1 (en) | 2012-08-23 |
US8675016B2 (en) | 2014-03-18 |
US20020075282A1 (en) | 2002-06-20 |
EP2207113A1 (en) | 2010-07-14 |
ATE467189T1 (de) | 2010-05-15 |
EP1246080A3 (en) | 2006-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2558255T3 (es) | Anotación automatizada de una vista | |
US6208353B1 (en) | Automated cartographic annotation of digital images | |
JP5582548B2 (ja) | 実環境視像における仮想情報の表示方法 | |
CN104748738B (zh) | 室内定位导航方法和系统 | |
JP5383930B2 (ja) | 端末装置の視野に含まれている客体に関する情報を提供するための方法、端末装置及びコンピュータ読み取り可能な記録媒体 | |
US8963943B2 (en) | Three-dimensional urban modeling apparatus and method | |
US6307556B1 (en) | Augmented reality vision systems which derive image information from other vision system | |
US6278461B1 (en) | Augmented reality vision systems which derive image information from other vision systems | |
CN105279750B (zh) | 一种基于ir-uwb和图像矩的装备展示导览系统 | |
JP2019109245A (ja) | 視覚強化ナビゲーション | |
JP4253567B2 (ja) | データオーサリング処理装置 | |
KR101330805B1 (ko) | 증강 현실 제공 장치 및 방법 | |
KR20120093991A (ko) | 증강 현실 시스템 | |
TWI410608B (zh) | Use the point of interest information to display the system and method of the smartphone lens image | |
US20140285523A1 (en) | Method for Integrating Virtual Object into Vehicle Displays | |
US20170193679A1 (en) | Information processing apparatus and information processing method | |
US20100287500A1 (en) | Method and system for displaying conformal symbology on a see-through display | |
JP2006059136A (ja) | ビューア装置及びそのプログラム | |
IL169934A (en) | Real-time geographic information system and method | |
JP2005268847A (ja) | 画像生成装置、画像生成方法、および画像生成プログラム | |
US10868977B2 (en) | Information processing apparatus, information processing method, and program capable of adaptively displaying a video corresponding to sensed three-dimensional information | |
CN109961522A (zh) | 图像投射方法、装置、设备和存储介质 | |
JP5511084B2 (ja) | 通信装置、通信システム、通信方法、及び通信プログラム | |
Schmalstieg et al. | Augmented reality as a medium for cartography | |
JPH1166350A (ja) | 検索型景観ラベリング装置およびシステム |