ES2683364T3 - Método para monitorizar dimensiones lineales de objetos tridimensionales - Google Patents
Método para monitorizar dimensiones lineales de objetos tridimensionales Download PDFInfo
- Publication number
- ES2683364T3 ES2683364T3 ES12887908.7T ES12887908T ES2683364T3 ES 2683364 T3 ES2683364 T3 ES 2683364T3 ES 12887908 T ES12887908 T ES 12887908T ES 2683364 T3 ES2683364 T3 ES 2683364T3
- Authority
- ES
- Spain
- Prior art keywords
- camera
- projection unit
- coordinates
- image
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2545—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
El método para medición 3D del objeto usando retroiluminación estructurada consiste en proyectar una imagen predeterminada que tiene al menos dos líneas que no se cruzan a lo largo de uno de los ejes longitudinales sobre el objeto controlado, grabar la luz emitida por la unidad de proyección y reflejada desde el objeto usando al menos dos cámaras instaladas a distancias diferentes de la unidad de proyección formando ángulos de triangulación diferentes entre el haz central de la unidad de proyección y los haces centrales de las cámaras, posteriormente identificar cada línea proyectada por la unidad de proyección y formada por la luz reflejada recibida por cada cámara comparando las coordenadas de las líneas recibidas por las cámaras, con el ángulo de triangulación entre el haz central de la unidad de proyección y el haz central de la primera cámara ubicada a la distancia mínima de la unidad de proyección asumida igual al arcotangente de la ratio entre la distancia entre las bandas proyectadas y la profundidad focal de la lente de esta cámara, determinar las coordenadas longitudinales de los centros de línea y coordenadas verticales como el cociente de la coordenada longitudinal por la tangente del ángulo de triangulación entre el haz central de la unidad de proyección y el haz central de la primera cámara en la imagen de la primera cámara, y usar el valor de coordenada vertical obtenido usando la segunda cámara ubicada en un ángulo de triangulación más grande que el de la primera cámara para ajustar la coordenada vertical, por lo que las posiciones de la mismas líneas en la imagen de la segunda cámara se identifican como las más cercanas a las coordenadas longitudinales calculadas como el producto de la coordenada vertical anterior determinada usando la primera cámara y la tangente del ángulo de triangulación de segunda cámara, tras lo que se determinan los valores ajustados de las coordenadas longitudinales y verticales para estas líneas.
Description
5
10
15
20
25
30
35
40
45
50
55
DESCRIPCION
Metodo para monitorizar dimensiones lineales de objetos tridimensionales Campo de la invencion
La invencion atane a instrumentos de medicion y se puede usar para mediciones 3D con una precision adecuada y exponer contornos de objetos tridimensionales al observar un patron proyectado conocido en diversos angulos de triangulacion.
Descripcion del estado de la tecnica
Un metodo conocido previamente para controlar dimensiones lineales de objetos tridimensionales basado en tres coordenadas consiste en formar una retroiluminacion estructurada de sondeo sobre la superficie del objeto controlado proyectando en la superficie del objeto controlado un haz de luz, caracterizado por intensidad espacial modulada, grabar la imagen del patron de retroiluminacion de sondeo distorsionado por la topograffa de la superficie del objeto controlado y determinar la altura de la topograffa de superficie del objeto controlado con un ordenador electronico digital que mide la altura topografica sobre la base del valor de distorsion del patron de retroiluminacion de sondeo, y calcular las otras dos coordenadas sobre la base de la posicion de las distorsiones de patron retroiluminacion en la imagen grabada (WO 99/58930).
Las desventajas del metodo conocido son una alta tasa de errores provocados por el hecho de que cuando a la superficie de objeto controlado se dirige radiacion optica modulada a lo largo de una de las coordenadas a traves de un filtro de trasparencia con una estructura regular no variada, es imposible prever o tener en cuenta por adelantado las distorsiones de imagen provocadas por diferentes propiedades reflectantes de la superficie y rebajes profundos, que no pueden ser identificados sin informacion anterior acerca de la macroestructura de la superficie de objeto controlado.
Las tecnicas anteriores incluyen un metodo para controlar dimensiones lineales de objetos tridimensionales sobre la base de tres coordenadas cartesianas y un dispositivo que las implementa. El metodo consiste en proyectar un sistema de bandas multicolor creadas por modulacion espacial de la intensidad de radiacion optica de sondeo a lo largo de una de las coordenadas.
El sistema se caracteriza por bandas alternas y crea una retroiluminacion estructurada. Como resultado, la parte entera de la superficie de objeto controlado en el campo de vision del fotodetector y la imagen distorsionada de la retroiluminacion estructurada “superpuesta” en la superficie son grabadas en un fotograma. Las dimensiones controladas son evaluadas sobre la base del grado al que se distorsiona la imagen de la banda establecida y en la posicion de las bandas en el sistema cartesiano (WO 00/ 70303).
La limitacion del metodo usado previamente y de los dispositivos que lo usan es de pobre precision relacionada con la imposibilidad de interpretacion no ambigua de las holguras en la imagen de las bandas distorsionadas por el contorno de la superficie de objeto controlado, o por orificios pasantes, o por un bajo valor de reflectancia espectral dependiendo del color de algun area de la superficie de objeto controlado. Si el objeto controlado es un total de componentes locales, p. ej. un set de alabes de turbina, la reconstruccion de la topologfa de dicho objeto y el subsiguiente control de sus dimensiones lineales usando el metodo anterior son imposibles.
El metodo usado previamente para medicion optica de la forma de superficie implica colocar la superficie en el campo de iluminacion del sistema de proyeccion optico y simultaneamente en el campo de vision del dispositivo para grabar imagenes de la superficie anterior, que proyecta un set de imagenes con una estructura conocida del flujo de luz a la superficie medida usando el sistema optico de proyeccion anterior, grabar el set de las imagenes correspondientes de la superficie observada en un angulo diferente del angulo de proyeccion de set de imagenes, y determinar la forma de la superficie medida sobre la base de las imagenes grabadas. En este caso, se proyectan al menos tres distribuciones periodicas de la intensidad de luz alternadamente a la superficie mencionada anteriormente, estas distribuciones son un set de bandas cuya intensidad vana transversalmente siguiendo el principio sinusoidal y que difieren en el cambio de este set de bandas en la direccion perpendicular a las bandas en un valor controlado dentro de una banda, y las imagenes grabadas son procesadas para recibir una distribucion preliminar de fases que contiene las fases correspondientes a puntos sobre la superficie. Ademas, una distribucion complementaria de la intensidad de luz es proyectada momentaneamente sobre la superficie anterior, haciendo posible determinar el numero de la banda desde el anterior set de bandas para cada punto de la superficie anterior, se graba una imagen adicional de la superficie anterior; se obtiene la distribucion de fases resultante para cada punto visible de la superficie anterior, sobre la base de la imagen anterior del objeto, iluminado por la distribucion preliminar de fases, y la imagen anterior del objeto iluminado por la distribucion complementaria de fases. Y sobre la base de la distribucion resultante de fases anterior, se obtienen coordenadas absolutas de los puntos de superficie anterior usando los datos de calibracion preliminares. Cuando se realizan mediciones usando los metodos anteriores, se asume que se graba una imagen de cada punto de la superficie bajo las condiciones cuando esta iluminada unicamente con un haz directo emitido por la unidad de proyeccion, y la iluminacion de esta imagen de punto de objeto grabada se considera proporcional al brillo del haz enfocado en este punto directamente desde la unidad de proyeccion (RU n.° 2148793).
5
10
15
20
25
30
35
40
45
50
55
Las limitaciones de esto metodo consisten en la complejidad del dispositivo que lo usa y la duracion de proceso que requiere considerable tiempo para las mediciones y que deja lugar a errores en caso de oscilaciones mecanicas de las posiciones de equipos (unidad de proyeccion y camara).
Las tecnicas anteriores incluyen un metodo y un dispositivo para control remoto y reconocimiento de superficies de objeto tridimensional usando el metodo de retroiluminacion estructurada que implica una fuente de radiacion optica y - instalado en secuencia siguiendo el curso de radiacion - un filtro de trasparencia que permite la posibilidad de formar una estructura de lmea no periodica de las bandas, un sistema optico afocal para proyectar la imagen de filtro de trasparencia sobre la superficie controlada, una lente de recepcion que forma la imagen de la ilustracion de estructura de lmea que aparece en la superficie de objeto controlado distorsionada por el contorno de la superficie de objeto controlado, una fotograbadora que digitaliza la imagen formada por la lente de recepcion, y una unidad electronica digital informatica que convierte las imagenes digitales grabadas por la fotograbadora para coordinar valores en la superficie controlada; el dispositivo se provee de N-1 fuentes de radiacion adicionales, cada una de ellas diferente de las otras en el intervalo espectral de radiacion, N-1 filtros de trasparencia, cada uno de ellos diferente en al menos una banda de los otros, N-1 lentes instaladas despues de los filtros de trasparencia, N-1 espejos instalados en un angulo de 45 grados con el eje optico de cada una de las N-1 lentes antes del segundo componente del sistema optico afocal, segundos N-1 espejos instalados por detras de la lente de recepcion en un angulo de 45 grados con el eje optico de lente de recepcion, N-1 lentes de recepcion secundarias, cada una de ellas instaladas por detras de cada uno de los segundos N-1 espejos y, conjuntamente con la lente de recepcion, formar la imagen de las ilustraciones de la estructura de lmea que aparece en la superficie de objeto controlado distorsionada por el contorno de la superficie de objeto controlado, N-1 fotograbadoras, cada una de ellas tiene un intervalo de sensibilidad espectral que coincide con el intervalo de radiacion espectral de una de las N-1 fuentes de radiacion, N-1 unidades digitales electronicas informatica; la unidad electronica de adicion de imagen se implementa con el numero de entradas igual al numero de las unidades digitales electronicas informaticas, con cada una de la entrada de unidad electronica de adicion de imagen conectada a la salida de cada unidad digital electronica informatica, y el numero N se determina segun la formula N=Log2(L), donde L es el numero de parejas de las celdas de resolucion de muestra de fotograbadora (RU n.° 2199718).
Las limitaciones de este metodo tambien consisten en la complejidad del dispositivo que lo usa y la duracion de proceso que requiere considerable tiempo para las mediciones y que deja lugar a errores en caso de oscilaciones mecanicas de las posiciones de equipos (unidad de proyeccion y camara).
Las tecnicas anteriores incluyen un metodo para controlar dimensiones lineales de objetos tridimensionales sobre la base de tres coordenadas cartesianas y un dispositivo que las usa, en el que dos camaras se ubican en la derecha y en la izquierda de la unidad de proyeccion, formando asf una pareja estereoscopica parecida a la vision humana.
La unidad de proyeccion proyecta una imagen de bandas sobre el objeto. Se reciben imagenes desde ambas camaras derecha e izquierda, y entonces se comparan las dos imagenes usando metodos de correlacion, es decir, cada banda de la imagen derecha se empareja con una banda similar en la imagen izquierda buscando a traves de todas las bandas en la imagen izquierda (US 6377700, prototipo).
La limitacion de este metodo es el largo tiempo necesario para buscar a traves de todas las posibles parejas de bandas y el largo tiempo de ejecucion del algoritmo de correlacion.
Descripcion de la invencion
El objeto de esta invencion es por lo tanto crear un metodo eficaz y eficiente para controlar dimensiones lineales de objetos tridimensionales, asf como expandir la variedad de metodos para controlar dimensiones lineales de objetos tridimensionales.
El resultado tecnico que asegura que se logra el objeto consiste en simplificacion y completa automatizacion del proceso de controlar dimensiones lineales de objetos tridimensionales, reduccion de la duracion de proceso de medicion y eliminacion casi completa de errores en caso de oscilaciones mecanicas que surgen en posiciones de los equipos (unidad de proyeccion y camaras) en relacion al objeto de medicion, ya que la unidad de proyeccion y las camaras se ejecutan como herramienta portatil en un unico alojamiento.
El alcance de la invencion es que el metodo de llevar a cabo mediciones 3D de un objeto usando retroiluminacion estructurada asume que la unidad de proyeccion se usa para proyectar sobre el objeto controlado una imagen conocida que tiene al menos dos lmeas que no se cruzan a lo largo de uno de los ejes longitudinales, entonces la luz proyectada reflejada desde el objeto es grabada usando al menos dos camaras ubicadas a distancias diferentes desde la unidad de proyeccion con formacion de angulos de triangulacion diferentes entre el haz proyectado central y los haces centrales de las camaras, y cada lmea proyectada por la unidad de proyeccion y formada por la luz reflejada recibida por cada camara se identifica al comparar las coordenadas de las lmeas recibidas por las camaras, con el angulo de triangulacion entre el haz central de la unidad de proyeccion y el haz central de la primera camara ubicada a una distancia minima de la unidad de proyeccion establecida igual al arcotangente de la ratio de la distancia entre las bandas proyectadas y la profundidad focal de esta lente de camara, las coordenadas longitudinales de los centros de lmea y las coordenadas verticales se determinan en la imagen de la primera camara como el cociente de la coordenada
5
10
15
20
25
30
35
40
45
50
55
longitudinal por la tangente del angulo de triangulacion entre el haz central de la unidad de proyeccion y el haz central de la primera camara, y para ajustar la coordenada vertical se usa su valor obtenido usando la segunda camara ubicada en un angulo de triangulacion mayor que la primera camara, por lo que la ubicacion de las mismas lmeas se identifica en la segunda imagen de camara como la mas cercana a las coordenadas longitudinales calculada como el producto de la coordenada vertical anterior determinada usando la primera camara y la tangente del angulo de triangulacion de segunda camara, y entonces para estas lmeas se determinan los valores ajustados de las coordenadas longitudinales y verticales.
El metodo preferible para determinar las coordenadas longitudinales de los centros de lmea en la primera imagen de camara es tomar los pfxeles mas brillantes en su anchura. Se asume la distancia entre la camara y la unidad de proyeccion como el producto de la distancia desde la unidad de proyeccion al punto de interseccion de los haces centrales de la unidad de proyeccion y la camara y la tangente del angulo de triangulacion entre el haz central de la unidad de proyeccion y el haz central de la camara. El valor de coordenada vertical obtenido usando las camaras tercera, cuarta y subsiguientes se usa para ajuste adicional de la coordenada vertical.
En ciertos dispositivos que usan el metodo, se ubican camaras en uno o en ambos lados de la unidad de proyeccion. Las coordenadas preferiblemente se miden y determinan usando un procesador informatico, y se saca una imagen 3D a la pantalla de ordenador.
Figuras de dibujos
La figura 1 muestra la disposicion de la unidad de proyeccion y la camara cuando se proyecta un haz, la figura 2 muestra el diagrama de una lmea proyectada sobre un objeto tridimensional, la figura 3 muestra el diagrama de dos lmeas proyectadas sobre un objeto tridimensional, la figura 4 muestra la disposicion de la unidad de proyeccion y la camara cuando se proyectan dos haces, la figura 5 muestra las posibles imagenes de banda proyectadas por la unidad de proyeccion y recibidas por las camaras (5a - imagen de las bandas en la unidad de proyeccion, 5c - contorno de la imagen de bandas en la unidad de proyeccion, 5b - imagen de las bandas en la camara, 5d - contorno de la imagen de bandas en la camara), la figura 6 - lmeas correspondientes a las bandas emitidas desde la unidad de proyeccion como lmeas rectas paralelas, la figura 7 - lmeas adicionales correspondientes a las bandas emitidas desde la unidad de proyeccion, la figura 8 - lmeas correspondientes a bandas proyectadas a dos camaras, la figura 9 muestra el diagrama de sistema (unidad) de proyeccion, la figura 10 - un dispositivo alternativo con camaras ubicadas en ambos lados de la unidad de proyeccion y la correspondiente superposicion de los campos de vision de las camaras, la figura 11 - una disposicion alternativa con tres camaras en un lado de la unidad de proyeccion y la correspondiente superposicion de los campos de vision de las camaras.
Realizacion preferible de la invencion
La figura 1 muestra un dispositivo que comprende una unidad de proyeccion 1 que proyecta la imagen predeterminada sobre el objeto y la camara 2 que graba y transmite al ordenador (no se muestra) la luz emitida por unidad de proyeccion 1 y reflejada desde el objeto, en un cierto angulo de triangulacion a (angulo entre el haz central de la unidad de proyeccion 3 y el haz central 4 de la camara 1.
La distancia L entre la camara y la unidad de proyeccion se llama la base. La base se puede elegir de la siguiente manera.
L = s*tg a, donde s es la distancia desde la unidad de proyeccion al punto de interseccion de los haces centrales de la unidad de proyeccion y la camara (m).
En el caso mas simple, la unidad de proyeccion 1 proyecta una banda horizontal 3 que coincide con el haz central de la unidad de proyeccion en la figura 1. La figura 2 es una vista desde la camara 2. La figura 2 muestra la manera que se distorsiona la banda 3 debido a la curvatura del objeto mostrado como planos 5 y 6, y en la imagen de la camara 2 se ve un trazo 7 de la banda reflejada 3. La figura 1 muestra una vista lateral de la misma configuracion que en la figura 2, y la banda 3 cruza el plano 5 y el plano 6 a distancias diferentes Z1 y Z2 de la camara y puntos de interseccion 8 y 9 tienen coordenadas diferentes Y1 e Y2. En un caso general, de esto se obtiene la ratio Z = y/tg a para obtener la coordenada Z usando la coordenada Y. Entonces usualmente se usa esta banda para escanear la superficie a lo largo del eje Y en la figura 2 para obtener mediciones 3D del objeto en el campo de vision de la camara con el mayor grado de detalle posible.
Si la camara 2 ve unicamente una banda proyectada por la unidad de proyeccion 1 por fotograma, para obtener dichas mediciones esta banda tendna que ser desplazada la distancia mas pequena posible y tendnan que recibirse tantas imagenes como fuera posible desde la camara 2. Esto requiere invariablemente un monton de tiempo. La camara comun permisible 2 tiene una tasa de fotogramas de 25 fps y una resolucion de 1 MP, es decir, 1.000 pfxeles a lo largo del eje de coordenada Y y 1.000 pfxeles a lo largo del eje de coordenada X. Se tienen 1.000 pfxeles en la banda a lo largo del eje de coordenada X, es decir, 1.000 mediciones. Para obtener el mismo numero de mediciones a lo largo de ambos ejes, se tiene que proyectar la banda 1.000 veces desplazandola un pixel a lo largo del eje de coordenada Y, recibir 1.000 fotogramas desde la camara 2 para este proposito, lo que lleva 40 segundos. Si se debe disminuir el numero de imagenes y obtener mas mediciones de una imagen de la camara 2, segun el metodo, se deben proyectar
5
10
15
20
25
30
35
40
45
50
dos bandas, como en la figura 3, o mas, en lugar de unicamente una banda, pero surgen ambiguedades en la identificacion de bandas. En la figura 3 la banda 7 esta combinada con la banda 11 en el punto 12 para una camara (2). Esta ambiguedad da como resultado un error al determinar la coordenada Z. Una coordenada Y puede corresponder a dos coordenadas Z1 y Z2 en la imagen de camara. En la figura 4 desde la unidad de proyeccion 1 se emiten dos haces que representan las bandas. Los puntos 13 y 14 en la figura 4 son puntos de ambiguedad.
La ambiguedad debe ser resuelta cuando se proyectan varias bandas. Para este proposito se introducen los siguientes terminos y algoritmos: T - intervalo entre las bandas, Tz - el volumen medido usualmente definido por la profundidad focal de las lentes usadas en la unidad de proyeccion y la camara 2. La profundidad focal Tz es la distancia a lo largo del eje Z dentro de la que se puede observar una imagen suficientemente contrastada de las bandas proyectadas, es decir, se puede ver donde empieza y finaliza la banda. La profundidad focal Tz puede ser el valor de referencia de la lente de camara.
La profundidad focal Tz de la lente de camara para cada caso espedfico puede ser determinada, por ejemplo, de la siguiente manera: Tz= 2DC/(f/s)2
donde: D es la abertura de lente de camara (m2), C es el tamano de pixel de camara (pm), f es la distancia focal de lente de camara (m), s es la distancia desde la unidad de proyeccion al punto de interseccion de los haces centrales de la unidad de proyeccion y la camara (m).
En la imagen de la camara 2 una banda proyectada usualmente tiene la anchura de (ocupa) varios pfxeles de la distribucion CCD de la camara 2, debido al hecho de que las bandas pueden ser desenfocadas por la lente o que el objeto puede disipar luz por reflexion, las bandas no tienen coordenada Y definida claramente.
El algoritmo de determinacion de subpfxel se usa para determinar la coordenada Y. El algoritmo de determinacion de subpfxel consiste en lo siguiente:
La unidad de proyeccion 1 proyecta la imagen de bandas paralelas en la figura 5 con el mmimo y maximo nivel de brillo 15. En la camara 2, se observan bandas 17 con brillo variable de pfxeles ligeramente emborronados debido al desenfoque de las lentes, ruido de pixel de camara 2 y otras distorsiones. Se puede asumir el pixel mas brillante como el centro de lmea o hacer una aproximacion (por software) de los valores de pixel, usando, por ejemplo, una curva parabolica o sinusoidal 18, para determinar la coordenada Y del centro de lmea en la imagen de la camara 2 a fracciones de un pixel.
Opciones disponibles para resolver ambiguedades cuando se proyectan simultaneamente varias lmeas:
Se puede hacer una conclusion basada en la figura 3 y la figura 4 de que el area a lo largo de la coordenada Z entre los puntos 13 y 14 es un area donde se mantiene ausencia de ambiguedad en la definicion de la banda proyectada en imagen de la camara 2. Por consiguiente, se debe intentar hacer el area de medicion Tz menor o igual a esta distancia.
La figura 6 y la figura 7 muestran lmeas correspondientes a bandas emitidas desde la unidad de proyeccion 1 como lmeas rectas paralelas al haz central 3 de la unidad de proyeccion 1.
A partir de estos dibujos se puede entender que existe la relacion tg a = T/Tz entre angulo a, intervalo T y area de medicion Tz, asf como que existe la relacion tg a = AY/Z entre AY y angulo a.
Es obvio que cuanto mayor es el angulo a, mas grande es el cambio de la banda AY observado en la imagen de la camara 2, con la banda proyectada como lmea 19 en la imagen de camara, lo que permite determinar con mayor precision la coordenada Z, es decir, nuestro sistema tiene mayor sensibilidad a mediciones a lo largo del eje Z. Ademas, cuanto mayor es el angulo, menor es el dominio de determinacion Tz. Esto es obvio si se compara el valor Tz en la figura 6 con el valor Tz en la figura 7.
Con el valor mmimo del angulo de triangulacion la camara percibe claramente la lmea proyectada y la coordenada longitudinal Y, pero la precision de percepcion de la coordenada vertical Z esta en su mmimo. Con el valor mas grande del angulo de triangulacion de banda las bandas en la imagen empiezan a combinarse, y es diffcil determinar la coordenada longitudinal Y, pero la precision de percepcion de la coordenada vertical Z esta en su maximo. Esto estipula el uso de al menos dos camaras instaladas en angulos de triangulacion diferentes.
El dispositivo en la figura 9 comprende el sistema de proyeccion (unidad) 1 que consiste en una fuente de luz - lampara 29, lente de condensador 30, corredera 31 que contiene un dibujo de bandas paralelas horizontales, y lente 32. El dispositivo tambien incluye tres camaras 22, 23, 33. Para asegurar que las camaras estan tan cerca de la unidad de proyeccion 1 como sea posible, la primera camara 22 tiene que ser colocada demasiado cerca de la unidad de proyeccion y las dimensiones de camara pueden superar las dimensiones de la base (distancia base) L que corresponde al angulo elegido a.
Para resolver este problema, se sugiere usar un espejo semitransparente 34 o un prisma en el camino de los haces de la camara 22 y el sistema de proyeccion, que hace posible espaciar aun mas la camara y la unidad de proyeccion.
5
10
15
20
25
30
35
40
45
50
55
Segunda solucion para colocar camaras tan cerca de la unidad de proyeccion como sea posible:
Colocar las camaras 22 y 23 en la derecha y la izquierda de la unidad de proyeccion 1. La figura 10 muestra distancias de base L1 y L2 ubicadas en un lado de la unidad de proyeccion que corresponde a los angulos de triangulacion. En este caso la superposicion resultante de los campos de vision de las camaras 35 sera incompleta, lo que reducira el area de medicion del objeto, pero esta solucion es tecnicamente mas simple de implementar que la que requiere instalacion y ajuste de un espejo o prisma semitransparente.
El tercer metodo se muestra en la figura 11. Las camaras se ubican en un lado de la unidad de proyeccion 1. Esto hace posible lograr mayor superposicion de los campos de vision de las camaras 35.
Generalmente, el metodo para medicion 3D de un objeto con retroiluminacion estructurada se implementa de la siguiente manera. Usando la unidad de proyeccion 1, sobre el objeto controlado se proyecta una imagen predeterminada con al menos dos lmeas que no se cruzan a lo largo de uno de sus ejes longitudinales. La luz de la unidad de proyeccion 1 reflejada desde el objeto se graba con al menos dos camaras ubicadas a distancias diferentes desde la unidad de proyeccion formando asf angulos de triangulacion diferentes entre el haz central de la unidad de proyeccion y los haces centrales de las camaras. En la imagen de la primera camara 2 se determinan las coordenadas longitudinales de los centros de lmea como los pfxeles mas brillantes.
Entonces se identifica cada lmea proyectada por la unidad de proyeccion 1 y formada por la luz reflejada recibida por cada camara comparando las coordenadas de las lmeas percibidas por las camaras. Para este proposito el angulo de triangulacion entre el haz central de la unidad de proyeccion 1 y el haz central de la primera camara 22, colocado a una distancia minima de la unidad de proyeccion 1 y un angulo mmimo a1, se escoge y establece igual al arcotangente de la ratio de la distancia entre las bandas proyectadas y la profundidad focal Tz de esta lente de camara.
Tales condiciones impuestas en la posicion relativa de la unidad de proyeccion 1 y la camara 22 permiten la maxima ausencia de ambiguedad a la hora de identificar cada banda proyectada. El intervalo T en la figura 8 entre las bandas proyectadas 20 y 21 y el angulo a1 entre la primera camara 22 y la unidad de proyeccion 1 se eligen sobre la base de la ratio de a1 = arctang(T/Tz). Esto hace posible diferenciar entre todas las bandas proyectadas en la imagen de la primera camara. Las proyecciones de banda sobre la imagen desde la camara 22 se representan como 24 y 25.
Las coordenadas longitudinales de los centros de lmea y las coordenadas verticales se determinan en la imagen de la primera camara como el cociente de la coordenada longitudinal Y1 por la tangente del angulo de triangulacion entre el haz central de la unidad de proyeccion y el haz central de la primera camara.
Usando el algoritmo de busqueda de centro de lmea - el algoritmo de determinacion de subpfxel - y sobre la base de la relacion Z=Y1/tga1 (Y1 - coordenadas en la imagen de la primera camara), las coordenadas Z de todas las bandas proyectadas se calcula con un cierto error a, que principalmente depende del angulo de triangulacion a1, del numero de pfxeles en la distribucion CCD de la camara, y el ruido de pixel de la camara seleccionada.
El error de anchura de imagen de lmea a (empezando con la segunda camara) no superara T/ Cos a2.
Para ajustar la coordenada vertical Z, se usa su valor obtenido con la segunda camara ubicada en un angulo de triangulacion mayor a2 que el de la primera camara, por lo que la posicion de las mismas lmeas se identifica en la segunda imagen de camara como las lmeas mas cercanas a las coordenadas longitudinales calculadas como el producto de la coordenada vertical Z anterior determinado usando la primera camara y la tangente del angulo de triangulacion de la segunda camara. Asf, para ajustar la coordenada Z de las bandas proyectadas, se usa la segunda camara 23 ubicada en un angulo de triangulacion mayor a2 que la unidad de proyeccion a2 > a1. Las bandas 20 y 21 proyectadas por la unidad de proyeccion 1 sobre la imagen desde la segunda camara 23 se ve como 26 y 27. Por claridad, las bandas 26 y 27 se representan con un ligero cambio, mientras que de hecho se combinan en la imagen de la segunda camara y son diffciles de identificar. Pero si la coordenada Z obtenida antes segun la formula Z=Y1/tga1 para la banda 20 es proyectada segun la formula Y2=Z*tga2 sobre la imagen desde la camara 23, la curva de ruido 28 se vuelve visible, lo que ayudara a identificar la posicion de la banda 20 sobre la imagen de la camara 23. Para cada banda se debe seguir el mismo procedimiento para diferenciarla de las otras. El centro de cada lmea tiene que ser determinado nuevamente con ajuste basado en la imagen desde la camara 23, asf como calcular una nueva coordenada Z mas precisa. El angulo a2 se escoge de modo que no se supere T/Cos a2.
Entonces, de manera similar al procedimiento descrito para determinar coordenadas usando la primera camara, la segunda camara se usa para determinar los valores ajustados de las coordenadas longitudinales y verticales para estas lmeas.
El valor de coordenada vertical obtenido usando las camaras tercera, cuarta y subsiguientes se usa para ajuste adicional de la coordenada vertical. Para ajuste adicional de las coordenadas Z de las bandas proyectadas se pueden usar camaras adicionales con angulos de triangulacion grandes para lograr la precision requerida de la definicion de coordenada Z de la banda. Cada subsiguiente camara con un angulo de triangulacion grande debe cumplir las condiciones proporcionadas anteriormente para camaras con un angulo de triangulacion pequeno. En algunos casos, se ubican al menos dos camaras en diferentes lados de la unidad de proyeccion, pero las imagenes y angulos de triangulacion de todas las camaras tienen que ser ubicados en un lado del haz central de la unidad de proyeccion, que
6
se puede asegurar usando un espejo semitransparente posicionado cruzando los haces centrales de la unidad de proyeccion y, preferiblemente, de la primera camara en la figura 9.
Las coordenadas se miden y determinan usando un procesador informatico, y se saca una imagen 3D a la pantalla de ordenador.
5 El resultado tecnico consiste en simplificacion y completa automatizacion del proceso de controlar dimensiones lineales de objetos tridimensionales, reduccion de la duracion de proceso de medicion y eliminacion casi completa de errores en caso de oscilaciones mecanicas que surgen en posiciones de los equipos (unidad de proyeccion y camaras) en relacion al objeto de medicion, ya que la unidad de proyeccion y camaras se ejecutan como herramienta portatil en un unico alojamiento.
10 Aplicabilidad industrial
Esta invencion se implementa con equipos de uso general ampliamente usados en la industria.
Claims (7)
- 51015202530REIVINDICACIONES1. El metodo para medicion 3D del objeto usando retroiluminacion estructurada consiste en proyectar una imagen predeterminada que tiene al menos dos lmeas que no se cruzan a lo largo de uno de los ejes longitudinales sobre el objeto controlado, grabar la luz emitida por la unidad de proyeccion y reflejada desde el objeto usando al menos dos camaras instaladas a distancias diferentes de la unidad de proyeccion formando angulos de triangulacion diferentes entre el haz central de la unidad de proyeccion y los haces centrales de las camaras, posteriormente identificar cada lmea proyectada por la unidad de proyeccion y formada por la luz reflejada recibida por cada camara comparando las coordenadas de las lmeas recibidas por las camaras, con el angulo de triangulacion entre el haz central de la unidad de proyeccion y el haz central de la primera camara ubicada a la distancia minima de la unidad de proyeccion asumida igual al arcotangente de la ratio entre la distancia entre las bandas proyectadas y la profundidad focal de la lente de esta camara, determinar las coordenadas longitudinales de los centros de lmea y coordenadas verticales como el cociente de la coordenada longitudinal por la tangente del angulo de triangulacion entre el haz central de la unidad de proyeccion y el haz central de la primera camara en la imagen de la primera camara, y usar el valor de coordenada vertical obtenido usando la segunda camara ubicada en un angulo de triangulacion mas grande que el de la primera camara para ajustar la coordenada vertical, por lo que las posiciones de la mismas lmeas en la imagen de la segunda camara se identifican como las mas cercanas a las coordenadas longitudinales calculadas como el producto de la coordenada vertical anterior determinada usando la primera camara y la tangente del angulo de triangulacion de segunda camara, tras lo que se determinan los valores ajustados de las coordenadas longitudinales y verticales para estas lmeas.
- 2. El metodo de la reivindicacion 1, donde determinar las coordenadas longitudinales de los centros de lmea en la imagen de la primera camara se hace tomando los pfxeles mas brillantes en su anchura.
- 3. El metodo de cualquiera de las reivindicaciones 1 y 2, en donde se asume que la distancia entre la camara y la unidad de proyeccion es el producto de la distancia desde la unidad de proyeccion al punto de interseccion de los haces centrales de la unidad de proyeccion y la camara y la tangente del angulo de triangulacion entre el haz central de la unidad de proyeccion y el haz central de la camara.
- 4. El metodo segun cualquiera de las reivindicaciones 1, 2, 4 en donde el valor de coordenada vertical obtenido usando las camaras tercera, cuarta y subsiguientes se usa ademas para ajustar la coordenada vertical.
- 5. El metodo segun cualquiera de las reivindicaciones 1, 2, 4 en donde las camaras se colocan en un lado de la unidad de proyeccion.
- 6. El metodo segun cualquiera de las reivindicaciones 1, 2, 4 en donde las camaras se colocan en dos lados de la unidad de proyeccion.
- 7. El metodo segun cualquiera de las reivindicaciones 1, 2, 4 en donde medir y determinar las coordenadas se hace usando un procesador informatico, con la salida de imagen 3D a la pantalla de ordenador.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/RU2012/000909 WO2014074003A1 (ru) | 2012-11-07 | 2012-11-07 | Способ контроля линейных размеров трехмерных объектов |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2683364T3 true ES2683364T3 (es) | 2018-09-26 |
Family
ID=50684964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES12887908.7T Active ES2683364T3 (es) | 2012-11-07 | 2012-11-07 | Método para monitorizar dimensiones lineales de objetos tridimensionales |
Country Status (9)
Country | Link |
---|---|
US (1) | US10648789B2 (es) |
EP (1) | EP2918967B1 (es) |
JP (1) | JP6161714B2 (es) |
CN (1) | CN104903680B (es) |
ES (1) | ES2683364T3 (es) |
HK (1) | HK1215968A1 (es) |
PL (1) | PL2918967T3 (es) |
TR (1) | TR201811449T4 (es) |
WO (1) | WO2014074003A1 (es) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160349045A1 (en) * | 2014-12-19 | 2016-12-01 | Andrei Vladimirovich Klimov | A method of measurement of linear dimensions of three-dimensional objects |
WO2017056775A1 (ja) * | 2015-09-28 | 2017-04-06 | 富士フイルム株式会社 | プロジェクションマッピング装置 |
CN106595519B (zh) * | 2016-12-07 | 2019-09-20 | 西安知象光电科技有限公司 | 一种基于激光mems投影的柔性三维轮廓测量方法及装置 |
LU100021B1 (en) | 2017-01-13 | 2018-07-30 | Adapttech Ltd | Socket fitting system |
US10122997B1 (en) | 2017-05-03 | 2018-11-06 | Lowe's Companies, Inc. | Automated matrix photo framing using range camera input |
JP6308637B1 (ja) * | 2017-05-08 | 2018-04-11 | 国立大学法人福井大学 | 特徴量を用いた3次元計測方法およびその装置 |
JP6999298B2 (ja) * | 2017-06-26 | 2022-01-18 | 株式会社ミツトヨ | 画像測定装置 |
JP6606234B1 (ja) * | 2018-07-13 | 2019-11-13 | Dmg森精機株式会社 | 測定装置 |
DE102018007797A1 (de) * | 2018-10-02 | 2019-04-11 | Daimler Ag | Vorrichtung und Verfahren zur Bestimmung einer Position eines Fahrzeugs relativ zu einem Lademodul |
CN114080535A (zh) * | 2019-06-28 | 2022-02-22 | 佳能株式会社 | 测量设备、摄像设备、测量系统、控制方法以及程序 |
JP7530763B2 (ja) * | 2020-08-06 | 2024-08-08 | Towa株式会社 | 切断装置、及び、切断品の製造方法 |
KR20230128521A (ko) * | 2020-12-31 | 2023-09-05 | 샤이닝 쓰리디 테크 컴퍼니., 리미티드. | 3차원 스캐닝 기기, 방법 및 장치, 저장 매체 및 프로세서 |
Family Cites Families (87)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2934263C3 (de) * | 1979-08-24 | 1982-03-25 | Fa. Carl Zeiss, 7920 Heidenheim | Verfahren und Vorrichtung zur automatischen Messung der Scheitelbrechwerte in den Hauptschnitten torischer Brillengläser |
US4547674A (en) * | 1982-10-12 | 1985-10-15 | Diffracto Ltd. | Optical triangulation gear inspection |
JPH01278019A (ja) * | 1988-04-28 | 1989-11-08 | Canon Inc | リソグラフィ用マスクの構造体 |
US4948258A (en) * | 1988-06-27 | 1990-08-14 | Harbor Branch Oceanographic Institute, Inc. | Structured illumination surface profiling and ranging systems and methods |
DE4130237A1 (de) * | 1991-09-11 | 1993-03-18 | Zeiss Carl Fa | Verfahren und vorrichtung zur dreidimensionalen optischen vermessung von objektoberflaechen |
JP2767340B2 (ja) * | 1991-12-26 | 1998-06-18 | ファナック株式会社 | 物体の3次元位置・姿勢計測方式 |
JP3781438B2 (ja) * | 1993-02-24 | 2006-05-31 | 與語 照明 | 3次元表面形状測定装置 |
US6028672A (en) * | 1996-09-30 | 2000-02-22 | Zheng J. Geng | High speed three dimensional imaging method |
US5548392A (en) * | 1995-01-31 | 1996-08-20 | Kabushikikaisha Wacom | Optical position detector having scale pattern spot-illuminated to increase resolution |
EP0822440B1 (en) * | 1996-01-10 | 2003-12-03 | Kabushiki Kaisha Topcon | Layout judgement apparatus and layout judgement system |
JP2910698B2 (ja) * | 1996-10-15 | 1999-06-23 | 日本電気株式会社 | 三次元構造推定方法及び装置 |
US6858826B2 (en) * | 1996-10-25 | 2005-02-22 | Waveworx Inc. | Method and apparatus for scanning three-dimensional objects |
US6175415B1 (en) * | 1997-02-19 | 2001-01-16 | United Technologies Corporation | Optical profile sensor |
BE1011076A3 (nl) * | 1997-03-28 | 1999-04-06 | Ruymen Marc | Werkwijze en inrichting voor het detecteren van onregelmatigheden in een produkt. |
JP3914638B2 (ja) * | 1997-09-09 | 2007-05-16 | シーケーディ株式会社 | 形状計測装置 |
WO1999058930A1 (en) | 1998-05-14 | 1999-11-18 | Metacreations Corporation | Structured-light, triangulation-based three-dimensional digitizer |
US6377700B1 (en) * | 1998-06-30 | 2002-04-23 | Intel Corporation | Method and apparatus for capturing stereoscopic images using image sensors |
US6393141B1 (en) * | 1998-09-10 | 2002-05-21 | Warner-Lambert Company | Apparatus for surface image sensing and surface inspection of three-dimensional structures |
CA2253085A1 (en) * | 1998-11-06 | 2000-05-06 | Industrial Metrics Inc. | Methods and system for measuring three dimensional spatial coordinates and for external camera calibration necessary for that measurement |
RU2148793C1 (ru) | 1999-02-19 | 2000-05-10 | Филиппов Евгений Иванович | Способ измерения формы и пространственного положения поверхности объекта |
CA2267519A1 (en) * | 1999-04-13 | 2000-10-13 | Inspeck Inc. | Optical full human body 3d digitizer |
CA2373284A1 (en) | 1999-05-14 | 2000-11-23 | 3D Metrics, Incorporated | Color structured light 3d-imaging system |
JP3553451B2 (ja) * | 2000-02-18 | 2004-08-11 | 独立行政法人 科学技術振興機構 | 光干渉断層像観測装置 |
CA2306515A1 (en) * | 2000-04-25 | 2001-10-25 | Inspeck Inc. | Internet stereo vision, 3d digitizing, and motion capture camera |
JP3867512B2 (ja) * | 2000-06-29 | 2007-01-10 | 富士ゼロックス株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
JP4298155B2 (ja) * | 2000-11-17 | 2009-07-15 | 本田技研工業株式会社 | 距離測定装置、及び距離測定方法 |
RU2184933C1 (ru) | 2001-02-21 | 2002-07-10 | Климов Андрей Владимирович | Устройство для бесконтактного контроля линейных размеров трехмерных объектов |
WO2002086420A1 (en) * | 2001-04-19 | 2002-10-31 | Dimensional Photonics, Inc. | Calibration apparatus, system and method |
US6897966B2 (en) * | 2001-05-25 | 2005-05-24 | Poster-Miller, Inc. | Non-contacting mensuration system |
WO2003032252A2 (en) * | 2001-10-09 | 2003-04-17 | Dimensional Photonics, Inc. | Device for imaging a three-dimensional object |
RU2199718C1 (ru) | 2001-12-11 | 2003-02-27 | А4 Визион С.А. | Устройство для бесконтактного контроля и распознавания поверхностей трехмерных объектов |
JP2003269928A (ja) * | 2002-03-12 | 2003-09-25 | Nec Corp | 3次元形状計測方法および装置ならびにプログラム |
US7009717B2 (en) * | 2002-08-14 | 2006-03-07 | Metris N.V. | Optical probe for scanning the features of an object and methods therefor |
JP2003148936A (ja) * | 2002-10-30 | 2003-05-21 | Nippon Avionics Co Ltd | 光切断法による対象物の三次元計測方法 |
US7146036B2 (en) * | 2003-02-03 | 2006-12-05 | Hewlett-Packard Development Company, L.P. | Multiframe correspondence estimation |
US20040222987A1 (en) * | 2003-05-08 | 2004-11-11 | Chang Nelson Liang An | Multiframe image processing |
US8224064B1 (en) * | 2003-05-21 | 2012-07-17 | University Of Kentucky Research Foundation, Inc. | System and method for 3D imaging using structured light illumination |
JP3738291B2 (ja) * | 2003-06-09 | 2006-01-25 | 住友大阪セメント株式会社 | 三次元形状測定装置 |
CA2435935A1 (en) * | 2003-07-24 | 2005-01-24 | Guylain Lemelin | Optical 3d digitizer with enlarged non-ambiguity zone |
US7747067B2 (en) * | 2003-10-08 | 2010-06-29 | Purdue Research Foundation | System and method for three dimensional modeling |
WO2005096126A1 (ja) * | 2004-03-31 | 2005-10-13 | Brother Kogyo Kabushiki Kaisha | 画像入出力装置 |
US7375826B1 (en) * | 2004-09-23 | 2008-05-20 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration (Nasa) | High speed three-dimensional laser scanner with real time processing |
JP4734552B2 (ja) * | 2005-03-15 | 2011-07-27 | 名古屋市 | 路面の3次元形状の計測方法及びその装置 |
WO2006120759A1 (ja) * | 2005-05-12 | 2006-11-16 | Techno Dream 21 Co., Ltd. | 3次元形状計測方法およびその装置 |
JP2007093412A (ja) * | 2005-09-29 | 2007-04-12 | Fujinon Corp | 3次元形状測定装置 |
US8197070B2 (en) * | 2006-01-24 | 2012-06-12 | Seiko Epson Corporation | Color-based feature identification |
WO2007137388A1 (en) * | 2006-05-26 | 2007-12-06 | Corporation Spg Data3D | Photogrammetric system and techniques for 3d acquisition |
WO2008008575A2 (en) * | 2006-06-01 | 2008-01-17 | Czarnek & Orkin Laboratories, Inc. | Portable optical wound scanner |
US8467042B2 (en) * | 2006-07-31 | 2013-06-18 | Hoya Corporation | Lens shape measuring apparatus and the method thereof, manufacturing method of spectacle lens, and manufacturing method of spectacles |
US8036452B2 (en) * | 2007-08-10 | 2011-10-11 | Leica Geosystems Ag | Method and measurement system for contactless coordinate measurement on an object surface |
US7768656B2 (en) | 2007-08-28 | 2010-08-03 | Artec Group, Inc. | System and method for three-dimensional measurement of the shape of material objects |
US20090103783A1 (en) * | 2007-10-19 | 2009-04-23 | Artec Ventures | System and Method for Biometric Behavior Context-Based Human Recognition |
US8550444B2 (en) * | 2007-10-23 | 2013-10-08 | Gii Acquisition, Llc | Method and system for centering and aligning manufactured parts of various sizes at an optical measurement station |
DE102007058590B4 (de) * | 2007-12-04 | 2010-09-16 | Sirona Dental Systems Gmbh | Aufnahmeverfahren für ein Bild eines Aufnahmeobjekts und Aufnahmevorrichtung |
US7986321B2 (en) * | 2008-01-02 | 2011-07-26 | Spatial Integrated Systems, Inc. | System and method for generating structured light for 3-dimensional image rendering |
JP5317169B2 (ja) * | 2008-06-13 | 2013-10-16 | 洋 川崎 | 画像処理装置、画像処理方法およびプログラム |
JP5337243B2 (ja) * | 2008-08-06 | 2013-11-06 | クリアフォーム インコーポレイティッド | 表面特徴の適応型3次元走査システム |
JP4827939B2 (ja) * | 2009-02-18 | 2011-11-30 | シャープ株式会社 | 画像読取装置及び画像形成装置並びに画像処理装置 |
AU2010218298A1 (en) * | 2009-02-27 | 2011-10-13 | Body Surface Translations, Inc. | Estimating physical parameters using three dimensional representations |
CN201707037U (zh) * | 2009-04-23 | 2011-01-12 | 浙江师范大学 | 一种光学三维成像仪 |
US8243289B2 (en) * | 2009-05-29 | 2012-08-14 | Perceptron, Inc. | System and method for dynamic windowing |
US7995218B2 (en) * | 2009-05-29 | 2011-08-09 | Perceptron, Inc. | Sensor system and reverse clamping mechanism |
US8031345B2 (en) * | 2009-05-29 | 2011-10-04 | Perceptron, Inc. | Hybrid sensor |
EP2261597B1 (en) * | 2009-06-11 | 2014-10-29 | MICROTEC S.r.l. | Method and apparatus for detecting the three-dimensional structure of a log |
US9582889B2 (en) * | 2009-07-30 | 2017-02-28 | Apple Inc. | Depth mapping based on pattern matching and stereoscopic information |
GB0915904D0 (en) * | 2009-09-11 | 2009-10-14 | Renishaw Plc | Non-contact object inspection |
DE102009044983A1 (de) * | 2009-09-24 | 2011-03-31 | Carl Zeiss Microimaging Gmbh | Mikroskop |
CA2771727C (en) * | 2009-11-04 | 2013-01-08 | Technologies Numetrix Inc. | Device and method for obtaining three-dimensional object surface data |
CN101726264A (zh) * | 2009-12-30 | 2010-06-09 | 深圳先进技术研究院 | 一种针对投射条纹图像的残差滤波方法 |
US8134719B2 (en) * | 2010-03-19 | 2012-03-13 | Carestream Health, Inc. | 3-D imaging using telecentric defocus |
WO2011125829A1 (ja) * | 2010-03-31 | 2011-10-13 | Hoya株式会社 | レンズ形状測定装置 |
WO2011136386A1 (en) * | 2010-04-26 | 2011-11-03 | Nikon Corporation | Profile measuring apparatus |
WO2011134083A1 (en) * | 2010-04-28 | 2011-11-03 | Ryerson University | System and methods for intraoperative guidance feedback |
EP2400261A1 (de) * | 2010-06-21 | 2011-12-28 | Leica Geosystems AG | Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche |
US8964189B2 (en) * | 2010-08-19 | 2015-02-24 | Canon Kabushiki Kaisha | Three-dimensional measurement apparatus, method for three-dimensional measurement, and computer program |
JP5671281B2 (ja) * | 2010-08-20 | 2015-02-18 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム |
CN103097857B (zh) * | 2010-09-07 | 2014-12-24 | 大日本印刷株式会社 | 扫描器装置及物体的三维形状测定装置 |
DE102010040386A1 (de) * | 2010-09-08 | 2012-03-08 | Sirona Dental Systems Gmbh | Dentale Röntgeneinrichtung mit Bilderfassungseinheit zur Oberflächenerfassung und Verfahren zur Erzeugung einer Röntgenaufnahme eines Patienten |
JP5267891B2 (ja) * | 2010-09-30 | 2013-08-21 | 横河電機株式会社 | シートに形成されたパターンの位置および形状測定装置および塗工パターン測定装置 |
US8849015B2 (en) * | 2010-10-12 | 2014-09-30 | 3D Systems, Inc. | System and apparatus for haptically enabled three-dimensional scanning |
DE102011011360A1 (de) * | 2011-02-16 | 2012-08-16 | Steinbichler Optotechnik Gmbh | Vorrichtung und Verfahren zur Bestimmung der 3-D-Koordinaten eines Objekts und zum Kalibrieren eines Industrieroboters |
JP2014522981A (ja) * | 2011-07-13 | 2014-09-08 | ファロ テクノロジーズ インコーポレーテッド | 空間光変調器を用いて物体の三次元座標を求める装置および方法 |
US8922647B2 (en) * | 2011-08-03 | 2014-12-30 | The Boeing Company | Projection aided feature measurement using uncalibrated camera |
US9322643B2 (en) * | 2011-10-18 | 2016-04-26 | Nanyang Technological University | Apparatus and method for 3D surface measurement |
EP2728306A1 (en) * | 2012-11-05 | 2014-05-07 | Hexagon Technology Center GmbH | Method and device for determining three-dimensional coordinates of an object |
CN105452802B (zh) * | 2013-07-19 | 2019-02-01 | 株式会社尼康 | 形状测定装置、构造物制造系统、形状测定方法、构造物制造方法、形状测定程序、以及记录介质 |
US10643343B2 (en) * | 2014-02-05 | 2020-05-05 | Creaform Inc. | Structured light matching of a set of curves from three cameras |
-
2012
- 2012-11-07 PL PL12887908T patent/PL2918967T3/pl unknown
- 2012-11-07 ES ES12887908.7T patent/ES2683364T3/es active Active
- 2012-11-07 WO PCT/RU2012/000909 patent/WO2014074003A1/ru active Application Filing
- 2012-11-07 US US14/441,499 patent/US10648789B2/en active Active
- 2012-11-07 JP JP2015541737A patent/JP6161714B2/ja active Active
- 2012-11-07 CN CN201280078106.2A patent/CN104903680B/zh active Active
- 2012-11-07 TR TR2018/11449T patent/TR201811449T4/tr unknown
- 2012-11-07 EP EP12887908.7A patent/EP2918967B1/en active Active
-
2016
- 2016-03-15 HK HK16102982.8A patent/HK1215968A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
JP6161714B2 (ja) | 2017-07-12 |
TR201811449T4 (tr) | 2018-09-21 |
WO2014074003A1 (ru) | 2014-05-15 |
CN104903680B (zh) | 2019-01-08 |
EP2918967B1 (en) | 2018-05-16 |
US10648789B2 (en) | 2020-05-12 |
JP2015534091A (ja) | 2015-11-26 |
CN104903680A (zh) | 2015-09-09 |
EP2918967A1 (en) | 2015-09-16 |
PL2918967T3 (pl) | 2018-10-31 |
EP2918967A4 (en) | 2016-07-27 |
US20190234725A1 (en) | 2019-08-01 |
HK1215968A1 (zh) | 2016-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2683364T3 (es) | Método para monitorizar dimensiones lineales de objetos tridimensionales | |
US10907955B2 (en) | Three-dimensional imager | |
US10455216B2 (en) | Three-dimensional imager | |
US10571668B2 (en) | Catadioptric projector systems, devices, and methods | |
US8525983B2 (en) | Device and method for measuring six degrees of freedom | |
US7876455B2 (en) | Three-dimensional shape measuring method and apparatus for the same | |
US6611344B1 (en) | Apparatus and method to measure three dimensional data | |
CN106595519B (zh) | 一种基于激光mems投影的柔性三维轮廓测量方法及装置 | |
US20140028805A1 (en) | System and method of acquiring three-dimensional coordinates using multiple coordinate measurment devices | |
US9454818B2 (en) | Method for measuring three orientational degrees of freedom of a cube-corner retroreflector | |
ES2302750T3 (es) | Alineamiento preciso de imagenes en sistemas de imagenes digitales emparejando puntos en las imagenes. | |
CN103292740B (zh) | 一种三维扫描仪测量方法及其装置 | |
US20180240241A1 (en) | Three-dimensional imager | |
US11350077B2 (en) | Handheld three dimensional scanner with an autoaperture | |
RU125335U1 (ru) | Устройство контроля линейных размеров трехмерных объектов | |
JP2006220603A (ja) | 撮像装置 | |
ES2543038B2 (es) | Método y sistema de localización espacial mediante marcadores luminosos para cualquier ambiente | |
JP2006308452A (ja) | 3次元形状計測方法および装置 | |
ES2824873A1 (es) | Metodo y sistema para el seguimiento espacial de objetos | |
Lewin et al. | A 3D camera for improved facial recognition | |
KR20170105273A (ko) | 형상 측정 장치 |