[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2003202216A - Method, device, system and program for three-dimensional image processing - Google Patents

Method, device, system and program for three-dimensional image processing

Info

Publication number
JP2003202216A
JP2003202216A JP2002001243A JP2002001243A JP2003202216A JP 2003202216 A JP2003202216 A JP 2003202216A JP 2002001243 A JP2002001243 A JP 2002001243A JP 2002001243 A JP2002001243 A JP 2002001243A JP 2003202216 A JP2003202216 A JP 2003202216A
Authority
JP
Japan
Prior art keywords
real object
pattern
structured light
image processing
normal direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002001243A
Other languages
Japanese (ja)
Inventor
Toshihiro Fukumoto
利博 福本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002001243A priority Critical patent/JP2003202216A/en
Publication of JP2003202216A publication Critical patent/JP2003202216A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To deal with the difficulty in accurately estimating the surface attribute of a real object for three-dimensional image processing. <P>SOLUTION: The method and device for three-dimensional image processing derives the data which presents the normal direction of each part of the object's surface based on the image information obtained by photographing the object 10 that is projected by structure light from a projecting means 40 and estimates the surface attribute of the real object using the data which presents the normal direction. According to the measurement result of the real object's shape or the data related to the real object's shape input by users, either one among the pattern type of the projecting structure light, the pattern size and the projecting position of the structure light with respect to the real object is made varied. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、実在する物体の三
次元画像を作成するための三次元画像処理方法および三
次元画像処理装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional image processing method and a three-dimensional image processing apparatus for creating a three-dimensional image of a real object.

【0002】[0002]

【従来の技術】近年、三次元画像ないし三次元映像は、
映画やイベントといったエンターテイメント用途や、製
品設計、都市開発における業務目的での活用はもとよ
り、コンシューマ用途においてもウェブ上での仮想モー
ルや三次元表示製品カタログといった高臨場感、情報の
より正確な伝達といった目的で必要性が高まっている。
2. Description of the Related Art Recently, three-dimensional images or three-dimensional images are
Not only for entertainment purposes such as movies and events, but also for business purposes in product design and urban development, as well as for consumer purposes, high presence such as virtual malls and 3D display product catalogs on the web, more accurate transmission of information The need is increasing for the purpose.

【0003】但し、現状の三次元画像は、実際の物体の
形状データや表面属性データを取り込まずに、最初から
人手によって作られる三次元コンピュータグラフィクス
がほとんどである。このような三次元コンピュータグラ
フィクスの作成作業には多くの時間とコストが必要とな
り、三次元コンピュータグラフィクスが世の中に普及す
ることの妨げとなっている。
However, most of the current three-dimensional images are three-dimensional computer graphics that are manually created from the beginning without taking in the actual shape data and surface attribute data of an object. It takes a lot of time and cost to create such three-dimensional computer graphics, which hinders the spread of the three-dimensional computer graphics in the world.

【0004】また、三次元コンピュータグラフィクスは
製作者の手によりモデル化されるので、実在物を三次元
化する場合、その形状や表面の色を正確に再現するもの
ではない。
Further, since three-dimensional computer graphics are modeled by the hand of the maker, when a three-dimensional object is made into a three-dimensional object, its shape and surface color are not accurately reproduced.

【0005】このため、実物体の形状を実測し、形状と
対応する位置の2次元画像を撮影して三次元形状データ
に貼り付けることにより、実物体の三次元画像モデルを
作成する手法が盛んに研究されている。
For this reason, a method of making a three-dimensional image model of a real object by actually measuring the shape of the real object, photographing a two-dimensional image at a position corresponding to the shape, and pasting the two-dimensional image on the three-dimensional shape data is popular. Is being researched.

【0006】実物体の形状および表面属性を実測するに
は、三次元的な形状の測定と表面のテクスチャ情報の取
得が必要となる。
In order to actually measure the shape and surface attributes of an actual object, it is necessary to measure the three-dimensional shape and acquire surface texture information.

【0007】主だった三次元測定の方法としては、スリ
ット光投影法またはパターン投影法等が知られている。
これらの方法は、特定の参照光(検出光ともいう)を測
定対象物に照射し、三角測量の原理で三次元座標を得る
能動的測定方法の一種である。
As a main three-dimensional measurement method, a slit light projection method or a pattern projection method is known.
These methods are one type of active measurement methods in which a specific reference light (also referred to as detection light) is applied to an object to be measured and three-dimensional coordinates are obtained by the principle of triangulation.

【0008】スリット光投影法は、スリット光を照射
し、かつ偏向することによって測定対象物を走査する。
また、パターン投影法では、複数の2次元パターン光を
順次照射する。そして、スリット光走査を時系列で撮影
した画像やパターン光を順次照射した際の撮影画像にお
ける、対象物表面での反射パターンの画像を解析するこ
とにより、三次元座標を算出する。
The slit light projection method scans an object to be measured by irradiating and deflecting slit light.
Moreover, in the pattern projection method, a plurality of two-dimensional pattern lights are sequentially irradiated. Then, the three-dimensional coordinates are calculated by analyzing the image of the reflection pattern on the surface of the object in the images obtained by time-sequentially scanning the slit light scan and the images obtained by sequentially irradiating the pattern light.

【0009】一方、対象物表面のテクスチャ情報を取得
する方法としては、対象物のカラー画像を撮像するため
の光学系や撮像センサなどを有した撮影装置が用いられ
る。そして、上記の三次元座標データと撮影装置により
取得されたテクスチャ情報とを融合することで、三次元
画像モデルを構築する。
On the other hand, as a method for obtaining the texture information of the surface of the object, a photographing device having an optical system for picking up a color image of the object, an image sensor, etc. is used. Then, a three-dimensional image model is constructed by fusing the above three-dimensional coordinate data and the texture information acquired by the photographing device.

【0010】ところが、実物体の質感や光沢感等の表面
属性の情報まで取得する手法の研究はあまり行われてお
らず、従来は表面属性を物体色に単純化して、2次元光
源の表色系をそのまま用いている。この手法では、2次
元画像の撮影時の照明投影源の位置や分光特性の影響を
受けて、色味が変わったり鏡面反射や照度分布による輝
度の誤差が発生してしまう。
However, much research has not been done on a method of acquiring even surface attribute information such as the texture and glossiness of an actual object. Conventionally, the surface attribute is simplified into an object color to express the color of a two-dimensional light source. The system is used as it is. In this method, due to the influence of the position of the illumination projection source and the spectral characteristics at the time of capturing the two-dimensional image, the tint changes, and specular reflection or illuminance distribution causes an error in luminance.

【0011】このような問題を踏まえ、表面属性も含め
た三次元画像モデル作成手法の提案がなされている。こ
れによれば、対象となる実物体の形状・テクスチャ・色
だけでなく、再現時の観察環境、すなわち照明光の形状
・位置・方向・色、観察者の位置・方向を考慮して物体
の表面属性を測定することができる。
In view of these problems, a method for creating a three-dimensional image model including surface attributes has been proposed. According to this, not only the shape, texture, and color of the target real object, but also the observation environment at the time of reproduction, that is, the shape, position, direction, and color of the illumination light, and the position and direction of the observer are considered. Surface attributes can be measured.

【0012】この三次元画像モデル作成手法において
は、表面反射を表面反射成分と内部(拡散)反射成分の
2つの成分で表すようにモデル化し、照明条件を変えた
際の物体反射を撮像して画像を解析することにより、物
体の表面属性の推定が行なわれる。
In this three-dimensional image model creating method, the surface reflection is modeled so as to be represented by two components, a surface reflection component and an internal (diffuse) reflection component, and the object reflection when the illumination condition is changed is imaged. The surface attribute of the object is estimated by analyzing the image.

【0013】ここで、表面反射成分は、照明光の正反射
方向に強い反射強度を持ち、内部反射成分は物体内部に
光が浸透した後に外部に等方的に反射する性質がある。
このように物体の表面属性は、物体表面の法線方向とな
す角度に敏感である。このため対象物体の表面属性を正
しく測定するためには、対象物体表面の各部(各位置)
における法線方向を正しく測定する必要がある。
Here, the surface reflection component has a strong reflection intensity in the regular reflection direction of the illumination light, and the internal reflection component has a property of being isotropically reflected to the outside after the light penetrates into the object.
As described above, the surface attribute of the object is sensitive to the angle formed by the normal line direction of the object surface. Therefore, in order to correctly measure the surface attributes of the target object, each part (each position) of the target object surface must be measured.
It is necessary to correctly measure the normal direction at.

【0014】[0014]

【発明が解決しようとする課題】しかしながら、上記の
三次元画像モデル作成手法においては、対象物体表面の
法線方向を精度良く取得する方法が実現されておらず、
表面属性の測定において大きな誤差を含んでしまう可能
性がある。
However, in the above-described three-dimensional image model creating method, a method for accurately acquiring the normal direction of the surface of the target object has not been realized,
There is a possibility that a large error may be included in the measurement of the surface attribute.

【0015】また、三次元形状データを用いて法線方向
を取得する方法は可能ではあるが、三次元法線ベクトル
を形状データから算出する処理はきわめて複雑であり、
計算に時間がかかるという欠点がある。
Although it is possible to obtain the normal direction by using the three-dimensional shape data, the process of calculating the three-dimensional normal vector from the shape data is extremely complicated.
It has the disadvantage that it takes time to calculate.

【0016】さらに、三次元形状データはポリゴンモデ
ルによる表示が一般的であるが、ポリゴン面で法線方向
が代表されてしまうと、表面属性の空間的分布がポリゴ
ン形状に依存してしまう等の問題が生じる。
Further, the three-dimensional shape data is generally displayed by a polygon model, but if the normal direction is represented by a polygon surface, the spatial distribution of surface attributes depends on the polygon shape. The problem arises.

【0017】そこで本発明は、実物体表面の法線方向を
高精度に測定することで、よりリアルな実物体の表面属
性を再現できるようにした三次元画像処理方法および三
次元画像処理装置を提供することを目的としている。
Therefore, the present invention provides a three-dimensional image processing method and a three-dimensional image processing apparatus capable of reproducing a more realistic surface attribute of an actual object by measuring the normal direction of the surface of the actual object with high accuracy. It is intended to be provided.

【0018】[0018]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明の三次元画像処理方法および三次元画像処
理装置では、投影手段からの構造光が投影された実物体
を撮影して得られた画像情報に基づいて、実物体の表面
各部の法線方向を示すデータを取得し、この法線方向を
示すデータを用いて実物体の表面属性を推定するように
している。
In order to achieve the above object, in the three-dimensional image processing method and the three-dimensional image processing apparatus of the present invention, a real object onto which structured light from the projection means is projected is photographed. Based on the obtained image information, data indicating the normal direction of each surface portion of the real object is acquired, and the surface attribute of the real object is estimated using the data indicating the normal direction.

【0019】このように、実物体にライン状パターン、
テクスチャパターンおよび濃淡パターン等を有する構造
光を投影して撮影した画像情報に含まれる構造光の反射
パターンを用いて解析を行うことにより、実物体の各部
の法線方向を精度良く求めることが可能となる。
In this way, a line pattern is formed on the real object,
It is possible to accurately determine the normal direction of each part of the actual object by performing an analysis using the structured light reflection pattern included in the image information captured by projecting the structured light having a texture pattern and a grayscale pattern. Becomes

【0020】具体的には、例えば、投影された構造光の
実物体による反射光パターンを撮影し、その画像におけ
る反射光パターンの歪みをもとに実物体表面における法
線方向を算出する。投影する構造光は、正方格子パター
ンのように、実物体に投影することでその反射光パター
ンの歪みから実物体表面の傾き(つまりは法線方向)を
算出できるものであれば、どのような構造光を用いても
よい。
Specifically, for example, the reflected light pattern of the projected structured light by the real object is photographed, and the normal direction on the surface of the real object is calculated based on the distortion of the reflected light pattern in the image. What kind of structured light is to be projected, as long as it is possible to calculate the inclination (that is, the normal direction) of the surface of the real object from the distortion of the reflected light pattern by projecting it on the real object like a square lattice pattern? Structured light may be used.

【0021】そして、このように精度良く実物体の各部
の法線方向を求めることで、この法線方向を基準とした
実物体と投影手段と撮影装置との位置関係から推定され
る実物体の色・光沢・輝度等の表面属性を高精度に、す
なわちより実物体に近いリアルなものとすることが可能
である。
By thus accurately determining the normal direction of each part of the real object, the real object estimated based on the positional relationship among the real object, the projection means, and the photographing device based on the normal direction is used. It is possible to make surface attributes such as color, gloss, and brightness highly accurate, that is, more realistic and closer to an actual object.

【0022】なお、実物体の三次元形状データを、光レ
ーダ法、干渉法などを用いて実物体の形状を測定する専
用の装置による測定結果に基づいて取得してもよいが、
上記構造光の反射パターンを含む画像情報に基づいて、
表面属性データだけでなく、実物体の三次元形状データ
を生成するようにすれば、三次元形状データの取得と表
面法線方向の取得のための画像撮影とを別々に行なう必
要がなくなり、高速での三次元画像の作成が可能とな
る。
It should be noted that the three-dimensional shape data of the real object may be obtained based on the measurement result of a dedicated device for measuring the shape of the real object using the optical radar method, the interferometry method, etc.
Based on the image information including the reflection pattern of the structured light,
If not only the surface attribute data but also the 3D shape data of the real object is generated, it is not necessary to separately acquire the 3D shape data and the image capturing for acquiring the surface normal direction. It is possible to create a three-dimensional image with.

【0023】また、実物体の形状の測定結果又は使用者
により入力された実物体の形状に関するデータに応じ
て、投影する構造光のパターンの種類、パターンの大き
さおよび実物体に対する構造光の投影位置のうちいずれ
かを変更するようにし、実物体の形状(の複雑さ等)に
合わせて構造光の投影状態を最適化し、より高精度に実
物体表面の各部の法線方向を求められるようにするとよ
い。
Further, according to the measurement result of the shape of the real object or the data on the shape of the real object input by the user, the type of the pattern of the structured light to be projected, the size of the pattern, and the projection of the structured light onto the real object. By changing one of the positions, the projection state of the structured light is optimized according to the shape (complexity, etc.) of the real object, and the normal direction of each part of the real object surface can be obtained with higher accuracy. It should be set to.

【0024】[0024]

【発明の実施の形態】(第1実施形態)図1には、本発
明の第1実施形態である三次元画像処理システムの構成
を示している。この三次元画像処理システムは、対象物
(実物体)10が載置され、回転可能な回転ステージ2
0と、対象物10に対してスリット光を照射するスリッ
ト光源32および可動スリット34を備えるとともにこ
れらを制御可能なスリット光投影機30と、対象物10
に対して構造光を投影する構造光投影機40と、照明光
源52を備えるとともにこれを点灯・消灯させ、さらに
は照明光源52の位置を制御可能な照明装置50と、C
CDやCMOS等を備え、対象物10の画像を撮像する
デジタルカメラからなる撮影装置60と、コンピュータ
等からなる三次元画像処理装置200とから構成されて
いる。
BEST MODE FOR CARRYING OUT THE INVENTION (First Embodiment) FIG. 1 shows the configuration of a three-dimensional image processing system according to the first embodiment of the present invention. In this three-dimensional image processing system, an object (real object) 10 is placed, and a rotatable stage 2 is rotatable.
0, a slit light source 32 for irradiating the object 10 with slit light and a movable slit 34, and a slit light projector 30 capable of controlling these, and the object 10
A structured light projector 40 for projecting structured light onto the illuminating device, an illuminating light source 52, and a lighting device 50 capable of turning on / off the light source and controlling the position of the illuminating light source 52;
The image capturing device 60 includes a CD, a CMOS, and the like, and includes a digital camera that captures an image of the object 10, and a three-dimensional image processing device 200 including a computer and the like.

【0025】三次元画像処理装置200は、オペレータ
が操作可能なユーザーインターフェース(操作手段)7
0と、回転ステージ20、スリット光投影機30、構造
光投影機40および照明装置50を制御するコントロー
ラ80と、撮影装置60により撮影された画像情報を保
存する画像メモリ90と、画像メモリ90に保存された
画像情報に基づいて対象物10の三次元形状データを算
出する三次元形状算出部(三次元形状取得手段)100
とを備えている。
The three-dimensional image processing apparatus 200 has a user interface (operating means) 7 that can be operated by an operator.
0, a controller 80 that controls the rotary stage 20, the slit light projector 30, the structured light projector 40, and the illumination device 50, an image memory 90 that stores image information captured by the image capturing device 60, and an image memory 90. A three-dimensional shape calculation unit (three-dimensional shape acquisition unit) 100 that calculates three-dimensional shape data of the object 10 based on the stored image information.
It has and.

【0026】さらに、三次元画像処理装置200は、画
像メモリ90に保存された画像情報に基づいて対象物1
0の表面各位置の法線方向を算出する法線方向算出部
(法線方向取得手段)110と、法線方向算出部110
により算出された法線方向と画像メモリ90に保存され
た画像情報とに基づいて対象物10の表面属性を推定算
出する表面属性算出部(表面属性取得手段)120と、
三次元形状算出部100により算出された三次元形状デ
ータおよび表面属性算出部120により推定された表面
属性を統合して三次元画像(三次元モデル)データを構
築する三次元モデルデータ構築部130と、この三次元
モデルデータ構築部130により構築された三次元モデ
ルデータを、不図示のディスプレイ又は印刷装置に出力
する出力端子140とを備えている。
Furthermore, the three-dimensional image processing apparatus 200 uses the object 1 based on the image information stored in the image memory 90.
A normal direction calculation unit (normal direction acquisition unit) 110 that calculates a normal direction of each surface position of 0, and a normal direction calculation unit 110.
A surface attribute calculation unit (surface attribute acquisition unit) 120 that estimates and calculates the surface attribute of the object 10 based on the normal direction calculated by the above and the image information stored in the image memory 90.
A three-dimensional model data construction unit 130 that constructs three-dimensional image (three-dimensional model) data by integrating the three-dimensional shape data calculated by the three-dimensional shape calculation unit 100 and the surface attribute estimated by the surface attribute calculation unit 120; The output terminal 140 outputs the three-dimensional model data constructed by the three-dimensional model data constructing unit 130 to a display or a printing device (not shown).

【0027】ここで、スリット光源32と可動スリット
34、構造光投影機40、照明光源52および撮像機器
60の厳密な位置関係は既知である。
Here, the strict positional relationship among the slit light source 32, the movable slit 34, the structured light projector 40, the illumination light source 52, and the image pickup device 60 is known.

【0028】回転ステージ20、スリット光投影機3
0、構造光投影機40、照明装置50および撮影装置6
0は、暗室又は外部からの光の侵入を遮断する筐体内に
設置されている。なお、三次元画像処理装置200は、
暗室又は筐体内に設置してもよいし、暗室又は筐体の外
部に設置してもよい。
Rotating stage 20, slit light projector 3
0, structured light projector 40, illumination device 50, and imaging device 6
0 is installed in a dark room or in a housing that blocks intrusion of light from the outside. The three-dimensional image processing device 200 is
It may be installed in the dark room or the housing, or may be installed outside the dark room or the housing.

【0029】次に、上記のように構成された三次元画像
処理システムによる対象物10の三次元モデルデータの
作成について、図2(A)〜(C)のフローチャートを
用いて説明する。なお、図2(A)はメイン処理フロー
を、図2(B)はプレ撮影(ステップ2)のサブルーチ
ンを、図2(C)は本撮影(ステップ4)のサブルーチ
ンを示している。また、図1中の実線は、上記フローチ
ャートの処理の流れを、二重線はデータの流れを示す。
Next, the creation of the three-dimensional model data of the object 10 by the three-dimensional image processing system configured as described above will be described with reference to the flow charts of FIGS. 2A shows a main processing flow, FIG. 2B shows a pre-shooting (step 2) subroutine, and FIG. 2 (C) shows a main shooting (step 4) subroutine. Further, the solid line in FIG. 1 indicates the processing flow of the above flow chart, and the double line indicates the data flow.

【0030】対象物10は、回転ステージ20上に設置
される。オペレータによるユーザーインターフェース7
0の操作により三次元モデルデータ作成の開始命令がな
されると、コントローラ80内のCPU(図示せず)
は、撮影装置60による撮影を開始させる。
The object 10 is installed on the rotary stage 20. User interface by operator 7
When a start command for creating three-dimensional model data is issued by operating 0, a CPU (not shown) in the controller 80
Causes the photographing device 60 to start photographing.

【0031】ここでは、まず対象物10の表面形状の複
雑さを測定するためのプレ撮影が行われる。プレ撮影が
開始されると、CPUはスリット光投影機30にスリッ
ト光源32を点灯させ、スリット光源32の駆動電源が
安定した後に可動スリット34による対象物10上のス
リット光走査を開始させる(ステップ〈図ではSと略
す〉21)。そして、スリット光走査に同期させて撮影
装置60に対象物10のスリット光の反射パターン画像
の撮影を行わせる。
Here, first, pre-imaging for measuring the complexity of the surface shape of the object 10 is performed. When the pre-photographing is started, the CPU causes the slit light projector 30 to turn on the slit light source 32, and after the driving power source of the slit light source 32 becomes stable, the slit light scanning on the object 10 by the movable slit 34 is started (step). <Abbreviated as S in the figure> 21). Then, in synchronization with the scanning of the slit light, the photographing device 60 is caused to photograph the reflection pattern image of the slit light of the object 10.

【0032】この際、スリット光は対象物10の表面上
を1次元的に一定速度で走査し、走査中、撮影装置60
は一定のフレームレートで対象物10の画像を取得する
(ステップ22)。
At this time, the slit light scans the surface of the object 10 one-dimensionally at a constant speed, and during the scanning, the photographing device 60.
Acquires an image of the object 10 at a constant frame rate (step 22).

【0033】プレ撮影では、スリット光の走査速度ある
いは撮影装置60による撮像フレームレートは、処理の
軽減、高速化を重視して設定される。
In the pre-photographing, the scanning speed of the slit light or the image-capturing frame rate of the image-capturing device 60 is set with emphasis on reduction of processing and speed-up.

【0034】また、スリット光源32は、スリット光反
射パターンが撮影装置60による画像撮影中に充分に高
S/N比で観測されるのであれば、白色光源、レーザー
光源など、どのような光源を用いても構わない。また、
点灯のタイミングは任意であるが、光源の駆動電源が安
定するまでの待ち時間をなくするために常に点灯してお
いてもよい。
The slit light source 32 may be any light source such as a white light source or a laser light source as long as the slit light reflection pattern is observed at a sufficiently high S / N ratio during image capturing by the image capturing device 60. You can use it. Also,
Although the timing of lighting is arbitrary, it may be always lighting in order to eliminate a waiting time until the driving power source of the light source is stabilized.

【0035】1回の撮影、すなわち対象物10に対する
一観察方向からの撮影が終了すると、回転ステージ20
の360°の回転が終了するまで(ステップ23)、回
転ステージ20を所定角度回転させ(ステップ24)、
再度、対象物10の反射パターン画像を撮影装置60に
撮影させる。撮影した画像は逐次、画像メモリ90に格
納する。
When one photographing, that is, photographing of the object 10 from one observation direction is completed, the rotary stage 20
Until the rotation of 360 ° is completed (step 23), the rotary stage 20 is rotated by a predetermined angle (step 24),
The photographing device 60 is caused to photograph the reflection pattern image of the object 10 again. The captured images are sequentially stored in the image memory 90.

【0036】そして、この処理を繰り返し、回転ステー
ジ20が360°回転すると、画像メモリ90に格納さ
れた複数の反射パターン画像を三次元形状算出部110
で3角測量原理に基づいて処理、解析することで、対象
物10の表面の三次元座標データ(三次元形状データ)
を得る。
Then, when this process is repeated and the rotary stage 20 is rotated by 360 °, the three-dimensional shape calculation unit 110 obtains a plurality of reflection pattern images stored in the image memory 90.
3D coordinate data (3D shape data) of the surface of the object 10 by processing and analyzing it based on the triangulation principle.
To get

【0037】三次元座標データは三次元形状複雑度判定
部100に送られ、三次元形状複雑度判定部100は三
次元座標データを解析して、その形状の複雑さ(複雑
度)がに応じて、この後に行う本撮影でのスリット光の
走査速度およびステージ回転ピッチの最適値を見積もり
(ステップ3)、コントローラ80に転送する。
The three-dimensional coordinate data is sent to the three-dimensional shape complexity determination unit 100, and the three-dimensional shape complexity determination unit 100 analyzes the three-dimensional coordinate data and determines the complexity of the shape (complexity). Then, the optimum values of the scanning speed of the slit light and the stage rotation pitch in the subsequent actual photographing are estimated (step 3) and transferred to the controller 80.

【0038】なお、三次元形状複雑度判定部100にお
ける形状の複雑さの見積もりにおいては、三次元形状算
出部110により得られる三次元座標データを用いず
に、画像メモリ90から直接、反射パターン画像を取得
し、各フレーム間での変化量を算出して反射パターンの
連続性を求め、三次元形状の複雑度を判定する手法を用
いてもよい。また、その他にも、三次元形状の複雑度が
有効に判定される手法であれば、どのような手法を採っ
てもよい。
In estimating the complexity of the shape in the three-dimensional shape complexity determining unit 100, the reflection pattern image is directly obtained from the image memory 90 without using the three-dimensional coordinate data obtained by the three-dimensional shape calculating unit 110. May be obtained, the amount of change between frames may be calculated to determine the continuity of the reflection pattern, and the complexity of the three-dimensional shape may be determined. In addition, any method may be adopted as long as the complexity of the three-dimensional shape is effectively determined.

【0039】また、ステップ3において、スリット光走
査速度の算出に代えて、撮影装置60のフレームレート
を変化させ、最適な値に設定するようにしてもよい。
In step 3, instead of calculating the slit light scanning speed, the frame rate of the photographing device 60 may be changed and set to an optimum value.

【0040】続いて、対象物10の本撮影に入る(ステ
ップ4)。ここでの撮影は、対象物10のプリ撮影時よ
りも詳細な三次元形状取得のためのスリット光投影画像
の撮影、対象物10の表面の法線方向取得のための構造
光投影画像の撮影および対象物10の表面の表面属性を
推定するために用いる画像の撮影の順に行なう(ステッ
プ5,6)。
Then, the main photographing of the object 10 is started (step 4). The shooting here is a shooting of a slit light projection image for acquiring a more detailed three-dimensional shape than the pre-shooting of the object 10, and a shooting of a structured light projection image for acquiring the normal direction of the surface of the object 10. Then, the images used for estimating the surface attributes of the surface of the object 10 are captured in the order named (steps 5 and 6).

【0041】また、各撮影は回転ステージ20のステッ
プ3において算出されたステージ回転ピッチの回転(ス
テップ7,8)ごとに順次行なわれ、回転ステージ20
が一周すれば(ステップ7)本撮影は終了する。
Further, each photographing is sequentially performed for each rotation (steps 7 and 8) of the stage rotation pitch calculated in step 3 of the rotary stage 20.
After one round (step 7), the main shooting ends.

【0042】本撮影の開始命令がコントローラ80から
なされると、図2(B)に示すように、スリット光投影
機30は対象物10に対するスリット光の走査を開始す
る(ステップ41)。また、スリット光の走査と同期し
て撮影装置60による対象物10のスリット光反射パタ
ーン画像の撮影を開始する。
When the controller 80 issues a command to start the main photographing, the slit light projector 30 starts scanning the object 10 with slit light as shown in FIG. 2B (step 41). Further, in synchronization with the scanning of the slit light, the photographing device 60 starts photographing the slit light reflection pattern image of the object 10.

【0043】このときの撮影仕様は、プレ撮影で行なわ
れたスリット光反射パターン撮影と同様である。但し、
スリット光の走査速度あるいは撮像フレームレートはス
テップ3において決定された値である。
The photographing specifications at this time are the same as those of the slit light reflection pattern photographing performed in the pre-photographing. However,
The scanning speed of the slit light or the imaging frame rate is the value determined in step 3.

【0044】取得されたスリット光反射パターン画像は
画像メモリ90に格納され、さらに画像データは三次元
形状算出部110に転送される。三次元形状算出部11
0は三角測量原理に基づいて三次元座標の算出を行なう
(ステップ5)。この際、三次元形状データとしては,
たとえばポリゴンによる表面モデルあるいは異なる形状
の表面形状要素の集合として表現できるように加工する
仕様でもよい。
The obtained slit light reflection pattern image is stored in the image memory 90, and the image data is transferred to the three-dimensional shape calculation unit 110. Three-dimensional shape calculation unit 11
0 calculates three-dimensional coordinates based on the triangulation principle (step 5). At this time, as the three-dimensional shape data,
For example, the specification may be such that processing is performed so that it can be expressed as a surface model using polygons or a set of surface shape elements having different shapes.

【0045】また、ステップ43,44において構造光
投影機40による構造光投影下での撮影を行う。この
際、スリット光源32の光は、対象物10に対し、完全
に遮断されているか消灯されている。構造光投影機40
は、対象物10に対し、正方格子状の構造光を投影す
る。対象物10による構造光の反射パターン像は撮影装
置60により撮像され、その構造光反射パターン画像は
画像メモリ90に保存される。そして、構造光反射パタ
ーン画像は法線方向算出部120に転送され、法線方向
算出部120は構造光反射パターン画像に基づいて対象
物10の表面における正方格子状構造光の各交点(格子
点)の射影点における法線方向を算出する(ステップ
5)。
Further, in steps 43 and 44, photographing is performed under the structured light projection by the structured light projector 40. At this time, the light from the slit light source 32 is completely blocked or turned off with respect to the object 10. Structured light projector 40
Projects a square lattice structured light onto the object 10. A structured light reflection pattern image of the object 10 is picked up by the image capturing device 60, and the structured light reflection pattern image is stored in the image memory 90. Then, the structured light reflection pattern image is transferred to the normal direction calculation unit 120, and the normal direction calculation unit 120 calculates each intersection (lattice point) of the square lattice structured light on the surface of the object 10 based on the structured light reflection pattern image. ), The normal direction at the projection point is calculated (step 5).

【0046】法線方向算出部120で法線方向を算出す
る際には、撮影装置60の位置と、構造光投影機40の
位置と、撮影装置60の光学系の光軸方向と構造光投影
機40の構造光投影方向とのなす角度と、回転ステージ
20の位置および回転角度のデータと、撮影した構造光
反射パターン画像のデータとを用いる。
When the normal direction calculation unit 120 calculates the normal direction, the position of the photographing device 60, the position of the structured light projector 40, the optical axis direction of the optical system of the photographing device 60, and the structured light projection. The angle formed by the structured light projection direction of the machine 40, the position and rotation angle data of the rotary stage 20, and the captured structured light reflection pattern image data are used.

【0047】射影幾何学も用いれば、対象物10の表面
が平面である場合に、撮影された構造光反射パターン画
像の座標データ、上記各機器の位置、角度データを用い
て、その平面の法線方向データを求めることができる。
If projective geometry is also used, when the surface of the object 10 is a plane, the coordinate of the photographed structured light reflection pattern image and the position and angle data of each of the above-mentioned devices are used to determine the method of that plane. Line direction data can be obtained.

【0048】平面ではない表面を持つ対象物10の場合
でも、以下のように処理を行なえば法線ベクトルが求め
られる。
Even in the case of the object 10 having a non-planar surface, the normal vector can be obtained by the following processing.

【0049】図3には、対象物10に構造光投影機40
による正方格子像を投影した際に撮影装置60によって
撮影される構造光反射パターン像の例を示している。構
造光反射パターン像は対象物の表面形状(曲面形状)を
反映して全体的に歪みを生じている。
In FIG. 3, the structured light projector 40 is attached to the object 10.
The example of the structured light reflection pattern image imaged by the imaging device 60 at the time of projecting the square lattice image by is shown. The structured light reflection pattern image reflects the surface shape (curved surface shape) of the object and is distorted as a whole.

【0050】但し、微小領域においては平面とみなせる
ので、格子点の射影点Pの周辺を平面とみなし、射影点
Pとその最近傍射影点Q1〜Q4の座標データとを用いて
法線方向を求めることが可能である。
However, since it can be regarded as a plane in a minute area, the periphery of the projection point P of the grid point is regarded as a plane, and the normal line is calculated using the projection point P and the coordinate data of the nearest projection points Q 1 to Q 4. It is possible to find the direction.

【0051】具体的に法線ベクトル算出の簡潔な例をあ
げる。格子点Pにおける物体表面単位法線ベクトル、点
14、Q23を結ぶベクトルをそれぞれ n, Q
14、Q23とおくと、 |n|2 = 1 n・Q14 = 0 n・Q23 = 0 を解くことにより法線方向を求めることが可能である。
法線ベクトルn は重解(座標成分の正負が反転)で求ま
るが、対象物の撮影方向と点Q1〜Q4の座標データを参
照することによりベクトルnが対象物の内部向きか外部
向きかが判別できるので、法線方向を決定できる。
A simple example of calculating the normal vector will be specifically described. An object surface unit normal vector at the lattice point P and vectors connecting the points Q 1 Q 4 and Q 2 Q 3 are n and Q, respectively.
When 1 Q 4 and Q 2 Q 3 are set, it is possible to obtain the normal direction by solving | n | 2 = 1 n · Q 1 Q 4 = 0 n · Q 2 Q 3 = 0.
Although the normal vector n obtained heavy solution (positive or negative coordinate component is highlighted), the internal facing or external direction of the vector n is the object by referring to the coordinate data of the photographing direction and the point Q 1 to Q 4 of the object Since it can be determined whether or not the normal direction can be determined.

【0052】このような法線ベクトル算出を各格子点の
射影点で行なうことで、対象物10の表面各部の法線ベ
クトルを算出する。また、この手法では各格子点の射影
点でしか法線方向が求められないので、より多くの点で
法線方向を求めるため、格子点の射影点を対象物10の
表面上においてずらすことができるように、構造光投影
機40に投影光を微小にずらす機能を設けたり、投影光
の倍率を変えられるようにズーム光学系を搭載して、投
影パターンの大きさを変えられるようにしてもよい。
By performing such normal vector calculation at the projection points of each grid point, the normal vector of each part of the surface of the object 10 is calculated. Further, in this method, since the normal direction can be obtained only at the projection points of each grid point, the projection points of the grid points can be shifted on the surface of the object 10 in order to find the normal direction at more points. As described above, the structured light projector 40 is provided with a function of slightly shifting the projection light, or a zoom optical system is mounted so that the magnification of the projection light can be changed so that the size of the projection pattern can be changed. Good.

【0053】なお、上記手法以外でも、対象物10の表
面の法線方向が算出できる処理であれば、どのような手
法をとっても構わない。
In addition to the above method, any method may be used as long as it is a process capable of calculating the normal direction of the surface of the object 10.

【0054】次に、ステップ45,46で、照明装置5
0を駆動して、照明光源52による照明光照射下での撮
影を行う。この際、構造光投影機40の光は、対象物1
0に対し完全に遮断されているか消灯されている。
Next, in steps 45 and 46, the lighting device 5
0 is driven to perform photographing under illumination light irradiation by the illumination light source 52. At this time, the light from the structured light projector 40 is the object 1
0 is completely shut off or turned off.

【0055】照明装置50はも照明光源52を初期位置
に設定して対象物10を照明し、撮影装置60により対
象物10の画像が撮像され、画像は画像メモリ90に蓄
えられる。
The illumination device 50 also sets the illumination light source 52 to the initial position to illuminate the object 10, the image of the object 10 is picked up by the photographing device 60, and the image is stored in the image memory 90.

【0056】照明装置50は順次決められた刻み角で、
対象物10の位置を中心に回転ステージ20の回転方向
と異なる方向に照明光源52を回転させる(ステップ4
7,48)。そして、同様に照明光照射下で対象物10
の画像が撮像される。この処理を、照明光源52の位置
が所定の最大位置に達するまで繰り返す(ステップ4
7)。また、照明光源52の位置は、対応する画像デー
タと共に表面属性算出部130に転送される。
The illuminating device 50 has a step angle determined in sequence,
The illumination light source 52 is rotated about the position of the object 10 in a direction different from the rotation direction of the rotary stage 20 (step 4).
7, 48). Then, similarly, the object 10 is irradiated with illumination light.
Image is captured. This process is repeated until the position of the illumination light source 52 reaches a predetermined maximum position (step 4).
7). Further, the position of the illumination light source 52 is transferred to the surface attribute calculation unit 130 together with the corresponding image data.

【0057】表面属性算出部130は、Phongモデルや
Torrance-Sparrowモデル等の2色性反射モデルに基づい
て、対象物10の表面におけるステップ5で算出した各
法線ベクトルの起点(格子点の射影点)での法線方向を
基準とした、撮影時の対象物10、照明光源52および
撮影装置60の位置関係を用いて当該起点での表面属性
を推定する。
The surface attribute calculator 130 uses the Phong model and
Based on the dichroic reflection model such as the Torrance-Sparrow model, the photographing is performed with the normal direction at the starting point (projection point of the grid point) of each normal vector calculated in step 5 on the surface of the object 10 as a reference. The surface attribute at the starting point is estimated using the positional relationship between the target object 10, the illumination light source 52, and the imaging device 60 at that time.

【0058】照明光照射下で撮影された画像は、このと
きの照明光源52の位置データ、法線方向算出部120
により算出された対象物10の法線方向データと共に、
表面属性算出部130において対象物10の色・光沢・
輝度等の表面属性の推定演算に用いられる。
The image photographed under irradiation of illumination light is the position data of the illumination light source 52 at this time, and the normal direction calculation unit 120.
With the normal direction data of the object 10 calculated by
In the surface attribute calculation unit 130, the color / gloss of the object 10
It is used for estimation calculation of surface attributes such as brightness.

【0059】本実施形態の三次元画像処理システムで
は、スリット光投射画像による対象物10の形状測定
と、構造光投影画像による対象物10の表面の法線方向
の算出と、照明光照射画像による対象物10の表面の表
面属性推定とをそれぞれ独立に行っているため、照明光
照射画像の撮影についても回転ステージ20を所定回転
角ずつ回転させて、各角度位置において上記と同様に行
う。
In the three-dimensional image processing system of this embodiment, the shape of the object 10 is measured by the slit light projection image, the normal direction of the surface of the object 10 is calculated by the structured light projection image, and the illumination light irradiation image is used. Since the surface attribute estimation of the surface of the target object 10 is performed independently, the rotation stage 20 is rotated by a predetermined rotation angle and the imaging of the illumination light irradiation image is performed at each angular position in the same manner as described above.

【0060】そして、回転ステージ20回転角が360
度を超えた時点(ステップ7)で本撮影を終了する。な
お、ここでは360度という値を設定したが、必要な三
次元モデルデータが対象物10の一定範囲だけであれ
ば、回転ステージ20がその角度分回転すれば本撮影を
終了するようにしてもよい。
The rotation angle of the rotary stage 20 is 360
The actual shooting ends at the point of time (step 7). Although the value of 360 degrees is set here, if the required three-dimensional model data is only in a certain range of the object 10, the main stage photography may be terminated when the rotary stage 20 rotates by that angle. Good.

【0061】こうして三次元形状算出部110によって
算出された三次元形状データと、表面属性算出部130
によって算出された各方位表面属性データとが三次元モ
デルデータ構築部140に転送される。
The three-dimensional shape data calculated by the three-dimensional shape calculating section 110 in this way and the surface attribute calculating section 130
Each azimuth surface attribute data calculated by the above is transferred to the three-dimensional model data construction unit 140.

【0062】三次元モデルデータ構築部140は、各撮
影方位(ステージ回転位置)で得られた三次元形状デー
タと表面属性データとを統合(ステップ9)、最適化
し、対象物10の三次元モデルデータを構築する(ステ
ップ10)。
The three-dimensional model data constructing unit 140 integrates and optimizes the three-dimensional shape data and the surface attribute data obtained at each photographing direction (stage rotation position) (step 9) to optimize the three-dimensional model of the object 10. Build the data (step 10).

【0063】取得された三次元モデルデータは、三次元
モデルデータ構築部140内のメモリに保存され、オペ
レータのユーザーインターフェース70の操作による処
理命令が発生すると、出力端子150に転送される(ス
テップ11)。
The acquired three-dimensional model data is stored in the memory in the three-dimensional model data construction unit 140, and is transferred to the output terminal 150 when a processing command is generated by the operator operating the user interface 70 (step 11). ).

【0064】以上説明したように、本実施形態によれ
ば、対象物10に構造光を投影し、その反射光パターン
の撮像画像を解析することで、対象物10の表面の各部
の法線方向を精度良く取得することができる。このた
め、その法線方向データに基づいて対象物10の表面属
性を高精度に推定することが可能となる。
As described above, according to the present embodiment, the structured light is projected onto the object 10 and the captured image of the reflected light pattern is analyzed to determine the normal direction of each part of the surface of the object 10. Can be obtained accurately. Therefore, the surface attribute of the object 10 can be estimated with high accuracy based on the normal direction data.

【0065】また、本実施形態では、対象物10の三次
元形状データと対象物10の表面の法線方向とをそれぞ
れ独立して取得するようにしているので、三次元形状デ
ータ取得の分解能、精度、仕様に影響されること無く、
対象物10の表面属性を所望の精度で取得することがで
きる。
Further, in this embodiment, since the three-dimensional shape data of the object 10 and the normal direction of the surface of the object 10 are independently acquired, the resolution of the acquisition of the three-dimensional shape data, Without being affected by accuracy and specifications,
The surface attribute of the object 10 can be acquired with desired accuracy.

【0066】なお、本発明の三次元画像処理システム
は、本実施形態で説明したものに限定されるものではな
く、例えば、対象物の表面の法線方向の取得には、法線
方向が求まるのであれば、周期的に配列された円形状の
テクスチャパターンやその他テクスチャパターン、正弦
波チャートの様な濃淡パターンなど、正方格子形状以外
の構造光を用いてもよい。
The three-dimensional image processing system of the present invention is not limited to the one described in this embodiment, and for example, the normal direction of the surface of the object can be obtained. In such a case, structured light other than the square lattice shape may be used, such as a circular texture pattern or other texture patterns arranged periodically, or a light and shade pattern such as a sine wave chart.

【0067】また、対象物の三次元形状の取得にスリッ
ト光投影法を用いずに、レーザレーダ法を用いたり、2
台以上の撮影装置を使用した多眼立体視法を用いてもよ
い。
In addition, the laser radar method may be used instead of the slit light projection method to obtain the three-dimensional shape of the object.
It is also possible to use a multi-view stereoscopic method using a plurality of imaging devices.

【0068】さらに、本発明を実施可能なものであれ
ば、どのような構成および仕様を採用してもよい。
Further, any structure and specification may be adopted as long as the present invention can be implemented.

【0069】(第2実施形態)図4には、本発明の第2
実施形態である三次元画像処理システムの構成を示して
いる。本実施形態において、第1実施形態と共通する構
成要素には、第1実施形態と同符号を付して説明に代え
る。
(Second Embodiment) FIG. 4 shows a second embodiment of the present invention.
1 illustrates a configuration of a three-dimensional image processing system that is an embodiment. In the present embodiment, constituent elements common to those of the first embodiment are designated by the same reference numerals as those of the first embodiment, and will not be described.

【0070】上記第1実施形態の三次元処理装置200
では、スリット光投射下での撮影画像を用いて対象物1
0の三次元形状を測定し、構造光投影下での撮影画像を
用いて対象物10の表面の法線方向を測定したが、本実
施形態の三次元画像処理装置200’では、構造光投影
下での撮影画像を用いて三次元形状の測定と法線方向の
測定の双方を行うようにしている。
The three-dimensional processing apparatus 200 of the first embodiment described above.
Then, using the captured image under the slit light projection, the object 1
The three-dimensional shape of 0 was measured, and the normal direction of the surface of the object 10 was measured using the captured image under the structured light projection. However, in the three-dimensional image processing apparatus 200 ′ of the present embodiment, the structured light projection is performed. Both the three-dimensional shape and the normal direction are measured using the photographed image below.

【0071】また、第1実施形態では、三次元形状複雑
度判定部100を設け、プレ撮影における対象物10の
三次元形状の測定結果から対象物10の形状の複雑度を
判定する場合について説明したが、本実施形態では、対
象物10の形状の複雑度をオペレータによってユーザー
インターフェース70を介して入力されるようになって
いる。このため、三次元形状複雑度判定部100は設け
られていない。そして、本実施形態では、入力された複
雑度に応じて構造光投影機40内の光学系のズーム倍率
を変化させることにより、対象物10に投影する構造光
パターンの大きさを変えるようにしている。
In the first embodiment, the case where the three-dimensional shape complexity determination unit 100 is provided and the complexity of the shape of the object 10 is determined from the measurement result of the three-dimensional shape of the object 10 in the pre-imaging will be described. However, in the present embodiment, the operator inputs the complexity of the shape of the object 10 via the user interface 70. Therefore, the three-dimensional shape complexity determination unit 100 is not provided. Then, in the present embodiment, the size of the structured light pattern projected on the object 10 is changed by changing the zoom magnification of the optical system in the structured light projector 40 according to the input complexity. There is.

【0072】構造光投影機40は、図6に示すように、
投影光源42と、正方格子スリット44と、投影光源4
2からの光を平行光に変換するコリメータレンズ46
と、投影光を任意の拡大率で投影するズームレンズ48
とを備えている。
The structured light projector 40, as shown in FIG.
Projection light source 42, square lattice slit 44, projection light source 4
Collimator lens 46 for converting the light from 2 to parallel light
And a zoom lens 48 that projects the projection light at an arbitrary magnification ratio.
It has and.

【0073】また、構造光投影機40は、正方格子スリ
ット44を、このスリット44を通過する平行光線と直
交する面内において任意の位置に制御できる機能を有し
ている。
Further, the structured light projector 40 has a function of controlling the square lattice slit 44 at an arbitrary position in the plane orthogonal to the parallel rays passing through the slit 44.

【0074】正方格子スリット40の位置制御とズーム
レンズ48のズーム制御は、図4に示したコントローラ
80からの信号により行われる。
The position control of the square lattice slit 40 and the zoom control of the zoom lens 48 are performed by a signal from the controller 80 shown in FIG.

【0075】また、撮影装置60内の光学系もズーム機
能を有しており、コントローラ80により、構造光投影
機40のズーム比に対応してズーム倍率の制御が可能で
ある。なお、上記光学系の全ズーム比における主点位
置、焦点距離等のデータは、コントローラ80内のメモ
リ(図示せず)に格納されている。
The optical system in the photographing device 60 also has a zoom function, and the controller 80 can control the zoom magnification according to the zoom ratio of the structured light projector 40. The data such as the principal point position and focal length in all zoom ratios of the optical system are stored in a memory (not shown) in the controller 80.

【0076】対象物10が回転ステージ20に載置さ
れ、撮影が開始された際、オペレータにより対象物形状
の複雑度(あるいはデータ分解能)が入力される。これ
によりコントローラ80内のCPU(図示せず)によ
り、構造光投影機40および撮影装置60の光学系の最
適なズーム倍率が計算され、構造光投影機40および撮
影装置60の光学系を所定のズーム倍率が得られる状態
に設定する。
When the object 10 is placed on the rotary stage 20 and imaging is started, the operator inputs the complexity (or data resolution) of the object shape. As a result, the CPU (not shown) in the controller 80 calculates the optimum zoom magnification of the optical system of the structured light projector 40 and the photographing device 60, and sets the optical system of the structured light projector 40 and the photographing device 60 to a predetermined value. Set the zoom magnification so that it can be obtained.

【0077】例えば、対象物10の複雑度が高ければ、
構造光投影機40のズーム倍率(投影光拡大率)を下げ
て対象物10表面に投影される正方格子パターンを細か
くし、細かくなった正方格子の反射光パターンを精度良
く撮影するために、撮影装置60のズーム倍率を上げ
る。
For example, if the complexity of the object 10 is high,
In order to reduce the zoom magnification (projection light enlargement ratio) of the structured light projector 40 to make the square grid pattern projected on the surface of the object 10 fine and to accurately shoot the reflected light pattern of the fine square grid, shooting is performed. Increase the zoom factor of device 60.

【0078】次に、図5(A),(B)に示したフロー
チャートを用いて、本実施形態の三次元画像処理システ
ムによる三次元モデルデータの作成について説明する。
図5(A)はメイン処理フローを、図5(B)は本撮影
(ステップ104)のサブルーチンを示している。
Next, with reference to the flowcharts shown in FIGS. 5A and 5B, the creation of three-dimensional model data by the three-dimensional image processing system of this embodiment will be described.
FIG. 5A shows a main processing flow, and FIG. 5B shows a main photographing (step 104) subroutine.

【0079】ユーザーインターフェース70を介して撮
影開始が指示され(ステップ101)、オペレータによ
り対象物形状の複雑度が入力されると(ステップ10
2)上述したように、構造光投影機40および撮影装置
60の光学系のズーム倍率設定が行われる(ステップ1
03)。
When the photographing start is instructed through the user interface 70 (step 101) and the operator inputs the complexity of the object shape (step 10).
2) As described above, the zoom magnification of the optical system of the structured light projector 40 and the imaging device 60 is set (step 1).
03).

【0080】次に、本撮影を行う(ステップ104)。
本撮影においては、図5(B)に示すように、まず対象
物10に対する構造光投影機40による正方格子像の走
査投影が行われる(ステップ143)。正方格子像の走
査は、図6に示した正方格子スリット44を上下左右に
駆動することで格子1ピッチ分ずつ行う。また、走査は
一定の速度で行なわれる。そして、構造光投影下におけ
る対象物10を撮影装置60により一定のフレームレー
トで撮像し、撮影画像を画像メモリ90へ転送する(ス
テップ144)。画像データは画像メモリ90から三次
元形状算出部110’および法線方向算出部120に転
送される。
Next, actual photographing is performed (step 104).
In the main photographing, as shown in FIG. 5B, first, a scanning projection of a square lattice image is performed on the object 10 by the structured light projector 40 (step 143). The scanning of the square lattice image is performed by one pitch of the lattice by driving the square lattice slit 44 shown in FIG. 6 vertically and horizontally. Further, the scanning is performed at a constant speed. Then, the object 10 under the structured light projection is imaged by the imaging device 60 at a constant frame rate, and the captured image is transferred to the image memory 90 (step 144). The image data is transferred from the image memory 90 to the three-dimensional shape calculation unit 110 ′ and the normal direction calculation unit 120.

【0081】正方格子スリット44の位置、サイズ、構
造光投影機40ズームレンズ48の位置(ズーム倍
率)、撮影装置60の光学系の主点位置、ズーム倍率、
撮影面の位置等は既知であるので、スリット走査方向と
垂直な方向の各格子パターンの対象物10による反射光
を撮影画像中で解析すれば、三角測量原理により対象物
10の表面各位置の座標が求まる。
The position and size of the square lattice slit 44, the position (zoom magnification) of the zoom lens 48 of the structured light projector 40, the principal point position of the optical system of the photographing device 60, the zoom magnification,
Since the position of the photographing surface and the like are known, if the reflected light from the object 10 of each lattice pattern in the direction perpendicular to the slit scanning direction is analyzed in the photographed image, the position of each surface of the object 10 on the basis of the triangulation principle is analyzed. The coordinates are obtained.

【0082】また、対象物10の表面の法線方向データ
は、第1実施形態と同様の手法で、撮影画像を解析する
ことにより求められる。
Further, the normal direction data of the surface of the object 10 can be obtained by analyzing the photographed image by the same method as in the first embodiment.

【0083】なお、上記構造光の走査を、格子1ピッチ
分以上行い、撮影画像を多く取得し、解析対象データを
増やすことで、より高精度に対象物10の表面の三次元
座標および法線方向データを取得してもよい。
The structured light scanning is performed for one pitch of the grid or more, a large number of captured images are acquired, and the data to be analyzed is increased, so that the three-dimensional coordinates and the normal line of the surface of the object 10 can be more accurately measured. Direction data may be acquired.

【0084】また、対象物10の複雑度が高く、複雑な
形状をできるだけ正確に測定するために構造光を縮小し
て投影した場合において、投影パターンが対象物10の
表面全領域を覆うことができないときは、構造光投影機
40と撮影装置60を、それらの相対的位置を保ったま
ま、対象物10の全領域の構造光投影画像を取得できる
ように位置制御して撮影するようにしてもよい。
Further, when the object 10 has a high degree of complexity and the structured light is projected in a reduced size in order to measure a complicated shape as accurately as possible, the projection pattern may cover the entire surface area of the object 10. When it is not possible, the structured light projector 40 and the photographing device 60 are position-controlled so as to acquire the structured light projection image of the entire area of the object 10 while keeping their relative positions. Good.

【0085】このようにして、三次元形状算出部11
0’においては対象物10の三次元形状データが、法線
方向算出部120においては対象物10の表面の法線方
向データがそれぞれ算出される。
In this way, the three-dimensional shape calculation unit 11
In 0 ′, the three-dimensional shape data of the object 10 is calculated, and in the normal direction calculation unit 120, the normal direction data of the surface of the object 10 is calculated.

【0086】続いて、第1実施形態と同様に、各照明光
源52の位置および回転ステージ20の各回転位置の環
境下での対象物10の画像撮影が行われ(ステップ14
5,146,147,148)、それらの画像データと
対象物10の表面の法線方向データとに基づく表面属性
の推定演算(ステップ106,1)、さらには全方位で
の三次元データの統合、表面属性データの統合、三次元
モデルデータの構築処理がなされ、最終的に三次元モデ
ルデータが出力端子150から出力される。
Subsequently, similarly to the first embodiment, the image of the object 10 is taken under the environment of the positions of the respective illumination light sources 52 and the respective rotational positions of the rotary stage 20 (step 14).
5, 146, 147, 148), the surface attribute estimation calculation based on the image data and the normal direction data of the surface of the object 10 (steps 106, 1), and further the integration of three-dimensional data in all directions. The surface attribute data is integrated, the three-dimensional model data is constructed, and the three-dimensional model data is finally output from the output terminal 150.

【0087】以上説明したように、本実施形態によれ
ば、対象物10に構造光を投影し、その反射光パターン
の撮影画像を解析することで、対象物10の三次元形状
データと表面の法線方向データの両方を精度良くかつ高
速に取得することができる。このため、三次元形状デー
タをレーザーレーダー法や干渉法等を用いて三次元測定
装置で測定し、撮影装置60による撮影画像を用いて法
線方向データを取得する得る場合に比べて、システムを
構成する装置数の削減やスペースの節減を図ることがで
き、低コストで高性能な三次元画像処理システムを実現
することができる。
As described above, according to the present embodiment, the structured light is projected on the object 10 and the photographed image of the reflected light pattern is analyzed, whereby the three-dimensional shape data of the object 10 and the surface of the object 10 are analyzed. Both normal direction data can be acquired accurately and at high speed. Therefore, compared to a case where the three-dimensional shape data is measured by the three-dimensional measuring device using the laser radar method or the interferometric method and the normal direction data is acquired using the image captured by the image capturing device 60, The number of constituent devices can be reduced and the space can be saved, and a high-performance three-dimensional image processing system can be realized at low cost.

【0088】また、本実施形態のように構造光投影機4
0および撮影装置60の光学系のズーム倍率を変更可能
とすることで、複雑な表面形状を有する対象物でも、そ
の三次元形状データと表面の法線方向データとを精度良
く取得することができ、表面形状の複雑な対象物の表面
属性を高精度に推定できる三次元画像処理システムを実
現することができる。
Further, as in the present embodiment, the structured light projector 4 is used.
0 and the zoom magnification of the optical system of the image capturing device 60 can be changed, so that even for an object having a complicated surface shape, its three-dimensional shape data and surface normal direction data can be accurately acquired. It is possible to realize a three-dimensional image processing system capable of highly accurately estimating the surface attribute of an object having a complicated surface shape.

【0089】なお、本発明の三次元画像処理システム
は、本実施形態にて説明したものに限定されず、本発明
を実施可能なものであれば、どのような構成および仕様
を採用してもよい。
The three-dimensional image processing system of the present invention is not limited to the one described in this embodiment, and any structure and specification can be adopted as long as the present invention can be implemented. Good.

【0090】[0090]

【発明の効果】以上説明したように、本発明によれば、
実物体に構造光を投影して撮影した画像情報に含まれる
構造光の反射パターンを用いて、実物体の各部の法線方
向を精度良く求めることができる。したがって、このよ
うに精度良く求めた法線方向を基準とした実物体と構造
光の投影手段と撮影装置との位置関係から、実物体の色
・光沢・輝度等の表面属性を高精度に、すなわちより実
物体に近いリアルな表面属性を推定することができる。
As described above, according to the present invention,
The normal direction of each part of the real object can be accurately obtained by using the reflection pattern of the structured light included in the image information obtained by projecting the structured light on the real object. Therefore, the surface attributes such as color, gloss, and brightness of the real object can be accurately determined based on the positional relationship between the real object, the structured light projection means, and the image capturing device, which are based on the normal direction thus accurately determined. That is, it is possible to estimate a realistic surface attribute that is closer to that of a real object.

【0091】なお、上記構造光の反射パターンを含む画
像情報に基づいて、表面属性データだけでなく、実物体
の三次元形状データをも生成するようにすれば、三次元
形状データの取得と表面法線方向の取得のための画像撮
影とを別々に行なったり、三次元形状データ取得のため
の専用の測定装置を設けたりする必要がなくなり、高速
でかつ低コストで三次元画像の作成を行うことかでき
る。
If not only the surface attribute data but also the three-dimensional shape data of the real object is generated based on the image information including the reflection pattern of the structured light, the acquisition of the three-dimensional shape data and the surface There is no need to separately perform image capturing for acquiring the normal direction or to install a dedicated measuring device for acquiring three-dimensional shape data, and create three-dimensional images at high speed and at low cost. I can do it.

【0092】また、実物体の形状の測定結果又は使用者
により入力された実物体の形状に関するデータに応じ
て、投影する構造光のパターンの種類、パターンの大き
さおよび実物体に対する構造光の投影位置のうちいずれ
かを変更するようにし、実物体の形状(の複雑さ等)に
合わせて構造光の投影状態を最適化できるようにすれ
ば、より高精度に実物体表面の各部の法線方向、ひいて
は表面属性を求めることができる。
Further, according to the measurement result of the shape of the real object or the data on the shape of the real object inputted by the user, the type of the pattern of the structured light to be projected, the size of the pattern and the projection of the structured light onto the real object. If either of the positions is changed and the projection state of the structured light can be optimized according to the shape (complexity, etc.) of the real object, the normal line of each part of the real object surface will be more highly accurate. The direction and thus the surface attribute can be obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施形態である三次元画像処理シ
ステムの構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a three-dimensional image processing system which is a first embodiment of the present invention.

【図2】上記三次元画像処理システムにおける三次元モ
デルデータ作成の処理を示すフローチャートである。
FIG. 2 is a flowchart showing a process of creating three-dimensional model data in the three-dimensional image processing system.

【図3】上記三次元画像処理システムの構造光投影機に
より対象物に正方格子像を投影した際に撮影される反射
パターン像を示す概略図である。
FIG. 3 is a schematic diagram showing a reflection pattern image captured when a square lattice image is projected on an object by the structured light projector of the three-dimensional image processing system.

【図4】本発明の第2実施形態である三次元画像処理シ
ステムの構成を示すブロック図である。
FIG. 4 is a block diagram showing a configuration of a three-dimensional image processing system which is a second embodiment of the present invention.

【図5】上記第2実施形態の三次元画像処理システムに
おける三次元モデルデータ作成の処理を示すフローチャ
ートである。
FIG. 5 is a flowchart showing a process of creating three-dimensional model data in the three-dimensional image processing system according to the second embodiment.

【図6】上記第2実施形態の三次元画像処理システムを
構成する構造光投影機の構成を示す概略図である。
FIG. 6 is a schematic diagram showing a configuration of a structured light projector that constitutes the three-dimensional image processing system of the second embodiment.

【符号の説明】[Explanation of symbols]

10 対象物 20 回転ステージ 30 スリット光投影機 32 スリット光源 34 可動スリット 40 構造光投影機 42 投影光源 44 正方格子スリット 46 コリメータレンズ 48 ズームレンズ 50 照明装置 52 照明光源 60 撮影装置 70 ユーザーインターフェース 80 コントローラ 90 画像メモリ 100 三次元形状複雑度判定部 110,110’ 三次元形状算出部 120 法線方向算出部 130 表面属性算出部 140 三次元モデルデータ構築部 150 出力端子 200,200’ 三次元画像処理装置 10 objects 20 rotation stages 30 slit light projector 32 slit light source 34 Movable slit 40 Structured light projector 42 Projection light source 44 square lattice slit 46 Collimator lens 48 zoom lens 50 Lighting equipment 52 Illumination light source 60 Imaging device 70 User Interface 80 controller 90 image memory 100 three-dimensional shape complexity determination unit 110, 110 'three-dimensional shape calculation unit 120 Normal direction calculation unit 130 Surface Attribute Calculation Unit 140 3D model data construction unit 150 output terminals 200,200 'three-dimensional image processing apparatus

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA35 AA53 BB05 FF07 FF26 HH05 HH06 LL06 LL28 PP13 PP23 5B057 BA02 BA15 BA17 CA13 CA16 CB13 CB16 5B080 AA00 AA13 DA06 GA15    ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 2F065 AA35 AA53 BB05 FF07 FF26                       HH05 HH06 LL06 LL28 PP13                       PP23                 5B057 BA02 BA15 BA17 CA13 CA16                       CB13 CB16                 5B080 AA00 AA13 DA06 GA15

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 実物体に構造光を投影してこの実物体を
撮影する第1のステップと、 この第1のステップで撮影した画像情報に基づいて前記
実物体の表面各部の法線方向を示すデータを取得する第
2のステップと、 この第2のステップで取得した法線方向を示すデータを
用いて前記実物体の表面属性を推定する第3のステップ
とを有することを特徴とする三次元画像処理方法。
1. A first step of projecting structured light onto a real object to photograph the real object, and a normal direction of each surface portion of the real object based on image information photographed in the first step. A third order characterized by including a second step of acquiring the data shown, and a third step of estimating the surface attribute of the real object using the data showing the normal direction acquired in the second step. Original image processing method.
【請求項2】 前記第2のステップにおいて、前記第1
のステップで撮影した画像情報から得られる前記実物体
の前記構造光による反射光パターンに基づいて法線方向
を示すデータを取得することを特徴とする請求項1に記
載の三次元画像処理方法。
2. The first step in the second step
The three-dimensional image processing method according to claim 1, wherein the data indicating the normal direction is acquired based on the reflected light pattern of the structured light of the real object obtained from the image information captured in the step.
【請求項3】 前記構造光が、ライン状パターン、テク
スチャパターンおよび濃淡パターンのうちいずれかを有
することを特徴とする請求項1に記載の三次元画像処理
方法。
3. The three-dimensional image processing method according to claim 1, wherein the structured light has any one of a line pattern, a texture pattern, and a grayscale pattern.
【請求項4】 前記第1のステップで撮影した画像情報
から得られる前記実物体の前記構造光による反射光パタ
ーンに基づいて前記実物体の三次元形状データを生成す
る第4のステップを有することを特徴とする請求項1に
記載の三次元画像処理方法。
4. A fourth step of generating three-dimensional shape data of the real object based on a reflected light pattern of the real object by the structured light, which is obtained from the image information photographed in the first step. The three-dimensional image processing method according to claim 1.
【請求項5】 前記第2のステップにおいて、前記実物
体の形状の測定結果に基づいて前記構造光のパターンの
種類、パターンの大きさおよび投影源の位置のうちいず
れかを変更することを特徴とする請求項1に記載の三次
元画像処理方法。
5. In the second step, any one of the type of the structured light pattern, the size of the pattern, and the position of the projection source is changed based on the measurement result of the shape of the real object. The three-dimensional image processing method according to claim 1.
【請求項6】 前記第2のステップにおいて、操作者が
入力した前記実物体の表面形状を示すデータに応じて、
前記構造光のパターンの種類、パターンの大きさおよび
前記実物体に対する前記構造光の投影位置のうちいずれ
かを変更することを特徴とする請求項1に記載の三次元
画像処理方法。
6. In the second step, according to data indicating a surface shape of the real object input by an operator,
The three-dimensional image processing method according to claim 1, wherein any one of a type of the structured light pattern, a pattern size, and a projection position of the structured light with respect to the real object is changed.
【請求項7】 投影手段からの構造光が投影された実物
体を撮影して得られた画像情報に基づいて前記実物体の
表面各部の法線方向を示すデータを取得する法線方向取
得手段と、 この法線方向取得手段により得られた法線方向を示すデ
ータを用いて前記実物体の表面属性を推定する表面属性
推定手段とを有することを特徴とする三次元画像処理装
置。
7. A normal direction acquisition means for acquiring data indicating a normal direction of each surface portion of the real object based on image information obtained by photographing the real object onto which the structured light from the projection means is projected. And a surface attribute estimating means for estimating the surface attribute of the real object using the data indicating the normal direction obtained by the normal direction obtaining means.
【請求項8】 前記法線方向取得手段は、前記画像情報
から得られる前記実物体の前記構造光による反射光のパ
ターンに基づいて法線方向を示すデータを取得すること
を特徴とする請求項7に記載の三次元画像処理装置。
8. The normal direction acquisition means acquires data indicating a normal direction based on a pattern of reflected light of the structured light of the real object obtained from the image information. The three-dimensional image processing device according to item 7.
【請求項9】 前記構造光が、ライン状パターン、テク
スチャパターンおよび濃淡パターンのうちいずれかを有
することを特徴とする請求項7に記載の三次元画像処理
装置。
9. The three-dimensional image processing apparatus according to claim 7, wherein the structured light has any one of a line pattern, a texture pattern, and a grayscale pattern.
【請求項10】 前記画像情報から得られる前記実物体
の前記構造光による反射光パターンに基づいて前記実物
体の三次元形状データを生成する三次元形状取得手段を
有することを特徴とする請求項7に記載の三次元画像処
理装置。
10. The three-dimensional shape acquisition means for generating three-dimensional shape data of the real object based on a reflected light pattern of the real object, which is obtained from the image information, by the structured light. The three-dimensional image processing device according to item 7.
【請求項11】 前記法線方向取得手段は、前記実物体
の形状の測定結果に応じて、前記構造光のパターンの種
類、パターンの大きさおよび前記実物体に対する前記構
造光の投影位置のうちいずれかを変更させることを特徴
とする請求項7に記載の三次元画像処理装置。
11. The normal direction acquisition means selects one of a pattern type of the structured light, a size of the pattern, and a projection position of the structured light with respect to the real object, according to a measurement result of the shape of the real object. The three-dimensional image processing apparatus according to claim 7, wherein any one of them is changed.
【請求項12】 前記実物体の表面形状に関するデータ
を使用者に入力させる操作手段を有し、 前記法線方向取得手段は、前記操作手段から入力された
データに応じて、前記構造光のパターンの種類、パター
ンの大きさおよび前記投影手段の位置のうちいずれかを
変更することを特徴とする請求項7に記載の三次元画像
処理装置。
12. The structured light pattern has an operating means for allowing a user to input data relating to the surface shape of the real object, and the normal direction acquisition means has a pattern of the structured light according to the data input from the operating means. The three-dimensional image processing apparatus according to claim 7, wherein any one of the type, the size of the pattern, and the position of the projection unit is changed.
【請求項13】 構造光を実物体に投影する投影手段
と、前記実物体を撮影して画像情報を出力する撮影装置
と、請求項7から12のいずれかに記載の三次元画像処
理装置とを有することを特徴とする三次元画像処理シス
テム。
13. A projection means for projecting structured light onto a real object, a photographing device for photographing the real object and outputting image information, and the three-dimensional image processing device according to claim 7. A three-dimensional image processing system comprising:
【請求項14】 コンピュータを動作させる三次元画像
処理プログラムであって、 実物体に構造光を投影してこの実物体を撮影する第1の
ステップと、 この第1のステップで撮影した画像情報に基づいて前記
実物体の表面各部の法線方向を示すデータを取得する第
2のステップと、 この第2のステップで取得した法線方向を示すデータを
用いて前記実物体の表面属性を推定する第3のステップ
とを有することを特徴とする三次元画像処理プログラ
ム。
14. A three-dimensional image processing program for operating a computer, comprising: a first step of projecting structured light onto a real object to photograph the real object; and image information photographed in the first step. A second step of acquiring data indicating the normal direction of each surface portion of the real object based on the above, and estimating the surface attribute of the real object using the data indicating the normal direction acquired in the second step A three-dimensional image processing program comprising a third step.
【請求項15】 前記第2のステップにおいて、前記第
1のステップで撮影した画像情報から得られる前記実物
体の前記構造光による反射光パターンに基づいて法線方
向を示すデータを取得することを特徴とする請求項14
に記載の三次元画像処理プログラム。
15. In the second step, acquiring data indicating a normal direction based on a reflected light pattern of the structured light of the real object obtained from the image information captured in the first step. 15. The method according to claim 14,
The three-dimensional image processing program described in.
【請求項16】 前記構造光が、ライン状パターン、テ
クスチャパターンおよび濃淡パターンのうちいずれかを
有することを特徴とする請求項14に記載の三次元画像
処理プログラム。
16. The three-dimensional image processing program according to claim 14, wherein the structured light has any one of a line pattern, a texture pattern, and a grayscale pattern.
【請求項17】 前記第1のステップで撮影した画像情
報から得られる前記実物体の前記構造光による反射光パ
ターンに基づいて前記実物体の三次元形状データを生成
する第4のステップを有することを特徴とする請求項1
4に記載の三次元画像処理プログラム。
17. A fourth step of generating three-dimensional shape data of the real object based on a reflected light pattern of the real light of the real object, which is obtained from the image information photographed in the first step. Claim 1 characterized by the above-mentioned.
The three-dimensional image processing program according to item 4.
【請求項18】 前記第2のステップにおいて、前記実
物体の形状の測定結果に基づいて前記構造光のパターン
の種類、パターンの大きさおよび投影源の位置のうちい
ずれかを変更することを特徴とする請求項14に記載の
三次元画像処理プログラム。
18. In the second step, any one of the type of the structured light pattern, the size of the pattern, and the position of the projection source is changed based on the measurement result of the shape of the real object. The three-dimensional image processing program according to claim 14.
【請求項19】 前記第2のステップにおいて、操作者
が入力した前記実物体の表面形状を示すデータに応じ
て、前記構造光のパターンの種類、パターンの大きさお
よび前記実物体に対する前記構造光の投影位置のうちい
ずれかを変更することを特徴とする請求項14に記載の
三次元画像処理プログラム。
19. In the second step, the type of pattern of the structured light, the size of the pattern, and the structured light with respect to the real object are input according to data indicating a surface shape of the real object input by an operator. 15. The three-dimensional image processing program according to claim 14, wherein any one of the projection positions of is changed.
JP2002001243A 2002-01-08 2002-01-08 Method, device, system and program for three-dimensional image processing Pending JP2003202216A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002001243A JP2003202216A (en) 2002-01-08 2002-01-08 Method, device, system and program for three-dimensional image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002001243A JP2003202216A (en) 2002-01-08 2002-01-08 Method, device, system and program for three-dimensional image processing

Publications (1)

Publication Number Publication Date
JP2003202216A true JP2003202216A (en) 2003-07-18

Family

ID=27641419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002001243A Pending JP2003202216A (en) 2002-01-08 2002-01-08 Method, device, system and program for three-dimensional image processing

Country Status (1)

Country Link
JP (1) JP2003202216A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006275529A (en) * 2005-03-28 2006-10-12 Citizen Watch Co Ltd Three-dimensional shape measuring method and measuring device
JP2006292385A (en) * 2005-04-05 2006-10-26 Hiroshima Univ System and method for processing visual information
JP2008030119A (en) * 2006-06-26 2008-02-14 Orbotech Ltd Method and apparatus for microfabrication of material
JP2008216039A (en) * 2007-03-05 2008-09-18 Nikon Corp Shape measuring method and shape measuring device
JP2008232776A (en) * 2007-03-20 2008-10-02 Fujifilm Corp Three-dimensional shape measuring device and method, and program
JP2008545140A (en) * 2005-06-30 2008-12-11 エイエムオー・ウェーブフロント・サイエンシーズ・リミテッド・ライアビリティ・カンパニー System and method for measuring curvature of optical surfaces
JP2009236917A (en) * 2008-03-25 2009-10-15 Steinbichler Optotechnik Gmbh Method and apparatus for determining 3d coordinates of object
US7657055B2 (en) 2003-07-31 2010-02-02 Canon Kabushiki Kaisha Image processing method and image generating apparatus
JP2010256275A (en) * 2009-04-28 2010-11-11 Visco Technologies Corp Shape inspection apparatus and shape inspection program
JP2013037012A (en) * 2011-07-11 2013-02-21 Canon Inc Measurement device, information processing device, measurement method, information processing method and program
JP2013160507A (en) * 2012-02-01 2013-08-19 Nippon Steel & Sumitomo Metal Magnetic particle testing device and magnetic particle testing method
JP2015206654A (en) * 2014-04-18 2015-11-19 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2019095964A (en) * 2017-11-21 2019-06-20 富士ゼロックス株式会社 Surface characteristic acquisition device, surface characteristic acquisition system, and program
WO2019130716A1 (en) * 2017-12-27 2019-07-04 富士フイルム株式会社 Texture reproduction device, texture reproduction method, program, and recording medium
WO2019130726A1 (en) * 2017-12-27 2019-07-04 富士フイルム株式会社 Texture reproduction device, texture reproduction method, program, and recording medium
JP2021075759A (en) * 2019-11-08 2021-05-20 パンパシフィック・カッパー株式会社 Method and equipment for producing metallic material
JP2021148670A (en) * 2020-03-19 2021-09-27 株式会社リコー Measurement method, optical device, measurement device, moving body, robot, electronic instrument, and shape formation device
US11493331B2 (en) * 2019-08-06 2022-11-08 Keyence Corporation Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, three-dimensional shape measuring computer-readable storage medium, and three-dimensional shape measuring computer-readable storage device
CN117213401A (en) * 2023-11-09 2023-12-12 山东捷瑞信息技术产业研究院有限公司 Surface industry visual detection method and system based on structured light tangential scanning
CN117274344A (en) * 2023-11-22 2023-12-22 北京渲光科技有限公司 Model training method, texture synthesis and mapping method for texture of real material
JP7451611B2 (en) 2022-07-07 2024-03-18 キヤノン株式会社 Image processing device, image processing method, and program

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7657055B2 (en) 2003-07-31 2010-02-02 Canon Kabushiki Kaisha Image processing method and image generating apparatus
JP4611782B2 (en) * 2005-03-28 2011-01-12 シチズンホールディングス株式会社 Three-dimensional shape measuring method and measuring apparatus
JP2006275529A (en) * 2005-03-28 2006-10-12 Citizen Watch Co Ltd Three-dimensional shape measuring method and measuring device
JP2006292385A (en) * 2005-04-05 2006-10-26 Hiroshima Univ System and method for processing visual information
JP4709571B2 (en) * 2005-04-05 2011-06-22 国立大学法人広島大学 Visual information processing system and visual information processing method thereof
JP2008545140A (en) * 2005-06-30 2008-12-11 エイエムオー・ウェーブフロント・サイエンシーズ・リミテッド・ライアビリティ・カンパニー System and method for measuring curvature of optical surfaces
JP2008030119A (en) * 2006-06-26 2008-02-14 Orbotech Ltd Method and apparatus for microfabrication of material
KR101414867B1 (en) 2006-06-26 2014-07-03 오르보테크 엘티디. Alignment of printed circuit board targets
JP2008216039A (en) * 2007-03-05 2008-09-18 Nikon Corp Shape measuring method and shape measuring device
JP2008232776A (en) * 2007-03-20 2008-10-02 Fujifilm Corp Three-dimensional shape measuring device and method, and program
JP2009236917A (en) * 2008-03-25 2009-10-15 Steinbichler Optotechnik Gmbh Method and apparatus for determining 3d coordinates of object
JP2010256275A (en) * 2009-04-28 2010-11-11 Visco Technologies Corp Shape inspection apparatus and shape inspection program
JP2013037012A (en) * 2011-07-11 2013-02-21 Canon Inc Measurement device, information processing device, measurement method, information processing method and program
JP2013160507A (en) * 2012-02-01 2013-08-19 Nippon Steel & Sumitomo Metal Magnetic particle testing device and magnetic particle testing method
JP2015206654A (en) * 2014-04-18 2015-11-19 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP7020074B2 (en) 2017-11-21 2022-02-16 富士フイルムビジネスイノベーション株式会社 Surface property acquisition device, surface property acquisition system and program
JP2019095964A (en) * 2017-11-21 2019-06-20 富士ゼロックス株式会社 Surface characteristic acquisition device, surface characteristic acquisition system, and program
WO2019130716A1 (en) * 2017-12-27 2019-07-04 富士フイルム株式会社 Texture reproduction device, texture reproduction method, program, and recording medium
WO2019130726A1 (en) * 2017-12-27 2019-07-04 富士フイルム株式会社 Texture reproduction device, texture reproduction method, program, and recording medium
JPWO2019130726A1 (en) * 2017-12-27 2020-10-22 富士フイルム株式会社 Texture reproduction device, texture reproduction method, program and recording medium
JPWO2019130716A1 (en) * 2017-12-27 2020-10-22 富士フイルム株式会社 Texture reproduction device, texture reproduction method, program and recording medium
US11493331B2 (en) * 2019-08-06 2022-11-08 Keyence Corporation Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, three-dimensional shape measuring computer-readable storage medium, and three-dimensional shape measuring computer-readable storage device
JP7189554B2 (en) 2019-11-08 2022-12-14 パンパシフィック・カッパー株式会社 Method and equipment for manufacturing metallic materials
JP2021075759A (en) * 2019-11-08 2021-05-20 パンパシフィック・カッパー株式会社 Method and equipment for producing metallic material
JP2021148670A (en) * 2020-03-19 2021-09-27 株式会社リコー Measurement method, optical device, measurement device, moving body, robot, electronic instrument, and shape formation device
JP7451611B2 (en) 2022-07-07 2024-03-18 キヤノン株式会社 Image processing device, image processing method, and program
CN117213401A (en) * 2023-11-09 2023-12-12 山东捷瑞信息技术产业研究院有限公司 Surface industry visual detection method and system based on structured light tangential scanning
CN117213401B (en) * 2023-11-09 2024-02-13 山东捷瑞信息技术产业研究院有限公司 Surface industry visual detection method and system based on structured light tangential scanning
CN117274344A (en) * 2023-11-22 2023-12-22 北京渲光科技有限公司 Model training method, texture synthesis and mapping method for texture of real material
CN117274344B (en) * 2023-11-22 2024-02-06 北京渲光科技有限公司 Model training method, texture synthesis and mapping method for texture of real material

Similar Documents

Publication Publication Date Title
JP2003202216A (en) Method, device, system and program for three-dimensional image processing
JP3962588B2 (en) 3D image processing method, 3D image processing apparatus, 3D image processing system, and 3D image processing program
US6930685B1 (en) Image processing method and apparatus
EP2986936B1 (en) Super-resolving depth map by moving pattern projector
KR102287472B1 (en) Acquisition Method for 3D Objects Using Unstructured Flash Photography and Apparatus Therefor
US20130335535A1 (en) Digital 3d camera using periodic illumination
US20030202120A1 (en) Virtual lighting system
JP2004046772A (en) Method, system and apparatus for processing image
US20150015699A1 (en) Apparatus, system and method for projecting images onto predefined portions of objects
CN114830030A (en) System and method for capturing and generating panoramic three-dimensional images
JP2022009902A (en) Depth sensing systems and methods
JP2003208601A (en) Three dimensional object photographing device, three dimensional shape model generation device, three dimensional shape model generation method, and three dimensional shape model generation program
WO2014145427A1 (en) Systems and methods for 3d photorealistic automated modeling
JP4742190B2 (en) 3D object measuring device
JP5059503B2 (en) Image composition apparatus, image composition method, and image composition program
JP3925266B2 (en) Three-dimensional shape input device and displacement detection method
JP2003216970A (en) Device, system, method and program for three-dimensional image processing
JP2024114712A (en) Imaging apparatus, imaging method, and program
JP7414090B2 (en) Imaging device and method of controlling the imaging device
JP2003090715A5 (en)
JP2001118074A (en) Method and device for producing three-dimensional image and program recording medium
JP2009244229A (en) Three-dimensional image processing method, three-dimensional image processing device, and three-dimensional image processing program
JP2011134133A (en) Image processing apparatus, image processing method and program
JP2005092549A (en) Three-dimensional image processing method and device
WO2024154528A1 (en) Three-dimensional measurement device