JP2006010416A - Device and method for measuring three-dimensional shape - Google Patents
Device and method for measuring three-dimensional shape Download PDFInfo
- Publication number
- JP2006010416A JP2006010416A JP2004185657A JP2004185657A JP2006010416A JP 2006010416 A JP2006010416 A JP 2006010416A JP 2004185657 A JP2004185657 A JP 2004185657A JP 2004185657 A JP2004185657 A JP 2004185657A JP 2006010416 A JP2006010416 A JP 2006010416A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- pattern
- stripe
- camera
- stripes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、パターン投影法を用いて対象物体までの距離情報を取得する3次元形状測定技術に関する。 The present invention relates to a three-dimensional shape measurement technique for acquiring distance information to a target object using a pattern projection method.
対象物の形状を計測する手法として、対象物に基準となるパターンを投影してこの基準となるパターン光が投影された方向とは異なる方向からCCDカメラなどで撮影を行うパターン投影法と呼ばれる手法がある。この手法では、撮影されたパターンは物体の形状によって変形を受けたものとなる。この撮影された変形パターンと投影したパターンとの対応づけを行うことで、物体の3次元計測を行うことができる。パターン投影法では変形パターンと投影したパターンとの対応づけをいかに誤対応を少なく、かつ簡便に行うかが課題となっている。そこで様々なパターン投影法が従来提案されている。 As a method for measuring the shape of an object, a method called a pattern projection method is used in which a reference pattern is projected onto an object, and photographing is performed with a CCD camera or the like from a direction different from the direction in which the reference pattern light is projected. There is. In this method, the photographed pattern is deformed depending on the shape of the object. By associating the photographed deformation pattern with the projected pattern, three-dimensional measurement of the object can be performed. The problem with the pattern projection method is how to make the correspondence between the deformed pattern and the projected pattern simple and easy to avoid. Various pattern projection methods have been proposed in the past.
例えば特許文献1(特開2000−65542号公報)に開示される手法においては、コード化されたパターンを投影する投光器と、投光器の光軸方向から投影パターンを撮影する第1のカメラと、投光器の光軸方向と異なる方向から投影パターンを撮影する第2のカメラとを準備し、投影パターンに対する第1のカメラによる撮影パターンの変化量が所定値以上の領域について新たなコードを割り付け、割り付けたコードを用いて第2のカメラによる撮影パターンから第1の距離情報を生成し、第1の距離情報および第1のカメラより得られた輝度情報に基づいて3次元画像を得るように3次元画像撮影装置を構成する。一例として強度が3レベルのストライプパターンを投影パターンとして用いている。投影パターンを同じ光軸に置いた第1のカメラで撮影したパターンを用いて再コード化することにより精度よく3次元計測を行うことができる。 For example, in the technique disclosed in Patent Document 1 (Japanese Patent Laid-Open No. 2000-65542), a projector that projects a coded pattern, a first camera that captures a projection pattern from the optical axis direction of the projector, and a projector And a second camera for photographing a projection pattern from a direction different from the optical axis direction of the first, and a new code is assigned and assigned to an area where the amount of change in the photographing pattern by the first camera relative to the projection pattern is a predetermined value or more. The first distance information is generated from the photographing pattern by the second camera using the code, and the three-dimensional image is obtained based on the first distance information and the luminance information obtained from the first camera. A photographing apparatus is configured. As an example, a stripe pattern having three levels of intensity is used as the projection pattern. By re-encoding the projection pattern using the pattern photographed by the first camera placed on the same optical axis, three-dimensional measurement can be performed with high accuracy.
また特許文献2(特開2002−131031号公報)ではストライプ光の露光量を決める複数のマスクパターンを用意し、カメラの1フレーム露光時間中にマスクパターンを順次切り換えることにより複数階調のコード化パターンを投射している。
しかしながら上記のような複数レベルのパターンを投影する場合、前者の例の3レベルのパターンでは6本のストライプが1セットとなり、後者の例では4マスクで16本のストライプが1セットとなり、これの繰り返しパターンを投影することになる。このように繰り返しの周期が小さいと、コードの探索処理の際誤ってマッチングする確率が増大するという問題が生じる。この問題を回避するために前者の例では、レベル数を増やせばよく、後者の例ではカメラの1フレーム内でマスクの種類を増やすことになる。 However, when projecting a multi-level pattern as described above, the three-level pattern in the former example is a set of 6 stripes, and the latter example is a set of 16 stripes with 4 masks. A repeated pattern will be projected. Thus, when the repetition period is small, there is a problem that the probability of erroneous matching during code search processing increases. In order to avoid this problem, in the former example, the number of levels may be increased, and in the latter example, the types of masks are increased within one frame of the camera.
しかしこのようにパターンのレベル数を増やしていくと、投影系および撮像系のMTFやCCDカメラのS/Nなどの信号劣化要因から隣接するパターン領域が相互に影響しあい、誤った値を検出する可能性が高くなるという新たな問題が発生する。また表面色が暗い物体を測定する場合には、反射率が小さくなるのでカメラに取り込む画像上ではパターンのダイナミックレンジが小さくなり、ストライプごとの階調段差が縮小してコード処理で誤った値を算出するなどの問題もある。 However, when the number of pattern levels is increased in this way, adjacent pattern areas influence each other due to signal degradation factors such as the MTF of the projection system and the imaging system and the S / N of the CCD camera, and erroneous values are detected. A new problem arises that is more likely. Also, when measuring an object with a dark surface color, the reflectance will be small, so the dynamic range of the pattern will be small on the image captured by the camera, the gradation level difference for each stripe will be reduced, and the wrong value will be displayed in the code processing. There are also problems such as calculating.
さらに、これらの形状計測方式において獲得される形状データ点は、投影されるパターンによってマーキングされる箇所に限定され、実際上はストライプ間のエッジ位置に対応した点のみとなる。これら形状計測可能な点の密度をより高くする要求も一方ではあり、パターンの細密化が求められることになる。パターンを細密にしつつ前記の繰り返し周期を確保するためには、階調レベル数を増やす必要があり、これは上記のストライプ毎の階調段差縮小の誤差問題と関連した別の誤差問題を発生させることにつながり、これらの要求がトレードオフ関係になっていて、同時に満たすことが出来ないという課題がある。 Furthermore, the shape data points acquired in these shape measurement methods are limited to the locations marked by the projected pattern, and are actually only points corresponding to the edge positions between stripes. On the other hand, there is a demand to increase the density of the points capable of measuring the shape, and the pattern must be made finer. In order to ensure the repetition cycle while making the pattern fine, it is necessary to increase the number of gradation levels, which causes another error problem related to the above-mentioned error problem of gradation step reduction for each stripe. There is a problem that these requirements are in a trade-off relationship and cannot be satisfied at the same time.
本発明はこのような課題に鑑みなされたもので、複数レベルの投影パターンを用いた3次元形状測定手法において、正確で稠密なパターン検出を可能にすることを目的とする。 The present invention has been made in view of such a problem, and an object of the present invention is to enable accurate and dense pattern detection in a three-dimensional shape measurement technique using a plurality of levels of projection patterns.
上記課題を解決するため、所定の輝度範囲、例えば、全白から全黒までを等間隔に区切った複数レベルの輝度(色相でもよい。以下同様である)でコード化されたストライプパターンを被写体に投影する投光器と、この投光器の光軸からずれて配置されて前記被写体を撮影するカメラとを用いて前記被写体の3次元画像を得る3次元形状測定装置において、隣接する2つのストライプの輝度レベル差がN(Nは1より大きな正数。例えばN=2)レベル以上となる複数の異なるストライプパターンを使用する。当該複数のストライプパターンは、例えば、当該複数レベルのストライプからなる基礎となるストライプパターンから順番にストライプを取りだして構成することができるが、これに限定されない。例えば、2つのストライプパターンを用いる場合には、基礎となるストライプパターンの奇数番目のストライプから一方のストライプパターンを構成し、偶数番目のストライプから他方のストライプパターンを構成する。基礎となるストライプパターンからストライプを順次にストライプを取りだして分割した複数のストライプパターンの各々は、その繰り返し周期中では、2つの隣接ストライプの並び(順列)が同一にならないようにする。また、上述のように基礎となるストライプパターンから複数のストライプパターンを分割する場合には、分割後のストライプパターンの隣接ストライプのレベル差がN(Nは1より大きな正数)以上になるように基礎となるストライプパターンを選択する。 In order to solve the above problems, a stripe pattern encoded with a predetermined luminance range, for example, a plurality of levels of luminance (which may be hues; the same applies hereinafter) divided at equal intervals from all white to all black is applied to the subject. In a three-dimensional shape measuring apparatus that obtains a three-dimensional image of a subject using a projector that projects and a camera that is arranged so as to deviate from the optical axis of the projector and that captures the subject, a difference in luminance level between two adjacent stripes A plurality of different stripe patterns having N or more (N is a positive number greater than 1, eg, N = 2) level or more are used. For example, the plurality of stripe patterns can be configured by taking out stripes in order from the basic stripe pattern composed of the stripes of the plurality of levels. However, the present invention is not limited to this. For example, when two stripe patterns are used, one stripe pattern is formed from the odd-numbered stripes of the basic stripe pattern, and the other stripe pattern is formed from the even-numbered stripes. Each of the plurality of stripe patterns obtained by sequentially removing the stripes from the basic stripe pattern and dividing the stripes prevents the arrangement (permutation) of two adjacent stripes from becoming the same during the repetition cycle. Further, when dividing a plurality of stripe patterns from the basic stripe pattern as described above, the level difference between adjacent stripes of the stripe pattern after division is N (N is a positive number greater than 1) or more. Select the underlying stripe pattern.
複数のストライプパターンの各々に対応する撮像画像に対して、ストライプ間のエッジに対応したエッジ抽出およびコード付与の処理を行ってコード化エッジ画像群を獲得した後に、複数のストライプパターンに対応したコード化エッジ画像群を重畳したのちに距離算出処理を行う。ストライプパターンの投影および撮像はストライプパターンごとに行なうので複数回であるが、距離算出処理は1回である。各ストライプパターンに対応する各コード化エッジ画像ごとに距離算出処理を行なって算出結果を統合しても良い。 A code corresponding to a plurality of stripe patterns is obtained after acquiring a coded edge image group by performing edge extraction and code addition processing corresponding to an edge between stripes on a captured image corresponding to each of the plurality of stripe patterns. The distance calculation process is performed after superimposing the grouped edge image group. Since the projection and imaging of the stripe pattern are performed for each stripe pattern, the distance calculation process is performed once. A distance calculation process may be performed for each coded edge image corresponding to each stripe pattern to integrate the calculation results.
この3次元形状測定装置において、色分布が一様な被写体に投影されたストライプパターン群が、前記カメラによる色分布が一様な被写体の撮影画像上で全白から全黒までを等間隔に区切った複数レベルの輝度となるように、前記投光器および前記カメラのガンマ特性を鑑みた入力データとすることが好ましい。 In this three-dimensional shape measuring apparatus, a group of stripe patterns projected onto a subject having a uniform color distribution divides all white to all black at equal intervals on a photographed image of the subject having a uniform color distribution by the camera. It is preferable that the input data is in consideration of the gamma characteristics of the projector and the camera so that the luminance is at a plurality of levels.
さらに本発明を説明する。 Further, the present invention will be described.
本発明によれば、所定の輝度範囲で予め設定された複数レベルの輝度でコード化されたストライプパターンを被写体に投影する投光器と、この投光器の光軸からずれて配置され前記被写体を撮影するカメラと、前記ストライプパターンと前記カメラの投影画像とを対応づけて前記被写体までの距離を算出する算出部とを具備して前記被写体の3次元画像を得る3次元形状測定装置において、隣接する2つのストライプの輝度レベル差がN(2以上の正数)レベル以上となるようにストライプを配列したストライプパターンであって相互にストライプ間のエッジ位置がずれており、パターン周期中に含まれる隣接する2つのストライプの輝度レベルの並びの種類(順列)が相互の間で重複しないものを複数用意し、それぞれのストライプパターンを前記被写体に別々に投影して前記被写体を撮影し、前記ストライプパターンのそれぞれで取得したエッジ画像を別々にコード化した後に統合処理するようにしている。 According to the present invention, a projector that projects a stripe pattern encoded with a plurality of levels of brightness set in advance within a predetermined luminance range onto a subject, and a camera that is arranged offset from the optical axis of the projector and shoots the subject A three-dimensional shape measuring apparatus for obtaining a three-dimensional image of the subject, comprising a calculating unit that calculates the distance to the subject by associating the stripe pattern with the projection image of the camera. A stripe pattern in which stripes are arranged so that the brightness level difference between the stripes is N (a positive number of 2 or more) level or more, and the edge positions between the stripes are shifted from each other, and the adjacent 2 included in the pattern period. Prepare multiple stripe patterns with different brightness levels (permutations) that do not overlap each other. The subject separately projected by photographing the subject, so that integration process after separately coded edge images obtained in each of the stripe pattern.
この構成においては、複数の異なるストライプパターンを採用し、そのエッジ位置をすらずことにより、エッジ密度が大きくなり、また、隣接ストライプのレベル差を2以上にすることが容易となる。したがって、正確で稠密なパターン検出が可能になる。 In this configuration, by adopting a plurality of different stripe patterns and omitting the edge positions, the edge density is increased, and the level difference between adjacent stripes can be easily set to 2 or more. Therefore, accurate and dense pattern detection is possible.
また、この構成において、前記複数の輝度レベルは前記投影器および前記カメラの階調再現特性を鑑みてレベル設定されることが好ましい。 In this configuration, it is preferable that the plurality of luminance levels are set in consideration of gradation reproduction characteristics of the projector and the camera.
前記所定の輝度範囲は、例えば、全白から全黒までの範囲である。 The predetermined luminance range is, for example, a range from all white to all black.
前記複数の輝度レベルは前記所定の輝度範囲において実質的に等間隔に配置されることが好ましい。 The plurality of luminance levels are preferably arranged at substantially equal intervals in the predetermined luminance range.
前記投光器と実質的に光軸が同一の第2のカメラを配置し、前記第2のカメラのカメラ画像の輝度分布に応じて前記ストライプパターンのストライプ中の輝度レベルの分布を再調整することが好ましい。第2のカメラは、ブームスプリッタを用いて前記投光器と光軸が同一となるように配置しても良いし、前記投光器と第2のカメラとを相対的にわずかにずらして配置し、実質的に両者の光軸が同一になるようにしても良い。 A second camera having substantially the same optical axis as the projector is arranged, and the brightness level distribution in the stripe of the stripe pattern is readjusted according to the brightness distribution of the camera image of the second camera. preferable. The second camera may be arranged such that the optical axis is the same as that of the projector using a boom splitter, or the projector and the second camera are arranged relatively slightly shifted from each other. Alternatively, both optical axes may be the same.
本発明の上述の側面および他の側面は特許請求の範囲に記載され以下実施例を用いて詳述される。 The above and other aspects of the invention are set forth in the appended claims and are described in detail below using examples.
本発明によれば、輝度レベル差を大きくとった、エッジ位置がずれている複数のストライプパターンを用いることにより、コード探索エラーの確率を小さくするとともに、高い距離計測点群密度を実現することができる。 According to the present invention, it is possible to reduce the probability of a code search error and realize a high distance measurement point cloud density by using a plurality of stripe patterns with a large luminance level difference and shifted edge positions. it can.
以下、本発明に係る3次元形状測定装置の実施例を説明する。 Embodiments of the three-dimensional shape measuring apparatus according to the present invention will be described below.
図1は、本発明の実施例の3次元画像測定装置の構成図であり、図1において、3次元画像測定装置は、3次元計測用にパターンを投影するパターン投影装置(たとえば液晶プロジェクタ)10、同光軸でパターンをモニタする撮像装置(たとえばCCDカメラ。第1カメラとも呼ぶ)20、三角測量用撮像装置(たとえばCCDカメラ。第2カメラとも呼ぶ)30、計算処理装置60(距離算出部。例えばパーソナルコンピュータや専用の処理装置)等で構成される。40はハーフミラーであり、50は対象物である。この3次元測定装置の基本的な構成は、特許文献1(特開2000−65542号公報)に開示される構成と同様である。パターン投影装置10は、液晶プロジェクタもしくはDLP(商標)プロジェクタ、またはスライドプロジェクタを用いる。パターン投影装置10は、複数のストライプパターンを採用して順次にストライプパターンを投影し、撮像装置20、30で撮像していく。この実施例では、後述するようにストライプパターンは2つ用いるが(図19、図20のストライプパターンの具体例参照)、これに限定されず、3つ以上としても良い。パターン投影装置10、たとえば液晶プロジェクタへ入力する投影パターンは、模式的には、図2に示すような濃淡のあるストライプパターンを用い、例えば、図2の右側に図示されている対象物(物体)にパターン投影する。実際には図19および図20に示す2つのストライプパターンを個別に投影する。スライドプロジェクタを用いる場合、投影パターン(2種類)はスライドフィルム上へ形成するか、ガラスパターンに金属膜などを蒸着し膜厚や網膜点パターンなどによって透過率をコントロールする。 FIG. 1 is a block diagram of a three-dimensional image measuring apparatus according to an embodiment of the present invention. In FIG. 1, the three-dimensional image measuring apparatus projects a pattern for three-dimensional measurement (for example, a liquid crystal projector) 10. , An imaging device (for example, a CCD camera, also called a first camera) 20, a triangulation imaging device (for example, a CCD camera, also called a second camera) 30, a calculation processing device 60 (a distance calculation unit) For example, a personal computer or a dedicated processing device). Reference numeral 40 denotes a half mirror, and reference numeral 50 denotes an object. The basic configuration of this three-dimensional measuring apparatus is the same as the configuration disclosed in Patent Document 1 (Japanese Patent Laid-Open No. 2000-65542). The pattern projection apparatus 10 uses a liquid crystal projector, a DLP (trademark) projector, or a slide projector. The pattern projection apparatus 10 employs a plurality of stripe patterns, sequentially projects the stripe patterns, and images are taken by the imaging devices 20 and 30. In this embodiment, two stripe patterns are used as will be described later (see the specific examples of stripe patterns in FIGS. 19 and 20), but the present invention is not limited to this, and three or more stripe patterns may be used. The projection pattern input to the pattern projection apparatus 10, for example, a liquid crystal projector, typically uses a stripe pattern with shading as shown in FIG. 2, for example, an object (object) shown on the right side of FIG. Project a pattern. Actually, the two stripe patterns shown in FIGS. 19 and 20 are individually projected. When a slide projector is used, projection patterns (two types) are formed on a slide film, or a metal film or the like is deposited on a glass pattern, and the transmittance is controlled by the film thickness, the retinal point pattern, or the like.
図3に、たとえば液晶プロジェクタへ入力するパターンデータの水平方向の輝度プロファイルを模式的に示す。図3では、説明の便宜上、投影パターン(パターンデータ)は256階調を6段階に分けた7種類の輝度ストライプの組み合わせたものとするが、これに限定されない。後述の具体的なストライプパターンでは、14種類の輝度ストライプを組み合わせたものとしている(図19、図20参照)。図3のストライプパターンでは、隣り合うストライプ同士が1段階のレベル差にならないように配置している。これは隣り合うストライプ同士のレベル差に限っては256階調を3段階(0、85、170、255の4レベル)に分けたことと同等である。通常の4レベルのストライプを繰り返して1セットとする場合では、隣り合うストライプの各組み合わせが1セット中に重複して現れないようするには1セットを12ストライプとするのが限界であり、このセットを繰り返して、多数のストライプを含むストライプパターンを構成していくことになる。隣り合うストライプの同じ組み合わせが、近くで重複して存在すると、コード探索のエラーの原因となる。これに対し、本実施例のように、7レベルのストライプを用い、しかも、隣り合うストライプ同士が1段階のレベル差にならないように配置すると、1セット中で、隣り合うストライプの同じ組み合わせが出現しないようにするのに、1セットのストライプ数を28程度にすることができ、少なくとも28ストライプの範囲では同一の隣り合うストライプの組み合わせが重複することはなく、コード探索エラーの確率も減少する。 FIG. 3 schematically shows a luminance profile in the horizontal direction of pattern data input to a liquid crystal projector, for example. In FIG. 3, for convenience of explanation, the projection pattern (pattern data) is a combination of seven types of luminance stripes in which 256 gradations are divided into six stages, but the present invention is not limited to this. In a specific stripe pattern to be described later, 14 types of luminance stripes are combined (see FIGS. 19 and 20). In the stripe pattern of FIG. 3, the adjacent stripes are arranged so as not to have a one-level level difference. This is equivalent to dividing 256 gradations into three levels (four levels of 0, 85, 170, and 255) as far as the level difference between adjacent stripes is concerned. In the case of repeating a normal four-level stripe into one set, the limit is to set one set to 12 stripes so that each combination of adjacent stripes does not appear in one set. Repeatedly, a stripe pattern including a large number of stripes is formed. If the same combination of adjacent stripes overlaps in the vicinity, it causes a code search error. On the other hand, when 7 levels of stripes are used and the adjacent stripes are arranged so as not to have a one-level level difference as in this embodiment, the same combination of adjacent stripes appears in one set. In order to avoid this, the number of stripes in one set can be about 28. In the range of at least 28 stripes, combinations of the same adjacent stripes do not overlap, and the probability of code search errors also decreases.
図4にパターン投影の模様を示す。パターン投影は2つのストライプパターンごとに行なう。撮像装置(第1カメラ20)と投影装置(パターン投影装置10)をハーフミラー40などで同光軸に配置し、三角計測用に撮像装置を用意し、図2に示すようなストライプパターンを投影する。同光軸の撮像素子(第1カメラ20)で観測された画像(第1カメラ・イメージ)から再符号化を実施し、測定用撮像素子(第2カメラ30)で観測された画像(第2カメラ・イメージ)とで3次元距離画像(距離)を算出する。 FIG. 4 shows a pattern projection pattern. Pattern projection is performed every two stripe patterns. An imaging device (first camera 20) and a projection device (pattern projection device 10) are arranged on the same optical axis by a half mirror 40 or the like, an imaging device is prepared for triangulation measurement, and a stripe pattern as shown in FIG. 2 is projected. To do. Re-encoding is performed from an image (first camera image) observed by the image sensor (first camera 20) of the same optical axis, and an image (second image) observed by the measurement image sensor (second camera 30). A three-dimensional distance image (distance) is calculated using the camera image.
図5は、距離画像を算出する構成例を示しており、この図において図1と対応する箇所には対応する符号を付した。パターン投影装置10、第1カメラ20、第2カメラ30以外の構成要素は例えば先の計算処理装置60により実現される。図5において、パターン投影装置10が2つのコード化されたストライプパターンを対象物50に投影する。これら2つのストライプパターンはフレームメモリ110に記憶される。パターン切替部190によりストライプパターンが切り替えられる。モニタ用の第1カメラ20および三角測量用の第2カメラ30により、対象物50上の投影パターンを撮像しそれぞれパターン画像メモリ120、150に記憶する。 FIG. 5 shows a configuration example for calculating the distance image. In this figure, portions corresponding to those in FIG. Components other than the pattern projection device 10, the first camera 20, and the second camera 30 are realized by the previous calculation processing device 60, for example. In FIG. 5, the pattern projection apparatus 10 projects two coded stripe patterns onto the object 50. These two stripe patterns are stored in the frame memory 110. The pattern switching unit 190 switches the stripe pattern. A projection pattern on the object 50 is imaged by the first camera 20 for monitoring and the second camera 30 for triangulation, and stored in the pattern image memories 120 and 150, respectively.
領域分割部130はパターン画像メモリ120のパターン画像を、パターン投影装置10からの投影パターン(光)が十分に届いている領域(領域2ともいう)と届いていない領域(領域1ともいう)に分割する。たとえば、隣り合うストライプ間の強度差が閾値以下である領域については、投影パターンが十分に届いてないと判別し、ストライプ間の強度差が閾値以上である領域を投影パターンが十分に届いている領域と判別する。投影パターンが十分に届いている領域に関し、以下に述べるように、境界線となるエッジ画素算出を行い、距離計算を行う。投影パターンが十分に届いてない領域については、別途、視差に基づく距離計算を行う。ここではとくに説明しないが、詳細は特許文献1を参照されたい。 The area dividing unit 130 divides the pattern image stored in the pattern image memory 120 into an area where the projection pattern (light) from the pattern projection apparatus 10 has sufficiently arrived (also referred to as area 2) and an area where it has not reached (also referred to as area 1). To divide. For example, for an area where the intensity difference between adjacent stripes is less than or equal to the threshold, it is determined that the projection pattern has not reached sufficiently, and the projection pattern has sufficiently reached an area where the intensity difference between stripes is greater than or equal to the threshold. Determined as an area. As described below, an edge pixel serving as a boundary line is calculated and a distance calculation is performed on an area where the projection pattern has sufficiently reached. For areas where the projection pattern does not reach sufficiently, distance calculation based on parallax is performed separately. Although not specifically described here, refer to Patent Document 1 for details.
再コード化部160は、抽出された領域2についてストライプを抽出し、各ストライプをストライプ幅毎に縦方向に分割し、正方形のセルを生成し、セルの再コード化を行う。これについては後に詳述する。 The recoding unit 160 extracts stripes for the extracted region 2, divides each stripe in the vertical direction for each stripe width, generates a square cell, and recodes the cell. This will be described in detail later.
コード復号部170は、パターン画像メモリ150に記憶されている、三角測量用の第2カメラ30からのパターン画像の各セル(エッジ)のコードを再コード化部160からのコードを用いて判別する。これにより、パターン画像メモリ150のパターン画像における測定点p(エッジ)の画素のx座標および光源からの照射方向(スリット角)θが決定され、後述する式(1)により距離Zが測定される(図14参照)。3次元画像メモリ180は、この距離と、第1カメラ20から取得した対象物の輝度値(輝度値メモリ140に記憶される)とを三次元画像データとして記憶する。 The code decoding unit 170 determines the code of each cell (edge) of the pattern image from the second camera 30 for triangulation stored in the pattern image memory 150 using the code from the recoding unit 160. . Thereby, the x coordinate of the pixel at the measurement point p (edge) in the pattern image of the pattern image memory 150 and the irradiation direction (slit angle) θ from the light source are determined, and the distance Z is measured by the equation (1) described later. (See FIG. 14). The three-dimensional image memory 180 stores the distance and the luminance value of the object acquired from the first camera 20 (stored in the luminance value memory 140) as three-dimensional image data.
この実施例では、2つのストライプパターンを連続して投射し、それぞれのストライプパターンの投影像を撮像して2つの撮像画像を得る。それぞれの撮像画像にエッジ抽出処理とコード付与処理を行い、2組のコード化エッジ画像を獲得する。得られた2組のコード化エッジ画像を重畳して、エッジ密度が高く、コード分布の良好なひとつの統合コード化エッジ画像を獲得する。求められた統合コード化エッジ画像に対して距離計測の計算を実施することで、複数のコード化エッジ画像に対して各々に距離算出を行う場合に比べて、距離算出時のアルゴリズムに起因するエラーの発生をより少なくすることが出来る。コード化エッジ画像ごとに個別のメモリを用意しても良いし、1つのメモリで処理するようにしても良い。なお、個々のコード化エッジ画像から個別に距離計算を行い、ストライプパターンごとに得た距離情報を統合して総合的な距離情報としてもよい。 In this embodiment, two stripe patterns are projected in succession, and a projected image of each stripe pattern is captured to obtain two captured images. Edge extraction processing and code addition processing are performed on each captured image to obtain two sets of coded edge images. The obtained two sets of coded edge images are superimposed to obtain one integrated coded edge image having a high edge density and a good code distribution. Compared to the case where distance calculation is performed for each of multiple coded edge images by performing distance measurement calculation on the obtained integrated coded edge image, an error caused by the algorithm at the time of distance calculation Can be further reduced. A separate memory may be prepared for each coded edge image, or processing may be performed with one memory. Note that distance calculation may be performed separately from each coded edge image, and distance information obtained for each stripe pattern may be integrated to obtain comprehensive distance information.
この例ではコード化エッジ画像が2つできるので、例えばパターン画像メモリ120を2つ用意し、それぞれの画像を統合し、この後、統合処理したコード化エッジ画像をその一方または別に用意したメモリに保持するようにしてもよいし、1つのパターン画像メモリ120を各ストライプパターン投影毎に利用し、これに統合したコード化エッジ画像を保持するようにしても良い。パターン画像メモリ150についても同様である。 In this example, since two coded edge images can be created, for example, two pattern image memories 120 are prepared, and the respective images are integrated, and then the integrated coded edge image is stored in one or another prepared memory. Alternatively, one pattern image memory 120 may be used for each stripe pattern projection, and a coded edge image integrated therein may be held. The same applies to the pattern image memory 150.
この構成例における3次元形状の算出の詳細についてさらに説明する。 Details of the calculation of the three-dimensional shape in this configuration example will be further described.
同光軸のモニタ用の第1カメラ20によって撮影されたパターン画像と投光に用いられたパターン画像を用いて図7に示すフローチャートに従って再コード化を行う。最初に第1カメラ20で撮影されたパターン画像の領域分割を行う。隣り合うストライプ間の強度差が閾値以下である領域については、パターン投影装置10からの投影パターンが届いてない領域1として抽出し、ストライプ間の強度差が閾値以上である領域を領域2として抽出し(S10)、領域2について境界線となるエッジ画素算出を行う。 Re-encoding is performed according to the flowchart shown in FIG. 7 using the pattern image photographed by the first camera 20 for monitoring on the same optical axis and the pattern image used for light projection. First, the region of the pattern image photographed by the first camera 20 is divided. A region where the intensity difference between adjacent stripes is less than or equal to the threshold is extracted as region 1 where the projection pattern from the pattern projection apparatus 10 has not reached, and a region where the intensity difference between stripes is greater than or equal to the threshold is extracted as region 2. (S10), the edge pixel that becomes the boundary line for the region 2 is calculated.
抽出された領域2についてストライプを抽出し、各ストライプをストライプ幅毎に縦方向に分割し、正方形のセルを生成する。生成された各セルについて強度の平均値をとり、平均値を各セルの強度とする(S11)。画像の中心から順に対応する各セル間の強度を比較し、対象物の反射率、対象物までの距離などの要因によってパターンが変化したためにセル間の強度が閾値以上異なった場合には新たなコードの生成、割り付けを行う(S12〜S16)。 Stripes are extracted from the extracted region 2, and each stripe is divided in the vertical direction for each stripe width to generate a square cell. The average value of the intensity is taken for each generated cell, and the average value is set as the intensity of each cell (S11). Compare the intensities between the corresponding cells in order from the center of the image, and if the inter-cell intensity differs by more than a threshold because the pattern has changed due to factors such as the reflectance of the object, the distance to the object, etc. Code generation and allocation are performed (S12 to S16).
図8は簡単のため単純化した例であるが、図8の左側のストライプ列がストライプの並びによってコード化された投光パターンであり、それぞれの強度に3(強)、2(中)、1(弱)が割り当てられている。図8の右側がそれぞれ同軸上の第1カメラ20で撮影されたストライプをセルの幅でストライプと垂直方向に抽出したものである。図8の右上の例では、左から3つめのセルで強度が変化して新たなコードが出現したので、新たに0というコードを割り当てる。図8の右下の例では、左から3つめ上から2つめのセルで、既存のコードが出現しているので、セルの並びから新たなコードとして(232、131)という具合に(縦の並び、横の並び)によってコードを表現する。この再コード化は、対象の形状が変化に富む部位には2次元パターンなどの複雑なパターンを投光し、変化の少ない部位には簡単なパターンを投光しているのに等しい。この過程を繰り返し、全てのセルに対して一意なコードを割り付けることで再コード化を行う。 FIG. 8 is a simplified example for simplicity, but the left side of FIG. 8 is a light projection pattern coded by the arrangement of stripes. The intensity is 3 (strong), 2 (medium), 1 (weak) is assigned. The right side of FIG. 8 is obtained by extracting the stripes photographed by the first coaxial camera 20 in the direction perpendicular to the stripes by the cell width. In the example on the upper right in FIG. 8, since the strength changes in the third cell from the left and a new code appears, a new code of 0 is assigned. In the lower right example of FIG. 8, since the existing code appears in the third cell from the left and the second cell from the top, as a new code (232, 131) from the cell sequence (vertical) The code is expressed by (line, horizontal line). This re-encoding is equivalent to projecting a complex pattern such as a two-dimensional pattern at a site where the shape of the object is rich in change, and projecting a simple pattern at a site where there is little change. This process is repeated and recoding is performed by assigning unique codes to all cells.
例として、図9の対象物に、図10のパターンを投光した場合に第1カメラ20、第2カメラ30で得られる画像を簡単化したものをそれぞれ図11、図12に示す。この例では、板の表面には新たなコード化されたパターンとして図13が得られる。 As an example, FIGS. 11 and 12 show simplified images obtained by the first camera 20 and the second camera 30 when the pattern of FIG. 10 is projected onto the object of FIG. In this example, FIG. 13 is obtained as a new coded pattern on the surface of the plate.
次に第2カメラ30で得られたストライプ画像からストライプを抽出し、先ほどと同じようにセルに分割する。各セルについて、再コード化されたコードを用いて各セルのコードを検出し、検出されたコードに基づいて光源からの照射方向θを算出する。各画素の属するセルのθとカメラ2で撮影された画像上のx座標とカメラパラメータである焦点距離Fと基線長Lを用いて式(1)によって距離Zを算出する。なお、測定点pと、光源からの照射方向θと、第2カメラ30で撮影された画像上のx座標と、カメラパラメータである焦点距離Fと、基線長Lとの関係を図14に示す。 Next, stripes are extracted from the stripe image obtained by the second camera 30 and divided into cells as before. For each cell, the code of each cell is detected using the recoded code, and the irradiation direction θ from the light source is calculated based on the detected code. The distance Z is calculated by Equation (1) using θ of the cell to which each pixel belongs, the x coordinate on the image taken by the camera 2, the focal length F and the base line length L which are camera parameters. FIG. 14 shows the relationship among the measurement point p, the irradiation direction θ from the light source, the x coordinate on the image captured by the second camera 30, the focal length F that is a camera parameter, and the baseline length L. .
Z=FL/(x+Ftanθ) −−−式(1) Z = FL / (x + Ftanθ) ---- Equation (1)
この計算は実際にはセルの境界のx座標を利用して行うが、このときのx座標はカメラの画素解像度よりも細かい単位で計算することで計測精度を向上させている。x座標値は、先に算出したエッジ画素の両側のセルの適当な数画素の輝度平均値d1、d2とエッジ画素の輝度deから求める。エッジ画素の両隣の画素位置p1とp2と輝度平均値d1とd2から一次補間した直線から輝度deに相当する画素位置de’(図では便宜上xで示す)が求められ、これがx座標値となる。(図15参照) This calculation is actually performed using the x-coordinate of the cell boundary. At this time, the x-coordinate is calculated in a unit smaller than the pixel resolution of the camera, thereby improving the measurement accuracy. The x-coordinate value is obtained from the brightness average values d1 and d2 of appropriate pixels of the cells on both sides of the edge pixel calculated in advance and the brightness de of the edge pixel. A pixel position de ′ (indicated by x in the drawing for convenience) corresponding to the luminance de is obtained from a straight line obtained by linear interpolation from the pixel positions p1 and p2 adjacent to the edge pixel and the luminance average values d1 and d2, and this is the x coordinate value. . (See Figure 15)
図3に模式的に示した例では投影パターンは256階調を6段階に分けた各42階調または43階調ごとの輝度ストライプの組み合わせとしているが、隣り合うストライプ同士が1段階のレベル差にならないように配置しているので、単純に6段階に分けた輝度ストライプを組み合わせたパターンに比べストライプ間の強度差が大きくx座標値の算出が行いやすくなっている。ストライプ間の強度差が大きい場合と小さい場合のカメラの画素単位の輝度分布を図16に示す。エッジ画素の両側の数画素の輝度平均値は各画素のノイズの影響により、グレーの横線の太さで示したような範囲を取りうる。図16の左に示すように、強度差が大きい場合は、図15の計算方法を適用するとエッジ画素の両側の数画素の輝度平均値のノイズの影響はグレーの各線の太さで表され、結果としてx座標値がaの範囲に決められる。しかし強度差が小さい場合はエッジ画素の両側の数画素の輝度平均値のノイズ成分の割合が強度差に対して相対的に大きくなり、x座標値の算出に曖昧さが発生する、すなわち取りうる範囲がbの範囲となって、結果として計測の精度を落とすことになる。このためストライプ間の強度差は大きいほうが望ましい。 In the example schematically shown in FIG. 3, the projection pattern is a combination of luminance stripes for each of the 42 gradations or 43 gradations in which 256 gradations are divided into 6 gradations. Therefore, the intensity difference between the stripes is large and the x-coordinate value can be easily calculated as compared with the pattern in which the luminance stripes are simply divided into six levels. FIG. 16 shows the luminance distribution of the pixel unit of the camera when the intensity difference between stripes is large and small. The average luminance value of several pixels on both sides of the edge pixel can take a range indicated by the thickness of the gray horizontal line due to the influence of noise of each pixel. As shown on the left in FIG. 16, when the intensity difference is large, the influence of noise on the luminance average value of several pixels on both sides of the edge pixel is expressed by the thickness of each gray line when the calculation method of FIG. 15 is applied. As a result, the x coordinate value is determined within the range of a. However, when the intensity difference is small, the ratio of the noise component of the luminance average value of several pixels on both sides of the edge pixel becomes relatively large with respect to the intensity difference, which causes ambiguity in the calculation of the x coordinate value. The range becomes the range of b, and as a result, the measurement accuracy is lowered. For this reason, it is desirable that the difference in intensity between stripes is large.
図6はx座標を求める構成例を示している。図6においては、エッジ右近傍画素位置入力部210、エッジ右セル輝度平均値入力部220、エッジ左近傍画素位置入力部230、エッジ左セル輝度平均値入力部240、エッジ輝度入力部250からそれぞれd1、p1、d2、p2、deを補間計算部200に供給して上述のとおりx座標を計算する。 FIG. 6 shows a configuration example for obtaining the x coordinate. In FIG. 6, the edge right neighboring pixel position input unit 210, the edge right cell luminance average value input unit 220, the edge left neighboring pixel position input unit 230, the edge left cell luminance average value input unit 240, and the edge luminance input unit 250 respectively. d1, p1, d2, p2, and de are supplied to the interpolation calculation unit 200 to calculate the x coordinate as described above.
この実施例では、ストライプ間の強度差が2レベル以上になるようにパターンを制約しているので、x座標値を高精度に計測できる。 In this embodiment, since the pattern is constrained so that the intensity difference between stripes is 2 levels or more, the x-coordinate value can be measured with high accuracy.
つぎに投光器やカメラのガンマ特性の補正について説明する。 Next, correction of gamma characteristics of the projector and camera will be described.
液晶プロジェクタをパターン投影装置(投光器)10として用いると、液晶プロジェクタの入力画像に対して投影される出力画像はガンマ特性を有することが一般的である。そのため入力画像で256階調を6等分割しても、投影されたパターンの輝度は均等に7レベルとはなっていない。従って入力画像を作成する際にガンマ特性を考慮しなければならない。図17のような横軸の入力レベルに対する縦軸の出力レベルというガンマ特性をもったプロジェクタでは、グラフから入力画像は0、148、185、203、222、237、255という各輝度階調値を有するストライプパターンとすることが望ましい。パターン投影装置(投光器)10がDLPプロジェクタの場合も同様であり、パターン投影装置(投光器)10がスライドプロジェクタの場合は、スライドフィルムのガンマ特性を考慮したデータをフィルム作成時に用意する必要がある。 When a liquid crystal projector is used as the pattern projection device (projector) 10, an output image projected on an input image of the liquid crystal projector generally has a gamma characteristic. Therefore, even if 256 gradations are divided into six equal parts in the input image, the brightness of the projected pattern is not equal to seven levels. Therefore, the gamma characteristic must be taken into account when creating the input image. In the projector having the gamma characteristic of the output level on the vertical axis with respect to the input level on the horizontal axis as shown in FIG. 17, the input image shows each luminance gradation value of 0, 148, 185, 203, 222, 237, and 255 from the graph. It is desirable to have a stripe pattern. The same applies to the case where the pattern projector (projector) 10 is a DLP projector. When the pattern projector (projector) 10 is a slide projector, it is necessary to prepare data in consideration of the gamma characteristics of the slide film at the time of film creation.
またCCDカメラにも同様にガンマ特性が存在するので、カメラ画像上で均等な輝度間隔のストライプパターンを得たい場合には、さらにCCDカメラのガンマ特性をも考慮した入力画像が必要となる。 Similarly, a gamma characteristic also exists in a CCD camera. Therefore, when it is desired to obtain a stripe pattern having a uniform luminance interval on a camera image, an input image that further considers the gamma characteristic of the CCD camera is required.
つぎにこの実施例の2つのストライプパターンの具体例を説明する。 Next, specific examples of the two stripe patterns of this embodiment will be described.
ここでは、まず、距離計測点の密度を上げるために、使用するストライプパターンが図18に示す多数の階調レベルと狭いストライプ幅に対応したものである場合を考える。この場合、前述のように階調の分割数が多すぎるためのエラーが発生しやすい。また、ストライプ幅が狭いことにより、階調レベルの検出誤差も増えるため、所望の結果は得られない。そこで、図18に示すストライプパターンを図19、図20に示すように分割して、複数(ここでは2枚)のストライプパターンを作成してこの実施例で用いるストライプパターン(便宜上、分割ストライプパターンと呼ぶこともある)とする。この実施例では、分割ストライプパターンを連続して投射し、それぞれの分割ストライプパターンに対応して撮像を行って複数の撮像画像を得る。それぞれの撮像画像にエッジ抽出処理とコード付与処理を行い、複数のコード化エッジ画像を獲得する。得られた複数のコード化エッジ画像を重畳して、エッジ密度が高く、コード分布の良好なひとつの統合コード化エッジ画像を獲得する。求められた統合コード化エッジ画像に対して距離計測の計算を実施することで、複数のコード化エッジ画像に対して各々に距離算出を行う場合に比べて、距離算出時のアルゴリズムに起因するエラーの発生をより少なくすることが出来る。 Here, first, in order to increase the density of the distance measurement points, consider a case where the stripe pattern to be used corresponds to a large number of gradation levels and a narrow stripe width shown in FIG. In this case, as described above, an error due to too many gradation divisions is likely to occur. In addition, since the stripe width is narrow, the gray level detection error increases, and a desired result cannot be obtained. Accordingly, the stripe pattern shown in FIG. 18 is divided as shown in FIGS. 19 and 20 to create a plurality (two in this case) of stripe patterns and used in this embodiment (for convenience, the divided stripe pattern and Sometimes called). In this embodiment, a divided stripe pattern is projected continuously, and imaging is performed corresponding to each divided stripe pattern to obtain a plurality of captured images. Edge extraction processing and code addition processing are performed on each captured image to obtain a plurality of coded edge images. A plurality of obtained coded edge images are superimposed to obtain one integrated coded edge image having a high edge density and a good code distribution. Compared to the case where distance calculation is performed for each of multiple coded edge images by performing distance measurement calculation on the obtained integrated coded edge image, an error caused by the algorithm at the time of distance calculation Can be further reduced.
ここでは、図18のストライプパターンとの比較で分割ストライプパターンを用いて説明したが、この実施例では基礎となる図18のストライプパターンが必須なわけではなく、要するに、複数例えば2つのストライプパターンのエッジがずれており、かつ一方のストライプパターンに含まれる隣接ストライプの並びの種類(2つのストライプの順列)のいずれもが他のストライプパターンに含まれないようにすれば良い。すなわち、測定密度(エッジ密度)を増加させ、また、複数のストライプパターン間でエッジの区別ができるようにすればよい。 Here, although the description has been made using the divided stripe pattern in comparison with the stripe pattern of FIG. 18, the basic stripe pattern of FIG. 18 is not essential in this embodiment. In short, a plurality of, for example, two stripe patterns are used. It suffices that the edge is shifted and any of the types of adjacent stripes arranged in one stripe pattern (permutation of two stripes) is not included in the other stripe pattern. That is, it is only necessary to increase the measurement density (edge density) and make it possible to distinguish edges between a plurality of stripe patterns.
なお、本発明は上述の実施例に限定されるものではなくその趣旨を逸脱しない範囲で種々変更が可能である。例えば、以上の実施例においては7レベルまたは14レベルに均等分割する例を述べたが、これ以外のレベル数を設定しても良いことはいうまでもない。また256階調を7レベルや14レベルに均等分割する場合、255は6または13で割り切れないので各レベルの間隔を42階調または43階調あるいは19階調または20階調に丸め込むことは本発明の技術的な範囲に含まれる。 In addition, this invention is not limited to the above-mentioned Example, A various change is possible in the range which does not deviate from the meaning. For example, in the above embodiment, an example of equally dividing into 7 levels or 14 levels has been described, but it goes without saying that other numbers of levels may be set. In addition, when 256 gradations are equally divided into 7 levels or 14 levels, 255 cannot be divided by 6 or 13, so rounding the interval between each level to 42 gradations, 43 gradations, 19 gradations or 20 gradations is a problem. It is included in the technical scope of the invention.
また本発明は、可視領域波長のほか、近赤外などの不可視波長の投射光に関しても有効であることはいうまでもない。輝度のパターンでなく色相のパターンを用いても良い。 Further, it goes without saying that the present invention is effective for projection light having invisible wavelengths such as near infrared in addition to visible wavelengths. Instead of the luminance pattern, a hue pattern may be used.
なお、また、例えば、上述実施例では,ハーフミラー20を用いて投影装置10とモニタ用の撮像装置20とを同一の光軸(同主点)に配置したが、図21に示すように,投影装置10および撮像装置0を,パターンのストライプ(エッジ)の方向に無視できる程度に離間して配置し,実質的に同一の光軸上(同主点)に配置しても良い。この場合ハーフミラーによるパターン光のロスや配分に伴うパワーの低下やバラツキを回避できる。 For example, in the above-described embodiment, the projection device 10 and the monitor imaging device 20 are arranged on the same optical axis (same principal point) using the half mirror 20, but as shown in FIG. The projection device 10 and the imaging device 0 may be arranged so as to be negligibly spaced in the direction of the stripe (edge) of the pattern, and may be arranged on substantially the same optical axis (same principal point). In this case, it is possible to avoid power reduction and variation due to pattern light loss and distribution by the half mirror.
10 パターン投影装置
20 モニタ用の第1カメラ
30 三角測量用の第2カメラ
40 ハーフミラー
50 対象物
110 フレームメモリ
120 パターン画像メモリ
130 領域分割部
140 輝度値メモリ
150 パターン画像メモリ
160 再コード化部
170 コード復号部
180 3次元画像メモリ
190 パターン切替部
200 補間計算部
210 エッジ右近傍画素位置入力部
220 エッジ右セル輝度平均値入力部
230 エッジ左近傍画素位置入力部
240 エッジ左セル輝度平均値入力部
250 エッジ輝度入力部
DESCRIPTION OF SYMBOLS 10 Pattern projection apparatus 20 1st camera 30 for a monitor 2nd camera 40 for a triangulation 50 Half mirror 50 Object 110 Frame memory 120 Pattern image memory 130 Area division part 140 Luminance value memory 150 Pattern image memory 160 Recoding part 170 Code decoding unit 180 3D image memory 190 Pattern switching unit 200 Interpolation calculation unit 210 Edge right neighboring pixel position input unit 220 Edge right cell luminance average value input unit 230 Edge left neighboring pixel position input unit 240 Edge left cell luminance average value input unit 250 Edge luminance input section
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004185657A JP4501551B2 (en) | 2004-06-23 | 2004-06-23 | Three-dimensional shape measuring apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004185657A JP4501551B2 (en) | 2004-06-23 | 2004-06-23 | Three-dimensional shape measuring apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006010416A true JP2006010416A (en) | 2006-01-12 |
JP4501551B2 JP4501551B2 (en) | 2010-07-14 |
Family
ID=35777847
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004185657A Expired - Fee Related JP4501551B2 (en) | 2004-06-23 | 2004-06-23 | Three-dimensional shape measuring apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4501551B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007192608A (en) * | 2006-01-18 | 2007-08-02 | Roland Dg Corp | Method and device for measuring three-dimensional shape |
JP2009210470A (en) * | 2008-03-05 | 2009-09-17 | Makino Milling Mach Co Ltd | Shape measurement method and device |
WO2012023256A3 (en) * | 2010-08-19 | 2012-04-26 | Canon Kabushiki Kaisha | Three-dimensional measurement apparatus, method for three-dimensional measurement, and computer program |
US8679838B2 (en) | 2004-11-19 | 2014-03-25 | Jms Co., Ltd. | Human serum for cell culture |
JP2014194436A (en) * | 2014-07-02 | 2014-10-09 | Canon Inc | Three-dimensional measurement device, three-dimensional measurement method and program |
WO2024183440A1 (en) * | 2023-03-09 | 2024-09-12 | 红云红河烟草(集团)有限责任公司 | Method for reducing defective rate of finished products on basis of trademark surface parameter measurement and control |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03293507A (en) * | 1990-04-11 | 1991-12-25 | Nippondenso Co Ltd | Three-dimensional shape measuring apparatus |
JPH10122834A (en) * | 1996-10-24 | 1998-05-15 | Tokyo Gas Co Ltd | Noncontact measuring method and measuring equipment of three-dimensional form |
JP2000065542A (en) * | 1998-08-18 | 2000-03-03 | Fuji Xerox Co Ltd | Three-dimensional image photographing device |
JP2000283739A (en) * | 1999-03-29 | 2000-10-13 | Minolta Co Ltd | Three-dimensional information inputting camera |
JP2001330417A (en) * | 2000-05-19 | 2001-11-30 | Tatsuo Sato | Three-dimensional shape measuring method and apparatus using color pattern light projection |
JP2002031517A (en) * | 2000-07-18 | 2002-01-31 | Asahi Optical Co Ltd | Image detection device |
-
2004
- 2004-06-23 JP JP2004185657A patent/JP4501551B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03293507A (en) * | 1990-04-11 | 1991-12-25 | Nippondenso Co Ltd | Three-dimensional shape measuring apparatus |
JPH10122834A (en) * | 1996-10-24 | 1998-05-15 | Tokyo Gas Co Ltd | Noncontact measuring method and measuring equipment of three-dimensional form |
JP2000065542A (en) * | 1998-08-18 | 2000-03-03 | Fuji Xerox Co Ltd | Three-dimensional image photographing device |
JP2000283739A (en) * | 1999-03-29 | 2000-10-13 | Minolta Co Ltd | Three-dimensional information inputting camera |
JP2001330417A (en) * | 2000-05-19 | 2001-11-30 | Tatsuo Sato | Three-dimensional shape measuring method and apparatus using color pattern light projection |
JP2002031517A (en) * | 2000-07-18 | 2002-01-31 | Asahi Optical Co Ltd | Image detection device |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8679838B2 (en) | 2004-11-19 | 2014-03-25 | Jms Co., Ltd. | Human serum for cell culture |
JP2007192608A (en) * | 2006-01-18 | 2007-08-02 | Roland Dg Corp | Method and device for measuring three-dimensional shape |
JP2009210470A (en) * | 2008-03-05 | 2009-09-17 | Makino Milling Mach Co Ltd | Shape measurement method and device |
WO2012023256A3 (en) * | 2010-08-19 | 2012-04-26 | Canon Kabushiki Kaisha | Three-dimensional measurement apparatus, method for three-dimensional measurement, and computer program |
CN103069250A (en) * | 2010-08-19 | 2013-04-24 | 佳能株式会社 | Three-dimensional measurement apparatus, method for three-dimensional measurement, and computer program |
US8964189B2 (en) | 2010-08-19 | 2015-02-24 | Canon Kabushiki Kaisha | Three-dimensional measurement apparatus, method for three-dimensional measurement, and computer program |
JP2014194436A (en) * | 2014-07-02 | 2014-10-09 | Canon Inc | Three-dimensional measurement device, three-dimensional measurement method and program |
WO2024183440A1 (en) * | 2023-03-09 | 2024-09-12 | 红云红河烟草(集团)有限责任公司 | Method for reducing defective rate of finished products on basis of trademark surface parameter measurement and control |
Also Published As
Publication number | Publication date |
---|---|
JP4501551B2 (en) | 2010-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10902668B2 (en) | 3D geometric modeling and 3D video content creation | |
CN112106105B (en) | Method and system for generating three-dimensional image of object | |
EP1595224B1 (en) | Acquisition of three-dimensional images by an active stereo technique using locally unique patterns | |
JP3714063B2 (en) | 3D shape measuring device | |
CN105806259B (en) | A kind of method for three-dimensional measurement based on the projection of two-value grating defocus | |
CN104897083B (en) | Three-dimensional rapid measurement method for raster projection based on defocusing phase-unwrapping of projector | |
JP4501587B2 (en) | Three-dimensional image measuring apparatus and method | |
JP2015021862A (en) | Three-dimensional measurement instrument and three-dimensional measurement method | |
US8970674B2 (en) | Three-dimensional measurement apparatus, three-dimensional measurement method and storage medium | |
CN110766767B (en) | Method, system and device for acquiring Gray code structured light image | |
JP4501551B2 (en) | Three-dimensional shape measuring apparatus and method | |
KR20200046789A (en) | Method and apparatus for generating 3-dimensional data of moving object | |
JP2006023133A (en) | Instrument and method for measuring three-dimensional shape | |
JP4433907B2 (en) | Three-dimensional shape measuring apparatus and method | |
JP4525240B2 (en) | Three-dimensional image input apparatus and method | |
JP4241250B2 (en) | Three-dimensional shape measuring apparatus and method | |
JP2005003631A (en) | Apparatus and method for measuring three-dimensional shape | |
CN116310101A (en) | High-dynamic three-dimensional measurement method based on self-adaptive distribution of intensity of overexposure connected domain | |
JP2009216650A (en) | Three-dimensional shape measuring device | |
KR20190103833A (en) | Method for measuring 3-dimensional data in real-time | |
CN111023999B (en) | Dense point cloud generation method based on spatial coding structured light | |
JP2006064453A (en) | 3-dimensional geometry input device and method | |
JP4543821B2 (en) | Three-dimensional shape measuring apparatus and method | |
JP2006071434A (en) | Three-dimensional image input device and method | |
KR101765257B1 (en) | Method for acquiring three dimensional image information, and computing device implementing the samemethod |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070517 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100330 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100412 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4501551 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130430 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130430 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140430 Year of fee payment: 4 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |