JP2002218505A - Three-dimensional image pickup device - Google Patents
Three-dimensional image pickup deviceInfo
- Publication number
- JP2002218505A JP2002218505A JP2001009015A JP2001009015A JP2002218505A JP 2002218505 A JP2002218505 A JP 2002218505A JP 2001009015 A JP2001009015 A JP 2001009015A JP 2001009015 A JP2001009015 A JP 2001009015A JP 2002218505 A JP2002218505 A JP 2002218505A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- light
- pattern
- semiconductor substrate
- projector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、輝度情報および距
離情報から3次元画像情報を生成する3次元画像撮像装
置に関する。特に、測定対象に対してパターン光を照射
することによって得られるパターン投影像を、複数の撮
像手段で異なる方向から撮像し、パターンの変化に基づ
いて距離情報を得る三角測量法に基づく3次元画像撮像
装置に関する。[0001] 1. Field of the Invention [0002] The present invention relates to a three-dimensional image pickup apparatus for generating three-dimensional image information from luminance information and distance information. In particular, a three-dimensional image based on a triangulation method in which pattern projection images obtained by irradiating pattern light on a measurement target are imaged from different directions by a plurality of imaging means and distance information is obtained based on a change in the pattern. The present invention relates to an imaging device.
【0002】[0002]
【従来の技術】3次元形状を取得する手法には、アクテ
ィブ手法(Active vision)とパッシブ手法(Passive v
ision)がある。アクティブ手法は、(1)レーザ光や超
音波等を発して、対象物からの反射光量や到達時間を計
測し、奥行き情報を抽出する手法や、(2)スリット光
などの特殊なパターン光源を用いて、対象表面パターン
の幾何学的変形等の画像情報より対象形状を推定するパ
ターン投影方法や、(3)光学的処理によってモアレ縞に
より等高線を形成させて、3次元情報を得る方法などが
ある。一方、パッシブ手法は、対象物の見え方、光源、
照明、影情報等に関する知識を利用して、一枚の画像か
ら3次元情報を推定する単眼立体視、三角測量原理で各
画素の奥行き情報を推定する二眼立体視等がある。2. Description of the Related Art A technique for acquiring a three-dimensional shape includes an active technique (Active vision) and a passive technique (Passive v).
ision). The active method uses (1) a method that emits laser light or ultrasonic waves to measure the amount of light reflected from an object and the arrival time to extract depth information, and (2) a special pattern light source such as slit light. A pattern projection method for estimating a target shape from image information such as a geometric deformation of a target surface pattern, and (3) a method of obtaining three-dimensional information by forming contour lines by moiré fringes by optical processing. is there. On the other hand, the passive method is based on
There are monocular stereoscopic vision in which three-dimensional information is estimated from one image using knowledge about illumination and shadow information, and binocular stereoscopic vision in which depth information of each pixel is estimated based on the principle of triangulation.
【0003】一般的にアクティブ手法のほうが計測精度
は高いが、投光手段の限界などにより、測定できるレン
ジが小さい場合が多い。一方、パッシブ手法は汎用的で
あり、対象に対する制約が少ないが、一般に計測精度が
低い。本発明は、このアクティブ手法の3次元計測装置
であるパターン投影法に関するものである。In general, the active method has higher measurement accuracy, but in many cases, the measurable range is small due to limitations of light emitting means. On the other hand, the passive method is versatile and has few restrictions on objects, but generally has low measurement accuracy. The present invention relates to a pattern projection method, which is a three-dimensional measuring device of the active method.
【0004】パターン投影法では、対象とする物体に例
えば直線状の縦縞模様のような、基準となるパターン光
を投影し、基準となるパターン光が投影された方向とは
異なる方向から撮影を行う。撮影されたパターンは、物
体の形状によって変形を受け、例えば曲線状の縞模様の
変形パターンとなる。観測された変形パターンと投影し
たパターンとの対応づけを行うことで、物体の3次元計
測を行える。In the pattern projection method, a reference pattern light such as a linear vertical stripe pattern is projected onto a target object, and photographing is performed from a direction different from the direction in which the reference pattern light is projected. . The photographed pattern is deformed by the shape of the object, and becomes a deformed pattern of, for example, a curved stripe pattern. By associating the observed deformation pattern with the projected pattern, three-dimensional measurement of the object can be performed.
【0005】パターン投影法では、撮影された変形パタ
ーンと、投影された投影パターンの対応づけを、いかに
誤対応を少なくかつ簡便に行なうかが課題となる。例え
ば物体表面に、大きな不連続な凹凸がある場合、撮影さ
れた変形パターンが途中で途切れ、投影パターンとの対
応づけが難しい。そこで周知の、様々なパターン投影の
手法(空間パターンコード化法、色符号化など)が提案
されている。[0005] In the pattern projection method, the problem is how to easily associate the deformed pattern with the projected projection pattern with less erroneous correspondence. For example, when there are large discontinuous irregularities on the surface of the object, the photographed deformation pattern is interrupted on the way, and it is difficult to associate with the projection pattern. Therefore, various well-known pattern projection methods (such as a spatial pattern coding method and a color coding method) have been proposed.
【0006】一例として空間パターンコード化法は、投
影パターンとして、例えば複数本の、複数階調の縦縞模
様を用いる。その階調の配列によって、変形パターンの
不連続に切り出された部分においても、対応する投影パ
ターンを見出しやすくしている。As an example, the spatial pattern coding method uses, for example, a plurality of vertical stripes of a plurality of gradations as a projection pattern. The arrangement of the gradations makes it easy to find the corresponding projection pattern even in the discontinuously cut portion of the deformation pattern.
【0007】しかしこれらの従来の方法によっても、対
象物体表面の輝度(反射係数)が、場所によって大きく
変化している場合など、撮影対象によっては正しいコー
ドの対応づけが困難な場合も多い。However, even with these conventional methods, it is often difficult to associate a correct code depending on the object to be photographed, such as when the luminance (reflection coefficient) of the surface of the object changes greatly depending on the location.
【0008】そこで本発明者等は先に、特開2000−
65542において、撮影された変形パターンと、投影
された投影パターンとの対応づけの精度を飛躍的に向上
し、高精度に3次元画像を取得できる、3次元画像撮像
装置を提案した。Therefore, the present inventors first disclosed in JP-A-2000-2000.
In 65542, a three-dimensional image capturing apparatus capable of dramatically improving the accuracy of associating a photographed deformation pattern with a projected projection pattern and obtaining a three-dimensional image with high accuracy has been proposed.
【0009】この特開2000−65542は、投影パ
ターンの投影方向とは異なる方向から撮影するカメラで
ある第2のカメラまたは第3のカメラの他に、投影パタ
ーンの投光器の光軸と同一の光軸上に、さらに第1のカ
メラを設ける。この第1のカメラによって、対象物体
の、投影パターンと同じ光軸方向から撮影したパターン
を撮影する。この、第1のカメラによる撮影パターン、
すなわち投影パターンと同じ方向から撮影したパターン
は、対象物体表面の輝度(反射係数)の分布に応じて、
輝度が変化した画像となる。[0009] Japanese Patent Application Laid-Open No. 2000-65542 discloses a camera that shoots from a direction different from the projection direction of a projection pattern, a second camera or a third camera, and a light beam that is the same as the optical axis of the projector of the projection pattern. A first camera is further provided on the axis. The first camera photographs a pattern of the target object photographed in the same optical axis direction as the projection pattern. This pattern taken by the first camera,
That is, a pattern photographed from the same direction as the projection pattern has a distribution of luminance (reflection coefficient) on the surface of the target object,
The resulting image has changed luminance.
【0010】同時にこの第1のカメラによる撮影パター
ンの輝度分布は、投光器と異なる光軸上の、第2のカメ
ラで撮影した変形パターンの、輝度分布にも対応してい
る。At the same time, the luminance distribution of the pattern photographed by the first camera also corresponds to the luminance distribution of the deformation pattern photographed by the second camera on an optical axis different from that of the projector.
【0011】次にこの、第1のカメラによる撮影パター
ンによって、投影パターンの再コード化を行なう。そし
てこれ以後、投影パターンのかわりに、第1のカメラに
よる撮影パターン、すなわち再コード化パターンを、変
形パターンの比較対象として使用する。Next, the projection pattern is re-coded according to the pattern captured by the first camera. Thereafter, instead of the projection pattern, a pattern captured by the first camera, that is, a re-coded pattern is used as a comparison target of the deformed pattern.
【0012】本構成によれば、対象物体表面の輝度すな
わち反射係数が、大幅に変化して分布している場合で
も、その影響を含む、第1のカメラによる撮影パターン
を基準に用いている。したがって、投影パターンと変形
パターンの対応づけの精度が飛躍的に向上する。According to this configuration, even when the luminance of the surface of the target object, that is, the reflection coefficient is largely changed and distributed, the pattern taken by the first camera including the influence of the distribution is used as a reference. Therefore, the accuracy of associating the projection pattern with the deformation pattern is dramatically improved.
【0013】[0013]
【発明が解決しようとする課題】しかし上述の従来技術
でも、投影パターンと変形パターンの対応づけの、精度
が不足する場合がある。それは例えば、対象物体と背景
の前後の距離が大きい場合、もしくは対象物体の前後方
向の凹凸が大きい場合、さらにもしくは前後方向に複数
の物体が重なっているような場合である。このような場
合、投光器からの投影光は、物体の手前部分からみて、
後ろの部分には届かない。この後ろの部分は陰になる。However, even in the above-mentioned prior art, there is a case where accuracy of associating the projection pattern with the deformation pattern is insufficient. This is the case, for example, when the distance between the target object and the background before and after is large, when the unevenness of the target object in the front-back direction is large, or when a plurality of objects overlap in the front-back direction. In such a case, the projection light from the projector is viewed from the front of the object,
It does not reach the back. The part behind this is shaded.
【0014】このとき、投影光を投光する投光器と、同
一光軸上に配置された第1のカメラとは、光軸は同じで
も、一般に互いの画角が異なっている。そのため第1の
カメラで撮影した像では、物体の前後の不連続部分すな
わちエッジ部において、細い陰の映像が発生する。この
陰の映像は、一般には細い黒帯状のパターンとなる。こ
れが、再コード化の際に新たなエラーコードとして認識
される。通常は最暗レベルの、新たなパターンとして認
識され、コード化される。このため、投影パターンと対
応する再コード化を行なうにあたり、障害となる。At this time, the light projector for projecting the projection light and the first camera arranged on the same optical axis generally have different angles of view even though they have the same optical axis. For this reason, in an image captured by the first camera, a fine shadow image is generated at a discontinuous portion before and after the object, that is, at an edge portion. The shadow image generally has a thin black belt-like pattern. This is recognized as a new error code during recoding. It is recognized and coded as a new pattern, usually at the darkest level. For this reason, there is an obstacle in performing recoding corresponding to the projection pattern.
【0015】ここで前記陰の映像は、その幅が、第1の
カメラの解像度の寸法よりも大きいときに、問題とな
る。より詳しくは、前記第1のカメラの、撮像素子の表
面上に投影された映像において、前記陰の映像の幅が、
前記撮像素子の画素の寸法よりも大きいときに、映像と
して発生すると考えられる。Here, the shadow image becomes a problem when its width is larger than the resolution dimension of the first camera. More specifically, in the image projected on the surface of the image sensor of the first camera, the width of the shadow image is
It is considered that the image is generated as an image when the size is larger than the size of the pixel of the image sensor.
【0016】本発明は、上記従来技術の問題点に鑑みて
なされたものであり、パターンを投影して距離データを
得る3次元画像撮像装置において、対象物体の前後方向
の陰が発生する場合においても、投影パターンと変形パ
ターンの対応づけを、精度よく行なうことを可能とした
3次元画像撮像装置を提供することを目的とする。特
に、上述した再コード化法を適用した3次元画像撮像装
置において、対象物体の前後方向の陰が発生する場合に
おいても、飛躍的に高精度に3次元画像を取得できる3
次元画像撮像装置を提供することを目的とする。SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems of the prior art. In a three-dimensional image pickup apparatus which obtains distance data by projecting a pattern, the present invention is applied to a case where a back-and-forth direction of a target object is generated. It is another object of the present invention to provide a three-dimensional image capturing apparatus capable of accurately associating a projection pattern with a deformation pattern. In particular, in the three-dimensional image capturing apparatus to which the above-described re-encoding method is applied, even when the front-back direction of the target object is generated, a three-dimensional image can be acquired with extremely high accuracy.
It is an object to provide a two-dimensional image capturing device.
【0017】[0017]
【課題を解決するための手段】本発明は、上述の目的を
解決するものであり、その第1の側面は、コード化され
たパターンを計測対象に対して投影したパターン画像を
撮影した画像に基づいて計測対象の距離情報を取得する
3次元画像撮像装置において、コード化されたパターン
を投影する投光器と、前記投光器の光軸方向から前記投
光器による投影パターンを撮影する第1のカメラと、前
記投光器の光軸方向と異なる方向から前記投影パターン
を撮影する第2のカメラとを備え、前記投影パターンに
対する第1のカメラによる撮影パターンの変化量が所定
値以上の領域について新たなコードを割り付け、前記割
り付けたコードを用いて第2のカメラによる撮影パター
ンから第1の距離情報を生成し、第1の距離情報および
第1のカメラにより得られた輝度情報に基づいて距離情
報を取得する再コード化処理および距離情報取得手段を
有し、前記投光器と、前記第1のカメラがほぼ同一の画
角を有する構成であることを特徴とする3次元画像撮像
装置にある。SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned object, and a first aspect of the present invention is to provide an image obtained by photographing a pattern image obtained by projecting a coded pattern onto a measurement target. A three-dimensional image capturing apparatus that obtains distance information of a measurement target based on a light projector that projects a coded pattern; a first camera that captures a projection pattern by the light projector from an optical axis direction of the light projector; A second camera that captures the projection pattern from a direction different from the optical axis direction of the light projector, and assigns a new code to a region where the amount of change in the capture pattern by the first camera with respect to the projection pattern is equal to or greater than a predetermined value; Using the allocated code, first distance information is generated from a shooting pattern of the second camera, and the first distance information and the first camera are used to generate first distance information. It has a re-coding process and distance information obtaining means for obtaining distance information based on the obtained luminance information, and the projector and the first camera are configured to have substantially the same angle of view. In a three-dimensional image pickup device.
【0018】さらに、本発明の3次元画像撮像装置の一
実施態様において、前記投光器と前記第1のカメラの画
角の差異は、前記第1のカメラの解像度サイズ以下であ
ることを特徴とする。Further, in one embodiment of the three-dimensional image pickup device of the present invention, a difference in the angle of view between the light projector and the first camera is equal to or smaller than the resolution size of the first camera. .
【0019】さらに、本発明の3次元画像撮像装置の一
実施態様において、前記投光器は、半導体基板上に形成
された面発光素子により構成され、前記第1のカメラは
半導体基板上に形成された受光素子により構成された構
成であることを特徴とする。Further, in one embodiment of the three-dimensional image pickup device of the present invention, the light projector is constituted by a surface light emitting element formed on a semiconductor substrate, and the first camera is formed on the semiconductor substrate. It is characterized in that it is constituted by a light receiving element.
【0020】さらに、本発明の3次元画像撮像装置の一
実施態様において、前記投光器は、半導体基板上に形成
された面発光素子により構成され、前記第1のカメラは
半導体基板上に形成された受光素子により構成された構
成であるとともに、前記面発光素子および受光素子は同
一の半導体基板上に形成されてなることを特徴とする。Further, in one embodiment of the three-dimensional image pickup device of the present invention, the light projector is constituted by a surface light emitting element formed on a semiconductor substrate, and the first camera is formed on the semiconductor substrate. In addition to the configuration including the light receiving element, the surface light emitting element and the light receiving element are formed on the same semiconductor substrate.
【0021】さらに、本発明の3次元画像撮像装置の一
実施態様において、前記投光器は、半導体基板上に形成
された面発光素子により構成され、前記第1のカメラは
半導体基板上に形成された受光素子により構成された構
成であるとともに、前記投光器の前記発光素子が形成さ
れた半導体基板と、前記第1のカメラの前記受光素子が
形成された半導体基板が、互いに接着されて一つの半導
体基体に形成されてなることを特徴とする。Further, in one embodiment of the three-dimensional image pickup device of the present invention, the light projector is constituted by a surface light emitting element formed on a semiconductor substrate, and the first camera is formed on the semiconductor substrate. A semiconductor substrate on which the light-emitting element of the light projector is formed, and a semiconductor substrate on which the light-receiving element of the first camera is formed, which are adhered to each other to form one semiconductor substrate. It is characterized by being formed in.
【0022】さらに、本発明の3次元画像撮像装置の一
実施態様において、前記投光器は、半導体基板上に形成
された面発光素子により構成され、前記第1のカメラは
半導体基板上に形成された受光素子により構成された構
成であり、前記面発光素子と前記受光素子の各々は隣接
されて1組の発光および受光素子の組を構成し、該発光
および受光素子の組がアレイ状に配置されて前記投光器
と前記第1のカメラを形成した構成であることを特徴と
する。Further, in one embodiment of the three-dimensional image pickup device of the present invention, the light projector is constituted by a surface light emitting element formed on a semiconductor substrate, and the first camera is formed on the semiconductor substrate. A light-receiving element, wherein the surface light-emitting element and the light-receiving element are adjacent to each other to form a set of light-emitting and light-receiving elements, and the light-emitting and light-receiving element sets are arranged in an array. And wherein the projector and the first camera are formed.
【0023】さらに、本発明の第2の側面は、コード化
されたパターンを計測対象に対して投影したパターン画
像を撮影した画像に基づいて計測対象の距離情報を取得
する3次元画像撮像装置において、コード化されたパタ
ーンを投影する投光器と、前記投光器の光軸方向から前
記投光器による投影パターンを撮影する第1のカメラ
と、前記投光器の光軸方向と異なる方向から前記投影パ
ターンを撮影する第2のカメラとを備え、前記投影パタ
ーンに対する第1のカメラによる撮影パターンの変化量
が所定値以上の領域について新たなコードを割り付け、
前記割り付けたコードを用いて第2のカメラによる撮影
パターンから第1の距離情報を生成し、第1の距離情報
および第1のカメラにより得られた輝度情報に基づいて
距離情報を取得する再コード化処理および距離情報取得
手段を有し、前記投光器と、前記第1のカメラが一体化
した構成であることを特徴とする3次元画像撮像装置に
ある。Further, a second aspect of the present invention relates to a three-dimensional image pickup apparatus for acquiring distance information of a measurement target based on an image of a pattern image obtained by projecting a coded pattern onto the measurement target. A projector that projects the coded pattern, a first camera that captures a projection pattern by the projector from the optical axis direction of the projector, and a second camera that captures the projection pattern from a direction different from the optical axis direction of the projector. A new code is assigned to an area in which the amount of change of the photographing pattern by the first camera with respect to the projection pattern is equal to or greater than a predetermined value,
A re-code for generating first distance information from a pattern captured by a second camera using the allocated code, and obtaining distance information based on the first distance information and luminance information obtained by the first camera. A three-dimensional image pickup device, characterized in that the three-dimensional image pickup device has a configuration in which the light projector and the first camera are integrated.
【0024】さらに、本発明の3次元画像撮像装置の一
実施態様において、前記投光器は、半導体基板上に形成
された面発光素子により構成され、前記第1のカメラは
半導体基板上に形成された受光素子により構成された構
成であるとともに、前記面発光素子および受光素子は同
一の半導体基板上に形成されてなることを特徴とする。Further, in one embodiment of the three-dimensional image pickup device of the present invention, the light projector is formed by a surface light emitting element formed on a semiconductor substrate, and the first camera is formed on the semiconductor substrate. In addition to the configuration including the light receiving element, the surface light emitting element and the light receiving element are formed on the same semiconductor substrate.
【0025】さらに、本発明の3次元画像撮像装置の一
実施態様において、前記投光器は、半導体基板上に形成
された面発光素子により構成され、前記第1のカメラは
半導体基板上に形成された受光素子により構成された構
成であるとともに、前記投光器の前記発光素子が形成さ
れた半導体基板と、前記第1のカメラの前記受光素子が
形成された半導体基板が、互いに接着されて一つの半導
体基体に形成されてなることを特徴とする。Further, in one embodiment of the three-dimensional image pickup device of the present invention, the light projector is constituted by a surface light emitting element formed on a semiconductor substrate, and the first camera is formed on the semiconductor substrate. A semiconductor substrate on which the light-emitting element of the light projector is formed, and a semiconductor substrate on which the light-receiving element of the first camera is formed, which are adhered to each other to form one semiconductor substrate. It is characterized by being formed in.
【0026】さらに、本発明の3次元画像撮像装置の一
実施態様において、前記投光器は、半導体基板上に形成
された面発光素子により構成され、前記第1のカメラは
半導体基板上に形成された受光素子により構成された構
成であり、前記面発光素子と前記受光素子の各々は隣接
されて1組の発光および受光素子の組を構成し、該発光
および受光素子の組がアレイ状に配置されて前記投光器
と前記第1のカメラを形成した構成であることを特徴と
する。Further, in one embodiment of the three-dimensional image pickup device of the present invention, the light projector is constituted by a surface light emitting element formed on a semiconductor substrate, and the first camera is formed on the semiconductor substrate. A light-receiving element, wherein the surface light-emitting element and the light-receiving element are adjacent to each other to form a set of light-emitting and light-receiving elements, and the light-emitting and light-receiving element sets are arranged in an array. And wherein the projector and the first camera are formed.
【0027】[0027]
【作用】この発明の3次元画像撮像装置においては、投
光器と、第1のカメラが、同一の光軸を持ち、かつ同一
の画角を持つように形成される。このため対象物体の前
後方向の陰が発生する場合においても、対象物体上のあ
る点に投影される投影光の光線ベクトルと、上記のある
点を撮影する上記第1のカメラの、撮影光線ベクトル
が、互いに等しくなる。In the three-dimensional image pickup apparatus according to the present invention, the light projector and the first camera are formed so as to have the same optical axis and the same angle of view. For this reason, even when a shadow in the front-rear direction of the target object occurs, the ray vector of the projection light projected on a certain point on the target object and the photographing ray vector of the first camera for photographing the above point Are equal to each other.
【0028】このため対象物体に前後の不連続があって
も、第1のカメラで撮影した像において、細い陰の映像
を発生することがない。したがって、再コード化の際に
新たなエラーコードとして認識されることがない。この
ため、投影パターンに対応した再コード化を、正確に行
なうことができる。以上により、対象物体の前後方向の
段差がある場合においても、高精度の再コード化が可能
な、高精度の3次元画像撮像装置が得られる。For this reason, even if there is a discontinuity in the front and back of the target object, a fine shadow image is not generated in the image taken by the first camera. Therefore, it is not recognized as a new error code at the time of recoding. Therefore, recoding corresponding to the projection pattern can be performed accurately. As described above, a high-precision three-dimensional image capturing apparatus capable of performing high-precision recoding even when there is a step in the front-back direction of the target object is obtained.
【0029】[0029]
【発明の実施の形態】以下、図を用いて本発明の3次元
画像撮像装置の実施の形態を詳しく説明する。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a perspective view of a three-dimensional image pickup apparatus according to an embodiment of the present invention.
【0030】まず、再コード化処理を用いた距離データ
の取得原理について説明する。再コード化処理を用いた
距離データの取得を実行する3次元画像撮像装置の一構
成例を表すブロック図を図1に示す。図2に光源と撮像
素子の位置関係を示す。First, the principle of acquiring distance data using the re-coding process will be described. FIG. 1 is a block diagram illustrating a configuration example of a three-dimensional image capturing apparatus that performs acquisition of distance data using recoding processing. FIG. 2 shows the positional relationship between the light source and the image sensor.
【0031】図2に示す構成では、3次元形状測定装置
は、3台のカメラ101〜103および投光器104を
備える。各カメラの距離関係が揃うように、図示の距離
I1、I2、I3は等しくされている。第1のカメラ10
1と投光器104は、ビームスプリッタとしてのハーフ
ミラー105を用いて光軸が一致するように配置され
る。第2のカメラ102、第3のカメラ103は、第1
のカメラ101と投光器104の両側に、それらと光軸
が異なるように配置される。中央の光軸と両側の光軸と
の距離が基線長Lである。In the configuration shown in FIG. 2, the three-dimensional shape measuring apparatus includes three cameras 101 to 103 and a projector 104. The illustrated distances I1, I2, and I3 are made equal so that the distance relationship between the cameras is uniform. First camera 10
1 and the light projector 104 are arranged so that their optical axes coincide with each other by using a half mirror 105 as a beam splitter. The second camera 102 and the third camera 103
Are arranged on both sides of the camera 101 and the projector 104 so that their optical axes are different from each other. The distance between the central optical axis and the optical axes on both sides is the base length L.
【0032】投光器104は、光源106と、マスクパ
ターン107と、強度パターン108と、プリズム10
9とを有する。ここで光源106は、赤外もしくは紫外
光を用いた不可視領域の光源を用いることができる。こ
の場合、各カメラは図3に示すように構成される。すな
わち、入射してきた光310は、プリズム301で2方
向に分割され、一方は不可視領域(赤外あるいは紫外)
透過フィルター302を通って撮像装置(例えばCCD
カメラ)303に入射し、他方は不可視領域(赤外と紫
外)遮断フィルター304を通って撮像装置305に入
射する。The light projector 104 includes a light source 106, a mask pattern 107, an intensity pattern 108, and a prism 10.
9 is provided. Here, as the light source 106, a light source in an invisible region using infrared light or ultraviolet light can be used. In this case, each camera is configured as shown in FIG. That is, the incoming light 310 is split in two directions by the prism 301, one of which is in the invisible region (infrared or ultraviolet).
An imaging device (for example, a CCD) through the transmission filter 302
Camera 303, and the other light passes through an invisible region (infrared and ultraviolet) cutoff filter 304 and enters an imaging device 305.
【0033】また図2に示す光源106は、可視領域あ
るいは不可視領域に限定せず、撮像可能な波長帯の光源
を用いてもよい。この場合、第1のカメラ101におい
ては、プログレッシブスキャンタイプのCCDカメラを
用い、第2のカメラ102、第3のカメラ103に関し
ては、特に構成はこだわらない。ただし、第1のカメラ
101との対応を考慮すれば、同じ構成のCCDカメラ
が望ましい。光源106からパターンが投影され、3台
のカメラ(101〜103)が同時に撮影を行う。そし
て各カメラは、フィルター302,304(図3参照)
を通過した光を撮像装置303,305で得ることによ
り、画像の一括取得を行う。The light source 106 shown in FIG. 2 is not limited to the visible region or the invisible region, but may be a light source having a wavelength band capable of capturing an image. In this case, the first camera 101 uses a progressive scan type CCD camera, and the configuration of the second camera 102 and the third camera 103 is not particularly limited. However, considering the correspondence with the first camera 101, a CCD camera having the same configuration is desirable. The pattern is projected from the light source 106, and three cameras (101 to 103) shoot simultaneously. Each camera has filters 302 and 304 (see FIG. 3).
The light that has passed through is obtained by the imaging devices 303 and 305, whereby the images are collectively acquired.
【0034】図1を用いて3次元形状測定装置の構成を
説明する。図示のように、第2のカメラ102は、撮影
して得た輝度情報を輝度値メモリ121に記憶し、撮影
パターンをパターン画像メモリ122に記憶する。第3
のカメラ103は、同様に、輝度情報を輝度値メモリ1
23に記憶し、撮影パターンをパターン画像メモリ12
4に記憶する。第1のカメラ101は、輝度情報を輝度
値メモリ125に記憶し、撮影パターンをパターン画像
メモリ126に記憶する。投光器104は、事前に作成
したコード化されたパターンを後に参照する為に、各ス
リットを正方格子上のセルに分割してフレームメモリ1
27に格納している。The configuration of the three-dimensional shape measuring apparatus will be described with reference to FIG. As shown in the drawing, the second camera 102 stores luminance information obtained by photographing in a luminance value memory 121 and stores a photographing pattern in a pattern image memory 122. Third
The camera 103 similarly stores the luminance information in the luminance value memory 1
23, and stores the photographing pattern in the pattern image memory 12.
4 is stored. The first camera 101 stores the luminance information in the luminance value memory 125 and stores the photographing pattern in the pattern image memory 126. The projector 104 divides each slit into cells on a square lattice to divide the slit into cells on a square lattice in order to refer to a coded pattern created in advance.
27.
【0035】この記憶保持された撮影パターンおよび輝
度情報を用いて、次のようにして3次元画像を得る。以
下の操作は、第2のカメラ102と第1のカメラ101
の組み合わせ、第3のカメラ103と第1のカメラ10
1の組み合わせの双方に共通なので、ここでは第2のカ
メラ102と第1のカメラ101の組み合わせを例にと
って説明する。Using the stored photographing pattern and luminance information, a three-dimensional image is obtained as follows. The following operation is performed by the second camera 102 and the first camera 101
, The third camera 103 and the first camera 10
Here, the combination of the second camera 102 and the first camera 101 will be described as an example.
【0036】図1において、領域分割部128は、第1
のカメラ101で撮影された撮影パターンの領域分割を
行う。そして、隣り合うスリットパターン間の強度差が
閾値以下である領域については投光器からの光が届いて
ない領域1として抽出し、スリットパターン間の強度差
が閾値以上である領域については領域2として抽出す
る。再コード化部129は、抽出された領域2につい
て、パターン画像メモリ126に記憶された撮影パター
ンとフレームメモリ127に格納された投影パターンを
用いて再コード化を行う。In FIG. 1, the area dividing unit 128
The region division of the photographing pattern photographed by the camera 101 is performed. Then, an area where the intensity difference between adjacent slit patterns is equal to or less than the threshold is extracted as an area 1 where light from the projector does not reach, and an area where the intensity difference between the slit patterns is equal to or more than the threshold is extracted as an area 2. I do. The re-coding unit 129 re-codes the extracted area 2 using the photographing pattern stored in the pattern image memory 126 and the projection pattern stored in the frame memory 127.
【0037】図4は、再コード化を行う際のフローチャ
ートである。まず、各スリットパターンをスリット幅毎
に縦方向に分割し(ステップS11)、正方形のセルを
生成する。生成された各セルについて強度の平均値をと
り、平均値を各セルの強度とする(ステップS12)。
画像の中心から順に、投影パターン及び撮影パターンの
対応する各セル間の強度を比較し、対象物の反射率、対
象物までの距離などの要因によってパターンが変化した
ためにセル間の強度が閾値以上異なるかどうかを判断す
る(ステップS13)。閾値以上異ならない場合は、撮
影されたすべてのセルについて再コード化を終了する
(ステップS17)。FIG. 4 is a flowchart when recoding is performed. First, each slit pattern is divided in the vertical direction for each slit width (step S11) to generate a square cell. An average value of the intensity is obtained for each of the generated cells, and the average value is set as the intensity of each cell (step S12).
In order from the center of the image, the intensity between each corresponding cell of the projection pattern and the photographing pattern is compared, and the intensity between the cells is equal to or greater than the threshold because the pattern has changed due to factors such as the reflectance of the object and the distance to the object. It is determined whether they are different (step S13). If the difference does not exceed the threshold value, the re-encoding ends for all the photographed cells (step S17).
【0038】閾値以上異なる場合は、新たな強度のセル
かどうか判断する(ステップS14)。そして、新たな
強度のセルのときは、新たなコードの生成、割り付けを
行う(ステップS15)。また、新たな強度のセルでな
いときは、他の部位のスリットパターンの並びを用いて
コード化する(ステップS16)。これで、再コード化
を終了する(ステップS17)。If the difference is not less than the threshold value, it is determined whether or not the cell has a new strength (step S14). If the cell has a new strength, a new code is generated and assigned (step S15). If the cell is not of a new strength, the cell is coded using the arrangement of the slit patterns of other parts (step S16). This ends the re-coding (step S17).
【0039】図5はスリットパターンのコード化の例を
示すもので、同図(a)はスリットの並びによってコー
ド化された投影パターンであり、強度としてそれぞれ3
(強)、2(中)、1(弱)が割り当てられている。同
図(b)においては、左から3つめのセルで強度が変化
して新たなコードが出現したので、新たに0というコー
ドを割り当てている。同図(c)においては、左から3
つめ上から2つめのセルに既存のコードが出現している
ので、セルの並びから新たなコードとして、縦の並びを
[232]、横の並びを[131]という具合に再コー
ド化する。この再コード化は、対象の形状が変化に富む
部位には2次元パターンなどの複雑なパターンを投光
し、変化の少ない部位には簡単なパターンを投光してい
るのに等しい。この過程を繰り返し、全てのセルに対し
て一意なコードを割り付けることで再コード化を行う。FIG. 5 shows an example of coding of the slit pattern. FIG. 5A shows a projection pattern coded by the arrangement of the slits.
(Strong), 2 (medium), and 1 (weak) are assigned. In FIG. 6B, a code 0 is newly assigned because the intensity has changed in the third cell from the left and a new code has appeared. In the same figure (c), 3 from the left
Since an existing code appears in the second cell from the top, the code is recoded as a new code from the cell arrangement, such as [232] in the vertical arrangement and [131] in the horizontal arrangement. This recoding is equivalent to projecting a complicated pattern such as a two-dimensional pattern onto a portion where the shape of the object is rich in change, and projecting a simple pattern onto a portion where the shape changes little. This process is repeated, and re-encoding is performed by assigning a unique code to all cells.
【0040】図6は、カメラ601〜603および投光
器604を用いて、壁605の前に配置された板606
にコード化されたパターンを投光する例を示す。ここで
コード化されたパターンは、図7に示すスリットパター
ンである。このとき、カメラ601、カメラ602で得
られる画像は、図8及び図9に示すように、それぞれ板
606の影となる領域801、901が生ずる。本例で
は、板606の表面には新たにコード化されたパターン
として、図10に示すようなスリットパターンが得られ
る。FIG. 6 shows a plate 606 disposed in front of a wall 605 by using cameras 601 to 603 and a projector 604.
Shows an example of projecting a coded pattern. The coded pattern is the slit pattern shown in FIG. At this time, in the images obtained by the cameras 601 and 602, as shown in FIGS. 8 and 9, regions 801 and 901 which are shadows of the plate 606 are generated. In this example, a slit pattern as shown in FIG. 10 is obtained as a newly coded pattern on the surface of the plate 606.
【0041】次に図1に戻って説明する。第2のカメラ
102側のコード復号部130は、パターン画像メモリ
122から投影パターンを抽出し、上述と同様にしてセ
ルに分割する。そして、先に再コード化部129で再コ
ード化されたコードを用いて各セルのコードを検出し、
この検出したコードに基づいて光源からのスリット角θ
を算出する。図11は空間コード化における距離の算出
方法を示す図であり、各画素の属するセルのスリット角
θと第2のカメラで撮影された画像上のx座標とカメラ
パラメータである焦点距離Fと基線長Lとから、次の式
(1)によって距離Zを算出する。Next, returning to FIG. The code decoding section 130 of the second camera 102 extracts the projection pattern from the pattern image memory 122 and divides it into cells in the same manner as described above. Then, the code of each cell is detected using the code re-coded by the re-coding unit 129 first,
Based on the detected code, the slit angle θ from the light source
Is calculated. FIG. 11 is a view showing a method of calculating a distance in the spatial coding. The slit angle θ of the cell to which each pixel belongs, the x coordinate on the image taken by the second camera, the focal length F which is a camera parameter, and the base line From the length L, the distance Z is calculated by the following equation (1).
【0042】[0042]
【数1】 Z=(F×L)/(x+F×tanθ) …(1)Z = (F × L) / (x + F × tan θ) (1)
【0043】この距離Zの算出は、第3のカメラ103
側のコード復号部131においても、同様に行われる。The distance Z is calculated by the third camera 103
The same applies to the code decoding unit 131 on the side.
【0044】また、上述の領域1については次のように
して距離を算出する。領域1では、投光されたパターン
によるパターン検出は行うことができないので、対応点
探索部132において、カメラ1〜3の輝度値メモリ1
21、123、125から読み出された輝度情報を用い
て視差を検出し、これに基づいて距離を算出する。領域
1を除く領域に対しては、前述の操作により距離が算出
されているので、領域1の距離の最小値が得られ、また
対応づけ可能な画素も限定される。これらの制限を用い
て、画素間の対応づけを行い視差dを検出し、カメラパ
ラメータである画素サイズλを用いて、次の式(2)に
よって距離Zを算出する。The distance for the above-mentioned area 1 is calculated as follows. In the area 1, pattern detection cannot be performed based on the projected pattern.
The parallax is detected using the luminance information read out from 21, 123, and 125, and the distance is calculated based on the parallax. Since the distance has been calculated by the above-described operation for the region other than the region 1, the minimum value of the distance of the region 1 is obtained, and the pixels that can be associated are also limited. Using these restrictions, correspondence between pixels is detected to detect parallax d, and a distance Z is calculated by the following equation (2) using a pixel size λ as a camera parameter.
【0045】[0045]
【数2】Z=(L×F)/(λ×d)…(2)## EQU2 ## Z = (L × F) / (λ × d) (2)
【0046】前述の手法で第1のカメラ101と第3の
カメラ103の組み合わせによって得られた距離情報で
は、図8に示す板の影となる領域801の距離情報が検
出できない。一方、第1のカメラ101と第2のカメラ
102の組み合わせによって得られた距離情報では、図
9に示す板の影となる領域901の距離情報が検出でき
ない。すなわち、これらの影領域は、板に遮られて光が
届かない領域であり、本方式では計測できない。従って
影以外の領域について、距離情報を求める。すなわち、
図1の距離情報統合部133において、第1のカメラ1
01と第2のカメラ102の組で算出された距離情報お
よび第1のカメラ101と第3のカメラ103で算出さ
れた距離情報から、第1のカメラ101の画像(図1
2)のすべての画素、すなわち影以外の画素に対する距
離情報を取得する。以上の操作によって得られた距離情
報を、例えば第1のカメラ101の輝度画像に対応づけ
て3次元画像メモリに記憶することで3次元画像撮像を
行う。The distance information obtained by the combination of the first camera 101 and the third camera 103 by the above-described method cannot detect the distance information of the shadow area 801 of the plate shown in FIG. On the other hand, the distance information obtained by the combination of the first camera 101 and the second camera 102 cannot detect the distance information of the shadow area 901 of the plate shown in FIG. That is, these shadow areas are areas that are blocked by the plate and light does not reach, and cannot be measured by this method. Therefore, distance information is obtained for a region other than the shadow. That is,
In the distance information integration unit 133 in FIG.
An image of the first camera 101 (FIG. 1) is obtained from the distance information calculated by the set of the first camera 101 and the second camera 102 and the distance information calculated by the first camera 101 and the third camera 103.
The distance information for all the pixels in 2), that is, the pixels other than the shadow is acquired. The distance information obtained by the above operation is stored in a three-dimensional image memory in association with, for example, the luminance image of the first camera 101, thereby capturing a three-dimensional image.
【0047】本発明の3次元画像撮像装置の一実施例構
成において、図1の投光器104と、投光器と光学的に
同軸上の第1のカメラである第1のカメラ101は、同
一の光学系と同一の筐体からなり、同一半導体基板上の
発光素子と受光素子を用いて構成される。In one embodiment of the three-dimensional image pickup apparatus of the present invention, the light projector 104 of FIG. 1 and the first camera 101, which is the first camera optically coaxial with the light projector, have the same optical system. And a light-emitting element and a light-receiving element on the same semiconductor substrate.
【0048】投光器104は半導体チップから投光し、
第1のカメラ103は同じ半導体チップで撮影する。ま
たこの半導体チップ上で、あるアドレスの発光素子と同
じアドレスの受光素子が、1つの画素内に、隣接して形
成される。さらに、投光器104と第1のカメラ103
は、同一の光学系を用い、同一の筐体に収納されてい
る。本構成によって本実施例では、投光器の画角と、第
1のカメラの画角は、その1画素の寸法以内の精度で、
一致する。The light emitter 104 emits light from the semiconductor chip,
The first camera 103 shoots with the same semiconductor chip. On this semiconductor chip, a light receiving element having the same address as a light emitting element having a certain address is formed adjacent to one pixel. Further, the projector 104 and the first camera 103
Are housed in the same housing using the same optical system. With this configuration, in this embodiment, the angle of view of the projector and the angle of view of the first camera are within the accuracy of one pixel.
Matches.
【0049】図13は、投光器と、投光器と同軸に配置
された撮像素子としてのカメラを構成する半導体チップ
の第1の実施例の画素の断面構造図である。FIG. 13 is a sectional structural view of a pixel of a first embodiment of a semiconductor chip constituting a camera as an image sensor arranged coaxially with the light projector.
【0050】本実施例では、投光器の発光素子アレイ
と、投光器と同軸に配置された撮像素子としてのカメラ
の受光素子アレイを、1つの半導体チップ上に形成す
る。さらに、発光素子と受光素子のペアを1つの画素と
し、この画素を複数個、2次元アレイ状に配列する。図
13は半導体チップ上に形成された画素1つを示す断面
構造図である。In this embodiment, a light emitting element array of a light projector and a light receiving element array of a camera as an image pickup element arranged coaxially with the light projector are formed on one semiconductor chip. Further, a pair of the light emitting element and the light receiving element is defined as one pixel, and a plurality of the pixels are arranged in a two-dimensional array. FIG. 13 is a sectional structural view showing one pixel formed on a semiconductor chip.
【0051】図13の構造を説明する。まず発光素子
は、公知の面発光レーザー素子(VCSEL:Vert
ical−Cavity Surface−Emitt
ingLASAR)1101により形成する。受光素子
は、公知のフォトダイオード(PD:Photo Di
ode)1102により形成する。The structure shown in FIG. 13 will be described. First, a light emitting element is a known surface emitting laser element (VCSEL: Vert).
ical-Cavity Surface-Emitt
ingLASAR) 1101. The light receiving element is a known photodiode (PD: Photo Di).
mode) 1102.
【0052】本構成を持つ半導体チップの製造方法を説
明する。まずGaAs基板1104上に、AlGaAs
とGaAsを周期的に結晶成長させ、所望の波長の共振
器である、分布ブラッグ反射器(DBR:Distri
buted Bragg Reflector)110
3を形成する。その上に活性層1111を設け、さらに
その上に上側のDBR1103を周期的に成長形成す
る。その後メサエッチ技術により、面発光レーザー素子
(VCSEL)1101と、フォトダイオード(PD)
1102を形成する。その後、絶縁膜1105による表
面パッシベーション、配線1106の形成を行なって、
素子を完成する。A method for manufacturing a semiconductor chip having this configuration will be described. First, AlGaAs is formed on a GaAs substrate 1104.
And GaAs are periodically crystal-grown, and a distributed Bragg reflector (DBR: Distri) is a resonator having a desired wavelength.
butted Bragg Reflector) 110
Form 3 An active layer 1111 is provided thereon, and an upper DBR 1103 is periodically grown thereon. After that, the surface emitting laser element (VCSEL) 1101 and the photodiode (PD) are formed by the mesa etching technique.
Form 1102. After that, surface passivation with the insulating film 1105 and formation of the wiring 1106 are performed.
Complete the device.
【0053】図14は、図13に示す構造を持つ半導体
チップの回路構成図である。面発光レーザー素子(VC
SEL)1101と、フォトダイオード(PD)110
2のペアが、2次元に配列されている。フォトダイオー
ド(PD)1102に対しては、通常の固体撮像素子と
同様に、FET1201を用いた読み出し回路が、画素
1200ごとに設けられている。FIG. 14 is a circuit diagram of a semiconductor chip having the structure shown in FIG. Surface emitting laser device (VC
SEL) 1101 and photodiode (PD) 110
Two pairs are two-dimensionally arranged. For the photodiode (PD) 1102, a readout circuit using an FET 1201 is provided for each pixel 1200, as in a normal solid-state imaging device.
【0054】まず面発光レーザー素子(VCSEL)1
101については、行アドレスパルス[ΦLDrowi
(i=1,2,…,m)]と、列アドレスパルス[ΦL
Dcolumnj(j=1,2,…,n)]によって、
所望の画素に駆動電流パルスが印加される。これによっ
て所望の画素1200から、面発光レーザー素子(VC
SEL)1101の発光が行なわれる。First, a surface emitting laser element (VCSEL) 1
For 101, the row address pulse [ΦLDRowi
(I = 1, 2,..., M)] and a column address pulse [ΦL
Dcolumnnj (j = 1, 2,..., N)]
A drive current pulse is applied to a desired pixel. As a result, a desired pixel 1200 can be moved from a surface emitting laser element (VC
SEL) 1101 is emitted.
【0055】フォトダイオード(PD)1102を含む
受光部では、公知の固体撮像素子と同様に、読出し、リ
セット、受光が行なわれる。まず各画素の読み出しは、
行アドレスパルス[ΦPDrowi(i=1,2,…,
m)]と、列アドレスパルス[ΦPDcolumnj
(j=1,2,…,n)]によって、所望の画素が選択
され、画素の電荷が読み出される。読み出し電荷は、読
み出し線[VPDoutj(j=1,2,…,n)]を
通じて取り出される。In the light receiving section including the photodiode (PD) 1102, reading, resetting, and light receiving are performed in the same manner as in a known solid-state imaging device. First, reading of each pixel
Row address pulse [ΦPDrowi (i = 1, 2,...,
m)] and a column address pulse [ΦPDcolumnj].
(J = 1, 2,..., N)], a desired pixel is selected, and the charge of the pixel is read. The read charge is taken out through a read line [VPOutj (j = 1, 2,..., N)].
【0056】この電荷による信号をアナログ増幅器12
02に導き、出力電圧を得る。次に所望のタイミングで
各画素をリセットする。リセット動作は、リセットパル
ス[ΦPDreseti(i=1,2,…,m)]をオ
ンし、フォトダイオード(PD)1102を、リセット
電圧[VPDreset]に接続する。The signal based on this charge is converted to an analog amplifier 12
02 to obtain an output voltage. Next, each pixel is reset at a desired timing. In the reset operation, the reset pulse [ΦPDreseti (i = 1, 2,..., M)] is turned on, and the photodiode (PD) 1102 is connected to the reset voltage [VPDreset].
【0057】以上のタイミングを制御する各パルスは、
垂直スキャナ回路1203と、水平スキャナ回路120
4で生成、印加される。Each pulse for controlling the above timing is as follows.
Vertical scanner circuit 1203 and horizontal scanner circuit 120
Generated and applied at 4.
【0058】上述のように、本実施例では、投光器は上
記の半導体チップにおける面発光レーザー素子(VCS
EL)1101から投光し、第1のカメラは同じ半導体
チップのフォトダイオード(PD)1102を含む受光
部で撮影する。上述のようにこの半導体チップ上で、あ
るアドレスの発光素子と同じアドレスの受光素子が、1
つの画素内に、隣接して形成されており、投光器の画角
と、第1のカメラの画角は、その1画素の寸法以内の精
度で、一致する。As described above, in this embodiment, the light projector is a surface emitting laser element (VCS) in the semiconductor chip.
EL) 1101, and the first camera captures an image with a light receiving unit including a photodiode (PD) 1102 of the same semiconductor chip. As described above, on this semiconductor chip, the light receiving element of the same address as the light emitting element of a certain address is 1
Adjacent to one pixel, the angle of view of the projector and the angle of view of the first camera coincide with the accuracy of the size of the one pixel.
【0059】従って、投光器と、同一光軸上に配置され
た第1のカメラの画角がほぼ同じとなり、第1のカメラ
で撮影した像で、物体の前後の不連続部分すなわちエッ
ジ部において、細い陰の映像が発生することがない。陰
の映像は、前述したように、その幅が、第1のカメラの
解像度の寸法よりも大きいときに、問題となる。第1の
カメラの撮像素子の表面上に投影された映像において、
陰の映像の幅が撮像素子の画素の寸法よりも大きいとき
に映像として発生し、エラーを引き起こす。しかし、本
発明の構成においては、半導体チップ上で、あるアドレ
スの発光素子と同じアドレスの受光素子が1つの画素内
に隣接して形成されており、投光器の画角と、第1のカ
メラの画角は、その1画素の寸法以内の精度で一致する
ので、陰の映像による帯状のパターンが発生することが
防止され、再コード化の際の新たなエラーコードの発生
を防止でき、正確な再コード化処理による正確な距離デ
ータの算出が可能となる。Therefore, the angle of view of the projector and the first camera arranged on the same optical axis are substantially the same, and in the image taken by the first camera, at the discontinuous portion before and after the object, that is, at the edge portion, There is no thin shadow image. The shadow image is problematic when its width is greater than the resolution dimension of the first camera, as described above. In the image projected on the surface of the imaging device of the first camera,
It occurs as an image when the width of the shadow image is larger than the size of the pixel of the image sensor, and causes an error. However, in the configuration of the present invention, the light receiving element of the same address as the light emitting element of a certain address is formed adjacent to one pixel on the semiconductor chip, and the angle of view of the projector and the angle of view of the first camera are determined. Since the angle of view coincides with the precision within the dimension of one pixel, it is possible to prevent a band-like pattern due to a shadow image from being generated, to prevent a new error code from being generated at the time of recoding, and to obtain an accurate image. Accurate distance data can be calculated by the re-coding process.
【0060】図15は、第2の実施例の半導体チップ構
成を示す画素部分の断面構造図である。図15において
発光素子は、第1の実施例と同様の面発光レーザー素子
(VCSEL)1101である。発光素子の製作は、第
1の実施例と同様に、GaAs基板1104上に、Al
GaAsとGaAsを周期的に堆積して成長させ、下側
のDBR1103を形成する。その上に活性層1111
を成長し、さらにその上に上側のDBR1103を形成
する。その後メサエッチ技術により、面発光レーザー素
子(VCSEL)1101を分離形成する。その後、絶
縁膜1105による表面パッシベーション、配線110
6の形成を行なって完成する。FIG. 15 is a sectional structural view of a pixel portion showing the configuration of the semiconductor chip of the second embodiment. In FIG. 15, the light emitting element is a surface emitting laser element (VCSEL) 1101 similar to that of the first embodiment. As in the first embodiment, the light emitting device is manufactured by forming an Al layer on a GaAs substrate 1104.
GaAs and GaAs are periodically deposited and grown to form a lower DBR 1103. An active layer 1111 is formed thereon.
And an upper DBR 1103 is formed thereon. After that, a surface emitting laser element (VCSEL) 1101 is separately formed by a mesa etching technique. After that, surface passivation by the insulating film 1105 and wiring 110
6 is completed.
【0061】図15において受光素子は、Siデバイス
による、公知のフォトゲート(PG:Photo Ga
te)1301と、公知のCCD(Charge Co
upled Device)1302によって構成され
る。フォトゲート(PG)1301の下に生成した光電
荷(図中、黒丸で示す)を、CCD1302を用いて転
送するものである。In FIG. 15, the light receiving element is a known photogate (PG: PhotoGa) made of a Si device.
te) 1301 and a known CCD (Charge Co.)
(device) 1302. Photocharges (indicated by black circles in the figure) generated below the photogate (PG) 1301 are transferred using the CCD 1302.
【0062】図15では代表例として、Siウエハ上
の、絶縁膜1304、およびその上の、ポリシリコンに
よる電極1305を示した。しかしその他にも、埋込み
拡散チャネル、多重ポリシリコン電極など、公知の種々
のCCD構造を用いることができる。受光素子の製作
は、周知のシリコン半導体製造技術を用いて、Si基板
上にフォトゲート(PG)1301とCCD1302を
形成する。FIG. 15 shows, as a representative example, an insulating film 1304 on a Si wafer and an electrode 1305 made of polysilicon thereon. However, in addition, various known CCD structures such as a buried diffusion channel and multiple polysilicon electrodes can be used. To manufacture the light receiving element, a photo gate (PG) 1301 and a CCD 1302 are formed on a Si substrate by using a well-known silicon semiconductor manufacturing technique.
【0063】つぎに、発光素子と受光素子の、1チップ
化を行なう。まず上記のSi基板の裏面を研磨して薄く
し、Si貼り合せウエハ1303を形成する。つぎに、
あとでレーザー素子(VCSEL)1101が配置され
る領域を、エッチングによって除去し、Si貼り合せウ
エハ1303上の、開口1310を形成する。つぎにS
i貼り合せウエハ1303を、ポリイミド1306を接
着剤として、公知のウエハ貼り合わせ技術によって、G
aAs基板1104上に貼り合せる。このとき開口13
10の位置と、レーザー素子(VCSEL)1101の
位置を、合わせるようにする。このようにして図15の
半導体チップ構造を得る。Next, the light emitting element and the light receiving element are integrated into one chip. First, the back surface of the above-mentioned Si substrate is polished and thinned to form a Si bonded wafer 1303. Next,
After that, the region where the laser element (VCSEL) 1101 is to be disposed is removed by etching to form an opening 1310 on the Si bonded wafer 1303. Then S
The i-bonded wafer 1303 is formed by a known wafer bonding technique using polyimide 1306 as an adhesive.
It is bonded on the aAs substrate 1104. At this time, the opening 13
The position of 10 and the position of the laser element (VCSEL) 1101 are matched. Thus, the semiconductor chip structure shown in FIG. 15 is obtained.
【0064】図16は、図15に示す構造を持つ半導体
チップの平面構造図である。図16において、レーザー
素子(VCSEL)1101とフォトゲート(PG)1
301の1対のペアが、1画素を構成する。フォトゲー
ト(PG)1301の縦列に沿って、垂直CCD140
1が設けられ、各フォトゲート(PG)1301から取
り出した電荷を、図の下方に向けて順次転送する。図の
最下段には、水平CCD1402を設け、各列の垂直C
CD1401から受け取った電荷を、図の左方向に転送
する。チップ端において、公知のフローティングディフ
ュージョン(FD:(Floating Diffus
ion)1403と、アナログ増幅器1404を用いて
出力電圧に変換し、この電圧を出力部1405から読み
出す。FIG. 16 is a plan view of a semiconductor chip having the structure shown in FIG. In FIG. 16, a laser element (VCSEL) 1101 and a photo gate (PG) 1
One pair of 301 constitutes one pixel. Along vertical columns of photo gates (PG) 1301, vertical CCDs 140
1 is provided, and charges taken out from each photo gate (PG) 1301 are sequentially transferred downward in the figure. At the bottom of the figure, a horizontal CCD 1402 is provided, and a vertical CCD of each column is provided.
The charge received from the CD 1401 is transferred to the left in the figure. At the chip end, a known floating diffusion (FD: (Floating Diffus)
ion) 1403 and an analog amplifier 1404 are used to convert the voltage into an output voltage, and this voltage is read from the output unit 1405.
【0065】以上のように本実施例においても、上記の
半導体チップから投光し、同じ半導体チップで撮影す
る。また投光器と第1のカメラは、同一の光学系を用
い、同一の筐体に収納される。このため投光器の画角
と、第1のカメラの画角は、その画素の寸法以内の精度
で、一致する。As described above, also in the present embodiment, light is projected from the above-mentioned semiconductor chip, and an image is taken with the same semiconductor chip. The projector and the first camera use the same optical system and are housed in the same housing. For this reason, the angle of view of the projector and the angle of view of the first camera coincide with an accuracy within the size of the pixel.
【0066】従って、投光器と、同一光軸上に配置され
た第1のカメラの画角がほぼ同じとなり、第1のカメラ
で撮影した像で、物体の前後の不連続部分すなわちエッ
ジ部において、細い陰の映像が発生することがない。陰
の映像は、前述したように、その幅が、第1のカメラの
解像度の寸法よりも大きいときに、問題となる。第1の
カメラの撮像素子の表面上に投影された映像において、
陰の映像の幅が撮像素子の画素の寸法よりも大きいとき
に映像として発生し、エラーを引き起こす。しかし、本
発明の構成においては、半導体チップ上で、あるアドレ
スの発光素子と同じアドレスの受光素子が1つの画素内
に隣接して形成されており、投光器の画角と、第1のカ
メラの画角は、その1画素の寸法以内の精度で一致する
ので、陰の映像による帯状のパターンが発生することが
防止され、再コード化の際の新たなエラーコードの発生
を防止でき、正確な再コード化処理による正確な距離デ
ータの算出が可能となる。Accordingly, the angle of view of the projector and the first camera arranged on the same optical axis are substantially the same, and in the image taken by the first camera, at the discontinuous portion before and after the object, that is, at the edge portion, There is no thin shadow image. The shadow image is problematic when its width is greater than the resolution dimension of the first camera, as described above. In the image projected on the surface of the imaging device of the first camera,
It occurs as an image when the width of the shadow image is larger than the size of the pixel of the image sensor, and causes an error. However, in the configuration of the present invention, the light receiving element of the same address as the light emitting element of a certain address is formed adjacent to one pixel on the semiconductor chip, and the angle of view of the projector and the angle of view of the first camera are determined. Since the angle of view coincides with the precision within the dimension of one pixel, it is possible to prevent a band-like pattern due to a shadow image from being generated, to prevent a new error code from being generated at the time of recoding, and to obtain an accurate image. Accurate distance data can be calculated by the re-coding process.
【0067】以上、特定の実施例を参照しながら、本発
明について詳解してきた。しかしながら、本発明の要旨
を逸脱しない範囲で当業者が該実施例の修正や代用を成
し得ることは自明である。すなわち、例示という形態で
本発明を開示してきたのであり、限定的に解釈されるべ
きではない。本発明の要旨を判断するためには、冒頭に
記載した特許請求の範囲の欄を参酌すべきである。The present invention has been described in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiment without departing from the spirit of the present invention. That is, the present invention has been disclosed by way of example, and should not be construed as limiting. In order to determine the gist of the present invention, the claims described at the beginning should be considered.
【0068】[0068]
【発明の効果】上述したように、この発明によれば、半
導体チップ上に各画素毎の発光素子と受光素子とを隣接
して形成し、3次元形状計測用の投光パターンを半導体
チップ上の発光素子によって投影し、光学的に同軸上の
パターン像撮像カメラを半導体チップ上の受光素子によ
って実現する構成としたので、投光器の画角と、第1の
カメラの画角が、その画素の寸法以内の精度で一致す
る。従って、対象物体に前後の不連続があっても、第1
のカメラで撮影した像において細い陰の映像を発生する
ことがない。その結果、再コード化手法を適用した3次
元画像撮像装置において、投影パターンに対応した再コ
ード化の精度を大幅に向上することができる。従って、
対象物体の前後方向の段差がある場合においても、大幅
に高精度化された3次元画像撮像装置が得られる。As described above, according to the present invention, a light emitting element and a light receiving element for each pixel are formed adjacent to each other on a semiconductor chip, and a light emitting pattern for three-dimensional shape measurement is formed on the semiconductor chip. And the optical image is captured by a light-receiving element on the semiconductor chip, so that the angle of view of the projector and the angle of view of the first camera are Match with accuracy within dimensions. Therefore, even if the target object has a discontinuity before and after,
There is no generation of a fine shadow image in an image taken by another camera. As a result, in the three-dimensional image capturing apparatus to which the recoding method is applied, the accuracy of recoding corresponding to the projection pattern can be significantly improved. Therefore,
Even in the case where there is a step in the front-back direction of the target object, a three-dimensional image pickup apparatus with greatly improved accuracy can be obtained.
【図1】本発明の3次元画像撮像装置の構成例を示すブ
ロック図である。FIG. 1 is a block diagram illustrating a configuration example of a three-dimensional image capturing apparatus according to the present invention.
【図2】本発明の3次元画像撮像装置のカメラ構成例を
示す図である。FIG. 2 is a diagram illustrating a camera configuration example of a three-dimensional image capturing apparatus according to the present invention.
【図3】本発明の3次元画像撮像装置の撮像構成を説明
する図である。FIG. 3 is a diagram illustrating an imaging configuration of the three-dimensional image imaging device of the present invention.
【図4】本発明の3次元画像撮像装置の処理フローを示
す図である。FIG. 4 is a diagram showing a processing flow of the three-dimensional image capturing apparatus of the present invention.
【図5】本発明の3次元画像撮像装置の投影パターンの
コード化の例を示す図である。FIG. 5 is a diagram illustrating an example of coding of a projection pattern of the three-dimensional image capturing apparatus of the present invention.
【図6】本発明の3次元画像撮像装置の撮影構成例を示
す図である。FIG. 6 is a diagram showing an example of a photographing configuration of the three-dimensional image pickup device of the present invention.
【図7】本発明の3次元画像撮像装置の投影パターン例
を示す図である。FIG. 7 is a diagram showing an example of a projection pattern of the three-dimensional image pickup device of the present invention.
【図8】本発明の3次元画像撮像装置の第3のカメラ1
03で撮影されるスリットパターンの例を示す図であ
る。FIG. 8 shows a third camera 1 of the three-dimensional image pickup apparatus of the present invention.
It is a figure which shows the example of the slit pattern image | photographed by 03.
【図9】本発明の3次元画像撮像装置の第2のカメラ1
02で撮影されるスリットパターンの例を示す図であ
る。FIG. 9 shows a second camera 1 of the three-dimensional image pickup apparatus of the present invention.
It is a figure which shows the example of the slit pattern image | photographed by 02.
【図10】本発明の3次元画像撮像装置において新たに
コード化されたスリットパターンの例を示す図である。FIG. 10 is a diagram showing an example of a newly coded slit pattern in the three-dimensional image pickup apparatus of the present invention.
【図11】本発明の3次元画像撮像装置の空間コード化
法による距離算出法を示す図である。FIG. 11 is a diagram illustrating a distance calculation method by a spatial coding method of the three-dimensional image capturing apparatus of the present invention.
【図12】本発明の3次元画像撮像装置の第1のカメラ
101で撮影されるスリットパターンの例を示す図であ
る。FIG. 12 is a diagram illustrating an example of a slit pattern captured by the first camera 101 of the three-dimensional image capturing apparatus according to the present invention.
【図13】本発明の3次元画像撮像装置の投光器と撮像
素子構成を示す第1の実施例の画素の断面構造図であ
る。FIG. 13 is a sectional structural view of a pixel of the first embodiment, showing a configuration of a light projector and an image sensor of the three-dimensional image capturing apparatus of the present invention.
【図14】本発明の3次元画像撮像装置の投光器と撮像
素子構成を示す第1の実施例の回路構成図である。FIG. 14 is a circuit configuration diagram of a first embodiment illustrating a configuration of a light projector and an image sensor of the three-dimensional image capturing apparatus of the present invention.
【図15】本発明の3次元画像撮像装置の投光器と撮像
素子構成を示す第2の実施例の画素の断面構造図であ
る。FIG. 15 is a sectional structural view of a pixel of a second embodiment showing the configuration of the light projector and the image sensor of the three-dimensional image capturing apparatus of the present invention.
【図16】本発明の3次元画像撮像装置の投光器と撮像
素子構成を示す第2の実施例の平面構造図である。FIG. 16 is a plan view showing a structure of a light emitting device and an image sensor of a three-dimensional image capturing apparatus according to a second embodiment of the present invention.
101 第1のカメラ 102 第2のカメラ 103 第3のカメラ 104 投光器 105 ハーフミラー 106 光源 107 マスクパターン 108 強度パターン 109 プリズム 121,123,125 輝度値メモリ 122,124,126 パターン画像メモリ 127 フレームメモリ 128 領域分割部 129 再コード化部 130,131 コード復号部 133 距離情報の統合部 134 3次元画像メモリ 301 プリズム 303,305 撮像装置 601,602,603 カメラ 604 投光器 605 壁 606 板 801,901 影領域 1101 VCSEL(面発光レーザー) 1102 PD(フォトダイオード) 1103 DBR(分布ブラッグ反射器) 1104 GaAs基板 1105、1304 絶縁膜 1106 配線 1200 画素 1201 FET 1202、1404 アナログ増幅器 1203 垂直スキャナ回路 1204 水平スキャナ回路 1301 PG(フォトゲート) 1302 CCD 1303 Si貼り合わせウエハ 1305 電極 1306 ポリイミド 1401 垂直CCD 1402 水平CCD 1403 FD (フローティングディフュージョン) 1405 出力部 101 First Camera 102 Second Camera 103 Third Camera 104 Projector 105 Half Mirror 106 Light Source 107 Mask Pattern 108 Intensity Pattern 109 Prism 121, 123, 125 Luminance Value Memory 122, 124, 126 Pattern Image Memory 127 Frame Memory 128 Area dividing unit 129 Recoding unit 130, 131 Code decoding unit 133 Distance information integration unit 134 Three-dimensional image memory 301 Prism 303, 305 Imaging device 601, 602, 603 Camera 604 Projector 605 Wall 606 Plate 801, 901 Shadow region 1101 VCSEL (surface emitting laser) 1102 PD (photodiode) 1103 DBR (distributed Bragg reflector) 1104 GaAs substrate 1105, 1304 insulating film 1106 wiring 1200 image 1201 FET 1202,1404 analog amplifier 1203 vertical scanner circuit 1204 horizontal scanning circuit 1301 PG (photo-gate) 1302 CCD 1303 Si bonded wafer 1305 electrodes 1306 polyimide 1401 vertical CCD 1402 horizontal CCD 1403 FD (floating diffusion) 1405 Output section
───────────────────────────────────────────────────── フロントページの続き (72)発明者 伊與田 哲男 神奈川県足柄上郡中井町境430 グリーン テクなかい 富士ゼロックス株式会社内 Fターム(参考) 2F065 AA04 AA06 AA07 DD12 FF05 GG06 GG22 HH07 JJ03 JJ05 JJ07 JJ18 JJ26 LL22 LL46 PP22 QQ00 QQ24 2H059 AA08 5C061 AA06 AA21 AB04 AB12 AB21 BB03 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Tetsuo Iyoda 430 Sakai Nakai-cho, Ashigara-gun, Kanagawa Green Tech Naka Fuji Xerox Co., Ltd. F-term (reference) 2F065 AA04 AA06 AA07 DD12 FF05 GG06 GG22 HH07 JJ03 JJ05 JJ07 JJ18 JJ26 LL22LL46 PP22 QQ00 QQ24 2H059 AA08 5C061 AA06 AA21 AB04 AB12 AB21 BB03
Claims (10)
て投影したパターン画像を撮影した画像に基づいて計測
対象の距離情報を取得する3次元画像撮像装置におい
て、 コード化されたパターンを投影する投光器と、 前記投光器の光軸方向から前記投光器による投影パター
ンを撮影する第1のカメラと、 前記投光器の光軸方向と異なる方向から前記投影パター
ンを撮影する第2のカメラとを備え、 前記投影パターンに対する第1のカメラによる撮影パタ
ーンの変化量が所定値以上の領域について新たなコード
を割り付け、前記割り付けたコードを用いて第2のカメ
ラによる撮影パターンから第1の距離情報を生成し、第
1の距離情報および第1のカメラにより得られた輝度情
報に基づいて距離情報を取得する再コード化処理および
距離情報取得手段を有し、 前記投光器と、前記第1のカメラがほぼ同一の画角を有
する構成であることを特徴とする3次元画像撮像装置。1. A three-dimensional image capturing apparatus for acquiring distance information of a measurement target based on an image of a pattern image obtained by projecting a coded pattern onto a measurement target, wherein the coded pattern is projected. A light projector; a first camera for photographing a projection pattern by the light projector from an optical axis direction of the light projector; and a second camera for photographing the projection pattern from a direction different from the optical axis direction of the light projector. A new code is assigned to an area where the amount of change of the pattern taken by the first camera with respect to the pattern is equal to or greater than a predetermined value, and first distance information is generated from the pattern taken by the second camera using the assigned code. Re-encoding processing for acquiring distance information based on the first distance information and the luminance information obtained by the first camera, and the distance information A three-dimensional image pickup apparatus, comprising an acquisition unit, wherein the light projector and the first camera have substantially the same angle of view.
異は、前記第1のカメラの解像度サイズ以下であること
を特徴とする請求項1記載の3次元画像撮像装置。2. The three-dimensional image pickup device according to claim 1, wherein a difference in the angle of view between the light projector and the first camera is equal to or smaller than a resolution size of the first camera.
面発光素子により構成され、前記第1のカメラは半導体
基板上に形成された受光素子により構成された構成であ
ることを特徴とする請求項1記載の3次元画像撮像装
置。3. The projector according to claim 1, wherein the light emitter is formed by a surface light emitting element formed on a semiconductor substrate, and the first camera is formed by a light receiving element formed on the semiconductor substrate. The three-dimensional image pickup device according to claim 1.
面発光素子により構成され、前記第1のカメラは半導体
基板上に形成された受光素子により構成された構成であ
るとともに、前記面発光素子および受光素子は同一の半
導体基板上に形成されてなることを特徴とする請求項1
記載の3次元画像撮像装置。4. The light emitting device according to claim 1, wherein the light emitting device includes a surface light emitting device formed on a semiconductor substrate, and the first camera includes a light receiving device formed on the semiconductor substrate. 2. The device according to claim 1, wherein the element and the light receiving element are formed on the same semiconductor substrate.
A three-dimensional image capturing apparatus according to claim 1.
面発光素子により構成され、前記第1のカメラは半導体
基板上に形成された受光素子により構成された構成であ
るとともに、前記投光器の前記発光素子が形成された半
導体基板と、前記第1のカメラの前記受光素子が形成さ
れた半導体基板が、互いに接着されて一つの半導体基体
に形成されてなることを特徴とする請求項1記載の3次
元画像撮像装置。5. The projector according to claim 1, wherein the projector is configured by a surface light emitting element formed on a semiconductor substrate, and the first camera is configured by a light receiving element formed on the semiconductor substrate. The semiconductor substrate on which the light emitting element is formed and the semiconductor substrate on which the light receiving element of the first camera is formed are bonded to each other to form a single semiconductor substrate. Three-dimensional image pickup device.
面発光素子により構成され、前記第1のカメラは半導体
基板上に形成された受光素子により構成された構成であ
り、 前記面発光素子と前記受光素子の各々は隣接されて1組
の発光および受光素子の組を構成し、該発光および受光
素子の組がアレイ状に配置されて前記投光器と前記第1
のカメラを形成した構成であることを特徴とする請求項
1記載の3次元画像撮像装置。6. The surface light emitting device according to claim 6, wherein the light emitting device is configured by a surface light emitting element formed on a semiconductor substrate, and the first camera is configured by a light receiving element formed on the semiconductor substrate. And the light receiving elements are adjacent to each other to form a set of light emitting and light receiving elements. The light emitting and light receiving element sets are arranged in an array, and the light projector and the first light receiving element are arranged in an array.
The three-dimensional image pickup apparatus according to claim 1, wherein the three-dimensional image pickup apparatus is configured to have a camera.
て投影したパターン画像を撮影した画像に基づいて計測
対象の距離情報を取得する3次元画像撮像装置におい
て、 コード化されたパターンを投影する投光器と、 前記投光器の光軸方向から前記投光器による投影パター
ンを撮影する第1のカメラと、 前記投光器の光軸方向と異なる方向から前記投影パター
ンを撮影する第2のカメラとを備え、 前記投影パターンに対する第1のカメラによる撮影パタ
ーンの変化量が所定値以上の領域について新たなコード
を割り付け、前記割り付けたコードを用いて第2のカメ
ラによる撮影パターンから第1の距離情報を生成し、第
1の距離情報および第1のカメラにより得られた輝度情
報に基づいて距離情報を取得する再コード化処理および
距離情報取得手段を有し、 前記投光器と、前記第1のカメラが一体化した構成であ
ることを特徴とする3次元画像撮像装置。7. A three-dimensional image pickup apparatus for acquiring distance information of a measurement target based on an image of a pattern image obtained by projecting a coded pattern onto a measurement target, wherein the coded pattern is projected. A light projector; a first camera for photographing a projection pattern by the light projector from an optical axis direction of the light projector; and a second camera for photographing the projection pattern from a direction different from the optical axis direction of the light projector. A new code is assigned to an area where the amount of change of the pattern taken by the first camera with respect to the pattern is equal to or greater than a predetermined value, and first distance information is generated from the pattern taken by the second camera using the assigned code. Re-encoding processing for acquiring distance information based on the first distance information and the luminance information obtained by the first camera, and the distance information A three-dimensional image pickup apparatus, comprising: an acquisition unit, wherein the light projector and the first camera are integrated.
面発光素子により構成され、前記第1のカメラは半導体
基板上に形成された受光素子により構成された構成であ
るとともに、前記面発光素子および受光素子は同一の半
導体基板上に形成されてなることを特徴とする請求項7
記載の3次元画像撮像装置。8. The light emitting device according to claim 1, wherein the light emitting device comprises a surface light emitting element formed on a semiconductor substrate, and the first camera comprises a light receiving element formed on the semiconductor substrate. 8. The device according to claim 7, wherein the element and the light receiving element are formed on the same semiconductor substrate.
A three-dimensional image capturing apparatus according to claim 1.
面発光素子により構成され、前記第1のカメラは半導体
基板上に形成された受光素子により構成された構成であ
るとともに、前記投光器の前記発光素子が形成された半
導体基板と、前記第1のカメラの前記受光素子が形成さ
れた半導体基板が、互いに接着されて一つの半導体基体
に形成されてなることを特徴とする請求項7記載の3次
元画像撮像装置。9. The projector according to claim 1, wherein the projector is configured by a surface light emitting element formed on a semiconductor substrate, and the first camera is configured by a light receiving element formed on the semiconductor substrate. The semiconductor substrate on which the light-emitting element is formed and the semiconductor substrate on which the light-receiving element of the first camera is formed are adhered to each other to be formed on one semiconductor base. Three-dimensional image pickup device.
た面発光素子により構成され、前記第1のカメラは半導
体基板上に形成された受光素子により構成された構成で
あり、前記面発光素子と前記受光素子の各々は隣接され
て1組の発光および受光素子の組を構成し、該発光およ
び受光素子の組がアレイ状に配置されて前記投光器と前
記第1のカメラを形成した構成であることを特徴とする
請求項7記載の3次元画像撮像装置。10. The light emitting device according to claim 1, wherein the light emitting device comprises a surface light emitting device formed on a semiconductor substrate, and the first camera comprises a light receiving device formed on the semiconductor substrate. And each of the light receiving elements is adjacent to form a set of light emitting and light receiving elements, and the light emitting and light receiving element sets are arranged in an array to form the light projector and the first camera. 8. The three-dimensional image pickup device according to claim 7, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001009015A JP2002218505A (en) | 2001-01-17 | 2001-01-17 | Three-dimensional image pickup device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001009015A JP2002218505A (en) | 2001-01-17 | 2001-01-17 | Three-dimensional image pickup device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002218505A true JP2002218505A (en) | 2002-08-02 |
Family
ID=18876563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001009015A Pending JP2002218505A (en) | 2001-01-17 | 2001-01-17 | Three-dimensional image pickup device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002218505A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005090958A (en) * | 2003-08-12 | 2005-04-07 | Fuji Xerox Co Ltd | Three-dimensional imaging apparatus and method |
US7705886B2 (en) | 2004-03-19 | 2010-04-27 | Sony Corporation | Information processing apparatus and method, recording medium, program, and display device |
EP3184991A1 (en) | 2015-12-22 | 2017-06-28 | Ricoh Company, Ltd. | Optical sensor, optical examination device, and optical property detection method |
-
2001
- 2001-01-17 JP JP2001009015A patent/JP2002218505A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005090958A (en) * | 2003-08-12 | 2005-04-07 | Fuji Xerox Co Ltd | Three-dimensional imaging apparatus and method |
US7705886B2 (en) | 2004-03-19 | 2010-04-27 | Sony Corporation | Information processing apparatus and method, recording medium, program, and display device |
EP3184991A1 (en) | 2015-12-22 | 2017-06-28 | Ricoh Company, Ltd. | Optical sensor, optical examination device, and optical property detection method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11172186B2 (en) | Time-Of-Flight camera system | |
US7075625B2 (en) | Range finder and method | |
CN109791207B (en) | System and method for determining distance to an object | |
CN109596091B (en) | Distance measuring sensor | |
CN109791204B (en) | System for determining distance to an object | |
CN110325879B (en) | System and method for compressed three-dimensional depth sensing | |
US8134637B2 (en) | Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing | |
JP4485365B2 (en) | Ranging device | |
US9048153B2 (en) | Three-dimensional image sensor | |
US9383549B2 (en) | Imaging system | |
JP3482990B2 (en) | 3D image capturing device | |
WO2017158483A1 (en) | A vision sensor, a method of vision sensing, and a depth sensor assembly | |
WO2019076072A1 (en) | Optical distance measurement method and apparatus | |
JP6821028B2 (en) | Image pickup device and image data readout method | |
US20200033457A1 (en) | System for determining a distance to an object | |
US11902494B2 (en) | System and method for glint reduction | |
JPH095050A (en) | Three-dimensional image measuring apparatus | |
JP3384329B2 (en) | 3D image capturing device | |
JP2004110804A (en) | Three-dimensional image photographing equipment and method | |
JP3818028B2 (en) | 3D image capturing apparatus and 3D image capturing method | |
JP2002218505A (en) | Three-dimensional image pickup device | |
JP3852285B2 (en) | 3D shape measuring apparatus and 3D shape measuring method | |
JP2003090712A (en) | Three-dimensional image imaging device | |
JP2002013918A (en) | Three-dimensional image forming device and three- dimensional image forming method | |
JP2002015306A (en) | Three-dimensional image generating device and three- dimensional image generating method |