JP2002117403A - Image processor and image processing method - Google Patents
Image processor and image processing methodInfo
- Publication number
- JP2002117403A JP2002117403A JP2000306065A JP2000306065A JP2002117403A JP 2002117403 A JP2002117403 A JP 2002117403A JP 2000306065 A JP2000306065 A JP 2000306065A JP 2000306065 A JP2000306065 A JP 2000306065A JP 2002117403 A JP2002117403 A JP 2002117403A
- Authority
- JP
- Japan
- Prior art keywords
- image
- extraction
- luminance
- area
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、被写体の形状を計
測する画像処理装置および画像処理方法に関し、特に所
望物体を背景と共に撮像する画像処理装置に関し、特
に、所望物体領域を背景領域から抽出することが可能な
画像処理装置に関する。画像処理装置および画像処理方
法に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method for measuring the shape of a subject, and more particularly, to an image processing apparatus for imaging a desired object together with a background, and more particularly, to extract a desired object area from a background area. The present invention relates to an image processing apparatus capable of performing the above. The present invention relates to an image processing device and an image processing method.
【0002】[0002]
【従来の技術】背景をバックにして人物が撮影された
り、あるいは建物などが撮影された画像から人物のみ、
あるいは建物のみの画像を切り出すいわゆる画像セグメ
ンテーション手法が様々な分野で利用されている。2. Description of the Related Art A person is photographed with a background as a background, or only a person is taken from an image of a building or the like.
Alternatively, a so-called image segmentation method of cutting out an image of only a building is used in various fields.
【0003】物体と背景とを含む画像から物体領域のみ
を抽出する従来技術として、例えば以下の方法が知られ
ている。第1の方法としては、補助ツールを用いて手動
で特定の対象物の切り抜き処理を行う手法があり、具体
的には、人がマウスを用いて、所望物体を背景と共に撮
像して得られた画像中の背景部分を選択し、その背景部
分を消して物体領域を得る方法である。As a conventional technique for extracting only an object region from an image including an object and a background, for example, the following method is known. As a first method, there is a method of manually performing a clipping process of a specific target object using an auxiliary tool. Specifically, a method is used in which a desired object is imaged together with a background using a mouse. In this method, a background portion in an image is selected, and the background portion is erased to obtain an object region.
【0004】第2の方法としては、クロマキー技術を用
いたものがあり、具体的には、所望物体を背景と共に撮
像して得られた画像から背景の色をキーとして領域分割
し、物体領域を抽出する方法である。As a second method, there is a method using a chroma key technique. Specifically, a desired object is imaged together with the background, and the image is obtained by dividing the area using the color of the background as a key, and the object area is divided. It is a method to extract.
【0005】第3の方法としては、単純差分を用いたも
のがあり、具体的には、所望物体を背景と共に撮像して
得られた画像と、背景だけを撮像して得られた背景画像
との間で差分処理を行って差分を求め、その差分の絶対
値がしきい値以上の領域を物体領域として抽出する方法
である。A third method uses a simple difference. Specifically, an image obtained by imaging a desired object together with a background and a background image obtained by imaging only the background are used. And a difference process is performed to obtain a difference, and a region where the absolute value of the difference is equal to or larger than a threshold value is extracted as an object region.
【0006】第4の方法としては、奥行き距離画像取得
装置によって取得された距離画像情報を用いたものがあ
る。具体的には所望物体を背景と共に撮像して得られた
画像(輝度画像)と、前記画像の各画素に対応する奥行
き距離情報を有する距離画像を取得し、奥行き距離情報
がしきい値以下である領域に対応する輝度画像中の領域
を物体領域として抽出する方法である。As a fourth method, there is a method using distance image information obtained by a depth distance image obtaining apparatus. Specifically, an image (luminance image) obtained by imaging the desired object together with the background and a distance image having depth distance information corresponding to each pixel of the image are acquired, and when the depth distance information is equal to or less than the threshold value. This is a method of extracting a region in a luminance image corresponding to a certain region as an object region.
【0007】しかし、上述した第1の方法では、人手に
よる作業であるため、多大な労力を要するという問題が
ある。第2、第3の方法では、画像全体で、領域を識別
する際の適切なしきい値を定めることは、極めて難しい
という問題がある。所望物体と背景で似た色の領域が存
在する場合や所望物体にテクスチャ(模様)がある場合
などには、特に困難である。[0007] However, the first method described above has a problem that a great deal of labor is required since the work is performed manually. The second and third methods have a problem that it is extremely difficult to determine an appropriate threshold for identifying an area in the entire image. This is particularly difficult when there is an area of a similar color to the background of the desired object or when the desired object has a texture (pattern).
【0008】第4の方法によれば、所望物体と背景の境
界付近では奥行きの差が大きく必ずしも正確な奥行き情
報が得られないため、背景画像の一部分が誤って抽出さ
れるという問題がある。また、所望物体を背景と共に撮
像して得られた画像に対し、各画素に対応する奥行き距
離情報を取得する必要があり、奥行き距離測定装置が高
価となり、距離計算の負荷が大きく計算に時間がかかる
という問題もある。また、距離測定装置の解像度に合わ
せ、撮像した画像の解像度を下げる処理を行う場合に
は、抽出される画像の解像度も合わせて下がってしまう
問題もある。According to the fourth method, there is a problem that a part of the background image is erroneously extracted because the depth difference is large near the boundary between the desired object and the background and accurate depth information cannot always be obtained. In addition, it is necessary to acquire depth distance information corresponding to each pixel for an image obtained by imaging a desired object together with the background. There is also the problem of such a situation. In addition, when performing the process of lowering the resolution of a captured image in accordance with the resolution of the distance measuring device, there is a problem that the resolution of the extracted image is also lowered.
【0009】上記問題の改善を図った従来の方法とし
て、例えば、特開平7−121710号公報に示される
ものがある。この装置は、まず、画像データ中の対象物
の輪郭上の1画素を外部から指定し、さらに指定した画
素から対象物の輪郭探索を行う方向を外部から指定し、
指定画素から指定方向に対象物の輪郭を探索し決定する
ことにより、対象物の輪郭を抽出する方法を開示してい
る。これにより、所望物体を背景と共に撮像して得られ
た画像から、入力に従い、所望物体の輪郭を抽出でき
る。As a conventional method for improving the above problem, there is a method disclosed in Japanese Patent Application Laid-Open No. 7-121710, for example. This device first specifies one pixel on the contour of the object in the image data from the outside, and further specifies from the outside the direction in which to search the contour of the object from the specified pixel.
A method of extracting the contour of an object by searching for and determining the outline of the object from a designated pixel in a designated direction is disclosed. Thus, the contour of the desired object can be extracted from the image obtained by imaging the desired object together with the background in accordance with the input.
【0010】しかし、特開平7−121710号公報に
記載の方法は、操作者の手動入力が必要で、手間がかか
るという問題がある。また、輪郭が複雑な形状である場
合や物体や背景にテクスチャ(模様)がある場合に、は
じめに外部から指定した画素から離れると、正確な物体
抽出が出来ない場合がある問題がある。また、探索画素
が物体輪郭から離れると、再度操作者が探索画素を輪郭
に戻すという修正処理を何度も手動で実行しなければな
らず、操作が複雑で熟練を要する問題がある。[0010] However, the method described in Japanese Patent Application Laid-Open No. 7-121710 has a problem that it requires manual input by an operator and is troublesome. Further, when the contour has a complicated shape, or when there is a texture (pattern) in the object or the background, if the pixel is initially separated from an externally specified pixel, accurate object extraction may not be performed. In addition, when the search pixel moves away from the object contour, the operator must manually execute the correction process of returning the search pixel to the contour again and again, and the operation is complicated and requires skill.
【0011】[0011]
【発明が解決しようとする課題】本発明は、上述の従来
技術の問題点に鑑みてなされたものであり、抽出対象と
した物体に背景の色と似た部分が存在する場合や、抽出
対象物体や背景にテクスチャがある場合でも、距離情報
に基づき処理範囲を予め限定して輝度情報により抽出処
理を実行する構成として、安価な距離測定装置を用いた
負荷の軽い計算処理で、かつ人手による確認、修正を必
要としない自動処理で正確に物体領域を抽出可能とする
画像処理装置および画像処理方法を提供することを目的
とする。SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems of the prior art, and is intended to be applied to a case where an object to be extracted has a portion similar to a background color or an object to be extracted. Even when there is a texture in the object or the background, the processing range is limited in advance based on the distance information and the extraction processing is executed by the luminance information. It is an object of the present invention to provide an image processing apparatus and an image processing method capable of accurately extracting an object region by automatic processing that does not require confirmation and correction.
【0012】[0012]
【課題を解決するための手段】本発明は、上記目的を達
成するためになされたものであり、本発明の第1の側面
は、撮像手段によって取得される画像中から特定被写体
画像の抽出処理を実行する画像処理装置であり、抽出対
象となる被写体像を含む画像を撮像して取得される輝度
画像および、前記輝度画像中に含まれる画素に対応する
距離情報に基づく距離画像を生成する処理手段と、前記
距離情報に基づいて、前記抽出対象となる被写体像と、
その他の領域との境界領域を求め、前記輝度画像中に抽
出領域を設定する抽出領域抽出手段と、前記抽出領域抽
出手段の設定した抽出領域内において、抽出対象となる
被写体像の領域を決定する処理を実行する領域抽出手段
と、を有することを特徴とする画像処理装置にある。Means for Solving the Problems The present invention has been made to achieve the above object, and a first aspect of the present invention is a process for extracting a specific subject image from an image obtained by an imaging means. A luminance image obtained by capturing an image including a subject image to be extracted, and a distance image based on distance information corresponding to pixels included in the luminance image. Means, based on the distance information, the subject image to be extracted,
An extraction area extracting means for determining a boundary area with another area and setting an extraction area in the luminance image, and determining an area of a subject image to be extracted in the extraction area set by the extraction area extracting means. And a region extracting means for executing processing.
【0013】さらに、本発明の画像処理装置の一実施態
様において、前記領域抽出手段は、前記抽出領域抽出手
段によって求められた前記抽出対象となる被写体像と、
その他の領域との境界領域において、前記抽出対象とな
る被写体像の輪郭の追跡処理を実行する輪郭抽出部を有
し、該輪郭抽出部は、前記輝度画像中の前記境界領域に
含まれる画素の輝度値に基づいて前記抽出対象となる被
写体像と、その他の領域との境界線を求める処理を実行
する構成を有することを特徴とする。Further, in one embodiment of the image processing apparatus of the present invention, the area extracting means includes: a subject image to be extracted obtained by the extracted area extracting means;
In a boundary area with another area, the image processing apparatus further includes a contour extraction unit that performs a tracking process of a contour of the subject image to be extracted, and the contour extraction unit includes a contour extraction unit that calculates a pixel included in the boundary area in the luminance image. It is characterized in that it has a configuration for executing processing for obtaining a boundary line between the subject image to be extracted and another region based on a luminance value.
【0014】さらに、本発明の画像処理装置の一実施態
様において、前記領域抽出手段は、撮像手段によって取
得される画像中の特定被写体画像を除く背景画像情報ま
たは背景画像の輝度情報を格納したメモリと、前記抽出
領域抽出手段によって設定された抽出領域における各画
素の輝度情報と、前記メモリに格納された背景画像情報
または背景画像の輝度情報との比較処理を実行するしき
い値処理手段とを有し、該しきい値処理手段は、前記抽
出領域抽出手段によって設定された抽出領域に含まれる
画素の輝度値と前記メモリに格納された背景画像情報ま
たは背景画像の輝度情報から取得される輝度値との差分
をあらかじめ定めたしきい値と比較し、前記抽出対象と
なる被写体像を抽出する処理を実行する構成を有するこ
とを特徴とする。Further, in one embodiment of the image processing apparatus of the present invention, the area extracting means includes a memory storing background image information excluding a specific subject image in the image acquired by the imaging means or luminance information of the background image. And threshold processing means for comparing the luminance information of each pixel in the extraction area set by the extraction area extraction means with the background image information or the luminance information of the background image stored in the memory. The threshold value processing means includes a luminance value of a pixel included in the extraction area set by the extraction area extraction means and a luminance obtained from the background image information or the luminance information of the background image stored in the memory. It is characterized in that it has a configuration in which a difference from the value is compared with a predetermined threshold value and a process of extracting the subject image to be extracted is performed.
【0015】さらに、本発明の画像処理装置の一実施態
様において、前記処理手段は、距離情報として画像上の
格子状の領域毎の距離情報を示す距離画像を生成し、前
記抽出領域抽出手段は、前記格子状の領域毎に対応付け
た輝度情報に基づいて前記抽出対象となる被写体像と、
その他の領域との境界領域を求め、前記輝度画像中に抽
出領域を設定する構成であることを特徴とする。Further, in one embodiment of the image processing apparatus according to the present invention, the processing means generates a distance image indicating distance information for each grid-like area on the image as distance information, and the extraction area extracting means A subject image to be extracted based on the luminance information associated with each of the lattice regions,
It is characterized in that a boundary region with another region is obtained and an extraction region is set in the luminance image.
【0016】さらに、本発明の画像処理装置の一実施態
様において、前記抽出領域抽出手段は、輝度画像中の格
子点の隣接格子点との輝度値の差に基づいて抽出領域を
輝度画像に設定する構成であることを特徴とする。Further, in one embodiment of the image processing apparatus of the present invention, the extraction area extracting means sets an extraction area to a luminance image based on a difference in luminance value between a grid point and a neighboring grid point in the luminance image. The configuration is characterized by
【0017】さらに、本発明の画像処理装置の一実施態
様において、前記処理手段は、被写体に対して異なる方
向から第1の撮像手段と第2の撮像手段とによって撮影
される投光パターンとともに撮影された画像に基づいて
撮影画像の距離情報を求め、第1の撮像手段による撮影
パターンの変化量が所定値以上の領域について、該第1
の撮像手段による撮影パターンに対応する新規コードを
割り付け、前記新規コードに基づいて第2の撮像手段に
よる撮影パターンから前記第1の距離情報を生成する再
コード化法による距離情報生成を実行する構成であるこ
とを特徴とする。Further, in one embodiment of the image processing apparatus according to the present invention, the processing means captures an image of a subject together with a light projection pattern captured by the first imaging means and the second imaging means from different directions. The distance information of the photographed image is obtained based on the obtained image, and the first image pickup means changes the photographing pattern in a region where the amount of change is equal to or more than a predetermined value.
A new code corresponding to a photographing pattern by the image pickup means is assigned, and distance information generation is performed by a re-encoding method for generating the first distance information from a photographing pattern by the second image pickup means based on the new code. It is characterized by being.
【0018】さらに、本発明の第2の側面は、撮像手段
によって取得される画像中から特定被写体画像の抽出処
理を実行する画像処理方法であり、抽出対象となる被写
体像を含む画像を撮像して取得される輝度画像および、
前記輝度画像中に含まれる画素に対応する距離情報に基
づく距離画像を生成する画像生成処理ステップと、前記
距離情報に基づいて、前記抽出対象となる被写体像と、
その他の領域との境界領域を求め、前記輝度画像中に抽
出領域を設定する抽出領域抽出ステップと、前記抽出領
域抽出ステップにおいて設定した抽出領域内において、
抽出対象となる被写体像の領域を決定する処理を実行す
る領域抽出ステップと、を有することを特徴とする画像
処理方法にある。Further, a second aspect of the present invention is an image processing method for executing a process of extracting a specific subject image from an image acquired by an image capturing means, and captures an image including a subject image to be extracted. A luminance image obtained by
An image generation processing step of generating a distance image based on distance information corresponding to a pixel included in the luminance image, and a subject image to be extracted based on the distance information,
An extraction region extraction step of obtaining a boundary region with another region and setting an extraction region in the luminance image, and within the extraction region set in the extraction region extraction step,
An area extraction step of executing a process of determining an area of a subject image to be extracted.
【0019】さらに、本発明の画像処理方法の一実施態
様において、前記領域抽出ステップは、前記抽出領域抽
出ステップによって求められた前記抽出対象となる被写
体像と、その他の領域との境界領域において、前記抽出
対象となる被写体像の輪郭の追跡処理を実行する輪郭抽
出ステップを有し、該輪郭抽出ステップは、前記輝度画
像中の前記境界領域に含まれる画素の輝度値に基づいて
前記抽出対象となる被写体像と、その他の領域との境界
線を求める処理を実行することを特徴とする。Further, in one embodiment of the image processing method according to the present invention, the area extracting step includes: in a boundary area between the subject image to be extracted obtained in the extracting area extracting step and another area; A contour extraction step of performing a contour tracking process of the contour of the subject image to be extracted, wherein the contour extraction step includes extracting the contour of the subject based on a luminance value of a pixel included in the boundary area in the luminance image. A process for obtaining a boundary line between the subject image and another region.
【0020】さらに、本発明の画像処理方法の一実施態
様において、前記領域抽出ステップは、前記抽出領域抽
出ステップにおいて設定された抽出領域における各画素
の輝度情報と、メモリに格納された背景画像情報または
背景画像の輝度情報との比較処理を実行するしきい値処
理ステップを含み、該しきい値処理ステップは、前記抽
出領域抽出ステップにおいて設定された抽出領域に含ま
れる画素の輝度値と前記メモリに格納された背景画像情
報または背景画像の輝度情報から取得される輝度値との
差分をあらかじめ定めたしきい値と比較し、前記抽出対
象となる被写体像を抽出する処理を実行することを特徴
とする。Further, in one embodiment of the image processing method of the present invention, the area extracting step includes: luminance information of each pixel in the extraction area set in the extraction area extracting step; and background image information stored in a memory. Or a threshold value processing step of executing a comparison process with luminance information of a background image, wherein the threshold value processing step includes: And comparing a difference between the background image information and a luminance value obtained from luminance information of the background image with a predetermined threshold value, and extracting the subject image to be extracted. And
【0021】さらに、本発明の画像処理方法の一実施態
様において、前記画像生成処理ステップは、距離情報と
して画像上の格子状の領域毎の距離情報を示す距離画像
を生成し、前記抽出領域抽出ステップは、前記格子状の
領域毎に対応付けた輝度情報に基づいて前記抽出対象と
なる被写体像と、その他の領域との境界領域を求め、前
記輝度画像中に抽出領域を設定することを特徴とする。Further, in one embodiment of the image processing method according to the present invention, in the image generation processing step, a distance image indicating distance information for each grid-like area on the image is generated as distance information, and the extraction area extraction is performed. The step of obtaining a boundary region between the subject image to be extracted and another region based on the luminance information associated with each of the lattice regions, and setting an extraction region in the luminance image. And
【0022】さらに、本発明の画像処理方法の一実施態
様において、前記抽出領域抽出ステップは、輝度画像中
の格子点の隣接格子点との輝度値の差に基づいて抽出領
域を輝度画像に設定することを特徴とする。Further, in one embodiment of the image processing method according to the present invention, the extraction region extracting step sets the extraction region to a luminance image based on a difference in luminance value between a lattice point and a neighboring grid point in the luminance image. It is characterized by doing.
【0023】さらに、本発明の画像処理方法の一実施態
様において、前記画像生成処理ステップは、被写体に対
して異なる方向から第1の撮像手段と第2の撮像手段と
によって撮影される投光パターンとともに撮影された画
像に基づいて撮影画像の距離情報を求め、第1の撮像手
段による撮影パターンの変化量が所定値以上の領域につ
いて、該第1の撮像手段による撮影パターンに対応する
新規コードを割り付け、前記新規コードに基づいて第2
の撮像手段による撮影パターンから前記第1の距離情報
を生成する再コード化法による距離情報生成を実行する
ことを特徴とする。Further, in one embodiment of the image processing method according to the present invention, the image generation processing step includes a light projection pattern photographed by the first imaging means and the second imaging means from different directions with respect to the subject. The distance information of the photographed image is obtained based on the photographed image, and a new code corresponding to the photographing pattern by the first imaging unit is changed for an area in which the amount of change of the photographing pattern by the first imaging unit is a predetermined value or more. Allocation, second based on the new code
Wherein the distance information is generated by a re-encoding method for generating the first distance information from a photographing pattern by the imaging means.
【0024】[0024]
【作用】本発明の構成によれば、範囲を指定する必要な
く、自動的に抽出範囲が限定されるため、簡易な操作に
より特定対象の抽出処理が実現できる。抽出処理を行う
範囲を限定することによって、計算処理の負荷が軽くな
り、正確に物体領域を抽出できる。また、距離測定点が
少ない場合でも、輝度画像から高解像度で正確に物体領
域を抽出できる。According to the configuration of the present invention, the extraction range is automatically limited without the need to specify the range, so that the extraction processing of the specific target can be realized by a simple operation. By limiting the range in which the extraction process is performed, the load of the calculation process is reduced, and the object region can be accurately extracted. Further, even when the number of distance measurement points is small, the object region can be accurately extracted with high resolution from the luminance image.
【0025】[0025]
【発明の実施の形態】以下、本発明の画像処理装置およ
び画像処理方法を図面を参照して詳細に説明する。図1
は、本発明の第1の実施の形態に係る画像処理装置を示
し、強度についてコード化された投影パターンを抽出対
象としての被写体50に投影する投光器11と、投影パ
ターンの光路上に設けられるハーフミラー12と、投光
器11の光軸と同軸的に設けられてハーフミラー12で
反射された反射像を撮影する第1のカメラ13と、投光
器の光軸方向と異なる方向から対象を撮影する第2のカ
メラ14と、第1のカメラ13及び第2のカメラ14で
撮影された画像情報が画像処理部20に入力される。DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image processing apparatus and an image processing method according to the present invention will be described in detail with reference to the drawings. FIG.
1 shows an image processing apparatus according to a first embodiment of the present invention, in which a projector 11 for projecting a projection pattern coded with respect to intensity onto a subject 50 as an extraction target, and a half provided on an optical path of the projection pattern. A mirror 12, a first camera 13 provided coaxially with the optical axis of the projector 11 to capture an image reflected by the half mirror 12, and a second camera 13 to capture an object from a direction different from the optical axis direction of the projector. The image information captured by the camera 14 and the first camera 13 and the second camera 14 is input to the image processing unit 20.
【0026】画像処理部20は、第1のカメラ13及び
第2のカメラ14で撮影された画像情報に基づいて距離
画像と輝度画像を取得する処理部21と、距離画像を格
納する距離画像メモリ22と、輝度画像を格納する輝度
画像メモリ24と、距離画像の各画素が輝度画像の画素
に対応する画素位置を記憶してある画素対応メモリ23
と、輝度画像と距離画像を入力して抽出処理を行うべき
領域を抽出する抽出領域抽出部25と抽出領域抽出部2
5から入力する抽出領域に基づき、輝度画像から所望領
域を抽出する領域抽出部26とを有し、抽出された画像
領域データは、ディスプレイ29に表示される。An image processing unit 20 includes a processing unit 21 for acquiring a distance image and a luminance image based on image information captured by the first camera 13 and the second camera 14, and a distance image memory for storing the distance image. 22, a luminance image memory 24 for storing a luminance image, and a pixel correspondence memory 23 for storing a pixel position where each pixel of the distance image corresponds to a pixel of the luminance image.
Extraction area extraction unit 25 and extraction area extraction unit 2 for inputting a luminance image and a distance image to extract an area where extraction processing is to be performed.
And an area extraction unit 26 for extracting a desired area from the luminance image based on the extraction area input from Step 5. The extracted image area data is displayed on the display 29.
【0027】処理部21は、投光器11から投影された
投影パターンとしてのスリットパターンを投光器11の
光軸上に第1のカメラ13で撮影することによって得ら
れる撮影パターンを入力する。この撮影パターンは、処
理部21において投影パターンと比較されて強度差が比
較され、距離画像を生成する。The processing section 21 inputs a photographing pattern obtained by photographing a slit pattern as a projection pattern projected from the projector 11 on the optical axis of the projector 11 with the first camera 13. This photographing pattern is compared with the projection pattern in the processing unit 21 and the intensity difference is compared to generate a distance image.
【0028】強度差の比較は、例えば、スリットパター
ン及び撮影パターンを数画素単位のセルに分解し、この
セルの平均強度を比較することによって行われる。強度
差がしきい値以上であり、かつ、新たな強度を有すると
きは再コード化部で新たな強度のコードが生成されて割
り付けられることによりセルの再コード化が行われる。
また、新たな強度でないときは対応する強度のコードが
割り付けられる事によりセルの再コード化が行われる。
再コード化処理については、後段で詳細に説明する。The comparison of the intensity difference is performed by, for example, decomposing the slit pattern and the photographing pattern into cells of several pixels, and comparing the average intensity of the cells. When the intensity difference is equal to or greater than the threshold value and has a new intensity, the re-encoding unit generates and assigns a new intensity code, thereby re-encoding the cell.
When the strength is not the new strength, the code of the corresponding strength is assigned, and the cell is recoded.
The recoding process will be described later in detail.
【0029】領域抽出部26は、輪郭抽出部27と領域
決定部28を有し、輪郭抽出部27は、抽出領域抽出部
25から入力された抽出領域内における境界線部分を追
跡して輪郭を抽出し、領域決定部28は、輪郭抽出部2
7から入力する輪郭線データに基づき、囲まれた領域を
抽出領域として抽出する。The region extracting unit 26 has a contour extracting unit 27 and a region determining unit 28. The contour extracting unit 27 traces a boundary line in the extracted region input from the extracted region extracting unit 25 to form a contour. The region extraction unit 28 extracts
Based on the contour data input from step 7, an enclosed area is extracted as an extraction area.
【0030】なお、ここでは、距離画像を取得する一つ
の手法として、以下で説明する再コード化法を適用した
例について説明するが、本発明の構成では、距離画像を
得るその他の手法を適用することも可能である。例えば
レーザ光や超音波等を発して、対象物からの反射光量や
到達時間を計測し、奥行き情報を抽出するレーザー手法
や、スリット光などの特殊なパターン光源を用いて、対
象表面パターンの幾何学的変形等の画像情報より対象形
状を推定する再コード化を適用しないパターン投影方法
や、光学的処理によってモアレ縞により等高線を形成さ
せて、3次元情報を得る方法などで被写体の距離情報を
得る構成を適用してもよい。Here, a description will be given of an example in which a re-encoding method described below is applied as one method of acquiring a distance image. However, in the configuration of the present invention, another method of obtaining a distance image is applied. It is also possible. For example, a laser method that emits laser light or ultrasonic waves to measure the amount of light reflected from the object and the arrival time, and extracts depth information, or a special pattern light source such as slit light, is used to generate the geometric shape of the target surface pattern. The distance information of the subject is obtained by a method such as a pattern projection method that does not apply recoding, which estimates a target shape from image information such as geometric deformation, or a method in which contour lines are formed by moire fringes by optical processing to obtain three-dimensional information. The configuration to be obtained may be applied.
【0031】処理部21において実行される再コード化
処理について説明する。再コード化処理部の詳細構成を
表すブロック図を図2に示す。図3に光源と撮像素子の
位置関係を示す。The recoding process executed in the processing unit 21 will be described. FIG. 2 is a block diagram showing a detailed configuration of the recoding processing unit. FIG. 3 shows the positional relationship between the light source and the image sensor.
【0032】図2および、図3では、パターン光を投光
する投光器と同軸のカメラがカメラ3,103であり、
その両サイドにおける異なる方向からカメラ1,101
およびカメラ2,102が被写体を撮影する構成であ
る。図1のように、一組のカメラ組み合わせとしてもよ
い。カメラ3とカメラ1のみから得られる画像の処理
と、カメラ3とカメラ2とで撮影される画像の処理は同
様である。本例では、3台のカメラ101〜103およ
び投光器104を備えた構成における再コード化処理に
よる被写体の距離データの取得手法について説明する。In FIGS. 2 and 3, cameras 3103 are coaxial with the light projector for projecting the pattern light.
Cameras 101 from different directions on both sides
And the cameras 2 and 102 photograph the subject. As shown in FIG. 1, a single camera combination may be used. The processing of an image obtained from only the camera 3 and the camera 1 and the processing of an image captured by the camera 3 and the camera 2 are the same. In this example, a method of acquiring distance data of a subject by recoding processing in a configuration including three cameras 101 to 103 and a projector 104 will be described.
【0033】図3に示すように、各カメラの距離関係が
揃うように、図示の距離I1、I2、I3は等しくされて
いる。カメラ3,103と投光器104は、ビームスプ
リッタとしてのハーフミラー105を用いて光軸が一致
するように配置される。カメラ1,101、カメラ2,
102は、カメラ3,103と投光器104の両側に、
それらと光軸が異なるように配置される。中央の光軸と
両側の光軸との距離が基線長Lである。As shown in FIG. 3, the distances I1, I2, and I3 shown in the figure are made equal so that the distance relationship between the cameras is uniform. The cameras 3 and 103 and the projector 104 are arranged using a half mirror 105 as a beam splitter so that the optical axes coincide. Camera 1, 101, Camera 2,
102 is on both sides of the cameras 3 and 103 and the projector 104,
They are arranged so that their optical axes are different from them. The distance between the central optical axis and the optical axes on both sides is the base length L.
【0034】投光器104は、光源106と、マスクパ
ターン107と、強度パターン108と、プリズム10
9とを有する。ここで光源106は、赤外もしくは紫外
光を用いた不可視領域の光源を用いることができる。こ
の場合、各カメラは図4に示すように構成される。すな
わち、入射してきた光310は、プリズム301で2方
向に分割され、一方は不可視領域(赤外あるいは紫外)
透過フィルター302を通って撮像装置(例えばCCD
カメラ)303に入射し、他方は不可視領域(赤外と紫
外)遮断フィルター304を通って撮像装置305に入
射する。The light projector 104 includes a light source 106, a mask pattern 107, an intensity pattern 108, and a prism 10.
9 is provided. Here, as the light source 106, a light source in an invisible region using infrared light or ultraviolet light can be used. In this case, each camera is configured as shown in FIG. That is, the incoming light 310 is split in two directions by the prism 301, one of which is in the invisible region (infrared or ultraviolet).
An imaging device (for example, a CCD) through the transmission filter 302
Camera 303, and the other light passes through an invisible region (infrared and ultraviolet) cutoff filter 304 and enters an imaging device 305.
【0035】また図3に示す光源106は、可視領域あ
るいは不可視領域に限定せず、撮像可能な波長帯の光源
を用いてもよい。この場合、カメラ3,103において
は、プログレッシブスキャンタイプのCCDカメラを用
い、カメラ1,101、カメラ2,102に関しては、
特に構成はこだわらない。ただし、カメラ3,103と
の対応を考慮すれば、同じ構成のCCDカメラが望まし
い。光源106からパターンが投影され、3台のカメラ
1〜3(101〜103)が同時に撮影を行う。そして
各カメラは、フィルター304,305(図4参照)を
通過した光を撮像装置303,305で得ることによ
り、画像の一括取得を行う。The light source 106 shown in FIG. 3 is not limited to a visible region or an invisible region, but may be a light source in a wavelength band capable of capturing an image. In this case, a progressive scan type CCD camera is used for the cameras 3 and 103, and the cameras 1 and 101 and the cameras 2 and 102 are
The configuration is not particular. However, considering the correspondence with the cameras 3 and 103, CCD cameras having the same configuration are desirable. The pattern is projected from the light source 106, and the three cameras 1 to 3 (101 to 103) shoot simultaneously. Then, each camera obtains the light that has passed through the filters 304 and 305 (see FIG. 4) by the imaging devices 303 and 305 to collectively acquire images.
【0036】図2を用いて再コード化法による距離情報
の取得処理について説明する。図示のように、カメラ
1,101は、撮影して得た輝度情報を輝度値メモリ1
21に記憶し、撮影パターンをパターン画像メモリ12
2に記憶する。カメラ2,102は、同様に、輝度情報
を輝度値メモリ123に記憶し、撮影パターンをパター
ン画像メモリ124に記憶する。カメラ3,103は、
輝度情報を輝度値メモリ125に記憶し、撮影パターン
をパターン画像メモリ126に記憶する。投光器104
は、事前に作成したコード化されたパターンを後に参照
する為に、各スリットを正方格子上のセルに分割してフ
レームメモリ127に格納している。The process of acquiring distance information by the recoding method will be described with reference to FIG. As shown in the figure, the cameras 1 and 101 store luminance information obtained by photographing in a luminance value memory 1.
21 and stores the photographing pattern in the pattern image memory 12.
Stored in 2. Similarly, the cameras 2 and 102 store the luminance information in the luminance value memory 123 and the photographing pattern in the pattern image memory 124. Cameras 3 and 103
The luminance information is stored in the luminance value memory 125, and the photographing pattern is stored in the pattern image memory 126. Floodlight 104
, Each slit is divided into cells on a square lattice and stored in the frame memory 127 in order to refer to a coded pattern created in advance.
【0037】この記憶保持された撮影パターンおよび輝
度情報を用いて、次のようにして距離情報を得る。以下
の操作は、カメラ1,101とカメラ3,103の組み
合わせ、カメラ2,102とカメラ3,103の組み合
わせの双方に共通なので、ここではカメラ1,101と
カメラ3,103の組み合わせを例にとって説明する。Using the stored photographing pattern and luminance information, distance information is obtained as follows. The following operation is common to both the combination of the cameras 1 and 101 and the cameras 3 and 103 and the combination of the cameras 2 and 102 and the cameras 3 and 103. Therefore, here, the combination of the cameras 1 and 101 and the cameras 3 and 103 is taken as an example. explain.
【0038】図2において、領域分割部128は、カメ
ラ3,103で撮影された撮影パターンの領域分割を行
う。そして、隣り合うスリットパターン間の強度差が閾
値以下である領域については投光器からの光が届いてな
い領域1として抽出し、スリットパターン間の強度差が
閾値以上である領域については領域2として抽出する。
再コード化部129は、抽出された領域2について、パ
ターン画像メモリ126に記憶された撮影パターンとフ
レームメモリ127に格納された投影パターンを用いて
再コード化を行う。In FIG. 2, an area dividing section 128 divides an area of a photographing pattern photographed by the cameras 3 and 103. Then, an area where the intensity difference between adjacent slit patterns is equal to or less than the threshold is extracted as an area 1 where light from the projector does not reach, and an area where the intensity difference between the slit patterns is equal to or more than the threshold is extracted as an area 2. I do.
The re-coding unit 129 re-codes the extracted area 2 using the photographing pattern stored in the pattern image memory 126 and the projection pattern stored in the frame memory 127.
【0039】図5は、再コード化を行う際のフローチャ
ートである。まず、各スリットパターンをスリット幅毎
に縦方向に分割し(ステップ1001)、正方形のセル
を生成する。生成された各セルについて強度の平均値を
とり、平均値を各セルの強度とする(ステップ100
2)。画像の中心から順に、投影パターン及び撮影パタ
ーンの対応する各セル間の強度を比較し、対象物の反射
率、対象物までの距離などの要因によってパターンが変
化したためにセル間の強度が閾値以上異なるかどうかを
判断する(ステップ1003)。閾値以上異ならない場
合は、撮影されたすべてのセルについて再コード化を終
了する(ステップ1007)。FIG. 5 is a flowchart for performing recoding. First, each slit pattern is vertically divided for each slit width (step 1001) to generate a square cell. An average value of the intensity is obtained for each of the generated cells, and the average value is set as the intensity of each cell (step 100).
2). In order from the center of the image, the intensity between each corresponding cell of the projection pattern and the photographing pattern is compared, and the intensity between the cells is equal to or greater than the threshold because the pattern has changed due to factors such as the reflectance of the object and the distance to the object. It is determined whether they are different (step 1003). If they do not differ by more than the threshold value, the re-encoding ends for all the photographed cells (step 1007).
【0040】閾値以上異なる場合は、新たな強度のセル
かどうか判断する(ステップ1004)。そして、新た
な強度のセルのときは、新たなコードの生成、割り付け
を行う(ステップ1005)。また、新たな強度のセル
でないときは、他に出現している部位と識別可能とする
スリットパターンの並びを用いてコード化する(ステッ
プ1006)。これで、再コード化を終了する(ステッ
プ1007)。If the difference is not less than the threshold value, it is determined whether or not the cell has a new strength (step 1004). When the cell has a new strength, a new code is generated and assigned (step 1005). If the cell does not have a new strength, the cell is coded using a sequence of slit patterns that can be distinguished from other appearing parts (step 1006). This ends the recoding (step 1007).
【0041】図6はスリットパターンのコード化の例を
示すもので、同図(a)はスリットの並びによってコー
ド化された投影パターンであり、強度としてそれぞれ3
(強)、2(中)、1(弱)が割り当てられている。同
図(b)においては、左から3つめのセルで強度が変化
して新たなコードが出現したので、新たに0というコー
ドを割り当てている。同図(c)においては、左から3
つめ上から2つめのセルに既存のコードが出現している
ので、セルの並びから新たなコードとして、縦の並びを
[232]、横の並びを[131]という具合に再コー
ド化する。この再コード化は、対象の形状が変化に富む
部位には2次元パターンなどの複雑なパターンを投光
し、変化の少ない部位には簡単なパターンを投光してい
るのに等しい。この過程を繰り返し、全てのセルに対し
て一意なコードを割り付けることで再コード化を行う。FIG. 6 shows an example of coding of the slit pattern. FIG. 6A shows a projection pattern coded by the arrangement of the slits.
(Strong), 2 (medium), and 1 (weak) are assigned. In FIG. 6B, a code 0 is newly assigned because the intensity has changed in the third cell from the left and a new code has appeared. In the same figure (c), 3 from the left
Since an existing code appears in the second cell from the top, the code is recoded as a new code from the cell arrangement, such as [232] in the vertical arrangement and [131] in the horizontal arrangement. This recoding is equivalent to projecting a complicated pattern such as a two-dimensional pattern onto a portion where the shape of the object is rich in change, and projecting a simple pattern onto a portion where the shape changes little. This process is repeated, and re-encoding is performed by assigning a unique code to all cells.
【0042】次に図2に戻って説明する。カメラ1,1
01側のコード復号部130は、パターン画像メモリ1
22から投影パターンを抽出し、上述と同様にしてセル
に分割する。そして、先に再コード化部129で再コー
ド化されたコードを用いて各セルのコードを検出し、こ
の検出したコードに基づいて光源からのスリット角θを
算出する。図7は空間コード化における距離の算出方法
を示す図であり、各画素の属するセルのスリット角θと
カメラ1で撮影された画像上のx座標とカメラパラメー
タである焦点距離Fと基線長Lとから、次の(式1)に
よって距離Zを算出する。Next, description will be made returning to FIG. Camera 1, 1
The code decoding unit 130 on the 01 side stores the pattern image memory 1
The projection pattern is extracted from 22 and divided into cells in the same manner as described above. Then, the code of each cell is detected using the code re-coded by the re-coding unit 129 first, and the slit angle θ from the light source is calculated based on the detected code. FIG. 7 is a diagram showing a method of calculating a distance in the spatial coding, wherein a slit angle θ of a cell to which each pixel belongs, an x coordinate on an image taken by the camera 1, a focal length F as a camera parameter, and a base length L Then, the distance Z is calculated by the following (Equation 1).
【0043】[0043]
【数1】 Z=(F×L)/(x+F×tanθ) (式1)## EQU1 ## Z = (F × L) / (x + F × tan θ) (Equation 1)
【0044】この距離Zの算出は、カメラ2,102側
のコード復号部131においても、同様に行われる。ま
た、上述の領域1については次のようにして距離を算出
する。領域1では、投光されたパターンによるパターン
検出は行うことができないので、対応点探索部132に
おいて、カメラ1〜3の輝度値メモリ121、123、
125から読み出された輝度情報を用いて視差を検出
し、これに基づいて距離を算出する。The calculation of the distance Z is similarly performed in the code decoding unit 131 of the camera 2 or 102. Further, for the above-mentioned region 1, the distance is calculated as follows. In the area 1, pattern detection based on the projected pattern cannot be performed, so the corresponding point search unit 132 uses the brightness value memories 121, 123,
The parallax is detected by using the luminance information read from 125, and the distance is calculated based on the parallax.
【0045】以上が、再コード化法を用いた距離情報の
取得方法である。再コード化法は、本発明の画像処理装
置および画像処理方法において適用可能な距離情報の取
得手法の1つであるが、前述したように、再コード化法
に限らず、距離情報を取得可能な方法であれば、レーザ
ー手法や、再コード化を適用しないパターン投影方法
や、光学的処理によってモアレ縞により等高線を形成さ
せて、3次元情報としての距離情報を得る方法が適用可
能である。The above is a method of acquiring distance information using the re-coding method. The recoding method is one of the distance information obtaining methods applicable to the image processing apparatus and the image processing method of the present invention. However, as described above, the distance information can be obtained without being limited to the recoding method. For example, a laser method, a pattern projection method to which recoding is not applied, and a method in which contour lines are formed by moire fringes by optical processing to obtain distance information as three-dimensional information can be applied.
【0046】以下に、本発明の画像処理装置および画像
処理方法において、被写体の距離情報としての距離画像
と、被写体の輝度情報としての輝度画像を取得した後、
図1の画像処理部20によって実行される処理の詳細を
図8に示す具体的処理例に従って説明する。Hereinafter, in the image processing apparatus and the image processing method of the present invention, after obtaining a distance image as distance information of a subject and a luminance image as luminance information of the subject,
Details of the processing executed by the image processing unit 20 in FIG. 1 will be described with reference to a specific processing example shown in FIG.
【0047】図8に示す処理例は、パターン投影法に基
づいて被写体として携帯電話を有して通話する人物の輝
度画像と距離画像とを取得した場合の処理例である。2
つのカメラ、すなわち、図1における投光器11の光軸
と同軸的に設けられてハーフミラー12で反射された反
射像を撮影する第1のカメラ13と、投光器の光軸方向
と異なる方向から対象を撮影する第2のカメラ14を用
いる。The processing example shown in FIG. 8 is a processing example in the case where a luminance image and a distance image of a person who has a mobile phone as a subject and talks are acquired based on the pattern projection method. 2
One camera, that is, a first camera 13 that is provided coaxially with the optical axis of the light projector 11 in FIG. 1 and captures a reflection image reflected by the half mirror 12, and an object that is different from the optical axis direction of the light projector A second camera 14 for photographing is used.
【0048】2つのカメラの撮影可能範囲に対象(携帯
電話を有して通話する人物)が収まるようにカメラアン
グルを調整し、投光器から投影パターンを投影して投光
器11の光軸に同軸に設置した第1のカメラ13で撮影
する。第2のカメラ14は投光器11の光軸方向と異な
る方向から通話者を撮影する。第1のカメラ13及び第
2のカメラ14の映像信号を処理部21で画像処理する
ことによって距離画像と輝度画像を得る。距離画像の取
得は、例えば、上述の再コード化法を適用する。The camera angle is adjusted so that the object (a person who has a mobile phone and talks) fits within the photographable range of the two cameras, and a projection pattern is projected from the projector and installed coaxially with the optical axis of the projector 11. The first camera 13 shoots an image. The second camera 14 photographs the caller from a direction different from the optical axis direction of the projector 11. The image signals of the first camera 13 and the second camera 14 are image-processed by the processing unit 21 to obtain a distance image and a luminance image. For the acquisition of the distance image, for example, the above-described recoding method is applied.
【0049】以下にパターン投影法による距離の測定手
順について説明する。図8(A)は対象を撮像した輝度
画像を示す。投光器11の光軸方向と同一方向から被写
体を撮らえる第1のカメラ13で対象及び背景を撮影す
ることによって得た画像が輝度画像として輝度画像メモ
リ22に格納される。この輝度画像は、対象の表面から
第1のカメラ13の受光部に入る光の輝度を各画素ごと
に分類したものである。The procedure for measuring the distance by the pattern projection method will be described below. FIG. 8A shows a luminance image obtained by capturing an object. An image obtained by capturing an object and a background with the first camera 13 that captures an object from the same direction as the optical axis direction of the projector 11 is stored in the luminance image memory 22 as a luminance image. This luminance image is obtained by classifying the luminance of light entering the light receiving portion of the first camera 13 from the surface of the object for each pixel.
【0050】図8(B)は対象を撮影した距離画像を示
し、処理部21は、投光器11の光軸方向と異なる方向
第2のカメラ14で背景及び対象に投影された投影パタ
ーンを撮影することに基づく投影パターンの変化量から
距離に応じた領域に分解し、分類された領域ごとの画素
に距離コードを割り付けることにより距離画像を形成す
る。この距離画像は第2のカメラ14の受光部から対象
物各点までの距離を各画素とし、2次元に配列したもの
である。図8(B)においては対象である人物が紙面方
向における最前位置に位置しており、その後方に背景領
域が位置している。これらを画面上で表現する方法とし
て、例えば、輝度の大小で表現することが出来、距離の
短い紙面手前側の領域における輝度を大にし、距離の離
れた紙面奥方向に輝度が小になるように表現してもよ
い。FIG. 8B shows a distance image obtained by photographing the object. The processing section 21 photographs the projection pattern projected on the background and the object by the second camera 14 in a direction different from the optical axis direction of the light projector 11. Then, the distance image is formed by decomposing the image into regions corresponding to the distance based on the change amount of the projection pattern based on the distance, and assigning a distance code to the pixels of each classified region. This distance image is two-dimensionally arranged with each pixel having a distance from the light receiving portion of the second camera 14 to each point of the object. In FIG. 8B, the target person is located at the forefront position in the paper surface direction, and the background area is located behind it. As a method of expressing these on the screen, for example, the brightness can be expressed by the magnitude of the luminance, the luminance in the area on the near side of the paper with a short distance is increased, and the luminance is reduced in the depth direction of the paper at a distance. May be expressed as
【0051】得られる距離値の数は、投影するストライ
プの細さに依存し、ストライプ一本につき縦一列の距離
データを得られる。投影するストライプの本数はカメラ
の画素数よりも少ない。また、前述の式(1)のよう
に、各測定点までの距離値Zについて画像上のx座標が
対応している。距離画像中の各画素について輝度画像上
の座標が対応しており、画素対応メモリに情報を記録す
る。The number of distance values obtained depends on the fineness of the stripe to be projected, and one column of distance data can be obtained for each stripe. The number of stripes to be projected is smaller than the number of pixels of the camera. Further, as in the above-described equation (1), the x value on the image corresponds to the distance value Z to each measurement point. The coordinates on the luminance image correspond to each pixel in the distance image, and information is recorded in the pixel correspondence memory.
【0052】図8(C)は距離画像メモリ22に格納さ
れた距離画像に基づいて隣接する点の値の差がしきい値
よりも大きい箇所について、その間の範囲を抽出した図
を示し、抽出範囲を網線801で表示している。すなわ
ち、隣接画素における距離値の差が大である領域を抽出
し、これを被写体と背景の境界線部分として識別する。
しきい値は、測定対象とその周囲の背景または物体との
距離差に応じて予め設定する。複数の物体が撮影された
画像から1つの物体を抽出する場合のように、撮影され
た各物体の距離差が小であると想定される場合には、し
きい値は小さく設定し、図8の例のように、背景から被
写体(人物)を抽出する場合のように被写体と背景との
距離差が大であると想定される場合は、しきい値を大き
くすることが可能である。FIG. 8C is a diagram in which, based on the distance image stored in the distance image memory 22, a range where the difference between the values of adjacent points is larger than the threshold value is extracted, and the range between the points is extracted. The range is indicated by a mesh line 801. That is, an area where the difference in distance value between adjacent pixels is large is extracted, and this is identified as a boundary line between the subject and the background.
The threshold value is set in advance according to the distance difference between the measurement target and the surrounding background or object. When it is assumed that the distance difference between each of the photographed objects is small, such as when one object is extracted from an image in which a plurality of objects are photographed, the threshold value is set to be small, and FIG. In the case where it is assumed that the distance difference between the subject and the background is large, as in the case of extracting a subject (person) from the background, as in the example of, the threshold value can be increased.
【0053】図8(D)は、抽出領域抽出部25の処理
として実行される輝度画像の領域抽出処理である。距離
画像に基づいて設定された抽出範囲(図8(C)の網線
部801に示された範囲)を、画素対応メモリ23の情
報に基づいて輝度画像メモリ24に格納された輝度画像
に対応させ、領域抽出領域として輝度画像の範囲を抽出
する。図8(D)は輝度画像における抽出結果を示し、
距離測定点を輝度画像中の格子点で表示し、抽出範囲を
網線802で表示している。抽出領域抽出部25は、輝
度画像中の格子点の隣接格子点との輝度値の差に基づい
て領域抽出領域として輝度画像の範囲を抽出する。FIG. 8D shows a region extraction process of a luminance image executed as a process of the extraction region extraction unit 25. The extraction range set based on the distance image (the range indicated by the shaded portion 801 in FIG. 8C) corresponds to the luminance image stored in the luminance image memory 24 based on the information in the pixel correspondence memory 23. Then, the range of the luminance image is extracted as the region extraction region. FIG. 8D shows an extraction result of the luminance image.
The distance measurement points are indicated by grid points in the luminance image, and the extraction range is indicated by a mesh line 802. The extraction region extraction unit 25 extracts a range of the luminance image as a region extraction region based on a difference in luminance value between a lattice point in the luminance image and an adjacent lattice point.
【0054】図8(E)は輪郭抽出部27において実行
される処理の結果を示す図であり、図8(D)の輝度画
像における被写体と背景の境界線部分として識別された
斜線領域803中で、輝度値に基づいて境界線部分を追
跡して抽出された輪郭線804を示し、輪郭線804を
太線で表示している。本発明の構成では、輪郭の追跡処
理範囲が輝度画像における被写体と背景の境界線部分と
して識別された斜線領域803中に限定されるので、追
跡点が抽出対象から大きくはずれることがなく、また、
その追跡範囲が狭いため、効率的な追跡が可能である。
輪郭追跡は、輝度画像における被写体と背景の境界線部
分として識別された斜線領域803における輝度値に基
づいて実行される。FIG. 8E is a diagram showing the result of the processing executed in the contour extracting section 27. The shaded area 803 identified as the boundary between the subject and the background in the luminance image of FIG. The contour line 804 extracted by tracking the boundary line portion based on the luminance value is shown, and the contour line 804 is indicated by a thick line. In the configuration of the present invention, since the outline tracking processing range is limited to the hatched area 803 identified as the boundary between the subject and the background in the luminance image, the tracking point does not largely deviate from the extraction target, and
Since the tracking range is narrow, efficient tracking is possible.
The contour tracking is performed based on the luminance value in the shaded area 803 identified as the boundary line between the subject and the background in the luminance image.
【0055】図8(F)は領域決定部28において取得
される出力領域画像である。輪郭抽出部27において実
行された輪郭追跡処理の結果取得された輪郭線804に
よって分離された領域を抽出領域とする。輪郭線804
で囲まれた領域を出力領域(網線805で示す被写体と
しての人物に相当する領域)としてディスプレイ29に
出力表示する。FIG. 8F is an output area image acquired by the area determining section 28. A region separated by the contour line 804 obtained as a result of the contour tracking process executed by the contour extraction unit 27 is defined as an extraction region. Contour 804
Are displayed on the display 29 as an output area (an area corresponding to a person as a subject indicated by a shaded line 805).
【0056】上記した第1の実施の形態の画像処理装置
によると距離測定点が少ない場合でも、輝度画像から高
解像度で正確に特定の抽出対象となる被写体領域を抽出
できる。また、抽出処理、すなわち、抽出対象とその他
の部分との境界部分を予め選択し、その範囲内で輪郭追
跡を実行するので、処理範囲が限定され、計算処理の負
荷が軽くなり、効率的に正確に物体領域を抽出できる。According to the image processing apparatus of the first embodiment, even when the number of distance measurement points is small, it is possible to accurately and accurately extract a specific subject area to be extracted from a luminance image. In addition, since the extraction process, that is, the boundary portion between the extraction target and the other portion is selected in advance and the contour tracking is performed within the range, the processing range is limited, the load of the calculation process is reduced, and the efficiency is reduced. The object region can be accurately extracted.
【0057】図9は、本発明の第2の実施の形態に係る
画像処理装置を示し、領域抽出部26がしきい値処理部
30としきい値情報メモリ31と背景輝度情報メモリ3
2とを有する構成において図1に示す画像処理装置と相
違しており、その他の構成及び機能については同一であ
るので重複する説明を省略する。FIG. 9 shows an image processing apparatus according to a second embodiment of the present invention, in which an area extracting section 26 includes a threshold processing section 30, a threshold information memory 31, and a background luminance information memory 3.
2 is different from the image processing apparatus shown in FIG. 1, and other configurations and functions are the same.
【0058】しきい値処理部30は、抽出領域抽出部2
5から入力された抽出領域内について、しきい値情報メ
モリにあるしきい値31に基づいて、各画素に対し背景
輝度情報メモリ32に記憶されている輝度との輝度差が
しきい値を越える画素を、抽出領域の画素とし、その集
合を抽出領域とする。なお、背景輝度情報メモリ32に
は、例えば背景画像のサンプル点輝度値あるいは背景画
像全体の平均輝度値が格納される。The threshold value processing section 30 includes the extraction area extraction section 2
5, the difference between the luminance of each pixel and the luminance stored in the background luminance information memory 32 exceeds the threshold based on the threshold 31 in the threshold information memory. The pixels are set as the pixels of the extraction region, and a set of the pixels is set as the extraction region. The background luminance information memory 32 stores, for example, a sample point luminance value of the background image or an average luminance value of the entire background image.
【0059】領域決定部28はしきい値処理部30から
入力された領域と背景抽出領域の内側の領域とを合わせ
て抽出領域とし、ディスプレイ29に表示する。The area determination section 28 combines the area input from the threshold value processing section 30 and the area inside the background extraction area as an extraction area and displays it on the display 29.
【0060】上記した第2の実施の形態の画像処理装置
によると、背景輝度情報と比較することによって背景輝
度と異なる画素のみを抽出する処理として物体抽出を行
なうので、実施例1のような輪郭追跡処理が不要とな
り、軽い計算処理で物体領域を抽出でき、比較する領域
を限定することにより物体のテクスチャの影響を受けに
くくなり、正確に物体を抽出できる。すなわち、距離情
報に基づいて抽出範囲を自動的に限定し、抽出範囲を輝
度画像に対応づけて、その限定された範囲内で、背景画
像の持つ輝度値との比較処理としてのしきい値処理を実
行する構成としたので、計算処理の負荷が軽くなり、正
確に物体領域を抽出できる。According to the image processing apparatus of the second embodiment, object extraction is performed as a process of extracting only pixels different from background luminance by comparing with background luminance information. The tracking process becomes unnecessary, and the object region can be extracted by a light calculation process. By limiting the region to be compared, the object is less affected by the texture of the object, and the object can be accurately extracted. That is, the extraction range is automatically limited based on the distance information, the extraction range is associated with the luminance image, and threshold processing is performed within the limited range as a comparison process with the luminance value of the background image. Is performed, the load of the calculation processing is reduced, and the object region can be accurately extracted.
【0061】図10は、本発明の第3の実施の形態に係
る画像処理装置を示し、領域抽出部26がしきい値処理
部30としきい値情報メモリ31と背景画像メモリ33
とを有する構成において図1に示す画像処理装置と相違
しており、その他の構成及び機能については同一である
ので重複する説明を省略する。FIG. 10 shows an image processing apparatus according to a third embodiment of the present invention, in which an area extracting unit 26 includes a threshold processing unit 30, a threshold information memory 31, and a background image memory 33.
1 is different from the image processing apparatus shown in FIG. 1, and other configurations and functions are the same.
【0062】しきい値処理部30は、抽出領域抽出部2
5から入力された抽出領域内について、しきい値情報メ
モリ31にあるしきい値に基づいて、各画素に対し背景
画像メモリ33に記憶されている同画素位置の輝度との
差分値がしきい値を越える画素を、抽出領域の画素と
し、その集合を抽出領域とする。背景画像メモリ33に
は、例えば第1のカメラ13によって撮影された背景の
みの画像が格納され、この画像に基づいて輝度値が求め
られる。The threshold value processing section 30 includes the extraction area extraction section 2
5, the difference between each pixel and the luminance at the same pixel position stored in the background image memory 33 is determined based on the threshold value in the threshold value information memory 31 in the extraction area. Pixels exceeding the value are defined as pixels in the extraction area, and a set of the pixels is defined as the extraction area. The background image memory 33 stores, for example, an image of only the background captured by the first camera 13, and a luminance value is obtained based on the image.
【0063】領域決定部28はしきい値処理部27から
入力された領域と背景抽出領域の内側の領域とを合わせ
て抽出領域とし、ディスプレイ29に表示する。The area determination section 28 combines the area input from the threshold value processing section 27 and the area inside the background extraction area as an extraction area and displays it on the display 29.
【0064】上記した第3の実施の形態の画像処理装置
によると、背景画像の持つ輝度情報と比較することによ
って背景輝度と異なる画素のみを抽出する処理として物
体抽出を行なうので、実施例1のような輪郭追跡処理が
不要となり、軽い計算処理で物体領域を抽出でき、比較
する領域を限定することにより物体のテクスチャの影響
を受けにくくなり、正確に物体を抽出できる。According to the image processing apparatus of the third embodiment, the object is extracted as a process of extracting only pixels different from the background luminance by comparing with the luminance information of the background image. Such an outline tracking process becomes unnecessary, and an object region can be extracted by a light calculation process. By limiting the region to be compared, the influence of the texture of the object is reduced, and the object can be accurately extracted.
【0065】上述したように、第1〜第3の各実施例に
おいて、本発明の画像処理装置は、抽出対象およびその
他背景等を含む画像から取得した距離情報、輝度情報を
入力し、まず、距離画像から取得される距離情報に基づ
いて抽出範囲を自動的に限定し、抽出物体とその他の領
域との境界部分を設定して、その設定範囲を輝度画像に
対応付ける。さらに、輝度画像に設定された境界領域内
で、輝度に基づく輪郭追跡、あるいは背景画像の輝度値
との差異に基づくしきい値処理により特定物体の抽出を
実行する。物体抽出処理として実行される輪郭追跡処
理、またはしきい値処理は、輝度画像に設定された限定
領域内においてのみ実行することになるので、計算処理
の負荷が軽くなり、効率的に正確に物体領域を抽出でき
る。As described above, in each of the first to third embodiments, the image processing apparatus of the present invention inputs distance information and luminance information obtained from an image including an extraction target and other backgrounds, and The extraction range is automatically limited based on the distance information acquired from the distance image, the boundary between the extracted object and another region is set, and the set range is associated with the luminance image. Further, within the boundary area set in the luminance image, extraction of a specific object is performed by contour tracking based on luminance or threshold processing based on a difference from the luminance value of the background image. Since the contour tracking processing or threshold processing performed as the object extraction processing is performed only within the limited area set in the luminance image, the load of the calculation processing is reduced, and the object processing is efficiently and accurately performed. Regions can be extracted.
【0066】以上、特定の実施例を参照しながら、本発
明について詳解してきた。しかしながら、本発明の要旨
を逸脱しない範囲で当業者が該実施例の修正や代用を成
し得ることは自明である。すなわち、例示という形態で
本発明を開示してきたのであり、限定的に解釈されるべ
きではない。本発明の要旨を判断するためには、冒頭に
記載した特許請求の範囲の欄を参酌すべきである。The present invention has been described in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiment without departing from the spirit of the present invention. That is, the present invention has been disclosed by way of example, and should not be construed as limiting. In order to determine the gist of the present invention, the claims described at the beginning should be considered.
【0067】[0067]
【発明の効果】以上説明した通り、本発明の画像処理装
置および画像処理方法によれば、背景等を含む被写体像
から取得した距離情報、輝度情報を用いた被写体抽出
(セグメンテーション)処理において、まず、距離情報
に基づいて抽出範囲を自動的に限定し、抽出物体とその
他の領域との境界部分を極めて狭い領域に設定し、その
範囲内で、輝度画像に基づく輪郭追跡処理を実行する構
成としたので、計算処理の負荷が軽くなり、正確に物体
領域を抽出できる。また、輝度画像を用いた輪郭追跡を
実行する構成であるので、輝度画像の高解像度画像に基
づいて物体領域を抽出できるため、正確な領域抽出が可
能であり、距離測定装置自体は、高精度であることがさ
ほど要求されず、安価な距離測定装置を用いることがで
きる。As described above, according to the image processing apparatus and the image processing method of the present invention, in the subject extraction (segmentation) process using the distance information and the luminance information obtained from the subject image including the background and the like, first, A configuration that automatically limits the extraction range based on the distance information, sets a boundary portion between the extracted object and other regions to an extremely narrow region, and executes a contour tracking process based on a luminance image within the range. Therefore, the load of the calculation processing is reduced, and the object region can be accurately extracted. In addition, since the contour tracking is performed using the luminance image, the object region can be extracted based on the high-resolution image of the luminance image, so that accurate region extraction can be performed. Is not so required, and an inexpensive distance measuring device can be used.
【0068】さらに、本発明の画像処理装置および画像
処理方法によれば、背景等を含む被写体像から取得した
距離情報、輝度情報を用いた被写体抽出処理において、
まず、距離情報に基づいて抽出範囲を自動的に限定し、
抽出範囲を輝度画像に対応づけて、その限定された範囲
内で、背景画像の持つ輝度値との比較処理としてのしき
い値処理を実行する構成としたので、計算処理の負荷が
軽くなり、正確に物体領域を抽出できる。Further, according to the image processing apparatus and the image processing method of the present invention, in the subject extraction processing using the distance information and the luminance information obtained from the subject image including the background and the like,
First, the extraction range is automatically limited based on the distance information,
The extraction range is associated with the luminance image, and within the limited range, the threshold processing is performed as the comparison processing with the luminance value of the background image, so that the calculation processing load is reduced, The object region can be accurately extracted.
【図1】本発明の第1の実施の形態に係わる画像処理装
置を示す説明図FIG. 1 is an explanatory diagram showing an image processing apparatus according to a first embodiment of the present invention;
【図2】本発明の画像処理装置において適用可能な再コ
ード化処理による距離情報の取得構成例を示すブロック
図である。FIG. 2 is a block diagram illustrating an example of a configuration of acquiring distance information by recoding processing applicable to the image processing apparatus according to the present invention.
【図3】本発明の画像処理装置におけるカメラ構成例を
示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of a camera in the image processing apparatus according to the present invention.
【図4】本発明の画像処理装置において適用可能な撮像
構成を説明する図である。FIG. 4 is a diagram illustrating an imaging configuration applicable to the image processing apparatus of the present invention.
【図5】本発明の画像処理装置において適用可能な再コ
ード化処理の処理フローを示す図である。FIG. 5 is a diagram showing a processing flow of a recoding process applicable in the image processing apparatus of the present invention.
【図6】本発明の画像処理装置において適用可能な再コ
ード化処理の投影パターンのコード化の例を示す図であ
る。FIG. 6 is a diagram showing an example of coding of a projection pattern in a re-coding process applicable to the image processing apparatus of the present invention.
【図7】本発明の画像処理装置において適用可能な空間
コード化法による距離算出法を示す図である。FIG. 7 is a diagram illustrating a distance calculation method using a space coding method applicable to the image processing apparatus of the present invention.
【図8】本発明の画像処理装置における処理例を説明す
る図である。FIG. 8 is a diagram illustrating a processing example in the image processing apparatus of the present invention.
【図9】本発明の第2の実施の形態に係わる画像処理装
置を示す説明図FIG. 9 is an explanatory diagram showing an image processing apparatus according to a second embodiment of the present invention.
【図10】本発明の第3の実施の形態に係わる画像処理
装置を示す説明図FIG. 10 is an explanatory diagram showing an image processing apparatus according to a third embodiment of the present invention.
11 投光器 12 ハーフミラー 13 第1のカメラ 14 第2のカメラ 20 画像処理部 21 処理部 22 距離画像メモリ 23 画素対応メモリ 24 輝度画像メモリ 25 抽出領域抽出部 26 領域抽出部 27 輪郭抽出部 28 領域決定部 29 ディスプレイ 30 しきい値処理部 31 しきい値情報メモリ 32 背景輝度情報メモリ 33 背景画像情報メモリ 101 カメラ1 102 カメラ2 103 カメラ3 104 投光器 105 ハーフミラー 106 光源 107 マスクパターン 108 強度パターン 109 プリズム 121,123,125 輝度値メモリ 122,124,126 パターン画像メモリ 127 フレームメモリ 128 領域分割部 129 再コード化部 130,131 コード復号部 133 距離情報の統合部 134 3次元メモリ 301 プリズム 302,304 透過フィルタ 303,305 撮像装置 DESCRIPTION OF SYMBOLS 11 Projector 12 Half mirror 13 1st camera 14 2nd camera 20 Image processing part 21 Processing part 22 Distance image memory 23 Pixel correspondence memory 24 Brightness image memory 25 Extraction area extraction part 26 Area extraction part 27 Outline extraction part 28 Area determination Unit 29 display 30 threshold processing unit 31 threshold information memory 32 background luminance information memory 33 background image information memory 101 camera 1 102 camera 2 103 camera 3 104 floodlight 105 half mirror 106 light source 107 mask pattern 108 intensity pattern 109 prism 121 , 123, 125 Luminance value memory 122, 124, 126 Pattern image memory 127 Frame memory 128 Area division unit 129 Recoding unit 130, 131 Code decoding unit 133 Distance information integration unit 134 3D memory Li 301 prism 302 pass filter 303, 305 imaging device
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G01B 11/24 F Fターム(参考) 2F065 AA12 AA56 BB05 CC16 FF07 GG01 HH07 JJ03 JJ05 JJ26 LL00 LL21 LL46 QQ06 QQ13 QQ24 QQ36 QQ42 5B057 BA02 CA01 CA08 CA13 CA16 CB01 CB08 CB12 CB16 CE09 DA08 DB03 DB06 DB09 DC17 DC22 DC30 5C023 AA16 BA02 DA04 DA08 5L096 AA09 CA05 CA17 FA06 FA14 FA19 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G01B 11/24 FF Term (Reference) 2F065 AA12 AA56 BB05 CC16 FF07 GG01 HH07 JJ03 JJ05 JJ26 LL00 LL21 LL46 LL46 QQ06 QQ13 QQ24 QQ36 QQ42 5B057 BA02 CA01 CA08 CA13 CA16 CB01 CB08 CB12 CB16 CE09 DA08 DB03 DB06 DB09 DC17 DC22 DC30 5C023 AA16 BA02 DA04 DA08 5L096 AA09 CA05 CA17 FA06 FA14 FA19
Claims (12)
定被写体画像の抽出処理を実行する画像処理装置であ
り、 抽出対象となる被写体像を含む画像を撮像して取得され
る輝度画像および、前記輝度画像中に含まれる画素に対
応する距離情報に基づく距離画像を生成する処理手段
と、 前記距離情報に基づいて、前記抽出対象となる被写体像
と、その他の領域との境界領域を求め、前記輝度画像中
に抽出領域を設定する抽出領域抽出手段と、 前記抽出領域抽出手段の設定した抽出領域内において、
抽出対象となる被写体像の領域を決定する処理を実行す
る領域抽出手段と、 を有することを特徴とする画像処理装置。An image processing apparatus for executing a process of extracting a specific subject image from an image obtained by an imaging unit, comprising: a brightness image obtained by capturing an image including a subject image to be extracted; Processing means for generating a distance image based on distance information corresponding to the pixels included in the luminance image, based on the distance information, the subject image to be extracted, and a boundary area between the other areas, An extraction region extraction unit that sets an extraction region in a luminance image, and within the extraction region set by the extraction region extraction unit,
An image processing apparatus comprising: an area extracting unit configured to execute a process of determining an area of a subject image to be extracted.
となる被写体像と、その他の領域との境界領域におい
て、前記抽出対象となる被写体像の輪郭の追跡処理を実
行する輪郭抽出部を有し、 該輪郭抽出部は、前記輝度画像中の前記境界領域に含ま
れる画素の輝度値に基づいて前記抽出対象となる被写体
像と、その他の領域との境界線を求める処理を実行する
構成を有することを特徴とする請求項1に記載の画像処
理装置。2. A tracing process of a contour of the subject image to be extracted in a boundary area between the subject image to be extracted obtained by the extracted region extracting means and another region. The contour extraction unit performs a boundary extraction between the subject image to be extracted based on the luminance values of the pixels included in the boundary region in the luminance image and another region. The image processing apparatus according to claim 1, wherein the image processing apparatus has a configuration for performing a process of obtaining
除く背景画像情報または背景画像の輝度情報を格納した
メモリと、 前記抽出領域抽出手段によって設定された抽出領域にお
ける各画素の輝度情報と、前記メモリに格納された背景
画像情報または背景画像の輝度情報との比較処理を実行
するしきい値処理手段とを有し、 該しきい値処理手段は、前記抽出領域抽出手段によって
設定された抽出領域に含まれる画素の輝度値と前記メモ
リに格納された背景画像情報または背景画像の輝度情報
から取得される輝度値との差分をあらかじめ定めたしき
い値と比較し、前記抽出対象となる被写体像を抽出する
処理を実行する構成を有することを特徴とする請求項1
に記載の画像処理装置。3. A memory storing background image information or background image luminance information excluding a specific subject image in an image obtained by an imaging unit, wherein the extraction unit sets an extraction set by the extraction region extraction unit. Threshold value processing means for performing a comparison process between the luminance information of each pixel in the region and the background image information stored in the memory or the luminance information of the background image; The difference between the luminance value of the pixel included in the extraction area set by the extraction area extraction means and the luminance value obtained from the background image information stored in the memory or the luminance information of the background image is determined in advance by a predetermined threshold value. 2. The apparatus according to claim 1, further comprising: executing a process of comparing and extracting the subject image to be extracted.
An image processing apparatus according to claim 1.
す距離画像を生成し、 前記抽出領域抽出手段は、前記格子状の領域毎に対応付
けた輝度情報に基づいて前記抽出対象となる被写体像
と、その他の領域との境界領域を求め、前記輝度画像中
に抽出領域を設定する構成であることを特徴とする請求
項1に記載の画像処理装置。4. The processing means generates a distance image indicating distance information for each grid-like area on the image as distance information, and the extraction area extracting means generates a brightness associated with each grid-like area. 2. The image processing apparatus according to claim 1, wherein a boundary area between the subject image to be extracted and another area is obtained based on information, and an extraction area is set in the luminance image. .
子点の隣接格子点との輝度値の差に基づいて抽出領域を
輝度画像に設定する構成であることを特徴とする請求項
4に記載の画像処理装置。5. The apparatus according to claim 4, wherein said extraction area extracting means sets an extraction area in the luminance image based on a difference in luminance value between a grid point and an adjacent lattice point in the luminance image. An image processing apparatus according to claim 1.
撮像手段とによって撮影される投光パターンとともに撮
影された画像に基づいて撮影画像の距離情報を求め、第
1の撮像手段による撮影パターンの変化量が所定値以上
の領域について、該第1の撮像手段による撮影パターン
に対応する新規コードを割り付け、前記新規コードに基
づいて第2の撮像手段による撮影パターンから前記第1
の距離情報を生成する再コード化法による距離情報生成
を実行する構成であることを特徴とする請求項1に記載
の画像処理装置。6. The processing means according to claim 1, wherein distance information of the photographed image is obtained based on an image photographed together with a light projection pattern photographed by said first imaging means and said second imaging means from different directions with respect to a subject. A new code corresponding to the pattern obtained by the first imaging means is assigned to a region where the amount of change of the imaging pattern by the first imaging means is equal to or greater than a predetermined value, and the second imaging means is assigned based on the new code. From the shooting pattern, the first
The image processing apparatus according to claim 1, wherein distance information is generated by a re-encoding method for generating distance information.
定被写体画像の抽出処理を実行する画像処理方法であ
り、 抽出対象となる被写体像を含む画像を撮像して取得され
る輝度画像および、前記輝度画像中に含まれる画素に対
応する距離情報に基づく距離画像を生成する画像生成処
理ステップと、 前記距離情報に基づいて、前記抽出対象となる被写体像
と、その他の領域との境界領域を求め、前記輝度画像中
に抽出領域を設定する抽出領域抽出ステップと、 前記抽出領域抽出ステップにおいて設定した抽出領域内
において、抽出対象となる被写体像の領域を決定する処
理を実行する領域抽出ステップと、 を有することを特徴とする画像処理方法。7. An image processing method for executing a process of extracting a specific subject image from an image obtained by an imaging unit, comprising: a luminance image obtained by capturing an image including a subject image to be extracted; An image generation processing step of generating a distance image based on distance information corresponding to a pixel included in the luminance image; and obtaining a boundary area between the subject image to be extracted and another area based on the distance information. An extraction area extraction step of setting an extraction area in the luminance image; and an extraction step of executing a process of determining an area of a subject image to be extracted in the extraction area set in the extraction area extraction step. An image processing method comprising:
対象となる被写体像と、その他の領域との境界領域にお
いて、前記抽出対象となる被写体像の輪郭の追跡処理を
実行する輪郭抽出ステップを有し、 該輪郭抽出ステップは、前記輝度画像中の前記境界領域
に含まれる画素の輝度値に基づいて前記抽出対象となる
被写体像と、その他の領域との境界線を求める処理を実
行することを特徴とする請求項7に記載の画像処理方
法。8. The area extracting step includes: tracking a contour of the subject image to be extracted in a boundary area between the subject image to be extracted obtained in the extracting area extracting step and another area. A contour extraction step of executing a boundary line between the subject image to be extracted and another region based on a luminance value of a pixel included in the boundary region in the luminance image. The image processing method according to claim 7, further comprising:
における各画素の輝度情報と、メモリに格納された背景
画像情報または背景画像の輝度情報との比較処理を実行
するしきい値処理ステップを含み、 該しきい値処理ステップは、前記抽出領域抽出ステップ
において設定された抽出領域に含まれる画素の輝度値と
前記メモリに格納された背景画像情報または背景画像の
輝度情報から取得される輝度値との差分をあらかじめ定
めたしきい値と比較し、前記抽出対象となる被写体像を
抽出する処理を実行することを特徴とする請求項7に記
載の画像処理方法。9. The area extracting step executes a process of comparing luminance information of each pixel in an extraction area set in the extraction area extracting step with background image information or luminance information of a background image stored in a memory. A threshold value processing step, wherein the threshold value processing step includes a luminance value of a pixel included in the extraction region set in the extraction region extraction step and a background image information or a luminance of the background image stored in the memory. 8. The image processing method according to claim 7, wherein a difference from a luminance value obtained from the information is compared with a predetermined threshold value, and a process of extracting the subject image to be extracted is executed.
す距離画像を生成し、 前記抽出領域抽出ステップは、 前記格子状の領域毎に対応付けた輝度情報に基づいて前
記抽出対象となる被写体像と、その他の領域との境界領
域を求め、前記輝度画像中に抽出領域を設定することを
特徴とする請求項7に記載の画像処理方法。10. The image generation processing step generates a distance image indicating distance information for each lattice area on the image as distance information, and the extraction area extraction step associates each of the lattice areas with each other. 8. The image processing method according to claim 7, wherein a boundary area between the subject image to be extracted and another area is obtained based on the obtained luminance information, and an extraction area is set in the luminance image.
中の格子点の隣接格子点との輝度値の差に基づいて抽出
領域を輝度画像に設定することを特徴とする請求項10
に記載の画像処理方法。11. The method according to claim 10, wherein said extracting area extracting step sets an extracting area to a luminance image based on a difference in luminance value between a grid point and a neighboring grid point in the luminance image.
The image processing method according to 1.
撮像手段とによって撮影される投光パターンとともに撮
影された画像に基づいて撮影画像の距離情報を求め、第
1の撮像手段による撮影パターンの変化量が所定値以上
の領域について、該第1の撮像手段による撮影パターン
に対応する新規コードを割り付け、前記新規コードに基
づいて第2の撮像手段による撮影パターンから前記第1
の距離情報を生成する再コード化法による距離情報生成
を実行することを特徴とする請求項7に記載の画像処理
方法。12. The image generation processing step includes the steps of: a distance of a photographed image based on an image photographed together with a light projection pattern photographed by a first image pickup means and a second image pickup means from different directions with respect to a subject; Information is obtained, and a new code corresponding to the shooting pattern by the first imaging means is assigned to an area where the amount of change of the shooting pattern by the first imaging means is equal to or greater than a predetermined value, and the second imaging is performed based on the new code. From the photographing pattern by means
8. The image processing method according to claim 7, wherein distance information is generated by a re-coding method for generating distance information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000306065A JP3965894B2 (en) | 2000-10-05 | 2000-10-05 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000306065A JP3965894B2 (en) | 2000-10-05 | 2000-10-05 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002117403A true JP2002117403A (en) | 2002-04-19 |
JP3965894B2 JP3965894B2 (en) | 2007-08-29 |
Family
ID=18786817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000306065A Expired - Fee Related JP3965894B2 (en) | 2000-10-05 | 2000-10-05 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3965894B2 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004133567A (en) * | 2002-10-09 | 2004-04-30 | Hitachi Ltd | Mobile object and its position detector |
JP2005352988A (en) * | 2004-06-14 | 2005-12-22 | Univ Of Tokyo | Image extracting apparatus |
JP2010016546A (en) * | 2008-07-02 | 2010-01-21 | Nikon Corp | Imaging device |
JP2012093295A (en) * | 2010-10-28 | 2012-05-17 | Shigenori Tanaka | Target region extractor |
JP2013182330A (en) * | 2012-02-29 | 2013-09-12 | Canon Inc | Image processor and image processing method |
JP2014013574A (en) * | 2006-10-10 | 2014-01-23 | Nikon Corp | Image classification program, image classification device and electronic camera |
JP2017058628A (en) * | 2015-09-18 | 2017-03-23 | 日本電信電話株式会社 | Spatial image performance device, control method of the spatial image performance device, and video system |
US9979858B2 (en) | 2014-07-22 | 2018-05-22 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and program |
CN110944118A (en) * | 2018-09-25 | 2020-03-31 | 富士施乐株式会社 | Storage medium, image processing apparatus, and image processing method |
CN112861835A (en) * | 2019-11-12 | 2021-05-28 | Oppo广东移动通信有限公司 | Subject detection method, apparatus, electronic device, and computer-readable storage medium |
JP7525744B2 (en) | 2021-02-12 | 2024-07-30 | エーエムエス-オスラム・アジア・パシフィック・ピーティーイー・リミテッド | Coded aperture imaging system and method |
JP7549221B2 (en) | 2021-02-26 | 2024-09-11 | 株式会社デンソーウェーブ | Recognition System |
WO2024219215A1 (en) * | 2023-04-20 | 2024-10-24 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
-
2000
- 2000-10-05 JP JP2000306065A patent/JP3965894B2/en not_active Expired - Fee Related
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004133567A (en) * | 2002-10-09 | 2004-04-30 | Hitachi Ltd | Mobile object and its position detector |
JP2005352988A (en) * | 2004-06-14 | 2005-12-22 | Univ Of Tokyo | Image extracting apparatus |
JP4590546B2 (en) * | 2004-06-14 | 2010-12-01 | 国立大学法人 東京大学 | Image extraction device |
JP2014013574A (en) * | 2006-10-10 | 2014-01-23 | Nikon Corp | Image classification program, image classification device and electronic camera |
US9036922B2 (en) | 2006-10-10 | 2015-05-19 | Nikon Corporation | Image classification program, image classification device, and electronic camera |
JP2010016546A (en) * | 2008-07-02 | 2010-01-21 | Nikon Corp | Imaging device |
JP2012093295A (en) * | 2010-10-28 | 2012-05-17 | Shigenori Tanaka | Target region extractor |
JP2013182330A (en) * | 2012-02-29 | 2013-09-12 | Canon Inc | Image processor and image processing method |
US9979858B2 (en) | 2014-07-22 | 2018-05-22 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and program |
JP2017058628A (en) * | 2015-09-18 | 2017-03-23 | 日本電信電話株式会社 | Spatial image performance device, control method of the spatial image performance device, and video system |
CN110944118A (en) * | 2018-09-25 | 2020-03-31 | 富士施乐株式会社 | Storage medium, image processing apparatus, and image processing method |
CN110944118B (en) * | 2018-09-25 | 2024-01-26 | 富士胶片商业创新有限公司 | Computer readable storage medium, image processing apparatus, and image processing method |
CN112861835A (en) * | 2019-11-12 | 2021-05-28 | Oppo广东移动通信有限公司 | Subject detection method, apparatus, electronic device, and computer-readable storage medium |
JP7525744B2 (en) | 2021-02-12 | 2024-07-30 | エーエムエス-オスラム・アジア・パシフィック・ピーティーイー・リミテッド | Coded aperture imaging system and method |
JP7549221B2 (en) | 2021-02-26 | 2024-09-11 | 株式会社デンソーウェーブ | Recognition System |
WO2024219215A1 (en) * | 2023-04-20 | 2024-10-24 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP3965894B2 (en) | 2007-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8218858B2 (en) | Enhanced object reconstruction | |
JP3482990B2 (en) | 3D image capturing device | |
JP5015126B2 (en) | Image generation method, image authentication method, image generation apparatus, image authentication apparatus, program, and recording medium | |
JP3965894B2 (en) | Image processing apparatus and image processing method | |
CN111412842A (en) | Method, device and system for measuring cross-sectional dimension of wall surface | |
JP5101429B2 (en) | Image monitoring device | |
US7280685B2 (en) | Object segmentation from images acquired by handheld cameras | |
CN107590828A (en) | The virtualization treating method and apparatus of shooting image | |
JP3384329B2 (en) | 3D image capturing device | |
JP6285686B2 (en) | Parallax image generation device | |
JP2004110804A (en) | Three-dimensional image photographing equipment and method | |
JPH08210847A (en) | Image processing method | |
JPH0791927A (en) | Three dimensional measuring device | |
JP6591332B2 (en) | Radiation intensity distribution measuring system and method | |
JPH10269365A (en) | Characteristic extracting method, and object recognition device using the method | |
JPH08329110A (en) | Method for processing picture | |
CN111489384A (en) | Occlusion assessment method, device, equipment, system and medium based on mutual view | |
JP3852285B2 (en) | 3D shape measuring apparatus and 3D shape measuring method | |
JP3932776B2 (en) | 3D image generation apparatus and 3D image generation method | |
JP2005078482A (en) | Method of detecting traveling direction of object | |
JP3525712B2 (en) | Three-dimensional image capturing method and three-dimensional image capturing device | |
JP2002013918A (en) | Three-dimensional image forming device and three- dimensional image forming method | |
JP2004077410A (en) | Target projection type three-dimensional geometry measuring method and target projection type three-dimensional geometry measuring apparatus | |
CN111080689B (en) | Method and device for determining face depth map | |
CN115797995A (en) | Face living body detection method, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061017 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070206 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070508 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070521 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110608 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110608 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120608 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130608 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |