JP2012109723A - Image processing device, image processing method, control program for image processing device, and computer readable recording medium with program recorded thereon - Google Patents
Image processing device, image processing method, control program for image processing device, and computer readable recording medium with program recorded thereon Download PDFInfo
- Publication number
- JP2012109723A JP2012109723A JP2010255950A JP2010255950A JP2012109723A JP 2012109723 A JP2012109723 A JP 2012109723A JP 2010255950 A JP2010255950 A JP 2010255950A JP 2010255950 A JP2010255950 A JP 2010255950A JP 2012109723 A JP2012109723 A JP 2012109723A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- image
- pixel
- image processing
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000003384 imaging method Methods 0.000 claims description 59
- 238000004364 calculation method Methods 0.000 claims description 53
- 230000005540 biological transmission Effects 0.000 claims description 28
- 238000007405 data analysis Methods 0.000 abstract description 14
- 238000009499 grossing Methods 0.000 abstract 1
- 238000000034 method Methods 0.000 description 70
- 230000008569 process Effects 0.000 description 47
- 238000010586 diagram Methods 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000015654 memory Effects 0.000 description 7
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 101150012579 ADSL gene Proteins 0.000 description 1
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 1
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、画像の一部または全部の鮮明度を低減する(ぼかす)処理を行う画像処理装置等に関する発明である。 The present invention relates to an image processing apparatus or the like that performs a process of reducing (blurring) the sharpness of part or all of an image.
一般的なテレビ電話装置では、テレビ電話装置の使用者をカメラで撮影した画像を、通話先である相手のテレビ電話装置に対してそのまま送信する。しかし、使用者は、部屋が散らかっているとき等、相手に対して背景を見せたくない場合がある。 In a general videophone device, an image obtained by photographing a user of the videophone device with a camera is transmitted as it is to the other party's videophone device which is a call destination. However, the user may not want to show the background to the other party when the room is cluttered.
このような場合に、使用者の背景を相手に対して見せないように、相手のテレビ電話装置に送信すべき画像に対して画像処理を行う技術として、特許文献1および2に開示されている技術が挙げられる。
In such a case,
特許文献1には、送信すべき画像から、人物の特に顔の部分を抽出し、該抽出した部分以外の画像部分に対してフェード処理を施す技術が開示されている。特許文献1に開示されている技術では、該送信すべき画像から抽出した人物の顔等のみを相手に見せることにより、相手に対して使用者の表情を伝える一方、顔以外の部分の画像データを消去して、使用者の背景に写るプライベートな画像情報を、相手に見せないようにしている。
また、特許文献2には、2台のカメラから撮影した画像を利用して物体までの距離を求め、撮影する対象物以外と認識される距離にある背景を、予め用意した画像に置き換える技術が開示されている。
特許文献1に開示されているような、送信すべき画像から人物の顔等を抽出して、該抽出した画像部分以外を見せないようにする技術では、顔以外の物体を相手に対して見せたいときであっても、該物体の画像が上記フェード処理等によって消去されるという問題が発生する。
In the technique disclosed in
ここで、特許文献1に係るテレビ電話装置において、上記の問題を解決するためには、抽出する部位を増加させて、上記物体を抽出の対象に含めることが考えられる。しかし、該抽出する部位を増加させるためには、部位の増加数と同数の、画像の加工回路および2値化回路のそれぞれを少なくとも追加する必要がある。このため、特許文献1に係るテレビ電話装置では、顔以外の物体を相手に対して見せるように構成すると、回路規模が増大するという問題が発生する。
Here, in the videophone device according to
また、特許文献1に開示されている技術では、テレビ電話装置を人ごみで使用した場合に、使用者の顔以外に、使用者の後ろを通過した他人の顔も抽出される虞があるため、該抽出された他人の顔についても相手から見える。従って、特許文献1に開示されている技術では、使用者の背景に写る、相手に見せたくない画像が相手に見えてしまう虞があるという問題が発生する。
In addition, in the technique disclosed in
特許文献2に開示されている技術では、背景を予め用意された画像に置き換えるため、相手に対して通話現場の状況を伝えることができない場合があるという問題が発生する。例えば、夜に自宅から電話をしている場合でも、南国の昼間の風景を背景画像に利用すると、本当に自宅から電話しているのか相手に伝わらない。
In the technique disclosed in
また、特許文献2に係る画像伝送装置では、背景画像を記録するメモリが必要となるため、回路規模が増大するという問題が発生する。
Further, the image transmission apparatus according to
本発明は、上記の問題に鑑みて為された発明であり、その目的は、簡易な構成により、画像の一部または全部の鮮明度を低減する(ぼかす)処理を行う画像処理装置等を提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing apparatus or the like that performs processing to reduce (blur) part or all of an image with a simple configuration. There is to do.
本発明の画像処理装置は、上記の問題を解決するために、撮像対象が撮像された撮像画像に対して、該撮像画像の一部又は全部の鮮明度を低減する処理を施し、該鮮明度を低減した出力画像を出力する画像処理装置であって、距離画像センサから得られる距離画像であって、上記距離画像を構成する画素である距離画素のそれぞれは上記撮像画像を構成する画素である撮像画素のいずれかと対応付けられており、上記撮像対象の当該距離画像センサからの距離を示す距離データが上記距離画素毎に対応付けて記録されている距離画像を取得する距離画像取得手段と、上記距離画像取得手段により取得した距離画像から、上記距離画素に対応付けて記録された距離データを上記距離画素毎に取得するとともに、該取得した距離データが所定閾値を超えるか否かを上記距離画素毎に判定する判定手段と、上記撮像画像のうち、上記判定手段により距離データが上記所定閾値を超えると判定した上記距離画素に対応する上記撮像画素の画素値に対して所定演算を行うことによって上記出力画像を生成する画像生成手段とを備えることを特徴としている。 In order to solve the above-described problem, the image processing apparatus of the present invention performs a process for reducing the sharpness of a part or all of the captured image on the captured image obtained by capturing the captured image. Is a distance image obtained from a distance image sensor, and each of the distance pixels that constitute the distance image is a pixel that constitutes the captured image. Distance image acquisition means that is associated with any one of the imaging pixels and that obtains a distance image in which distance data indicating the distance from the distance image sensor of the imaging target is recorded in association with each distance pixel; The distance data recorded in association with the distance pixel is acquired for each distance pixel from the distance image acquired by the distance image acquisition means, and the acquired distance data is a predetermined threshold value. A determination unit that determines whether or not the distance pixel exceeds the pixel value of the imaging pixel corresponding to the distance pixel that is determined by the determination unit that the distance data exceeds the predetermined threshold among the captured images. And an image generation means for generating the output image by performing a predetermined calculation.
また、本発明の画像処理方法は、上記の問題を解決するために、撮像対象が撮像された撮像画像に対して、該撮像画像の一部又は全部の鮮明度を低減する処理を施し、該鮮明度を低減した出力画像を出力する画像処理方法であって、距離画像センサから得られる距離画像であって、上記距離画像を構成する画素である距離画素のそれぞれは上記撮像画像を構成する画素である撮像画素のいずれかと対応付けられており、上記撮像対象の当該距離画像センサからの距離を示す距離データが上記距離画素毎に対応付けて記録されている距離画像を取得する距離画像取得ステップと、上記距離画像取得ステップにて取得した距離画像から、上記距離画素に対応付けて記録された距離データを上記距離画素毎に取得するとともに、該取得した距離データが所定閾値を超えるか否かを上記距離画素毎に判定する判定ステップと、上記撮像画像のうち、上記判定ステップにて距離データが上記所定閾値を超えると判定した上記距離画素に対応する上記撮像画素の画素値に対して所定演算を行うことによって上記出力画像を生成する画像生成ステップとを含むことを特徴としている。 Further, in order to solve the above-described problem, the image processing method of the present invention performs a process for reducing the sharpness of a part or all of the captured image on the captured image obtained by capturing the captured image, An image processing method for outputting an output image with reduced sharpness, which is a distance image obtained from a distance image sensor, wherein each of the distance pixels that constitute the distance image is a pixel that constitutes the captured image A distance image acquisition step of acquiring a distance image that is associated with any one of the imaging pixels and that indicates distance data indicating a distance from the distance image sensor of the imaging target in association with each distance pixel. And distance data recorded in association with the distance pixel from the distance image acquired in the distance image acquisition step for each distance pixel, and the acquired distance data. A determination step for determining whether or not the distance pixel exceeds a predetermined threshold value, and the imaging corresponding to the distance pixel that is determined in the determination step that the distance data exceeds the predetermined threshold value among the captured images. And an image generation step of generating the output image by performing a predetermined calculation on the pixel value of the pixel.
上記の構成によれば、本発明の画像処理装置は、撮像画素のそれぞれと対応付けられた各距離画素に記録された各距離データを、所定閾値と比較した結果に基づいて、比較した該距離データが記録されている距離画素に対応する撮像画素に対して、上記鮮明度を低減する画像処理(所定演算)を行うか否かを制御する。 According to the above configuration, the image processing apparatus of the present invention compares the distance data recorded in each distance pixel associated with each imaging pixel based on the result of comparison with the predetermined threshold. Whether or not to perform the image processing (predetermined calculation) for reducing the sharpness is controlled with respect to the imaging pixel corresponding to the distance pixel in which data is recorded.
すなわち、本発明の画像処理装置は、撮像画素の画素単位で、距離画像センサから撮像対象までの距離が所定閾値を超えているとき、鮮明度を低減する(ぼかす)画像処理を行う。 That is, the image processing apparatus of the present invention performs image processing for reducing (blurring) the sharpness when the distance from the distance image sensor to the imaging target exceeds a predetermined threshold in the pixel unit of the imaging pixel.
このため、距離画像センサから近い位置にある物体(画像処理装置の使用者等)について、当該物体の距離画像センサからの距離が上記所定閾値を超えない場合は、撮像画像における該物体が撮像された領域に対して鮮明度を低減する画像処理が行われない。 For this reason, for an object (such as a user of an image processing apparatus) that is close to the distance image sensor, if the distance of the object from the distance image sensor does not exceed the predetermined threshold, the object in the captured image is captured. The image processing for reducing the sharpness is not performed on the region.
一方、距離画像センサから遠い位置にある物体(画像処理装置の使用者の背景等)について、当該物体の距離画像センサからの距離が上記所定閾値を超える場合は、撮像画像における該物体が撮像された領域に対して鮮明度を低減する画像処理が行われる。 On the other hand, when the distance from the distance image sensor of the object at a position far from the distance image sensor (such as the background of the user of the image processing apparatus) exceeds the predetermined threshold, the object is captured in the captured image. Image processing for reducing the sharpness is performed on the region.
つまり、本発明の画像処理装置は、画像処理装置の使用者の背景等を見えづらくするように鮮明度が低減された画像を、簡易な構成により生成することが可能となる。 That is, the image processing apparatus of the present invention can generate an image with a reduced sharpness so as to make it difficult to see the background or the like of the user of the image processing apparatus with a simple configuration.
また、鮮明度を低減する画像処理は、一般的に知られている画像のぼかし技術を適用することができるので、簡易な構成により実現することができる。 Further, the image processing for reducing the sharpness can be realized with a simple configuration because a generally known image blurring technique can be applied.
また、本発明の画像処理装置の上記画像生成手段は、上記所定演算を行う対象となる上記撮像画素の画素値および当該撮像画素に隣接する上記撮像画素の画素値を用いて上記所定演算を行うことを特徴としている。 Further, the image generation means of the image processing apparatus of the present invention performs the predetermined calculation using the pixel value of the imaging pixel to be subjected to the predetermined calculation and the pixel value of the imaging pixel adjacent to the imaging pixel. It is characterized by that.
また、本発明の画像処理装置の上記画像生成手段は、上記所定演算として、上記所定演算を施す対象となる撮像画素の画素値を、当該撮像画素の画素値および当該撮像画素に隣接する撮像画素の画素値の加重平均値に変更することを特徴としている。 Further, the image generation unit of the image processing apparatus of the present invention uses, as the predetermined calculation, a pixel value of an imaging pixel to be subjected to the predetermined calculation, a pixel value of the imaging pixel, and an imaging pixel adjacent to the imaging pixel. The pixel value is changed to a weighted average value.
さらに、本発明の画像処理装置の上記画像生成手段は、上記所定演算を施す対象となる撮像画素に対応する上記距離画素に対応付けて記録された距離データに応じた係数を、当該撮像画素の画素値および当該撮像画素に隣接する撮像画素の画素値に乗じてから、上記加重平均値を算出することを特徴としている。 Furthermore, the image generation unit of the image processing apparatus of the present invention uses a coefficient corresponding to the distance data recorded in association with the distance pixel corresponding to the imaging pixel to be subjected to the predetermined calculation, as a coefficient of the imaging pixel. The weighted average value is calculated after multiplying the pixel value and the pixel value of the imaging pixel adjacent to the imaging pixel.
上記の構成によれば、距離データに応じた係数を、処理対象の撮像画素の画素値、およびその近傍の各撮像画素の画素値に乗じて、これらの各画素値の加重平均値を求め、該処理対象の撮像画素の画素値を、該加重平均値に変更することにより、該処理対象の撮像画素に対して、鮮明度を低減する画像処理を行う。 According to the above configuration, the coefficient corresponding to the distance data is multiplied by the pixel value of the imaging pixel to be processed and the pixel value of each imaging pixel in the vicinity thereof to obtain a weighted average value of these pixel values, By changing the pixel value of the imaging pixel to be processed to the weighted average value, image processing for reducing the sharpness is performed on the imaging pixel to be processed.
上記の構成によれば、周知のぼかしフィルタ(ローパスフィルタ)を用いた、撮像画像のぼかし処理により、上記鮮明度を低減する画像処理が実現可能となるので、該画像処理を施した領域について、ぼかし処理前の状態が判別可能な出力画像を作成することができる。 According to the above configuration, the image processing for reducing the sharpness can be realized by blurring the captured image using a known blur filter (low-pass filter). An output image in which the state before the blurring process can be determined can be created.
また、上記の構成によれば、係数を距離データに応じて変更することにより、撮像画像においては、距離画像センサから近い距離の物体と、距離画像センサから遠い距離の物体とで、ぼかし度合いを変更することができる。これにより、距離画像センサから遠い距離の物体の画像を、距離画像センサから近い距離の物体の画像よりも大幅にぼかす、等といった処理が可能となる。 Further, according to the above configuration, by changing the coefficient according to the distance data, in the captured image, the blurring degree is reduced between an object at a distance close to the distance image sensor and an object at a distance far from the distance image sensor. Can be changed. Thereby, it is possible to perform processing such as blurring an image of an object at a distance far from the distance image sensor more significantly than an image of an object at a distance near the distance image sensor.
また、本発明の画像処理装置は、上記画像生成手段により生成された上記出力画像を上記画像処理装置の外部に送信する画像送信手段をさらに備えることを特徴としている。 The image processing apparatus of the present invention is further characterized by further comprising image transmission means for transmitting the output image generated by the image generation means to the outside of the image processing apparatus.
上記の構成によれば、出力画像を、画像処理装置の外部に送信することができるので、外部の装置が出力画像を利用することが可能となる。 According to the above configuration, since the output image can be transmitted to the outside of the image processing apparatus, the external apparatus can use the output image.
なお、本発明の画像処理装置を備えた装置の一例としては、テレビ電話装置が挙げられる。本発明の画像処理装置を備えたテレビ電話装置は、相手に見せたい物体を距離画像センサから近い位置に配置することにより、当該物体が画像から消去される虞を低減することが可能である。また、本発明の画像処理装置を備えたテレビ電話装置は、画像から抽出する部位(対象)を増やすこと無く、上記所定閾値に応じて、鮮明度を低減する画像処理を行うか否かを区別することが可能となるので、回路規模を増大させる必要が無い。また、本発明の画像処理装置を備えたテレビ電話装置は、画像処理によって背景の鮮明度を低減させるので、背景の差し替えを行う必要が無く、相手に対して通話現場の状況を伝えることが可能となる。さらに、本発明の画像処理装置を備えたテレビ電話装置は、背景画像を記録するメモリが不要となるため、回路規模の増大を抑制することが可能となる。 An example of a device provided with the image processing device of the present invention is a videophone device. The videophone device including the image processing device of the present invention can reduce the possibility that the object is erased from the image by disposing the object to be shown to the other party at a position close to the distance image sensor. In addition, the videophone apparatus including the image processing apparatus of the present invention distinguishes whether or not to perform image processing for reducing the sharpness according to the predetermined threshold without increasing the number of parts (targets) extracted from the image. Therefore, it is not necessary to increase the circuit scale. In addition, since the videophone apparatus provided with the image processing apparatus of the present invention reduces the clearness of the background through image processing, it is not necessary to replace the background, and it is possible to convey the situation of the call site to the other party. It becomes. Furthermore, since the videophone apparatus provided with the image processing apparatus of the present invention does not require a memory for recording a background image, it is possible to suppress an increase in circuit scale.
なお、上記画像処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記画像処理装置をコンピュータにて実現させる画像処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The image processing apparatus may be realized by a computer. In this case, an image processing apparatus control program for causing the image processing apparatus to be realized by the computer by causing the computer to operate as the above-described means, and A computer-readable recording medium on which is recorded also falls within the scope of the present invention.
以上のとおり、本発明の画像処理装置は、撮像対象が撮像された撮像画像に対して、該撮像画像の一部又は全部の鮮明度を低減する処理を施し、該鮮明度を低減した出力画像を出力する画像処理装置であって、距離画像センサから得られる距離画像であって、上記距離画像を構成する画素である距離画素のそれぞれは上記撮像画像を構成する画素である撮像画素のいずれかと対応付けられており、上記撮像対象の当該距離画像センサからの距離を示す距離データが上記距離画素毎に対応付けて記録されている距離画像を取得する距離画像取得手段と、上記距離画像取得手段により取得した距離画像から、上記距離画素に対応付けて記録された距離データを上記距離画素毎に取得するとともに、該取得した距離データが所定閾値を超えるか否かを上記距離画素毎に判定する判定手段と、上記撮像画像のうち、上記判定手段により距離データが上記所定閾値を超えると判定した上記距離画素に対応する上記撮像画素の画素値に対して所定演算を行うことによって上記出力画像を生成する画像生成手段とを備える構成である。 As described above, the image processing apparatus of the present invention performs processing for reducing the sharpness of part or all of the captured image on the captured image obtained by capturing the imaging target, and outputs the image with the reduced sharpness. A distance image obtained from a distance image sensor, wherein each of the distance pixels that constitute the distance image is one of the imaging pixels that constitute the captured image. Distance image acquisition means for acquiring a distance image in which distance data indicating the distance from the distance image sensor to be imaged is associated and recorded for each distance pixel, and the distance image acquisition means The distance data recorded in association with the distance pixel is acquired for each distance pixel from the distance image acquired by the above, and whether or not the acquired distance data exceeds a predetermined threshold value A determination unit that determines for each distance pixel; and a predetermined calculation for the pixel value of the imaging pixel corresponding to the distance pixel that is determined by the determination unit that the distance data exceeds the predetermined threshold among the captured images. And an image generating means for generating the output image by performing the above.
また、本発明の画像処理方法は、撮像対象が撮像された撮像画像に対して、該撮像画像の一部又は全部の鮮明度を低減する処理を施し、該鮮明度を低減した出力画像を出力する画像処理方法であって、距離画像センサから得られる距離画像であって、上記距離画像を構成する画素である距離画素のそれぞれは上記撮像画像を構成する画素である撮像画素のいずれかと対応付けられており、上記撮像対象の当該距離画像センサからの距離を示す距離データが上記距離画素毎に対応付けて記録されている距離画像を取得する距離画像取得ステップと、上記距離画像取得ステップにて取得した距離画像から、上記距離画素に対応付けて記録された距離データを上記距離画素毎に取得するとともに、該取得した距離データが所定閾値を超えるか否かを上記距離画素毎に判定する判定ステップと、上記撮像画像のうち、上記判定ステップにて距離データが上記所定閾値を超えると判定した上記距離画素に対応する上記撮像画素の画素値に対して所定演算を行うことによって上記出力画像を生成する画像生成ステップとを含む方法である。 In addition, the image processing method of the present invention performs a process for reducing the sharpness of a part or all of the captured image on the captured image obtained by capturing the imaging target, and outputs an output image with the reduced sharpness. A distance image obtained from a distance image sensor, wherein each of the distance pixels that constitute the distance image is associated with one of the imaging pixels that constitute the captured image. A distance image acquisition step of acquiring a distance image in which distance data indicating a distance from the distance image sensor of the imaging target is recorded in association with each distance pixel; and the distance image acquisition step From the acquired distance image, distance data recorded in association with the distance pixel is acquired for each distance pixel, and whether or not the acquired distance data exceeds a predetermined threshold value. A determination step for determining each distance pixel; and a predetermined calculation for the pixel value of the image pickup pixel corresponding to the distance pixel that is determined that the distance data exceeds the predetermined threshold in the determination step among the captured images. An image generation step of generating the output image by performing.
従って、簡易な構成により、画像の一部または全部の鮮明度を低減する(ぼかす)処理を行うことが可能であるという効果を奏する。 Therefore, it is possible to perform a process of reducing (blurring) the sharpness of a part or all of an image with a simple configuration.
実施の形態1に係る画像処理装置101、および、実施の形態2に係る画像処理ユニット1001は、概略的に言えば、画像の一部又は全部の鮮明度を低減する(ぼかす)画像処理を行う装置であり、画像を表すデジタル信号を処理する種々の装置に適用することが可能である。中でも、画像処理装置101および画像処理ユニット1001は、テレビ電話装置において使用者を撮像した画像(撮影)に対して画像処理を行う装置に好適に適用できる。
Generally speaking, the
従って、各実施の形態では、画像処理装置101および画像処理ユニット1001を、テレビ電話装置が備える画像処理装置に適用したケースを例に挙げて説明する。ただし、画像処理装置101および画像処理ユニット1001の適用先をテレビ電話装置に限定するものではない。
Therefore, in each embodiment, a case where the
〔実施の形態1〕
本実施の形態に係る画像処理装置101について、図1〜図9を参照して、以下に説明する。
[Embodiment 1]
The
〔画像処理装置101の概略構成〕
図1は、画像処理装置101の概略構成を示すブロック図である。
[Schematic Configuration of Image Processing Apparatus 101]
FIG. 1 is a block diagram illustrating a schematic configuration of the
画像処理装置101は、テレビ電話装置等において、使用者を撮像(撮影)した画像を、通話先である相手のテレビ電話装置に対して送信するための画像送信装置100の一構成要素である。なお、画像送信装置100は、画像処理装置101の他に、カメラ106、距離画像センサ107、および送信部108を備える構成である。
The
画像処理装置101は、カメラ制御部109、センサ制御部110、主制御部111、および画像送信制御部(画像送信手段)105を備える構成である。
The
カメラ106は、デジタルカメラに代表される一般的なカメラであり、画像処理装置101を備えるテレビ電話装置の使用者およびその背景を撮像する。カメラ106によって撮像される対象を「撮像対象」とも称する。カメラ106によって撮像対象が撮像された画像(以下、「撮像画像」とも称する)は、デジタル画像処理を施すことが可能な撮像画像データとしてカメラ106から出力される。カメラ制御部109は、カメラ106から出力された撮像画像データを取得すると共に、カメラ106に対する各種制御を行う。
The
距離画像センサ107は、距離画像センサ107自身から、撮像した物体までの距離を示す距離データが、該撮像によって得られた画像(以下、「距離画像」とも称する)を構成する画素(以下、「距離画素」とも称する)の画素値として記録および出力されるものである。距離画像センサ107としては、例えば、光が物体に当たって反射して返ってくるまでの往復の時間を測定して距離を求める、TOF(Time of Flight)型の距離画像センサを利用することができる。TOF型の距離画像センサの他にも、距離画像センサ107としては、2台のカメラで撮像した画像の差分から距離を求める機能を備えるもの等を利用することができる。
The
ここで、距離画像センサ107は、カメラ106が撮像対象としている、上記使用者およびその背景を撮像することができるように設けられている。より詳しくは、距離画像センサ107によって撮像された距離画像とカメラ106によって撮像された撮像画像との間では、撮像されている各物体の位置関係が相対的にほぼ一致するように、カメラ106と距離画像センサ107とが設けられている。なお、距離画像センサ107によって撮像された距離画像を構成する画素のそれぞれは、カメラ106によって撮像された撮像画像を構成する画素(以下、「撮像画素」とも称する)のいずれかと対応付けが可能であるものとする。
Here, the
以下、距離画像センサ107によって撮像された距離画像のデータを、「距離画像データ」と称する。距離画像データは、距離画像センサ107から出力される。センサ制御部110は、距離画像センサ107から出力された距離画像データを取得すると共に、距離画像センサ107に対する各種制御を行う。
Hereinafter, the distance image data captured by the
ここで、距離画像センサ107によって撮像された距離画像には、その画素単位で、撮像した物体の距離画像センサ107からの距離が記録されている。測定できる、距離の精度および距離の単位は、個々のセンサによって異なるが、本実施の形態では、距離画像センサ107から物体までの距離に応じた画素値を出力することが可能な距離画像センサ107を例に、説明を行う。
Here, in the distance image captured by the
また、カメラ106および距離画像センサ107において、撮像された各画像における各物体の位置関係を相対的にほぼ一致させるためには、カメラ106および距離画像センサ107としては、互いに同一のカメラを使用するのが好ましい。
In order to make the positional relationship of each object in each captured image relatively similar in the
一方、カメラ106および距離画像センサ107としては、互いに同一のカメラを使用せず、それぞれ別のカメラを使用してもよい。但し、カメラ106および距離画像センサ107として、それぞれ別のカメラを使用して、撮像画像データおよび距離画像データのそれぞれを取得する場合、2台の該カメラはできるだけ近接させる必要がある。この理由は、該2台のカメラが、互いに離れた配置となっていると、上記位置関係に大きなずれが生じやすい、すなわち、撮像画像データと距離画像データとの間での、画素の位置ずれが大きくなりやすいためである。該2台のカメラで撮像した各画像の間で、画角および/または物体のサイズ(位置関係)が異なっている場合、これらの画像の少なくとも一方に対して、拡大、縮小、トリミング、またはアフィン変換等を施して、これらの画像を同一の画像サイズにするのが好ましい。
On the other hand, as the
主制御部111は、カメラ106、距離画像センサ107、および画像送信制御部105の各部を制御するものである。主制御部111は、CPU(central processing unit)で構成されていてもよいし、ASIC(application specific integrate circuit)などのハードウェアロジックで構成されていてもよい。主制御部111がCPUで構成されている場合、メモリに記憶されている各種プログラムを、例えばRAM(random access memory)等で構成される一次記憶部に読み出して実行する。
The main control unit 111 controls each unit of the
主制御部111は、画素値取得部102、距離画像データ解析部(距離画像取得手段、判定手段)104、および画像処理部(画像生成手段)103を含んでいる。
The main control unit 111 includes a pixel
画素値取得部102は、カメラ制御部109から撮像画像データを取得し、該撮像画像データを構成する各画素の画素値を、画素毎に取得する。詳細は後述するが、撮像画像データは、一般的なカメラにより撮像された画像を想定しているので、画素値に、R(赤)成分、G(緑)成分、およびB(青)成分から成る色情報を含んでいる。
The pixel
距離画像データ解析部104は、センサ制御部110から距離画像データを取得し、該距離画像データを構成する各画素の画素値、すなわち、各距離画素に記録されている距離を、距離画素毎に取得する。そして、距離画像データ解析部104は、取得した距離が、所定の閾値(以下、「所定閾値T」と表記する)を超えるか否かを距離画素毎に判定する。
The distance image
ここで、所定閾値Tは、撮像した物体の距離画像センサ107からの距離が、所定距離よりも大きいか、それとも小さいかを、距離画素毎に判別するための値である。なお、所定閾値Tの好ましい値は、距離画像センサ107から上記使用者までの距離を示す値である。なぜなら、距離画像センサ107から上記使用者までの距離を示す値を所定閾値Tとして設定することで、上記使用者の前または横にある物体を相手に見せたい物体と判定する(ぼかさない)一方、上記使用者の後ろにある物体を背景として判定する(ぼかす)ことが可能となるためである。
Here, the predetermined threshold T is a value for determining for each distance pixel whether the distance of the imaged object from the
画像処理部103は、まず、画素値取得部102から、撮像画像データを構成する各画素の画素値を、画素毎に取得する。
First, the
そして、画像処理部103は、距離画像データ解析部104にて距離が所定閾値Tを超えると判定した距離画素に対応する撮像画素の画素値に対して、後述する画素値演算処理(所定演算)を行う。画像処理部103は、当該処理を各撮像画素に対して施す。
Then, the
その結果、画像処理部103は、カメラ106によって撮像された撮像画像のうち、距離画像センサ107からの距離が所定閾値Tで表される所定距離を超える撮像対象が撮像されている領域の鮮明度を低減した(ぼかした)画像である出力画像を生成する。
As a result, the
なお、上記の説明において、画素値取得部102、画像処理部103、および距離画像データ解析部104における一連の処理の説明は、撮像画像データを構成するある1画素に対する説明である。一方、画像処理装置101では、画素値取得部102、画像処理部103、および距離画像データ解析部104が、撮像画像データを構成する全ての画素の各々に対して、上記の一連の処理を行う。そして、上記の一連の処理が完了して得られた画像のデータは、出力画像を示す出力画像データとして、画像処理部103から出力される。
In the above description, the description of the series of processes in the pixel
画像処理部103から出力された出力画像データは、画像送信制御部105に供給される。画像送信制御部105は、供給された出力画像データを、画像処理装置101の外部の送信部108に対して出力する。
The output image data output from the
一般的に、テレビ電話装置では、使用者を撮像した画像を、通話先のテレビ電話装置に送信するために、音声と画像との同期がずれないようにする仕組み、および、画像のデータを圧縮する技術が必要である。これらの技術は、送信部108が担っている。すなわち、送信部108は、画像送信制御部105から供給された出力画像データを、テレビ電話装置において用いられる周知の送受信方式によって、通話先のテレビ電話装置に送信する。
In general, in a videophone device, in order to transmit an image captured of a user to a videophone device that is a call destination, a mechanism that prevents synchronization of the sound and the image, and image data are compressed. Technology to do is necessary. These techniques are performed by the
〔撮像画像データ、距離画像データ、および出力画像データのデータ構造〕
ここで、上記撮像画像データ、上記距離画像データ、および上記出力画像データについて、図2〜図4を参照して説明する。
[Data structure of captured image data, distance image data, and output image data]
Here, the captured image data, the distance image data, and the output image data will be described with reference to FIGS.
図2は、撮像画像データのデータ構造の一例を示す図である。図2には、横方向(X方向)にn個の画素を、縦方向(Y方向)にm個の画素をそれぞれ有する、撮像画像データを示している。撮像画像データを構成する、n×m個の画素の各々には、R(赤)成分、G(緑)成分、およびB(青)成分から成る、RGB表色系に基づく色情報が、画素値として記録されている。 FIG. 2 is a diagram illustrating an example of a data structure of captured image data. FIG. 2 shows captured image data having n pixels in the horizontal direction (X direction) and m pixels in the vertical direction (Y direction). Color information based on the RGB color system composed of R (red), G (green), and B (blue) components is included in each of the n × m pixels constituting the captured image data. It is recorded as a value.
以下、撮像画像データにおいて、左からi番目、上からj番目の画素に記録されているR成分は、Rijと表記する。同画素に記録されているG成分およびB成分についても同様に、それぞれGijおよびBijと表記する。 Hereinafter, in the captured image data, the R component recorded in the i-th pixel from the left and the j-th pixel from the top is denoted as Rij. Similarly, the G component and the B component recorded in the same pixel are denoted as Gij and Bij, respectively.
図3は、距離画像データのデータ構造の一例を示す図である。図3には、横方向(X方向)にn個の画素を、縦方向(Y方向)にm個の画素をそれぞれ有する、距離画像データを示している。距離画像データを構成する、n×m個の画素の各々には、距離画像センサ107から距離画像センサ107が撮像した物体までの距離を示す距離データの成分(D)が、画素値として記録されている。
FIG. 3 is a diagram illustrating an example of the data structure of the distance image data. FIG. 3 shows distance image data having n pixels in the horizontal direction (X direction) and m pixels in the vertical direction (Y direction). A distance data component (D) indicating a distance from the
以下、距離画像データにおいて、左からi番目、上からj番目の画素に記録されている距離データの成分は、Dijと表記する。 Hereinafter, in the distance image data, the component of the distance data recorded in the i-th pixel from the left and the j-th pixel from the top is denoted as Dij.
ここで、撮像画像データおよび距離画像データは、互いに略同一の位置を撮像した画像である。また、撮像画像データおよび距離画像データは、いずれもn×m個の画素を有する画像のデータである。従って、撮像画像データおよび距離画像データは、互いに略同一の撮像対象を、カメラ106および距離画像センサ107という、互いに異なる撮像装置によって撮像して得られた各データであると言える。従って、撮像画像データにおけるRij、Gij、およびBijが示す色情報と、該撮像画像データに対応する距離画像データにおけるDijが示す距離データとは、互いに略同一の撮像対象における略同一の位置を撮像して得られた情報を示している。
Here, the captured image data and the distance image data are images obtained by capturing substantially the same position. The captured image data and the distance image data are both image data having n × m pixels. Therefore, it can be said that the captured image data and the distance image data are data obtained by imaging substantially the same imaging target with different imaging devices such as the
図4は、出力画像データのデータ構造の一例を示す図である。図4には、横方向(X方向)にn個の画素を、縦方向(Y方向)にm個の画素をそれぞれ有する、出力画像データを示している。出力画像データを構成する、n×m個の画素の各々には、R(赤)成分、G(緑)成分、およびB(青)成分から成る、RGB表色系に基づく色情報が、画素値として記録されている。 FIG. 4 is a diagram illustrating an example of the data structure of the output image data. FIG. 4 shows output image data having n pixels in the horizontal direction (X direction) and m pixels in the vertical direction (Y direction). Each of n × m pixels constituting the output image data has color information based on the RGB color system composed of an R (red) component, a G (green) component, and a B (blue) component. It is recorded as a value.
以下、出力画像データにおいて、左からi番目、上からj番目の画素に記録されているR成分は、Roijと表記する。同画素に記録されているG成分およびB成分についても同様に、それぞれGoijおよびBoijと表記する。 Hereinafter, in the output image data, the R component recorded in the i-th pixel from the left and the j-th pixel from the top is denoted as Roij. Similarly, the G component and the B component recorded in the same pixel are denoted by Goij and Boij, respectively.
出力画像データは、画像処理装置101に入力された、撮像画像データおよび距離画像データから、以下の手順で作成される。
The output image data is created from the captured image data and the distance image data input to the
〔出力画像データを作成する手順〕
出力画像データを作成する手順(画像処理方法)について、図5を参照して説明する。
[Procedure for creating output image data]
A procedure (image processing method) for creating output image data will be described with reference to FIG.
図5は、出力画像データを作成する手順を説明するフローチャートであって、同手順に係る画像処理部103等の処理の流れを示している。
FIG. 5 is a flowchart for explaining a procedure for creating output image data, and shows a flow of processing of the
上述したとおり、出力画像データを作成するための画像処理は、撮像画像データを構成する各画素について行う。ここでは、処理を行う対象となる、撮像画像データの1画素を「注目画素」と称する。 As described above, the image processing for creating the output image data is performed for each pixel constituting the captured image data. Here, one pixel of the captured image data to be processed is referred to as a “target pixel”.
なお、ここでは、X方向にn個の画素を、Y方向にm個の画素をそれぞれ有する撮像画像データ(図2参照)が、画像処理装置101に入力された場合を例に、説明を行う。
Here, a description will be given by taking as an example a case where captured image data (see FIG. 2) having n pixels in the X direction and m pixels in the Y direction is input to the
また、ここでは、撮像画像データの画素数と距離画像データの画素数とが同数(n×m個)である場合を例に、説明を行う。ちなみに、撮像画像データの画素数と距離画像データの画素数とが異なる数である場合、事前に距離画像データの画像を、撮像画像データの画素数と同じ画像サイズにしておく必要がある。画像サイズの調整方法は、拡大、縮小、トリミング、またはアフィン変換等の、周知の技術を使用することができる。 In addition, here, the case where the number of pixels of the captured image data and the number of pixels of the distance image data are the same number (n × m) will be described as an example. Incidentally, when the number of pixels of the captured image data is different from the number of pixels of the distance image data, it is necessary to set the image of the distance image data to the same image size as the number of pixels of the captured image data in advance. As a method for adjusting the image size, a well-known technique such as enlargement, reduction, trimming, or affine transformation can be used.
さらに、ここでは、一般的な説明を行うために、X方向の座標における左からi番目、Y方向の座標における上からj番目の画素の処理方法について説明を行う。 Further, here, for general description, a processing method of the i-th pixel from the left in the X direction coordinate and the j-th pixel from the top in the Y direction coordinate will be described.
処理が開始(ステップST51)されると、画素値取得部102は、カメラ制御部109から取得した撮像画像データから、注目画素に記録されている色情報(画素値)を取得する。この注目画素に記録されている色情報は、該注目画素に記録されている画素値、すなわち、RGBの各成分(Rij、Gij、Bij)に該当する(ステップST52)。
When the process is started (step ST51), the pixel
距離画像データ解析部104は、センサ制御部110から取得した距離画像データから、注目画素に記録されている、該注目画素に関する、距離画像センサ107から距離画像センサ107が撮像した物体までの距離(画素値)を、距離情報として取得する。この注目画素に関する該距離は、該注目画素に記録されている画素値、すなわち、距離データDijに該当する(距離画像取得ステップST53)。
The distance image
また、距離画像データ解析部104は、ステップST53にて取得した距離データDijの画素値(距離情報)を、パラメータである所定の距離閾値(所定閾値T)Th1と比較し、これらのそれぞれが示す距離の大小を判定する(判定ステップST54)。
In addition, the distance image
距離データDijにおける画素値が距離閾値Th1以下である場合、注目画素に関して、距離画像センサ107から距離画像センサ107が撮像した物体までの距離が、距離閾値Th1の示す所定距離以下であると判定する。この判定結果は、同注目画素に関して、距離画像センサ107が撮像した物体が、該所定距離に対応する位置よりも、距離画像センサ107に近いか、または、距離画像センサ107が撮像した物体が、該所定距離に対応する位置にあることを示している。そして、このような判定が行われた場合、画像処理部103は、注目画素に記録されている色情報に対する、後述する画素値演算処理を行わない(ステップST55)。
When the pixel value in the distance data Dij is equal to or smaller than the distance threshold Th1, it is determined that the distance from the
すなわち、ステップST55において、画像処理部103は、ステップST52にて取得した色情報を、対応する出力画像データの1画素に対してそのまま記録することにより、出力画像データの座標(X、Y)=(i、j)を構成する画素の画素値である出力画素色情報を、
Roij=Rij
Goij=Gij
Boij=Bij
とする。この場合、注目画素に対応する出力画像データの1画素に記録されている色情報は、該注目画素に記録されている色情報に等しい。
That is, in step ST55, the
Roij = Rij
Goij = Gij
Boij = Bij
And In this case, the color information recorded in one pixel of the output image data corresponding to the target pixel is equal to the color information recorded in the target pixel.
距離データDijにおける画素値が距離閾値Th1よりも大きい場合、注目画素に関して、距離画像センサ107から距離画像センサ107が撮像した物体までの距離が、距離閾値Th1の示す所定距離よりも大きいと判定する。この判定結果は、同注目画素に関して、距離画像センサ107が撮像した物体が、該所定距離に対応する位置よりも、距離画像センサ107から遠いことを示している。そして、このような判定が行われた場合、画像処理部103は、注目画素に記録されている色情報に対する、後述する画素値演算処理を行う(画像生成ステップST56)。
When the pixel value in the distance data Dij is larger than the distance threshold Th1, it is determined that the distance from the
ステップST56において、画像処理部103は、撮像画像データの(X、Y)=(i、j)である画素、およびその近傍の画素に記録されている画素値、ならびにそれらに各々対応する距離データ等を用いて、上記出力画素色情報を算出する。画素値演算処理の詳細については後述する。
In step ST <b> 56, the
ステップST55に示す処理、またはステップST56に示す処理が終了すると、画素値取得部102、距離画像データ解析部104、および画像処理部103は、画像処理装置101に入力された撮像画像データを構成する画素の全てについて、ステップST52〜ステップST55(またはステップST56)に示した一連の処理を繰り返す。
When the process shown in step ST55 or the process shown in step ST56 ends, the pixel
すなわち、上記撮像画像データを構成する画素の全てについて、上記一連の処理が行われていない場合、画素値取得部102、距離画像データ解析部104、および画像処理部103は、注目画素を未処理の画素へと変更した上で、再び上記一連の処理を行う。
That is, when the above-described series of processing has not been performed for all of the pixels constituting the captured image data, the pixel
一方、上記撮影画像データを構成する画素の全てについて、上記の一連の処理が行われた場合、画像処理部103は、得られた出力画像データを、画像送信制御部105に出力し、画像処理を終了する(ステップST58)。
On the other hand, when the above-described series of processing has been performed for all the pixels constituting the captured image data, the
〔画素値演算処理〕
画素値演算処理について、図6〜図9を参照して説明する。
[Pixel value calculation processing]
The pixel value calculation process will be described with reference to FIGS.
図6は、画素値演算処理の流れを示すフローチャートである。 FIG. 6 is a flowchart showing the flow of the pixel value calculation process.
図5に示すフローチャートにおいて、ステップST56へと処理が進むと、画素値演算処理が開始(ステップST61)され、距離画像データ解析部104は、ステップST53にて取得した距離データDijの画素値(距離情報)を、上述した距離閾値Th1とは異なるパラメータである所定の距離閾値(所定閾値T)Th2と比較し、これらのそれぞれが示す距離の大小を判定する(ステップST62)。
In the flowchart shown in FIG. 5, when the process proceeds to step ST56, a pixel value calculation process is started (step ST61), and the distance image
距離データDijにおける画素値が距離閾値Th2以下である場合、画像処理部103は、後述する3×3ぼかし処理を行う(ステップST63)。
When the pixel value in the distance data Dij is equal to or smaller than the distance threshold Th2, the
距離データDijにおける画素値が距離閾値Th2よりも大きい場合、距離画像データ解析部104は、ステップST53にて取得した距離データDijの画素値(距離情報)を、上述した距離閾値Th1およびTh2のいずれとも異なるパラメータである所定の距離閾値(所定閾値)Th3と比較し、これらのそれぞれが示す距離の大小を判定する(ステップST64)。
When the pixel value in the distance data Dij is larger than the distance threshold Th2, the distance image
距離データDijにおける画素値が距離閾値Th3以下である場合、画像処理部103は、後述する5×5ぼかし処理を行う(ステップST65)。
When the pixel value in the distance data Dij is equal to or smaller than the distance threshold Th3, the
距離データDijにおける画素値が距離閾値Th3よりも大きい場合、画像処理部103は、ステップST63に係る3×3ぼかし処理、およびステップST65に係る5×5ぼかし処理のいずれとも異なるぼかし処理を行う(ステップST66)。
When the pixel value in the distance data Dij is larger than the distance threshold Th3, the
ここからは、3×3ぼかし処理、および5×5ぼかし処理のそれぞれについて、説明を行う。なお、以下では、撮像画像データにおける座標(X、Y)を構成する画素に記録されているR成分をR〔X〕〔Y〕と、同画素に記録されているG成分をG〔X〕〔Y〕と、同画素に記録されているB成分をB〔X〕〔Y〕と、それぞれ表記する。 From here, each of the 3 × 3 blurring process and the 5 × 5 blurring process will be described. In the following, the R component recorded in the pixels constituting the coordinates (X, Y) in the captured image data is R [X] [Y], and the G component recorded in the pixels is G [X]. [Y] and the B component recorded in the same pixel are denoted as B [X] [Y], respectively.
ステップST63に係る3×3ぼかし処理は、画像処理部103において、図7(a)に示すような周知の、3画素×3画素の行列に対応する各フィルタ係数を有するぼかしフィルタ(以下、「3×3ぼかしフィルタ」と称する)、およびそれらの各フィルタ係数の調整を使用することにより、実施可能である。
The 3 × 3 blurring process according to step ST63 is performed by the
すなわち、画像処理部103は、撮像画像データを構成する全ての画素の各々に関して、注目画素およびその近傍の画素のそれぞれに記録されている色情報の加重平均を、R成分、G成分、およびB成分の各々について求める。また、画像処理部103は、該注目画素に記録されている色情報を、R成分、G成分、およびB成分の各々について、先に求めた加重平均の値に置換する。
That is, the
画像処理部103は、座標(X、Y)=(i、j)である注目画素に対して、3×3ぼかしフィルタの係数から、
The
のそれぞれを算出する。そして、画像処理部103は、注目画素に対応する出力画像データの1画素に記録すべき色情報における、R成分であるRo〔i〕〔j〕、G成分であるGo〔i〕〔j〕、およびB成分であるBo〔i〕〔j〕を、
Ro〔i〕〔j〕 = Rnume / deno
Go〔i〕〔j〕 = Gnume / deno
Bo〔i〕〔j〕 = Bnume / deno
より求める。
Is calculated. Then, the
Ro [i] [j] = Rnume / deno
Go [i] [j] = Gnume / deno
Bo [i] [j] = Bnume / deno
Ask more.
そして、画像処理部103は、撮像画像データにおける注目画素に記録されている色情報(R〔i〕〔j〕、G〔i〕〔j〕、およびB〔i〕〔j〕)を、それぞれ、算出した加重平均(Ro〔i〕〔j〕、Go〔i〕〔j〕、およびBo〔i〕〔j〕)に置換する。
Then, the
なお、図7(a)に示す3×3ぼかしフィルタにおける(行列としての)各要素は、左からp番目、上からq番目の要素に対して、Kpqというフィルタ係数を記載している。特に、K22というフィルタ係数を記載している要素は、注目画素に対応する要素であり、その他の各要素は、注目画素の周囲(近傍)にある8画素のそれぞれに対応する要素である。 Each element (as a matrix) in the 3 × 3 blur filter shown in FIG. 7A describes a filter coefficient called Kpq for the p-th element from the left and the q-th element from the top. In particular, the element describing the filter coefficient K22 is an element corresponding to the target pixel, and the other elements are elements corresponding to the eight pixels around (near) the target pixel.
上記の各要素に与えるフィルタ係数は、例えば、図7(b)、図7(c)、または図7(d)に示すような値のパターンを使用することができる。 For example, a value pattern as shown in FIG. 7B, FIG. 7C, or FIG. 7D can be used as the filter coefficient given to each element.
図7(b)では、各フィルタ係数Kpqの全てが同じ値(1)であるため、複数のフィルタ係数をその要素として格納するためのテーブルが不要となる。 In FIG. 7B, since all the filter coefficients Kpq have the same value (1), a table for storing a plurality of filter coefficients as elements thereof becomes unnecessary.
図7(c)では、3×3ぼかしフィルタにおけるフィルタ係数K22(4)の要素に対して、互いに対称の関係にある2つの該要素を、同じフィルタ係数Kpqの値(1または2)としている。また、図7(c)では、上記フィルタ係数K22の要素に近い要素ほど、フィルタ係数Kpqが大きな値となっている。このため、図7(c)に示す各フィルタ係数Kpqを有する3×3ぼかしフィルタは、軽いLPF(ローパスフィルタ)としての特性を有する。さらに、各フィルタ係数Kpqは、合計が2のべき乗となるので、出力画像データの色情報を、割り算ではなくシフト演算により算出するように、画像処理装置101を構成する各部材の実装が可能となる。
In FIG. 7C, two elements that are symmetrical to each other with respect to the element of the filter coefficient K22 (4) in the 3 × 3 blurring filter have the same filter coefficient Kpq value (1 or 2). . In FIG. 7C, the filter coefficient Kpq has a larger value as the element is closer to the filter coefficient K22. For this reason, the 3 × 3 blur filter having each filter coefficient Kpq shown in FIG. 7C has characteristics as a light LPF (low-pass filter). Further, since the sum of the filter coefficients Kpq is a power of 2, it is possible to mount each member constituting the
図7(d)では、各フィルタ係数Kpqを0または1のみで表している点と、図7(c)の場合と同様に、各フィルタ係数Kpqの合計が2のべき乗となっている点とが特徴である。 In FIG. 7D, each filter coefficient Kpq is represented by only 0 or 1, and, as in FIG. 7C, the total of each filter coefficient Kpq is a power of 2. Is a feature.
ステップST65に係る5×5ぼかし処理は、画像処理部103において、図8(a)に示すような周知の、5画素×5画素の行列に対応する各フィルタ係数を有するぼかしフィルタ(以下、「5×5ぼかしフィルタ」と称する)、およびそれらの各フィルタ係数の調整を使用することにより、実施可能である。
The 5 × 5 blurring process according to step ST65 is performed by the
なお、図8(a)に示す5×5ぼかしフィルタにおける(行列としての)各要素は、左からp番目、上からq番目の要素に対して、Lpqというフィルタ係数を記載している。 Each element (as a matrix) in the 5 × 5 blur filter shown in FIG. 8A describes a filter coefficient Lpq for the p-th element from the left and the q-th element from the top.
画像処理部103としての5×5ぼかしフィルタでは、3×3ぼかし処理の場合と同様にまず、フィルタ係数L33が記載されている要素を、注目画素に対応させる。そして、各フィルタ係数Lpqの値の総和を分母(deno5)とする。また、RGBの各成分について、5×5ぼかしフィルタの各要素に関する、対応する該要素のフィルタ係数Lpqの値と、同要素に記録されている色情報(画素値)とによる加重和を算出し、それぞれ、Rnume5, Gnume5, Bnume5とする。Rnume5, Gnume5, Bnume5はそれぞれ、deno5に対する分子である。
In the 5 × 5 blur filter as the
そして、画像処理部103は、注目画素に対応する出力画像データの1画素に記録すべき色情報における、R成分であるRo〔i〕〔j〕、G成分であるGo〔i〕〔j〕、およびB成分であるBo〔i〕〔j〕を、
Ro〔i〕〔j〕 = Rnume5 / deno5
Go〔i〕〔j〕 = Gnume5 / deno5
Bo〔i〕〔j〕 = Bnume5 / deno5
より求める。
Then, the
Ro [i] [j] = Rnume5 / deno5
Go [i] [j] = Gnume5 / deno5
Bo [i] [j] = Bnume5 / deno5
Ask more.
上記の各要素に与えるフィルタ係数は、例えば、図8(b)、図8(c)、または図8(d)に示すような値のパターンを使用することができる。 For example, a value pattern as shown in FIG. 8B, FIG. 8C, or FIG. 8D can be used as the filter coefficient given to each element.
図8(b)では、各フィルタ係数Lpqの全てが同じ値(1)であるため、複数のフィルタ係数をその要素として格納するためのテーブルが不要となる。 In FIG. 8B, since all the filter coefficients Lpq have the same value (1), a table for storing a plurality of filter coefficients as elements thereof becomes unnecessary.
図8(c)では、5×5ぼかしフィルタにおけるフィルタ係数L33(4)の要素に対して、互いに対称の関係にある2つの該要素を、同じフィルタ係数Lpqの値(0、1、または2)としている。また、図8(c)では、上記フィルタ係数L33の要素に近い要素ほど、フィルタ係数Lpqが大きな値となっている。このため、図8(c)に示す各フィルタ係数Lpqを有する5×5ぼかしフィルタは、軽いLPF(ローパスフィルタ)としての特性を有する。さらに、各フィルタ係数Lpqは、合計が2のべき乗となるので、出力画像データの色情報を、割り算ではなくシフト演算により算出するように、画像処理装置101を構成する各部材の実装が可能となる。
In FIG. 8C, two elements that are symmetrical to each other with respect to the element of the filter coefficient L33 (4) in the 5 × 5 blur filter are represented by the same value (0, 1, or 2) of the filter coefficient Lpq. ). Also, in FIG. 8C, the filter coefficient Lpq has a larger value as the element is closer to the filter coefficient L33. For this reason, the 5 × 5 blurring filter having each filter coefficient Lpq shown in FIG. 8C has characteristics as a light LPF (low-pass filter). Furthermore, since the sum of the filter coefficients Lpq is a power of 2, it is possible to mount each member constituting the
図8(d)では、各フィルタ係数Lpqを0または1のみで表している点と、図8(c)の場合と同様に、各フィルタ係数Lpqの合計が2のべき乗となっている点とが特徴である。 In FIG. 8D, each filter coefficient Lpq is represented by only 0 or 1, and, as in FIG. 8C, the total of each filter coefficient Lpq is a power of 2. Is a feature.
ステップST66に係るぼかし処理は、画像処理部103において、図9に示すような周知の、7画素×7画素の行列に対応する各フィルタ係数を有するぼかしフィルタ(以下、「7×7ぼかしフィルタ」と称する)を使用することにより、実施可能である。
The blur processing according to step ST66 is performed by the
なお、図9に示す7×7ぼかしフィルタにおける(行列としての)各要素は、左からp番目、上からq番目の要素に対して、Mpqというフィルタ係数を記載している。 Note that each element (as a matrix) in the 7 × 7 blur filter shown in FIG. 9 describes a filter coefficient Mpq for the p-th element from the left and the q-th element from the top.
画像処理部103としての7×7ぼかしフィルタでは、5×5ぼかし処理の場合と同様にまず、フィルタ係数M44が記載されている要素を、注目画素に対応させる。そして、各フィルタ係数Mpqの値の総和を分母(deno7)とする。また、RGBの各成分について、7×7ぼかしフィルタの各要素に関する、対応する該要素のフィルタ係数Mpqの値と、同要素に記録されている色情報(画素値)とによる加重和を算出し、それぞれ、Rnume7, Gnume7, Bnume7とする。Rnume7, Gnume7, Bnume7はそれぞれ、deno7に対する分子である。すなわち、
In the 7 × 7 blur filter as the
となる。これらの数式において、xは、Mpqにおけるpのことであり、yは、Mpqにおけるqのことである。 It becomes. In these mathematical formulas, x is p in Mpq, and y is q in Mpq.
そして、画像処理部103は、注目画素に対応する出力画像データの1画素に記録すべき色情報における、R成分であるRo〔i〕〔j〕、G成分であるGo〔i〕〔j〕、およびB成分であるBo〔i〕〔j〕を、
Ro〔i〕〔j〕 = Rnume7 / deno7
Go〔i〕〔j〕 = Gnume7 / deno7
Bo〔i〕〔j〕 = Bnume7 / deno7
より求める。
Then, the
Ro [i] [j] = Rnume7 / deno7
Go [i] [j] = Gnume7 / deno7
Bo [i] [j] = Bnume7 / deno7
Ask more.
なお、ステップST63、ステップST65、およびステップST66に係る各ぼかし処理で、注目画素が撮像画像データの端の方にあり、フィルタ係数と掛け合わせる画素が存在しない場合は、RGB成分の全てが0である画素が存在するものとして、処理を続行すればよい。 Note that, in each blurring process according to step ST63, step ST65, and step ST66, when the pixel of interest is closer to the end of the captured image data and there is no pixel to be multiplied by the filter coefficient, all of the RGB components are 0. The processing may be continued assuming that a certain pixel exists.
以上の方法により、画像処理部103は、画素値演算処理にて、出力画像データの色情報を求めることができる。
With the above method, the
また、本実施の形態では、ステップST63に係る3×3ぼかし処理には、3×3ぼかしフィルタを使用し、ステップST65に係る5×5ぼかし処理には、5×5ぼかしフィルタを使用し、ステップST66に係る7×7ぼかし処理には、7×7ぼかしフィルタを使用した。但し、これらの各ぼかし処理およびぼかしフィルタは、一例に過ぎず、ぼかしフィルタのサイズ、およびぼかし処理の詳細な手順については、特に限定されるものではない。 In the present embodiment, a 3 × 3 blurring process is used for the 3 × 3 blurring process according to step ST63, and a 5 × 5 blurring filter is used for the 5 × 5 blurring process according to step ST65. For the 7 × 7 blurring process according to step ST66, a 7 × 7 blurring filter was used. However, each of the blur processing and the blur filter is merely an example, and the size of the blur filter and the detailed procedure of the blur processing are not particularly limited.
さらに、本実施の形態では、
距離閾値Th1<距離閾値Th2<距離閾値Th3
となるように、距離閾値Th1〜Th3の各々を設定している。また、3×3ぼかし処理にLPF特性の低いフィルタ係数を設定し、5×5ぼかし処理にLPF特性の高いフィルタ係数を設定し、ステップST66に係るぼかし処理には、5×5ぼかし処理に使用した係数よりもLPF特性の高いフィルタ係数を設定する。これにより、画像処理装置101では、距離に応じたぼかし処理が実現できる。
Furthermore, in this embodiment,
Distance threshold Th1 <Distance threshold Th2 <Distance threshold Th3
Each of the distance thresholds Th1 to Th3 is set so that Also, a filter coefficient having a low LPF characteristic is set for the 3 × 3 blurring process, a filter coefficient having a high LPF characteristic is set for the 5 × 5 blurring process, and the blurring process according to step ST66 is used for the 5 × 5 blurring process. A filter coefficient having an LPF characteristic higher than the determined coefficient is set. Thereby, the
その結果、画像処理装置101を備えたテレビ電話装置では、近距離にある、通話している相手に対して見せたい物を、相手に対して鮮明に見せる一方、背景の遠くにある、通話している相手に対して見せたくない物をぼかして、相手に対して見せないようにした画像を作成して、相手のテレビ電話装置に対して送信することができる。
As a result, the videophone apparatus provided with the
そして、画像処理装置101を実現するために、画像処理部103は、画素値演算処理を行う対象となる撮像画像データにおける1画素である注目画素の画素値、および該撮像画像データにおける該注目画素に隣接する各画素の画素値を用いて、該画素値演算処理を行う構成である。
And in order to implement | achieve the
また、画像処理部103は、画素値演算処理として、注目画素の画素値を、該注目画素の画素値、および撮像画像データにおける該注目画素に隣接する各画素の画素値の加重平均値に変更する構成である。
In addition, as the pixel value calculation process, the
さらに、画像処理部103は、注目画素に対応する、距離画像データを構成する1画素に対応付けて記録されている、距離データDijに応じたフィルタ係数を、該注目画素の画素値、および撮像画像データにおける該注目画素に隣接する各画素の画素値に乗じてから、上記加重平均値を算出して、注目画素の画素値を、該加重平均値に変更する構成である。
Further, the
これにより、距離画像センサ107から遠い物体ほど大きくぼかす等といった、距離画像センサ107から距離画像センサ107が撮像した物体までの距離に応じた画像処理を、カメラ106によって撮像された画像に対して施すことが可能となる。
As a result, image processing according to the distance from the
すなわち、周知のぼかしフィルタ(ローパスフィルタ)を用いた、撮像画像のぼかし処理により、上記の画素値演算処理が実現可能となるので、該画素値演算処理を施した領域について、ぼかし処理前の状態が判別可能な(背景としての雰囲気を残した)出力画像を作成することができる。 That is, since the pixel value calculation process described above can be realized by the blurring process of the captured image using a known blur filter (low-pass filter), the state before the blur process is performed on the area subjected to the pixel value calculation process. Can be generated (leaving the atmosphere as a background).
また、上記ぼかしフィルタのフィルタ係数を距離データに応じて変更することにより、撮像画像においては、距離画像センサ107から近い距離の物体と、距離画像センサ107から遠い距離の物体とで、ぼかし度合いを変更することができる。これにより、距離画像センサ107から遠い距離の物体の画像を、距離画像センサ107から近い距離の物体の画像よりも大幅にぼかす、等といった処理が可能となる。
Further, by changing the filter coefficient of the blur filter according to the distance data, in the captured image, the degree of blur is reduced between an object at a distance close to the
また、画像送信制御部105を備える構成により、画像処理装置101は、出力画像を外部に送信することができるので、外部の装置が出力画像を利用することが可能となる。例えば、本実施の形態に係る画像処理装置101が、テレビ電話装置の一構成要素として該テレビ電話装置に備えられている場合において、該テレビ電話装置が、通話先のテレビ電話装置に出力画像を送信することが可能となる。
Further, since the
〔実施の形態2〕
本実施の形態に係る画像処理ユニット1001について、図10を参照して、以下に説明する。
[Embodiment 2]
The
図10は、画像処理ユニット1001の構成を示すブロック図である。
FIG. 10 is a block diagram showing the configuration of the
画像処理ユニット1001は、テレビ電話装置において、使用者を撮像(撮影)した画像を、通話先のテレビ電話装置に送信するための画像送信装置1000の一構成要素である。なお、画像送信装置1000は、画像処理ユニット1001の他に、カメラ1006、カメラ1007、および送信部1008を備える構成である。
The
画像処理ユニット1001は、画像処理装置1002、画像処理装置1003、距離画像演算部(第1距離演算手段)1004、および距離画像演算部(第2距離演算手段)1005を備える構成である。
The
カメラ1006は、カメラ106(図1参照)と同様の構成である。
The
カメラ1007は、カメラ1006、ひいてはカメラ106と同様の構成であり、カメラ1006から所定の間隔を設けて配置されている。
The
カメラ1006によって撮像された画像(撮像画像)は、デジタル画像処理を施すことが可能な撮像画像データとしてカメラ1006から出力される。同様に、カメラ1007によって撮像された画像(撮像画像)は、デジタル画像処理を施すことが可能な撮像画像データとしてカメラ1007から出力される。
An image (captured image) captured by the
距離画像演算部1004は、カメラ1006から出力された撮像画像データ、およびカメラ1007から出力された撮像画像データを取得する。また、距離画像演算部1004は予め、カメラ1006とカメラ1007との間隔を参照することが可能な構成となっている。
The distance
距離画像演算部1004は、カメラ1006から出力された撮像画像データに対する、カメラ1007から出力された撮像画像データにおける、撮像された各物体の位置ずれ、ならびにカメラ1006とカメラ1007との間隔に基づいて、三角法により、カメラ1006からカメラ1006が撮像した物体までの距離を、カメラ1006から出力された撮像画像データを構成する画素毎に求める。
The distance
そして、距離画像演算部1004は、上記で求めた距離を示す画素値の各々を、カメラ1006から出力された撮像画像データを構成する画素に対応付けて画素が配置された画像データの、対応する画素に記録して距離画像データを作成し、該距離画像データを画像処理装置1002に出力する。
Then, the distance
また、距離画像演算部1005は、カメラ1006から出力された撮像画像データ、およびカメラ1007から出力された撮像画像データを取得する。また、距離画像演算部1005は予め、カメラ1006とカメラ1007との間隔を参照することが可能な構成となっている。
In addition, the distance
距離画像演算部1005は、カメラ1006から出力された撮像画像データに対する、カメラ1007から出力された撮像画像データにおける、撮像された各物体の位置ずれ、ならびにカメラ1006とカメラ1007との間隔に基づいて、三角法により、カメラ1007からカメラ1007が撮像した物体までの距離を、カメラ1007から出力された撮像画像データを構成する画素毎に求める。
The distance
そして、距離画像演算部1005は、上記で求めた距離を示す画素値の各々を、カメラ1007から出力された撮像画像データを構成する画素に対応付けて画素が配置された画像データの、対応する画素に記録して距離画像データを作成し、該距離画像データを画像処理装置1003に出力する。
Then, the distance
画像処理装置1002および1003はいずれも、画像処理装置101(図1参照)と同様の構成である。
Both the
そして、画像処理装置1002は、カメラ1006から出力された撮像画像データ、および距離画像演算部1004から出力された距離画像データを取得して、画像処理装置101と同様の処理を行う。そして、画像処理装置1002は、該処理により得られた出力画像データを、送信部1008へと出力する。
The
また、画像処理装置1003は、カメラ1007から出力された撮像画像データ、および距離画像演算部1005から出力された距離画像データを取得して、画像処理装置101と同様の処理を行う。そして、画像処理装置1003は、該処理により得られた出力画像データを、送信部1008へと出力する。
The
送信部1008は、画像処理装置1002および1003のそれぞれから供給された2つの出力画像データを、テレビ電話装置において用いられる周知の送受信方式によって、通話先のテレビ電話装置に送信する。
The
なお、画像処理ユニット1001は、2台のカメラ1006および1007を用いた3次元テレビ電話用の例である。距離の離れた画像をぼかして、手前にあるものをくっきり見せるため、右目と左目の視差を利用した3次元画像では、視差をあわせる物体が解りやすい点が特徴である。
Note that the
〔付記事項〕
最後に、画像処理装置101、1002、および1003の主制御部111の機能は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
[Additional Notes]
Finally, the functions of the main control unit 111 of the
ソフトウェアによって実現する場合は、主制御部111は、各機能を実現する制御プログラムの命令を実行するCPU、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM、上記プログラム及び各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである画像処理装置101・画像処理ユニット1001の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、画像処理装置101・画像処理ユニット1001に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
When implemented by software, the main control unit 111 includes a CPU that executes instructions of a control program that implements each function, a ROM (read only memory) that stores the program, a RAM that expands the program, the program, and various types of programs. A storage device (recording medium) such as a memory for storing data is provided. An object of the present invention is to enable a computer to read program codes (execution format program, intermediate code program, source program) of a control program for the
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ類、PLD(Programmable logic device)等の論理回路類などを用いることができる。 Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. IC cards (including memory cards) / optical cards, semiconductor memories such as mask ROM / EPROM / EEPROM / flash ROM, logic circuits such as PLD (Programmable Logic Device), etc. it can.
また、画像処理装置101・画像処理ユニット1001を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。
Further, the
このように本明細書において、手段とは必ずしも物理的手段を意味するものではなく、各手段の機能がソフトウェアによって実現される場合も含む。さらに、1つの手段の機能が2つ以上の物理的手段により実現されても、もしくは2つ以上の手段の機能が1つの物理的手段により実現されてもよい。 Thus, in this specification, the means does not necessarily mean physical means, but includes cases where the functions of the means are realized by software. Further, the function of one means may be realized by two or more physical means, or the functions of two or more means may be realized by one physical means.
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.
本発明は、画像を表すデジタル信号を処理する装置に適用できる。特に、使用者等が撮像された画像を通話先に送信するテレビ電話装置等に好適に適用できる。テレビ電話装置に適用する場合、本発明は、相手に対して見せたい画像を確実に見せ、相手に対して見せたくない画像については、通話現場の状況を伝えられる程度に消去し、かつ回路規模の増大を抑制することが可能であるという効果を奏する。 The present invention can be applied to an apparatus for processing a digital signal representing an image. In particular, the present invention can be suitably applied to a videophone device that transmits an image captured by a user or the like to a call destination. When applied to a videophone device, the present invention reliably shows an image that the user wants to show to the other party, deletes the image that the user does not want to show to the other party to such an extent that the situation at the call site can be conveyed, and the circuit scale There is an effect that it is possible to suppress an increase in the amount of.
101 画像処理装置
102 画素値取得部
103 画像処理部(画像生成手段)
104 距離画像データ解析部(距離画像取得手段、判定手段)
105 画像送信制御部(画像送信手段)
106 カメラ
107 距離画像センサ
1001 画像処理ユニット
1002および1003 画像処理装置
1004 距離画像演算部(第1距離演算手段)
1005 距離画像演算部(第2距離演算手段)
1006および1007 カメラ
101
104 Distance image data analysis unit (distance image acquisition means, determination means)
105 Image transmission control unit (image transmission means)
1005 Distance image calculation unit (second distance calculation means)
1006 and 1007 cameras
Claims (8)
距離画像センサから得られる距離画像であって、上記距離画像を構成する画素である距離画素のそれぞれは上記撮像画像を構成する画素である撮像画素のいずれかと対応付けられており、上記撮像対象の当該距離画像センサからの距離を示す距離データが上記距離画素毎に対応付けて記録されている距離画像を取得する距離画像取得手段と、
上記距離画像取得手段により取得した距離画像から、上記距離画素に対応付けて記録された距離データを上記距離画素毎に取得するとともに、該取得した距離データが所定閾値を超えるか否かを上記距離画素毎に判定する判定手段と、
上記撮像画像のうち、上記判定手段により距離データが上記所定閾値を超えると判定した上記距離画素に対応する上記撮像画素の画素値に対して所定演算を行うことによって上記出力画像を生成する画像生成手段とを備えることを特徴とする画像処理装置。 An image processing device that performs processing for reducing the sharpness of a part or all of the captured image on a captured image obtained by capturing an imaging target, and outputs an output image with the reduced sharpness,
A distance image obtained from a distance image sensor, each distance pixel being a pixel constituting the distance image is associated with one of imaging pixels being pixels constituting the captured image, and Distance image acquisition means for acquiring a distance image in which distance data indicating a distance from the distance image sensor is recorded in association with each distance pixel;
From the distance image acquired by the distance image acquisition means, the distance data recorded in association with the distance pixel is acquired for each distance pixel, and whether the acquired distance data exceeds a predetermined threshold Determination means for determining each pixel;
Image generation for generating the output image by performing a predetermined calculation on the pixel value of the imaging pixel corresponding to the distance pixel determined by the determination unit that the distance data exceeds the predetermined threshold among the captured images And an image processing apparatus.
上記所定演算として、上記所定演算を施す対象となる撮像画素の画素値を、当該撮像画素の画素値および当該撮像画素に隣接する撮像画素の画素値の加重平均値に変更することを特徴とする請求項2に記載の画像処理装置。 The image generation means includes
As the predetermined calculation, the pixel value of the imaging pixel to be subjected to the predetermined calculation is changed to a weighted average value of the pixel value of the imaging pixel and the pixel value of the imaging pixel adjacent to the imaging pixel. The image processing apparatus according to claim 2.
上記所定演算を施す対象となる撮像画素に対応する上記距離画素に対応付けて記録された距離データに応じた係数を、当該撮像画素の画素値および当該撮像画素に隣接する撮像画素の画素値に乗じてから、上記加重平均値を算出することを特徴とする請求項3に記載の画像処理装置。 The image generation means includes
The coefficient corresponding to the distance data recorded in association with the distance pixel corresponding to the imaging pixel to be subjected to the predetermined calculation is set to the pixel value of the imaging pixel and the pixel value of the imaging pixel adjacent to the imaging pixel. The image processing apparatus according to claim 3, wherein the weighted average value is calculated after multiplication.
距離画像センサから得られる距離画像であって、上記距離画像を構成する画素である距離画素のそれぞれは上記撮像画像を構成する画素である撮像画素のいずれかと対応付けられており、上記撮像対象の当該距離画像センサからの距離を示す距離データが上記距離画素毎に対応付けて記録されている距離画像を取得する距離画像取得ステップと、
上記距離画像取得ステップにて取得した距離画像から、上記距離画素に対応付けて記録された距離データを上記距離画素毎に取得するとともに、該取得した距離データが所定閾値を超えるか否かを上記距離画素毎に判定する判定ステップと、
上記撮像画像のうち、上記判定ステップにて距離データが上記所定閾値を超えると判定した上記距離画素に対応する上記撮像画素の画素値に対して所定演算を行うことによって上記出力画像を生成する画像生成ステップとを含むことを特徴とする画像処理方法。 An image processing method for performing processing for reducing the sharpness of a part or all of the captured image on a captured image obtained by capturing an imaging target, and outputting an output image with the reduced sharpness,
A distance image obtained from a distance image sensor, each distance pixel being a pixel constituting the distance image is associated with one of imaging pixels being pixels constituting the captured image, and A distance image acquisition step for acquiring a distance image in which distance data indicating a distance from the distance image sensor is recorded in association with each distance pixel;
From the distance image acquired in the distance image acquisition step, distance data recorded in association with the distance pixel is acquired for each distance pixel, and whether or not the acquired distance data exceeds a predetermined threshold A determination step for determining each distance pixel;
Among the captured images, an image that generates the output image by performing a predetermined calculation on the pixel value of the captured pixel corresponding to the distance pixel that has been determined that the distance data exceeds the predetermined threshold in the determination step. And a generation step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010255950A JP2012109723A (en) | 2010-11-16 | 2010-11-16 | Image processing device, image processing method, control program for image processing device, and computer readable recording medium with program recorded thereon |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010255950A JP2012109723A (en) | 2010-11-16 | 2010-11-16 | Image processing device, image processing method, control program for image processing device, and computer readable recording medium with program recorded thereon |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012109723A true JP2012109723A (en) | 2012-06-07 |
Family
ID=46494892
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010255950A Pending JP2012109723A (en) | 2010-11-16 | 2010-11-16 | Image processing device, image processing method, control program for image processing device, and computer readable recording medium with program recorded thereon |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012109723A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014050689A1 (en) * | 2012-09-27 | 2014-04-03 | シャープ株式会社 | Image processing device |
WO2019107507A1 (en) * | 2017-11-30 | 2019-06-06 | 国立大学法人東京工業大学 | Line-of-sight guiding system |
JP2021114787A (en) * | 2017-07-04 | 2021-08-05 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH066796A (en) * | 1992-06-16 | 1994-01-14 | Fuji Electric Co Ltd | Monitoring device |
JP2006197096A (en) * | 2005-01-12 | 2006-07-27 | Mitsubishi Electric Corp | Television telephone |
JP2008294785A (en) * | 2007-05-25 | 2008-12-04 | Sanyo Electric Co Ltd | Image processor, imaging apparatus, image file, and image processing method |
-
2010
- 2010-11-16 JP JP2010255950A patent/JP2012109723A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH066796A (en) * | 1992-06-16 | 1994-01-14 | Fuji Electric Co Ltd | Monitoring device |
JP2006197096A (en) * | 2005-01-12 | 2006-07-27 | Mitsubishi Electric Corp | Television telephone |
JP2008294785A (en) * | 2007-05-25 | 2008-12-04 | Sanyo Electric Co Ltd | Image processor, imaging apparatus, image file, and image processing method |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014050689A1 (en) * | 2012-09-27 | 2014-04-03 | シャープ株式会社 | Image processing device |
JP2021114787A (en) * | 2017-07-04 | 2021-08-05 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP7087158B2 (en) | 2017-07-04 | 2022-06-20 | キヤノン株式会社 | Information processing equipment, information processing methods and programs |
WO2019107507A1 (en) * | 2017-11-30 | 2019-06-06 | 国立大学法人東京工業大学 | Line-of-sight guiding system |
JP2019101137A (en) * | 2017-11-30 | 2019-06-24 | 国立大学法人東京工業大学 | Sight line guiding system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7266672B2 (en) | Image processing method, image processing apparatus, and device | |
CN107454343B (en) | Photographic method, camera arrangement and terminal | |
CN103517046B (en) | Method, apparatus and computer program product for capturing video content | |
US11475243B2 (en) | Training method and device for an image enhancement model, and storage medium | |
JP2022505115A (en) | Image processing methods and equipment and devices | |
CN113850367B (en) | Network model training method, image processing method and related equipment thereof | |
CN109671106A (en) | A kind of image processing method, device and equipment | |
CN111614867B (en) | Video denoising method and device, mobile terminal and storage medium | |
CN110136055A (en) | Super-resolution method and device, storage medium, the electronic device of image | |
CN115550570B (en) | Image processing method and electronic equipment | |
CN113168673A (en) | Image processing method and device and electronic equipment | |
US20210217145A1 (en) | System and method for multi-frame contextual attention for multi-frame image and video processing using deep neural networks | |
WO2020249076A1 (en) | Face calibration method and electronic device | |
CN102339461A (en) | Method and equipment for enhancing image | |
CN103716529A (en) | Threshold setting device, object detection device, and threshold setting method | |
KR20200117695A (en) | Electronic device and method for controlling camera using external electronic device | |
EP4175275A1 (en) | White balance processing method and electronic device | |
JP2012109723A (en) | Image processing device, image processing method, control program for image processing device, and computer readable recording medium with program recorded thereon | |
CN114429495B (en) | Three-dimensional scene reconstruction method and electronic equipment | |
CN115471413A (en) | Image processing method and device, computer readable storage medium and electronic device | |
CN112489144B (en) | Image processing method, image processing device, terminal device and storage medium | |
CN108141530A (en) | Image processing apparatus, image processing method and program | |
CN103810683B (en) | Photo processing method and device | |
JP6087615B2 (en) | Image processing apparatus and control method therefor, imaging apparatus, and display apparatus | |
CN111062279B (en) | Photo processing method and photo processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131001 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140715 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20141111 |