[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2012109723A - Image processing device, image processing method, control program for image processing device, and computer readable recording medium with program recorded thereon - Google Patents

Image processing device, image processing method, control program for image processing device, and computer readable recording medium with program recorded thereon Download PDF

Info

Publication number
JP2012109723A
JP2012109723A JP2010255950A JP2010255950A JP2012109723A JP 2012109723 A JP2012109723 A JP 2012109723A JP 2010255950 A JP2010255950 A JP 2010255950A JP 2010255950 A JP2010255950 A JP 2010255950A JP 2012109723 A JP2012109723 A JP 2012109723A
Authority
JP
Japan
Prior art keywords
distance
image
pixel
image processing
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010255950A
Other languages
Japanese (ja)
Inventor
Atsushi Aoki
淳 青木
Riyuuji Miyama
隆二 見山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010255950A priority Critical patent/JP2012109723A/en
Publication of JP2012109723A publication Critical patent/JP2012109723A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize an image processing device that performs processing for reducing (smoothing) sharpness of all or part of an image with a simple configuration.SOLUTION: An image processing device 101 comprises: a distance image data analysis unit 104 that acquires, for each pixel, the pixel value of a pixel constituting distance image data in which a distance to an object captured by a distance image sensor 107 is recorded for each pixel, and compares the acquired pixel value with a predetermined threshold value for each pixel; and an image processing unit 103 that performs a predetermined operation on the pixel value of a pixel constituting captured image data captured by a camera 106 corresponding to a pixel whose distance is determined to exceed the predetermined threshold value as a result of the comparison.

Description

本発明は、画像の一部または全部の鮮明度を低減する(ぼかす)処理を行う画像処理装置等に関する発明である。   The present invention relates to an image processing apparatus or the like that performs a process of reducing (blurring) the sharpness of part or all of an image.

一般的なテレビ電話装置では、テレビ電話装置の使用者をカメラで撮影した画像を、通話先である相手のテレビ電話装置に対してそのまま送信する。しかし、使用者は、部屋が散らかっているとき等、相手に対して背景を見せたくない場合がある。   In a general videophone device, an image obtained by photographing a user of the videophone device with a camera is transmitted as it is to the other party's videophone device which is a call destination. However, the user may not want to show the background to the other party when the room is cluttered.

このような場合に、使用者の背景を相手に対して見せないように、相手のテレビ電話装置に送信すべき画像に対して画像処理を行う技術として、特許文献1および2に開示されている技術が挙げられる。   In such a case, Patent Documents 1 and 2 disclose a technique for performing image processing on an image to be transmitted to the other party's videophone device so that the background of the user is not shown to the other party. Technology.

特許文献1には、送信すべき画像から、人物の特に顔の部分を抽出し、該抽出した部分以外の画像部分に対してフェード処理を施す技術が開示されている。特許文献1に開示されている技術では、該送信すべき画像から抽出した人物の顔等のみを相手に見せることにより、相手に対して使用者の表情を伝える一方、顔以外の部分の画像データを消去して、使用者の背景に写るプライベートな画像情報を、相手に見せないようにしている。   Patent Document 1 discloses a technique for extracting a human face, in particular, a facial part from an image to be transmitted, and performing a fade process on the image part other than the extracted part. In the technique disclosed in Patent Document 1, only the face of a person extracted from the image to be transmitted is shown to the other party, and the facial expression of the user is transmitted to the other party. The private image information that appears in the background of the user is not shown to the other party.

また、特許文献2には、2台のカメラから撮影した画像を利用して物体までの距離を求め、撮影する対象物以外と認識される距離にある背景を、予め用意した画像に置き換える技術が開示されている。   Patent Document 2 discloses a technique for obtaining a distance to an object using images photographed from two cameras and replacing a background at a distance recognized as other than the object to be photographed with an image prepared in advance. It is disclosed.

特開平6−70313号公報(1994年3月11日公開)JP-A-6-70313 (published on March 11, 1994) 特開平6−311405号公報(1994年11月4日公開)Japanese Patent Laid-Open No. 6-311405 (released on November 4, 1994)

特許文献1に開示されているような、送信すべき画像から人物の顔等を抽出して、該抽出した画像部分以外を見せないようにする技術では、顔以外の物体を相手に対して見せたいときであっても、該物体の画像が上記フェード処理等によって消去されるという問題が発生する。   In the technique disclosed in Patent Document 1, for example, a person's face is extracted from an image to be transmitted so that only the extracted image portion is shown, and an object other than the face is shown to the other party. Even when it is desired, there arises a problem that the image of the object is erased by the fade processing or the like.

ここで、特許文献1に係るテレビ電話装置において、上記の問題を解決するためには、抽出する部位を増加させて、上記物体を抽出の対象に含めることが考えられる。しかし、該抽出する部位を増加させるためには、部位の増加数と同数の、画像の加工回路および2値化回路のそれぞれを少なくとも追加する必要がある。このため、特許文献1に係るテレビ電話装置では、顔以外の物体を相手に対して見せるように構成すると、回路規模が増大するという問題が発生する。   Here, in the videophone device according to Patent Document 1, in order to solve the above problem, it is conceivable to increase the number of parts to be extracted and include the object in the extraction target. However, in order to increase the number of parts to be extracted, it is necessary to add at least as many image processing circuits and binarization circuits as the number of parts to be extracted. For this reason, in the videophone device according to Patent Document 1, when an object other than the face is shown to the other party, there is a problem that the circuit scale increases.

また、特許文献1に開示されている技術では、テレビ電話装置を人ごみで使用した場合に、使用者の顔以外に、使用者の後ろを通過した他人の顔も抽出される虞があるため、該抽出された他人の顔についても相手から見える。従って、特許文献1に開示されている技術では、使用者の背景に写る、相手に見せたくない画像が相手に見えてしまう虞があるという問題が発生する。   In addition, in the technique disclosed in Patent Document 1, when the videophone device is used in a crowd, there is a possibility that other people's faces that pass behind the user may be extracted in addition to the user's face. The other person's face extracted can also be seen from the other party. Therefore, the technique disclosed in Patent Document 1 has a problem that an image that appears in the background of the user and that the user does not want to show to the other party may be seen by the other party.

特許文献2に開示されている技術では、背景を予め用意された画像に置き換えるため、相手に対して通話現場の状況を伝えることができない場合があるという問題が発生する。例えば、夜に自宅から電話をしている場合でも、南国の昼間の風景を背景画像に利用すると、本当に自宅から電話しているのか相手に伝わらない。   In the technique disclosed in Patent Document 2, since the background is replaced with an image prepared in advance, there is a problem in that the situation at the call site may not be communicated to the other party. For example, even if you are calling from home at night, if you use the daytime scenery in the southern country as a background image, you will not be able to tell the other party whether you are actually calling from home.

また、特許文献2に係る画像伝送装置では、背景画像を記録するメモリが必要となるため、回路規模が増大するという問題が発生する。   Further, the image transmission apparatus according to Patent Document 2 requires a memory for recording a background image, which causes a problem that the circuit scale increases.

本発明は、上記の問題に鑑みて為された発明であり、その目的は、簡易な構成により、画像の一部または全部の鮮明度を低減する(ぼかす)処理を行う画像処理装置等を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing apparatus or the like that performs processing to reduce (blur) part or all of an image with a simple configuration. There is to do.

本発明の画像処理装置は、上記の問題を解決するために、撮像対象が撮像された撮像画像に対して、該撮像画像の一部又は全部の鮮明度を低減する処理を施し、該鮮明度を低減した出力画像を出力する画像処理装置であって、距離画像センサから得られる距離画像であって、上記距離画像を構成する画素である距離画素のそれぞれは上記撮像画像を構成する画素である撮像画素のいずれかと対応付けられており、上記撮像対象の当該距離画像センサからの距離を示す距離データが上記距離画素毎に対応付けて記録されている距離画像を取得する距離画像取得手段と、上記距離画像取得手段により取得した距離画像から、上記距離画素に対応付けて記録された距離データを上記距離画素毎に取得するとともに、該取得した距離データが所定閾値を超えるか否かを上記距離画素毎に判定する判定手段と、上記撮像画像のうち、上記判定手段により距離データが上記所定閾値を超えると判定した上記距離画素に対応する上記撮像画素の画素値に対して所定演算を行うことによって上記出力画像を生成する画像生成手段とを備えることを特徴としている。   In order to solve the above-described problem, the image processing apparatus of the present invention performs a process for reducing the sharpness of a part or all of the captured image on the captured image obtained by capturing the captured image. Is a distance image obtained from a distance image sensor, and each of the distance pixels that constitute the distance image is a pixel that constitutes the captured image. Distance image acquisition means that is associated with any one of the imaging pixels and that obtains a distance image in which distance data indicating the distance from the distance image sensor of the imaging target is recorded in association with each distance pixel; The distance data recorded in association with the distance pixel is acquired for each distance pixel from the distance image acquired by the distance image acquisition means, and the acquired distance data is a predetermined threshold value. A determination unit that determines whether or not the distance pixel exceeds the pixel value of the imaging pixel corresponding to the distance pixel that is determined by the determination unit that the distance data exceeds the predetermined threshold among the captured images. And an image generation means for generating the output image by performing a predetermined calculation.

また、本発明の画像処理方法は、上記の問題を解決するために、撮像対象が撮像された撮像画像に対して、該撮像画像の一部又は全部の鮮明度を低減する処理を施し、該鮮明度を低減した出力画像を出力する画像処理方法であって、距離画像センサから得られる距離画像であって、上記距離画像を構成する画素である距離画素のそれぞれは上記撮像画像を構成する画素である撮像画素のいずれかと対応付けられており、上記撮像対象の当該距離画像センサからの距離を示す距離データが上記距離画素毎に対応付けて記録されている距離画像を取得する距離画像取得ステップと、上記距離画像取得ステップにて取得した距離画像から、上記距離画素に対応付けて記録された距離データを上記距離画素毎に取得するとともに、該取得した距離データが所定閾値を超えるか否かを上記距離画素毎に判定する判定ステップと、上記撮像画像のうち、上記判定ステップにて距離データが上記所定閾値を超えると判定した上記距離画素に対応する上記撮像画素の画素値に対して所定演算を行うことによって上記出力画像を生成する画像生成ステップとを含むことを特徴としている。   Further, in order to solve the above-described problem, the image processing method of the present invention performs a process for reducing the sharpness of a part or all of the captured image on the captured image obtained by capturing the captured image, An image processing method for outputting an output image with reduced sharpness, which is a distance image obtained from a distance image sensor, wherein each of the distance pixels that constitute the distance image is a pixel that constitutes the captured image A distance image acquisition step of acquiring a distance image that is associated with any one of the imaging pixels and that indicates distance data indicating a distance from the distance image sensor of the imaging target in association with each distance pixel. And distance data recorded in association with the distance pixel from the distance image acquired in the distance image acquisition step for each distance pixel, and the acquired distance data. A determination step for determining whether or not the distance pixel exceeds a predetermined threshold value, and the imaging corresponding to the distance pixel that is determined in the determination step that the distance data exceeds the predetermined threshold value among the captured images. And an image generation step of generating the output image by performing a predetermined calculation on the pixel value of the pixel.

上記の構成によれば、本発明の画像処理装置は、撮像画素のそれぞれと対応付けられた各距離画素に記録された各距離データを、所定閾値と比較した結果に基づいて、比較した該距離データが記録されている距離画素に対応する撮像画素に対して、上記鮮明度を低減する画像処理(所定演算)を行うか否かを制御する。   According to the above configuration, the image processing apparatus of the present invention compares the distance data recorded in each distance pixel associated with each imaging pixel based on the result of comparison with the predetermined threshold. Whether or not to perform the image processing (predetermined calculation) for reducing the sharpness is controlled with respect to the imaging pixel corresponding to the distance pixel in which data is recorded.

すなわち、本発明の画像処理装置は、撮像画素の画素単位で、距離画像センサから撮像対象までの距離が所定閾値を超えているとき、鮮明度を低減する(ぼかす)画像処理を行う。   That is, the image processing apparatus of the present invention performs image processing for reducing (blurring) the sharpness when the distance from the distance image sensor to the imaging target exceeds a predetermined threshold in the pixel unit of the imaging pixel.

このため、距離画像センサから近い位置にある物体(画像処理装置の使用者等)について、当該物体の距離画像センサからの距離が上記所定閾値を超えない場合は、撮像画像における該物体が撮像された領域に対して鮮明度を低減する画像処理が行われない。   For this reason, for an object (such as a user of an image processing apparatus) that is close to the distance image sensor, if the distance of the object from the distance image sensor does not exceed the predetermined threshold, the object in the captured image is captured. The image processing for reducing the sharpness is not performed on the region.

一方、距離画像センサから遠い位置にある物体(画像処理装置の使用者の背景等)について、当該物体の距離画像センサからの距離が上記所定閾値を超える場合は、撮像画像における該物体が撮像された領域に対して鮮明度を低減する画像処理が行われる。   On the other hand, when the distance from the distance image sensor of the object at a position far from the distance image sensor (such as the background of the user of the image processing apparatus) exceeds the predetermined threshold, the object is captured in the captured image. Image processing for reducing the sharpness is performed on the region.

つまり、本発明の画像処理装置は、画像処理装置の使用者の背景等を見えづらくするように鮮明度が低減された画像を、簡易な構成により生成することが可能となる。   That is, the image processing apparatus of the present invention can generate an image with a reduced sharpness so as to make it difficult to see the background or the like of the user of the image processing apparatus with a simple configuration.

また、鮮明度を低減する画像処理は、一般的に知られている画像のぼかし技術を適用することができるので、簡易な構成により実現することができる。   Further, the image processing for reducing the sharpness can be realized with a simple configuration because a generally known image blurring technique can be applied.

また、本発明の画像処理装置の上記画像生成手段は、上記所定演算を行う対象となる上記撮像画素の画素値および当該撮像画素に隣接する上記撮像画素の画素値を用いて上記所定演算を行うことを特徴としている。   Further, the image generation means of the image processing apparatus of the present invention performs the predetermined calculation using the pixel value of the imaging pixel to be subjected to the predetermined calculation and the pixel value of the imaging pixel adjacent to the imaging pixel. It is characterized by that.

また、本発明の画像処理装置の上記画像生成手段は、上記所定演算として、上記所定演算を施す対象となる撮像画素の画素値を、当該撮像画素の画素値および当該撮像画素に隣接する撮像画素の画素値の加重平均値に変更することを特徴としている。   Further, the image generation unit of the image processing apparatus of the present invention uses, as the predetermined calculation, a pixel value of an imaging pixel to be subjected to the predetermined calculation, a pixel value of the imaging pixel, and an imaging pixel adjacent to the imaging pixel. The pixel value is changed to a weighted average value.

さらに、本発明の画像処理装置の上記画像生成手段は、上記所定演算を施す対象となる撮像画素に対応する上記距離画素に対応付けて記録された距離データに応じた係数を、当該撮像画素の画素値および当該撮像画素に隣接する撮像画素の画素値に乗じてから、上記加重平均値を算出することを特徴としている。   Furthermore, the image generation unit of the image processing apparatus of the present invention uses a coefficient corresponding to the distance data recorded in association with the distance pixel corresponding to the imaging pixel to be subjected to the predetermined calculation, as a coefficient of the imaging pixel. The weighted average value is calculated after multiplying the pixel value and the pixel value of the imaging pixel adjacent to the imaging pixel.

上記の構成によれば、距離データに応じた係数を、処理対象の撮像画素の画素値、およびその近傍の各撮像画素の画素値に乗じて、これらの各画素値の加重平均値を求め、該処理対象の撮像画素の画素値を、該加重平均値に変更することにより、該処理対象の撮像画素に対して、鮮明度を低減する画像処理を行う。   According to the above configuration, the coefficient corresponding to the distance data is multiplied by the pixel value of the imaging pixel to be processed and the pixel value of each imaging pixel in the vicinity thereof to obtain a weighted average value of these pixel values, By changing the pixel value of the imaging pixel to be processed to the weighted average value, image processing for reducing the sharpness is performed on the imaging pixel to be processed.

上記の構成によれば、周知のぼかしフィルタ(ローパスフィルタ)を用いた、撮像画像のぼかし処理により、上記鮮明度を低減する画像処理が実現可能となるので、該画像処理を施した領域について、ぼかし処理前の状態が判別可能な出力画像を作成することができる。   According to the above configuration, the image processing for reducing the sharpness can be realized by blurring the captured image using a known blur filter (low-pass filter). An output image in which the state before the blurring process can be determined can be created.

また、上記の構成によれば、係数を距離データに応じて変更することにより、撮像画像においては、距離画像センサから近い距離の物体と、距離画像センサから遠い距離の物体とで、ぼかし度合いを変更することができる。これにより、距離画像センサから遠い距離の物体の画像を、距離画像センサから近い距離の物体の画像よりも大幅にぼかす、等といった処理が可能となる。   Further, according to the above configuration, by changing the coefficient according to the distance data, in the captured image, the blurring degree is reduced between an object at a distance close to the distance image sensor and an object at a distance far from the distance image sensor. Can be changed. Thereby, it is possible to perform processing such as blurring an image of an object at a distance far from the distance image sensor more significantly than an image of an object at a distance near the distance image sensor.

また、本発明の画像処理装置は、上記画像生成手段により生成された上記出力画像を上記画像処理装置の外部に送信する画像送信手段をさらに備えることを特徴としている。   The image processing apparatus of the present invention is further characterized by further comprising image transmission means for transmitting the output image generated by the image generation means to the outside of the image processing apparatus.

上記の構成によれば、出力画像を、画像処理装置の外部に送信することができるので、外部の装置が出力画像を利用することが可能となる。   According to the above configuration, since the output image can be transmitted to the outside of the image processing apparatus, the external apparatus can use the output image.

なお、本発明の画像処理装置を備えた装置の一例としては、テレビ電話装置が挙げられる。本発明の画像処理装置を備えたテレビ電話装置は、相手に見せたい物体を距離画像センサから近い位置に配置することにより、当該物体が画像から消去される虞を低減することが可能である。また、本発明の画像処理装置を備えたテレビ電話装置は、画像から抽出する部位(対象)を増やすこと無く、上記所定閾値に応じて、鮮明度を低減する画像処理を行うか否かを区別することが可能となるので、回路規模を増大させる必要が無い。また、本発明の画像処理装置を備えたテレビ電話装置は、画像処理によって背景の鮮明度を低減させるので、背景の差し替えを行う必要が無く、相手に対して通話現場の状況を伝えることが可能となる。さらに、本発明の画像処理装置を備えたテレビ電話装置は、背景画像を記録するメモリが不要となるため、回路規模の増大を抑制することが可能となる。   An example of a device provided with the image processing device of the present invention is a videophone device. The videophone device including the image processing device of the present invention can reduce the possibility that the object is erased from the image by disposing the object to be shown to the other party at a position close to the distance image sensor. In addition, the videophone apparatus including the image processing apparatus of the present invention distinguishes whether or not to perform image processing for reducing the sharpness according to the predetermined threshold without increasing the number of parts (targets) extracted from the image. Therefore, it is not necessary to increase the circuit scale. In addition, since the videophone apparatus provided with the image processing apparatus of the present invention reduces the clearness of the background through image processing, it is not necessary to replace the background, and it is possible to convey the situation of the call site to the other party. It becomes. Furthermore, since the videophone apparatus provided with the image processing apparatus of the present invention does not require a memory for recording a background image, it is possible to suppress an increase in circuit scale.

なお、上記画像処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記画像処理装置をコンピュータにて実現させる画像処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The image processing apparatus may be realized by a computer. In this case, an image processing apparatus control program for causing the image processing apparatus to be realized by the computer by causing the computer to operate as the above-described means, and A computer-readable recording medium on which is recorded also falls within the scope of the present invention.

以上のとおり、本発明の画像処理装置は、撮像対象が撮像された撮像画像に対して、該撮像画像の一部又は全部の鮮明度を低減する処理を施し、該鮮明度を低減した出力画像を出力する画像処理装置であって、距離画像センサから得られる距離画像であって、上記距離画像を構成する画素である距離画素のそれぞれは上記撮像画像を構成する画素である撮像画素のいずれかと対応付けられており、上記撮像対象の当該距離画像センサからの距離を示す距離データが上記距離画素毎に対応付けて記録されている距離画像を取得する距離画像取得手段と、上記距離画像取得手段により取得した距離画像から、上記距離画素に対応付けて記録された距離データを上記距離画素毎に取得するとともに、該取得した距離データが所定閾値を超えるか否かを上記距離画素毎に判定する判定手段と、上記撮像画像のうち、上記判定手段により距離データが上記所定閾値を超えると判定した上記距離画素に対応する上記撮像画素の画素値に対して所定演算を行うことによって上記出力画像を生成する画像生成手段とを備える構成である。   As described above, the image processing apparatus of the present invention performs processing for reducing the sharpness of part or all of the captured image on the captured image obtained by capturing the imaging target, and outputs the image with the reduced sharpness. A distance image obtained from a distance image sensor, wherein each of the distance pixels that constitute the distance image is one of the imaging pixels that constitute the captured image. Distance image acquisition means for acquiring a distance image in which distance data indicating the distance from the distance image sensor to be imaged is associated and recorded for each distance pixel, and the distance image acquisition means The distance data recorded in association with the distance pixel is acquired for each distance pixel from the distance image acquired by the above, and whether or not the acquired distance data exceeds a predetermined threshold value A determination unit that determines for each distance pixel; and a predetermined calculation for the pixel value of the imaging pixel corresponding to the distance pixel that is determined by the determination unit that the distance data exceeds the predetermined threshold among the captured images. And an image generating means for generating the output image by performing the above.

また、本発明の画像処理方法は、撮像対象が撮像された撮像画像に対して、該撮像画像の一部又は全部の鮮明度を低減する処理を施し、該鮮明度を低減した出力画像を出力する画像処理方法であって、距離画像センサから得られる距離画像であって、上記距離画像を構成する画素である距離画素のそれぞれは上記撮像画像を構成する画素である撮像画素のいずれかと対応付けられており、上記撮像対象の当該距離画像センサからの距離を示す距離データが上記距離画素毎に対応付けて記録されている距離画像を取得する距離画像取得ステップと、上記距離画像取得ステップにて取得した距離画像から、上記距離画素に対応付けて記録された距離データを上記距離画素毎に取得するとともに、該取得した距離データが所定閾値を超えるか否かを上記距離画素毎に判定する判定ステップと、上記撮像画像のうち、上記判定ステップにて距離データが上記所定閾値を超えると判定した上記距離画素に対応する上記撮像画素の画素値に対して所定演算を行うことによって上記出力画像を生成する画像生成ステップとを含む方法である。   In addition, the image processing method of the present invention performs a process for reducing the sharpness of a part or all of the captured image on the captured image obtained by capturing the imaging target, and outputs an output image with the reduced sharpness. A distance image obtained from a distance image sensor, wherein each of the distance pixels that constitute the distance image is associated with one of the imaging pixels that constitute the captured image. A distance image acquisition step of acquiring a distance image in which distance data indicating a distance from the distance image sensor of the imaging target is recorded in association with each distance pixel; and the distance image acquisition step From the acquired distance image, distance data recorded in association with the distance pixel is acquired for each distance pixel, and whether or not the acquired distance data exceeds a predetermined threshold value. A determination step for determining each distance pixel; and a predetermined calculation for the pixel value of the image pickup pixel corresponding to the distance pixel that is determined that the distance data exceeds the predetermined threshold in the determination step among the captured images. An image generation step of generating the output image by performing.

従って、簡易な構成により、画像の一部または全部の鮮明度を低減する(ぼかす)処理を行うことが可能であるという効果を奏する。   Therefore, it is possible to perform a process of reducing (blurring) the sharpness of a part or all of an image with a simple configuration.

本発明の一実施の形態に係る画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention. 撮影画像データのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of picked-up image data. 距離画像データのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of distance image data. 出力画像データのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of output image data. 出力画像データを作成する手順を説明するフローチャートであって、同手順に係る処理の流れを示している。It is a flowchart explaining the procedure which produces output image data, Comprising: The flow of the process which concerns on the procedure is shown. 画素値演算処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a pixel value calculation process. 図7(a)は、3×3ぼかしフィルタの構成を示す図であり、図7(b)〜(d)は、同フィルタの行列としての各要素に与えるフィルタ係数の例を示す図である。FIG. 7A is a diagram illustrating a configuration of a 3 × 3 blur filter, and FIGS. 7B to 7D are diagrams illustrating examples of filter coefficients given to each element as a matrix of the filter. . 図8(a)は、5×5ぼかしフィルタの構成を示す図であり、図8(b)〜(d)は、同フィルタの行列としての各要素に与えるフィルタ係数の例を示す図である。FIG. 8A is a diagram illustrating a configuration of a 5 × 5 blur filter, and FIGS. 8B to 8D are diagrams illustrating examples of filter coefficients given to each element as a matrix of the filter. . 7×7ぼかしフィルタの構成を示す図である。It is a figure which shows the structure of a 7 * 7 blurring filter. 本発明の他の実施の形態に係る画像処理ユニットの構成を示すブロック図である。It is a block diagram which shows the structure of the image processing unit which concerns on other embodiment of this invention.

実施の形態1に係る画像処理装置101、および、実施の形態2に係る画像処理ユニット1001は、概略的に言えば、画像の一部又は全部の鮮明度を低減する(ぼかす)画像処理を行う装置であり、画像を表すデジタル信号を処理する種々の装置に適用することが可能である。中でも、画像処理装置101および画像処理ユニット1001は、テレビ電話装置において使用者を撮像した画像(撮影)に対して画像処理を行う装置に好適に適用できる。   Generally speaking, the image processing apparatus 101 according to the first embodiment and the image processing unit 1001 according to the second embodiment perform image processing that reduces (blurs) part or all of the sharpness of an image. It can be applied to various devices that process digital signals representing images. In particular, the image processing apparatus 101 and the image processing unit 1001 can be suitably applied to an apparatus that performs image processing on an image (captured) of a user captured by a videophone device.

従って、各実施の形態では、画像処理装置101および画像処理ユニット1001を、テレビ電話装置が備える画像処理装置に適用したケースを例に挙げて説明する。ただし、画像処理装置101および画像処理ユニット1001の適用先をテレビ電話装置に限定するものではない。   Therefore, in each embodiment, a case where the image processing apparatus 101 and the image processing unit 1001 are applied to an image processing apparatus included in a videophone apparatus will be described as an example. However, the application destination of the image processing apparatus 101 and the image processing unit 1001 is not limited to the videophone apparatus.

〔実施の形態1〕
本実施の形態に係る画像処理装置101について、図1〜図9を参照して、以下に説明する。
[Embodiment 1]
The image processing apparatus 101 according to the present embodiment will be described below with reference to FIGS.

〔画像処理装置101の概略構成〕
図1は、画像処理装置101の概略構成を示すブロック図である。
[Schematic Configuration of Image Processing Apparatus 101]
FIG. 1 is a block diagram illustrating a schematic configuration of the image processing apparatus 101.

画像処理装置101は、テレビ電話装置等において、使用者を撮像(撮影)した画像を、通話先である相手のテレビ電話装置に対して送信するための画像送信装置100の一構成要素である。なお、画像送信装置100は、画像処理装置101の他に、カメラ106、距離画像センサ107、および送信部108を備える構成である。   The image processing apparatus 101 is a constituent element of the image transmission apparatus 100 for transmitting an image (captured) of a user in a videophone apparatus or the like to the other party's videophone apparatus as a call destination. The image transmission apparatus 100 includes a camera 106, a distance image sensor 107, and a transmission unit 108 in addition to the image processing apparatus 101.

画像処理装置101は、カメラ制御部109、センサ制御部110、主制御部111、および画像送信制御部(画像送信手段)105を備える構成である。   The image processing apparatus 101 includes a camera control unit 109, a sensor control unit 110, a main control unit 111, and an image transmission control unit (image transmission unit) 105.

カメラ106は、デジタルカメラに代表される一般的なカメラであり、画像処理装置101を備えるテレビ電話装置の使用者およびその背景を撮像する。カメラ106によって撮像される対象を「撮像対象」とも称する。カメラ106によって撮像対象が撮像された画像(以下、「撮像画像」とも称する)は、デジタル画像処理を施すことが可能な撮像画像データとしてカメラ106から出力される。カメラ制御部109は、カメラ106から出力された撮像画像データを取得すると共に、カメラ106に対する各種制御を行う。   The camera 106 is a general camera represented by a digital camera, and takes an image of a user of a videophone device including the image processing device 101 and the background thereof. An object imaged by the camera 106 is also referred to as an “imaging object”. An image (hereinafter, also referred to as “captured image”) obtained by capturing an image with the camera 106 is output from the camera 106 as captured image data that can be subjected to digital image processing. The camera control unit 109 acquires captured image data output from the camera 106 and performs various controls on the camera 106.

距離画像センサ107は、距離画像センサ107自身から、撮像した物体までの距離を示す距離データが、該撮像によって得られた画像(以下、「距離画像」とも称する)を構成する画素(以下、「距離画素」とも称する)の画素値として記録および出力されるものである。距離画像センサ107としては、例えば、光が物体に当たって反射して返ってくるまでの往復の時間を測定して距離を求める、TOF(Time of Flight)型の距離画像センサを利用することができる。TOF型の距離画像センサの他にも、距離画像センサ107としては、2台のカメラで撮像した画像の差分から距離を求める機能を備えるもの等を利用することができる。   The distance image sensor 107 includes pixels (hereinafter referred to as “distance images”) in which distance data indicating the distance from the distance image sensor 107 itself to the captured object constitutes an image (hereinafter also referred to as “distance image”) obtained by the imaging. The pixel value is also recorded and output. As the distance image sensor 107, for example, a time-of-flight (TOF) type distance image sensor that obtains a distance by measuring a round-trip time until light hits an object and is reflected and returned can be used. In addition to the TOF type distance image sensor, as the distance image sensor 107, one having a function for obtaining a distance from a difference between images taken by two cameras can be used.

ここで、距離画像センサ107は、カメラ106が撮像対象としている、上記使用者およびその背景を撮像することができるように設けられている。より詳しくは、距離画像センサ107によって撮像された距離画像とカメラ106によって撮像された撮像画像との間では、撮像されている各物体の位置関係が相対的にほぼ一致するように、カメラ106と距離画像センサ107とが設けられている。なお、距離画像センサ107によって撮像された距離画像を構成する画素のそれぞれは、カメラ106によって撮像された撮像画像を構成する画素(以下、「撮像画素」とも称する)のいずれかと対応付けが可能であるものとする。   Here, the distance image sensor 107 is provided so as to be able to take an image of the user and the background that the camera 106 is imaging. More specifically, between the distance image captured by the distance image sensor 107 and the captured image captured by the camera 106, the camera 106 and the A distance image sensor 107 is provided. Each of the pixels constituting the distance image captured by the distance image sensor 107 can be associated with any of the pixels (hereinafter also referred to as “imaging pixels”) that configure the captured image captured by the camera 106. It shall be.

以下、距離画像センサ107によって撮像された距離画像のデータを、「距離画像データ」と称する。距離画像データは、距離画像センサ107から出力される。センサ制御部110は、距離画像センサ107から出力された距離画像データを取得すると共に、距離画像センサ107に対する各種制御を行う。   Hereinafter, the distance image data captured by the distance image sensor 107 is referred to as “distance image data”. The distance image data is output from the distance image sensor 107. The sensor control unit 110 acquires the distance image data output from the distance image sensor 107 and performs various controls on the distance image sensor 107.

ここで、距離画像センサ107によって撮像された距離画像には、その画素単位で、撮像した物体の距離画像センサ107からの距離が記録されている。測定できる、距離の精度および距離の単位は、個々のセンサによって異なるが、本実施の形態では、距離画像センサ107から物体までの距離に応じた画素値を出力することが可能な距離画像センサ107を例に、説明を行う。   Here, in the distance image captured by the distance image sensor 107, the distance of the captured object from the distance image sensor 107 is recorded in units of pixels. The accuracy of distance and the unit of distance that can be measured differ depending on the individual sensor, but in this embodiment, the distance image sensor 107 that can output a pixel value corresponding to the distance from the distance image sensor 107 to the object. An example will be described.

また、カメラ106および距離画像センサ107において、撮像された各画像における各物体の位置関係を相対的にほぼ一致させるためには、カメラ106および距離画像センサ107としては、互いに同一のカメラを使用するのが好ましい。   In order to make the positional relationship of each object in each captured image relatively similar in the camera 106 and the distance image sensor 107, the same camera is used as the camera 106 and the distance image sensor 107. Is preferred.

一方、カメラ106および距離画像センサ107としては、互いに同一のカメラを使用せず、それぞれ別のカメラを使用してもよい。但し、カメラ106および距離画像センサ107として、それぞれ別のカメラを使用して、撮像画像データおよび距離画像データのそれぞれを取得する場合、2台の該カメラはできるだけ近接させる必要がある。この理由は、該2台のカメラが、互いに離れた配置となっていると、上記位置関係に大きなずれが生じやすい、すなわち、撮像画像データと距離画像データとの間での、画素の位置ずれが大きくなりやすいためである。該2台のカメラで撮像した各画像の間で、画角および/または物体のサイズ(位置関係)が異なっている場合、これらの画像の少なくとも一方に対して、拡大、縮小、トリミング、またはアフィン変換等を施して、これらの画像を同一の画像サイズにするのが好ましい。   On the other hand, as the camera 106 and the distance image sensor 107, different cameras may be used instead of the same camera. However, when each of the captured image data and the distance image data is acquired by using different cameras as the camera 106 and the distance image sensor 107, the two cameras need to be as close as possible. The reason for this is that if the two cameras are arranged apart from each other, a large shift in the positional relationship is likely to occur, that is, a pixel shift between the captured image data and the distance image data. This is because it tends to be large. When the angle of view and / or the size (positional relationship) of an object differ between the images captured by the two cameras, enlargement, reduction, trimming, or affine is performed on at least one of these images. These images are preferably converted to the same image size by performing conversion or the like.

主制御部111は、カメラ106、距離画像センサ107、および画像送信制御部105の各部を制御するものである。主制御部111は、CPU(central processing unit)で構成されていてもよいし、ASIC(application specific integrate circuit)などのハードウェアロジックで構成されていてもよい。主制御部111がCPUで構成されている場合、メモリに記憶されている各種プログラムを、例えばRAM(random access memory)等で構成される一次記憶部に読み出して実行する。   The main control unit 111 controls each unit of the camera 106, the distance image sensor 107, and the image transmission control unit 105. The main control unit 111 may be configured by a CPU (central processing unit) or hardware logic such as an ASIC (application specific integrate circuit). When the main control unit 111 is configured by a CPU, various programs stored in the memory are read out and executed in a primary storage unit configured by, for example, a RAM (random access memory) or the like.

主制御部111は、画素値取得部102、距離画像データ解析部(距離画像取得手段、判定手段)104、および画像処理部(画像生成手段)103を含んでいる。   The main control unit 111 includes a pixel value acquisition unit 102, a distance image data analysis unit (distance image acquisition unit, determination unit) 104, and an image processing unit (image generation unit) 103.

画素値取得部102は、カメラ制御部109から撮像画像データを取得し、該撮像画像データを構成する各画素の画素値を、画素毎に取得する。詳細は後述するが、撮像画像データは、一般的なカメラにより撮像された画像を想定しているので、画素値に、R(赤)成分、G(緑)成分、およびB(青)成分から成る色情報を含んでいる。   The pixel value acquisition unit 102 acquires captured image data from the camera control unit 109, and acquires a pixel value of each pixel constituting the captured image data for each pixel. Although details will be described later, since the captured image data is assumed to be an image captured by a general camera, the pixel value includes an R (red) component, a G (green) component, and a B (blue) component. Contains color information.

距離画像データ解析部104は、センサ制御部110から距離画像データを取得し、該距離画像データを構成する各画素の画素値、すなわち、各距離画素に記録されている距離を、距離画素毎に取得する。そして、距離画像データ解析部104は、取得した距離が、所定の閾値(以下、「所定閾値T」と表記する)を超えるか否かを距離画素毎に判定する。   The distance image data analysis unit 104 acquires the distance image data from the sensor control unit 110, and calculates the pixel value of each pixel constituting the distance image data, that is, the distance recorded in each distance pixel for each distance pixel. get. Then, the distance image data analysis unit 104 determines for each distance pixel whether or not the acquired distance exceeds a predetermined threshold (hereinafter referred to as “predetermined threshold T”).

ここで、所定閾値Tは、撮像した物体の距離画像センサ107からの距離が、所定距離よりも大きいか、それとも小さいかを、距離画素毎に判別するための値である。なお、所定閾値Tの好ましい値は、距離画像センサ107から上記使用者までの距離を示す値である。なぜなら、距離画像センサ107から上記使用者までの距離を示す値を所定閾値Tとして設定することで、上記使用者の前または横にある物体を相手に見せたい物体と判定する(ぼかさない)一方、上記使用者の後ろにある物体を背景として判定する(ぼかす)ことが可能となるためである。   Here, the predetermined threshold T is a value for determining for each distance pixel whether the distance of the imaged object from the distance image sensor 107 is larger or smaller than the predetermined distance. A preferable value of the predetermined threshold T is a value indicating the distance from the distance image sensor 107 to the user. This is because, by setting a value indicating the distance from the distance image sensor 107 to the user as the predetermined threshold value T, an object in front of or next to the user is determined as an object to be shown to the other party (not blurred). This is because an object behind the user can be determined (blurred) as a background.

画像処理部103は、まず、画素値取得部102から、撮像画像データを構成する各画素の画素値を、画素毎に取得する。   First, the image processing unit 103 acquires, from the pixel value acquisition unit 102, the pixel value of each pixel constituting the captured image data for each pixel.

そして、画像処理部103は、距離画像データ解析部104にて距離が所定閾値Tを超えると判定した距離画素に対応する撮像画素の画素値に対して、後述する画素値演算処理(所定演算)を行う。画像処理部103は、当該処理を各撮像画素に対して施す。   Then, the image processing unit 103 performs pixel value calculation processing (predetermined calculation) described later on the pixel value of the imaging pixel corresponding to the distance pixel determined by the distance image data analysis unit 104 that the distance exceeds the predetermined threshold T. I do. The image processing unit 103 performs the process on each imaging pixel.

その結果、画像処理部103は、カメラ106によって撮像された撮像画像のうち、距離画像センサ107からの距離が所定閾値Tで表される所定距離を超える撮像対象が撮像されている領域の鮮明度を低減した(ぼかした)画像である出力画像を生成する。   As a result, the image processing unit 103 has a sharpness of an area in which an imaging target in which the distance from the distance image sensor 107 exceeds a predetermined distance represented by a predetermined threshold T among the captured images captured by the camera 106 is captured. An output image that is a blurred (blurred) image is generated.

なお、上記の説明において、画素値取得部102、画像処理部103、および距離画像データ解析部104における一連の処理の説明は、撮像画像データを構成するある1画素に対する説明である。一方、画像処理装置101では、画素値取得部102、画像処理部103、および距離画像データ解析部104が、撮像画像データを構成する全ての画素の各々に対して、上記の一連の処理を行う。そして、上記の一連の処理が完了して得られた画像のデータは、出力画像を示す出力画像データとして、画像処理部103から出力される。   In the above description, the description of the series of processes in the pixel value acquisition unit 102, the image processing unit 103, and the distance image data analysis unit 104 is an explanation for one pixel constituting the captured image data. On the other hand, in the image processing apparatus 101, the pixel value acquisition unit 102, the image processing unit 103, and the distance image data analysis unit 104 perform the above-described series of processing for each of all the pixels constituting the captured image data. . Then, image data obtained by completing the above series of processing is output from the image processing unit 103 as output image data indicating an output image.

画像処理部103から出力された出力画像データは、画像送信制御部105に供給される。画像送信制御部105は、供給された出力画像データを、画像処理装置101の外部の送信部108に対して出力する。   The output image data output from the image processing unit 103 is supplied to the image transmission control unit 105. The image transmission control unit 105 outputs the supplied output image data to the transmission unit 108 outside the image processing apparatus 101.

一般的に、テレビ電話装置では、使用者を撮像した画像を、通話先のテレビ電話装置に送信するために、音声と画像との同期がずれないようにする仕組み、および、画像のデータを圧縮する技術が必要である。これらの技術は、送信部108が担っている。すなわち、送信部108は、画像送信制御部105から供給された出力画像データを、テレビ電話装置において用いられる周知の送受信方式によって、通話先のテレビ電話装置に送信する。   In general, in a videophone device, in order to transmit an image captured of a user to a videophone device that is a call destination, a mechanism that prevents synchronization of the sound and the image, and image data are compressed. Technology to do is necessary. These techniques are performed by the transmission unit 108. That is, the transmission unit 108 transmits the output image data supplied from the image transmission control unit 105 to the videophone device that is the call destination by a known transmission / reception method used in the videophone device.

〔撮像画像データ、距離画像データ、および出力画像データのデータ構造〕
ここで、上記撮像画像データ、上記距離画像データ、および上記出力画像データについて、図2〜図4を参照して説明する。
[Data structure of captured image data, distance image data, and output image data]
Here, the captured image data, the distance image data, and the output image data will be described with reference to FIGS.

図2は、撮像画像データのデータ構造の一例を示す図である。図2には、横方向(X方向)にn個の画素を、縦方向(Y方向)にm個の画素をそれぞれ有する、撮像画像データを示している。撮像画像データを構成する、n×m個の画素の各々には、R(赤)成分、G(緑)成分、およびB(青)成分から成る、RGB表色系に基づく色情報が、画素値として記録されている。   FIG. 2 is a diagram illustrating an example of a data structure of captured image data. FIG. 2 shows captured image data having n pixels in the horizontal direction (X direction) and m pixels in the vertical direction (Y direction). Color information based on the RGB color system composed of R (red), G (green), and B (blue) components is included in each of the n × m pixels constituting the captured image data. It is recorded as a value.

以下、撮像画像データにおいて、左からi番目、上からj番目の画素に記録されているR成分は、Rijと表記する。同画素に記録されているG成分およびB成分についても同様に、それぞれGijおよびBijと表記する。   Hereinafter, in the captured image data, the R component recorded in the i-th pixel from the left and the j-th pixel from the top is denoted as Rij. Similarly, the G component and the B component recorded in the same pixel are denoted as Gij and Bij, respectively.

図3は、距離画像データのデータ構造の一例を示す図である。図3には、横方向(X方向)にn個の画素を、縦方向(Y方向)にm個の画素をそれぞれ有する、距離画像データを示している。距離画像データを構成する、n×m個の画素の各々には、距離画像センサ107から距離画像センサ107が撮像した物体までの距離を示す距離データの成分(D)が、画素値として記録されている。   FIG. 3 is a diagram illustrating an example of the data structure of the distance image data. FIG. 3 shows distance image data having n pixels in the horizontal direction (X direction) and m pixels in the vertical direction (Y direction). A distance data component (D) indicating a distance from the distance image sensor 107 to an object imaged by the distance image sensor 107 is recorded as a pixel value in each of the n × m pixels constituting the distance image data. ing.

以下、距離画像データにおいて、左からi番目、上からj番目の画素に記録されている距離データの成分は、Dijと表記する。   Hereinafter, in the distance image data, the component of the distance data recorded in the i-th pixel from the left and the j-th pixel from the top is denoted as Dij.

ここで、撮像画像データおよび距離画像データは、互いに略同一の位置を撮像した画像である。また、撮像画像データおよび距離画像データは、いずれもn×m個の画素を有する画像のデータである。従って、撮像画像データおよび距離画像データは、互いに略同一の撮像対象を、カメラ106および距離画像センサ107という、互いに異なる撮像装置によって撮像して得られた各データであると言える。従って、撮像画像データにおけるRij、Gij、およびBijが示す色情報と、該撮像画像データに対応する距離画像データにおけるDijが示す距離データとは、互いに略同一の撮像対象における略同一の位置を撮像して得られた情報を示している。   Here, the captured image data and the distance image data are images obtained by capturing substantially the same position. The captured image data and the distance image data are both image data having n × m pixels. Therefore, it can be said that the captured image data and the distance image data are data obtained by imaging substantially the same imaging target with different imaging devices such as the camera 106 and the distance image sensor 107. Accordingly, the color information indicated by Rij, Gij, and Bij in the captured image data and the distance data indicated by Dij in the distance image data corresponding to the captured image data are captured at substantially the same position in the substantially identical imaging target. The information obtained is shown.

図4は、出力画像データのデータ構造の一例を示す図である。図4には、横方向(X方向)にn個の画素を、縦方向(Y方向)にm個の画素をそれぞれ有する、出力画像データを示している。出力画像データを構成する、n×m個の画素の各々には、R(赤)成分、G(緑)成分、およびB(青)成分から成る、RGB表色系に基づく色情報が、画素値として記録されている。   FIG. 4 is a diagram illustrating an example of the data structure of the output image data. FIG. 4 shows output image data having n pixels in the horizontal direction (X direction) and m pixels in the vertical direction (Y direction). Each of n × m pixels constituting the output image data has color information based on the RGB color system composed of an R (red) component, a G (green) component, and a B (blue) component. It is recorded as a value.

以下、出力画像データにおいて、左からi番目、上からj番目の画素に記録されているR成分は、Roijと表記する。同画素に記録されているG成分およびB成分についても同様に、それぞれGoijおよびBoijと表記する。   Hereinafter, in the output image data, the R component recorded in the i-th pixel from the left and the j-th pixel from the top is denoted as Roij. Similarly, the G component and the B component recorded in the same pixel are denoted by Goij and Boij, respectively.

出力画像データは、画像処理装置101に入力された、撮像画像データおよび距離画像データから、以下の手順で作成される。   The output image data is created from the captured image data and the distance image data input to the image processing apparatus 101 according to the following procedure.

〔出力画像データを作成する手順〕
出力画像データを作成する手順(画像処理方法)について、図5を参照して説明する。
[Procedure for creating output image data]
A procedure (image processing method) for creating output image data will be described with reference to FIG.

図5は、出力画像データを作成する手順を説明するフローチャートであって、同手順に係る画像処理部103等の処理の流れを示している。   FIG. 5 is a flowchart for explaining a procedure for creating output image data, and shows a flow of processing of the image processing unit 103 and the like related to the procedure.

上述したとおり、出力画像データを作成するための画像処理は、撮像画像データを構成する各画素について行う。ここでは、処理を行う対象となる、撮像画像データの1画素を「注目画素」と称する。   As described above, the image processing for creating the output image data is performed for each pixel constituting the captured image data. Here, one pixel of the captured image data to be processed is referred to as a “target pixel”.

なお、ここでは、X方向にn個の画素を、Y方向にm個の画素をそれぞれ有する撮像画像データ(図2参照)が、画像処理装置101に入力された場合を例に、説明を行う。   Here, a description will be given by taking as an example a case where captured image data (see FIG. 2) having n pixels in the X direction and m pixels in the Y direction is input to the image processing apparatus 101. .

また、ここでは、撮像画像データの画素数と距離画像データの画素数とが同数(n×m個)である場合を例に、説明を行う。ちなみに、撮像画像データの画素数と距離画像データの画素数とが異なる数である場合、事前に距離画像データの画像を、撮像画像データの画素数と同じ画像サイズにしておく必要がある。画像サイズの調整方法は、拡大、縮小、トリミング、またはアフィン変換等の、周知の技術を使用することができる。   In addition, here, the case where the number of pixels of the captured image data and the number of pixels of the distance image data are the same number (n × m) will be described as an example. Incidentally, when the number of pixels of the captured image data is different from the number of pixels of the distance image data, it is necessary to set the image of the distance image data to the same image size as the number of pixels of the captured image data in advance. As a method for adjusting the image size, a well-known technique such as enlargement, reduction, trimming, or affine transformation can be used.

さらに、ここでは、一般的な説明を行うために、X方向の座標における左からi番目、Y方向の座標における上からj番目の画素の処理方法について説明を行う。   Further, here, for general description, a processing method of the i-th pixel from the left in the X direction coordinate and the j-th pixel from the top in the Y direction coordinate will be described.

処理が開始(ステップST51)されると、画素値取得部102は、カメラ制御部109から取得した撮像画像データから、注目画素に記録されている色情報(画素値)を取得する。この注目画素に記録されている色情報は、該注目画素に記録されている画素値、すなわち、RGBの各成分(Rij、Gij、Bij)に該当する(ステップST52)。   When the process is started (step ST51), the pixel value acquisition unit 102 acquires color information (pixel value) recorded in the target pixel from the captured image data acquired from the camera control unit 109. The color information recorded in the target pixel corresponds to the pixel value recorded in the target pixel, that is, the RGB components (Rij, Gij, Bij) (step ST52).

距離画像データ解析部104は、センサ制御部110から取得した距離画像データから、注目画素に記録されている、該注目画素に関する、距離画像センサ107から距離画像センサ107が撮像した物体までの距離(画素値)を、距離情報として取得する。この注目画素に関する該距離は、該注目画素に記録されている画素値、すなわち、距離データDijに該当する(距離画像取得ステップST53)。   The distance image data analysis unit 104 uses the distance image data acquired from the sensor control unit 110 to record the distance (from the distance image sensor 107 to the object imaged by the distance image sensor 107) related to the target pixel. Pixel value) is acquired as distance information. The distance related to the target pixel corresponds to the pixel value recorded in the target pixel, that is, the distance data Dij (distance image acquisition step ST53).

また、距離画像データ解析部104は、ステップST53にて取得した距離データDijの画素値(距離情報)を、パラメータである所定の距離閾値(所定閾値T)Th1と比較し、これらのそれぞれが示す距離の大小を判定する(判定ステップST54)。   In addition, the distance image data analysis unit 104 compares the pixel value (distance information) of the distance data Dij acquired in step ST53 with a predetermined distance threshold (predetermined threshold T) Th1 that is a parameter, and each of these is indicated. The magnitude of the distance is determined (determination step ST54).

距離データDijにおける画素値が距離閾値Th1以下である場合、注目画素に関して、距離画像センサ107から距離画像センサ107が撮像した物体までの距離が、距離閾値Th1の示す所定距離以下であると判定する。この判定結果は、同注目画素に関して、距離画像センサ107が撮像した物体が、該所定距離に対応する位置よりも、距離画像センサ107に近いか、または、距離画像センサ107が撮像した物体が、該所定距離に対応する位置にあることを示している。そして、このような判定が行われた場合、画像処理部103は、注目画素に記録されている色情報に対する、後述する画素値演算処理を行わない(ステップST55)。   When the pixel value in the distance data Dij is equal to or smaller than the distance threshold Th1, it is determined that the distance from the distance image sensor 107 to the object imaged by the distance image sensor 107 is equal to or smaller than the predetermined distance indicated by the distance threshold Th1 with respect to the target pixel. . This determination result is that the object imaged by the distance image sensor 107 is closer to the distance image sensor 107 than the position corresponding to the predetermined distance or the object imaged by the distance image sensor 107 is related to the target pixel. It shows that it is in a position corresponding to the predetermined distance. When such a determination is made, the image processing unit 103 does not perform pixel value calculation processing described later on the color information recorded in the target pixel (step ST55).

すなわち、ステップST55において、画像処理部103は、ステップST52にて取得した色情報を、対応する出力画像データの1画素に対してそのまま記録することにより、出力画像データの座標(X、Y)=(i、j)を構成する画素の画素値である出力画素色情報を、
Roij=Rij
Goij=Gij
Boij=Bij
とする。この場合、注目画素に対応する出力画像データの1画素に記録されている色情報は、該注目画素に記録されている色情報に等しい。
That is, in step ST55, the image processing unit 103 records the color information acquired in step ST52 as it is for one pixel of the corresponding output image data, so that the coordinates (X, Y) of the output image data = Output pixel color information, which is the pixel value of the pixels constituting (i, j),
Roij = Rij
Goij = Gij
Boij = Bij
And In this case, the color information recorded in one pixel of the output image data corresponding to the target pixel is equal to the color information recorded in the target pixel.

距離データDijにおける画素値が距離閾値Th1よりも大きい場合、注目画素に関して、距離画像センサ107から距離画像センサ107が撮像した物体までの距離が、距離閾値Th1の示す所定距離よりも大きいと判定する。この判定結果は、同注目画素に関して、距離画像センサ107が撮像した物体が、該所定距離に対応する位置よりも、距離画像センサ107から遠いことを示している。そして、このような判定が行われた場合、画像処理部103は、注目画素に記録されている色情報に対する、後述する画素値演算処理を行う(画像生成ステップST56)。   When the pixel value in the distance data Dij is larger than the distance threshold Th1, it is determined that the distance from the distance image sensor 107 to the object imaged by the distance image sensor 107 is greater than the predetermined distance indicated by the distance threshold Th1 for the target pixel. . This determination result indicates that the object captured by the distance image sensor 107 is farther from the distance image sensor 107 than the position corresponding to the predetermined distance with respect to the target pixel. When such a determination is made, the image processing unit 103 performs a pixel value calculation process described later on the color information recorded in the target pixel (image generation step ST56).

ステップST56において、画像処理部103は、撮像画像データの(X、Y)=(i、j)である画素、およびその近傍の画素に記録されている画素値、ならびにそれらに各々対応する距離データ等を用いて、上記出力画素色情報を算出する。画素値演算処理の詳細については後述する。   In step ST <b> 56, the image processing unit 103 determines the pixel value recorded in the pixel of (X, Y) = (i, j) in the captured image data and the neighboring pixels, and distance data corresponding to each of them. Is used to calculate the output pixel color information. Details of the pixel value calculation processing will be described later.

ステップST55に示す処理、またはステップST56に示す処理が終了すると、画素値取得部102、距離画像データ解析部104、および画像処理部103は、画像処理装置101に入力された撮像画像データを構成する画素の全てについて、ステップST52〜ステップST55(またはステップST56)に示した一連の処理を繰り返す。   When the process shown in step ST55 or the process shown in step ST56 ends, the pixel value acquisition unit 102, the distance image data analysis unit 104, and the image processing unit 103 configure captured image data input to the image processing apparatus 101. A series of processes shown in steps ST52 to ST55 (or step ST56) is repeated for all the pixels.

すなわち、上記撮像画像データを構成する画素の全てについて、上記一連の処理が行われていない場合、画素値取得部102、距離画像データ解析部104、および画像処理部103は、注目画素を未処理の画素へと変更した上で、再び上記一連の処理を行う。   That is, when the above-described series of processing has not been performed for all of the pixels constituting the captured image data, the pixel value acquisition unit 102, the distance image data analysis unit 104, and the image processing unit 103 have not processed the target pixel. Then, the above-described series of processing is performed again.

一方、上記撮影画像データを構成する画素の全てについて、上記の一連の処理が行われた場合、画像処理部103は、得られた出力画像データを、画像送信制御部105に出力し、画像処理を終了する(ステップST58)。   On the other hand, when the above-described series of processing has been performed for all the pixels constituting the captured image data, the image processing unit 103 outputs the obtained output image data to the image transmission control unit 105, and image processing is performed. Is terminated (step ST58).

〔画素値演算処理〕
画素値演算処理について、図6〜図9を参照して説明する。
[Pixel value calculation processing]
The pixel value calculation process will be described with reference to FIGS.

図6は、画素値演算処理の流れを示すフローチャートである。   FIG. 6 is a flowchart showing the flow of the pixel value calculation process.

図5に示すフローチャートにおいて、ステップST56へと処理が進むと、画素値演算処理が開始(ステップST61)され、距離画像データ解析部104は、ステップST53にて取得した距離データDijの画素値(距離情報)を、上述した距離閾値Th1とは異なるパラメータである所定の距離閾値(所定閾値T)Th2と比較し、これらのそれぞれが示す距離の大小を判定する(ステップST62)。   In the flowchart shown in FIG. 5, when the process proceeds to step ST56, a pixel value calculation process is started (step ST61), and the distance image data analysis unit 104 detects the pixel value (distance) of the distance data Dij acquired in step ST53. Information) is compared with a predetermined distance threshold (predetermined threshold T) Th2 which is a parameter different from the above-described distance threshold Th1, and the magnitude of the distance indicated by each of these is determined (step ST62).

距離データDijにおける画素値が距離閾値Th2以下である場合、画像処理部103は、後述する3×3ぼかし処理を行う(ステップST63)。   When the pixel value in the distance data Dij is equal to or smaller than the distance threshold Th2, the image processing unit 103 performs 3 × 3 blurring processing described later (step ST63).

距離データDijにおける画素値が距離閾値Th2よりも大きい場合、距離画像データ解析部104は、ステップST53にて取得した距離データDijの画素値(距離情報)を、上述した距離閾値Th1およびTh2のいずれとも異なるパラメータである所定の距離閾値(所定閾値)Th3と比較し、これらのそれぞれが示す距離の大小を判定する(ステップST64)。   When the pixel value in the distance data Dij is larger than the distance threshold Th2, the distance image data analysis unit 104 sets the pixel value (distance information) of the distance data Dij acquired in Step ST53 as one of the above-described distance thresholds Th1 and Th2. Both are compared with a predetermined distance threshold (predetermined threshold) Th3, which is a different parameter, and the magnitude of the distance indicated by each of these is determined (step ST64).

距離データDijにおける画素値が距離閾値Th3以下である場合、画像処理部103は、後述する5×5ぼかし処理を行う(ステップST65)。   When the pixel value in the distance data Dij is equal to or smaller than the distance threshold Th3, the image processing unit 103 performs a 5 × 5 blurring process described later (step ST65).

距離データDijにおける画素値が距離閾値Th3よりも大きい場合、画像処理部103は、ステップST63に係る3×3ぼかし処理、およびステップST65に係る5×5ぼかし処理のいずれとも異なるぼかし処理を行う(ステップST66)。   When the pixel value in the distance data Dij is larger than the distance threshold Th3, the image processing unit 103 performs a blurring process different from both the 3 × 3 blurring process according to step ST63 and the 5 × 5 blurring process according to step ST65 ( Step ST66).

ここからは、3×3ぼかし処理、および5×5ぼかし処理のそれぞれについて、説明を行う。なお、以下では、撮像画像データにおける座標(X、Y)を構成する画素に記録されているR成分をR〔X〕〔Y〕と、同画素に記録されているG成分をG〔X〕〔Y〕と、同画素に記録されているB成分をB〔X〕〔Y〕と、それぞれ表記する。   From here, each of the 3 × 3 blurring process and the 5 × 5 blurring process will be described. In the following, the R component recorded in the pixels constituting the coordinates (X, Y) in the captured image data is R [X] [Y], and the G component recorded in the pixels is G [X]. [Y] and the B component recorded in the same pixel are denoted as B [X] [Y], respectively.

ステップST63に係る3×3ぼかし処理は、画像処理部103において、図7(a)に示すような周知の、3画素×3画素の行列に対応する各フィルタ係数を有するぼかしフィルタ(以下、「3×3ぼかしフィルタ」と称する)、およびそれらの各フィルタ係数の調整を使用することにより、実施可能である。   The 3 × 3 blurring process according to step ST63 is performed by the image processing unit 103 using a known blurring filter having filter coefficients corresponding to a matrix of 3 pixels × 3 pixels as shown in FIG. This can be done by using a "3x3 blur filter") and adjusting their respective filter coefficients.

すなわち、画像処理部103は、撮像画像データを構成する全ての画素の各々に関して、注目画素およびその近傍の画素のそれぞれに記録されている色情報の加重平均を、R成分、G成分、およびB成分の各々について求める。また、画像処理部103は、該注目画素に記録されている色情報を、R成分、G成分、およびB成分の各々について、先に求めた加重平均の値に置換する。   That is, the image processing unit 103 calculates the weighted average of the color information recorded in each of the target pixel and the neighboring pixels for each of the pixels constituting the captured image data, and calculates the R component, the G component, and the B component. Find for each of the ingredients. In addition, the image processing unit 103 replaces the color information recorded in the target pixel with the weighted average value obtained previously for each of the R component, the G component, and the B component.

画像処理部103は、座標(X、Y)=(i、j)である注目画素に対して、3×3ぼかしフィルタの係数から、   The image processing unit 103 calculates the pixel of interest having coordinates (X, Y) = (i, j) from the coefficient of the 3 × 3 blur filter,

Figure 2012109723
Figure 2012109723

Figure 2012109723
Figure 2012109723

Figure 2012109723
Figure 2012109723

Figure 2012109723
Figure 2012109723

のそれぞれを算出する。そして、画像処理部103は、注目画素に対応する出力画像データの1画素に記録すべき色情報における、R成分であるRo〔i〕〔j〕、G成分であるGo〔i〕〔j〕、およびB成分であるBo〔i〕〔j〕を、
Ro〔i〕〔j〕 = Rnume / deno
Go〔i〕〔j〕 = Gnume / deno
Bo〔i〕〔j〕 = Bnume / deno
より求める。
Is calculated. Then, the image processing unit 103 performs R component Ro [i] [j] and G component Go [i] [j] in color information to be recorded in one pixel of the output image data corresponding to the target pixel. And Bo [i] [j], which is the B component,
Ro [i] [j] = Rnume / deno
Go [i] [j] = Gnume / deno
Bo [i] [j] = Bnume / deno
Ask more.

そして、画像処理部103は、撮像画像データにおける注目画素に記録されている色情報(R〔i〕〔j〕、G〔i〕〔j〕、およびB〔i〕〔j〕)を、それぞれ、算出した加重平均(Ro〔i〕〔j〕、Go〔i〕〔j〕、およびBo〔i〕〔j〕)に置換する。   Then, the image processing unit 103 converts the color information (R [i] [j], G [i] [j], and B [i] [j]) recorded in the target pixel in the captured image data, respectively. And the calculated weighted average (Ro [i] [j], Go [i] [j], and Bo [i] [j]).

なお、図7(a)に示す3×3ぼかしフィルタにおける(行列としての)各要素は、左からp番目、上からq番目の要素に対して、Kpqというフィルタ係数を記載している。特に、K22というフィルタ係数を記載している要素は、注目画素に対応する要素であり、その他の各要素は、注目画素の周囲(近傍)にある8画素のそれぞれに対応する要素である。   Each element (as a matrix) in the 3 × 3 blur filter shown in FIG. 7A describes a filter coefficient called Kpq for the p-th element from the left and the q-th element from the top. In particular, the element describing the filter coefficient K22 is an element corresponding to the target pixel, and the other elements are elements corresponding to the eight pixels around (near) the target pixel.

上記の各要素に与えるフィルタ係数は、例えば、図7(b)、図7(c)、または図7(d)に示すような値のパターンを使用することができる。   For example, a value pattern as shown in FIG. 7B, FIG. 7C, or FIG. 7D can be used as the filter coefficient given to each element.

図7(b)では、各フィルタ係数Kpqの全てが同じ値(1)であるため、複数のフィルタ係数をその要素として格納するためのテーブルが不要となる。   In FIG. 7B, since all the filter coefficients Kpq have the same value (1), a table for storing a plurality of filter coefficients as elements thereof becomes unnecessary.

図7(c)では、3×3ぼかしフィルタにおけるフィルタ係数K22(4)の要素に対して、互いに対称の関係にある2つの該要素を、同じフィルタ係数Kpqの値(1または2)としている。また、図7(c)では、上記フィルタ係数K22の要素に近い要素ほど、フィルタ係数Kpqが大きな値となっている。このため、図7(c)に示す各フィルタ係数Kpqを有する3×3ぼかしフィルタは、軽いLPF(ローパスフィルタ)としての特性を有する。さらに、各フィルタ係数Kpqは、合計が2のべき乗となるので、出力画像データの色情報を、割り算ではなくシフト演算により算出するように、画像処理装置101を構成する各部材の実装が可能となる。   In FIG. 7C, two elements that are symmetrical to each other with respect to the element of the filter coefficient K22 (4) in the 3 × 3 blurring filter have the same filter coefficient Kpq value (1 or 2). . In FIG. 7C, the filter coefficient Kpq has a larger value as the element is closer to the filter coefficient K22. For this reason, the 3 × 3 blur filter having each filter coefficient Kpq shown in FIG. 7C has characteristics as a light LPF (low-pass filter). Further, since the sum of the filter coefficients Kpq is a power of 2, it is possible to mount each member constituting the image processing apparatus 101 so that the color information of the output image data is calculated not by division but by shift calculation. Become.

図7(d)では、各フィルタ係数Kpqを0または1のみで表している点と、図7(c)の場合と同様に、各フィルタ係数Kpqの合計が2のべき乗となっている点とが特徴である。   In FIG. 7D, each filter coefficient Kpq is represented by only 0 or 1, and, as in FIG. 7C, the total of each filter coefficient Kpq is a power of 2. Is a feature.

ステップST65に係る5×5ぼかし処理は、画像処理部103において、図8(a)に示すような周知の、5画素×5画素の行列に対応する各フィルタ係数を有するぼかしフィルタ(以下、「5×5ぼかしフィルタ」と称する)、およびそれらの各フィルタ係数の調整を使用することにより、実施可能である。   The 5 × 5 blurring process according to step ST65 is performed by the image processing unit 103 with a blurring filter having filter coefficients corresponding to a well-known matrix of 5 pixels × 5 pixels as shown in FIG. Can be implemented by using a "5x5 blur filter") and adjusting their respective filter coefficients.

なお、図8(a)に示す5×5ぼかしフィルタにおける(行列としての)各要素は、左からp番目、上からq番目の要素に対して、Lpqというフィルタ係数を記載している。   Each element (as a matrix) in the 5 × 5 blur filter shown in FIG. 8A describes a filter coefficient Lpq for the p-th element from the left and the q-th element from the top.

画像処理部103としての5×5ぼかしフィルタでは、3×3ぼかし処理の場合と同様にまず、フィルタ係数L33が記載されている要素を、注目画素に対応させる。そして、各フィルタ係数Lpqの値の総和を分母(deno5)とする。また、RGBの各成分について、5×5ぼかしフィルタの各要素に関する、対応する該要素のフィルタ係数Lpqの値と、同要素に記録されている色情報(画素値)とによる加重和を算出し、それぞれ、Rnume5, Gnume5, Bnume5とする。Rnume5, Gnume5, Bnume5はそれぞれ、deno5に対する分子である。   In the 5 × 5 blur filter as the image processing unit 103, first, the element in which the filter coefficient L33 is described corresponds to the target pixel, as in the case of the 3 × 3 blur process. The sum of the values of the filter coefficients Lpq is set as the denominator (deno5). Further, for each component of RGB, a weighted sum is calculated for each element of the 5 × 5 blur filter by the value of the filter coefficient Lpq of the corresponding element and the color information (pixel value) recorded in the element. , Rnume5, Gnume5, and Bnume5, respectively. Rnume5, Gnume5, and Bnume5 are molecules for deno5, respectively.

そして、画像処理部103は、注目画素に対応する出力画像データの1画素に記録すべき色情報における、R成分であるRo〔i〕〔j〕、G成分であるGo〔i〕〔j〕、およびB成分であるBo〔i〕〔j〕を、
Ro〔i〕〔j〕 = Rnume5 / deno5
Go〔i〕〔j〕 = Gnume5 / deno5
Bo〔i〕〔j〕 = Bnume5 / deno5
より求める。
Then, the image processing unit 103 performs R component Ro [i] [j] and G component Go [i] [j] in color information to be recorded in one pixel of the output image data corresponding to the target pixel. And Bo [i] [j], which is the B component,
Ro [i] [j] = Rnume5 / deno5
Go [i] [j] = Gnume5 / deno5
Bo [i] [j] = Bnume5 / deno5
Ask more.

上記の各要素に与えるフィルタ係数は、例えば、図8(b)、図8(c)、または図8(d)に示すような値のパターンを使用することができる。   For example, a value pattern as shown in FIG. 8B, FIG. 8C, or FIG. 8D can be used as the filter coefficient given to each element.

図8(b)では、各フィルタ係数Lpqの全てが同じ値(1)であるため、複数のフィルタ係数をその要素として格納するためのテーブルが不要となる。   In FIG. 8B, since all the filter coefficients Lpq have the same value (1), a table for storing a plurality of filter coefficients as elements thereof becomes unnecessary.

図8(c)では、5×5ぼかしフィルタにおけるフィルタ係数L33(4)の要素に対して、互いに対称の関係にある2つの該要素を、同じフィルタ係数Lpqの値(0、1、または2)としている。また、図8(c)では、上記フィルタ係数L33の要素に近い要素ほど、フィルタ係数Lpqが大きな値となっている。このため、図8(c)に示す各フィルタ係数Lpqを有する5×5ぼかしフィルタは、軽いLPF(ローパスフィルタ)としての特性を有する。さらに、各フィルタ係数Lpqは、合計が2のべき乗となるので、出力画像データの色情報を、割り算ではなくシフト演算により算出するように、画像処理装置101を構成する各部材の実装が可能となる。   In FIG. 8C, two elements that are symmetrical to each other with respect to the element of the filter coefficient L33 (4) in the 5 × 5 blur filter are represented by the same value (0, 1, or 2) of the filter coefficient Lpq. ). Also, in FIG. 8C, the filter coefficient Lpq has a larger value as the element is closer to the filter coefficient L33. For this reason, the 5 × 5 blurring filter having each filter coefficient Lpq shown in FIG. 8C has characteristics as a light LPF (low-pass filter). Furthermore, since the sum of the filter coefficients Lpq is a power of 2, it is possible to mount each member constituting the image processing apparatus 101 so that the color information of the output image data is calculated not by division but by shift calculation. Become.

図8(d)では、各フィルタ係数Lpqを0または1のみで表している点と、図8(c)の場合と同様に、各フィルタ係数Lpqの合計が2のべき乗となっている点とが特徴である。   In FIG. 8D, each filter coefficient Lpq is represented by only 0 or 1, and, as in FIG. 8C, the total of each filter coefficient Lpq is a power of 2. Is a feature.

ステップST66に係るぼかし処理は、画像処理部103において、図9に示すような周知の、7画素×7画素の行列に対応する各フィルタ係数を有するぼかしフィルタ(以下、「7×7ぼかしフィルタ」と称する)を使用することにより、実施可能である。   The blur processing according to step ST66 is performed by the image processing unit 103 using a known blur filter having filter coefficients corresponding to a matrix of 7 pixels × 7 pixels as shown in FIG. 9 (hereinafter, “7 × 7 blur filter”). Can be implemented.

なお、図9に示す7×7ぼかしフィルタにおける(行列としての)各要素は、左からp番目、上からq番目の要素に対して、Mpqというフィルタ係数を記載している。   Note that each element (as a matrix) in the 7 × 7 blur filter shown in FIG. 9 describes a filter coefficient Mpq for the p-th element from the left and the q-th element from the top.

画像処理部103としての7×7ぼかしフィルタでは、5×5ぼかし処理の場合と同様にまず、フィルタ係数M44が記載されている要素を、注目画素に対応させる。そして、各フィルタ係数Mpqの値の総和を分母(deno7)とする。また、RGBの各成分について、7×7ぼかしフィルタの各要素に関する、対応する該要素のフィルタ係数Mpqの値と、同要素に記録されている色情報(画素値)とによる加重和を算出し、それぞれ、Rnume7, Gnume7, Bnume7とする。Rnume7, Gnume7, Bnume7はそれぞれ、deno7に対する分子である。すなわち、   In the 7 × 7 blur filter as the image processing unit 103, as in the case of the 5 × 5 blur process, first, an element in which the filter coefficient M44 is described is associated with the target pixel. The total sum of the values of the filter coefficients Mpq is set as the denominator (deno7). For each component of RGB, a weighted sum is calculated for each element of the 7 × 7 blur filter by the value of the filter coefficient Mpq of the corresponding element and the color information (pixel value) recorded in the element. , Rnume7, Gnume7, and Bnume7, respectively. Rnume7, Gnume7, and Bnume7 are molecules for deno7, respectively. That is,

Figure 2012109723
Figure 2012109723

Figure 2012109723
Figure 2012109723

Figure 2012109723
Figure 2012109723

Figure 2012109723
Figure 2012109723

となる。これらの数式において、xは、Mpqにおけるpのことであり、yは、Mpqにおけるqのことである。 It becomes. In these mathematical formulas, x is p in Mpq, and y is q in Mpq.

そして、画像処理部103は、注目画素に対応する出力画像データの1画素に記録すべき色情報における、R成分であるRo〔i〕〔j〕、G成分であるGo〔i〕〔j〕、およびB成分であるBo〔i〕〔j〕を、
Ro〔i〕〔j〕 = Rnume7 / deno7
Go〔i〕〔j〕 = Gnume7 / deno7
Bo〔i〕〔j〕 = Bnume7 / deno7
より求める。
Then, the image processing unit 103 performs R component Ro [i] [j] and G component Go [i] [j] in color information to be recorded in one pixel of the output image data corresponding to the target pixel. And Bo [i] [j], which is the B component,
Ro [i] [j] = Rnume7 / deno7
Go [i] [j] = Gnume7 / deno7
Bo [i] [j] = Bnume7 / deno7
Ask more.

なお、ステップST63、ステップST65、およびステップST66に係る各ぼかし処理で、注目画素が撮像画像データの端の方にあり、フィルタ係数と掛け合わせる画素が存在しない場合は、RGB成分の全てが0である画素が存在するものとして、処理を続行すればよい。   Note that, in each blurring process according to step ST63, step ST65, and step ST66, when the pixel of interest is closer to the end of the captured image data and there is no pixel to be multiplied by the filter coefficient, all of the RGB components are 0. The processing may be continued assuming that a certain pixel exists.

以上の方法により、画像処理部103は、画素値演算処理にて、出力画像データの色情報を求めることができる。   With the above method, the image processing unit 103 can obtain the color information of the output image data by the pixel value calculation process.

また、本実施の形態では、ステップST63に係る3×3ぼかし処理には、3×3ぼかしフィルタを使用し、ステップST65に係る5×5ぼかし処理には、5×5ぼかしフィルタを使用し、ステップST66に係る7×7ぼかし処理には、7×7ぼかしフィルタを使用した。但し、これらの各ぼかし処理およびぼかしフィルタは、一例に過ぎず、ぼかしフィルタのサイズ、およびぼかし処理の詳細な手順については、特に限定されるものではない。   In the present embodiment, a 3 × 3 blurring process is used for the 3 × 3 blurring process according to step ST63, and a 5 × 5 blurring filter is used for the 5 × 5 blurring process according to step ST65. For the 7 × 7 blurring process according to step ST66, a 7 × 7 blurring filter was used. However, each of the blur processing and the blur filter is merely an example, and the size of the blur filter and the detailed procedure of the blur processing are not particularly limited.

さらに、本実施の形態では、
距離閾値Th1<距離閾値Th2<距離閾値Th3
となるように、距離閾値Th1〜Th3の各々を設定している。また、3×3ぼかし処理にLPF特性の低いフィルタ係数を設定し、5×5ぼかし処理にLPF特性の高いフィルタ係数を設定し、ステップST66に係るぼかし処理には、5×5ぼかし処理に使用した係数よりもLPF特性の高いフィルタ係数を設定する。これにより、画像処理装置101では、距離に応じたぼかし処理が実現できる。
Furthermore, in this embodiment,
Distance threshold Th1 <Distance threshold Th2 <Distance threshold Th3
Each of the distance thresholds Th1 to Th3 is set so that Also, a filter coefficient having a low LPF characteristic is set for the 3 × 3 blurring process, a filter coefficient having a high LPF characteristic is set for the 5 × 5 blurring process, and the blurring process according to step ST66 is used for the 5 × 5 blurring process. A filter coefficient having an LPF characteristic higher than the determined coefficient is set. Thereby, the image processing apparatus 101 can realize blurring processing according to the distance.

その結果、画像処理装置101を備えたテレビ電話装置では、近距離にある、通話している相手に対して見せたい物を、相手に対して鮮明に見せる一方、背景の遠くにある、通話している相手に対して見せたくない物をぼかして、相手に対して見せないようにした画像を作成して、相手のテレビ電話装置に対して送信することができる。   As a result, the videophone apparatus provided with the image processing apparatus 101 can clearly show the other party what he / she wants to show to the other party who is talking at a short distance, while being far away from the background. It is possible to blur an object that the user does not want to show to the other party, create an image that is not shown to the other party, and send the image to the other party's videophone device.

そして、画像処理装置101を実現するために、画像処理部103は、画素値演算処理を行う対象となる撮像画像データにおける1画素である注目画素の画素値、および該撮像画像データにおける該注目画素に隣接する各画素の画素値を用いて、該画素値演算処理を行う構成である。   And in order to implement | achieve the image processing apparatus 101, the image process part 103 is the pixel value of the attention pixel which is 1 pixel in the captured image data used as the object which performs pixel value calculation processing, and this attention pixel in this captured image data The pixel value calculation processing is performed using the pixel value of each pixel adjacent to the pixel.

また、画像処理部103は、画素値演算処理として、注目画素の画素値を、該注目画素の画素値、および撮像画像データにおける該注目画素に隣接する各画素の画素値の加重平均値に変更する構成である。   In addition, as the pixel value calculation process, the image processing unit 103 changes the pixel value of the target pixel to the weighted average value of the pixel value of the target pixel and the pixel value of each pixel adjacent to the target pixel in the captured image data. It is the structure to do.

さらに、画像処理部103は、注目画素に対応する、距離画像データを構成する1画素に対応付けて記録されている、距離データDijに応じたフィルタ係数を、該注目画素の画素値、および撮像画像データにおける該注目画素に隣接する各画素の画素値に乗じてから、上記加重平均値を算出して、注目画素の画素値を、該加重平均値に変更する構成である。   Further, the image processing unit 103 records the filter coefficient corresponding to the distance data Dij recorded in association with one pixel constituting the distance image data corresponding to the target pixel, the pixel value of the target pixel, and the imaging After multiplying the pixel value of each pixel adjacent to the target pixel in the image data, the weighted average value is calculated, and the pixel value of the target pixel is changed to the weighted average value.

これにより、距離画像センサ107から遠い物体ほど大きくぼかす等といった、距離画像センサ107から距離画像センサ107が撮像した物体までの距離に応じた画像処理を、カメラ106によって撮像された画像に対して施すことが可能となる。   As a result, image processing according to the distance from the distance image sensor 107 to the object imaged by the distance image sensor 107, such as blurring the object farther from the distance image sensor 107, is performed on the image captured by the camera 106. It becomes possible.

すなわち、周知のぼかしフィルタ(ローパスフィルタ)を用いた、撮像画像のぼかし処理により、上記の画素値演算処理が実現可能となるので、該画素値演算処理を施した領域について、ぼかし処理前の状態が判別可能な(背景としての雰囲気を残した)出力画像を作成することができる。   That is, since the pixel value calculation process described above can be realized by the blurring process of the captured image using a known blur filter (low-pass filter), the state before the blur process is performed on the area subjected to the pixel value calculation process. Can be generated (leaving the atmosphere as a background).

また、上記ぼかしフィルタのフィルタ係数を距離データに応じて変更することにより、撮像画像においては、距離画像センサ107から近い距離の物体と、距離画像センサ107から遠い距離の物体とで、ぼかし度合いを変更することができる。これにより、距離画像センサ107から遠い距離の物体の画像を、距離画像センサ107から近い距離の物体の画像よりも大幅にぼかす、等といった処理が可能となる。   Further, by changing the filter coefficient of the blur filter according to the distance data, in the captured image, the degree of blur is reduced between an object at a distance close to the distance image sensor 107 and an object at a distance far from the distance image sensor 107. Can be changed. Accordingly, it is possible to perform processing such as blurring an image of an object at a distance far from the distance image sensor 107 more significantly than an image of an object at a distance close to the distance image sensor 107.

また、画像送信制御部105を備える構成により、画像処理装置101は、出力画像を外部に送信することができるので、外部の装置が出力画像を利用することが可能となる。例えば、本実施の形態に係る画像処理装置101が、テレビ電話装置の一構成要素として該テレビ電話装置に備えられている場合において、該テレビ電話装置が、通話先のテレビ電話装置に出力画像を送信することが可能となる。   Further, since the image processing apparatus 101 can transmit the output image to the outside by the configuration including the image transmission control unit 105, the external apparatus can use the output image. For example, in the case where the image processing apparatus 101 according to the present embodiment is provided in the videophone apparatus as a component of the videophone apparatus, the videophone apparatus outputs an output image to the videophone apparatus that is the call destination. It becomes possible to transmit.

〔実施の形態2〕
本実施の形態に係る画像処理ユニット1001について、図10を参照して、以下に説明する。
[Embodiment 2]
The image processing unit 1001 according to the present embodiment will be described below with reference to FIG.

図10は、画像処理ユニット1001の構成を示すブロック図である。   FIG. 10 is a block diagram showing the configuration of the image processing unit 1001.

画像処理ユニット1001は、テレビ電話装置において、使用者を撮像(撮影)した画像を、通話先のテレビ電話装置に送信するための画像送信装置1000の一構成要素である。なお、画像送信装置1000は、画像処理ユニット1001の他に、カメラ1006、カメラ1007、および送信部1008を備える構成である。   The image processing unit 1001 is a component of the image transmission device 1000 for transmitting an image (captured) of a user in a videophone device to a videophone device that is a call destination. The image transmission apparatus 1000 includes a camera 1006, a camera 1007, and a transmission unit 1008 in addition to the image processing unit 1001.

画像処理ユニット1001は、画像処理装置1002、画像処理装置1003、距離画像演算部(第1距離演算手段)1004、および距離画像演算部(第2距離演算手段)1005を備える構成である。   The image processing unit 1001 includes an image processing device 1002, an image processing device 1003, a distance image calculation unit (first distance calculation unit) 1004, and a distance image calculation unit (second distance calculation unit) 1005.

カメラ1006は、カメラ106(図1参照)と同様の構成である。   The camera 1006 has the same configuration as the camera 106 (see FIG. 1).

カメラ1007は、カメラ1006、ひいてはカメラ106と同様の構成であり、カメラ1006から所定の間隔を設けて配置されている。   The camera 1007 has the same configuration as the camera 1006 and thus the camera 106, and is arranged at a predetermined interval from the camera 1006.

カメラ1006によって撮像された画像(撮像画像)は、デジタル画像処理を施すことが可能な撮像画像データとしてカメラ1006から出力される。同様に、カメラ1007によって撮像された画像(撮像画像)は、デジタル画像処理を施すことが可能な撮像画像データとしてカメラ1007から出力される。   An image (captured image) captured by the camera 1006 is output from the camera 1006 as captured image data that can be subjected to digital image processing. Similarly, an image (captured image) captured by the camera 1007 is output from the camera 1007 as captured image data that can be subjected to digital image processing.

距離画像演算部1004は、カメラ1006から出力された撮像画像データ、およびカメラ1007から出力された撮像画像データを取得する。また、距離画像演算部1004は予め、カメラ1006とカメラ1007との間隔を参照することが可能な構成となっている。   The distance image calculation unit 1004 acquires captured image data output from the camera 1006 and captured image data output from the camera 1007. In addition, the distance image calculation unit 1004 is configured to be able to refer to the interval between the camera 1006 and the camera 1007 in advance.

距離画像演算部1004は、カメラ1006から出力された撮像画像データに対する、カメラ1007から出力された撮像画像データにおける、撮像された各物体の位置ずれ、ならびにカメラ1006とカメラ1007との間隔に基づいて、三角法により、カメラ1006からカメラ1006が撮像した物体までの距離を、カメラ1006から出力された撮像画像データを構成する画素毎に求める。   The distance image calculation unit 1004 is based on the positional deviation of each captured object in the captured image data output from the camera 1007 with respect to the captured image data output from the camera 1006 and the interval between the camera 1006 and the camera 1007. The distance from the camera 1006 to the object imaged by the camera 1006 is obtained for each pixel constituting the captured image data output from the camera 1006 by trigonometry.

そして、距離画像演算部1004は、上記で求めた距離を示す画素値の各々を、カメラ1006から出力された撮像画像データを構成する画素に対応付けて画素が配置された画像データの、対応する画素に記録して距離画像データを作成し、該距離画像データを画像処理装置1002に出力する。   Then, the distance image calculation unit 1004 corresponds to the image data in which the pixels are arranged in association with the pixels constituting the captured image data output from the camera 1006, each of the pixel values indicating the distance obtained above. The distance image data is generated by recording in the pixel, and the distance image data is output to the image processing apparatus 1002.

また、距離画像演算部1005は、カメラ1006から出力された撮像画像データ、およびカメラ1007から出力された撮像画像データを取得する。また、距離画像演算部1005は予め、カメラ1006とカメラ1007との間隔を参照することが可能な構成となっている。   In addition, the distance image calculation unit 1005 acquires captured image data output from the camera 1006 and captured image data output from the camera 1007. Further, the distance image calculation unit 1005 has a configuration in which the distance between the camera 1006 and the camera 1007 can be referred to in advance.

距離画像演算部1005は、カメラ1006から出力された撮像画像データに対する、カメラ1007から出力された撮像画像データにおける、撮像された各物体の位置ずれ、ならびにカメラ1006とカメラ1007との間隔に基づいて、三角法により、カメラ1007からカメラ1007が撮像した物体までの距離を、カメラ1007から出力された撮像画像データを構成する画素毎に求める。   The distance image calculation unit 1005 is based on the positional deviation of each captured object in the captured image data output from the camera 1007 with respect to the captured image data output from the camera 1006 and the interval between the camera 1006 and the camera 1007. The distance from the camera 1007 to the object imaged by the camera 1007 is obtained for each pixel constituting the captured image data output from the camera 1007 by trigonometry.

そして、距離画像演算部1005は、上記で求めた距離を示す画素値の各々を、カメラ1007から出力された撮像画像データを構成する画素に対応付けて画素が配置された画像データの、対応する画素に記録して距離画像データを作成し、該距離画像データを画像処理装置1003に出力する。   Then, the distance image calculation unit 1005 corresponds to the image data in which each pixel value indicating the distance obtained above is associated with the pixel constituting the captured image data output from the camera 1007 and the pixel is arranged. The distance image data is created by recording in the pixel, and the distance image data is output to the image processing apparatus 1003.

画像処理装置1002および1003はいずれも、画像処理装置101(図1参照)と同様の構成である。   Both the image processing apparatuses 1002 and 1003 have the same configuration as the image processing apparatus 101 (see FIG. 1).

そして、画像処理装置1002は、カメラ1006から出力された撮像画像データ、および距離画像演算部1004から出力された距離画像データを取得して、画像処理装置101と同様の処理を行う。そして、画像処理装置1002は、該処理により得られた出力画像データを、送信部1008へと出力する。   The image processing apparatus 1002 acquires the captured image data output from the camera 1006 and the distance image data output from the distance image calculation unit 1004, and performs the same processing as that of the image processing apparatus 101. Then, the image processing device 1002 outputs the output image data obtained by the processing to the transmission unit 1008.

また、画像処理装置1003は、カメラ1007から出力された撮像画像データ、および距離画像演算部1005から出力された距離画像データを取得して、画像処理装置101と同様の処理を行う。そして、画像処理装置1003は、該処理により得られた出力画像データを、送信部1008へと出力する。   The image processing apparatus 1003 acquires the captured image data output from the camera 1007 and the distance image data output from the distance image calculation unit 1005, and performs the same processing as that of the image processing apparatus 101. Then, the image processing device 1003 outputs the output image data obtained by the processing to the transmission unit 1008.

送信部1008は、画像処理装置1002および1003のそれぞれから供給された2つの出力画像データを、テレビ電話装置において用いられる周知の送受信方式によって、通話先のテレビ電話装置に送信する。   The transmission unit 1008 transmits the two output image data supplied from each of the image processing apparatuses 1002 and 1003 to a videophone apparatus that is a call destination by a known transmission / reception method used in the videophone apparatus.

なお、画像処理ユニット1001は、2台のカメラ1006および1007を用いた3次元テレビ電話用の例である。距離の離れた画像をぼかして、手前にあるものをくっきり見せるため、右目と左目の視差を利用した3次元画像では、視差をあわせる物体が解りやすい点が特徴である。   Note that the image processing unit 1001 is an example for a three-dimensional videophone using two cameras 1006 and 1007. A three-dimensional image using the parallax of the right eye and the left eye is characterized by facilitating the understanding of the object that matches the parallax in order to blur the image at a distance and clearly show what is in the foreground.

〔付記事項〕
最後に、画像処理装置101、1002、および1003の主制御部111の機能は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
[Additional Notes]
Finally, the functions of the main control unit 111 of the image processing apparatuses 101, 1002, and 1003 may be configured by hardware logic, or may be realized by software using a CPU as follows.

ソフトウェアによって実現する場合は、主制御部111は、各機能を実現する制御プログラムの命令を実行するCPU、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM、上記プログラム及び各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである画像処理装置101・画像処理ユニット1001の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、画像処理装置101・画像処理ユニット1001に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   When implemented by software, the main control unit 111 includes a CPU that executes instructions of a control program that implements each function, a ROM (read only memory) that stores the program, a RAM that expands the program, the program, and various types of programs. A storage device (recording medium) such as a memory for storing data is provided. An object of the present invention is to enable a computer to read program codes (execution format program, intermediate code program, source program) of a control program for the image processing apparatus 101 and the image processing unit 1001 that are software that realizes the above-described functions. This can also be achieved by supplying the recorded recording medium to the image processing apparatus 101 and the image processing unit 1001 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ類、PLD(Programmable logic device)等の論理回路類などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. IC cards (including memory cards) / optical cards, semiconductor memories such as mask ROM / EPROM / EEPROM / flash ROM, logic circuits such as PLD (Programmable Logic Device), etc. it can.

また、画像処理装置101・画像処理ユニット1001を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。   Further, the image processing apparatus 101 and the image processing unit 1001 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Further, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), IEEE802.11 radio, HDR (High Data Rate), NFC (Near Field Communication), DLNA (Digital Living Network Alliance), mobile phone network, satellite line, terrestrial digital network, etc. .

このように本明細書において、手段とは必ずしも物理的手段を意味するものではなく、各手段の機能がソフトウェアによって実現される場合も含む。さらに、1つの手段の機能が2つ以上の物理的手段により実現されても、もしくは2つ以上の手段の機能が1つの物理的手段により実現されてもよい。   Thus, in this specification, the means does not necessarily mean physical means, but includes cases where the functions of the means are realized by software. Further, the function of one means may be realized by two or more physical means, or the functions of two or more means may be realized by one physical means.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

本発明は、画像を表すデジタル信号を処理する装置に適用できる。特に、使用者等が撮像された画像を通話先に送信するテレビ電話装置等に好適に適用できる。テレビ電話装置に適用する場合、本発明は、相手に対して見せたい画像を確実に見せ、相手に対して見せたくない画像については、通話現場の状況を伝えられる程度に消去し、かつ回路規模の増大を抑制することが可能であるという効果を奏する。   The present invention can be applied to an apparatus for processing a digital signal representing an image. In particular, the present invention can be suitably applied to a videophone device that transmits an image captured by a user or the like to a call destination. When applied to a videophone device, the present invention reliably shows an image that the user wants to show to the other party, deletes the image that the user does not want to show to the other party to such an extent that the situation at the call site can be conveyed, and the circuit scale There is an effect that it is possible to suppress an increase in the amount of.

101 画像処理装置
102 画素値取得部
103 画像処理部(画像生成手段)
104 距離画像データ解析部(距離画像取得手段、判定手段)
105 画像送信制御部(画像送信手段)
106 カメラ
107 距離画像センサ
1001 画像処理ユニット
1002および1003 画像処理装置
1004 距離画像演算部(第1距離演算手段)
1005 距離画像演算部(第2距離演算手段)
1006および1007 カメラ
101 Image Processing Device 102 Pixel Value Acquisition Unit 103 Image Processing Unit (Image Generation Unit)
104 Distance image data analysis unit (distance image acquisition means, determination means)
105 Image transmission control unit (image transmission means)
106 Camera 107 Distance Image Sensor 1001 Image Processing Units 1002 and 1003 Image Processing Device 1004 Distance Image Calculation Unit (First Distance Calculation Unit)
1005 Distance image calculation unit (second distance calculation means)
1006 and 1007 cameras

Claims (8)

撮像対象が撮像された撮像画像に対して、該撮像画像の一部又は全部の鮮明度を低減する処理を施し、該鮮明度を低減した出力画像を出力する画像処理装置であって、
距離画像センサから得られる距離画像であって、上記距離画像を構成する画素である距離画素のそれぞれは上記撮像画像を構成する画素である撮像画素のいずれかと対応付けられており、上記撮像対象の当該距離画像センサからの距離を示す距離データが上記距離画素毎に対応付けて記録されている距離画像を取得する距離画像取得手段と、
上記距離画像取得手段により取得した距離画像から、上記距離画素に対応付けて記録された距離データを上記距離画素毎に取得するとともに、該取得した距離データが所定閾値を超えるか否かを上記距離画素毎に判定する判定手段と、
上記撮像画像のうち、上記判定手段により距離データが上記所定閾値を超えると判定した上記距離画素に対応する上記撮像画素の画素値に対して所定演算を行うことによって上記出力画像を生成する画像生成手段とを備えることを特徴とする画像処理装置。
An image processing device that performs processing for reducing the sharpness of a part or all of the captured image on a captured image obtained by capturing an imaging target, and outputs an output image with the reduced sharpness,
A distance image obtained from a distance image sensor, each distance pixel being a pixel constituting the distance image is associated with one of imaging pixels being pixels constituting the captured image, and Distance image acquisition means for acquiring a distance image in which distance data indicating a distance from the distance image sensor is recorded in association with each distance pixel;
From the distance image acquired by the distance image acquisition means, the distance data recorded in association with the distance pixel is acquired for each distance pixel, and whether the acquired distance data exceeds a predetermined threshold Determination means for determining each pixel;
Image generation for generating the output image by performing a predetermined calculation on the pixel value of the imaging pixel corresponding to the distance pixel determined by the determination unit that the distance data exceeds the predetermined threshold among the captured images And an image processing apparatus.
上記画像生成手段は、上記所定演算を行う対象となる上記撮像画素の画素値および当該撮像画素に隣接する上記撮像画素の画素値を用いて上記所定演算を行うことを特徴とする請求項1に記載の画像処理装置。   The image generation means performs the predetermined calculation using a pixel value of the imaging pixel to be subjected to the predetermined calculation and a pixel value of the imaging pixel adjacent to the imaging pixel. The image processing apparatus described. 上記画像生成手段は、
上記所定演算として、上記所定演算を施す対象となる撮像画素の画素値を、当該撮像画素の画素値および当該撮像画素に隣接する撮像画素の画素値の加重平均値に変更することを特徴とする請求項2に記載の画像処理装置。
The image generation means includes
As the predetermined calculation, the pixel value of the imaging pixel to be subjected to the predetermined calculation is changed to a weighted average value of the pixel value of the imaging pixel and the pixel value of the imaging pixel adjacent to the imaging pixel. The image processing apparatus according to claim 2.
上記画像生成手段は、
上記所定演算を施す対象となる撮像画素に対応する上記距離画素に対応付けて記録された距離データに応じた係数を、当該撮像画素の画素値および当該撮像画素に隣接する撮像画素の画素値に乗じてから、上記加重平均値を算出することを特徴とする請求項3に記載の画像処理装置。
The image generation means includes
The coefficient corresponding to the distance data recorded in association with the distance pixel corresponding to the imaging pixel to be subjected to the predetermined calculation is set to the pixel value of the imaging pixel and the pixel value of the imaging pixel adjacent to the imaging pixel. The image processing apparatus according to claim 3, wherein the weighted average value is calculated after multiplication.
上記画像生成手段により生成された上記出力画像を上記画像処理装置の外部に送信する画像送信手段をさらに備えることを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an image transmission unit that transmits the output image generated by the image generation unit to the outside of the image processing apparatus. 撮像対象が撮像された撮像画像に対して、該撮像画像の一部又は全部の鮮明度を低減する処理を施し、該鮮明度を低減した出力画像を出力する画像処理方法であって、
距離画像センサから得られる距離画像であって、上記距離画像を構成する画素である距離画素のそれぞれは上記撮像画像を構成する画素である撮像画素のいずれかと対応付けられており、上記撮像対象の当該距離画像センサからの距離を示す距離データが上記距離画素毎に対応付けて記録されている距離画像を取得する距離画像取得ステップと、
上記距離画像取得ステップにて取得した距離画像から、上記距離画素に対応付けて記録された距離データを上記距離画素毎に取得するとともに、該取得した距離データが所定閾値を超えるか否かを上記距離画素毎に判定する判定ステップと、
上記撮像画像のうち、上記判定ステップにて距離データが上記所定閾値を超えると判定した上記距離画素に対応する上記撮像画素の画素値に対して所定演算を行うことによって上記出力画像を生成する画像生成ステップとを含むことを特徴とする画像処理方法。
An image processing method for performing processing for reducing the sharpness of a part or all of the captured image on a captured image obtained by capturing an imaging target, and outputting an output image with the reduced sharpness,
A distance image obtained from a distance image sensor, each distance pixel being a pixel constituting the distance image is associated with one of imaging pixels being pixels constituting the captured image, and A distance image acquisition step for acquiring a distance image in which distance data indicating a distance from the distance image sensor is recorded in association with each distance pixel;
From the distance image acquired in the distance image acquisition step, distance data recorded in association with the distance pixel is acquired for each distance pixel, and whether or not the acquired distance data exceeds a predetermined threshold A determination step for determining each distance pixel;
Among the captured images, an image that generates the output image by performing a predetermined calculation on the pixel value of the captured pixel corresponding to the distance pixel that has been determined that the distance data exceeds the predetermined threshold in the determination step. And a generation step.
請求項1〜5のいずれか1項に記載の画像処理装置が備えるコンピュータを動作させる制御プログラムであって、上記コンピュータを上記の各手段として機能させるための制御プログラム。   A control program for operating a computer included in the image processing apparatus according to any one of claims 1 to 5, wherein the control program causes the computer to function as each of the means. 請求項7に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the control program according to claim 7 is recorded.
JP2010255950A 2010-11-16 2010-11-16 Image processing device, image processing method, control program for image processing device, and computer readable recording medium with program recorded thereon Pending JP2012109723A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010255950A JP2012109723A (en) 2010-11-16 2010-11-16 Image processing device, image processing method, control program for image processing device, and computer readable recording medium with program recorded thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010255950A JP2012109723A (en) 2010-11-16 2010-11-16 Image processing device, image processing method, control program for image processing device, and computer readable recording medium with program recorded thereon

Publications (1)

Publication Number Publication Date
JP2012109723A true JP2012109723A (en) 2012-06-07

Family

ID=46494892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010255950A Pending JP2012109723A (en) 2010-11-16 2010-11-16 Image processing device, image processing method, control program for image processing device, and computer readable recording medium with program recorded thereon

Country Status (1)

Country Link
JP (1) JP2012109723A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014050689A1 (en) * 2012-09-27 2014-04-03 シャープ株式会社 Image processing device
WO2019107507A1 (en) * 2017-11-30 2019-06-06 国立大学法人東京工業大学 Line-of-sight guiding system
JP2021114787A (en) * 2017-07-04 2021-08-05 キヤノン株式会社 Information processing apparatus, information processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH066796A (en) * 1992-06-16 1994-01-14 Fuji Electric Co Ltd Monitoring device
JP2006197096A (en) * 2005-01-12 2006-07-27 Mitsubishi Electric Corp Television telephone
JP2008294785A (en) * 2007-05-25 2008-12-04 Sanyo Electric Co Ltd Image processor, imaging apparatus, image file, and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH066796A (en) * 1992-06-16 1994-01-14 Fuji Electric Co Ltd Monitoring device
JP2006197096A (en) * 2005-01-12 2006-07-27 Mitsubishi Electric Corp Television telephone
JP2008294785A (en) * 2007-05-25 2008-12-04 Sanyo Electric Co Ltd Image processor, imaging apparatus, image file, and image processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014050689A1 (en) * 2012-09-27 2014-04-03 シャープ株式会社 Image processing device
JP2021114787A (en) * 2017-07-04 2021-08-05 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP7087158B2 (en) 2017-07-04 2022-06-20 キヤノン株式会社 Information processing equipment, information processing methods and programs
WO2019107507A1 (en) * 2017-11-30 2019-06-06 国立大学法人東京工業大学 Line-of-sight guiding system
JP2019101137A (en) * 2017-11-30 2019-06-24 国立大学法人東京工業大学 Sight line guiding system

Similar Documents

Publication Publication Date Title
JP7266672B2 (en) Image processing method, image processing apparatus, and device
CN107454343B (en) Photographic method, camera arrangement and terminal
CN103517046B (en) Method, apparatus and computer program product for capturing video content
US11475243B2 (en) Training method and device for an image enhancement model, and storage medium
JP2022505115A (en) Image processing methods and equipment and devices
CN113850367B (en) Network model training method, image processing method and related equipment thereof
CN109671106A (en) A kind of image processing method, device and equipment
CN111614867B (en) Video denoising method and device, mobile terminal and storage medium
CN110136055A (en) Super-resolution method and device, storage medium, the electronic device of image
CN115550570B (en) Image processing method and electronic equipment
CN113168673A (en) Image processing method and device and electronic equipment
US20210217145A1 (en) System and method for multi-frame contextual attention for multi-frame image and video processing using deep neural networks
WO2020249076A1 (en) Face calibration method and electronic device
CN102339461A (en) Method and equipment for enhancing image
CN103716529A (en) Threshold setting device, object detection device, and threshold setting method
KR20200117695A (en) Electronic device and method for controlling camera using external electronic device
EP4175275A1 (en) White balance processing method and electronic device
JP2012109723A (en) Image processing device, image processing method, control program for image processing device, and computer readable recording medium with program recorded thereon
CN114429495B (en) Three-dimensional scene reconstruction method and electronic equipment
CN115471413A (en) Image processing method and device, computer readable storage medium and electronic device
CN112489144B (en) Image processing method, image processing device, terminal device and storage medium
CN108141530A (en) Image processing apparatus, image processing method and program
CN103810683B (en) Photo processing method and device
JP6087615B2 (en) Image processing apparatus and control method therefor, imaging apparatus, and display apparatus
CN111062279B (en) Photo processing method and photo processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141111