[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2006245677A - Image processor, image processing method, and image processing program - Google Patents

Image processor, image processing method, and image processing program Download PDF

Info

Publication number
JP2006245677A
JP2006245677A JP2005054756A JP2005054756A JP2006245677A JP 2006245677 A JP2006245677 A JP 2006245677A JP 2005054756 A JP2005054756 A JP 2005054756A JP 2005054756 A JP2005054756 A JP 2005054756A JP 2006245677 A JP2006245677 A JP 2006245677A
Authority
JP
Japan
Prior art keywords
image
super
moving
unit
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005054756A
Other languages
Japanese (ja)
Inventor
Tsukasa Ike
司 池
Nobuyuki Takeda
信之 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005054756A priority Critical patent/JP2006245677A/en
Publication of JP2006245677A publication Critical patent/JP2006245677A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor that can stably generate a proper superresolution image. <P>SOLUTION: The image processor is provided with: an image storage section 101 for sequentially storing images photographed by an imaging section 101; a flow detection section 120 for detecting an optical flow with respect to a reference image being an image at an optional point of time among the images stored in the image storage section 110; a moving time calculation section 131 for obtaining a time until a moving distance exceeds a predetermined threshold value on the basis of the optical flow; a moving speed calculation section 132 for calculating a moving speed of pixels on the basis of the moving time and the moving distance; a moving direction calculation section 133 for calculating an angle of the moving direction on the basis of the moving direction information included in the optical flow; a speed information output section 134 for outputting the speed information including the angle of the moving direction and the moving speed; and a superresolution image generating section 142 for calculating a positional deviation between images consecutive in time series on the basis of the speed information and generating the superresolution image on the basis of the positional deviation. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、撮影した時系列画像から動きを有する領域を検出し、当該領域の解像度を向上させる超解像処理を実行する画像処理装置、画像処理方法および画像処理プログラムに関するものである。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program for detecting a region having motion from a captured time-series image and executing super-resolution processing for improving the resolution of the region.

近年、100フレーム/秒以上の高いフレームレートで画像列を取得し画像処理を行うことができる画像処理装置が広く利用されている。このような画像処理装置においては、低いフレームレートで撮影された画像列では実現困難であった、高速に移動する物体の追跡などの画像処理を行うことが可能である。   In recent years, image processing apparatuses that can acquire an image sequence and perform image processing at a high frame rate of 100 frames / second or more are widely used. In such an image processing apparatus, it is possible to perform image processing such as tracking of an object moving at high speed, which is difficult to realize with an image sequence photographed at a low frame rate.

上記のような画像処理装置においては、例えばCMOSカメラなどの撮像装置から1/100秒以下の短い間隔で画像を取得することにより、高いフレームレートの画像列を取得している。CMOSカメラなどの撮像装置を利用して1/100秒以下の短い間隔で画像を取得する場合、撮像面の露光時間が短くなるため、十分なダイナミックレンジを有する画像を取得するためには、撮像装置の撮像面を構成する画素の面積を十分に確保する必要がある。   In the image processing apparatus as described above, an image sequence with a high frame rate is acquired by acquiring images at a short interval of 1/100 second or less from an imaging apparatus such as a CMOS camera. When images are acquired at short intervals of 1/100 seconds or less using an imaging device such as a CMOS camera, the exposure time of the imaging surface is shortened. Therefore, in order to acquire an image having a sufficient dynamic range, imaging is performed. It is necessary to secure a sufficient area of the pixels constituting the imaging surface of the apparatus.

しかし、一般に撮像面の面積には製造技術やコスト等に起因する制約が存在するため、撮像面を構成する画素の面積を大きくすると、撮像面の総画素数は少なくなり、得られる画像の解像度は低くなる。このような理由から、高いフレームレートの画像列を用いた画像処理装置において、処理を行う上で必要なダイナミックレンジを有する画像を取得する場合、取得する画像の解像度を低くせざるを得ず、実現可能な画像処理の種類は限られていた。   However, since the area of the imaging surface generally has limitations due to manufacturing technology, cost, etc., increasing the area of the pixels that make up the imaging surface reduces the total number of pixels on the imaging surface, and the resolution of the image obtained Becomes lower. For this reason, in an image processing apparatus using an image sequence with a high frame rate, when acquiring an image having a dynamic range necessary for processing, the resolution of the image to be acquired must be lowered, The types of image processing that can be realized have been limited.

これに対して、撮像装置の撮像面が持つ物理的な解像度を超える高い解像度の画像を生成する画像処理として、超解像化と呼ばれる手法が提案されている。超解像化とは、動きを有する領域の速度情報を抽出し、抽出した速度情報から当該領域の1画像あたりの位置ずれ量を1画素の大きさ未満の精度で検出し、検出した位置ずれ量に基づき画像列中の複数枚の画像から画素間の輝度値を内挿することにより物理的な解像度を超える高解像度の画像を生成することをいう。以下、超解像化により生成された高解像度の画像を「超解像画像」と記述する。   On the other hand, a technique called super-resolution has been proposed as image processing for generating a high-resolution image that exceeds the physical resolution of the imaging surface of the imaging apparatus. Super-resolution refers to extracting the velocity information of a moving area, detecting the amount of positional deviation per image of the area from the extracted velocity information with an accuracy less than the size of one pixel, and detecting the detected positional deviation. This means that a high-resolution image exceeding the physical resolution is generated by interpolating luminance values between pixels from a plurality of images in the image sequence based on the amount. Hereinafter, a high-resolution image generated by super-resolution is referred to as “super-resolution image”.

例えば、非特許文献1においては、撮影した画像列中の任意の時点における画像に対して、その前後2つの画像から各画素のフローを表すベクトルであるオプティカルフローを求め、求めたオプティカルフローから画像間の位置ずれ量を求めることにより、顔画像の超解像化を行っている。一般に、適切な超解像画像を生成するためには、画素間の内挿に用いる位置ずれ量をいかに正確に求めるかが重要である。   For example, in Non-Patent Document 1, an optical flow that is a vector representing the flow of each pixel is obtained from two images before and after an image at an arbitrary time point in a captured image sequence, and an image is obtained from the obtained optical flow. The face image is super-resolved by obtaining the amount of misalignment between them. In general, in order to generate an appropriate super-resolution image, it is important to accurately determine the amount of positional deviation used for interpolation between pixels.

S.Baker,T.Kanade,“Super-Resolution Optical Flow”,CMU-RI-TR-99-36,1999S. Baker, T. Kanade, “Super-Resolution Optical Flow”, CMU-RI-TR-99-36, 1999

しかしながら、非特許文献1で行われている位置ずれ量の算出手法を高いフレームレートの画像列に対して適用する場合、低速に移動する物体では画像間のオプティカルフローが非常に小さくなるため、高い精度で位置ずれ量を検出することができず、このような誤った位置ずれ量に基づいて超解像化を行うため実画像と大きく異なる不適切な超解像画像が生成されるという問題があった。   However, when the method for calculating the amount of misalignment performed in Non-Patent Document 1 is applied to an image sequence with a high frame rate, the optical flow between images is very small for an object moving at a low speed. There is a problem that the amount of misalignment cannot be detected with high accuracy, and an inappropriate super resolution image that is significantly different from the actual image is generated because super resolution is performed based on such an erroneous amount of misalignment. there were.

本発明は、上記に鑑みてなされたものであって、高フレームレートで撮影される画像列に対して、撮影された物体の移動速度に関わらず適切な超解像画像を安定して生成することができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。   The present invention has been made in view of the above, and stably generates an appropriate super-resolution image for an image sequence captured at a high frame rate regardless of the moving speed of the captured object. An object is to provide an image processing apparatus, an image processing method, and an image processing program.

上述した課題を解決し、目的を達成するために、本発明は、画像処理装置において、撮像部が撮影した画像を順次記憶する画像記憶部と、前記画像記憶部が記憶した前記画像のうち、任意の時点の前記画像である基準画像に対する前記画像上の画素の移動方向および移動距離の情報を含むベクトルであるオプティカルフローを検出するフロー検出部と、前記フロー検出部が検出した前記オプティカルフローから前記移動距離が予め定められた閾値を超えるまでに要した時間を求める移動時間算出部と、前記移動時間算出部が求めた時間と前記移動距離とに基づいて前記画素の移動速度を算出する移動速度算出部と、前記フロー検出部が検出した前記オプティカルフローに含まれる前記移動方向の情報に基づいて前記移動方向の角度を算出する移動方向算出部と、前記移動方向算出部が算出した前記移動方向の角度および前記移動速度算出部が算出した前記移動速度を含む速度情報を出力する速度情報出力部と、前記速度情報出力部によって出力された前記速度情報から時系列的に連続する前記画像間の位置ずれ量を算出し、算出した前記位置ずれ量に基づいて超解像画像を生成する超解像画像生成部と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention provides an image processing apparatus, wherein an image storage unit that sequentially stores images taken by an imaging unit, and the image stored by the image storage unit, From a flow detection unit that detects an optical flow that is a vector including information on a movement direction and a movement distance of a pixel on the image with respect to a reference image that is the image at an arbitrary time point, and the optical flow detected by the flow detection unit A movement time calculation unit that obtains a time required for the movement distance to exceed a predetermined threshold, and a movement that calculates the movement speed of the pixel based on the time obtained by the movement time calculation unit and the movement distance An angle of the moving direction is calculated based on information on the moving direction included in the optical flow detected by the velocity calculating unit and the flow detecting unit. A moving direction calculation unit, a speed information output unit that outputs speed information including the angle of the moving direction calculated by the moving direction calculation unit and the moving speed calculated by the moving speed calculation unit, and the speed information output unit. A super-resolution image generation unit that calculates a positional deviation amount between the images that are continuous in time series from the output velocity information, and generates a super-resolution image based on the calculated positional deviation amount; It is characterized by that.

また、本発明は、上記装置を実行することができる画像処理方法および画像処理プログラムである。   The present invention also provides an image processing method and an image processing program capable of executing the above apparatus.

本発明によれば、高いフレームレートの時系列画像において、動きを有する画素を含む領域に含まれる画素の移動速度に関わらず、当該領域内の画素の速度情報を高い精度で算出し、当該速度情報から算出した位置ずれ量に基づき超解像処理を実行することができる。このため、高フレームレートで撮影された画像のダイナミックレンジを確保しつつ、適切な超解像画像を安定して生成することができるという効果を奏する。   According to the present invention, in a time-series image with a high frame rate, regardless of the moving speed of a pixel included in an area including a pixel having motion, the speed information of the pixel in the area is calculated with high accuracy. Super-resolution processing can be executed based on the amount of positional deviation calculated from the information. For this reason, there is an effect that an appropriate super-resolution image can be stably generated while ensuring a dynamic range of an image shot at a high frame rate.

以下に添付図面を参照して、この発明にかかる画像処理装置、画像処理方法、および画像処理プログラムの最良な実施の形態を詳細に説明する。   Exemplary embodiments of an image processing apparatus, an image processing method, and an image processing program according to the present invention are explained in detail below with reference to the accompanying drawings.

(第1の実施の形態)
第1の実施の形態にかかる画像処理装置は、画像間の画素のオプティカルフローを検出し、検出したオプティカルフローから画素の移動距離が予め定められた閾値を超えるまでに要した時間を求め、求めた時間と画素の移動距離とから画素の移動速度を算出し、算出した移動速度と画素の移動方向とから時系列的に連続する画像間の位置ずれ量を算出し、算出した位置ずれ量に基づき超解像画像を生成するものである。
(First embodiment)
The image processing apparatus according to the first embodiment detects an optical flow of pixels between images, and obtains and calculates a time required for the pixel moving distance to exceed a predetermined threshold from the detected optical flow. The moving speed of the pixel is calculated from the measured time and the moving distance of the pixel, the amount of positional deviation between successive images in time series is calculated from the calculated moving speed and the moving direction of the pixel, and the calculated positional deviation amount is calculated. Based on this, a super-resolution image is generated.

ここで、オプティカルフローとは、基準画像に対する現在処理している画像上の画素の移動方向および移動距離の情報を含むベクトルをいう。また、基準画像とは、オプティカルフローを検出するための基準となる画像をいい、任意の時点の画像を基準画像とすることができる。基準画像は、例えば画素の移動距離が予め定められた閾値を越えたときに現在処理している画像に更新される。また、位置ずれ量とは、時系列的に連続する画像における対応する画素の位置の差をいう。   Here, the optical flow refers to a vector including information on the moving direction and moving distance of the pixel on the currently processed image with respect to the reference image. The reference image is an image serving as a reference for detecting an optical flow, and an image at an arbitrary time can be used as a reference image. The reference image is updated to the image currently being processed, for example, when the pixel moving distance exceeds a predetermined threshold. Further, the positional deviation amount refers to a difference in position of corresponding pixels in time-sequential images.

図1は、第1の実施の形態にかかる画像処理装置100の構成を示すブロック図である。同図に示すように、画像処理装置100は、主要なハードウェア構成として、画像記憶部110と、高解像度画像記憶部150とを備えている。また、第1の実施の形態にかかる画像処理装置100は、主要なソフトウェア構成として、フロー検出部120と、速度情報生成部130と、超解像処理部140とを備えている。   FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus 100 according to the first embodiment. As shown in the figure, the image processing apparatus 100 includes an image storage unit 110 and a high-resolution image storage unit 150 as main hardware configurations. Further, the image processing apparatus 100 according to the first embodiment includes a flow detection unit 120, a speed information generation unit 130, and a super-resolution processing unit 140 as main software configurations.

画像記憶部110は、時系列画像を撮影する撮像部101によって撮影された画像を順次記憶する記憶部である。高解像度画像記憶部150は、後述する超解像処理において超解像画像生成部142により生成された高解像度画像を記憶する記憶部である。   The image storage unit 110 is a storage unit that sequentially stores images captured by the imaging unit 101 that captures time-series images. The high resolution image storage unit 150 is a storage unit that stores the high resolution image generated by the super resolution image generation unit 142 in the super resolution processing described later.

フロー検出部120は、撮像部101によって撮影され画像記憶部110に記憶された時系列画像に対して、任意の時刻の基準画像を設定し、当該基準画像とそれより時間的に後の画像との間の輝度パターンから、各画素の移動方向および移動距離の情報を含むベクトルであるオプティカルフローを検出する。   The flow detection unit 120 sets a reference image at an arbitrary time with respect to a time-series image captured by the imaging unit 101 and stored in the image storage unit 110, and the reference image and an image later in time are set. The optical flow, which is a vector including information on the moving direction and moving distance of each pixel, is detected from the luminance pattern between.

フロー検出方法としては、従来から用いられているあらゆる方法を適用することができる。一例として、第1の実施の形態にかかる画像処理装置100におけるフロー検出部120は、局所マスク設定部121と、相関値算出部122と、対応判定部123とを詳細な構成として備えている。   As a flow detection method, any conventionally used method can be applied. As an example, the flow detection unit 120 in the image processing apparatus 100 according to the first embodiment includes a local mask setting unit 121, a correlation value calculation unit 122, and a correspondence determination unit 123 as detailed configurations.

局所マスク設定部121は、時系列画像の任意の時点の画像を基準画像として設定し、基準画像およびオプティカルフローを検出している現在の画像それぞれについて、オプティカルフローを求める画素を含む局所マスクを設定する。局所マスクのサイズとしては、例えば、5×5画素、7×7画素を設定するように構成することができる。   The local mask setting unit 121 sets an image at an arbitrary time point in the time-series image as a reference image, and sets a local mask including pixels for which an optical flow is obtained for each of the reference image and the current image from which the optical flow is detected. To do. As the size of the local mask, for example, 5 × 5 pixels and 7 × 7 pixels can be set.

相関値算出部122は、局所マスク設定部121が設定した局所マスク内の輝度情報から、基準画像の局所マスク領域と現在の画像の局所マスク領域との間の関連の度合いを示す相関値を算出する。相関値は、基準画像における局所マスク領域と、現在の画像における局所マスク領域との間で各画素の輝度を比較することにより算出する。   The correlation value calculation unit 122 calculates a correlation value indicating the degree of association between the local mask region of the reference image and the local mask region of the current image from the luminance information in the local mask set by the local mask setting unit 121. To do. The correlation value is calculated by comparing the luminance of each pixel between the local mask area in the reference image and the local mask area in the current image.

対応判定部123は、現在の画像の局所マスク領域内の各画素について、相関値算出部122により算出された相関値が予め定められた閾値以上、かつ最大となる画素を、基準画像の局所マスク領域内の各画素と対応づける処理を行う。この結果、基準画像内の各画素から後続画像内の各画素へのベクトルが定義され、このベクトルによってオプティカルフローが表される。   For each pixel in the local mask region of the current image, the correspondence determination unit 123 determines a pixel whose correlation value calculated by the correlation value calculation unit 122 is equal to or larger than a predetermined threshold and is the maximum as the local mask of the reference image. A process of associating with each pixel in the region is performed. As a result, a vector from each pixel in the reference image to each pixel in the subsequent image is defined, and the optical flow is represented by this vector.

速度情報生成部130は、フロー検出部120が検出した各画素のオプティカルフローから、各画素の移動距離が一定量に達する移動時間を算出し、移動方向および移動距離と移動時間とから算出した移動速度を含む各画素の速度情報を生成する。速度情報生成部130は、移動時間算出部131と、移動速度算出部132と、移動方向算出部133と、速度情報出力部134とを備えている。   The speed information generation unit 130 calculates a movement time when the movement distance of each pixel reaches a certain amount from the optical flow of each pixel detected by the flow detection unit 120, and calculates the movement calculated from the movement direction, the movement distance, and the movement time. Speed information of each pixel including the speed is generated. The speed information generation unit 130 includes a movement time calculation unit 131, a movement speed calculation unit 132, a movement direction calculation unit 133, and a speed information output unit 134.

移動時間算出部131は、フロー検出部120で検出されたオプティカルフローの大きさが、指標距離に達するまでの画像数を算出することにより各画素の移動時間を算出する。ここで、指標距離とは各画素の移動距離の閾値をいい、指標距離に達する移動時間を算出し、指標距離を算出した移動時間で除算することにより、高フレームレートの画像列においても各画素の移動速度を安定して算出できるようにするために使用される。指標距離は、上述のフロー検出部120が高精度でオプティカルフローを検出できる値を予め求め設定しておく。   The movement time calculation unit 131 calculates the movement time of each pixel by calculating the number of images until the size of the optical flow detected by the flow detection unit 120 reaches the index distance. Here, the index distance is a threshold of the movement distance of each pixel. The movement time to reach the index distance is calculated, and the index distance is divided by the calculated movement time, so that each pixel can be obtained even in an image sequence at a high frame rate. It is used to make it possible to stably calculate the moving speed of. The index distance is set in advance by obtaining a value with which the above-described flow detection unit 120 can detect an optical flow with high accuracy.

移動速度算出部132は、指標距離を、移動時間算出部131が算出した移動時間で除算することにより、各画素の移動速度を算出する。移動方向算出部133は、移動時間算出部131が移動時間を算出する際に用いたオプティカルフローから各画素の移動方向を算出する。移動方向は、オプティカルフローの角度によって表される。速度情報出力部134は、移動速度算出部132によって算出された移動速度の角度と移動方向算出部133によって算出された移動方向とを要素とする速度情報を出力する。   The movement speed calculation unit 132 calculates the movement speed of each pixel by dividing the index distance by the movement time calculated by the movement time calculation unit 131. The movement direction calculation unit 133 calculates the movement direction of each pixel from the optical flow used when the movement time calculation unit 131 calculates the movement time. The moving direction is represented by the angle of the optical flow. The speed information output unit 134 outputs speed information whose elements are the angle of the moving speed calculated by the moving speed calculating unit 132 and the moving direction calculated by the moving direction calculating unit 133.

超解像処理部140は、速度情報生成部130が生成した速度情報および各画素の位置情報から、超解像処理の対象となる処理対象領域を設定し、各処理対象領域について速度情報の平均値を算出し、速度情報の平均値から画像間の位置ずれ量を求め、求めた位置ずれ量と画像記憶部110に記憶された過去の画像とを用いて画素間の内挿を行うことにより、超解像画像を生成する。超解像処理部140は、処理対象領域設定部141と、超解像画像生成部142とを備えている。   The super-resolution processing unit 140 sets a processing target area to be subjected to super-resolution processing from the speed information generated by the speed information generating unit 130 and the position information of each pixel, and averages the speed information for each processing target area. By calculating a value, obtaining a positional deviation amount between images from the average value of velocity information, and interpolating between pixels using the obtained positional deviation amount and a past image stored in the image storage unit 110. A super-resolution image is generated. The super-resolution processing unit 140 includes a processing target area setting unit 141 and a super-resolution image generation unit 142.

処理対象領域設定部141は、速度情報出力部134が出力した速度情報を参照し、超解像化の対象領域を設定する。すなわち、処理対象領域設定部141は、画像中の予め定められた一定値以上の面積を有する領域において、この領域に含まれる画素の移動速度および移動方向のばらつきが小さく、かつ移動速度が0より大きく1画素未満であるような領域を検出して処理対象領域として設定する。   The processing target area setting unit 141 refers to the speed information output from the speed information output unit 134 and sets a target area for super-resolution. That is, the processing target region setting unit 141 has a small variation in the moving speed and moving direction of pixels included in an area having an area larger than a predetermined value in the image, and the moving speed is less than zero. A region that is large and less than one pixel is detected and set as a processing target region.

超解像画像生成部142は、現在の画像から補間によって全画像領域の高解像度画像を生成した後、処理対象領域設定部141により処理対象領域として設定された領域に対して、それぞれ高解像度画像記憶部150に記憶された前フレームの画像に対する高解像度画像を用いて超解像化処理を行い、補間によって生成した高解像度画像と合成することにより超解像画像を生成する。   The super-resolution image generation unit 142 generates a high-resolution image of the entire image region by interpolation from the current image, and then performs a high-resolution image for each region set as the processing target region by the processing target region setting unit 141. Super-resolution processing is performed using a high-resolution image for the image of the previous frame stored in the storage unit 150, and a super-resolution image is generated by combining with the high-resolution image generated by interpolation.

次に、このように構成された第1の実施の形態にかかる画像処理装置100による画像処理について説明する。図2は、第1の実施の形態における画像処理の全体の流れを示すフローチャートである。   Next, image processing by the image processing apparatus 100 according to the first embodiment configured as described above will be described. FIG. 2 is a flowchart showing the overall flow of the image processing in the first embodiment.

まず、撮像部101により画像が撮影され画像記憶部110に時系列画像が記憶された後、フロー検出部120がフロー検出処理を実行する(ステップS201)。次に、速度情報生成部130が速度情報生成処理を実行し(ステップS202)、最後に超解像処理部140が超解像処理を実行して(ステップS203)、画像処理が終了する。フロー検出処理、速度情報生成処理、超解像処理の詳細については後述する。   First, after an image is captured by the imaging unit 101 and a time-series image is stored in the image storage unit 110, the flow detection unit 120 executes a flow detection process (step S201). Next, the speed information generation unit 130 executes speed information generation processing (step S202). Finally, the super-resolution processing unit 140 executes super-resolution processing (step S203), and the image processing ends. Details of the flow detection process, the speed information generation process, and the super-resolution process will be described later.

次に、このように構成された第1の実施の形態にかかる画像処理装置100によるステップS201に示したフロー検出処理の詳細について説明する。図3は、第1の実施の形態にかかる画像処理装置100おけるフロー検出処理の全体の流れを示すフローチャートである。   Next, details of the flow detection process shown in step S201 by the image processing apparatus 100 according to the first embodiment configured as described above will be described. FIG. 3 is a flowchart illustrating an overall flow of the flow detection process in the image processing apparatus 100 according to the first embodiment.

まず、局所マスク設定部121が、時系列画像の任意の時点の画像を基準画像として設定し、基準画像および後続する現在の画像において、オプティカルフローを求める画素を含む局所マスクを設定する(ステップS301)。次に、相関値算出部122が、基準画像における局所マスク領域と、現在の画像における局所マスク領域との間で各画素の輝度を比較し、相関値を算出する(ステップS302)。   First, the local mask setting unit 121 sets an image at an arbitrary time point in the time-series image as a reference image, and sets a local mask including pixels for which an optical flow is obtained in the reference image and the subsequent current image (step S301). ). Next, the correlation value calculation unit 122 compares the luminance of each pixel between the local mask area in the reference image and the local mask area in the current image, and calculates a correlation value (step S302).

相関値の算出方法としては、従来から用いられているあらゆる方法を適用することができる。例えば、比較を行う2つの領域の対応する画素の輝度の絶対値差分和や差分二乗和を算出する方法、あるいはこれを局所マスク内の平均値および分散によって正規化した値を算出する方法を利用するように構成することができる。なお、これらは一例であり、局所マスクを設定した領域間の関連の度合いを示す相関値を算出するものであればこれらに限られるものではない。   As a method for calculating the correlation value, any conventionally used method can be applied. For example, use the method of calculating the absolute value difference sum or the sum of squared differences of the luminance of the corresponding pixels in the two areas to be compared, or the method of calculating the value normalized by the average value and variance in the local mask Can be configured to. Note that these are merely examples, and the present invention is not limited to these as long as the correlation value indicating the degree of association between the areas in which the local masks are set is calculated.

なお、最終的に検出するオプティカルフローの信頼度を向上させるため、局所マスクの設定条件を設けてもよい。例えば、コントラストが存在しない画素や、コントラストがあっても単一方向のエッジしか存在しない画素は、対応する画素を正しく求めることが困難であるため、局所マスクを設定しないようにするような設定条件を課すように構成することができる。なお、これらは一例であり、オプティカルフローの信頼度を向上させるための設定条件であればこれらに限られるものではない。   In order to improve the reliability of the optical flow to be finally detected, a local mask setting condition may be provided. For example, for a pixel that does not have a contrast or a pixel that has a contrast but has only a single-directional edge, it is difficult to determine the corresponding pixel correctly, so that a setting condition is set so that a local mask is not set. Can be configured to impose. These are merely examples, and the present invention is not limited to these as long as the setting conditions are for improving the reliability of the optical flow.

次に、対応判定部123が、相関値算出部122により算出された相関値が予め定められた閾値以上、かつ最大となる局所マスク領域の各画素を基準画像の局所マスク領域の各画素と対応づけることにより、基準画像内の各画素から現在の画像内の各画素へのベクトルであるオプティカルフローを検出する(ステップS303)。   Next, the correspondence determination unit 123 associates each pixel in the local mask region where the correlation value calculated by the correlation value calculation unit 122 is greater than or equal to a predetermined threshold value and the maximum with each pixel in the local mask region of the reference image. Thus, an optical flow that is a vector from each pixel in the reference image to each pixel in the current image is detected (step S303).

次に、このように構成された第1の実施の形態にかかる画像処理装置100によるステップS202に示した速度情報生成処理の詳細について説明する。図4は、第1の実施の形態にかかる画像処理装置100おける速度情報生成処理の全体の流れを示すフローチャートである。   Next, details of the speed information generation process shown in step S202 by the image processing apparatus 100 according to the first embodiment configured as described above will be described. FIG. 4 is a flowchart illustrating an overall flow of the speed information generation process in the image processing apparatus 100 according to the first embodiment.

まず、移動時間算出部131が、フロー検出部3で検出されたオプティカルフローの大きさが、指標距離Dに達するまでの移動時間を算出する(ステップS401)。具体的には、各画素(x,y)において、これに続くn番目の画像との間で検出されたオプティカルフローを順にf(x,y;n)とおき、以下の(1)式によって移動時間を算出する。
t(x,y)={n|f(x,y;n)=D} ・・・(1)
First, the movement time calculation unit 131 calculates the movement time until the size of the optical flow detected by the flow detection unit 3 reaches the index distance D (step S401). Specifically, in each pixel (x, y), the optical flow detected between the subsequent n-th image is sequentially set as f (x, y; n), and the following equation (1) is used. Calculate travel time.
t (x, y) = {n | f (x, y; n) = D} (1)

すなわち、画素(x,y)におけるオプティカルフローの大きさが指標距離Dに等しくなるのが、後続するn番目の画像との間のオプティカルフローであるとき、nがその画素(x,y)の所要時間t(x,y)として算出される。   That is, when the optical flow between the n-th image and the subsequent n-th image is equal to the index distance D, the magnitude of the optical flow at the pixel (x, y) is n of the pixel (x, y). Calculated as the required time t (x, y).

次に、移動速度算出部132が、指標距離Dを、移動時間算出部131により算出された移動時間で除算することにより、各画素の移動速度v(x,y)を算出する(ステップS402)。   Next, the moving speed calculating unit 132 calculates the moving speed v (x, y) of each pixel by dividing the index distance D by the moving time calculated by the moving time calculating unit 131 (step S402). .

次に、移動方向算出部133が、移動時間算出部131が移動時間t(x,y)を算出する際に用いたオプティカルフローf(x,y;n)|n=t(x,y)から、各画素の移動方向d(x,y)を算出する(ステップS403)。移動方向は、オプティカルフローf(x,y;n)の角度によって表される。   Next, the movement direction calculation unit 133 uses the optical flow f (x, y; n) | n = t (x, y) used when the movement time calculation unit 131 calculates the movement time t (x, y). From this, the movement direction d (x, y) of each pixel is calculated (step S403). The moving direction is represented by the angle of the optical flow f (x, y; n).

次に、速度情報出力部134が、移動速度算出部132によって算出された移動速度v(x,y)と、移動方向算出部133によって算出された移動方向d(x,y)とを要素とする速度情報V(x,y)を出力し(ステップS404)、速度情報生成処理が終了する。   Next, the speed information output unit 134 uses the movement speed v (x, y) calculated by the movement speed calculation unit 132 and the movement direction d (x, y) calculated by the movement direction calculation unit 133 as elements. The speed information V (x, y) to be output is output (step S404), and the speed information generation process ends.

次に、このように構成された第1の実施の形態にかかる画像処理装置100によるステップS203に示した超解像処理の詳細について説明する。図5は、第1の実施の形態にかかる画像処理装置100おける超解像処理の全体の流れを示すフローチャートである。   Next, details of the super-resolution processing shown in step S203 by the image processing apparatus 100 according to the first embodiment configured as described above will be described. FIG. 5 is a flowchart illustrating an overall flow of super-resolution processing in the image processing apparatus 100 according to the first embodiment.

まず、処理対象領域設定部141が、超解像化の対象とする領域である処理対象領域を設定する(ステップS501)。処理対象領域を設定する方法としては、例えば、(i)画像全体を任意の単位の固定領域に分割しておき、その領域内の速度情報のばらつきが予め定められた一定閾値以下の場合に処理対象領域として設定する方法、(ii)画像中の各画素について、類似した速度情報を持つ周囲の画素を探索し、これらを含む領域を処理対象領域として設定する方法を適用することができる。   First, the processing target area setting unit 141 sets a processing target area that is a target area for super-resolution (step S501). As a method of setting the processing target area, for example, (i) the entire image is divided into fixed areas of arbitrary units, and processing is performed when the variation in speed information in the area is equal to or less than a predetermined threshold value. A method of setting as a target region, and (ii) a method of searching surrounding pixels having similar speed information for each pixel in an image and setting a region including these as a processing target region can be applied.

以下に、上述の(i)の例に挙げた方法の詳細について説明する。まず、処理対象領域設定部141は、画像を例えば8×8画素単位の領域に分割し、これらの領域について、それぞれの領域に含まれる画素の速度情報のばらつきを算出する。速度情報のうち移動速度のばらつきは、例えば、領域内でオプティカルフローが検出された画素について、その総数N、およびこれらの画素における移動速度v(x,y)の平均v0を用い、以下の(2)式によって算出することができる。

Figure 2006245677
Details of the method mentioned in the above example (i) will be described below. First, the processing target area setting unit 141 divides an image into areas of, for example, 8 × 8 pixel units, and calculates variations in speed information of pixels included in the respective areas. The variation in the moving speed in the speed information is, for example, using the total number N of pixels in which the optical flow is detected in the region and the average v 0 of the moving speed v (x, y) in these pixels as follows: It can be calculated by equation (2).
Figure 2006245677

また、速度情報のうち移動方向のばらつきは、例えば、領域内でオプティカルフローが検出された画素について、その総数N、およびこれらのオプティカルフローを表すベクトルの角度d(x,y)の平均値d0を用い、以下の(3)式によって算出することができる。

Figure 2006245677
The variation in the moving direction in the speed information is, for example, the total number N of pixels in which optical flow is detected in the region, and the average value d of vector angles d (x, y) representing these optical flows. It can be calculated by the following equation (3) using 0 .
Figure 2006245677

処理対象領域設定部141は、これらの式により算出した移動速度のばらつきおよび移動方向のばらつきがそれぞれ予め定められた一定の閾値以下になった領域を1つの処理対象領域として設定する。   The processing target region setting unit 141 sets a region where the variation in the moving speed and the variation in the moving direction calculated by these equations are each equal to or less than a predetermined threshold value as one processing target region.

次に、上述の(ii)の例に挙げた方法の詳細について説明する。まず、処理対象領域設定部141は、画像を例えば8×8画素単位の領域に分割し、これらの領域内でオプティカルフローが検出された画素について、これらをオプティカルフローの角度によって分類する。次に、処理対象領域設定部141は、分類した各画素間において、画素の座標および移動速度の差を算出し、算出した差がそれぞれ予め定められた閾値より小さい画素をグループ化し、これらの画素およびその周囲の予め定められた一定範囲の画素を1つの処理対象領域として設定する。   Next, details of the method mentioned in the above example (ii) will be described. First, the processing target area setting unit 141 divides an image into areas of, for example, 8 × 8 pixel units, and classifies the pixels in which the optical flow is detected according to the angle of the optical flow. Next, the processing target area setting unit 141 calculates the difference between the pixel coordinates and the moving speed between the classified pixels, groups the pixels whose calculated differences are smaller than a predetermined threshold, and sets these pixels. And a predetermined range of pixels around it is set as one processing target area.

なお、これらは一例であり、速度情報を利用して超解像化の処理対象領域を設定するものであれば、あらゆる方法を適用することができる。   Note that these are merely examples, and any method can be applied as long as the target area for super-resolution processing is set using speed information.

ステップS501において処理対象領域が設定された後、超解像画像生成部142が、超解像画像生成処理を実行する。以下に、超解像画像生成処理の詳細について説明する。なお、以下では元の画像に対して解像度がM倍の超解像画像を生成する場合について説明する。   After the processing target area is set in step S501, the super-resolution image generation unit 142 executes a super-resolution image generation process. Details of the super-resolution image generation processing will be described below. In the following, a case where a super-resolution image having a resolution M times that of the original image is generated will be described.

まず、超解像画像生成部142が、超解像画像生成の対象である入力画像について、画素間の輝度値を補間することにより高解像度画像を生成する(ステップS502)。補間の方法としては、双線形補間等の一般に使われているあらゆる方法を適用することができる。   First, the super-resolution image generation unit 142 generates a high-resolution image by interpolating luminance values between pixels for an input image that is a target of super-resolution image generation (step S502). Any commonly used method such as bilinear interpolation can be applied as the interpolation method.

次に、超解像画像生成部142は、高解像度画像記憶部150に記憶された前フレームの画像から処理対象領域に対応する領域を切出し、この領域に含まれる各画素について、前フレームの画像に対する位置ずれ量の分だけ1画素未満の精度で移動させた画像を生成することにより、推定高解像度画像を生成する(ステップS503)。位置ずれ量は、処理対象領域に含まれるオプティカルフローが検出された画素の移動速度の平均値を算出し、これをM倍することにより算出した値を用いる。   Next, the super-resolution image generation unit 142 cuts out a region corresponding to the processing target region from the image of the previous frame stored in the high resolution image storage unit 150, and for each pixel included in this region, the image of the previous frame. An estimated high-resolution image is generated by generating an image that has been moved with an accuracy of less than one pixel by the amount of positional deviation with respect to (step S503). As the positional deviation amount, a value calculated by calculating an average value of moving speeds of pixels in which an optical flow included in the processing target area is detected and multiplying this by M is used.

次に、超解像画像生成部142は、推定高解像度画像を補正して適切な超解像画像を生成するために、以下の処理を実行する(ステップS504〜ステップS506)。   Next, the super-resolution image generation unit 142 executes the following processing to correct the estimated high-resolution image and generate an appropriate super-resolution image (steps S504 to S506).

まず、超解像画像生成部142は、推定高解像度画像に対して、入力画像と同等の解像度の推定低解像度画像を生成する(ステップS504)。この推定低解像度画像の各画素の輝度値PL(x,y)は、対応する推定高解像度画像上の対応する輝度値の平均を以下の(4)式により算出することにより求める。ここで、PE(x,y)は、推定高解像度画像における座標(x,y)の画素の輝度値である。

Figure 2006245677
First, the super-resolution image generation unit 142 generates an estimated low-resolution image having the same resolution as the input image for the estimated high-resolution image (step S504). The luminance value P L (x, y) of each pixel of the estimated low resolution image is obtained by calculating the average of the corresponding luminance values on the corresponding estimated high resolution image by the following equation (4). Here, P E (x, y) is the luminance value of the pixel at the coordinates (x, y) in the estimated high resolution image.
Figure 2006245677

次に、超解像画像生成部142は、推定低解像度画像と入力画像を画素ごとに比較して差分を求め、その差が予め定められた閾値Rより大きい場合、当該差の絶対値がRとなるような推定高解像度画像の修正量を算出する(ステップS505)。入力画像における座標(x,y)の画素の輝度値をPI(x,y)とすると、修正量dp(x,y)は、以下の(5)式によって算出することができる。

Figure 2006245677
Next, the super-resolution image generation unit 142 compares the estimated low-resolution image and the input image for each pixel to obtain a difference, and when the difference is larger than a predetermined threshold R, the absolute value of the difference is R The amount of correction of the estimated high-resolution image such that If the luminance value of the pixel at the coordinates (x, y) in the input image is P I (x, y), the correction amount dp (x, y) can be calculated by the following equation (5).
Figure 2006245677

次に、超解像画像生成部142は、算出した修正量dp(x,y)から、推定高解像度画像における対応画素{PH(i,j)|Mx≦i<M(x+1),My≦j<M(y+1)}のそれぞれについて、以下の(6)式に従い画素の輝度値を修正することにより、超解像画像の画素PSを生成する(ステップS506)。

Figure 2006245677
Next, the super-resolution image generation unit 142 calculates the corresponding pixel {P H (i, j) | Mx ≦ i <M (x + 1), My in the estimated high-resolution image from the calculated correction amount dp (x, y). For each of ≦ j <M (y + 1)}, the pixel P S of the super-resolution image is generated by correcting the luminance value of the pixel according to the following equation (6) (step S506).
Figure 2006245677

このようにして推定高解像度画像を修正した後(ステップS504〜ステップS506)、超解像画像生成部142は、補間により生成した高解像度画像の処理対象領域に該当する領域を、推定高解像度画像で上書きすることにより、超解像画像を生成する(ステップS507)。   After correcting the estimated high-resolution image in this way (steps S504 to S506), the super-resolution image generating unit 142 determines the region corresponding to the processing target region of the high-resolution image generated by interpolation as the estimated high-resolution image. Overwriting is performed to generate a super-resolution image (step S507).

次に、超解像画像生成部142は、すべての処理対象領域を処理したか否かを判断し(ステップS508)、すべての処理対象領域を処理していない場合は(ステップS508:NO)、次の処理対象領域に対して処理を繰り返す(ステップS503)。   Next, the super-resolution image generation unit 142 determines whether or not all the processing target areas have been processed (step S508). When all the processing target areas have not been processed (step S508: NO), The processing is repeated for the next processing target area (step S503).

すべての処理対象領域を処理した場合は(ステップS508:YES)、超解像画像生成部142は、生成した超解像画像を高解像度画像記憶部150に保存し(ステップS509)、超解像画像生成処理を終了する。   When all the processing target areas have been processed (step S508: YES), the super-resolution image generation unit 142 stores the generated super-resolution image in the high-resolution image storage unit 150 (step S509), and super-resolution. The image generation process ends.

このように、第1の実施の形態にかかる画像処理装置100においては、各画素の移動距離が予め定められた指標距離に達するまでの移動時間を求めることにより移動速度を算出しているため、高フレームレートで低速に移動する物体を撮影し画像間のオプティカルフローが非常に小さくなる場合においても、高い精度で移動速度を算出することが可能となる。従って、移動速度を参照して行われる超解像処理を高精度で実行することができる。   Thus, in the image processing apparatus 100 according to the first embodiment, the movement speed is calculated by obtaining the movement time until the movement distance of each pixel reaches a predetermined index distance. Even when an object moving at a low speed at a high frame rate is photographed and the optical flow between images becomes very small, the moving speed can be calculated with high accuracy. Therefore, the super-resolution processing performed with reference to the moving speed can be executed with high accuracy.

(第2の実施の形態)
第1の実施の形態にかかる画像処理装置100においては、オプティカルフローを高い精度で算出し、その値を用いて超解像処理を行うことにより超解像処理を高精度で実行できるが、算出したオプティカルフローの信頼度に応じた超解像処理を行っていないため、不適切な超解像画像を生成する場合がある。
(Second Embodiment)
In the image processing apparatus 100 according to the first embodiment, the optical flow can be calculated with high accuracy, and the super-resolution processing can be performed with high accuracy by performing the super-resolution processing using the value. Since the super-resolution processing according to the reliability of the optical flow is not performed, an inappropriate super-resolution image may be generated.

そこで、第2の実施の形態にかかる画像処理装置は、検出したオプティカルフローをフロー記憶部に記憶し、記憶したオプティカルフローを利用して、現在検出しているオプティカルフローの信頼度を算出し、算出した信頼度によって重み付けすることによって超解像画像をさらに高精度で生成するものである。   Therefore, the image processing apparatus according to the second embodiment stores the detected optical flow in the flow storage unit, calculates the reliability of the currently detected optical flow using the stored optical flow, A super-resolution image is generated with higher accuracy by weighting with the calculated reliability.

図6は、第2の実施の形態にかかる画像処理装置600の構成を示すブロック図である。同図に示すように、第2の実施の形態においては、信頼度算出部635と、フロー記憶部660とを追加したこと、速度情報出力部634および超解像画像生成部642の機能が変更されたことが第1の実施の形態と異なっている。その他の構成および機能は、第1の実施の形態にかかる構成を表すブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。   FIG. 6 is a block diagram illustrating a configuration of an image processing apparatus 600 according to the second embodiment. As shown in the figure, in the second embodiment, the reliability calculation unit 635 and the flow storage unit 660 are added, and the functions of the speed information output unit 634 and the super-resolution image generation unit 642 are changed. This is different from the first embodiment. Other configurations and functions are the same as those in FIG. 1, which is a block diagram showing the configuration according to the first embodiment, and thus are denoted by the same reference numerals and description thereof is omitted here.

フロー記憶部660は、各画素の基準画像から現在の画像までのオプティカルフローを記憶する。記憶されたオプティカルフローは、基準画像を更新するときに同時に削除し、更新された基準画像に対するオプティカルフローについて新たに記憶を開始する。   The flow storage unit 660 stores an optical flow from the reference image of each pixel to the current image. The stored optical flow is deleted at the same time when the reference image is updated, and storage of the optical flow for the updated reference image is newly started.

信頼度算出部635は、現在処理している画像についてのオプティカルフローの信頼度を算出する。ここで、オプティカルフローの信頼度とは、フロー検出部120が検出したオプティカルフローの確からしさの程度を示す値をいう。例えば、信頼度算出部635は、フロー記憶部660に記憶されたオプティカルフローのうち基準画像に対する相関値が最も大きい画像において検出されたオプティカルフローに含まれる移動方向と、現在処理している画像についてのオプティカルフローに含まれる移動方向との差が小さいオプティカルフローほど信頼度を高く算出する。信頼度の算出方法の詳細については後述する。   The reliability calculation unit 635 calculates the reliability of the optical flow for the currently processed image. Here, the reliability of the optical flow refers to a value indicating the degree of accuracy of the optical flow detected by the flow detection unit 120. For example, the reliability calculation unit 635 uses the movement direction included in the optical flow detected in the image having the largest correlation value with respect to the reference image among the optical flows stored in the flow storage unit 660, and the currently processed image. An optical flow having a smaller difference from the moving direction included in the optical flow is calculated with a higher reliability. Details of the reliability calculation method will be described later.

次に、このように構成された第2の実施の形態にかかる画像処理装置600による速度情報生成処理について説明する。図7は、第2の実施の形態における速度情報生成処理の全体の流れを示すフローチャートである。   Next, speed information generation processing by the image processing apparatus 600 according to the second embodiment configured as described above will be described. FIG. 7 is a flowchart showing an overall flow of the speed information generation process in the second embodiment.

ステップS701からステップS703までの、移動時間算出処理、移動速度算出処理、移動方向算出処理は、第1の実施の形態にかかる画像処理装置100におけるステップS401からステップS403までと同様の処理なので、その説明を省略する。   The movement time calculation process, the movement speed calculation process, and the movement direction calculation process from step S701 to step S703 are the same as the process from step S401 to step S403 in the image processing apparatus 100 according to the first embodiment. Description is omitted.

移動方向算出部133が、移動方向を算出した後(ステップS703)、信頼度算出部635が、基準画像に対する相関値が最も大きい画像において検出されたオプティカルフローの角度と、現在処理している画像についてのオプティカルフローの角度とから、現在処理している画像についてのオプティカルフローの信頼度を算出する(ステップS704)。   After the movement direction calculation unit 133 calculates the movement direction (step S703), the reliability calculation unit 635 detects the optical flow angle detected in the image having the largest correlation value with respect to the reference image and the image currently being processed. The reliability of the optical flow for the currently processed image is calculated from the angle of the optical flow for (step S704).

信頼度の算出方法としては、例えば以下のような方法を適用することができる。すなわち、信頼度算出部635は、現在検出しているオプティカルフローの角度をθ[rad]、基準画像から現在の画像の間にフロー記憶部660に記憶され、大きさが0より大きく指標距離Dより小さいオプティカルフローのうち、相関値が最も大きなオプティカルフローの角度をθr[rad]とし、以下の(7)式により信頼度r(x,y;n)算出する。

Figure 2006245677
As a reliability calculation method, for example, the following method can be applied. That is, the reliability calculation unit 635 stores the currently detected optical flow angle θ [rad] in the flow storage unit 660 between the reference image and the current image, and the size is larger than 0 and the index distance D Among the smaller optical flows, the angle of the optical flow having the largest correlation value is θ r [rad], and the reliability r (x, y; n) is calculated by the following equation (7).
Figure 2006245677

なお、上記信頼度の算出方法は一例であり、オプティカルフローの確からしさの程度を示す値を算出する方法であれば、これに限られるものではない。   The reliability calculation method is an example, and the method is not limited to this as long as it is a method for calculating a value indicating the degree of probability of optical flow.

次に、速度情報出力部634が、移動速度算出部132によって算出された移動速度v(x,y)と、移動方向算出部133によって算出された移動方向d(x,y)とに加え、信頼度算出部635が算出した信頼度rを要素とする速度情報V(x,y)を出力し(ステップS705)、速度情報生成処理が終了する。   Next, the speed information output unit 634 adds the movement speed v (x, y) calculated by the movement speed calculation unit 132 and the movement direction d (x, y) calculated by the movement direction calculation unit 133, The speed information V (x, y) having the reliability r calculated by the reliability calculation unit 635 as an element is output (step S705), and the speed information generation process ends.

なお、フロー記憶部660に記憶されたオプティカルフローの情報を用いることによって、より高い精度で移動時間や移動方向を算出するように構成してもよい。例えば、移動時間算出部131においては、指標距離Dに達するまでの画像数として、指標距離Dに達した最初の画像を用いる代わりに、指標距離Dであるオプティカルフローをフロー記憶部660に記憶しておき、これらの中でオプティカルフローの相関値が最大となる画像を用いるように構成してもよい。   In addition, you may comprise so that a movement time and a movement direction may be calculated with higher precision by using the information of the optical flow memorize | stored in the flow memory | storage part 660. FIG. For example, instead of using the first image that reaches the index distance D as the number of images until the index distance D is reached, the movement time calculation unit 131 stores the optical flow that is the index distance D in the flow storage unit 660. Of these, an image having the maximum optical flow correlation value may be used.

また、移動方向算出部133においては、移動方向として指標距離Dに達したオプティカルフローの角度を用いる代わりに、フロー記憶部660に記憶された大きさが1以上のすべてのオプティカルフローの平均値を用いるように構成してもよい。   In addition, instead of using the angle of the optical flow that has reached the index distance D as the movement direction, the movement direction calculation unit 133 calculates an average value of all the optical flows having a size of 1 or more stored in the flow storage unit 660. You may comprise so that it may be used.

次に、このように構成された第2の実施の形態にかかる画像処理装置600による超解像処理について説明する。図8は、第2の実施の形態における超解像処理の全体の流れを示すフローチャートである。   Next, super-resolution processing by the image processing apparatus 600 according to the second embodiment configured as described above will be described. FIG. 8 is a flowchart showing an overall flow of the super-resolution processing in the second embodiment.

ステップS801からステップS806までの、処理対象領域設定処理、補間高解像度画像生成処理、推定高解像度画像生成処理は、第1の実施の形態にかかる画像処理装置100におけるステップS501からステップS506までと同様の処理なので、その説明を省略する。   The processing target area setting process, the interpolated high resolution image generation process, and the estimated high resolution image generation process from step S801 to step S806 are the same as those from step S501 to step S506 in the image processing apparatus 100 according to the first embodiment. Therefore, the description thereof is omitted.

超解像画像生成部642は、推定高解像度画像を修正した後(ステップS806)、修正した推定高解像度画像の輝度値と補間による高解像度画像の輝度値とを信頼度を重み付け係数として重み付け加算することにより超解像画像を生成する(ステップS807)。   The super-resolution image generation unit 642 corrects the estimated high-resolution image (step S806), and then weights and adds the corrected luminance value of the estimated high-resolution image and the luminance value of the high-resolution image by interpolation using the reliability as a weighting coefficient. Thus, a super-resolution image is generated (step S807).

例えば、超解像画像生成部642は、処理対象領域内のオプティカルフローが検出された画素について、そのオプティカルフローの信頼度の平均値rAを算出してrAと(1−rA)とを重み付け係数とし、修正した推定高解像度画像の輝度値PS(x,y)と画素間の補間によって生成した高解像度画像における座標(x,y)の画素の輝度値PH(x,y)とを重み付け加算する以下の(8)式により超解像画像の各画素の輝度値PR(x,y)を算出する。
R(x,y)=rAS(x,y)+(1−rA)PH(x,y) ・・・(8)
For example, the super-resolution image generation unit 642 calculates an average value r A of the reliability of the optical flow for the pixels in which the optical flow in the processing target area is detected, and calculates r A and (1−r A ). As a weighting coefficient, the luminance value P S (x, y) of the corrected estimated high-resolution image and the luminance value P H (x, y) of the pixel at the coordinates (x, y) in the high-resolution image generated by interpolation between the pixels ) And the luminance value P R (x, y) of each pixel of the super-resolution image is calculated by the following equation (8).
P R (x, y) = r A P S (x, y) + (1−r A ) P H (x, y) (8)

超解像画像生成部642が超解像画像を生成した後、ステップS808からステップS809までの完了判定処理、画像記憶処理は、第1の実施の形態にかかる画像処理装置100におけるステップS508からステップS509までと同様の処理なので、その説明を省略する。   After the super-resolution image generation unit 642 generates a super-resolution image, the completion determination process and the image storage process from step S808 to step S809 are performed from step S508 in the image processing apparatus 100 according to the first embodiment. Since the processing is the same as that up to S509, description thereof is omitted.

このように、第2の実施の形態にかかる画像処理装置600においては、オプティカルフローの信頼度を重み付け係数とし、補間によって生成した高解像度画像の輝度値とオプティカルフローから算出した位置ずれ量に基づき生成した高解像度画像の輝度値とを重み付け加算するため、不適切な超解像画像の生成を抑止し、より高い精度で超解像画像の生成を実行することができる。   As described above, in the image processing apparatus 600 according to the second embodiment, the reliability of the optical flow is used as a weighting coefficient, and the luminance value of the high-resolution image generated by interpolation and the positional deviation amount calculated from the optical flow are used. Since the luminance value of the generated high-resolution image is weighted and added, generation of an inappropriate super-resolution image can be suppressed, and generation of the super-resolution image can be executed with higher accuracy.

(第3の実施の形態)
一般に超解像処理においては、超解像画像と実画像との相関性は処理画像数の増加に伴い高くなる。従って、処理対象領域として設定された直後に生成した超解像画像と実画像との相関性は低い。そこで、第3の実施の形態にかかる画像処理装置は、処理対象領域として設定された直後の領域について、指標距離を移動速度で除算した値を上限とした過去の画像に遡り、そこから現在の画像までの複数枚の画像を用いて超解像処理を繰り返し行うことにより、超解像画像と実画像との相関性を向上させるものである。
(Third embodiment)
In general, in super-resolution processing, the correlation between a super-resolution image and a real image increases as the number of processed images increases. Therefore, the correlation between the super-resolution image generated immediately after being set as the processing target region and the actual image is low. Therefore, the image processing apparatus according to the third embodiment goes back to the past image with the upper limit of the value obtained by dividing the index distance by the moving speed for the region immediately after being set as the processing target region, and from there, The correlation between the super-resolution image and the actual image is improved by repeatedly performing the super-resolution processing using a plurality of images up to the image.

図9は、第3の実施の形態にかかる画像処理装置900の構成を示すブロック図である。同図に示すように、第3の実施の形態においては、超解像画像生成部942の機能が変更されたことが第2の実施の形態と異なっている。その他の構成および機能は、第2の実施の形態にかかる構成を表すブロック図である図6と同様であるので、同一符号を付し、ここでの説明は省略する。   FIG. 9 is a block diagram illustrating a configuration of an image processing apparatus 900 according to the third embodiment. As shown in the figure, the third embodiment differs from the second embodiment in that the function of the super-resolution image generation unit 942 is changed. Since other configurations and functions are the same as those in FIG. 6 which is a block diagram showing the configuration according to the second embodiment, the same reference numerals are given, and description thereof is omitted here.

第3の実施の形態にかかる画像処理装置900における超解像画像生成部942は、初めて処理される処理対象領域に対し、画像記憶部110に記憶された過去の画像に遡り、過去の画像から現在の画像までの複数枚の画像を逐次超解像処理するものである。   The super-resolution image generation unit 942 in the image processing apparatus 900 according to the third embodiment goes back to the past image stored in the image storage unit 110 for the processing target area to be processed for the first time, and starts from the past image. A plurality of images up to the current image are sequentially subjected to super-resolution processing.

次に、このように構成された第3の実施の形態にかかる画像処理装置900による超解像処理について説明する。図10は、第3の実施の形態における超解像処理の全体の流れを示すフローチャートである。   Next, super-resolution processing by the image processing apparatus 900 according to the third embodiment configured as described above will be described. FIG. 10 is a flowchart showing an overall flow of the super-resolution processing in the third embodiment.

ステップS1001からステップS1002までの、処理対象領域設定処理、補間高解像度画像生成処理は、第1の実施の形態にかかる画像処理装置100におけるステップS501からステップS502までと同様の処理なので、その説明を省略する。   Since the processing target region setting process and the interpolated high-resolution image generation process from step S1001 to step S1002 are the same as those from step S501 to step S502 in the image processing apparatus 100 according to the first embodiment, the description thereof will be given. Omitted.

超解像画像生成部942は、画素間の輝度値を補間することにより高解像度画像を生成した後(ステップS1002)、現在の処理対象領域が前フレームの画像において処理した処理対象領域に含まれるか否かを判断する(ステップS1003)。   The super-resolution image generation unit 942 generates a high-resolution image by interpolating luminance values between pixels (step S1002), and then the current processing target region is included in the processing target region processed in the image of the previous frame. Whether or not (step S1003).

現在の処理対象領域が前フレームの画像において処理した処理対象領域に含まれる場合は(ステップS1003:YES)、超解像画像生成部942は第2の実施の形態にかかる画像処理装置600と同様に、前フレームの画像のみに基づいた超解像画像の生成処理を実行する(ステップS1004〜ステップS1008)。   When the current processing target area is included in the processing target area processed in the image of the previous frame (step S1003: YES), the super-resolution image generation unit 942 is the same as the image processing apparatus 600 according to the second embodiment. In addition, a super-resolution image generation process based on only the image of the previous frame is executed (steps S1004 to S1008).

ステップS1004からステップS1008までの、推定高解像度画像生成処理は、第2の実施の形態にかかる画像処理装置600におけるステップS803からステップS807までと同様の処理なので、その説明を省略する。   The estimated high-resolution image generation processing from step S1004 to step S1008 is the same as the processing from step S803 to step S807 in the image processing apparatus 600 according to the second embodiment, and thus description thereof is omitted.

ステップS1003において、現在の処理対象領域が前フレームの画像において処理した処理対象領域に含まれない場合は(ステップS1003:NO)、超解像画像生成部942は、指標距離Dを移動速度で除算した値を上限とした過去フレームの画像に遡り、現在の画像まで超解像画像の生成処理を繰り返し実行する(ステップS1009〜ステップS1015)。これにより、処理対象領域に設定された直後の領域であっても、超解像画像に使用する画像数が増加し、実画像との相関性の高い超解像画像を生成することが可能となる。   In step S1003, when the current processing target area is not included in the processing target area processed in the image of the previous frame (step S1003: NO), the super-resolution image generation unit 942 divides the index distance D by the moving speed. The super-resolution image generation processing is repeatedly executed up to the current image by going back to the image of the past frame with the above value as the upper limit (steps S1009 to S1015). As a result, the number of images used for the super-resolution image increases even in the region immediately after being set as the processing target region, and it is possible to generate a super-resolution image highly correlated with the actual image. Become.

まず、超解像画像生成部942が、過去フレームの画像において処理対象領域に対応する領域を切出す(ステップS1009)。次に、超解像画像生成部942は、切出した領域に含まれる各画素について、現在処理している画像において算出した位置ずれ量の分だけ1画素未満の精度で移動させた画像を生成することにより、推定高解像度画像を生成する(ステップS1010)。   First, the super-resolution image generation unit 942 cuts out a region corresponding to the processing target region in the past frame image (step S1009). Next, the super-resolution image generation unit 942 generates an image in which each pixel included in the cut-out area is moved with an accuracy of less than one pixel by the amount of positional deviation calculated in the currently processed image. Thus, an estimated high resolution image is generated (step S1010).

次に、超解像画像生成部942は、推定高解像度画像に対して、入力画像と同等の解像度の推定低解像度画像を生成する(ステップS1011)。推定低解像度画像の輝度値は、第2の実施の形態にかかる画像処理装置600と同様に、(4)式により算出する。   Next, the super-resolution image generation unit 942 generates an estimated low resolution image having the same resolution as the input image for the estimated high resolution image (step S1011). The luminance value of the estimated low-resolution image is calculated by the expression (4) as in the image processing apparatus 600 according to the second embodiment.

次に、超解像画像生成部942は、推定低解像度画像と過去フレームの画像において処理対象領域に対応する領域を切出した低解像度の部分画像を画素ごとに比較して差分を求め、その差が予め定められた閾値Rより大きい場合、当該差の絶対値がRとなるような推定高解像度画像の修正量を算出する(ステップS1012)。修正量は、低解像度の部分画像における座標(x,y)の画素の輝度値をPI(x,y)とおくことにより、第2の実施の形態にかかる画像処理装置600と同様に、(5)式によって算出することができる。 Next, the super-resolution image generation unit 942 compares the estimated low-resolution image and the low-resolution partial image obtained by cutting out the region corresponding to the processing target region in the past frame image for each pixel, and obtains a difference. Is larger than a predetermined threshold value R, the correction amount of the estimated high-resolution image is calculated such that the absolute value of the difference is R (step S1012). Similar to the image processing apparatus 600 according to the second embodiment, the correction amount is set by setting the luminance value of the pixel at the coordinates (x, y) in the low-resolution partial image as P I (x, y). It can be calculated by equation (5).

次に、超解像画像生成部942は、算出した修正量dp(x,y)から、第2の実施の形態にかかる画像処理装置600と同様に、(6)式に従い画素の輝度値を修正することにより、超解像画像の画素PSを生成する(ステップS1013)。 Next, the super-resolution image generation unit 942 calculates the luminance value of the pixel from the calculated correction amount dp (x, y) according to the equation (6), similarly to the image processing apparatus 600 according to the second embodiment. By correcting, the pixel P S of the super-resolution image is generated (step S1013).

次に、超解像画像生成部942は、修正した推定高解像度画像の輝度値と補間による高解像度画像の輝度値とを信頼度を重み付け係数として重み付け加算することにより超解像画像を生成する(ステップS1014)。この際、第2の実施の形態にかかる画像処理装置600と異なり、超解像画像生成部942は、補間による高解像度画像の輝度値として、過去フレームの画像において処理対象領域に対応する領域を切出した低解像度の部分画像から補間により高解像度化した部分画像の輝度値を用いる。すなわち、第3の実施の形態にかかる画像処理装置900においては、過去フレームの画像の処理対象領域の部分画像のみを利用すれば十分であるため、補間による高解像度画像は、当該部分画像に対してのみ生成し、これを重み付け加算時に使用する。   Next, the super-resolution image generation unit 942 generates a super-resolution image by weighting and adding the corrected luminance value of the estimated high-resolution image and the luminance value of the high-resolution image by interpolation using the reliability as a weighting coefficient. (Step S1014). At this time, unlike the image processing apparatus 600 according to the second embodiment, the super-resolution image generation unit 942 uses a region corresponding to the processing target region in the past frame image as the luminance value of the high-resolution image by interpolation. The luminance value of the partial image that has been increased in resolution from the cut out low-resolution partial image by interpolation is used. That is, in the image processing apparatus 900 according to the third embodiment, since it is sufficient to use only the partial image of the processing target area of the image of the past frame, the high-resolution image obtained by interpolation is compared with the partial image. This is used only for weighted addition.

次に、超解像画像生成部942は、対象となるすべての過去フレームの画像を処理したか否か、すなわち、現在のフレームの画像まで超解像処理を実行したか否かを判断する(ステップS1015)。対象となるすべての過去フレームの画像を処理していない場合は(ステップS1015:NO)、次の過去フレームの画像に対して処理を繰り返す(ステップS1009)。対象となるすべての過去フレームの画像を処理した場合は(ステップS1015:YES)、完了判定処理(ステップS1016)を実行する。   Next, the super-resolution image generation unit 942 determines whether or not all the past frame images to be processed have been processed, that is, whether or not the super-resolution processing has been executed up to the current frame image ( Step S1015). If all the past frame images to be processed have not been processed (step S1015: NO), the processing is repeated for the next past frame image (step S1009). When all the past frame images to be processed have been processed (step S1015: YES), a completion determination process (step S1016) is executed.

ステップS1016からステップS1017までの完了判定処理、画像記憶処理は、第1の実施の形態にかかる画像処理装置100におけるステップS508からステップS509までと同様の処理なので、その説明を省略する。   Since the completion determination process and the image storage process from step S1016 to step S1017 are the same as the process from step S508 to step S509 in the image processing apparatus 100 according to the first embodiment, the description thereof is omitted.

このように、第3の実施の形態にかかる画像処理装置900においては、過去の画像に遡り、過去の画像から現在の画像までの複数枚の画像を用いて超解像処理を行うため、処理画像数の増加による超解像画像と実画像との相関性を向上させることができる。   As described above, in the image processing apparatus 900 according to the third embodiment, the super-resolution processing is performed using a plurality of images from the past image to the current image, going back to the past image. Correlation between the super-resolution image and the actual image due to the increase in the number of images can be improved.

第1〜第3の実施の形態にかかる画像処理装置は、CPUなどの制御装置と、ROM(Read Only Memory)やRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。   The image processing apparatus according to the first to third embodiments includes a control device such as a CPU, a storage device such as a ROM (Read Only Memory) and a RAM, an external storage device such as an HDD and a CD drive device, and a display. It has a display device such as a device and an input device such as a keyboard and a mouse, and has a hardware configuration using a normal computer.

第1〜第3の実施の形態にかかる画像処理装置で実行される画像処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。   The image processing program executed by the image processing apparatus according to the first to third embodiments is a file in an installable format or an executable format, and is a CD-ROM, flexible disk (FD), CD-R, DVD. (Digital Versatile Disk) or the like recorded on a computer-readable recording medium.

また、第1〜第3の実施の形態にかかる画像処理装置で実行される画像処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、第1〜第3の実施の形態にかかる画像処理装置で実行される画像処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   Further, the image processing program executed by the image processing apparatus according to the first to third embodiments is stored on a computer connected to a network such as the Internet, and is provided by being downloaded via the network. It may be configured. The image processing program executed by the image processing apparatus according to the first to third embodiments may be provided or distributed via a network such as the Internet.

また、第1〜第3の実施の形態の画像処理プログラムを、ROM等に予め組み込んで提供するように構成してもよい。   Further, the image processing programs of the first to third embodiments may be provided by being incorporated in advance in a ROM or the like.

第1〜第3の実施の形態にかかる画像処理装置で実行される画像処理プログラムは、上述した各部(フロー検出部、速度情報生成部、超解像処理部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から画像処理プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。   The image processing program executed by the image processing apparatuses according to the first to third embodiments has a module configuration including the above-described units (flow detection unit, speed information generation unit, super-resolution processing unit). As actual hardware, a CPU (processor) reads out and executes an image processing program from the storage medium, whereby each unit is loaded on the main storage device, and each unit is generated on the main storage device. ing.

以上のように、本発明にかかる画像処理装置、画像処理方法および画像処理プログラムは、車載カメラを搭載した障害物検出装置などの、高いフレームレートで撮影された動きを有する領域を含む時系列画像を対象として超解像処理を実行する画像処理装置に適している。   As described above, the image processing device, the image processing method, and the image processing program according to the present invention include a time-series image including a region having a motion imaged at a high frame rate, such as an obstacle detection device equipped with an in-vehicle camera. It is suitable for an image processing apparatus that executes super-resolution processing for a target.

第1の実施の形態にかかる画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment. 第1の実施の形態にかかる画像処理装置おける画像処理の全体の流れを示すフローチャートである。3 is a flowchart illustrating an overall flow of image processing in the image processing apparatus according to the first embodiment. 第1の実施の形態にかかる画像処理装置おけるフロー検出処理の全体の流れを示すフローチャートである。It is a flowchart which shows the flow of the whole flow detection process in the image processing apparatus concerning 1st Embodiment. 第1の実施の形態にかかる画像処理装置おける速度情報生成処理の全体の流れを示すフローチャートである。It is a flowchart which shows the whole flow of the speed information generation process in the image processing apparatus concerning 1st Embodiment. 第1の実施の形態にかかる画像処理装置おける超解像処理の全体の流れを示すフローチャートである。It is a flowchart which shows the flow of the whole super-resolution process in the image processing apparatus concerning 1st Embodiment. 第2の実施の形態にかかる画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus concerning 2nd Embodiment. 第2の実施の形態にかかる画像処理装置おける速度情報生成処理の全体の流れを示すフローチャートである。It is a flowchart which shows the flow of the whole speed information generation process in the image processing apparatus concerning 2nd Embodiment. 第2の実施の形態にかかる画像処理装置おける超解像処理の全体の流れを示すフローチャートである。It is a flowchart which shows the flow of the whole super-resolution process in the image processing apparatus concerning 2nd Embodiment. 第3の実施の形態にかかる画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus concerning 3rd Embodiment. 第3の実施の形態にかかる画像処理装置おける超解像処理の全体の流れを示すフローチャートである。14 is a flowchart illustrating an overall flow of super-resolution processing in the image processing apparatus according to the third embodiment.

符号の説明Explanation of symbols

100 画像処理装置
101 撮像部
110 画像記憶部
120 フロー検出部
121 局所マスク設定部
122 相関値算出部
123 対応判定部
130 速度情報生成部
131 移動時間算出部
132 移動速度算出部
133 移動方向算出部
134 速度情報出力部
140 超解像処理部
141 処理対象領域設定部
142 超解像画像生成部
150 高解像度画像記憶部
600 画像処理装置
634 速度情報出力部
635 信頼度算出部
642 超解像画像生成部
660 フロー記憶部
900 画像処理装置
942 超解像画像生成部
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 101 Imaging part 110 Image memory | storage part 120 Flow detection part 121 Local mask setting part 122 Correlation value calculation part 123 Correspondence determination part 130 Speed information generation part 131 Travel time calculation part 132 Movement speed calculation part 133 Movement direction calculation part 134 Speed information output unit 140 Super-resolution processing unit 141 Processing target area setting unit 142 Super-resolution image generation unit 150 High-resolution image storage unit 600 Image processing device 634 Speed information output unit 635 Reliability calculation unit 642 Super-resolution image generation unit 660 Flow storage unit 900 Image processing device 942 Super-resolution image generation unit

Claims (8)

撮像部が撮影した画像を順次記憶する画像記憶部と、
前記画像記憶部が記憶した前記画像のうち、任意の時点の前記画像である基準画像に対する前記画像上の画素の移動方向および移動距離の情報を含むベクトルであるオプティカルフローを検出するフロー検出部と、
前記フロー検出部が検出した前記オプティカルフローから前記移動距離が予め定められた閾値を超えるまでに要した時間を求める移動時間算出部と、
前記移動時間算出部が求めた時間と前記移動距離とに基づいて前記画素の移動速度を算出する移動速度算出部と、
前記フロー検出部が検出した前記オプティカルフローに含まれる前記移動方向の情報に基づいて前記移動方向の角度を算出する移動方向算出部と、
前記移動方向算出部が算出した前記移動方向の角度および前記移動速度算出部が算出した前記移動速度を含む速度情報を出力する速度情報出力部と、
前記速度情報出力部によって出力された前記速度情報から時系列的に連続する前記画像間の位置ずれ量を算出し、算出した前記位置ずれ量に基づいて超解像画像を生成する超解像画像生成部と、
を備えたことを特徴とする画像処理装置。
An image storage unit for sequentially storing images taken by the imaging unit;
A flow detection unit that detects an optical flow that is a vector including information on a moving direction and a moving distance of a pixel on the image with respect to a reference image that is the image at an arbitrary time among the images stored in the image storage unit; ,
A movement time calculation unit for obtaining a time required for the movement distance to exceed a predetermined threshold from the optical flow detected by the flow detection unit;
A moving speed calculating unit that calculates a moving speed of the pixel based on the time obtained by the moving time calculating unit and the moving distance;
A moving direction calculating unit that calculates an angle of the moving direction based on information of the moving direction included in the optical flow detected by the flow detecting unit;
A speed information output unit that outputs speed information including the angle of the movement direction calculated by the movement direction calculation unit and the movement speed calculated by the movement speed calculation unit;
A super-resolution image that calculates a positional shift amount between the images that are continuous in time series from the speed information output by the speed information output unit, and generates a super-resolution image based on the calculated positional shift amount. A generator,
An image processing apparatus comprising:
前記オプティカルフローを順次記憶するフロー記憶部と、
前記フロー検出部が検出した前記オプティカルフローの確からしさの程度を示す信頼度を算出する信頼度算出部と、をさらに備え、
前記フロー検出部は、前記オプティカルフローの検出対象の領域を設定し、前記領域における前記基準画像と前記オプティカルフローを検出する前記画像との関連の度合いを示す相関値を算出し、前記相関値が予め定められた閾値を越える前記領域に含まれる画素に対して前記オプティカルフローを検出し、
前記信頼度算出部は、前記フロー記憶部に記憶された前記オプティカルフローのうち前記相関値が最も大きい前記画像において検出された前記オプティカルフローに含まれる前記移動方向と、前記フロー検出部が検出した前記オプティカルフローに含まれる前記移動方向との差に基づいて前記信頼度を算出し、
前記超解像画像生成部は、前記信頼度算出部が算出した前記信頼度を重み付け係数として、前記位置ずれ量から算出した輝度値と超解像処理を実行する前記画像である入力画像の画素の輝度値を補間して算出した輝度値とを重み付け加算して超解像画像の輝度値を算出することにより超解像画像を生成することを特徴とする請求項1に記載の画像処理装置。
A flow storage unit for sequentially storing the optical flows;
A reliability calculation unit that calculates a reliability indicating the degree of certainty of the optical flow detected by the flow detection unit, and
The flow detection unit sets a detection target region of the optical flow, calculates a correlation value indicating a degree of association between the reference image in the region and the image for detecting the optical flow, and the correlation value is Detecting the optical flow for pixels included in the region exceeding a predetermined threshold;
The reliability calculation unit detects the movement direction included in the optical flow detected in the image having the largest correlation value among the optical flows stored in the flow storage unit, and the flow detection unit detects Calculating the reliability based on a difference from the moving direction included in the optical flow;
The super-resolution image generation unit uses the reliability calculated by the reliability calculation unit as a weighting coefficient, and the luminance value calculated from the positional deviation amount and the pixel of the input image that is the image for performing the super-resolution processing 2. The image processing apparatus according to claim 1, wherein a super-resolution image is generated by calculating a luminance value of the super-resolution image by weighting and adding the luminance value calculated by interpolating the luminance value of .
前記超解像画像生成部は、前記領域内において検出された前記オプティカルフローに対して前記信頼度算出部が算出した前記信頼度の平均値rAおよび(1−rA)を重み付け係数、前記位置ずれ量から算出した輝度値をPS(x,y)、前記入力画像の画素の輝度値を補間して算出した輝度値をPH(x,y)とし、式(1)に示す重み付け加算式により超解像画像の輝度値PR(x,y)を算出することを特徴とする請求項2に記載の画像処理装置。
Figure 2006245677
The super-resolution image generating unit uses the reliability average value r A and (1-r A ) calculated by the reliability calculation unit for the optical flow detected in the region as a weighting coefficient, The luminance value calculated from the positional deviation amount is P S (x, y), and the luminance value calculated by interpolating the luminance value of the pixel of the input image is P H (x, y). The image processing apparatus according to claim 2, wherein the luminance value P R (x, y) of the super-resolution image is calculated by an addition formula.
Figure 2006245677
前記超解像画像生成部は、前記入力画像に対して過去の前記画像である過去画像を前記画像記憶部から取得し、取得した前記過去画像から前記入力画像までの時系列的に連続する前記画像間について超解像画像の生成処理を逐次実行し、前記入力画像についての超解像画像を生成することを特徴とする請求項1に記載の画像処理装置。   The super-resolution image generation unit acquires a past image that is the past image with respect to the input image from the image storage unit, and continues in time series from the acquired past image to the input image. The image processing apparatus according to claim 1, wherein a super-resolution image generation process is sequentially performed between images to generate a super-resolution image for the input image. 前記超解像画像生成部は、前記入力画像の画素の輝度値を補間して算出した輝度値を、前記位置ずれ量に相当する距離の分画素を移動することにより生成した高解像度画像の輝度値で置換することにより超解像画像を生成することを特徴とする請求項1〜4のいずれか1つに記載の画像処理装置。   The super-resolution image generation unit generates a luminance value calculated by interpolating a luminance value of a pixel of the input image by moving a pixel by a distance corresponding to the positional deviation amount. The image processing apparatus according to claim 1, wherein a super-resolution image is generated by replacing with a value. 前記超解像画像生成部は、前記高解像度画像の輝度値と前記入力画像の輝度値との差である輝度値差が、予め定められた閾値である輝度値差閾値を越える場合、前記輝度値差と前記輝度値差閾値との差の分、前記高解像度画像の輝度値の値を補正し、前記入力画像の画素の輝度値を補間して算出した輝度値を、補正した高解像度画像の輝度値で置換することにより超解像画像を生成することを特徴とする請求項5に記載の画像処理装置。   The super-resolution image generation unit, when a luminance value difference that is a difference between a luminance value of the high-resolution image and a luminance value of the input image exceeds a luminance value difference threshold that is a predetermined threshold, The brightness value calculated by correcting the brightness value of the high-resolution image and interpolating the brightness value of the pixel of the input image is corrected by the difference between the value difference and the brightness value difference threshold. The image processing apparatus according to claim 5, wherein a super-resolution image is generated by substituting with a luminance value. 撮像部が撮影した画像を順次記憶する画像記憶部が記憶した前記画像のうち、任意の時点の前記画像である基準画像に対する前記画像上の画素の移動方向および移動距離の情報を含むベクトルであるオプティカルフローを検出するフロー検出ステップと、
前記フロー検出ステップが検出した前記オプティカルフローから前記移動距離が予め定められた閾値を超えるまでに要した時間を求める移動時間算出ステップと、
前記移動時間算出ステップが求めた時間と前記移動距離とに基づいて前記画素の移動速度を算出する移動速度算出ステップと、
前記フロー検出ステップが検出した前記オプティカルフローに含まれる前記移動方向の情報に基づいて前記移動方向の角度を算出する移動方向算出ステップと、
前記移動方向算出ステップが算出した前記移動方向の角度および前記移動速度算出ステップが算出した前記移動速度を含む速度情報を出力する速度情報出力ステップと、
前記速度情報出力ステップによって出力された前記速度情報から時系列的に連続する前記画像間の位置ずれ量を算出し、算出した前記位置ずれ量に基づいて超解像画像を生成する超解像画像生成ステップと、
を備えたことを特徴とする画像処理方法。
Among the images stored in the image storage unit that sequentially stores the images captured by the imaging unit, the vector includes information on the moving direction and moving distance of the pixels on the image with respect to the reference image that is the image at an arbitrary time. A flow detection step for detecting an optical flow;
A moving time calculating step for obtaining a time required for the moving distance to exceed a predetermined threshold from the optical flow detected by the flow detecting step;
A moving speed calculating step for calculating a moving speed of the pixel based on the time obtained by the moving time calculating step and the moving distance;
A moving direction calculating step of calculating an angle of the moving direction based on the moving direction information included in the optical flow detected by the flow detecting step;
A speed information output step for outputting speed information including the angle of the moving direction calculated by the moving direction calculating step and the moving speed calculated by the moving speed calculating step;
A super-resolution image that calculates a positional deviation amount between the images that are continuous in time series from the velocity information output by the velocity information output step, and generates a super-resolution image based on the calculated positional deviation amount. Generation step;
An image processing method comprising:
撮像部が撮影した画像を順次記憶する画像記憶部が記憶した前記画像のうち、任意の時点の前記画像である基準画像に対する前記画像上の画素の移動方向および移動距離の情報を含むベクトルであるオプティカルフローを検出するフロー検出手順と、
前記フロー検出手順が検出した前記オプティカルフローから前記移動距離が予め定められた閾値を超えるまでに要した時間を求める移動時間算出手順と、
前記移動時間算出手順が求めた時間と前記移動距離とに基づいて前記画素の移動速度を算出する移動速度算出手順と、
前記フロー検出手順が検出した前記オプティカルフローに含まれる前記移動方向の情報に基づいて前記移動方向の角度を算出する移動方向算出手順と、
前記移動方向算出手順が算出した前記移動方向の角度および前記移動速度算出手順が算出した前記移動速度を含む速度情報を出力する速度情報出力手順と、
前記速度情報出力手順によって出力された前記速度情報から時系列的に連続する前記画像間の位置ずれ量を算出し、算出した前記位置ずれ量に基づいて超解像画像を生成する超解像画像生成手順と、
をコンピュータに実行させる画像処理プログラム。
Among the images stored in the image storage unit that sequentially stores the images captured by the imaging unit, the vector includes information on the moving direction and the moving distance of the pixel on the image with respect to the reference image that is the image at an arbitrary time. A flow detection procedure for detecting an optical flow;
A travel time calculation procedure for obtaining a time required for the travel distance to exceed a predetermined threshold from the optical flow detected by the flow detection procedure;
A moving speed calculating procedure for calculating a moving speed of the pixel based on the time obtained by the moving time calculating procedure and the moving distance;
A moving direction calculation procedure for calculating an angle of the moving direction based on information of the moving direction included in the optical flow detected by the flow detection procedure;
A speed information output procedure for outputting speed information including the angle of the moving direction calculated by the moving direction calculation procedure and the moving speed calculated by the moving speed calculation procedure;
A super-resolution image that calculates a positional deviation amount between the images that are continuous in time series from the velocity information output by the velocity information output procedure, and generates a super-resolution image based on the calculated positional deviation amount. Generation procedure,
An image processing program for causing a computer to execute.
JP2005054756A 2005-02-28 2005-02-28 Image processor, image processing method, and image processing program Pending JP2006245677A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005054756A JP2006245677A (en) 2005-02-28 2005-02-28 Image processor, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005054756A JP2006245677A (en) 2005-02-28 2005-02-28 Image processor, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2006245677A true JP2006245677A (en) 2006-09-14

Family

ID=37051658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005054756A Pending JP2006245677A (en) 2005-02-28 2005-02-28 Image processor, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP2006245677A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009188891A (en) * 2008-02-08 2009-08-20 Victor Co Of Japan Ltd Image processor, image processing method, and image processing program
JP4543116B1 (en) * 2009-03-10 2010-09-15 株式会社東芝 Image processing apparatus and image processing method
CN102098377A (en) * 2010-12-02 2011-06-15 惠州Tcl移动通信有限公司 Mobile phone and speed measurement method thereof
JP2012003469A (en) * 2010-06-16 2012-01-05 Nikon Corp Image processing program, image processing device and imaging apparatus
JP2013115532A (en) * 2011-11-28 2013-06-10 Sony Corp Image processing device and method, recording medium, and program
US8624938B2 (en) 2008-12-19 2014-01-07 Semiconductor Energy Laboratory Co., Ltd. Method for driving liquid crystal display device
US8654205B2 (en) 2009-12-17 2014-02-18 Nikon Corporation Medium storing image processing program and imaging apparatus
US8780034B2 (en) 2009-04-08 2014-07-15 Semiconductor Energy Laboratory Co., Ltd. Method for driving semiconductor device including super-resolution processing
US8970638B2 (en) 2009-02-06 2015-03-03 Semiconductor Energy Laboratory Co., Ltd. Method for driving display device
JP2017026490A (en) * 2015-07-23 2017-02-02 株式会社東芝 Shape recognition apparatus and method for the same
JP2021064155A (en) * 2019-10-14 2021-04-22 株式会社デンソー Obstacle identifying device and obstacle identifying program
CN115409696A (en) * 2021-05-28 2022-11-29 北京字跳网络技术有限公司 Image processing method, image processing device, electronic equipment and storage medium

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009188891A (en) * 2008-02-08 2009-08-20 Victor Co Of Japan Ltd Image processor, image processing method, and image processing program
US8624938B2 (en) 2008-12-19 2014-01-07 Semiconductor Energy Laboratory Co., Ltd. Method for driving liquid crystal display device
US8928706B2 (en) 2008-12-19 2015-01-06 Semiconductor Energy Laboratory Co., Ltd. Method for driving liquid crystal display device
US10018872B2 (en) 2008-12-19 2018-07-10 Semiconductor Energy Laboratory Co., Ltd. Method for driving liquid crystal display device
US11899311B2 (en) 2008-12-19 2024-02-13 Semiconductor Energy Laboratory Co., Ltd. Method for driving liquid crystal display device
US9280937B2 (en) 2008-12-19 2016-03-08 Semiconductor Energy Laboratory Co., Ltd. Method for driving liquid crystal display device
US11300832B2 (en) 2008-12-19 2022-04-12 Semiconductor Energy Laboratory Co., Ltd. Method for driving liquid crystal display device
US10254586B2 (en) 2008-12-19 2019-04-09 Semiconductor Energy Laboratory Co., Ltd. Method for driving liquid crystal display device
US10578920B2 (en) 2008-12-19 2020-03-03 Semiconductor Energy Laboratory Co., Ltd. Method for driving liquid crystal display device
US10943549B2 (en) 2009-02-06 2021-03-09 Semiconductor Energy Laboratory Co., Ltd. Method for driving display device
US9583060B2 (en) 2009-02-06 2017-02-28 Semiconductor Energy Laboratory Co., Ltd. Method for driving display device
US8970638B2 (en) 2009-02-06 2015-03-03 Semiconductor Energy Laboratory Co., Ltd. Method for driving display device
US11837180B2 (en) 2009-02-06 2023-12-05 Semiconductor Energy Laboratory Co., Ltd. Method for driving display device
JP2010212991A (en) * 2009-03-10 2010-09-24 Toshiba Corp Image processing unit, and method of processing image
US7903126B2 (en) 2009-03-10 2011-03-08 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method thereof
JP4543116B1 (en) * 2009-03-10 2010-09-15 株式会社東芝 Image processing apparatus and image processing method
US9978320B2 (en) 2009-04-08 2018-05-22 Semiconductor Energy Laboratory Co., Ltd. Method for driving semiconductor device
US10657910B2 (en) 2009-04-08 2020-05-19 Semiconductor Energy Laboratory Co., Ltd. Method for driving semiconductor device
US11670251B2 (en) 2009-04-08 2023-06-06 Semiconductor Energy Laboratory Co., Ltd. Method for driving semiconductor device
US9343018B2 (en) 2009-04-08 2016-05-17 Semiconductor Energy Laboratory Co., Ltd. Method for driving a liquid crystal display device at higher resolution
US8780034B2 (en) 2009-04-08 2014-07-15 Semiconductor Energy Laboratory Co., Ltd. Method for driving semiconductor device including super-resolution processing
US12080254B2 (en) 2009-04-08 2024-09-03 Semiconductor Energy Laboratory Co., Ltd. Method for driving semiconductor device
US11450291B2 (en) 2009-04-08 2022-09-20 Semiconductor Energy Laboratory Co., Ltd. Method for driving semiconductor device
US11030966B2 (en) 2009-04-08 2021-06-08 Semiconductor Energy Laboratory Co., Ltd. Method for driving semiconductor device
US8654205B2 (en) 2009-12-17 2014-02-18 Nikon Corporation Medium storing image processing program and imaging apparatus
JP2012003469A (en) * 2010-06-16 2012-01-05 Nikon Corp Image processing program, image processing device and imaging apparatus
WO2012071947A1 (en) * 2010-12-02 2012-06-07 惠州Tcl移动通信有限公司 Mobile phone and method for speed measurement by mobile phone
CN102098377A (en) * 2010-12-02 2011-06-15 惠州Tcl移动通信有限公司 Mobile phone and speed measurement method thereof
JP2013115532A (en) * 2011-11-28 2013-06-10 Sony Corp Image processing device and method, recording medium, and program
US10424049B2 (en) 2011-11-28 2019-09-24 Sony Corporation Image processing device, method, and recording medium
US9392257B2 (en) 2011-11-28 2016-07-12 Sony Corporation Image processing device and method, recording medium, and program
JP2017026490A (en) * 2015-07-23 2017-02-02 株式会社東芝 Shape recognition apparatus and method for the same
JP2021064155A (en) * 2019-10-14 2021-04-22 株式会社デンソー Obstacle identifying device and obstacle identifying program
US11704911B2 (en) 2019-10-14 2023-07-18 Denso Corporation Apparatus and method for identifying obstacle around vehicle
JP7298436B2 (en) 2019-10-14 2023-06-27 株式会社デンソー Obstacle identification device and obstacle identification program
CN115409696A (en) * 2021-05-28 2022-11-29 北京字跳网络技术有限公司 Image processing method, image processing device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
US8818046B2 (en) Image processing device, image processing method, and program
JP5906493B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium
KR102141290B1 (en) Image processing apparatus, image processing method, image processing program and storage medium
JP5803467B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2007072606A (en) Image processor and processing method
JP2007166269A (en) Image processor, image pickup device and image processing method
JP2010118862A (en) Image processor, imaging apparatus and image processing method
JP2006245677A (en) Image processor, image processing method, and image processing program
JP2012175207A (en) Image processing apparatus, image processing method, and computer program
JP2010124028A (en) Monitoring apparatus
JP7027776B2 (en) Movement vector calculation method, device, program, and movement vector calculation method including noise reduction processing.
JP2011097217A (en) Motion correction device and method therefor
JP2005094614A (en) Apparatus and method for camera shake correction and recording medium recording camera shake correcting program
JP2011259342A (en) Image processing apparatus and image processing method
JP6613686B2 (en) Movie display device, movie display method, and program
TW202314587A (en) Object detection system
WO2016142965A1 (en) Video processing device, video processing method, and storage medium storing video processing program
JP2009266169A (en) Information processor and method, and program
JP2009065283A (en) Image shake correction apparatus
JP2010039968A (en) Object detecting apparatus and detecting method
JP2006215657A (en) Method, apparatus, program and program storage medium for detecting motion vector
JP6374228B2 (en) Image processing apparatus, image processing method, and program
JP5401696B2 (en) Image processing apparatus, image processing method, and image processing program
JP6979859B2 (en) Image processing equipment, imaging equipment, image processing methods, and programs
JP2006065816A (en) Face detector, face detection method and face detection program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090310

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090630