JP2004266381A - 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム - Google Patents
画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム Download PDFInfo
- Publication number
- JP2004266381A JP2004266381A JP2003050208A JP2003050208A JP2004266381A JP 2004266381 A JP2004266381 A JP 2004266381A JP 2003050208 A JP2003050208 A JP 2003050208A JP 2003050208 A JP2003050208 A JP 2003050208A JP 2004266381 A JP2004266381 A JP 2004266381A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- image data
- pixels
- continuity
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 246
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000012545 processing Methods 0.000 claims abstract description 233
- 230000002093 peripheral effect Effects 0.000 claims abstract description 224
- 238000001514 detection method Methods 0.000 claims description 266
- 238000000605 extraction Methods 0.000 claims description 221
- 230000008569 process Effects 0.000 claims description 169
- 230000000694 effects Effects 0.000 claims description 91
- 230000003287 optical effect Effects 0.000 claims description 82
- 230000010354 integration Effects 0.000 claims description 75
- 239000000284 extract Substances 0.000 abstract description 90
- 230000014509 gene expression Effects 0.000 abstract description 73
- 238000010586 diagram Methods 0.000 description 172
- 238000004364 calculation method Methods 0.000 description 145
- 230000008859 change Effects 0.000 description 125
- 239000000203 mixture Substances 0.000 description 67
- 230000003044 adaptive effect Effects 0.000 description 39
- 230000006870 function Effects 0.000 description 23
- 230000007423 decrease Effects 0.000 description 15
- 238000002156 mixing Methods 0.000 description 15
- 230000002123 temporal effect Effects 0.000 description 13
- 230000015572 biosynthetic process Effects 0.000 description 11
- 238000003786 synthesis reaction Methods 0.000 description 11
- 230000002194 synthesizing effect Effects 0.000 description 11
- 238000009795 derivation Methods 0.000 description 9
- 239000007787 solid Substances 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000000630 rising effect Effects 0.000 description 7
- 210000000078 claw Anatomy 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 239000004065 semiconductor Substances 0.000 description 5
- 238000010408 sweeping Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000013075 data extraction Methods 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- JEJAGQKHAKDRGG-UHFFFAOYSA-N 2,2-dichloroethenyl dimethyl phosphate;(2-propan-2-yloxyphenyl) n-methylcarbamate Chemical compound COP(=O)(OC)OC=C(Cl)Cl.CNC(=O)OC1=CC=CC=C1OC(C)C JEJAGQKHAKDRGG-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 235000019645 odor Nutrition 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0135—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
- H04N7/0137—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes dependent on presence/absence of motion, e.g. of motion zones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0125—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0135—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
- H04N7/0145—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation being class adaptive, i.e. it uses the information of class which is determined for a pixel based upon certain characteristics of the neighbouring pixels
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Television Systems (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
【解決手段】データ定常性検出部803は、注目画素に対応する入力画像の複数の周辺画素のデータの定常性を検出する。クラスタップ抽出部804は、データの定常性に基づいて、注目画素に対応する、クラスタップを抽出する。予測タップ抽出部807は、データの定常性に基づいて、注目画素に対応する、予測タップを抽出する。特徴量検出部805は、抽出されたクラスタップの特徴量を検出する。足し込み演算部808および正規方程式演算部811は、検出された特徴量毎に、予測タップから注目画素を予測するための予測係数を演算する。本発明は、予測係数を演算する学習装置に適用できる。
【選択図】 図119
Description
【発明の属する技術分野】
本発明は、画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラムに関し、特に、より高解像度の画像を創造する画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラムに関する。
【0002】
【従来の技術】
本件出願人は、例えば、画像の画質等の向上その他の画像の変換を行う画像処理として、クラス分類適応処理を、先に提案している。
【0003】
クラス分類適応処理は、クラス分類処理と適応処理とからなり、クラス分類処理によって、画像のデータを、その性質に基づいてクラス分けし、各クラスごとに適応処理を施すものであり、適応処理とは、以下のような手法の処理である。
【0004】
即ち、適応処理では、例えば、低画質または標準画質の画像(以下、適宜、SD(Standard Definition)画像という)が、所定のタップ係数(以下、適宜、予測係数とも称する)を用いてマッピング(写像)されることにより、高画質の画像(以下、適宜、HD(High Definition)画像という)に変換される。
【0005】
いま、このタップ係数を用いてのマッピング方法として、例えば、線形1次結合モデルを採用することとすると、HD画像を構成する画素(以下、適宜、HD画素という)(の画素値)yは、SD画像を構成する画素(以下、適宜、SD画素という)から、HD画素を予測するための予測タップとして抽出される複数のSD画素と、タップ係数とを用いて、次の線形1次式(線形結合)によって求められる。
【数1】
【0006】
但し、式(1)において、xnは、HD画素yについての予測タップを構成する、n番目のSD画像の画素の画素値を表し、wnは、n番目のSD画素(の画素値)と乗算されるn番目のタップ係数を表す。なお、式(1)では、予測タップが、N個のSD画素x1,x2,・・・,xNで構成されるものとしてある。
【0007】
ここで、HD画素の画素値yは、式(1)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。
【0008】
いま、第kサンプルのHD画素の画素値の真値をykと表すとともに、式(1)によって得られるその真値ykの予測値をyk’と表すと、その予測誤差ekは、次式で表される。
【数2】
【0009】
式(2)の予測値yk’は、式(1)にしたがって求められるため、式(2)のyk’を、式(1)にしたがって置き換えると、次式が得られる。
【数3】
【0010】
但し、式(3)において、xn,kは、第kサンプルのHD画素についての予測タップを構成するn番目のSD画素を表す。
【0011】
式(3)の予測誤差ekを0とするタップ係数wnが、HD画素を予測するのに最適なものとなるが、すべてのHD画素について、そのようなタップ係数wnを求めることは、一般には困難である。
【0012】
そこで、タップ係数wnが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適なタップ係数wnは、統計的な誤差としての、例えば、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。
【数4】
【0013】
但し、式(4)において、Kは、HD画素ykと、そのHD画素ykについての予測タップを構成するSD画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数を表す。
【0014】
式(4)の自乗誤差の総和Eを最小(極小)にするタップ係数wnは、その総和Eをタップ係数wnで偏微分したものを0とするものであり、従って、次式を満たす必要がある。
【数5】
【0015】
そこで、上述の式(3)をタップ係数wnで偏微分すると、次式が得られる。
【数6】
【0016】
式(5)と(6)から、次式が得られる。
【数7】
【0017】
式(7)のekに、式(3)を代入することにより、式(7)は、式(8)に示す正規方程式で表すことができる。
【数8】
【0018】
式(8)の正規方程式は、HD画素ykとSD画素xn,kのセットを、ある程度の数だけ用意することで、求めるべきタップ係数wnの数と同じ数だけたてることができ、従って、式(8)を解くことで(但し、式(8)を解くには、式(8)において、タップ係数wnにかかる左辺の行列が正則である必要がある)、最適なタップ係数wnを求めることができる。なお、式(8)を解くにあたっては、例えば、掃き出し法(Gauss−Jordanの消去法)などを採用することが可能である。
【0019】
以上のように、多数のHD画素y1,y2,・・・,yKを、タップ係数の学習の教師となる教師データとするとともに、各HD画素ykについての予測タップを構成するSD画素x1,k,x2,k,・・・,xN,kを、タップ係数の学習の生徒となる生徒データとして、式(8)を解くことにより、最適なタップ係数wnを求める学習を行っておき、さらに、そのタップ係数wnを用い、式(1)により、SD画像を、HD画像にマッピング(変換)するのが適応処理である。
【0020】
以下、タップ係数は、予測係数とも称する。
【0021】
なお、適応処理は、SD画像には含まれていないが、HD画像に含まれる成分が再現される点で、例えば、単なる補間処理等とは異なる。即ち、適応処理では、式(1)だけを見る限りは、いわゆる補間フィルタを用いての補間処理と同一であるが、その補間フィルタのタップ係数に相当するタップ係数wnが、教師データとしてのHD画像と生徒データとしてのSD画像とを用いての学習により求められるため、HD画像に含まれる成分を再現することができる。このことから、適応処理は、いわば画像の創造(解像度想像)作用がある処理ということができる。
【0022】
ここで、タップ係数wnの学習では、教師データyと生徒データxとの組み合わせとして、どのようなものを採用するかによって、各種の変換を行うタップ係数wnを求めることができる。
【0023】
即ち、例えば、教師データyとして、HD画像を採用するとともに、生徒データxとして、そのHD画像にノイズやぼけを付加したSD画像を採用した場合には、画像を、そのノイズやぼけを除去した画像に変換するタップ係数wnを得ることができる。また、例えば、教師データyとして、HD画像を採用するとともに、生徒データxとして、そのHD画像の解像度を劣化させたSD画像を採用した場合には、画像を、その解像度を向上させた画像に変換するタップ係数wnを得ることができる。さらに、例えば、教師データyとして、画像を採用するとともに、生徒データxとして、その画像をDCT(Discrete Cosine Transform)変換したDCT係数を採用した場合には、DCT係数を画像に変換するタップ係数wnを得ることができる。
【0024】
次に、クラス分類適応処理を実行する、従来の画像処理装置の構成を説明する。
【0025】
図1は、クラス分類適応処理により、SD画像である入力画像から、HD画像である出力画像を創造する、従来の画像処理装置の構成を説明するブロック図である。
【0026】
図1に構成を示す画像処理装置において、入力画像は、クラスタップ抽出部11および予測タップ抽出部15に供給される。
【0027】
クラスタップ抽出部11は、注目している画素(以下、注目画素とも称する)に対応する、所定の画素であるクラスタップを入力画像から抽出し、抽出したクラスタップを入力画像と共に特徴量検出部12に供給する。特徴量検出部12は、クラスタップ抽出部11を介して供給された入力画像から、注目画素に対応する画像の特徴量を検出し、クラスタップと共に検出した特徴量をクラス分類部13に供給する。画像の特徴量とは、動き、またはフレーム内の画素値の変化などをいう。
【0028】
クラス分類部13は、特徴量検出部12から供給されたクラスタップおよび特徴量を基に、注目画素をクラス分けし、クラス分けの結果を示すクラスコードを係数メモリ14および予測タップ抽出部15に供給する。
【0029】
係数メモリ14は、クラス分類部13から供給されたクラスコードを基に、注目画素のクラスに対応するタップ係数を画素値演算部16に供給する。
【0030】
予測タップ抽出部15は、クラス分類部13から供給されたクラスコードを基に、注目画素に対応して、所定の予測タップを入力画像から抽出する。予測タップ抽出部15は、抽出した予測タップを画素値演算部16に供給する。
【0031】
画素値予測部16は、予測タップ抽出部15から供給された予測タップおよび係数メモリ14から供給されたタップ係数から、式(1)に示す演算により、HD画像の注目画素の画素値を予測する。画素値予測部16は、HD画像の全ての画素を順次注目画素として予測された画素値からなるHD画像を出力する。
【0032】
図2は、クラス分類適応処理により、SD画像である入力画像から、HD画像である出力画像を創造する、従来の画像処理装置による画像の創造の処理を説明するフローチャートである。
【0033】
ステップS11において、クラスタップ抽出部11は、SD画像である入力画像から、選択された注目画素に対応するクラスタップを抽出する。ステップS12において、特徴量検出部12は、入力画像から、注目画素に対応する特徴量を検出する。
【0034】
ステップS13において、クラス分類部13は、ステップS11の処理により抽出されたクラスタップ、およびステップS12の処理により検出された特徴量を基に、注目画素のクラスを分類する。
【0035】
ステップS14において、予測タップ抽出部15は、ステップS13の処理によるクラスの分類の結果に対応して、入力画像から、注目画素に対応する予測タップを抽出する。ステップS15において、係数メモリ14は、ステップS13の処理によるクラスの分類の結果に対応して、予め記憶している予測係数のなかから、分類されたクラスに対応する予測係数を読み出す。
【0036】
ステップS16において、画素値予測部16は、ステップS14の処理で抽出された予測タップ、およびステップS15の処理で読み出された予測係数を基に、適応処理により注目画素に対応する画素値を予測する。
【0037】
ステップS17において、画像処理装置は、全ての画素について予測が終了したか否かを判定し、全ての画素について予測が終了していないと判定された場合、次の画素を注目画素として、ステップS11に戻り、クラスの分類および適応の処理を繰り返す。
【0038】
ステップS17において、全ての画素について予測が終了したと判定された場合、処理は終了する。
【0039】
図3は、SD画像である入力画像からHD画像である出力画像を創造するクラス分類適応処理に使用される予測係数を生成する、従来の画像処理装置の構成を説明するブロック図である。
【0040】
図3に示す画像処理装置に入力される入力画像は、HD画像である教師画像であり、生徒画像生成部31および教師画素抽出部38に供給される。教師画像に含まれる画素(の画素値)は、教師データとして使用される。
【0041】
生徒画像生成部31は、入力されたHD画像である教師画像から、画素を間引いて、教師画像に対応するSD画像である生徒画像を生成し、生成した生徒画像を画像メモリ32に供給する。
【0042】
画像メモリ32は、生徒画像生成部31から供給されたSD画像である生徒画像を記憶し、記憶している生徒画像をクラスタップ抽出部33および予測タップ抽出部36に供給する。
【0043】
クラスタップ抽出部33は、注目画素を順次選択し、選択された注目画素に対応して生徒画像からクラスタップを抽出し、生徒画像と共に抽出されたクラスタップを特徴量検出部34に供給する。特徴量検出部34は、注目画素に対応して、生徒画像から特徴量を検出し、検出された特徴量をクラスタップと共にクラス分類部35に供給する。
【0044】
クラス分類部35は、特徴量検出部34から供給されたクラスタップおよび特徴量を基に、注目画素のクラスを分類し、分類されたクラスを示すクラスコードを予測タップ抽出部36および学習メモリ39に供給する。
【0045】
予測タップ抽出部36は、クラス分類部35から供給されたクラスコードを基に、画像メモリ32から供給された生徒画像から、分類されたクラスに対応する予測タップを抽出して、抽出した予測タップを足し込み演算部37に供給する。
【0046】
教師画素抽出部38は、教師データ、すなわち、教師画像の注目画素を抽出して、抽出した教師データを足し込み演算部37に供給する。
【0047】
足し込み演算部37は、式(8)の正規方程式に、HD画素である教師データおよびSD画素である予測タップを足し込み、教師データおよび予測タップを足し込んだ正規方程式を学習メモリ39に供給する。
【0048】
学習メモリ39は、クラス分類部35から供給されたクラスコードを基に、足し込み演算部37から供給された正規方程式をクラス毎に記憶する。学習メモリ39は、クラス毎に記憶している、教師データおよび予測タップが足し込まれた正規方程式を正規方程式演算部40に供給する。
【0049】
正規方程式演算部40は、学習メモリ39から供給された正規方程式を掃き出し法により解いて、クラス毎に予測係数を求める。正規方程式演算部40は、クラス毎の予測係数を係数メモリ41に供給する。
【0050】
係数メモリ41は、正規方程式演算部40から供給された、クラス毎の予測係数を記憶する。
【0051】
図4は、SD画像である入力画像からHD画像である出力画像を創造するクラス分類適応処理に使用される予測係数を生成する、従来の画像処理装置による学習の処理を説明するフローチャートである。
【0052】
ステップS31において、生徒画像生成部31は、教師画像である入力画像から生徒画像を生成する。ステップS32において、クラスタップ抽出部33は、注目画素を順次選択し、選択された注目画素に対応するクラスタップを生徒画像から抽出する。
【0053】
ステップS33において、特徴量検出部34は、生徒画像から、注目画素に対応する特徴量を検出する。ステップS34において、クラス分類部35は、ステップS32の処理により抽出されたクラスタップ、およびステップS33の処理により検出された特徴量を基に、注目画素のクラスを分類する。
【0054】
ステップS35において、予測タップ抽出部36は、ステップS34の処理により分類されたクラスを基に、注目画素に対応する予測タップを生徒画像から抽出する。
【0055】
ステップS36において、教師画素抽出部38は、教師画像である入力画像から注目画素、すなわち教師画素(教師データ)を抽出する。
【0056】
ステップS37において、足し込み演算部37は、ステップS35の処理で抽出された予測タップ、およびステップS36の処理で抽出された教師画素(教師データ)を正規方程式に足し込む演算を実行する。
【0057】
ステップS38において、画像処理装置は、教師画像の全画素について足し込みの処理が終了したか否かを判定し、全画素について足し込みの処理が終了していないと判定された場合、ステップS32に戻り、まだ注目画素とされていない画素を注目画素として、予測タップおよび教師画素を抽出して、正規方程式に足し込む処理を繰り返す。
【0058】
ステップS38において、教師画像の全画素について足し込みの処理が終了したと判定された場合、ステップS39に進み、正規方程式演算部40は、予測タップおよび教師画素が足し込まれた正規方程式を演算して、予測係数を求める。
【0059】
ステップS40において、画像処理装置は、全クラスの予測係数を演算したか否かを判定し、全クラスの予測係数を演算していないと判定された場合、ステップS39に戻り、正規方程式を演算して、予測係数を求める処理を繰り返す。
【0060】
ステップS40において、全クラスの予測係数を演算したと判定された場合、処理は終了する。
【0061】
また、入力画像のレベル分布パターンに基づいて、入力画像をクラス分類するだけでなく、入力画像の動きに基づいて、入力画像をクラス分類して、クラスコードを発生しているものもある(特許文献1参照)。
【0062】
【特許文献1】
特開平9−74543号公報
【0063】
【発明が解決しようとする課題】
しかしながら、画像データのデータの定常性を考慮した画像処理はこれまで考えられていなかった。
【0064】
本発明はこのような状況に鑑みてなされたものであり、データの定常性を利用して、より正確で、より精度の高い処理結果を得ることができるようにすることを目的とする。
【0065】
【課題を解決するための手段】
本発明の画像処理装置は、高質画像データ内の第1の注目画素に対応する、入力画像データ内の複数の第1の周辺画素の、現実世界の光信号の定常性に対応する画像データの第1の定常性を検出し、第1の注目画素に時間的または空間的に隣接する高質画像データ内の第2の注目画素に対応する、入力画像データ内の複数の第2の周辺画素の、現実世界の光信号の定常性に対応する画像データの第2の定常性を検出する画像データ定常性検出手段と、画像データ定常性検出手段により検出された画像データの第1の定常性に基づいて、第1の注目画素に対応する、入力画像データ内の複数の第3の周辺画素を抽出し、画像データ定常性検出手段により検出された画像データの第2の定常性に基づいて、第2の注目画素に対応する、入力画像データ内の複数の第4の周辺画素を抽出する第1の抽出手段と、画像データ定常性検出手段により検出された画像データの第1の定常性に基づいて、第1の注目画素に対応する、入力画像データ内の複数の第5の周辺画素を抽出し、画像データ定常性検出手段により検出された画像データの第2の定常性に基づいて、第2の注目画素に対応する、入力画像データ内の複数の第6の周辺画素を抽出する第2の抽出手段と、第1の抽出手段により抽出された複数の第3の周辺画素の第1の特徴量を検出し、第1の抽出手段により抽出された複数の第4の周辺画素の第2の特徴量を検出する第1の特徴量検出手段と、第1の特徴量検出手段により検出された第1の特徴量に基づいて、第2の抽出手段により抽出された複数の第5の周辺画素から第1の注目画素を予測し、第1の特徴量検出手段により検出された第2の特徴量に基づいて、第2の抽出手段により抽出された複数の第6の周辺画素から第2の注目画素を予測し、第1の注目画素の第1の予測値および第2の注目画素の第2の予測値を出力する第1の予測手段と、第1の予測手段により予測された第1の注目画素の第1の予測値と、第1の予測手段により予測された第2の注目画素の第2の予測値と、少なくとも第1の注目画素と第2の注目画素とを時間方向または空間方向に対して包含する位置に配される入力画像データ内の対応画素の画素値との関係を検出し、検出結果に応じて第1の予測手段から出力される第1の注目画素の第1の予測値および第2の注目画素の第2の予測値を選択的に出力する選択出力手段とを含むことを特徴とする。
【0066】
画像処理装置は、高質画像データ内の第1の注目画素に対応する、入力画像データ内の複数の第7の周辺画素を抽出し、高質画像データ内の第2の注目画素に対応する、入力画像データ内の複数の第8の周辺画素を抽出する第3の抽出手段と、第1の注目画素に対応する、入力画像データ内の複数の第9の周辺画素を抽出し、第2の注目画素に対応する、入力画像データ内の複数の第10の周辺画素を抽出する第4の抽出手段と、第3の抽出手段により抽出された複数の第7の周辺画素の第3の特徴量を検出し、第3の抽出手段により抽出された複数の第8の周辺画素の第4の特徴量を検出する第2の特徴量検出手段と、第2の特徴量検出手段により検出された第3の特徴量に基づいて、第4の抽出手段により抽出された複数の第9の周辺画素から第1の注目画素を予測し、第2の特徴量検出手段により検出された第4の特徴量に基づいて、第4の抽出手段により抽出された複数の第10の周辺画素から第2の注目画素を予測し、第1の注目画素の第3の予測値および第2の注目画素の第4の予測値を出力する第2の予測手段とをさらに設け、選択出力手段は、第1の予測手段により予測された第1の注目画素の第1の予測値と、第1の予測手段により予測された第2の注目画素の第2の予測値と、入力画像データの対応画素の画素値との関係を検出し、検出結果に応じて第1の予測値と第2の予測値とからなる予測値の第1の組および第3の予測値と第4の予測値とからなる予測値の第2の組のうちいずれか一方を選択的に出力するようにすることができる。
【0067】
選択出力手段は、対応画素の画素値から、第1の注目画素の第1の予測値および第2の注目画素の第2の予測値を引き算した結果の絶対値が、所定の閾値未満であるとき、第1の予測値と第2の予測値とからなる予測値の第1の組を選択的に出力するようにすることができる。
【0068】
本発明の画像処理方法は、高質画像データ内の第1の注目画素に対応する、入力画像データ内の複数の第1の周辺画素の、現実世界の光信号の定常性に対応する画像データの第1の定常性を検出し、第1の注目画素に時間的または空間的に隣接する高質画像データ内の第2の注目画素に対応する、入力画像データ内の複数の第2の周辺画素の、現実世界の光信号の定常性に対応する画像データの第2の定常性を検出する画像データ定常性検出ステップと、画像データ定常性検出ステップにおいて検出された画像データの第1の定常性に基づいて、第1の注目画素に対応する、入力画像データ内の複数の第3の周辺画素を抽出し、画像データ定常性検出ステップにおいて検出された画像データの第2の定常性に基づいて、第2の注目画素に対応する、入力画像データ内の複数の第4の周辺画素を抽出する第1の抽出ステップと、画像データ定常性検出ステップにおいて検出された画像データの第1の定常性に基づいて、第1の注目画素に対応する、入力画像データ内の複数の第5の周辺画素を抽出し、画像データ定常性検出ステップにおいて検出された画像データの第2の定常性に基づいて、第2の注目画素に対応する、入力画像データ内の複数の第6の周辺画素を抽出する第2の抽出ステップと、第1の抽出ステップにおいて抽出された複数の第3の周辺画素の第1の特徴量を検出し、第1の抽出ステップにおいて抽出された複数の第4の周辺画素の第2の特徴量を検出する特徴量検出ステップと、特徴量検出ステップにおいて検出された第1の特徴量に基づいて、第2の抽出ステップにおいて抽出された複数の第5の周辺画素から第1の注目画素を予測し、特徴量検出ステップにおいて検出された第2の特徴量に基づいて、第2の抽出ステップにおいて抽出された複数の第6の周辺画素から第2の注目画素を予測し、第1の注目画素の第1の予測値および第2の注目画素の第2の予測値を出力する予測ステップと、予測ステップにおいて予測された第1の注目画素の第1の予測値と、予測ステップにおいて予測された第2の注目画素の第2の予測値と、少なくとも第1の注目画素と第2の注目画素とを時間方向または空間方向に対して包含する位置に配される入力画像データ内の対応画素の画素値との関係を検出し、検出結果に応じて第1の注目画素の第1の予測値および第2の注目画素の第2の予測値を選択的に出力する選択出力ステップとを含むことを特徴とする。
【0069】
本発明の第1の記録媒体のプログラムは、高質画像データ内の第1の注目画素に対応する、入力画像データ内の複数の第1の周辺画素の、現実世界の光信号の定常性に対応する画像データの第1の定常性を検出し、第1の注目画素に時間的または空間的に隣接する高質画像データ内の第2の注目画素に対応する、入力画像データ内の複数の第2の周辺画素の、現実世界の光信号の定常性に対応する画像データの第2の定常性を検出する画像データ定常性検出ステップと、画像データ定常性検出ステップにおいて検出された画像データの第1の定常性に基づいて、第1の注目画素に対応する、入力画像データ内の複数の第3の周辺画素を抽出し、画像データ定常性検出ステップにおいて検出された画像データの第2の定常性に基づいて、第2の注目画素に対応する、入力画像データ内の複数の第4の周辺画素を抽出する第1の抽出ステップと、画像データ定常性検出ステップにおいて検出された画像データの第1の定常性に基づいて、第1の注目画素に対応する、入力画像データ内の複数の第5の周辺画素を抽出し、画像データ定常性検出ステップにおいて検出された画像データの第2の定常性に基づいて、第2の注目画素に対応する、入力画像データ内の複数の第6の周辺画素を抽出する第2の抽出ステップと、第1の抽出ステップにおいて抽出された複数の第3の周辺画素の第1の特徴量を検出し、第1の抽出ステップにおいて抽出された複数の第4の周辺画素の第2の特徴量を検出する特徴量検出ステップと、特徴量検出ステップにおいて検出された第1の特徴量に基づいて、第2の抽出ステップにおいて抽出された複数の第5の周辺画素から第1の注目画素を予測し、特徴量検出ステップにおいて検出された第2の特徴量に基づいて、第2の抽出ステップにおいて抽出された複数の第6の周辺画素から第2の注目画素を予測し、第1の注目画素の第1の予測値および第2の注目画素の第2の予測値を出力する予測ステップと、予測ステップにおいて予測された第1の注目画素の第1の予測値と、予測ステップにおいて予測された第2の注目画素の第2の予測値と、少なくとも第1の注目画素と第2の注目画素とを時間方向または空間方向に対して包含する位置に配される入力画像データ内の対応画素の画素値との関係を検出し、検出結果に応じて第1の注目画素の第1の予測値および第2の注目画素の第2の予測値を選択的に出力する選択出力ステップとを含むことを特徴とする。
【0070】
本発明の第1のプログラムは、コンピュータに、高質画像データ内の第1の注目画素に対応する、入力画像データ内の複数の第1の周辺画素の、現実世界の光信号の定常性に対応する画像データの第1の定常性を検出し、第1の注目画素に時間的または空間的に隣接する高質画像データ内の第2の注目画素に対応する、入力画像データ内の複数の第2の周辺画素の、現実世界の光信号の定常性に対応する画像データの第2の定常性を検出する画像データ定常性検出ステップと、画像データ定常性検出ステップにおいて検出された画像データの第1の定常性に基づいて、第1の注目画素に対応する、入力画像データ内の複数の第3の周辺画素を抽出し、画像データ定常性検出ステップにおいて検出された画像データの第2の定常性に基づいて、第2の注目画素に対応する、入力画像データ内の複数の第4の周辺画素を抽出する第1の抽出ステップと、画像データ定常性検出ステップにおいて検出された画像データの第1の定常性に基づいて、第1の注目画素に対応する、入力画像データ内の複数の第5の周辺画素を抽出し、画像データ定常性検出ステップにおいて検出された画像データの第2の定常性に基づいて、第2の注目画素に対応する、入力画像データ内の複数の第6の周辺画素を抽出する第2の抽出ステップと、第1の抽出ステップにおいて抽出された複数の第3の周辺画素の第1の特徴量を検出し、第1の抽出ステップにおいて抽出された複数の第4の周辺画素の第2の特徴量を検出する特徴量検出ステップと、特徴量検出ステップにおいて検出された第1の特徴量に基づいて、第2の抽出ステップにおいて抽出された複数の第5の周辺画素から第1の注目画素を予測し、特徴量検出ステップにおいて検出された第2の特徴量に基づいて、第2の抽出ステップにおいて抽出された複数の第6の周辺画素から第2の注目画素を予測し、第1の注目画素の第1の予測値および第2の注目画素の第2の予測値を出力する予測ステップと、予測ステップにおいて予測された第1の注目画素の第1の予測値と、予測ステップにおいて予測された第2の注目画素の第2の予測値と、少なくとも第1の注目画素と第2の注目画素とを時間方向または空間方向に対して包含する位置に配される入力画像データ内の対応画素の画素値との関係を検出し、検出結果に応じて第1の注目画素の第1の予測値および第2の注目画素の第2の予測値を選択的に出力する選択出力ステップとを実行させることを特徴とする。
【0071】
本発明の学習装置は、高質画像データ内の注目画素に対応する入力画像データ内の複数の第1の周辺画素の、現実世界の光信号の定常性に対応する画像データの定常性を検出する画像データ定常性検出手段と、画像データ定常性検出手段により検出された画像データの定常性に基づいて、高質画像データ内の注目画素に対応する、入力画像データ内の複数の第2の周辺画素を抽出する第1の抽出手段と、画像データ定常性検出手段により検出された画像データの定常性に基づいて、注目画素に対応する、入力画像データ内の複数の第3の周辺画素を抽出する第2の抽出手段と、第1の抽出手段により抽出された複数の第2の周辺画素の特徴量を検出する特徴量検出手段と、特徴量検出手段により検出された特徴量毎に、第2の抽出手段により抽出された複数の第3の周辺画素から注目画素を予測するための予測手段を学習する学習手段とを含むことを特徴とする。
【0072】
本発明の学習方法は、高質画像データ内の注目画素に対応する入力画像データ内の複数の第1の周辺画素の、現実世界の光信号の定常性に対応する画像データの定常性を検出する画像データ定常性検出ステップと、画像データ定常性検出ステップにおいて検出された画像データの定常性に基づいて、高質画像データ内の注目画素に対応する、入力画像データ内の複数の第2の周辺画素を抽出する第1の抽出ステップと、画像データ定常性検出ステップにおいて検出された画像データの定常性に基づいて、注目画素に対応する、入力画像データ内の複数の第3の周辺画素を抽出する第2の抽出ステップと、第1の抽出ステップにおいて抽出された複数の第2の周辺画素の特徴量を検出する特徴量検出ステップと、特徴量検出ステップにおいて検出された特徴量毎に、第2の抽出ステップにおいて抽出された複数の第3の周辺画素から注目画素を予測するための予測手段を学習する学習ステップとを含むことを特徴とする。
【0073】
本発明の第2の記録媒体のプログラムは、高質画像データ内の注目画素に対応する入力画像データ内の複数の第1の周辺画素の、現実世界の光信号の定常性に対応する画像データの定常性を検出する画像データ定常性検出ステップと、画像データ定常性検出ステップにおいて検出された画像データの定常性に基づいて、高質画像データ内の注目画素に対応する、入力画像データ内の複数の第2の周辺画素を抽出する第1の抽出ステップと、画像データ定常性検出ステップにおいて検出された画像データの定常性に基づいて、注目画素に対応する、入力画像データ内の複数の第3の周辺画素を抽出する第2の抽出ステップと、第1の抽出ステップにおいて抽出された複数の第2の周辺画素の特徴量を検出する特徴量検出ステップと、特徴量検出ステップにおいて検出された特徴量毎に、第2の抽出ステップにおいて抽出された複数の第3の周辺画素から注目画素を予測するための予測手段を学習する学習ステップとを含むことを特徴とする。
【0074】
本発明の第2のプログラムは、コンピュータに、高質画像データ内の注目画素に対応する入力画像データ内の複数の第1の周辺画素の、現実世界の光信号の定常性に対応する画像データの定常性を検出する画像データ定常性検出ステップと、画像データ定常性検出ステップにおいて検出された画像データの定常性に基づいて、高質画像データ内の注目画素に対応する、入力画像データ内の複数の第2の周辺画素を抽出する第1の抽出ステップと、画像データ定常性検出ステップにおいて検出された画像データの定常性に基づいて、注目画素に対応する、入力画像データ内の複数の第3の周辺画素を抽出する第2の抽出ステップと、第1の抽出ステップにおいて抽出された複数の第2の周辺画素の特徴量を検出する特徴量検出ステップと、特徴量検出ステップにおいて検出された特徴量毎に、第2の抽出ステップにおいて抽出された複数の第3の周辺画素から注目画素を予測するための予測手段を学習する学習ステップとを実行させることを特徴とする。
【0075】
本発明の画像処理装置および方法、第1の記録媒体、並びに第1のプログラムにおいては、高質画像データ内の第1の注目画素に対応する、入力画像データ内の複数の第1の周辺画素の、現実世界の光信号の定常性に対応する画像データの第1の定常性が検出され、第1の注目画素に時間的または空間的に隣接する高質画像データ内の第2の注目画素に対応する、入力画像データ内の複数の第2の周辺画素の、現実世界の光信号の定常性に対応する画像データの第2の定常性が検出され、検出された画像データの第1の定常性に基づいて、第1の注目画素に対応する、入力画像データ内の複数の第3の周辺画素が抽出され、検出された画像データの第2の定常性に基づいて、第2の注目画素に対応する、入力画像データ内の複数の第4の周辺画素が抽出され、検出された画像データの第1の定常性に基づいて、第1の注目画素に対応する、入力画像データ内の複数の第5の周辺画素が抽出され、検出された画像データの第2の定常性に基づいて、第2の注目画素に対応する、入力画像データ内の複数の第6の周辺画素が抽出され、抽出された複数の第3の周辺画素の第1の特徴量が検出され、抽出された複数の第4の周辺画素の第2の特徴量が検出され、検出された第1の特徴量に基づいて、抽出された複数の第5の周辺画素から第1の注目画素が予測され、検出された第2の特徴量に基づいて、抽出された複数の第6の周辺画素から第2の注目画素が予測され、第1の注目画素の第1の予測値および第2の注目画素の第2の予測値が出力され、予測された第1の注目画素の第1の予測値と、予測された第2の注目画素の第2の予測値と、少なくとも第1の注目画素と第2の注目画素とを時間方向または空間方向に対して包含する位置に配される入力画像データ内の対応画素の画素値との関係が検出され、検出結果に応じて第1の注目画素の第1の予測値および第2の注目画素の第2の予測値が選択的に出力される。
【0076】
画像処理装置は、独立した装置であっても良いし、画像処理を行うブロックであっても良い。
【0077】
本発明の学習装置および方法、第2の記録媒体、並びに第2のプログラムにおいては、高質画像データ内の注目画素に対応する入力画像データ内の複数の第1の周辺画素の、現実世界の光信号の定常性に対応する画像データの定常性が検出され、検出された画像データの定常性に基づいて、高質画像データ内の注目画素に対応する、入力画像データ内の複数の第2の周辺画素が抽出され、検出された画像データの定常性に基づいて、注目画素に対応する、入力画像データ内の複数の第3の周辺画素が抽出され、抽出された複数の第2の周辺画素の特徴量が検出され、検出された特徴量毎に、抽出された複数の第3の周辺画素から注目画素を予測するための予測手段が学習される。
【0078】
学習装置は、独立した装置であっても良いし、学習の処理を行うブロックであっても良い。
【0079】
【発明の実施の形態】
図5は、本発明に係る画像処理装置の一実施の形態の構成を示すブロック図である。図5に構成を示す画像処理装置は、入力画像を取得し、入力された入力画像に対して、画面の水平方向に2倍および垂直方向に2倍の解像度の画像を創造して出力する。
【0080】
図5に示す画像処理装置においては、例えば、入力画像の一例であるSD画像が入力され、入力されたSD画像からデータの定常性が検出され、検出されたデータの定常性を基に、SD画像に対して、クラス分類適応処理が施されることにより、HD画像が創造される。データの定常性については、後述する。
【0081】
すなわち、この画像処理装置は、データ定常性検出部101、クラスタップ抽出部102、特徴量検出部103、クラス分類部104、係数メモリ105、予測タップ抽出部106、および画素値予測部107から構成される。
【0082】
画像処理装置に入力された、空間解像度の創造の対象となる入力画像は、データ定常性検出部101、クラスタップ抽出部102、特徴量検出部103、および予測タップ抽出部106に供給される。
【0083】
データ定常性検出部101は、入力画像からデータの定常性を検出して、検出した定常性を示すデータ定常性情報をクラスタップ抽出部102および予測タップ抽出部106に供給する。データ定常性情報は、例えば、データの定常性を有する画素の領域の方向(時間方向および空間方向の角度または傾き)(以下、データの定常性の方向とも称する。)を含む。データ定常性検出部101の構成の詳細は、後述する。
【0084】
クラスタップ抽出部102は、クラス分類適応処理により求めようとするHD画像のHD画素のうちの1つを、順次、注目画素とする。そして、クラスタップ抽出部102は、データ定常性検出部101により検出されたデータの定常性に基いて、注目画素に対応する、入力画像の複数の周辺画素を抽出し、抽出した入力画像の複数の周辺画素をクラスタップとする。すなわち、クラスタップ抽出部102は、データ定常性検出部101により検出されたデータの定常性に基づいて、注目画素についてのクラス分類に用いるクラスタップを、入力画像から抽出し、抽出したクラスタップを特徴量検出部103に出力する。
【0085】
例えば、クラスタップ抽出部102は、データの定常性に基づいて、注目画素の位置から空間的または時間的に近い位置にある複数の画素を、入力された入力画像から抽出することによりクラスタップとし、特徴量検出部103に出力する。
【0086】
なお、データ定常性検出部101、クラスタップ抽出部102、および予測タップ抽出部106は、それぞれの内部の前段に、図示せぬフレームメモリを内蔵し、画像処理装置に入力されたSD画像を、例えば、フレーム(またはフィールド)単位で一時記憶する。本実施の形態では、データ定常性検出部101、クラスタップ抽出部102、および予測タップ抽出部106は、内蔵しているフレームメモリに、複数フレームの入力画像を、バンク切換によって記憶することができるようになっており、これにより、画像処理装置に入力される入力画像が動画であっても、その処理をリアルタイムで行うことができるようになっている。
【0087】
この場合、データ定常性検出部101、クラスタップ抽出部102、および予測タップ抽出部106のそれぞれにフレームメモリを設けることにより、データ定常性検出部101、クラスタップ抽出部102、および予測タップ抽出部106のそれぞれが、要求するフレームを即座に読み出すことができるようになり、より高速に処理を実行することができるようになる。
【0088】
また、画像処理装置は、入力側に1つのフレームメモリを設け、複数フレームの入力画像を、バンク切換によって記憶し、記憶した入力画像を、データ定常性検出部101、クラスタップ抽出部102、および予測タップ抽出部106に供給するようにしてもよい。この場合、1つのフレームメモリで足り、画像処理装置をより簡単な構成とすることができる。
【0089】
例えば、クラスタップ抽出部102は、データ定常性検出部101により検出されたデータの定常性に基づいて、注目画素について、注目画素の位置から近い横×縦が3×3個の画素を入力画像から抽出することによりクラスタップとする。
【0090】
このように、クラスタップ抽出部102は、抽出されたクラスタップを、特徴量検出部103に供給する。
【0091】
特徴量検出部103は、クラスタップまたは入力画像から特徴量を検出して、検出した特徴量をクラス分類部104に供給する。
【0092】
例えば、特徴量検出部103は、クラスタップまたは入力画像を基に、入力画像の画素の動きベクトルを検出して、検出した動きベクトルを特徴量としてクラス分類部104に供給する。また、例えば、特徴量検出部103は、クラスタップまたは入力画像を基に、クラスタップまたは入力画像の複数の画素の画素値の空間的または時間的な変化(アクティビティ)を検出して、検出した画素値の変化を特徴量としてクラス分類部104に供給する。
【0093】
さらに、例えば、特徴量検出部103は、クラスタップまたは入力画像を基に、クラスタップまたは入力画像の複数の画素の画素値の空間的な変化の傾きを検出して、検出した画素値の変化の傾きを特徴量としてクラス分類部104に供給する。
【0094】
なお、特徴量として、画素値の、ラプラシアン、ソーベル、または分散などを採用することができる。
【0095】
特徴量検出部103は、特徴量とは別に、クラスタップをクラス分類部104に供給する。
【0096】
クラス分類部104は、特徴量検出部103からの特徴量またはクラスタップに基づいて、1以上のクラスのうちのいずれかのクラスに注目画素をクラス分類し、その結果得られる注目画素のクラスに対応するクラスコードを、係数メモリ105と予測タップ抽出部106とに供給する。例えば、クラス分類部104は、クラスタップ抽出部102からのクラスタップを、1ビットADRC(Adaptive Dynamic Range Coding)処理し、その結果得られるADRCコードを、クラスコードとする。
【0097】
なお、KビットADRC処理においては、クラスタップを構成する入力画像の画素値の最大値MAXと最小値MINが検出され、DR=MAX−MINを、局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップを構成する画素値がKビットに再量子化される。即ち、クラスタップを構成する各画素値から、最小値MINが減算され、その減算値がDR/2Kで除算(量子化)される。従って、クラスタップが、1ビットADRC処理された場合には、そのクラスタップを構成する各画素値は1ビットとされることになる。そして、この場合、以上のようにして得られる、クラスタップを構成する各画素値についての1ビットの値を、所定の順番で並べたビット列が、ADRCコードとして出力される。
【0098】
ただし、クラス分類は、その他、例えば、クラスタップを構成する画素値を、ベクトルのコンポーネントとみなし、そのベクトルをベクトル量子化すること等によって行うことも可能である。また、クラス分類としては、1クラスのクラス分類を行うことも可能である。この場合、クラス分類部104は、どのようなクラスタップが供給されても、固定のクラスコードを出力するものとなる。
【0099】
また、例えば、クラス分類部104は、特徴量検出部103からの特徴量を、そのままクラスコードとする。さらに、例えば、クラス分類部104は、特徴量検出部103からの複数の特徴量を、直交変換して、得られた値をクラスコードとする。
【0100】
例えば、クラス分類部104は、クラスタップを基にしたクラスコード、および特徴量を基にしたクラスコードを結合し(合成し)、最終的なクラスコードを生成して、最終的なクラスコードを係数メモリ105と予測タップ抽出部106とに供給する。
【0101】
なお、クラスタップを基にしたクラスコード、および特徴量を基にしたクラスコードのいずれか一方を、最終的なクラスコードとするようにしてもよい。
【0102】
係数メモリ105は、学習の教師となる、出力画像の一例であるHD画像のHD画素である教師データと、学習の生徒となる、入力画像の一例であるSD画像の画素値である生徒データとの関係を、1以上のクラスごとに学習することにより得られたタップ係数を記憶している。そして、係数メモリ105は、クラス分類部104から注目画素のクラスコードが供給されると、そのクラスコードに対応するアドレスに記憶されているタップ係数を読み出すことにより、注目画素のクラスのタップ係数を取得し、画素値予測部107に供給する。なお、係数メモリ105に記憶されるタップ係数の学習方法についての詳細は、後述する。
【0103】
予測タップ抽出部106は、データ定常性検出部101により検出されたデータの定常性に基づいて、注目画素に対応する、入力画像の複数の周辺画素を抽出し、抽出した入力画像の複数の周辺画素を予測タップとする。すなわち、予測タップ抽出部106は、データ定常性検出部101により検出されたデータの定常性およびクラス分類部104から供給されるクラスコードを基に、画素値予測部107において注目画素(の予測値)を求めるのに用いる予測タップを入力画像から抽出し、抽出した予測タップを画素値予測部107に供給する。
【0104】
例えば、予測タップ抽出部106は、データの定常性に基づいて、注目画素の位置から空間的または時間的に近い位置にある複数の画素値を、入力画像から抽出することにより予測タップとし、画素値予測部107に供給する。例えば、予測タップ抽出部106は、データ定常性検出部101により検出されたデータの定常性に基づいて、注目画素について、注目画素の位置から近い横×縦が3×3個の画素を、入力画像から抽出することにより予測タップとする。
【0105】
なお、クラスタップとする画素値と、予測タップとする画素値とは、同一であっても、異なるものであってもよい。即ち、クラスタップと予測タップは、それぞれ独立に構成(生成)することが可能である。また、予測タップとする画素値は、クラス毎に異なるものであっても、同一であってもよい。
【0106】
なお、クラスタップや予測タップのタップ構造は、3×3個の画素値に限定されるものではない。
【0107】
画素値予測部107は、係数メモリ105から供給される、注目画素のクラスについてのタップ係数w1,w2,・・・と、予測タップ抽出部106からの予測タップ(を構成する画素値)x1,x2,・・・とを用いて、式(1)に示した積和演算を行うことにより、注目画素y(の予測値)を予測し、これを、HD画素の画素値とする。画素値予測部107は、このように演算された画素値からなるHD画像を出力画像として出力する。
【0108】
以上のように、図5に構成を示す画像処理装置は、入力された入力画像に対応する、より高解像度の出力画像を創造して、創造した出力画像を出力することができる。
【0109】
次に、図6のフローチャートを参照して、図5の画像処理装置が行う、入力画像からより高解像度の出力画像を創造する画像創造処理について説明する。
【0110】
ステップS101において、データ定常性検出部101は、定常性の検出の処理を実行する。データ定常性検出部101は、入力画像に含まれているデータの定常性を検出して、検出したデータの定常性を示すデータ定常性情報をクラスタップ抽出部102および予測タップ抽出部106に供給する。例えば、データ定常性検出部101は、入力画像からデータの定常性の方向を検出する。
【0111】
ここで、データの定常性、データ定常性検出部101の構成、およびデータの定常性の抽出の処理について、具体的に説明する。
【0112】
まず、センサによって射影されたデータである入力画像について説明する。
【0113】
空間、時間、および質量の次元を有する実世界の事象(現象)は、センサにより取得され、データ化される。実世界の事象とは、光(画像)、音声、圧力、温度、質量、濃度、明るさ/暗さ、またはにおいなどをいう。実世界の事象は、時空間方向に分布している。例えば、実世界の画像は、実世界の光の強度の時空間方向の分布である。
【0114】
センサに注目すると、空間、時間、および質量の次元を有する実世界の事象のうち、センサが取得可能な、実世界の事象が、センサにより、データに変換される。センサによって、実世界の事象を示す情報が取得されるとも言える。
【0115】
すなわち、センサは、実世界の事象を示す情報を、データに変換する。空間、時間、および質量の次元を有する実世界の事象(現象)を示す情報である信号がセンサにより取得され、データ化されるとも言える。
【0116】
以下、実世界における、画像、音声、圧力、温度、質量、濃度、明るさ/暗さ、またはにおいなどの事象の分布を、実世界の事象を示す情報である信号とも称する。また、実世界の事象を示す情報である信号を、単に、実世界の信号とも称する。本明細書において、信号は、現象および事象を含み、送信側に意思がないものも含むものとする。
【0117】
センサから出力されるデータ(検出信号)は、実世界の事象を示す情報を、実世界に比較して、より低い次元の時空間に射影して得られた情報である。例えば、動画像の画像データであるデータは、実世界の3次元の空間方向および時間方向の画像が、2次元の空間方向、および時間方向からなる時空間に射影されて得られた情報である。また、例えば、データがデジタルデータであるとき、データは、サンプリングの単位に応じて、丸められている。データがアナログデータであるとき、データにおいて、ダイナミックレンジに応じて、情報が圧縮されているか、またはリミッタなどにより、情報の一部が削除されている。
【0118】
このように、所定の次元を有する実世界の事象を示す情報である信号をデータ(検出信号)に射影することにより、実世界の事象を示す情報の一部が欠落する。すなわち、センサが出力するデータにおいて、実世界の事象を示す情報の一部が欠落している。
【0119】
しかしながら、射影により実世界の事象を示す情報の一部が欠落しているものの、データは、実世界の事象(現象)を示す情報である信号を推定するための有意情報を含んでいる。
【0120】
本発明においては、実世界の情報である信号を推定するための有意情報として、データに含まれる定常性を有する情報を利用する。定常性は、新たに定義する概念である。
【0121】
ここで、実世界に注目すると、実世界の事象は、所定の次元の方向に一定の特徴を含む。例えば、実世界の物体(有体物)において、空間方向または時間方向に、形状、模様、若しくは色彩などが連続するか、または形状、模様、若しくは色彩などのパターンが繰り返す。
【0122】
従って、実世界の事象を示す情報には、所定の次元の方向に一定の特徴が含まれることになる。
【0123】
より具体的な例を挙げれば、糸、紐、またはロープなどの線状の物体は、長さ方向の任意の位置において、断面形状が同じであるという長さ方向、すなわち空間方向に一定の特徴を有する。長さ方向の任意の位置において、断面形状が同じであるという空間方向に一定の特徴は、線状の物体が長いという特徴から生じる。
【0124】
従って、線状の物体の画像は、長さ方向の任意の位置において、断面形状が同じであるという長さ方向、すなわち空間方向に一定の特徴を有している。
【0125】
また、空間方向に広がりを有する有体物である、単色の物体は、部位にかかわらず、同一の色を有するという空間方向に一定の特徴を有していると言える。
【0126】
同様に、空間方向に広がりを有する有体物である、単色の物体の画像は、部位にかかわらず、同一の色を有するという空間方向に一定の特徴を有している。
【0127】
このように、実世界(現実世界)の事象は、所定の次元の方向に一定の特徴を有しているので、実世界の信号は、所定の次元の方向に一定の特徴を有する。
【0128】
本明細書において、このような所定の次元の方向に一定の特徴を定常性と称する。実世界(現実世界)の信号の定常性とは、実世界(現実世界)の事象を示す信号が有している、所定の次元の方向に一定の特徴をいう。
【0129】
実世界(現実世界)には、このような定常性が無数に存在する。
【0130】
次に、データに注目すると、データは、センサにより、所定の次元を有する実世界の事象を示す情報である信号が射影されたものであるので、実世界の信号の定常性に対応する定常性を含んでいる。データは、実世界の信号の定常性が射影された定常性を含んでいるとも言える。
【0131】
しかしながら、上述したように、センサが出力するデータにおいて、実世界の情報の一部が欠落しているので、データから、実世界(現実世界)の信号に含まれる定常性の一部が欠落してしまう。
【0132】
換言すれば、データは、データの定常性として、実世界(現実世界)の信号の定常性の中の、一部の定常性を含む。データの定常性とは、データが有している、所定の次元の方向に一定の特徴である。
【0133】
本発明においては、実世界の事象を示す情報である信号を推定するための有意情報として、データが有する、データの定常性が利用される。
【0134】
なお、本発明においては、実世界の事象を示す情報である信号の次元の、長さ(空間)、時間、および質量のうち、空間方向または時間方向の定常性が利用される。
【0135】
次に、図7乃至図10を参照して、画像の空間的時間的な積分について説明する。
【0136】
イメージセンサは、現実世界の対象物(オブジェクト)を撮像し、撮像の結果得られた画像データを1フレーム単位で出力する。すなわち、イメージセンサは、実世界の対象物で反射された光である、実世界の信号を取得し、データを出力する。
【0137】
例えば、イメージセンサは、1秒間に30フレームからなる画像データを出力する。この場合、イメージセンサの露光時間は、1/30秒とすることができる。露光時間は、イメージセンサが入射された光の電荷への変換を開始してから、入射された光の電荷への変換を終了するまでの期間である。以下、露光時間をシャッタ時間とも称する。
【0138】
図7は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal−Oxide Semiconductor)センサなどのイメージセンサ上の画素の配置の例を説明する図である。図7中において、A乃至Iは、個々の画素を示す。画素は、画像データにより表示される画像に対応する平面上に配置されている。1つの画素に対応する1つの検出素子は、イメージセンサ上に配置されている。イメージセンサが実世界の画像を撮像するとき、1つの検出素子は、画像データを構成する1つの画素に対応する1つの画素値を出力する。例えば、検出素子の空間方向Xの位置(X座標)は、画像データにより表示される画像上の横方向の位置に対応し、検出素子の空間方向Yの位置(Y座標)は、画像データにより表示される画像上の縦方向の位置に対応する。
【0139】
実世界の光の強度の分布は、3次元の空間方向および時間方向に広がりを有するが、イメージセンサは、2次元の空間方向および時間方向で、実世界の光を取得し、2次元の空間方向および時間方向の光の強度の分布を表現するデータを生成する。
【0140】
図8で示されるように、例えば、CCDである検出素子は、シャッタ時間に対応する期間、受光面(受光領域)(検出領域)に入力された光を電荷に変換して、変換された電荷を蓄積する。光は、3次元の空間上の位置、および時刻により、強度が決定される実世界の情報(信号)である。実世界の光の強度の分布は、3次元の空間上の位置x,y、およびz、並びに時刻tを変数とする関数F(x,y,z,t)で表すことができる。
【0141】
CCDである検出素子に蓄積される電荷の量は、2次元の空間上の広がりを有する受光面の全体に入射された光の強さと、光が入射されている時間にほぼ比例する。検出素子は、シャッタ時間に対応する期間において、受光面の全体に入射された光から変換された電荷を、既に蓄積されている電荷に加えていく。すなわち、検出素子は、シャッタ時間に対応する期間、2次元の空間上の広がりを有する受光面の全体に入射される光を積分して、積分された光に対応する量の電荷を蓄積する。検出素子は、空間(受光面)および時間(シャッタ時間)に対して、積分効果があるとも言える。
【0142】
検出素子に蓄積された電荷は、図示せぬ回路により、電圧値に変換され、電圧値はさらにデジタルデータなどの画素値に変換されて、データとして出力される。従って、イメージセンサから出力される個々の画素値は、実世界の情報(信号)の時間的空間的に広がりを有するある部分を、シャッタ時間の時間方向および検出素子の受光面の空間方向について積分した結果である、1次元の空間に射影した値を有する。
【0143】
すなわち、1つの画素の画素値は、F(x,y,t)の積分で表される。F(x,y,t)は、検出素子の受光面における、光の強度の分布を表す関数である。例えば、画素値Pは、式(9)で表される。
【数9】
【0144】
式(9)において、x1は、検出素子の受光面の左側の境界の空間座標(X座標)である。x2は、検出素子の受光面の右側の境界の空間座標(X座標)である。式(9)において、y1は、検出素子の受光面の上側の境界の空間座標(Y座標)である。y2は、検出素子の受光面の下側の境界の空間座標(Y座標)である。また、t1は、入射された光の電荷への変換を開始した時刻である。t2は、入射された光の電荷への変換を終了した時刻である。
【0145】
なお、実際には、イメージセンサから出力される画像データの画素値は、例えばフレーム全体として、そのゲインが補正されている。
【0146】
画像データの各画素値は、イメージセンサの各検出素子の受光面に入射した光の積分値であり、イメージセンサに入射された光のうち、検出素子の受光面よりも微小な実世界の光の波形は、積分値としての画素値に隠されてしまう。
【0147】
以下、本明細書において、所定の次元を基準として表現される信号の波形を単に波形とも称する。
【0148】
このように、実世界の画像は、画素を単位として、空間方向および時間方向に積分されてしまうので、画像データにおいては、実世界の画像の定常性の一部が欠落し、実世界の画像の定常性の他の一部のみが画像データに含まれることになる。または、画像データには、実世界の画像の定常性から変化してしまった定常性が含まれることがある。
【0149】
積分効果を有するイメージセンサにより撮像された画像の、空間方向の積分効果についてさらに説明する。
【0150】
図9は、画素D乃至画素Fに対応する検出素子に入射される光と、画素値との関係を説明する図である。図9のF(x)は、空間上(検出素子上)の空間方向Xの座標xを変数とする、実世界の光の強度の分布を表す関数の例である。言い換えれば、F(x)は、空間方向Yおよび時間方向に一定である場合の、実世界の光の強度の分布を表す関数の例である。図9において、Lは、画素D乃至画素Fに対応する検出素子の受光面の空間方向Xの長さを示す。
【0151】
1つの画素の画素値は、F(x)の積分で表される。例えば、画素Eの画素値Pは、式(10)で表される。
【数10】
【0152】
式(10)において、x1は、画素Eに対応する検出素子の受光面の左側の境界の空間方向Xの空間座標である。x2は、画素Eに対応する検出素子の受光面の右側の境界の空間方向Xの空間座標である。
【0153】
同様に、積分効果を有するイメージセンサにより撮像された画像の、時間方向の積分効果についてさらに説明する。
【0154】
図10は、時間の経過と、1つの画素に対応する検出素子に入射される光と、画素値との関係を説明する図である。図10のF(t)は、時刻tを変数とする、実世界の光の強度の分布を表す関数である。言い換えれば、F(t)は、空間方向Yおよび空間方向Xに一定である場合の、実世界の光の強度の分布を表す関数の例である。tsは、シャッタ時間を示す。
【0155】
フレーム#n−1は、フレーム#nに対して時間的に前のフレームであり、フレーム#n+1は、フレーム#nに対して時間的に後のフレームである。すなわち、フレーム#n−1、フレーム#n、およびフレーム#n+1は、フレーム#n−1、フレーム#n、およびフレーム#n+1の順で表示される。
【0156】
なお、図10で示される例において、シャッタ時間tsとフレーム間隔とが同一である。
【0157】
1つの画素の画素値は、F(t)の積分で表される。例えば、フレーム#nの画素の画素値Pは、式(11)で表される。
【数11】
【0158】
式(11)において、t1は、入射された光の電荷への変換を開始した時刻である。t2は、入射された光の電荷への変換を終了した時刻である。
【0159】
以下、センサによる空間方向の積分効果を単に空間積分効果と称し、センサによる時間方向の積分効果を単に時間積分効果と称する。また、空間積分効果または時間積分効果を単に積分効果とも称する。
【0160】
次に、積分効果を有するイメージセンサにより取得されたデータに含まれるデータの定常性の例について説明する。
【0161】
図11は、実世界の線状の物(例えば、細線)の画像、すなわち光の強度の分布の例を示す図である。図11において、図中の上側の位置は、光の強度(レベル)を示し、図中の右上側の位置は、画像の空間方向の一方向である空間方向Xの位置を示し、図中の右側の位置は、画像の空間方向の他の方向である空間方向Yの位置を示す。
【0162】
実世界の線状の物の画像には、所定の定常性が含まれる。すなわち、図11で示される画像は、長さ方向の任意の位置において、断面形状(長さ方向に直交する方向の位置の変化に対するレベルの変化)が同じであるという定常性を有する。
【0163】
図12は、図11で示される画像に対応する、実際の撮像により得られた画像データの画素値の例を示す図である。
【0164】
図13は、図12に示す画像データの模式図である。
【0165】
図13で示される模式図は、イメージセンサの画素の並び(画素の縦または横の並び)とずれた方向に延びる、各画素の受光面の長さLよりも短い径の線状の物の画像を、イメージセンサで撮像して得られた画像データの模式図である。図13で示される画像データが取得されたときにイメージセンサに入射された画像は、図11の実世界の線状の物の画像である。
【0166】
図13において、図中の上側の位置は、画素値を示し、図中の右上側の位置は、画像の空間方向の一方向である空間方向Xの位置を示し、図中の右側の位置は、画像の空間方向の他の方向である空間方向Yの位置を示す。図13における画素値を示す方向は、図11におけるレベルの方向に対応し、図13における空間方向X、および空間方向Yは、図11における方向と同じである。
【0167】
各画素の受光面の長さLよりも短い径の線状の物の画像を、イメージセンサで撮像した場合、撮像の結果得られる画像データにおいて、線状の物は、模式的に、例えば、斜めにずれて並ぶ、複数の所定の長さの円弧形状(かまぼこ型)で表される。各円弧形状は、ほぼ同じ形状である。1つの円弧形状は、縦に1列の画素の上、または横に1列の画素の上に形成される。例えば、図13における1つの円弧形状は、縦に1列の画素の上に形成される。
【0168】
このように、例えば、イメージセンサで撮像されて取得された画像データにおいては、実世界の線状の物の画像が有していた、長さ方向の任意の位置において、空間方向Yにおける断面形状が同じであるという定常性が失われている。また、実世界の線状の物の画像が有していた定常性は、縦に1列の画素の上、または横に1列の画素の上に形成された、同じ形状である円弧形状が一定の間隔で並ぶという定常性に変化していると言える。
【0169】
図14は、背景とは異なる色であって、単色の、直線状の縁を有する物の実世界の画像、すなわち光の強度の分布の例を示す図である。図14において、図中の上側の位置は、光の強度(レベル)を示し、図中の右上側の位置は、画像の空間方向の一方向である空間方向Xの位置を示し、図中の右側の位置は、画像の空間方向の他の方向である空間方向Yの位置を示す。
【0170】
背景とは異なる色の、直線状の縁を有する物の実世界の画像には、所定の定常性が含まれる。すなわち、図14で示される画像は、縁の長さ方向の任意の位置において、断面形状(縁に直交する方向の位置の変化に対するレベルの変化)が同じであるという定常性を有する。
【0171】
図15は、図14で示される画像に対応する、実際の撮像により得られた画像データの画素値の例を示す図である。図15で示されるように、画像データは、画素を単位とした画素値からなるので、階段状になる。
【0172】
図16は、図15に示す画像データの模式図である。
【0173】
図16で示される模式図は、イメージセンサの画素の並び(画素の縦または横の並び)とずれた方向に縁が延びる、背景とは異なる色であって、単色の、直線状の縁を有する物の実世界の画像を、イメージセンサで撮像して得られた画像データの模式図である。図16で示される画像データが取得されたときにイメージセンサに入射された画像は、図14で示される、背景とは異なる色であって、単色の、直線状の縁を有する物の実世界の画像である。
【0174】
図16において、図中の上側の位置は、画素値を示し、図中の右上側の位置は、画像の空間方向の一方向である空間方向Xの位置を示し、図中の右側の位置は、画像の空間方向の他の方向である空間方向Yの位置を示す。図16における画素値を示す方向は、図14におけるレベルの方向に対応し、図16における空間方向X、および空間方向Yは、図14における方向と同じである。
【0175】
背景とは異なる色であって、単色の、直線状の縁を有する物の実世界の画像を、イメージセンサで撮像した場合、撮像の結果得られる画像データにおいて、直線状の縁は、模式的に、例えば、斜めにずれて並ぶ、複数の所定の長さのつめ(pawl)形状で表される。各つめ形状は、ほぼ同じ形状である。1つのつめ形状は、縦に1列の画素の上、または横に1列の画素の上に形成される。例えば、図16において、1つのつめ形状は、縦に1列の画素の上に形成される。
【0176】
このように、例えば、イメージセンサで撮像されて取得された画像データにおいては、背景とは異なる色であって、単色の、直線状の縁を有する物の実世界の画像が有していた、縁の長さ方向の任意の位置において、断面形状が同じであるという定常性が失われている。また、背景とは異なる色であって、単色の、直線状の縁を有する物の実世界の画像が有していた定常性は、縦に1列の画素の上、または横に1列の画素の上に形成された、同じ形状であるつめ形状が一定の間隔で並ぶという定常性に変化していると言える。
【0177】
データ定常性検出部101は、このような、例えば、入力画像であるデータが有するデータの定常性を検出する。例えば、データ定常性検出部101は、同じ円弧形状の並び方または同じつめ形状の並び方を示す、空間方向の角度(傾き)を検出することにより、データの定常性を検出する。
【0178】
また、例えば、データ定常性検出部101は、空間方向および時間方向の同様の形状の並び方を示す、空間方向および時間方向の角度(動き)を検出することにより、データの定常性を検出する。
【0179】
以下、背景とは異なる色であって、単色の、直線状の縁を有する物の実世界の画像がセンサにより射影されたデータの部分を2値エッジとも称する。
【0180】
図17は、データ定常性検出部101の構成を示すブロック図である。
【0181】
図17に構成を示すデータ定常性検出部101においては、注目している画素である注目画素について、入力画像の空間方向に対する画素値の変化、すなわち入力画像の空間方向のアクティビティが検出され、検出されたアクティビティに応じて、注目画素および基準軸を基準とした角度毎に、垂直方向に1列または水平方向に1列の所定の数の画素からなる画素の組が、複数抽出され、抽出された画素の組の相関が検出され、相関に基づいて、入力画像における、基準軸を基準としたデータの定常性の角度が検出される。
【0182】
データの定常性の角度とは、基準軸と、データが有している、一定の特徴が繰り返し現れる所定の次元の方向とがなす角度をいう。一定の特徴が繰り返し現れるとは、例えば、データにおける位置の変化に対する値の変化、すなわち断面形状が同じである場合などをいう。
【0183】
基準軸は、例えば、空間方向Xを示す軸(画面の水平方向)、または空間方向Yを示す軸(画面の垂直方向)などとすることができる。
【0184】
入力画像は、アクティビティ検出部401およびデータ選択部402に供給される。
【0185】
アクティビティ検出部401は、入力画像の空間方向に対する画素値の変化、すなわち空間方向のアクティビティを検出して、検出した結果を示すアクティビティ情報をデータ選択部402および定常方向導出部404に供給する。
【0186】
例えば、アクティビティ検出部401は、画面の水平方向に対する画素値の変化、および画面の垂直方向に対する画素値の変化を検出し、検出された水平方向に対する画素値の変化および垂直方向に対する画素値の変化を比較することにより、垂直方向に対する画素値の変化に比較して、水平方向に対する画素値の変化が大きいか、または水平方向に対する画素値の変化に比較して、垂直方向に対する画素値の変化が大きいかを検出する。
【0187】
アクティビティ検出部401は、検出の結果である、垂直方向に対する画素値の変化に比較して、水平方向に対する画素値の変化が大きいことを示すか、または水平方向に対する画素値の変化に比較して、垂直方向に対する画素値の変化が大きいことを示すアクティビティ情報をデータ選択部402および定常方向導出部404に供給する。
【0188】
垂直方向に対する画素値の変化に比較して、水平方向に対する画素値の変化が大きい場合、例えば、図18で示されるように、垂直方向に1列の画素に円弧形状(かまぼこ型)またはつめ形状が形成され、円弧形状またはつめ形状が垂直により近い方向に繰り返して形成されている。すなわち、垂直方向に対する画素値の変化に比較して、水平方向に対する画素値の変化が大きい場合、基準軸を空間方向Xを示す軸とすると、入力画像における、基準軸を基準としたデータの定常性の角度は、45度乃至90度のいずれかの値である。
【0189】
水平方向に対する画素値の変化に比較して、垂直方向に対する画素値の変化が大きい場合、例えば、水平方向に1列の画素に円弧形状またはつめ形状が形成され、円弧形状またはつめ形状が水平方向により近い方向に繰り返して形成されている。すなわち、水平方向に対する画素値の変化に比較して、垂直方向に対する画素値の変化が大きい場合、基準軸を空間方向Xを示す軸とすると、入力画像における、基準軸を基準としたデータの定常性の角度は、0度乃至45度のいずれかの値である。
【0190】
例えば、アクティビティ検出部401は、図19で示される、注目画素を中心とした3×3の9つの画素からなるブロックを入力画像から抽出する。アクティビティ検出部401は、縦に隣接する画素についての画素値の差分の和、および横に隣接する画素についての画素値の差分の和を算出する。横に隣接する画素についての画素値の差分の和hdiffは、式(12)で求められる。
【0191】
【0192】
同様に、縦に隣接する画素についての画素値の差分の和vdiffは、式(13)で求められる。
【0193】
【0194】
式(12)および式(13)において、Pは、画素値を示し、iは、画素の横方向の位置を示し、jは、画素の縦方向の位置を示す。
【0195】
アクティビティ検出部401は、算出された横に隣接する画素についての画素値の差分の和hdiffおよび縦に隣接する画素についての画素値の差分の和vdiffを比較して、入力画像における、基準軸を基準としたデータの定常性の角度の範囲を判定するようにしてもよい。すなわち、この場合、アクティビティ検出部401は、空間方向の位置に対する画素値の変化で示される形状が水平方向に繰り返して形成されているか、垂直方向に繰り返して形成されているかを判定する。
【0196】
例えば、横に1列の画素上に形成された円弧についての横方向の画素値の変化は、縦方向の画素値の変化に比較して大きく、横に1列の画素上に形成された円弧についての縦方向の画素値の変化は、横方向の画素値の変化に比較して大きく、データの定常性の方向、すなわち、データである入力画像が有している、一定の特徴の所定の次元の方向の変化は、データの定常性に直交する方向の変化に比較して小さいと言える。言い換えれば、データの定常性の方向の差分に比較して、データの定常性の方向に直交する方向(以下、非定常方向とも称する)の差分は大きい。
【0197】
例えば、図20に示すように、アクティビティ検出部401は、算出された横に隣接する画素についての画素値の差分の和hdiffおよび縦に隣接する画素についての画素値の差分の和vdiffを比較して、横に隣接する画素についての画素値の差分の和hdiffが大きい場合、基準軸を基準としたデータの定常性の角度が、45度乃至135度のいずれかの値であると判定し、縦に隣接する画素についての画素値の差分の和vdiffが大きい場合、基準軸を基準としたデータの定常性の角度が、0度乃至45度のいずれかの値、または135度乃至180度のいずれかの値であると判定する。
【0198】
例えば、アクティビティ検出部401は、判定の結果を示すアクティビティ情報をデータ選択部402および定常方向導出部404に供給する。
【0199】
なお、アクティビティ検出部401は、5×5の25の画素からなるブロック、または7×7の49の画素からなるブロックなど、任意の大きさのブロックを抽出して、アクティビティを検出することができる。
【0200】
データ選択部402は、入力画像の画素から注目画素を順に選択し、アクティビティ検出部401から供給されたアクティビティ情報を基に、注目画素および基準軸を基準とした角度毎に、垂直方向に1列または水平方向に1列の所定の数の画素からなる画素の組を、複数抽出する。
【0201】
例えば、アクティビティ情報が垂直方向に対する画素値の変化に比較して、水平方向に対する画素値の変化が大きいことを示しているとき、データの定常性の角度が、45度乃至135度のいずれかの値なので、データ選択部402は、注目画素および基準軸を基準とした45度乃至135度の範囲の所定の角度毎に、垂直方向に1列の所定の数の画素からなる画素の組を、複数抽出する。
【0202】
アクティビティ情報が水平方向に対する画素値の変化に比較して、垂直方向に対する画素値の変化が大きいことを示しているとき、データの定常性の角度が、0度乃至45度または135度乃至180度のいずれかの値なので、データ選択部402は、注目画素および基準軸を基準とした0度乃至45度または135度乃至180度の範囲の所定の角度毎に、水平方向に1列の所定の数の画素からなる画素の組を、複数抽出する。
【0203】
また、例えば、データの定常性の角度が45度乃至135度のいずれかの値であることを、アクティビティ情報が示しているとき、データ選択部402は、注目画素および基準軸を基準とした45度乃至135度の範囲の所定の角度毎に、垂直方向に1列の所定の数の画素からなる画素の組を、複数抽出する。
【0204】
データの定常性の角度が0度乃至45度または135度乃至180度のいずれかの値であることを、アクティビティ情報が示しているとき、データ選択部402は、注目画素および基準軸を基準とした0度乃至45度または135度乃至180度の範囲の所定の角度毎に、水平方向に1列の所定の数の画素からなる画素の組を、複数抽出する。
【0205】
データ選択部402は、抽出した画素からなる複数の組を誤差推定部403に供給する。
【0206】
誤差推定部403は、抽出した画素からなる複数の組について、角度毎に、画素の組の相関を検出する。
【0207】
例えば、誤差推定部403は、1つの角度に対応する、垂直方向に1列の所定の数の画素からなる画素の複数の組について、画素の組における対応する位置の画素の画素値の相関を検出する。誤差推定部403は、1つの角度に対応する、水平方向に1列の所定の数の画素からなる画素の複数の組について、組における対応する位置の画素の画素値の相関を検出する。
【0208】
誤差推定部403は、検出した相関を示す相関情報を定常方向導出部404に供給する。誤差推定部403は、相関を示す値として、データ選択部402から供給された、注目画素を含む組の画素の画素値と、他の組における対応する位置の画素の画素値の差分の絶対値の和を算出し、差分の絶対値の和を相関情報として定常方向導出部404に供給する。
【0209】
定常方向導出部404は、誤差推定部403から供給された相関情報に基づいて、欠落した実世界の光信号の定常性に対応する、入力画像における、基準軸を基準としたデータの定常性の角度を検出し、角度を示すデータ定常性情報を出力する。例えば、定常方向導出部404は、誤差推定部403から供給された相関情報に基づいて、データの定常性の角度として、最も相関の強い画素の組に対する角度を検出し、検出された最も相関の強い画素の組に対する角度を示すデータ定常性情報を出力する。
【0210】
以下の説明において、適宜、0度乃至90度の範囲(いわゆる第1象限)のデータの定常性の角度を検出するものとして説明する。
【0211】
図21は、図17に示すデータ定常性検出部101のより詳細な構成を示すブロック図である。
【0212】
データ選択部402は、画素選択部411−1乃至画素選択部411−Lを含む。誤差推定部403は、推定誤差算出部412−1乃至推定誤差算出部412−Lを含む。定常方向導出部404は、最小誤差角度選択部413を含む。
【0213】
まず、アクティビティ情報で示される、データの定常性の角度が45度乃至135度のいずれかの値であるときの画素選択部411−1乃至画素選択部411−Lの処理を説明する。
【0214】
画素選択部411−1乃至画素選択部411−Lは、空間方向Xを示す軸を基準軸として、注目画素を通る、それぞれ異なる所定の角度の直線を設定する。画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列に属する画素であって、注目画素の上側の所定の数の画素、および注目画素の下側の所定の数の画素、並びに注目画素を画素の組として選択する。
【0215】
例えば、図22で示されるように、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列に属する画素から、注目画素を中心として9つの画素を画素の組として選択する。
【0216】
図22において、マス目状の1つの四角(1つのマス目)は、1つの画素を示す。図22において、中央に示す丸は、注目画素を示す。
【0217】
画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、左側の縦に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択する。図22において、注目画素の左下側の丸は、選択された画素の例を示す。そして、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、左側の縦に1列の画素の列に属する画素であって、選択された画素の上側の所定の数の画素、および選択された画素の下側の所定の数の画素、並びに選択された画素を画素の組として選択する。
【0218】
例えば、図22で示されるように、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、左側の縦に1列の画素の列に属する画素から、直線に最も近い位置の画素を中心として9つの画素を画素の組として選択する。
【0219】
画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、左側に2つめの縦に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択する。図22において、最も左側の丸は、選択された画素の例を示す。そして、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、左側に2つめの縦に1列の画素の列に属する画素であって、選択された画素の上側の所定の数の画素、および選択された画素の下側の所定の数の画素、並びに選択された画素を画素の組として選択する。
【0220】
例えば、図22で示されるように、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、左側に2つめの縦に1列の画素の列に属する画素から、直線に最も近い位置の画素を中心として9つの画素を画素の組として選択する。
【0221】
画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、右側の縦に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択する。図22において、注目画素の右上側の丸は、選択された画素の例を示す。そして、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、右側の縦に1列の画素の列に属する画素であって、選択された画素の上側の所定の数の画素、および選択された画素の下側の所定の数の画素、並びに選択された画素を画素の組として選択する。
【0222】
例えば、図22で示されるように、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、右側の縦に1列の画素の列に属する画素から、直線に最も近い位置の画素を中心として9つの画素を画素の組として選択する。
【0223】
画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、右側に2つめの縦に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択する。図22において、最も右側の丸は、このように選択された画素の例を示す。そして、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、右側に2つめの縦に1列の画素の列に属する画素であって、選択された画素の上側の所定の数の画素、および選択された画素の下側の所定の数の画素、並びに選択された画素を画素の組として選択する。
【0224】
例えば、図22で示されるように、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、右側に2つめの縦に1列の画素の列に属する画素から、直線に最も近い位置の画素を中心として9つの画素を画素の組として選択する。
【0225】
このように、画素選択部411−1乃至画素選択部411−Lは、それぞれ、画素の組を5つ選択する。
【0226】
画素選択部411−1乃至画素選択部411−Lは、互いに異なる角度(に設定された直線)についての、画素の組を選択する。例えば、画素選択部411−1は、45度についての、画素の組を選択し、画素選択部411−2は、47.5度についての、画素の組を選択し、画素選択部411−3は、50度についての、画素の組を選択する。画素選択部411−1乃至画素選択部411−Lは、52.5度から135度までの、2.5度毎の角度についての、画素の組を選択する。
【0227】
なお、画素の組の数は、例えば、3つ、または7つなど、任意の数とすることができ、本発明を限定するものではない。また、1つの組として選択された画素の数は、例えば、5つ、または13など、任意の数とすることができ、本発明を限定するものではない。
【0228】
なお、画素選択部411−1乃至画素選択部411−Lは、縦方向に所定の範囲の画素から、画素の組を選択するようにすることができる。例えば、画素選択部411−1乃至画素選択部411−Lは、縦方向に121個の画素(注目画素に対して、上方向に60画素、下方向に60画素)から、画素の組を選択する。この場合、データ定常性検出部101は、空間方向Xを示す軸に対して、88.09度まで、データの定常性の角度を検出することができる。
【0229】
画素選択部411−1は、選択した画素の組を推定誤差算出部412−1に供給し、画素選択部411−2は、選択した画素の組を推定誤差算出部412−2に供給する。同様に、画素選択部411−3乃至画素選択部411−Lのそれぞれは、選択した画素の組を推定誤差算出部412−3乃至推定誤差算出部412−Lのそれぞれに供給する。
【0230】
推定誤差算出部412−1乃至推定誤差算出部412−Lは、画素選択部411−1乃至画素選択部411−Lのいずれかから供給された、複数の組における対応する位置の画素の画素値の相関を検出する。例えば、推定誤差算出部412−1乃至推定誤差算出部412−Lは、相関を示す値として、画素選択部411−1乃至画素選択部411−Lのいずれかから供給された、注目画素を含む組の画素の画素値と、他の組における対応する位置の画素の画素値の差分の絶対値の和を算出する。
【0231】
より具体的には、推定誤差算出部412−1乃至推定誤差算出部412−Lは、画素選択部411−1乃至画素選択部411−Lのいずれかから供給された、注目画素を含む組の画素の画素値と、注目画素の左側の縦に1列の画素の列に属する画素からなる組の画素の画素値とを基に、最も上の画素の画素値の差分を算出し、上から2番目の画素の画素値の差分を算出するように、上の画素から順に画素値の差分の絶対値を算出して、さらに、算出された差分の絶対値の和を算出する。推定誤差算出部412−1乃至推定誤差算出部412−Lは、画素選択部411−1乃至画素選択部411−Lのいずれかから供給された、注目画素を含む組の画素の画素値と、注目画素の左に2つめの縦に1列の画素の列に属する画素からなる組の画素の画素値とを基に、上の画素から順に画素値の差分の絶対値を算出して、算出された差分の絶対値の和を算出する。
【0232】
そして、推定誤差算出部412−1乃至推定誤差算出部412−Lは、画素選択部411−1乃至画素選択部411−Lのいずれかから供給された、注目画素を含む組の画素の画素値と、注目画素の右側の縦に1列の画素の列に属する画素からなる組の画素の画素値とを基に、最も上の画素の画素値の差分を算出し、上から2番目の画素の画素値の差分を算出するように、上の画素から順に画素値の差分の絶対値を算出して、さらに、算出された差分の絶対値の和を算出する。推定誤差算出部412−1乃至推定誤差算出部412−Lは、画素選択部411−1乃至画素選択部411−Lのいずれかから供給された、注目画素を含む組の画素の画素値と、注目画素の右に2つめの縦に1列の画素の列に属する画素からなる組の画素の画素値とを基に、上の画素から順に画素値の差分の絶対値を算出して、算出された差分の絶対値の和を算出する。
【0233】
推定誤差算出部412−1乃至推定誤差算出部412−Lは、このように算出された画素値の差分の絶対値の和を全て加算して、画素値の差分の絶対値の総和を算出する。
【0234】
推定誤差算出部412−1乃至推定誤差算出部412−Lは、検出された相関を示す情報を、最小誤差角度選択部413に供給する。例えば、推定誤差算出部412−1乃至推定誤差算出部412−Lは、算出された画素値の差分の絶対値の総和を最小誤差角度選択部413に供給する。
【0235】
なお、推定誤差算出部412−1乃至推定誤差算出部412−Lは、画素値の差分の絶対値の和に限らず、画素値の差分の自乗の和、または画素値を基にした相関係数など他の値を相関値として算出するようにすることができる。
【0236】
最小誤差角度選択部413は、互いに異なる角度についての、推定誤差算出部412−1乃至推定誤差算出部412−Lにおいて検出された相関に基づいて、欠落した実世界の光信号である画像の定常性に対応する、入力画像における、基準軸を基準としたデータの定常性の角度を検出する。すなわち、最小誤差角度選択部413は、互いに異なる角度についての、推定誤差算出部412−1乃至推定誤差算出部412−Lにおいて検出された相関に基づいて、最も強い相関を選択し、選択された相関が検出された角度を、基準軸を基準としたデータの定常性の角度とすることにより、入力画像における、基準軸を基準としたデータの定常性の角度を検出する。
【0237】
例えば、最小誤差角度選択部413は、推定誤差算出部412−1乃至推定誤差算出部412−Lから供給された、画素値の差分の絶対値の総和のうち、最小の総和を選択する。最小誤差角度選択部413は、選択された総和が算出された画素の組について、注目画素に対して、左側に2つめの縦に1列の画素の列に属する画素であって、直線に最も近い位置の画素の位置、および、注目画素に対して、右側に2つめの縦に1列の画素の列に属する画素であって、直線に最も近い位置の画素の位置を参照する。
【0238】
図22で示されるように、最小誤差角度選択部413は、注目画素の位置に対する、参照する画素の位置の縦方向の距離Sを求める。最小誤差角度選択部413は、図23で示すように、式(14)から、欠落した実世界の光信号の定常性に対応する、画像データである入力画像における、基準軸である空間方向Xを示す軸を基準としたデータの定常性の角度θを検出する。
θ=tan−1(s/2) ・・・(14)
【0239】
次に、アクティビティ情報で示される、データの定常性の角度が0度乃至45度および135度乃至180度のいずれかの値であるときの画素選択部411−1乃至画素選択部411−Lの処理を説明する。
【0240】
画素選択部411−1乃至画素選択部411−Lは、空間方向Xを示す軸を基準軸として、注目画素を通る、所定の角度の直線を設定し、注目画素が属する横に1列の画素の列に属する画素であって、注目画素の上側の所定の数の画素、および注目画素の下側の所定の数の画素、並びに注目画素を画素の組として選択する。
【0241】
画素選択部411−1乃至画素選択部411−Lは、注目画素が属する横に1列の画素の列の、上側の横に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択する。そして、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する横に1列の画素の列の、上側の横に1列の画素の列に属する画素であって、選択された画素の左側の所定の数の画素、および選択された画素の右側の所定の数の画素、並びに選択された画素を画素の組として選択する。
【0242】
画素選択部411−1乃至画素選択部411−Lは、注目画素が属する横に1列の画素の列の、上側に2つめの横に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択する。そして、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する横に1列の画素の列の、上側に2つめの横に1列の画素の列に属する画素であって、選択された画素の左側の所定の数の画素、および選択された画素の右側の所定の数の画素、並びに選択された画素を画素の組として選択する。
【0243】
画素選択部411−1乃至画素選択部411−Lは、注目画素が属する横に1列の画素の列の、下側の横に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択する。そして、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する横に1列の画素の列の、下側の横に1列の画素の列に属する画素であって、選択された画素の左側の所定の数の画素、および選択された画素の右側の所定の数の画素、並びに選択された画素を画素の組として選択する。
【0244】
画素選択部411−1乃至画素選択部411−Lは、注目画素が属する横に1列の画素の列の、下側に2つめの横に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択する。そして、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する横に1列の画素の列の、下側に2つめの横に1列の画素の列に属する画素であって、選択された画素の左側の所定の数の画素、および選択された画素の右側の所定の数の画素、並びに選択された画素を画素の組として選択する。
【0245】
このように、画素選択部411−1乃至画素選択部411−Lは、それぞれ、画素の組を5つ選択する。
【0246】
画素選択部411−1乃至画素選択部411−Lは、互いに異なる角度についての、画素の組を選択する。例えば、画素選択部411−1は、0度についての、画素の組を選択し、画素選択部411−2は、2.5度についての、画素の組を選択し、画素選択部411−3は、5度についての、画素の組を選択する。画素選択部411−1乃至画素選択部411−Lは、7.5度から45度および135度から180度までの、2.5度毎の角度についての、画素の組を選択する。
【0247】
画素選択部411−1は、選択した画素の組を推定誤差算出部412−1に供給し、画素選択部411−2は、選択した画素の組を推定誤差算出部412−2に供給する。同様に、画素選択部411−3乃至画素選択部411−Lのそれぞれは、選択した画素の組を推定誤差算出部412−3乃至推定誤差算出部412−Lのそれぞれに供給する。
【0248】
推定誤差算出部412−1乃至推定誤差算出部412−Lは、画素選択部411−1乃至画素選択部411−Lのいずれかから供給された、複数の組における対応する位置の画素の画素値の相関を検出する。推定誤差算出部412−1乃至推定誤差算出部412−Lは、検出された相関を示す情報を、最小誤差角度選択部413に供給する。
【0249】
最小誤差角度選択部413は、推定誤差算出部412−1乃至推定誤差算出部412−Lにおいて検出された相関に基づいて、欠落した実世界の光信号である画像の定常性に対応する、入力画像における、基準軸を基準としたデータの定常性の角度を検出する。
【0250】
次に、図24のフローチャートを参照して、ステップS101の処理に対応する、図17で構成が示されるデータ定常性検出部101による、データの定常性の検出の処理を説明する。
【0251】
ステップS401において、アクティビティ検出部401およびデータ選択部402は、入力画像から、注目している画素である注目画素を選択する。アクティビティ検出部401およびデータ選択部402は、同一の注目画素を選択する。例えば、アクティビティ検出部401およびデータ選択部402は、入力画像から、ラスタスキャン順に、注目画素を選択する。
【0252】
ステップS402において、アクティビティ検出部401は、注目画素に対するアクティビティを検出する。例えば、アクティビティ検出部401は、注目画素を中心とした所定の数の画素からなるブロックの縦方向に並ぶ画素の画素値の差分および横方向に並ぶ画素の画素値の差分を基に、アクティビティを検出する。
【0253】
アクティビティ検出部401は、注目画素に対する空間方向のアクティビティを検出して、検出した結果を示すアクティビティ情報をデータ選択部402および定常方向導出部404に供給する。
【0254】
ステップS403において、データ選択部402は、注目画素を含む画素の列から、注目画素を中心とした所定の数の画素を、画素の組として選択する。例えば、データ選択部402は、注目画素が属する縦または横に1列の画素の列に属する画素であって、注目画素の上側または左側の所定の数の画素、および注目画素の下側または右側の所定の数の画素、並びに注目画素を画素の組として選択する。
【0255】
ステップS404において、データ選択部402は、ステップS402の処理で検出されたアクティビティを基にした、所定の範囲の角度毎に、所定の数の画素の列から、それぞれ所定の数の画素を、画素の組として選択する。例えば、データ選択部402は、所定の範囲の角度を有し、空間方向Xを示す軸を基準軸として、注目画素を通る直線を設定し、注目画素に対して、横方向または縦方向に1列または2列離れた画素であって、直線に最も近い画素を選択し、選択された画素の上側または左側の所定の数の画素、および選択された画素の下側または右側の所定の数の画素、並びに線に最も近い選択された画素を画素の組として選択する。データ選択部402は、角度毎に、画素の組を選択する。
【0256】
データ選択部402は、選択した画素の組を誤差推定部403に供給する。
【0257】
ステップS405において、誤差推定部403は、注目画素を中心とした画素の組と、角度毎に選択した画素の組との相関を計算する。例えば、誤差推定部403は、角度毎に、注目画素を含む組の画素の画素値と、他の組における対応する位置の画素の画素値の差分の絶対値の和を算出する。
【0258】
角度毎に選択された、画素の組の相互の相関を基に、データの定常性の角度を検出するようにしてもよい。
【0259】
誤差推定部403は、算出された相関を示す情報を、定常方向導出部404に供給する。
【0260】
ステップS406において、定常方向導出部404は、ステップS405の処理で算出された相関を基に、相関が最も強い画素の組の位置から、欠落した実世界の光信号の定常性に対応する、画像データである入力画像における、基準軸を基準としたデータの定常性の角度を検出する。例えば、定常方向導出部404は、画素値の差分の絶対値の総和のうち、最小の総和を選択し、選択された総和が算出された画素の組の位置から、データの定常性の角度θを検出する。
【0261】
定常方向導出部404は、検出したデータの定常性の角度を示すデータ定常性情報を出力する。
【0262】
ステップS407において、データ選択部402は、全ての画素の処理を終了したか否かを判定し、全ての画素の処理を終了していないと判定された場合、ステップS401に戻り、まだ注目画素として選択されていない画素から注目画素を選択して、上述した処理を繰り返す。
【0263】
ステップS407において、全ての画素の処理を終了したと判定された場合、処理は終了する。
【0264】
このように、データ定常性検出部101は、欠落した実世界の光信号の定常性に対応する、画像データにおける、基準軸を基準としたデータの定常性の角度を検出することができる。
【0265】
なお、図17で構成が示されるデータ検出部101は、注目しているフレームである注目フレームの、注目している画素である注目画素について、入力画像の空間方向のアクティビティを検出し、検出されたアクティビティに応じて、注目画素および空間方向の基準軸を基準とした角度、並びに動きベクトル毎に、注目フレームおよび注目フレームの時間的に前または後ろのフレームのそれぞれから、垂直方向に1列または水平方向に1列の所定の数の画素からなる画素の組を、複数抽出し、抽出された画素の組の相関を検出し、相関に基づいて、入力画像における、時間方向および空間方向のデータの定常性の角度を検出するようにしてもよい。
【0266】
例えば、図25に示すように、データ選択部402は、検出されたアクティビティに応じて、注目画素および空間方向の基準軸を基準とした角度、並びに動きベクトル毎に、注目フレームであるフレーム#n、フレーム#n−1、およびフレーム#n+1のそれぞれから、垂直方向に1列または水平方向に1列の所定の数の画素からなる画素の組を、複数抽出する。
【0267】
フレーム#n−1は、フレーム#nに対して時間的に前のフレームであり、フレーム#n+1は、フレーム#nに対して時間的に後のフレームである。すなわち、フレーム#n−1、フレーム#n、およびフレーム#n+1は、フレーム#n−1、フレーム#n、およびフレーム#n+1の順で表示される。
【0268】
誤差推定部403は、抽出した画素からなる複数の組について、1つの角度および1つの動きベクトル毎に、画素の組の相関を検出する。定常方向導出部404は、画素の組の相関に基づいて、欠落した実世界の光信号の定常性に対応する、入力画像における、時間方向および空間方向のデータの定常性の角度を検出し、角度を示すデータ定常性情報を出力する。
【0269】
図26は、図17に示すデータ定常性検出部101のより詳細な他の構成を示すブロック図である。図21に示す場合と同様の部分には、同一の番号を付してあり、その説明は省略する。
【0270】
データ選択部402は、画素選択部421−1乃至画素選択部421−Lを含む。誤差推定部403は、推定誤差算出部422−1乃至推定誤差算出部422−Lを含む。
【0271】
図26で示すデータ定常性検出部101においては、角度の範囲に対する数の画素からなる、画素の組であって、角度の範囲に対する数の組が抽出されて、抽出された画素の組の相関が検出され、検出された相関に基づいて、入力画像における、基準軸を基準としたデータの定常性の角度が検出される。
【0272】
まず、アクティビティ情報で示される、データの定常性の角度が45度乃至135度のいずれかの値であるときの画素選択部421−1乃至画素選択部421−Lの処理を説明する。
【0273】
図27の左側に示すように、図21で示されるデータ定常性検出部101においては、設定された直線の角度によらず、一定の数の画素からなる画素の組が抽出されるのに対して、図26で示されるデータ定常性検出部101においては、図27の右側に示すように、設定された直線の角度の範囲に応じた数の画素からなる画素の組が抽出される。また、図26で示されるデータ定常性検出部101においては、画素の組が、設定された直線の角度の範囲に応じた数だけ抽出される。
【0274】
画素選択部421−1乃至画素選択部421−Lは、45度乃至135度の範囲の、空間方向Xを示す軸を基準軸として、注目画素を通る、それぞれ互いに異なる所定の角度の直線を設定する。
【0275】
画素選択部421−1乃至画素選択部421−Lは、注目画素が属する縦に1列の画素の列に属する画素であって、それぞれに設定された直線の角度の範囲に応じた数の、注目画素の上側の画素、および注目画素の下側の画素、並びに注目画素を画素の組として選択する。
【0276】
画素選択部421−1乃至画素選択部421−Lは、注目画素が属する縦に1列の画素の列に対して、画素を基準とした横方向に所定の距離にある、左側および右側の縦に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択し、選択された画素に対して縦に1列の画素から、設定された直線の角度の範囲に応じた数の、選択された画素の上側の画素、および選択された画素の下側の画素、並びに選択された画素を画素の組として選択する。
【0277】
すなわち、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度の範囲に応じた数の画素を、画素の組として選択する。画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度の範囲に応じた数の、画素の組を選択する。
【0278】
例えば、空間方向Xに対してほぼ45度の角度に位置する、検出素子の検出領域の幅とほぼ同じ幅の細線の画像がセンサで撮像された場合、細線の画像は、空間方向Yに1列に並ぶ3つの画素に円弧形状が形成されるように、データに射影される。これに対して、空間方向Xに対してほぼ垂直に位置する、検出素子の検出領域の幅とほぼ同じ幅の細線の画像がセンサで撮像された場合、細線の画像は、空間方向Yに1列に並ぶ、多数の画素に円弧形状が形成されるように、データに射影される。
【0279】
画素の組に同じ数の画素が含まれるとすると、細線が空間方向Xに対してほぼ45度の角度に位置する場合、画素の組において、細線の画像が射影された画素の数が少なくなり、分解能が低下することになる。逆に、細線が空間方向Xに対してほぼ垂直に位置する場合、画素の組において、細線の画像が射影された画素のうちの、一部の画素について処理が実行されることになり、正確さが低下する恐れがある。
【0280】
そこで、細線の画像が射影された画素がほぼ同等になるように、画素選択部421−1乃至画素選択部421−Lは、設定する直線が空間方向Xに対して45度の角度により近いとき、それぞれ画素の組に含まれる画素の数を少なくして、画素の組の数を多くし、設定する直線が空間方向Xに対して垂直により近い場合、それぞれの画素の組に含まれる画素の数を多くして、画素の組の数を少なくするように、画素および画素の組を選択する。
【0281】
例えば、図28および図29で示されるように、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度が、45度以上63.4度未満の範囲(図28および図29において、Aで示す範囲)にあるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした5つの画素を画素の組として選択すると共に、注目画素に対して、横方向に5画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、5つの画素を画素の組として選択する。
【0282】
すなわち、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度が、45度以上63.4度未満の範囲にあるとき、入力画像から、それぞれ5つの画素からなる、11の画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素は、注目画素に対して、縦方向に5画素乃至9画素離れた位置にある。
【0283】
図29において、列の数は、注目画素の左側または右側の、画素の組として画素が選択される画素の列の数を示す。図29において、1列の画素の数は、注目画素に対して、縦に1列の画素の列、または注目画素の左側または右側の列から、画素の組として選択される画素の数を示す。図29において、画素の選択範囲は、注目画素に対する、設定された直線に最も近い位置の画素として、選択される画素の縦方向の位置を示す。
【0284】
図30で示されるように、例えば、画素選択部421−1は、設定された直線の角度が、45度であるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした5つの画素を画素の組として選択すると共に、注目画素に対して、横方向に5画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、5つの画素を画素の組として選択する。すなわち、画素選択部421−1は、入力画像から、それぞれ5つの画素からなる、11の画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素のうち、注目画素から最も遠い位置にある画素は、注目画素に対して、縦方向に5画素離れた位置にある。
【0285】
なお、図30乃至図37において、点線で表された四角(点線で仕切られた1つのマス目)は、1つの画素を示し、実線で表された四角は、画素の組を示す。図30乃至図37において、注目画素の空間方向Xの座標を0とし、注目画素の空間方向Yの座標を0とした。
【0286】
また、図30乃至図37において、斜線で表された四角は、注目画素または設定された直線に最も近い位置の画素を示す。図30乃至図37において、太線で表された四角は、注目画素を中心として選択された画素の組を示す。
【0287】
図31で示されるように、例えば、画素選択部421−2は、設定された直線の角度が、60.9度であるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした5つの画素を画素の組として選択すると共に、注目画素に対して、横方向に5画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、5つの画素を画素の組として選択する。すなわち、画素選択部421−2は、入力画像から、それぞれ5つの画素からなる、11の画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素のうち、注目画素から最も遠い位置にある画素は、注目画素に対して、縦方向に9画素離れた位置にある。
【0288】
例えば、図28および図29で示されるように、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度が、63.4度以上71.6度未満の範囲(図28および図29において、Bで示す範囲)にあるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした7つの画素を画素の組として選択すると共に、注目画素に対して、横方向に4画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、7つの画素を画素の組として選択する。
【0289】
すなわち、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度が、63.4度以上71.6度未満の範囲囲にあるとき、入力画像から、それぞれ7つの画素からなる、9つの画素の組を選択する。この場合において、設定された直線に最も近い位置の画素の縦方向の位置は、注目画素に対して、8画素乃至11画素である。
【0290】
図32で示されるように、例えば、画素選択部421−3は、設定された直線の角度が、63.4度であるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした7つの画素を画素の組として選択すると共に、注目画素に対して、横方向に4画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、7つの画素を画素の組として選択する。すなわち、画素選択部421−3は、入力画像から、それぞれ7つの画素からなる、9つの画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素のうち、注目画素から最も遠い位置にある画素は、注目画素に対して、縦方向に8画素離れた位置にある。
【0291】
また、図33で示されるように、例えば、画素選択部421−4は、設定された直線の角度が、70.0度であるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした7つの画素を画素の組として選択すると共に、注目画素に対して、横方向に4画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、7つの画素を画素の組として選択する。すなわち、画素選択部421−4は、入力画像から、それぞれ7つの画素からなる、9つの画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素のうち、注目画素から最も遠い位置にある画素は、注目画素に対して、縦方向に11画素離れた位置にある。
【0292】
例えば、図28および図29で示されるように、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度が、71.6度以上76.0度未満の範囲(図28および図29において、Cで示す範囲)にあるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした9つの画素を画素の組として選択すると共に、注目画素に対して、横方向に3画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、9つの画素を画素の組として選択する。
【0293】
すなわち、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度が、71.6度以上76.0度未満の範囲にあるとき、入力画像から、それぞれ9つの画素からなる、7つの画素の組を選択する。この場合において、設定された直線に最も近い位置の画素の縦方向の位置は、注目画素に対して、9画素乃至11画素である。
【0294】
図34で示されるように、例えば、画素選択部421−5は、設定された直線の角度が、71.6度であるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした9つの画素を画素の組として選択すると共に、注目画素に対して、横方向に3画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、9つの画素を画素の組として選択する。すなわち、画素選択部421−5は、入力画像から、それぞれ9つの画素からなる、7つの画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素のうち、注目画素から最も遠い位置にある画素は、注目画素に対して、縦方向に9画素離れた位置にある。
【0295】
また、図35で示されるように、例えば、画素選択部421−6は、設定された直線の角度が、74.7度であるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした9つの画素を画素の組として選択すると共に、注目画素に対して、横方向に3画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、9つの画素を画素の組として選択する。すなわち、画素選択部421−6は、入力画像から、それぞれ9つの画素からなる、7つの画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素のうち、注目画素から最も遠い位置にある画素は、注目画素に対して、縦方向に11画素離れた位置にある。
【0296】
例えば、図28および図29で示されるように、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度が、76.0度以上87.7度以下の範囲(図28および図29において、Dで示す範囲)にあるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした11の画素を画素の組として選択すると共に、注目画素に対して、横方向に2画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、11の画素を画素の組として選択する。すなわち、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度が、76.0度以上87.7度以下の範囲にあるとき、入力画像から、それぞれ11の画素からなる、5つの画素の組を選択する。この場合において、設定された直線に最も近い位置の画素の縦方向の位置は、注目画素に対して、8画素乃至50画素である。
【0297】
図36で示されるように、例えば、画素選択部421−7は、設定された直線の角度が、76.0度であるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした11の画素を画素の組として選択すると共に、注目画素に対して、横方向に2画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、11の画素を画素の組として選択する。すなわち、画素選択部421−7は、入力画像から、それぞれ11の画素からなる、5つの画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素のうち、注目画素から最も遠い位置にある画素は、注目画素に対して、縦方向に8画素離れた位置にある。
【0298】
また、図37で示されるように、例えば、画素選択部421−8は、設定された直線の角度が、87.7度であるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした11の画素を画素の組として選択すると共に、注目画素に対して、横方向に2画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、11の画素を画素の組として選択する。すなわち、画素選択部421−8は、入力画像から、それぞれ11の画素からなる、5の画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素のうち、注目画素から最も遠い位置にある画素は、注目画素に対して、縦方向に50画素離れた位置にある。
【0299】
このように、画素選択部421−1乃至画素選択部421−Lは、それぞれ、角度の範囲に対応した所定の数の画素からなる、角度の範囲に対応した所定の数の画素の組を選択する。
【0300】
画素選択部421−1は、選択した画素の組を推定誤差算出部422−1に供給し、画素選択部421−2は、選択した画素の組を推定誤差算出部422−2に供給する。同様に、画素選択部421−3乃至画素選択部421−Lのそれぞれは、選択した画素の組を推定誤差算出部422−3乃至推定誤差算出部422−Lのそれぞれに供給する。
【0301】
推定誤差算出部422−1乃至推定誤差算出部422−Lは、画素選択部421−1乃至画素選択部421−Lのいずれかから供給された、複数の組における対応する位置の画素の画素値の相関を検出する。例えば、推定誤差算出部422−1乃至推定誤差算出部422−Lは、画素選択部421−1乃至画素選択部421−Lのいずれかから供給された、注目画素を含む画素の組の画素の画素値と、他の画素の組における対応する位置の画素の画素値の差分の絶対値の和を算出し、注目画素を含む画素の組以外の画素の組に含まれる画素の数で、算出された和を割り算する。算出された和を、注目画素を含む組以外の組に含まれる画素の数で、割り算するのは、設定された直線の角度に応じて選択される画素の数が異なるので、相関を示す値を正規化するためである。
【0302】
推定誤差算出部422−1乃至推定誤差算出部422−Lは、検出された相関を示す情報を、最小誤差角度選択部413に供給する。例えば、推定誤差算出部422−1乃至推定誤差算出部422−Lは、正規化された画素値の差分の絶対値の和を最小誤差角度選択部413に供給する。
【0303】
次に、アクティビティ情報で示される、データの定常性の角度が0度乃至45度および135度乃至180度のいずれかの値であるときの画素選択部421−1乃至画素選択部421−Lの処理を説明する。
【0304】
画素選択部421−1乃至画素選択部421−Lは、0度乃至45度または135度乃至180度の範囲の、空間方向Xを示す軸を基準軸として、注目画素を通る、それぞれ互いに異なる所定の角度の直線を設定する。
【0305】
画素選択部421−1乃至画素選択部421−Lは、注目画素が属する横に1列の画素の列に属する画素であって、設定された直線の角度の範囲に応じた数の、注目画素の左側の画素、および注目画素の右側の画素、並びに注目画素を画素の組として選択する。
【0306】
画素選択部421−1乃至画素選択部421−Lは、注目画素が属する横に1列の画素の列に対して、画素を基準とした縦方向に所定の距離にある、上側および下側の横に1列の画素の列に属する画素であって、設定された直線に最も近い位置の画素を選択し、選択された画素に対して横に1列の画素から、設定された直線の角度の範囲に応じた数の、選択された画素の左側の画素、および選択された画素の右側の画素、並びに選択された画素を画素の組として選択する。
【0307】
すなわち、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度の範囲に応じた数の画素を、画素の組として選択する。画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度の範囲に応じた数の、画素の組を選択する。
【0308】
画素選択部421−1は、選択した画素の組を推定誤差算出部422−1に供給し、画素選択部421−2は、選択した画素の組を推定誤差算出部422−2に供給する。同様に、画素選択部421−3乃至画素選択部421−Lのそれぞれは、選択した画素の組を推定誤差算出部422−3乃至推定誤差算出部422−Lのそれぞれに供給する。
【0309】
推定誤差算出部422−1乃至推定誤差算出部422−Lは、画素選択部421−1乃至画素選択部421−Lのいずれかから供給された、複数の組における対応する位置の画素の画素値の相関を検出する。
【0310】
推定誤差算出部422−1乃至推定誤差算出部422−Lは、検出された相関を示す情報を、最小誤差角度選択部413に供給する。
【0311】
次に、図38のフローチャートを参照して、ステップS101の処理に対応する、図26で構成が示されるデータ定常性検出部101による、データの定常性の検出の処理を説明する。
【0312】
ステップS421およびステップS422の処理は、ステップS401およびステップS402の処理と同様なので、その説明は省略する。
【0313】
ステップS423において、データ選択部402は、ステップS422の処理で検出されたアクティビティに対する所定の範囲の角度毎に、注目画素を含む画素の列から、注目画素を中心とした、角度の範囲に対して定めた数の画素を、画素の組として選択する。例えば、データ選択部402は、注目画素が属する縦または横に1列の画素の列に属する画素であって、設定する直線の角度に対して、角度の範囲により定めた数の、注目画素の上側または左側の画素、および注目画素の下側または右側の画素、並びに注目画素を画素の組として選択する。
【0314】
ステップS424において、データ選択部402は、ステップS422の処理で検出されたアクティビティを基にした、所定の範囲の角度毎に、角度の範囲に対して定めた数の画素の列から、角度の範囲に対して定めた数の画素を、画素の組として選択する。例えば、データ選択部402は、所定の範囲の角度を有し、空間方向Xを示す軸を基準軸として、注目画素を通る直線を設定し、注目画素に対して、横方向または縦方向に、設定する直線の角度の範囲に対して所定の範囲だけ離れた画素であって、直線に最も近い画素を選択し、選択された画素の上側または左側の、設定する直線の角度の範囲に対する数の画素、および選択された画素の下側または右側の、設定する直線の角度の範囲に対する数の画素、並びに選択された線に最も近い画素を画素の組として選択する。データ選択部402は、角度毎に、画素の組を選択する。
【0315】
データ選択部402は、選択した画素の組を誤差推定部403に供給する。
【0316】
ステップS425において、誤差推定部403は、注目画素を中心とした画素の組と、角度毎に選択した画素の組との相関を計算する。例えば、誤差推定部403は、注目画素を含む組の画素の画素値と、他の組における対応する位置の画素の画素値の差分の絶対値の和を算出し、他の組に属する画素の数で、画素値の差分の絶対値の和を割り算することにより、相関を計算する。
【0317】
角度毎に選択された、画素の組の相互の相関を基に、データの定常性の角度を検出するようにしてもよい。
【0318】
誤差推定部403は、算出された相関を示す情報を、定常方向導出部404に供給する。
【0319】
ステップS426およびステップS427の処理は、ステップS406およびステップS407の処理と同様なので、その説明は省略する。
【0320】
このように、データ定常性検出部101は、欠落した実世界の光信号の定常性に対応する、画像データにおける、基準軸を基準としたデータの定常性の角度を、より正確に、より精度良く検出することができる。図26に構成を示すデータ定常性検出部101は、特に、データの定常性の角度が45度付近である場合において、細線の画像が射影された、より多くの画素の相関を評価することができるので、より精度良くデータの定常性の角度を検出することができる。
【0321】
なお、図26で構成が示されるデータ定常性検出部101においても、注目しているフレームである注目フレームの、注目している画素である注目画素について、入力画像の空間方向のアクティビティを検出し、検出されたアクティビティに応じて、注目画素および空間方向の基準軸を基準とした角度、並びに動きベクトル毎に、注目フレームおよび注目フレームの時間的に前または後ろのフレームのそれぞれから、垂直方向に1列または水平方向に1列の、空間的な角度の範囲に対して定めた数の画素からなる画素の組を、空間的な角度の範囲に対して定めた数だけ抽出し、抽出された画素の組の相関を検出し、相関に基づいて、入力画像における、時間方向および空間方向のデータの定常性の角度を検出するようにしてもよい。
【0322】
図39は、データ定常性検出部101のさらに他の構成を示すブロック図である。
【0323】
図39に構成を示すデータ定常性検出部101においては、注目している画素である注目画素について、所定の数の画素からなる、注目画素を中心としたブロックと、注目画素の周辺の、それぞれ、所定の数の画素からなる複数のブロックが抽出され、注目画素を中心としたブロックと周辺のブロックとの相関が検出され、相関に基づいて、入力画像における、基準軸を基準としたデータの定常性の角度が検出される。
【0324】
データ選択部441は、入力画像の画素から注目画素を順に選択し、注目画素を中心とした、所定の数の画素からなるブロック、および、注目画素の周辺の、所定の数の画素からなる複数のブロックを抽出し、抽出したブロックを誤差推定部442に供給する。
【0325】
例えば、データ選択部441は、注目画素を中心とした5×5画素からなるブロック、注目画素の周辺から、注目画素および基準軸を基準とした所定の角度の範囲毎に、5×5画素からなる2つのブロックを抽出する。
【0326】
誤差推定部442は、データ選択部441から供給された、注目画素を中心としたブロックと、注目画素の周辺のブロックとの相関を検出して、検出した相関を示す相関情報を定常方向導出部443に供給する。
【0327】
例えば、誤差推定部442は、角度の範囲毎に、注目画素を中心とした5×5画素からなるブロックと、1つの角度の範囲に対応する、5×5画素からなる2つのブロックとについて、画素値の相関を検出する。
【0328】
定常性方向導出部443は、誤差推定部442から供給された相関情報に基づいて、相関の最も強い、注目画素の周辺のブロックの位置から、欠落した実世界の光信号の定常性に対応する、入力画像における、基準軸を基準としたデータの定常性の角度を検出し、角度を示すデータ定常性情報を出力する。例えば、定常方向導出部443は、誤差推定部442から供給された相関情報に基づいて、注目画素を中心とした5×5画素からなるブロックに対して最も相関の強い、5×5画素からなる2つのブロックに対する角度の範囲を、データの定常性の角度として検出し、検出された角度を示すデータ定常性情報を出力する。
【0329】
図40は、図39に示すデータ定常性検出部101のより詳細な構成を示すブロック図である。
【0330】
データ選択部441は、画素選択部461−1乃至画素選択部461−Lを含む。誤差推定部442は、推定誤差算出部462−1乃至推定誤差算出部462−Lを含む。定常方向導出部443は、最小誤差角度選択部463を含む。
【0331】
例えば、データ選択部441には、画素選択部461−1乃至画素選択部461−8が設けられる。例えば、誤差推定部442には、推定誤差算出部462−1乃至推定誤差算出部462−8が設けられる。
【0332】
画素選択部461−1乃至画素選択部461−Lのそれぞれは、注目画素を中心とした、所定の数の画素からなるブロック、並びに注目画素および基準軸を基準とした所定の角度の範囲に対応した、所定の数の画素からなる2つのブロックを抽出する。
【0333】
図41は、画素選択部461−1乃至画素選択部461−Lにより抽出される、5×5画素のブロックの例を説明する図である。図41における中央の位置は、注目画素の位置を示す。
【0334】
なお、5×5画素のブロックは、一例であって、ブロックに含まれる画素の数は、本発明を限定するものではない。
【0335】
例えば、画素選択部461−1は、注目画素を中心とした、5×5画素のブロックを抽出すると共に、0度乃至18.4度および161.6度乃至180.0度の範囲に対応した、注目画素に対して、右側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図41中Aで示す)を抽出し、注目画素に対して、左側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図41中A’で示す)を抽出する。画素選択部461−1は、抽出した、5×5画素の3つのブロックを推定誤差算出部462−1に供給する。
【0336】
画素選択部461−2は、注目画素を中心とした、5×5画素のブロックを抽出すると共に、18.4度乃至33.7度の範囲に対応した、注目画素に対して、右側に10画素移動し、上側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図41中Bで示す)を抽出し、注目画素に対して、左側に10画素移動し、下側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図41中B’で示す)を抽出する。画素選択部461−2は、抽出した、5×5画素の3つのブロックを推定誤差算出部462−2に供給する。
【0337】
画素選択部461−3は、注目画素を中心とした、5×5画素のブロックを抽出すると共に、33.7度乃至56.3度の範囲に対応した、注目画素に対して、右側に5画素移動し、上側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図41中Cで示す)を抽出し、注目画素に対して、左側に5画素移動し、下側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図41中C’で示す)を抽出する。画素選択部461−3は、抽出した、5×5画素の3つのブロックを推定誤差算出部462−3に供給する。
【0338】
画素選択部461−4は、注目画素を中心とした、5×5画素のブロックを抽出すると共に、56.3度乃至71.6度の範囲に対応した、注目画素に対して、右側に5画素移動し、上側に10画素移動した位置にある画素を中心とした、5×5画素のブロック(図41中Dで示す)を抽出し、注目画素に対して、左側に5画素移動し、下側に10画素移動した位置にある画素を中心とした、5×5画素のブロック(図41中D’で示す)を抽出する。画素選択部461−4は、抽出した、5×5画素の3つのブロックを推定誤差算出部462−4に供給する。
【0339】
画素選択部461−5は、注目画素を中心とした、5×5画素のブロックを抽出すると共に、71.6度乃至108.4度の範囲に対応した、注目画素に対して、上側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図41中Eで示す)を抽出し、注目画素に対して、下側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図41中E’で示す)を抽出する。画素選択部461−5は、抽出した、5×5画素の3つのブロックを推定誤差算出部462−5に供給する。
【0340】
画素選択部461−6は、注目画素を中心とした、5×5画素のブロックを抽出すると共に、108.4度乃至123.7度の範囲に対応した、注目画素に対して、左側に5画素移動し、上側に10画素移動した位置にある画素を中心とした、5×5画素のブロック(図41中Fで示す)を抽出し、注目画素に対して、右側に5画素移動し、下側に10画素移動した位置にある画素を中心とした、5×5画素のブロック(図41中F’で示す)を抽出する。画素選択部461−6は、抽出した、5×5画素の3つのブロックを推定誤差算出部462−6に供給する。
【0341】
画素選択部461−7は、注目画素を中心とした、5×5画素のブロックを抽出すると共に、123.7度乃至146.3度の範囲に対応した、注目画素に対して、左側に5画素移動し、上側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図41中Gで示す)を抽出し、注目画素に対して、右側に5画素移動し、下側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図41中G’で示す)を抽出する。画素選択部461−7は、抽出した、5×5画素の3つのブロックを推定誤差算出部462−7に供給する。
【0342】
画素選択部461−8は、注目画素を中心とした、5×5画素のブロックを抽出すると共に、146.3度乃至161.6度の範囲に対応した、注目画素に対して、左側に10画素移動し、上側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図41中Hで示す)を抽出し、注目画素に対して、右側に10画素移動し、下側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図41中H’で示す)を抽出する。画素選択部461−8は、抽出した、5×5画素の3つのブロックを推定誤差算出部462−8に供給する。
【0343】
以下、注目画素を中心とした、所定の数の画素からなるブロックを注目ブロックと称する。
【0344】
以下、注目画素および基準軸を基準とした所定の角度の範囲に対応した、所定の数の画素からなるブロックを参照ブロックと称する。
【0345】
このように、画素選択部461−1乃至画素選択部461−8は、例えば、注目画素を中心として、25×25画素の範囲から、注目ブロックおよび参照ブロックを抽出する。
【0346】
推定誤差算出部462−1乃至推定誤差算出部462−Lは、画素選択部461−1乃至画素選択部461−Lから供給された、注目ブロックと、2つの参照ブロックとの相関を検出して、検出した相関を示す相関情報を最小誤差角度選択部463に供給する。
【0347】
例えば、推定誤差算出部462−1は、注目画素を中心とした、5×5画素からなる注目ブロックと、0度乃至18.4度および161.6度乃至180.0度の範囲に対応して抽出された、注目画素に対して、右側に5画素移動した位置にある画素を中心とした、5×5画素の参照ブロックとについて、注目ブロックに含まれる画素の画素値と、参照ブロックに含まれる画素の画素値との差分の絶対値を算出する。
【0348】
この場合において、推定誤差算出部462−1は、図42に示されるように、注目ブロックの中央の画素と参照ブロックの中央の画素とが重なる位置を基準として、画素値の差分の絶対値の算出に、注目画素の画素値が使用されるように、参照ブロックに対して、注目ブロックの位置を、左側に2画素乃至右側に2画素のいずれか、上側に2画素乃至下側に2画素のいずれか移動させた場合に重なる位置となる画素の画素値の差分の絶対値を算出する。すなわち、注目ブロックと参照ブロックとの25種類の位置における、対応する位置の画素の画素値の差分の絶対値が算出される。言い換えれば、画素値の差分の絶対値が算出される場合において、相対的に移動される注目ブロックおよび参照ブロックとからなる範囲は、9×9画素である。
【0349】
図42において、四角は、画素を示し、Aは、参照ブロックを示し、Bは、注目ブロックを示す。図42において、太線は、注目画素を示す。すなわち、図42は、参照ブロックに対して、注目ブロックが右側に2画素、および上側に1画素移動した場合の例を示す図である。
【0350】
さらに、推定誤差算出部462−1は、注目画素を中心とした、5×5画素からなる注目ブロックと、0度乃至18.4度および161.6度乃至180.0度の範囲に対応して抽出された、注目画素に対して、左側に5画素移動した位置にある画素を中心とした、5×5画素の参照ブロックとについて、注目ブロックに含まれる画素の画素値と、参照ブロックに含まれる画素の画素値との差分の絶対値を算出する。
【0351】
そして、推定誤差算出部462−1は、算出された差分の絶対値の和を求めて、差分の絶対値の和を、相関を示す相関情報として最小誤差角度選択部463に供給する。
【0352】
推定誤差算出部462−2は、5×5画素からなる注目ブロックと、18.4度乃至33.7度の範囲に対応して抽出された、5×5画素の2つの参照ブロックとについて、画素値の差分の絶対値を算出し、さらに、算出された差分の絶対値の和を算出する。推定誤差算出部462−1は、算出された差分の絶対値の和を、相関を示す相関情報として最小誤差角度選択部463に供給する。
【0353】
同様に、推定誤差算出部462−3乃至推定誤差算出部462−8のそれぞれは、5×5画素からなる注目ブロックと、所定の角度の範囲に対応して抽出された、5×5画素の2つの参照ブロックとについて、画素値の差分の絶対値を算出し、さらに、算出された差分の絶対値の和を算出する。推定誤差算出部462−3乃至推定誤差算出部462−8のそれぞれは、算出された差分の絶対値の和を、相関を示す相関情報として最小誤差角度選択部463に供給する。
【0354】
最小誤差角度選択部463は、推定誤差算出部462−1乃至推定誤差算出部462−8から供給された、相関情報としての画素値の差分の絶対値の和のうち、最も強い相関を示す、最小の値が得られた参照ブロックの位置から、2つの参照ブロックに対する角度をデータの定常性の角度として検出し、検出された角度を示すデータ定常性情報を出力する。
【0355】
ここで、参照ブロックの位置と、データの定常性の角度の範囲との関係について説明する。
【0356】
実世界の信号を近似する近似関数f(x)をn次の一次元多項式で近似した場合、近似関数f(x)は、式(15)で表すことができる。
【数12】
【0357】
近似関数f(x)で近似される実世界の信号の波形が、空間方向Yに対して一定の傾き(角度)を有する場合、式(15)における、xをx+γyとすることにより得られた式(16)で、実世界の信号を近似する近似関数(x,y)は、表現される。
【数13】
【0358】
γは、空間方向Yの位置の変化に対する、空間方向Xの位置の変化の割合を示す。以下、γをシフト量とも称する。
【0359】
図43は、注目画素の位置と、角度θを有する直線との空間方向Xの距離を0としたとき、すなわち、注目画素を直線が通るときの、注目画素の周辺の画素の位置と、角度θを有する直線との空間方向Xの距離を示す図である。ここで、画素の位置は、画素の中心の位置である。また、位置と直線との距離は、位置が直線に対して左側にあるとき、負の値で示され、位置が直線に対して右側にあるとき、正の値で示される。
【0360】
例えば、注目画素の右側に隣接する画素の位置、すなわち空間方向Xの座標xが1増加する位置と、角度θを有する直線との空間方向Xの距離は、1であり、注目画素の左側に隣接する画素の位置、すなわち空間方向Xの座標xが1減少する位置と、角度θを有する直線との空間方向Xの距離は、−1である。注目画素の上側に隣接する画素の位置、すなわち空間方向Yの座標yが1増加する位置と、角度θを有する直線との空間方向Xの距離は、−γであり、注目画素の下側に隣接する画素の位置、すなわち空間方向Yの座標yが1減少する位置と、角度θを有する直線との空間方向Xの距離は、γである。
【0361】
角度θが45度を超え、90度未満であり、シフト量γが、0を超え、1未満であるとき、シフト量γと角度θとの間には、γ=1/tanθの関係式が成り立つ。図44は、シフト量γと角度θとの関係を示す図である。
【0362】
ここで、シフト量γの変化に対する、注目画素の周辺の画素の位置と、注目画素を通り、角度θを有する直線との空間方向Xの距離の変化に注目する。
【0363】
図45は、シフト量γに対する、注目画素の周辺の画素の位置と、注目画素を通り、角度θを有する直線との空間方向Xの距離を示す図である。図45において、右上がりの一点鎖線は、シフト量γに対する、注目画素の下側に隣接する画素の位置と直線との空間方向Xの距離を示し、左下がりの一点鎖線は、シフト量γに対する、注目画素の上側に隣接する画素の位置と直線との空間方向Xの距離を示す。
【0364】
図45において、右上がりの二点鎖線は、シフト量γに対する、注目画素から、2画素下側で、1画素左側に位置する画素の位置と直線との空間方向Xの距離を示し、左下がりの二点鎖線は、シフト量γに対する、注目画素から、2画素上側で、1画素右側に位置する画素の位置と直線との空間方向Xの距離を示す。
【0365】
図45において、右上がりの三点鎖線は、シフト量γに対する、注目画素から、1画素下側で、1画素左側に位置する画素の位置と直線との空間方向Xの距離を示し、左下がりの三点鎖線は、シフト量γに対する、注目画素から、1画素上側で、1画素右側に位置する画素の位置と直線との空間方向Xの距離を示す。
【0366】
図45から、シフト量γに対して、距離が最も小さい画素がわかる。
【0367】
すなわち、シフト量γが0乃至1/3であるとき、注目画素の上側に隣接する画素および注目画素の下側に隣接する画素から、直線までの距離が最小である。すなわち、角度θが71.6度乃至90度であるとき、注目画素の上側に隣接する画素および注目画素の下側に隣接する画素から、直線までの距離が最小である。
【0368】
シフト量γが1/3乃至2/3であるとき、注目画素に対して、2画素上側で、1画素右側に位置する画素、および注目画素に対して、2画素下側で、1画素左側に位置する画素から、直線までの距離が最小である。すなわち、角度θが56.3度乃至71.6度であるとき、注目画素に対して、2画素上側で、1画素右側に位置する画素、および注目画素に対して、2画素下側で、1画素左側に位置する画素から、直線までの距離が最小である。
【0369】
また、シフト量γが2/3乃至1であるとき、注目画素に対して、1画素上側で、1画素右側に位置する画素、および注目画素に対して、1画素下側で、1画素左側に位置する画素から、直線までの距離が最小である。すなわち、角度θが45度乃至56.3度であるとき、注目画素に対して、1画素上側で、1画素右側に位置する画素、および注目画素に対して、1画素下側で、1画素左側に位置する画素から、直線までの距離が最小である。
【0370】
角度θが0度から45度までの範囲の直線と画素との関係も、同様に考えることができる。
【0371】
図43に示す画素を、注目ブロックおよび参照ブロックに置き換えて、参照ブロックと直線との空間方向Xの距離を考えることができる。
【0372】
図46に、注目画素を通り、空間方向Xの軸に対して角度θの直線との距離が最小の参照ブロックを示す。
【0373】
図46におけるA乃至HおよびA’乃至H’は、図41におけるA乃至HおよびA’乃至H’の参照ブロックを示す。
【0374】
すなわち、注目画素を通り、空間方向Xの軸を基準とした、0度乃至18.4度および161.6度乃至180.0度のいずれかの角度θを有する直線と、A乃至HおよびA’乃至H’の参照ブロックのそれぞれとの空間方向Xの距離のうち、直線とAおよびA’の参照ブロックとの距離が最小となる。従って、逆に考えれば、注目ブロックと、AおよびA’の参照ブロックとの相関が最も強いとき、注目ブロックと、AおよびA’の参照ブロックとを結ぶ方向に、一定の特徴が繰り返し現れているので、データの定常性の角度は、0度乃至18.4度および161.6度乃至180.0度の範囲にあると言える。
【0375】
注目画素を通り、空間方向Xの軸を基準とした、18.4度乃至33.7度のいずれかの角度θを有する直線と、A乃至HおよびA’乃至H’の参照ブロックのそれぞれとの空間方向Xの距離のうち、直線とBおよびB’の参照ブロックとの距離が最小となる。従って、逆に考えれば、注目ブロックと、BおよびB’の参照ブロックとの相関が最も強いとき、注目ブロックと、BおよびB’の参照ブロックとを結ぶ方向に、一定の特徴が繰り返し現れているので、データの定常性の角度は、18.4度乃至33.7度の範囲にあると言える。
【0376】
注目画素を通り、空間方向Xの軸を基準とした、33.7度乃至56.3度のいずれかの角度θを有する直線と、A乃至HおよびA’乃至H’の参照ブロックのそれぞれとの空間方向Xの距離のうち、直線とCおよびC’の参照ブロックとの距離が最小となる。従って、逆に考えれば、注目ブロックと、CおよびC’の参照ブロックとの相関が最も強いとき、注目ブロックと、CおよびC’の参照ブロックとを結ぶ方向に、一定の特徴が繰り返し現れているので、データの定常性の角度は、33.7度乃至56.3度の範囲にあると言える。
【0377】
注目画素を通り、空間方向Xの軸を基準とした、56.3度乃至71.6度のいずれかの角度θを有する直線と、A乃至HおよびA’乃至H’の参照ブロックのそれぞれとの空間方向Xの距離のうち、直線とDおよびD’の参照ブロックとの距離が最小となる。従って、逆に考えれば、注目ブロックと、DおよびD’の参照ブロックとの相関が最も強いとき、注目ブロックと、DおよびD’の参照ブロックとを結ぶ方向に、一定の特徴が繰り返し現れているので、データの定常性の角度は、56.3度乃至71.6度の範囲にあると言える。
【0378】
注目画素を通り、空間方向Xの軸を基準とした、71.6度乃至108.4度のいずれかの角度θを有する直線と、A乃至HおよびA’乃至H’の参照ブロックのそれぞれとの空間方向Xの距離のうち、直線とEおよびE’の参照ブロックとの距離が最小となる。従って、逆に考えれば、注目ブロックと、EおよびE’の参照ブロックとの相関が最も強いとき、注目ブロックと、EおよびE’の参照ブロックとを結ぶ方向に、一定の特徴が繰り返し現れているので、データの定常性の角度は、71.6度乃至108.4度の範囲にあると言える。
【0379】
注目画素を通り、空間方向Xの軸を基準とした、108.4度乃至123.7度のいずれかの角度θを有する直線と、A乃至HおよびA’乃至H’の参照ブロックのそれぞれとの空間方向Xの距離のうち、直線とFおよびF’の参照ブロックとの距離が最小となる。従って、逆に考えれば、注目ブロックと、FおよびF’の参照ブロックとの相関が最も強いとき、注目ブロックと、FおよびF’の参照ブロックとを結ぶ方向に、一定の特徴が繰り返し現れているので、データの定常性の角度は、108.4度乃至123.7度の範囲にあると言える。
【0380】
注目画素を通り、空間方向Xの軸を基準とした、123.7度乃至146.3度のいずれかの角度θを有する直線と、A乃至HおよびA’乃至H’の参照ブロックのそれぞれとの空間方向Xの距離のうち、直線とGおよびG’の参照ブロックとの距離が最小となる。従って、逆に考えれば、注目ブロックと、GおよびG’の参照ブロックとの相関が最も強いとき、注目ブロックと、GおよびG’の参照ブロックとを結ぶ方向に、一定の特徴が繰り返し現れているので、データの定常性の角度は、123.7度乃至146.3度の範囲にあると言える。
【0381】
注目画素を通り、空間方向Xの軸を基準とした、146.3度乃至161.6度のいずれかの角度θを有する直線と、A乃至HおよびA’乃至H’の参照ブロックのそれぞれとの空間方向Xの距離のうち、直線とHおよびH’の参照ブロックとの距離が最小となる。従って、逆に考えれば、注目ブロックと、HおよびH’の参照ブロックとの相関が最も強いとき、注目ブロックと、HおよびH’の参照ブロックとを結ぶ方向に、一定の特徴が繰り返し現れているので、データの定常性の角度は、146.3度乃至161.6度の範囲にあると言える。
【0382】
このように、データ定常性検出部101は、注目ブロックと参照ブロックとの相関を基に、データの定常性の角度を検出することができる。
【0383】
なお、図39に構成を示すデータ定常性検出部101においては、データの定常性の角度の範囲をデータ定常性情報として出力するようにしても良く、データの定常性の角度の範囲を示す代表値をデータ定常性情報として出力するようにしても良い。例えば、データの定常性の角度の範囲の中央値を代表値とすることができる。
【0384】
さらに、図39に構成を示すデータ定常性検出部101は、相関が最も強い参照ブロックの周辺の参照ブロックの相関を利用することにより、検出するデータの定常性の角度の範囲を1/2に、すなわち、検出するデータの定常性の角度の分解能を2倍にすることができる。
【0385】
例えば、注目ブロックと、EおよびE’の参照ブロックとの相関が最も強いとき、最小誤差角度選択部463は、図47で示されるように、注目ブロックに対する、DおよびD’の参照ブロックの相関と、注目ブロックに対する、FおよびF’の参照ブロックの相関とを比較する。注目ブロックに対する、DおよびD’の参照ブロックの相関が、注目ブロックに対する、FおよびF’の参照ブロックの相関に比較して、強い場合、最小誤差角度選択部463は、データの定常性の角度に、71.6度乃至90度の範囲を設定する。また、この場合、最小誤差角度選択部463は、データの定常性の角度に、代表値として81度を設定するようにしてもよい。
【0386】
注目ブロックに対する、FおよびF’の参照ブロックの相関が、注目ブロックに対する、DおよびD’の参照ブロックの相関に比較して、強い場合、最小誤差角度選択部463は、データの定常性の角度に、90度乃至108.4度の範囲を設定する。また、この場合、最小誤差角度選択部463は、データの定常性の角度に、代表値として99度を設定するようにしてもよい。
【0387】
最小誤差角度選択部463は、同様の処理で、他の角度の範囲についても、検出するデータの定常性の角度の範囲を1/2にすることができる。
【0388】
尚、図47を参照して説明した手法を、簡易16方位検出手法とも称する。
【0389】
このように、図39に構成を示すデータ定常性検出部101は、簡単な処理で、より範囲の狭い、データの定常性の角度を検出することができる。
【0390】
次に、図48のフローチャートを参照して、ステップS101の処理に対応する、図39で構成が示されるデータ定常性検出部101による、データの定常性の検出の処理を説明する。
【0391】
ステップS441において、データ選択部441は、入力画像から、注目している画素である注目画素を選択する。例えば、データ選択部441は、入力画像から、ラスタスキャン順に、注目画素を選択する。
【0392】
ステップS442において、データ選択部441は、注目画素を中心とする所定の数の画素からなる注目ブロックを選択する。例えば、データ選択部441は、注目画素を中心とする5×5画素からなる注目ブロックを選択する。
【0393】
ステップS443において、データ選択部441は、注目画素の周辺の所定の位置の所定の数の画素からなる参照ブロックを選択する。例えば、データ選択部441は、注目画素および基準軸を基準とした所定の角度の範囲毎に、注目ブロックの大きさを基準とした、所定の位置の画素を中心とする5×5画素からなる参照ブロックを選択する。
【0394】
データ選択部441は、注目ブロックおよび参照ブロックを誤差推定部442に供給する。
【0395】
ステップS444において、誤差推定部442は、注目画素および基準軸を基準とした所定の角度の範囲毎に、注目ブロックと、角度の範囲に対応した参照ブロックとの相関を計算する。誤差推定部442は、算出された相関を示す相関情報を定常方向導出部443に供給する。
【0396】
ステップS445において、定常方向導出部443は、注目ブロックに対して、相関が最も強い参照ブロックの位置から、欠落した実世界の光信号である画像の定常性に対応する、入力画像における、基準軸を基準としたデータの定常性の角度を検出する。
【0397】
定常方向導出部443は、検出したデータの定常性の角度を示すデータ定常性情報を出力する。
【0398】
ステップS446において、データ選択部441は、全ての画素の処理を終了したか否かを判定し、全ての画素の処理を終了していないと判定された場合、ステップS441に戻り、まだ注目画素として選択されていない画素から注目画素を選択して、上述した処理を繰り返す。
【0399】
ステップS446において、全ての画素の処理を終了したと判定された場合、処理は終了する。
【0400】
このように、図39に構成を示すデータ定常性検出部101は、より簡単な処理で、欠落した実世界の光信号の定常性に対応する、画像データにおける、基準軸を基準としたデータの定常性の角度を検出することができる。また、図39に構成を示すデータ定常性検出部101は、入力画像の中の、比較的狭い範囲の画素の画素値を使用して、データの定常性の角度を検出することができるので、入力画像にノイズ等が含まれていても、より正確にデータの定常性の角度を検出することができる。
【0401】
なお、図39で構成が示されるデータ検出部101は、注目しているフレームである注目フレームの、注目している画素である注目画素について、注目フレームから、所定の数の画素からなる、注目画素を中心としたブロックと、注目画素の周辺の、それぞれ、所定の数の画素からなる複数のブロックとを抽出すると共に、注目フレームに対して時間的に前または後ろのフレームから、所定の数の画素からなる、注目画素に対応する位置の画素を中心としたブロックと、注目画素に対応する位置の画素の周辺の、それぞれ、所定の数の画素からなる複数のブロックとを抽出し、注目画素を中心としたブロックと空間的または時間的に周辺のブロックとの相関を検出し、相関に基づいて、入力画像における、時間方向および空間方向のデータの定常性の角度を検出するようにしてもよい。
【0402】
例えば、図49に示すように、データ選択部441は、注目フレームであるフレーム#nから注目画素を順に選択し、フレーム#nから、注目画素を中心とした、所定の数の画素からなるブロック、および、注目画素の周辺の、所定の数の画素からなる複数のブロックを抽出する。また、データ選択部441は、フレーム#n−1およびフレーム#n+1のそれぞれから、注目画素の位置に対応する位置の画素を中心とした、所定の数の画素からなるブロック、および、注目画素の位置に対応する位置の画素の周辺の、所定の数の画素からなる複数のブロックを抽出する。データ選択部441は、抽出したブロックを誤差推定部442に供給する。
【0403】
誤差推定部442は、データ選択部441から供給された、注目画素を中心としたブロックと、空間的または時間的に周辺のブロックとの相関を検出して、検出した相関を示す相関情報を定常方向導出部443に供給する。定常性方向導出部443は、誤差推定部442から供給された相関情報に基づいて、相関の最も強い、空間的または時間的に周辺のブロックの位置から、欠落した実世界の光信号の定常性に対応する、入力画像における、時間方向および空間方向のデータの定常性の角度を検出し、角度を示すデータ定常性情報を出力する。
【0404】
また、データ定常性検出部101は、入力画像のコンポーネント信号を基に、データの定常性の検出の処理を実行することができる。
【0405】
図50は、入力画像のコンポーネント信号を基に、データの定常性の検出の処理を実行するデータ定常性検出部101の構成を示すブロック図である。
【0406】
データ定常性検出部481−1乃至481−3のそれぞれは、上述した、または後述するデータ定常性検出部101と同様の構成を有し、入力画像のコンポーネント信号のそれぞれを処理の対象として、上述した、または後述する処理を実行する。
【0407】
データ定常性検出部481−1は、入力画像の第1のコンポーネント信号を基に、データの定常性を検出し、第1のコンポーネント信号から検出されたデータの定常性を示す情報を決定部482に供給する。例えば、データ定常性検出部481−1は、入力画像の輝度信号を基に、データの定常性を検出し、輝度信号から検出されたデータの定常性を示す情報を決定部482に供給する。
【0408】
データ定常性検出部481−2は、入力画像の第2のコンポーネント信号を基に、データの定常性を検出し、第2のコンポーネント信号から検出されたデータの定常性を示す情報を決定部482に供給する。例えば、データ定常性検出部481−2は、入力画像の色差信号であるI信号を基に、データの定常性を検出し、I信号から検出されたデータの定常性を示す情報を決定部482に供給する。
【0409】
データ定常性検出部481−3は、入力画像の第3のコンポーネント信号を基に、データの定常性を検出し、第3のコンポーネント信号から検出されたデータの定常性を示す情報を決定部482に供給する。例えば、データ定常性検出部481−2は、入力画像の色差信号であるQ信号を基に、データの定常性を検出し、Q信号から検出されたデータの定常性を示す情報を決定部482に供給する。
【0410】
決定部482は、データ定常性検出部481−1乃至481−3から供給された、各コンポーネント信号から検出されたデータの定常性を示す情報を基に、入力画像における最終的なデータの定常性を検出して、検出したデータの定常性を示すデータ定常性情報を出力する。
【0411】
例えば、決定部482は、データ定常性検出部481−1乃至481−3から供給された、各コンポーネント信号から検出されたデータの定常性のうち、最大のデータの定常性を最終的なデータの定常性とする。また、例えば、決定部482は、データ定常性検出部481−1乃至481−3から供給された、各コンポーネント信号から検出されたデータの定常性のうち、最小のデータの定常性を最終的なデータの定常性とする。
【0412】
さらに、例えば、決定部482は、データ定常性検出部481−1乃至481−3から供給された、各コンポーネント信号から検出されたデータの定常性の平均値を最終的なデータの定常性とする。決定部482は、データ定常性検出部481−1乃至481−3から供給された、各コンポーネント信号から検出されたデータの定常性のメディアン(中央値)を最終的なデータの定常性とするようにしてもよい。
【0413】
また、例えば、決定部482は、外部から入力された信号を基に、データ定常性検出部481−1乃至481−3から供給された、各コンポーネント信号から検出されたデータの定常性のうち、外部から入力された信号で指定されるデータの定常性を最終的なデータの定常性とする。決定部482は、データ定常性検出部481−1乃至481−3から供給された、各コンポーネント信号から検出されたデータの定常性のうち、予め定めたデータの定常性を最終的なデータの定常性とするようにしてもよい。
【0414】
なお、決定部482は、データ定常性検出部481−1乃至481−3から供給された、各コンポーネント信号のデータの定常性の検出の処理で求めた誤差を基に、最終的なデータの定常性を決定するようにしてもよい。データの定常性の検出の処理で求められる誤差については、後述する。
【0415】
図51は、入力画像のコンポーネント信号を基に、データの定常性の検出の処理を実行するデータ定常性検出部101の他の構成を示す図である。
【0416】
コンポーネント処理部491は、入力画像のコンポーネント信号を基に、1つの信号を生成し、データ定常性検出部492に供給する。例えば、コンポーネント処理部491は、入力画像の各コンポーネント信号における値を、画面上で同じ位置の画素について、加算することにより、コンポーネント信号の値の和からなる信号を生成する。
【0417】
例えば、コンポーネント処理部491は、入力画像の各コンポーネント信号における画素値を、画面上で同じ位置の画素について、平均することにより、コンポーネント信号の画素値の平均値からなる信号を生成する。
【0418】
データ定常性検出部492は、コンポーネント処理部491から供給された、信号を基に、入力画像における、データの定常性を検出し、検出したデータの定常性を示すデータ定常性情報を出力する。
【0419】
データ定常性検出部492は、上述した、または後述するデータ定常性検出部101と同様の構成を有し、コンポーネント処理部491から供給された信号を対象として、上述した、または後述する処理を実行する。
【0420】
このように、データ定常性検出部101は、コンポーネント信号を基に、入力画像のデータの定常性を検出することにより、入力画像にノイズなどが含まれていても、より正確に、データの定常性を検出することができる。例えば、データ定常性検出部101は、コンポーネント信号を基に、入力画像のデータの定常性を検出することにより、より正確に、データの定常性の角度(傾き)、混合比、またはデータの定常性を有する領域を検出することができる。
【0421】
なお、コンポーネント信号は、輝度信号および色差信号に限らず、RGB信号、またはYUV信号など他の方式のコンポーネント信号であっても良い。
【0422】
以上のように、現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した画像データの、欠落した現実世界の光信号の定常性に対応するデータの定常性の、基準軸に対する角度を検出し、検出された角度に基づいて、欠落した現実世界の光信号の定常性を推定することにより光信号を推定するようにした場合、現実世界の事象に対して、より正確で、より精度の高い処理結果を得ることができるようになる。
【0423】
また、現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した画像データの注目している注目画素および基準軸を基準とした角度毎に、所定の数の画素からなる画素の組であって、複数の組を抽出し、角度毎に抽出された、複数の組における対応する位置の画素の画素値の相関を検出し、検出された相関に基づいて、欠落した現実世界の光信号の定常性に対応する、画像データにおける、基準軸を基準としたデータの定常性の角度を検出し、検出された画像データにおける基準軸に対するデータの定常性の角度に基づいて、欠落した現実世界の光信号の定常性を推定することにより光信号を推定するようにした場合、現実世界の事象に対して、より正確で、より精度の高い処理結果を得ることができるようになる。
【0424】
図52は、データ定常性検出部101のさらに他の構成を示すブロック図である。
【0425】
図52に示されるデータ定常性検出部101においては、現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した画像データの注目している画素である注目画素に対応する領域が選択され、注目画素の画素値と、選択された領域に属する画素の画素値との相関値が閾値以上である画素に、相関値に基づく度数が設定されることにより、領域に属する画素の度数が検出され、検出された度数に基づいて回帰線を検出することにより、欠落した現実世界の光信号の定常性に対応する、画像データのデータの定常性が検出される。
【0426】
フレームメモリ501は、入力画像をフレーム単位で記憶し、記憶されているフレームを構成する画素の画素値を画素取得部502に供給する。フレームメモリ501は、1つのページに入力画像の現在のフレームを記憶し、他のページに記憶している、現在のフレームに対して1つ前(過去)のフレームの画素の画素値を画素取得部502に供給し、入力画像のフレームの切り換えの時刻において、ページを切り換えることにより、画素取得部502に、動画である入力画像のフレームの画素の画素値を供給することができる。
【0427】
画素取得部502は、フレームメモリ501から供給された画素の画素値を基に、注目している画素である注目画素を選択し、選択された注目画素に対応する、所定の数の画素からなる領域を選択する。例えば、画素取得部502は、注目画素を中心とする5×5画素からなる領域を選択する。
【0428】
画素取得部502が選択する領域の大きさは、本発明を限定するものではない。
【0429】
画素取得部502は、選択した領域の画素の画素値を取得して、選択した領域の画素の画素値を度数検出部503に供給する。
【0430】
度数検出部503は、画素取得部502から供給された、選択された領域の画素の画素値を基に、注目画素の画素値と、選択された領域に属する画素の画素値との相関値が閾値以上である画素に、相関値に基づく度数を設定することにより、領域に属する画素の度数を検出する。度数検出部503における、相関値に基づく度数の設定の処理の詳細は、後述する。
【0431】
度数検出部503は、検出した度数を回帰直線演算部504に供給する。
【0432】
回帰直線演算部504は、度数検出部503から供給された度数に基づいて、回帰線を演算する。例えば、回帰直線演算部504は、度数検出部503から供給された度数に基づいて、回帰直線を演算する。また、例えば、回帰直線演算部504は、度数検出部503から供給された度数に基づいて、所定の曲線である回帰線を演算する。回帰直線演算部504は、演算された回帰線および演算の結果を示す演算結果パラメータを角度算出部505に供給する。演算パラメータが示す演算の結果には、後述する変動および共変動などが含まれる。
【0433】
角度算出部505は、回帰直線演算部504から供給された演算結果パラメータで示される、回帰線に基づいて、欠落した現実世界の光信号の定常性に対応する、画像データである入力画像のデータの定常性を検出する。例えば、角度算出部505は、回帰直線演算部504から供給された演算結果パラメータで示される、回帰直線に基づいて、欠落した実世界の光信号の定常性に対応する、入力画像における、基準軸を基準としたデータの定常性の角度を検出する。角度算出部505は、力画像における、基準軸を基準としたデータの定常性の角度を示すデータ定常性情報を出力する。
【0434】
図53乃至図55を参照して、入力画像における、基準軸を基準としたデータの定常性の角度について説明する。
【0435】
図53において、丸は、1つの画素を示し、2重丸は、注目画素を示す。丸の色は、画素の画素値の概略を示し、より明るい色は、より大きい画素値を示す。例えば、黒は、30である画素値を示し、白は、120である画素値を示す。
【0436】
図53で示される画素からなる画像を人間が見た場合、画像を見た人間は、斜め右上方向に直線が伸びていると認識することができる。
【0437】
図52に構成を示すデータ定常性検出部101は、図53で示される画素からなる入力画像を入力したとき、斜め右上方向に直線が伸びていることを検出する。
【0438】
図54は、図53で示される画素の画素値を数値で表した図である。丸は、1つの画素を示し、丸の中の数値は、画素値を示す。
【0439】
例えば、注目画素の画素値は、120であり、注目画素の上側の画素の画素値は、100であり、注目画素の下側の画素の画素値は、100である。また、注目画素の左側の画素の画素値は、80であり、注目画素の右側の画素の画素値は、80である。同様に、注目画素の左下側の画素の画素値は、100であり、注目画素の右上側の画素の画素値は、100である。注目画素の左上側の画素の画素値は、30であり、注目画素の右下側の画素の画素値は、30である。
【0440】
図52に構成を示すデータ定常性検出部101は、図54で示される入力画像に対して、図55で示されるように、回帰直線Aを引く。
【0441】
図56は、入力画像における、画素の空間方向の位置に対する、画素値の変化と、回帰直線Aとの関係を示す図である。データの定常性を有する領域における画素の画素値は、例えば、図56に示すように、山脈状に変化している。
【0442】
図52に構成を示すデータ定常性検出部101は、データの定常性を有する領域における画素の画素値を重みとして、最小自乗法により回帰直線Aを引く。データ定常性検出部101により求められた回帰直線Aは、注目画素の周辺におけるデータの定常性を表現している。
【0443】
入力画像における、基準軸を基準としたデータの定常性の角度は、図57で示されるように、回帰直線Aと、例えば、基準軸である空間方向Xを示す軸との角度θを求めることにより、検出される。
【0444】
次に、図52に構成を示すデータ定常性検出部101における、回帰直線の具体的な算出方法について説明する。
【0445】
度数検出部503は、例えば、画素取得部502から供給された、注目画素を中心とする、空間方向Xに9画素、空間方向Yに5画素、計45画素からなる領域の画素の画素値から、領域に属する画素の座標に対応する度数を検出する。
【0446】
例えば、度数検出部503は、式(17)で示される演算により、度数を算出することにより、領域に属する、座標(xi,yj)の度数Li,jを検出する。
【数14】
【0447】
式(17)において、P0,0は、注目画素の画素値を示し、Pi,jは、座標(xi,yj)の画素の画素値を示す。Thは、閾値を示す。
【0448】
iは、領域内における、空間方向Xの画素の順番を示し、1≦i≦kである。jは、領域内における、空間方向Yの画素の順番を示し、1≦j≦lである。
【0449】
kは、領域における、空間方向Xの画素の数を示し、lは、領域における、空間方向Yの画素の数を示す。例えば、領域が、空間方向Xに9画素、空間方向Yに5画素、計45画素からなるとき、Kは、9であり、lは、5である。
【0450】
図58は、画素取得部502において取得される領域の例を示す図である。図58において、点線の四角は、1つの画素を示す。
【0451】
例えば、図58で示されるように、領域が、空間方向Xについて、注目画素を中心とした9画素、空間方向Yについて、注目画素を中心とした5画素からなり、注目画素の座標(x,y)が(0,0)であるとき、領域の左上の画素の座標(x,y)は、(−4,2)であり、領域の右上の画素の座標(x,y)は、(4,2)であり、領域の左下の画素の座標(x,y)は、(−4,−2)であり、領域の右下の画素の座標(x,y)は、(4,−2)である。
【0452】
領域の左側の画素の、空間方向Xにおける、画素の順番iは、1であり、領域の右側の画素の、空間方向Xにおける、画素の順番iは、9である。領域の下側の画素の、空間方向Yにおける、画素の順番jは、1であり、領域の上側の画素の、空間方向Yにおける、画素の順番jは、5である。
【0453】
すなわち、注目画素の座標(x5,y3)を(0,0)としたとき、領域の左上の画素の座標(x1,y5)は、(−4,2)であり、領域の右上の画素の座標(x9,y5)は、(4,2)であり、領域の左下の画素の座標(x1,y1)は、(−4,−2)であり、領域の右下の画素の座標(x9,y1)は、(4,−2)である。
【0454】
度数検出部503は、式(17)において、相関値として、注目画素の画素値と、領域に属する画素の画素値との差分の絶対値を算出するので、実世界の細線の画像が射影された、入力画像における、データの定常性を有する領域のみならず、背景とは異なる色であって、単色の、直線状の縁を有する物の実世界の画像が射影された、入力画像における、2値エッジのデータの定常性を有する領域における、画素値の空間的な変化の特徴を示す度数を検出することができる。
【0455】
なお、度数検出部503は、画素の画素値との差分の絶対値に限らず、相関係数など他の相関値を基に、度数を検出するようにしてもよい。
【0456】
また、式(17)において、指数関数を適用しているのは、画素値の差に対して、度数に大きく差をつけるためであり、他の関数を適用するようにしてもよい。
【0457】
閾値Thは、任意の値とすることができる。例えば、閾値Thは、30とすることができる。
【0458】
このように、度数検出部503は、選択された領域に属する画素の画素値との相関値が閾値以上である画素に、相関値に基づく度数を設定することにより、領域に属する画素の度数を検出する。
【0459】
また、例えば、度数検出部503は、式(18)で示される演算により、度数を算出することにより、領域に属する、座標(xi,yj)の度数Li,jを検出する。
【数15】
【0460】
座標(xi,yj)における度数をLi,j(1≦i≦k,1≦j≦l)としたとき、座標xiにおける、空間方向Yの度数Li,jの和qiは、式(19)で表され、座標yjにおける、空間方向Xの度数Li,jの和hjは、式(20)で表される。
【数16】
【0461】
【数17】
【0462】
度数の総和uは、式(21)で表される。
【数18】
【0463】
図58で示される例において、注目画素の座標の度数L5,3は、3であり、注目画素の上側の画素の座標の度数L5,4は、1であり、注目画素の右上側の画素の座標の度数L6,4は、4であり、注目画素に対して、2画素上側であって、1画素右側の画素の座標の度数L6,5は、2であり、注目画素に対して、2画素上側であって、2画素右側の画素の座標の度数L7,5は、3である。また、注目画素の下側の画素の座標の度数L5,2は、2であり、注目画素の左側の画素の座標の度数L4,3は、1であり、注目画素の左下側の画素の座標の度数L4,2は、3であり、注目画素に対して、1画素下側であって、2画素左側の画素の座標の度数L3,2は、2であり、注目画素に対して、2画素下側であって、2画素左側の画素の座標の度数L3,1は、4である。図58で示される領域の他の画素の座標の度数は、0であり、図58において、0である度数の記載は省略する。
【0464】
図58で示される領域において、空間方向Yの度数の和q1は、iが1である度数Lが全て0なので、0であり、q2は、iが2である度数Lが全て0なので、0である。q3は、度数L3,2が2であり、度数L3,1が4なので、6である。同様に、q4は、4であり、q5は、6であり、q6は、6であり、q7は、3であり、q8は、0であり、q9は、0である。
【0465】
図58で示される領域において、空間方向Xの度数の和h1は、度数L3,1が4なので、4である。h2は、度数L3,2が2であり、度数L4,2が3であり、度数L5,2が2なので、7である。同様に、h3は、4であり、h4は、5であり、h5は、5である。
【0466】
図58で示される領域において、度数の総和uは、25である。
【0467】
空間方向Yの度数Li,jの和qiに、座標xiを乗じた結果を加算した和Txは、式(22)で表される。
【数19】
【0468】
空間方向Xの度数Li,jの和hjに、座標yjを乗じた結果を加算した和Tyは、式(22)で表される。
【数20】
【0469】
例えば、図58で示される領域において、q1が0であり、x1が−4なので、q1x1は0であり、q2が0であり、x2が−3なので、q2x2は0である。同様に、q3が6であり、x3が−2なので、q3x3は−12であり、q4が4であり、x4が−1なので、q4x4は、−4であり、q5が6であり、x5が0なので、q5x5は0である。同様に、q6が6であり、x6が1なので、q6x6は6であり、q7が3であり、x7が2なので、q7x7は6であり、q8が0であり、x8が3なので、q8x8は0であり、q9が0であり、x9が4なので、q9x9は0である。従って、q1x1乃至q9x9の和であるTxは、−4である。
【0470】
例えば、図58で示される領域において、h1が4であり、y1が−2なので、h1y1は−8であり、h2が7であり、y2が−1なので、h2y2は−7である。同様に、h3が4であり、y3が0なので、h3y3は0であり、h4が5であり、y4が1なので、h4y4は、5であり、h5が5であり、y5が2なので、h5y5は10である。従って、h1y1乃至h5y5の和であるTyは、0である。
【0471】
また、Qiを以下のように定義する。
【数21】
【0472】
xの変動Sxは、式(25)で表される。
【数22】
【0473】
yの変動Syは、式(26)で表される。
【数23】
【0474】
共変動Sxyは、式(27)で表される。
【数24】
【0475】
式(28)に示す1次の回帰直線を求めることを考える。
【0476】
y=ax+b ・・・(28)
【0477】
傾きaおよび切片bは、最小自乗法により、以下のように求めることができる。
【数25】
【0478】
【数26】
【0479】
ただし、正しい回帰直線を求めるための必要条件は、度数Li,jが、回帰直線に対して、ガウス分布状に、分布していることである。逆に言えば、度数検出部503は、度数Li,jがガウス分布するように、領域の画素の画素値を度数Li,jに変換する必要がある。
【0480】
回帰直線演算部504は、式(29)および式(30)で示される演算を実行して、回帰直線を求める。
【0481】
角度算出部505は、式(31)に示す演算により、回帰直線の傾きaを、基準軸である空間方向Xの軸に対する角度θに変換する。
θ=tan−1(a) ・・・(31)
【0482】
なお、回帰直線演算部504が所定の曲線である回帰線を演算する場合、角度算出部505は、基準軸に対する、注目画素の位置における回帰線の角度θを求める。
【0483】
ここで、画素毎にデータの定常性を検出するためには、切片bは、不要である。そこで、式(32)に示す1次の回帰直線を求めることを考える。
y=ax ・・・(32)
【0484】
この場合、回帰直線演算部504は、最小自乗法により、傾きaを式(33)で求めることができる。
【数27】
【0485】
図59のフローチャートを参照して、ステップS101の処理に対応する、図52で構成が示されるデータ定常性検出部101による、データの定常性の検出の処理を説明する。
【0486】
ステップS501において、画素取得部502は、まだ注目画素とされていない画素の中から注目画素を選択する。例えば、画素取得部502は、ラスタスキャン順に、注目画素を選択する。ステップS502において、画素取得部502は、注目画素を中心とする領域に含まれる画素の画素値を取得し、取得した画素の画素値を度数検出部503に供給する。例えば、画素取得部502は、注目画素を中心とした、9×5画素からなる領域を選択し、領域に含まれる画素の画素値を取得する。
【0487】
ステップS503において、度数検出部503は、領域に含まれる画素の画素値を度数に変換することにより、度数を検出する。例えば、度数検出部503は、式(17)に示される演算により、画素値を度数Li,jに変換する。この場合において、度数Li,jがガウス分布するように、領域の画素の画素値が度数Li,jに変換される。度数検出部503は、変換された度数を回帰直線演算部504に供給する。
【0488】
ステップS504において、回帰直線演算部504は、度数検出部503から供給された度数を基に、回帰線を求める。例えば、回帰直線演算部504は、度数検出部503から供給された度数を基に、回帰直線を求める。より具体的には、回帰直線演算部504は、式(29)および式(30)で示される演算を実行して、回帰直線を求める。回帰直線演算部504は、算出された結果である回帰直線を示す演算結果パラメータを角度算出部505に供給する。
【0489】
ステップS505において、角度算出部505は、基準軸に対する回帰直線の角度を算出することにより、欠落した現実世界の光信号の定常性に対応する、画像データのデータの定常性を検出する。例えば、角度算出部505は、式(31)に示す演算により、回帰直線の傾きaを、基準軸である空間方向Xの軸に対する角度θに変換する。角度算出部505は、基準軸に対する回帰直線の角度を示すデータ定常性情報を出力する。
【0490】
なお、角度算出部505は、傾きaを示すデータ定常性情報を出力するようにしてもよい。
【0491】
ステップS506において、画素取得部502は、全ての画素の処理を終了したか否かを判定し、全ての画素の処理を終了していないと判定された場合、ステップS501に戻り、まだ注目画素として選択されていない画素から注目画素を選択して、上述した処理を繰り返す。
【0492】
ステップS506において、全ての画素の処理を終了したと判定された場合、処理は終了する。
【0493】
このように、図52に構成を示すデータ定常性検出部101は、欠落した実世界の光信号の定常性に対応する、画像データにおける、基準軸を基準としたデータの定常性の角度を検出することができる。
【0494】
特に、図52に構成を示すデータ定常性検出部101は、比較的狭い領域の画素の画素値を基に、画素以下の角度を求めることができる。
【0495】
以上のように、現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した画像データの注目している画素である注目画素に対応する領域を選択し、注目画素の画素値と、選択された領域に属する画素の画素値との相関値が閾値以上である画素に、相関値に基づく度数を設定することにより、領域に属する画素の度数を検出し、検出された度数に基づいて回帰線を検出することにより、欠落した現実世界の光信号の定常性に対応する、画像データのデータの定常性を検出し、検出された画像データのデータの定常性に基づいて、欠落した現実世界の光信号の定常性を推定することにより光信号を推定するようにした場合、現実世界の事象に対して、より正確で、より精度の高い処理結果を得ることができるようになる。
【0496】
なお、図52に構成を示すデータ定常性検出部101は、注目画素の属する注目フレームと、注目フレームの時間的に前後のフレームについて、所定の領域に属する画素の画素値を度数に変換し、度数を基に、回帰平面を求めるようにすれば、空間方向のデータの定常性の角度と共に、時間方向のデータの定常性の角度を検出することができる。
【0497】
図60は、データ定常性検出部101のその他の実施の形態の構成を示している。
【0498】
図60のデータ定常性検出部101は、データ選択部701、データ足し込み部702、および、定常方向導出部703より構成される。
【0499】
データ選択部701は、入力画像の各画素を注目画素として、その注目画素毎に対応する画素の画素値データを選択して、データ足し込み部702に出力する。
【0500】
データ足し込み部702は、データ選択部701より入力されたデータに基づいて、最小自乗法における足し込み演算を行い、足し込み演算結果を定常方向導出部703に出力する。このデータ足し込み部702による足し込み演算とは、後述する最小自乗法の演算に用いるサメーションの項における演算であり、その演算結果は、定常性の角度を検出するための画像データの特徴であると言える。
【0501】
定常方向導出部703は、データ足し込み部702より入力された足し込み演算結果から定常方向、すなわち、データの定常性が有する基準軸からの角度(例えば、細線、または2値エッジなどの傾き、または方向)を演算し、これをデータ定常性情報として出力する。
【0502】
次に、図61を参照して、データ定常性検出部101における定常性(方向、または、角度)を検出する動作の概要について説明する。尚、図61,図62中、における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
【0503】
図61で示されるように、実世界の信号(例えば、画像)は、光学系141(例えば、レンズ、またはLPF(Low Pass Filter)などからなる)により、センサ(例えば、CCD(Charge Coupled Device)、または、CMOS(Complementary Metal−Oxide Semiconductor)など)の受光面に結像される。センサは、例えば、CCDやCMOSのような積分特性を有する素子から構成される。このような構成により、センサから出力されるデータから得られる画像は、実世界の画像とは異なる画像となる(実世界の画像とは差が生じることになる)。
【0504】
そこで、データ定常性検出部101は、図62で示されるように、モデル705を用いて、実世界を近似式により近似的に記述して、その近似式からデータ定常性を抽出する。モデル705は、例えば、N個の変数で表現される。より正確には、モデル705は、実世界の信号を近似(記述)する。
【0505】
データ定常性検出部101は、モデル705を予測するために、データから、M個のデータ706を抽出する。その結果、モデル705は、データの定常性に拘束されることになる。
【0506】
すなわち、モデル705は、センサで取得されたとき、データにおいてデータのデータ定常性を生じさせる、定常性(所定の次元の方向に一定の特徴)を有する実世界の事象(を示す情報(信号))を近似する。
【0507】
ここで、データ706の数Mが、モデル705の変数の数N以上であれば、M個のデータ706から、N個の変数で表現されるモデル705を予測することができる。
【0508】
さらに、データ定常性検出部101は、実世界(の信号)を近似(記述)するモデル705を予測することにより、実世界の情報である信号に含まれるデータ定常性を、例えば、細線や2値エッジの方向(傾き、または、所定の方向を軸としたときの軸とのなす角度)として導出し、データ定常性情報として出力する。
【0509】
次に、図63を参照して、入力画像より細線の方向(角度)をデータ定常性情報として出力するデータ定常性検出部101について説明する。
【0510】
データ選択部701は、水平・垂直判定部711、および、データ取得部712から構成されている。水平・垂直判定部711は、注目画素とその周辺の画素間の画素値の差分から、入力画像の細線の水平方向に対する角度が、水平方向に近い細線か、垂直方向に近い細線かを判定し、判定結果をデータ取得部712、および、データ足し込み部702にそれぞれ出力する。
【0511】
より詳細には、例えば、この手法という意味で、他の手法でもよい。例えば、簡易16方位検出手法をここで使用してもよい。図64で示されるように、水平・垂直判定部711は、注目画素と、その注目画素に隣接する画素間の差分(画素間の画素値の差分)のうち、水平方向の画素間の差分(アクティビティ)の和(hdiff)と、垂直方向の画素間の差分(アクティビティ)の和の差分(vdiff)を求めて、注目画素が垂直方向に隣接する画素間との差分の和が大きいか、または、水平方向に隣接する画素間との差分の和が大きいかを判定する。ここで、図64においては、各マス目が画素を示し、図中の中央の画素が注目画素である。また、図中の点線の矢印で示す画素間の差分が、水平方向の画素間の差分であり、その和がhdiffで示される。さらに、図中の実線の矢印で示す画素間の差分が、垂直方向の画素間の差分であり、その和がvdiffで示される。
【0512】
このように求められた水平方向の画素間の画素値の差分和hdiffと、垂直方向の画素間の画素値の差分和vdiffに基づいて、水平・垂直判定部711は、(hdiff−vdiff)が正であれば、垂直方向よりも水平方向の画素間の画素値の変化(アクティビティ)が大きいので、図65で示されるように、水平方向に対する角度がθ(0度度≦θ≦180度度)で示される場合、45度度<θ≦135度度、すなわち、垂直方向に近い角度の細線に属している画素であると判定し、逆に負であれば垂直方向の画素間の画素値の変化(アクティビティ)が大きいので、0度度≦θ<45度度、または、135度度<θ≦180度度、すなわち、水平方向に近い角度の細線に属している画素であると判定する(細線が続く方向(角度)に存在する画素は、いずれも細線を表現する画素であるので、その画素間の変化(アクティビティ)は小さくなるはずである)。
【0513】
また、水平・垂直判定部711は、入力画像の各画素を識別するカウンタ(図示せず)を備えており、適宜必要に応じて使用する。
【0514】
尚、図64においては、注目画素を中心として、3画素×3画素の範囲における垂直方向と水平方向の画素間の画素値の差分の和を比較して、細線が垂直方向に近いか、または、水平方向に近いかを判定する例について説明したが、それ以上の画素数を用いて同様の手法で細線の方向を判定するようにしてもよく、例えば、注目画素を中心として5画素×5画素や、7画素×7画素など、それ以上の画素数のブロックに基づいて判定するようにしてもよい。
【0515】
データ取得部712は、水平・垂直判定部711より入力された細線の方向の判定結果に基づいて、注目画素に対応する水平方向に並ぶ複数の画素からなるブロック単位、または、垂直方向に並ぶ複数の画素のブロック単位で画素値を読み出し(取得し)、読み出した(取得した)注目画素毎に対応する複数の画素間における、水平・垂直方向判定部711の判定結果の方向に隣接する画素間の差分データとともに、所定の画素数のブロックに含まれる画素から、画素値の最大値と最小値のデータをデータ足し込み部702に出力する。尚、以下においては、データ取得部712により、注目画素に対応して取得される複数の画素のブロックを取得ブロックと称する(取得ブロックは、例えば、後述する図78で示される複数の画素(各マス目で示される)のうち、黒線の正方形が示された画素を注目画素とするとき、その上下3画素分と、左右1画素分の合計15画素などである)。
【0516】
データ足し込み部702の差分足し込み部721は、データ選択部701より入力された差分データを検出し、データ選択部701の水平・垂直判定部711より入力される水平方向、または、垂直方向の判定結果に基づいて、後述する最小自乗法の解法に必要な足し込み処理を実行し、その足し込み結果を定常方向導出部703に出力する。より具体的には、複数の画素のうち水平・垂直判定部711による判定方向に隣接する画素iと画素(i+1)の画素間の画素値の差分データをyiとし、注目画素に対応する取得ブロックがn個の画素から構成された場合、差分足し込み部721は、水平方向、または、垂直方向毎に(y1)2+(y2)2+(y3)2+・・・を足し込んで演算し、定常方向導出部703に出力する。
【0517】
MaxMin取得部722は、データ選択部701より入力される注目画素に対応する取得ブロックに含まれる各画素毎に設定されるブロック(以下、ダイナミックレンジブロックと称する(ダイナミックレンジブロックは、後述する図78で示される取得ブロックの画素のうち、例えば、画素pix12について、黒の実線で囲まれている、ダイナミックレンジブロックB1で示される、画素pix12の上下3画素分の合計7画素などである))に含まれる画素の画素値の最大値と最小値を取得すると、その差分からダイナミックレンジDri(取得ブロック内のi番目の画素に対応する、ダイナミックレンジブロックに含まれる画素の画素値の最大値と最小値の差分)を演算(検出)して、差分足し込み部723に出力する。
【0518】
差分足し込み部723は、MaxMin取得部722より入力されたダイナミックレンジDriと、データ選択部701より入力された差分データを検出し、検出したダイナミックレンジDriと差分データに基づいて、データ選択部701の水平・垂直判定部711より入力される水平方向、または、垂直方向毎に、ダイナミックレンジDriと差分データyiを乗じた値を足し込んで、演算結果を定常方向導出部703に出力する。すなわち、差分足し込み部723が出力する演算結果は、水平方向、または、垂直方向毎にy1×Dr1+y2×Dr2+y3×Dr3+・・・となる。
【0519】
定常方向導出部703の定常方向演算部731は、データ足し込み部702より入力されてくる、水平方向、または、垂直方向毎の足し込み演算結果に基づいて、細線の角度(方向)を演算し、演算された角度を定常性情報として出力する。
【0520】
ここで、細線の方向(細線の傾き、または、角度)の演算方法について説明する。
【0521】
図66Aで示されるような入力画像中の白線により囲まれる部分を拡大すると、細線(図中、右上がりで、かつ斜め方向の白線)は、実際には、図66Bで示されるように表示されている。すなわち、現実世界においては、図66Cで示されるように、画像は、細線のレベル(図66C中では濃度の薄い斜線部)と背景レベルの2種類のレベルが境界を形成し、その他のレベルが存在しない状態となる。これに対して、センサにより撮像された画像、すなわち、画素単位で撮像された画像は、図66Bで示されるように、その積分効果により背景レベルと細線レベルとが空間的に混合した画素が、その比率(混合比)を一定のパターンで変化するように縦方向に配置された複数の画素からなるブロックが細線方向に繰り返して配置されたような画像となる。尚、図66Bにおいて、各正方形状のマス目は、CCDの1画素を示し、各辺の長さをd_CCDであるものとする。また、マス目は、格子状に塗りつぶされた部分が背景のレベルに相当する画素値の最小値であり、その他の斜線状に塗りつぶされた部分は、斜線の密度が低くなるに連れて画素値が高くなるものとする(従って、斜線のない白色のマス目が画素値の最大値となる)。
【0522】
図67Aで示されるように、現実世界の背景上に細線が存在する場合、現実世界の画像は、図67Bで示されるように、横軸にレベル、縦軸にそのレベルに対応する部分の画像上の面積を示すと、画像中の背景に相当する面積と、細線に相当する部分の面積との、画像上における占有面積の関係が示される。
【0523】
同様にして、センサで撮像された画像は、図68Aで示されるように、背景レベルの画素の中に、縦に並んだ背景レベルと細線レベルとが混合した画素が、その混合比を所定のパターンで変化させながら縦方向に配置されたブロックが、細線の存在する方向に繰り返して配置されたような画像となるため、図68Bで示すように、背景のレベルとなる領域(背景領域)と、細線のレベルの中間のレベルをとる、背景と細線が空間的に混合した結果生じる画素からなる空間混合領域が存在する。ここで、図68Bにおいて縦軸は、画素数であるが、1画素の面積は(d_CCD)2となるため、図68Bの画素値のレベルと画素数の関係は、画素値のレベルと面積の分布の関係と同様であるといえる。
【0524】
これは、図69Aの実際の画像中の白線で囲まれる部分(31画素×31画素の画像)においても、図69Bで示されるように同様の結果が得られる。すなわち、図69Aで示される背景部分(図69A中では、黒色に見える部分)は、図69Bで示されるように、画素値レベルの低い(画素値が20付近の)画素が多く分布しており、これらの変化の少ない部分が、背景領域の画像を形成する。これに対して、図69Bの画素値レベルが低くない部分、すなわち、画素値レベルが40付近乃至160付近に分布する画素は、細線の画像を形成する、空間混合領域に属する画素であり、各画素値毎の画素数は少ないが、広い画素値の範囲に分布している。
【0525】
ところで、現実世界の画像における背景と細線のそれぞれのレベルは、例えば、図70Aで示される矢印方向(Y座標方向)に見ると、図70Bで示されるように変化することになる。すなわち、矢印の起点から細線までの背景領域では、比較的レベルの低い背景レベルとなり、細線の領域では、レベルの高い細線のレベルとなり、細線領域を通過して再び背景領域に戻ると、レベルの低い背景のレベルとなる。結果として、細線領域のみが高いレベルとなるパルス状の波形となる。
【0526】
これに対して、センサで撮像された画像のうち、図70A中の矢印の向きに対応する、図71Aの空間方向X=X1上の画素(図71Aにおいては、黒丸で示されている画素)の画素値と、その画素の空間方向Yの関係は、図71Bに示されるようになる。尚、図71Aにおいて、右上がりの2本の白線の間が、現実世界の画像上における細線を示している。
【0527】
すなわち、図71Bで示されるように、図71A中の中央の画素に対応する画素が最も高い画素値をとるため、各画素の画素値は、空間方向Yの位置が、図中の下部から中央の画素に向かうに連れて高くなり、中央の位置を通過すると、徐々に減少することになる。結果として、図71Bで示すように、山型の波形が形成される。また、図71Aの空間方向X=X0,X2に対応する各画素の画素値の変化は、空間方向Yのピーク位置が、細線の傾きに応じてずれるものの、同様の外形となる。
【0528】
例えば、図72Aで示されるような、実際にセンサにより撮像された画像における場合においても、図72Bで示されるように、同様の結果が得られる。すなわち、図72Bは、図72Aの画像中の白線で囲まれる範囲の細線付近の画素値を所定の空間方向X(図中では、X=561,562,563)毎の、空間方向Yに対応した画素値の変化を示している。このように、実際のセンサにより撮像された画像においても、X=561においては、Y=730付近で、X=562においては、Y=705付近で、X=563においては、Y=685付近で、それぞれピークとなる山型の波形となっている。
【0529】
このように、現実世界の画像の細線付近のレベルの変化を示す波形はパルス状の波形となるのに対して、センサにより撮像された画像の画素値の変化を示す波形は山型の波形となる。
【0530】
すなわち、換言すれば、現実世界の画像のレベルは、図70Bで示されるような波形になるべきところが、センサにより撮像されることにより、撮像された画像は、図71Bで示されるように、その変化に歪が生じて、現実世界の画像とは異なる(現実世界の情報が欠落した)波形に変化していると言える。
【0531】
そこで、このセンサにより撮像された画像から、現実世界の画像の定常性情報を取得するため、センサより取得された画像のデータから現実世界を近似的に記述するためのモデル(図62のモデル705に相当する)を設定する。例えば、細線の場合、図73で示されるように、現実世界の画像を設定する。すなわち、図中左部の背景部分のレベルをB1、図中右側の背景部分のレベルをB2、細線部分のレベルをL、細線の混合比をα、細線の幅をW、細線の水平方向に対する角度をθとしてパラメータを設定し、モデル化して、現実世界を近似的に表現する関数を設定し、各パラメータを求めることにより現実世界を近似的に表現する近似関数を求め、その近似関数から細線の方向(傾き、または、基準軸に対する角度)を求める。
【0532】
このとき、背景領域は、左部、および、右部は、同一であるものとして近似することができるので、図74で示されるように、統一してB(=B1=B2)とする。また、細線の幅を1画素以上であるものとする。このように設定された現実世界をセンサで撮像するとき、撮像された画像は、図75Aで示されるように撮像されることになる。尚、図75Aにおいて、右上がりの2本の白線の間が、現実世界の画像上における細線を示している。
【0533】
すなわち、現実世界の細線上の位置に存在する画素は、細線のレベルに最も近いレベルとなり、垂直方向(空間方向Yの方向)に対して細線から離れるに従って画素値が減少し、細線領域に接することのない位置に存在する画素の画素値、すなわち、背景領域の画素は、背景レベルの画素値となる。このとき、細線領域と背景領域に跨る位置に存在する画素の画素値は、背景レベルの画素値Bと、細線レベルの画素値Lが、混合比αで混合された画素値となっている。
【0534】
このように、撮像された画像の各画素を注目画素とした場合、データ取得部712は、その注目画素に対応する取得ブロックの画素を抽出し、その抽出した取得ブロックを構成する画素毎に、ダイナミックレンジブロックを抽出し、そのダイナミックレンジブロックを構成する画素のうちの最大値となる画素値をとる画素と、最小値となる画素値をとる画素とを抽出する。すなわち、図75Aで示すように、取得ブロック中の所定の画素(図中の1マスの中に黒の実線で正方形が記述された画素pix4)に対応したダイナミックレンジブロックの画素(例えば、図中の黒の実線で囲まれた画素pix1乃至7の7画素))が抽出された場合、その各画素に対応する現実世界の画像は、図75Bで示されるようになる。
【0535】
すなわち、図75Bで示されるように、画素pix1は、左部の略1/8の面積を占める部分が背景領域となり、右部の略7/8の面積を占める部分が細線領域となる。画素pix2は、略全領域が細線領域となる。画素pix3は、左部の略7/8の面積を占める部分が細線領域となり、右部1/8の面積を占める部分が細線領域となる。画素pix4は、左部の略2/3の面積を占める部分が細線領域となり、右部の略1/3の面積を占める部分が背景領域となる。画素pix5は、左部の略1/3の面積を占める部分が細線領域となり、右部の略2/3の面積を占める部分が背景領域となる。画素pix6は、左部の略1/8の面積を占める部分が細線領域となり、右部の略7/8の面積を占める部分が背景領域となる。さらに、画素pix7は、全体が背景領域となる。
【0536】
結果として、図75で示されるダイナミックレンジブロックの各画素pix1乃至7の画素値は、細線領域と背景領域の面積の比率に対応した混合比で、背景レベルと細線レベルが混合された画素値となる。すなわち、背景レベル:前景レベルの混合比は、画素pix1が略1:7、画素pix2が略0:1、画素pix3が略1:7、画素pix4が略1:2、画素pix5が略2:1、画素pix6が略7:1、および、画素pix7が略1:0となる。
【0537】
従って、抽出されたダイナミックレンジブロックの画素pix1乃至7の各画素の画素値は、画素pix2が最も高く、次いで画素pix1,3が続き、以下画素値が高い順に画素pix4,5,6,7となる。従って、図75Bで示される場合、最大値は、画素pix2の画素値であり、最小値は、画素pix7の画素値となる。
【0538】
また、図76Aで示されるように、細線の方向は、画素値の最大値をとる画素が連続する方向であると言えるので、この最大値をとる画素が配置された方向が細線の方向となる。
【0539】
ここで、細線の方向を示す傾きGflは、空間方向Xの単位距離に対する、空間方向Yへの変化(距離の変化)の比であるので、図76Aで示されるような場合、図中の空間方向Xへの1画素の距離に対する、空間方向Yの距離が傾きGflとなる。
【0540】
空間方向X0乃至X2の各々の空間方向Yに対する画素値の変化は、図76Bで示されるように、各空間方向X毎に所定の間隔で山型の波形が繰り返されることになる。上述のように、センサにより撮像された画像において、細線は、最大値をとる画素が連続する方向であるので、各空間方向Xの最大値となる空間方向Yの間隔Sが、細線の傾きGflとなる。すなわち、図76Cで示されるように、水平方向に1画素の距離に対する垂直方向の変化量が傾きGflとなる。従って、この細線の傾きGfl(水平方向を基準軸としたときの角度に対応する)は、図76Cで示すように、その傾きに対応する水平方向を基準軸とした細線の角度をθとして表現する場合、以下の式(34)で示される関係が成立することになる。
θ=Tan−1(Gfl)(=Tan−1(S))・・・(34)
【0541】
また、図74で示されるようなモデルを設定し、さらに、空間方向Yの画素と画素値の関係が、図76Bで示される山型の波形が、完全な三角波形(立ち上がり、または、立下りが直線的に変化する、二等辺三角形状の波形)であると仮定する場合、図77で示すように、所定の注目画素の空間方向Xにおける、空間方向Y上に存在する各画素の画素値の最大値をMax=L(ここでは、現実世界の細線のレベルに対応する画素値)、最小値をMin=B(ここでは、現実世界の背景のレベルに対応する画素値)とするとき、以下の式(35)で示される関係が成立する。
L−B=Gfl×d_y・・・(35)
【0542】
ここで、d_yは、空間方向Yの画素間の画素値の差分を示す。
【0543】
すなわち、空間方向の傾きGflは、大きいほど細線がより垂直なものに近づくため、山型の波形は、底辺の大きな二等辺三角形状の波形となり、逆に、傾きSが小さいほど底辺の小さな二等辺三角形状の波形となる。この結果、傾きGflが大きいほど、空間方向Yの画素間の画素値の差分d_yは小さく、傾きSが小さいほど、空間方向Yの画素間の画素値の差分d_yは大きくなる。
【0544】
そこで、上述の式(35)の関係が成立する傾きGflを求めることにより、細線の基準軸に対する角度θを求めることが可能となる。式(35)は、傾きGflを変数とする1変数の関数であるため、注目画素について、周辺の画素間の画素値の(垂直方向の)差分d_y、並びに、最大値、および、最小値の差分(L−B)を1組用いれば求めることが可能であるが、上述のように、空間方向Yの画素値の変化が完全な三角波形であることを前提とした近似式を用いたものであるので、注目画素に対応する抽出ブロックの各画素についてダイナミックレンジブロックを抽出し、さらに、その最大値と最小値からダイナミックレンジDrを求めるとともに、抽出ブロックの各画素毎の空間方向Yの画素間の画素値の差分d_yを用いて、最小自乗法により統計的に求める。
【0545】
ここで、最小自乗法による統計的な処理の説明にあたり、まず、抽出ブロック、および、ダイナミックレンジブロックについて、詳細を説明する。
【0546】
抽出ブロックは、例えば、図78で示すように、注目画素(図中の黒の実線で正方形が描かれているマス目の画素)の、空間方向Yについて上下3画素分、空間方向Xについて、左右1画素分の合計15画素などでもよい。また、この場合、抽出ブロックの各画素の画素間の画素値の差分d_yは、例えば、画素pix11に対応する差分がd_y11で示されるとき、空間方向X=X0の場合、画素pix11とpix12、pix12とpix13、pix13とpix14、pix15とpix16、pix16とpix17の画素間の画素値の差分d_y11乃至d_y16が得られることになる。このとき、空間方向X=X1,X2についても、同様にして画素間の画素値の差分が得られる。結果として、この場合、画素間の画素値の差分d_yは、18個存在することになる。
【0547】
さらに、抽出ブロックの各画素について、ダイナミックレンジブロックの画素が、例えば、画素pix11については、水平・垂直判定部711の判定結果に基づいて、今の場合、垂直方向であると判定されるので、図78で示されるように、画素pix11を含めて、垂直方向(空間方向Y)の上下方向にそれぞれ3画素分のダイナミックレンジブロックB1の範囲の7画素であるものとすると、このダイナミックレンジブロックB1の画素の画素値の最大値と最小値を求め、さらに、この最大値と最小値から得られるダイナミックレンジをダイナミックレンジDr11とする。同様にして、抽出ブロックの画素pix12については、図78中のダイナミックレンジブロックB2の7画素から同様にしてダイナミックレンジDr12を求める。このようにして、抽出ブロック内の18個の画素間差分d_yiと、対応するダイナミックレンジDriとの組み合わせに基づいて、最小自乗法を用いて統計的に傾きGflが求められる。
【0548】
次に、1変数の最小自乗法の解法について説明する。尚、ここでは、水平・垂直判定部711の判定結果が垂直方向であったものとする。
【0549】
1変数の最小自乗法による解法は、例えば、図79で示される黒点で示される全ての実測値に対しての距離を最小とする、予測値Dri_cからなる直線の傾きGflを求めるものである。そこで、上述の式(35)で示される関係から以下のような手法により、傾きSが求められる。
【0550】
すなわち、上述の式(35)は、最大値と最小値の差分をダイナミックレンジDrとするとき、以下の式(36)で示すように記述される。
Dr=Gfl×d_y・・・(36)
【0551】
上述の式(36)に、抽出ブロックの各画素間についての差分d_yiを代入することによりダイナミックレンジDri_cが求められることになる。従って、各画素について、以下の式(37)の関係が満たされることになる。
Dri_c=Gfl×d_yi・・・(37)
【0552】
ここで、差分d_yiは、各画素iの空間方向Yの画素間の画素値の差分(例えば、画素iに対して、上方向、または、下方向に隣接した画素との画素間の画素値の差分であり、Dri_cは、画素iについて式(70)が成立するときに得られるダイナミックレンジである。
【0553】
上述のように、ここでいう最小自乗法は、抽出ブロックの画素iのダイナミックレンジDri_cと、図75を参照して説明した方法で得られる、画素iの実測値となるダイナミックレンジDri_rとの差分自乗和Qが、画像内のすべての画素において最小となるときの傾きGflを求める方法である。従って、差分自乗和Qは以下の式(38)により求められることになる。
【数28】
【0554】
式(38)で示される差分自乗和Qは、2次関数であるので、変数Gfl(傾きGfl)について図80で示すような下に凸の曲線となるため、傾きGflが最小となるGflminが最小自乗法の解となる。
【0555】
式(38)で示される差分自乗和Qは、変数Gflで微分されると、以下に示す式(39)で示されるdQ/dGflとなる。
【数29】
【0556】
式(39)が、0となるGflが図80で示す差分自乗和Qの最小値をとるGflminとなるので、式(39)が0となるときの式を展開することにより、以下の式(40)で傾きGflが求められることになる。
【数30】
【0557】
上述の式(40)は、いわゆる、1変数(傾きGfl)の正規方程式となる。
【0558】
このようにして、得られた傾きGflを上述の式(34)に代入することにより、細線の傾きGflに対応する、水平方向を基準軸としたときの細線の角度θを得ることができる。
【0559】
尚、以上の説明においては、注目画素が、水平方向を基準軸としたときの角度θが45度度≦θ<135度度の範囲となる細線上の画素である場合の例について説明してきたが、例えば、注目画素が、水平方向を基準軸に対する細線の角度θが0度度≦θ<45度度、または、135度度≦θ<108度度となる、水平方向に近い細線上の画素である場合、画素iに隣接する画素間の画素値の差分は、水平方向に隣接する画素間の画素値の差分d_xiとなり、同様に、画素iに対応する複数の画素から画素値の最大値、または、最小値を求める際に、抽出するダイナミックレンジブロックの画素についても、画素iに対して水平方向に存在する複数の画素のうちから選択されることになる。この場合の処理については、上述の説明における水平方向と垂直方向の関係が入れ替わるのみであるので、その説明は省略する。
【0560】
また、同様の手法により、2値エッジの傾きに対応する角度を求めることも可能である。
【0561】
すなわち、図81Aで示されるような入力画像中の白線により囲まれる部分を拡大すると、画像中のエッジ部分(図中、黒地の旗に描かれた「十」という白で描かれた文字の下の部分)(以下、このように、2値のレベルからなる画像上のエッジ部分を2値エッジとも称する)は、実際には、図81Bで示されるように表示されている。すなわち、現実世界においては、図81Cで示されるように、画像では、第1のレベル(旗の地のレベル)と、第2のレベル(文字のレベル(図81C中では濃度の薄い斜線部))との2種類のレベルからなる境界が形成されており、その他のレベルが存在しない。これに対して、センサにより撮像された画像、すなわち、画素単位で撮像された画像は、図81Bで示されるように、第1のレベルと第2のレベルとが空間的に混合した画素が、その比率(混合比)を一定のパターンで変化するように縦方向に配置された複数の画素からなるブロックがエッジが構成されている方向に繰り返して配置されたような領域を境とした第1のレベルの画素が配置される部分と、第2のレベルの画素が配置される部分とが存在する画像となる。
【0562】
すなわち、図82Aで示されるように、空間方向X=X0,X1,X2について、それぞれの空間方向Yへの画素値の変化は、図82B中では、各画素値は、図中の下から2値エッジ(図82A中の右上がりの直線)の境界手前付近までは、所定の最小値の画素値になっているが、2値エッジの境界手前付近で、画素値が徐々に増大し、エッジを越えると図中の点PEにおいて、画素値が所定の最大値となる。より詳細には、空間方向X=X0の変化は、図82Bで示されるように、画素値の最小値となる点PSを通過した後、徐々に画素値が増大し、画素値の最大値となる点P0となる。これに対して、空間方向X=X1に対応する各画素の画素値の変化は、空間方向にずれた波形となるため、図82Bで示されるように、画素値の最小値から徐々に画素値が増大する位置が空間方向Yの正方向にずれて、図中の点P1を経由して、画素値の最大値にまで増大する。さらに、空間方向X=X2における空間方向Yの画素値の変化は、空間方向Yの正の方向にさらにずれ込んだ図中の点P2を経由して減少し、画素値の最大値から最小値となる。
【0563】
これは、実際の画像中の白線で囲まれる部分においても、同様の傾向が見られる。すなわち、図83Aの実際の画像中の白線で囲まれる部分(31画素×31画素の画像)において、背景部分(図83A中では、黒色に見える部分)は、図83Bで示されるように、画素値の低い(画素値が90付近の)画素数が多く分布しており、これらの変化の少ない部分が、背景領域の画像を形成する。これに対して、図83Bの画素値が低くない部分、すなわち、画素値が100付近乃至200付近に分布する画素は、文字領域と背景領域との空間混合領域に属する画素の分布であり、各画素値毎の画素数は少ないが、広い画素値の範囲に分布している。さらに、画素値の高い文字領域(図83A中では、白色に見える部分)の画素が、220で示される画素値の付近に多く分布している。
【0564】
この結果、図84Aで示されるエッジ画像における所定の空間方向Xに対する、空間方向Yの画素値の変化は、図84Bで示されるようになものとなる。
【0565】
すなわち、図84Bは、図84Aの画像中の白線で囲まれる範囲のエッジ付近の画素値を所定の空間方向X(図中では、X=658,659,660)毎の、空間方向Yに対応した画素値の変化を示している。このように、実際のセンサにより撮像された画像においても、X=658において、画素値は、Y=374付近で増大を開始し(図中、黒丸で示される分布)、X=382付近で最大画素値に到達する。また、X=659においては、空間方向Yに対して正方向にずれ込んで、画素値は、Y=378付近で増大を開始し(図中、黒三角で示される分布)、X=386付近で最大画素値に到達する。さらに、X=660においては、空間方向Yに対して、さらに、正方向にずれ込んで、画素値は、Y=382付近で増大を開始し(図中、黒四角で示される分布)、X=390付近で最大画素値に到達する。
【0566】
そこで、このセンサにより撮像された画像から、現実世界の画像の定常性情報を取得するため、センサより取得された画像のデータから現実世界を近似的に記述するためのモデルを設定する。例えば、2値エッジの場合、図85で示すように、現実世界の画像を設定する。すなわち、図中左部の背景部分のレベルをV1、図中右側の文字部分のレベルをV2、2値エッジ付近の画素間の混合比をα、エッジの水平方向に対する角度をθとしてパラメータを設定し、モデル化して、現実世界を近似的に表現する関数を設定し、各パラメータを求めることにより現実世界を近似的に表現する関数を求め、その近似関数からエッジの方向(傾き、または、基準軸に対する角度)を求める。
【0567】
ここで、エッジの方向を示す傾きは、空間方向Xの単位距離に対する、空間方向Yへの変化(距離の変化)の比であるので、図86Aで示されるような場合、図中の空間方向Xへの1画素の距離に対する、空間方向Yの距離が傾きとなる。
【0568】
空間方向X0乃至X2の各々の空間方向Yに対する画素値の変化は、図86Bで示されるように、各空間方向X毎に所定の間隔で同様の波形が繰り返されることになる。上述のように、センサにより撮像された画像において、エッジは、類似した画素値の変化(今の場合、最小値から最大値へと変化する、所定の空間方向Y上の画素値の変化)が空間的に連続する方向であるので、各空間方向Xにおいて、空間方向Yの画素値の変化が開始される位置、または、変化が終了する位置となる空間方向Yの間隔Sが、エッジの傾きGfeとなる。すなわち、図86Cで示されるように、水平方向に1画素の距離に対する垂直方向の変化量が傾きGfeとなる。
【0569】
ところで、この関係は、図76A乃至Cを参照して上述した細線の傾きGflにおける関係と同様である。従って、その関係式についても、同様のものとなる。すなわち、2値エッジにおける場合の関係式は、図87で示すものとなり、背景領域の画素値をV1、文字領域の画素値をV2、それぞれは最小値、および、最大値となる。また、エッジ付近の画素の混合比をαとし、エッジの傾きをGfeとおけば、成立する関係式は、上述の式(34)乃至式(36)と同様となる(ただし、Gflは、Gfeに置き換えられる)。
【0570】
このため、図63で示されるデータ定常性検出部101は、同様の処理により、細線の傾きに対応する角度、および、エッジの傾きに対応する角度を、データ定常性情報として検出することができる。そこで、以下においては、傾きは、細線の傾きと、2値エッジの傾きとを総称して、傾きGfと称する。また、上述の式(38)乃至式(40)の式における傾きGflは、Gfeであってもよいものであり、結果として、傾きGfと置き換えて考えるものとする。
【0571】
次に、図88のフローチャートを参照して、データ定常性の検出の処理を説明する。
【0572】
ステップS701において、水平・垂直判定部711は、入力画像の各画素を識別するカウンタTを初期化する。
【0573】
ステップS702において、水平・垂直判定部711は、後段の処理に必要なデータの抽出処理を実行する。
【0574】
ここで、図89のフローチャートを参照して、データを抽出する処理について説明する。
【0575】
ステップS711において、データ選択部701の水平・垂直判定部711は、各注目画素Tについて、図64を参照して説明したように、水平方向、垂直方向、および対角方向に隣接する9画素の水平方向に隣接する画素間の画素値の差分(アクティビティ)の和hdiffと、垂直方向に隣接する画素間の画素値の差分(アクティビティ)の和vdiffとを演算し、さらに、その差分(hdiff−vdiff)を求め、差分(hdiff−vdiff)≧0の場合、その注目画素Tが、水平方向を基準軸としたとき、その基準軸との角度θが45度度≦θ<135度度となる、垂直方向に近い細線、または、2値エッジ付近の画素であるものとみなし、使用する抽出ブロックを垂直方向に対応したものとする判定結果をデータ取得部712、および、データ足し込み部702に出力する。
【0576】
一方、差分(hdiff−vdiff)<0の場合、水平・垂直判定部711は、その注目画素が、水平方向を基準軸にしたとき、その基準軸との細線、または、2値エッジのなす角度θが0度度≦θ<45度度、または、135度度≦θ<180度度となる、水平方向に近い細線、または、エッジ付近の画素であるものとみなし、使用する抽出ブロックを水平方向に対応したものとする判定結果をデータ取得部712、および、データ足し込み部702に出力する。
【0577】
すなわち、細線、または、2値エッジの傾きが垂直方向に近いと言うことは、例えば、図70Aで示されているように、図中の矢印が細線と交差する部分が増えることになるため、垂直方向の画素数を多めにした抽出ブロックを設定する(縦長な抽出ブロックを設定する)。同様にして、細線の傾きが水平方向に近い場合についても、水平方向の画素数を多めにした抽出ブロックを設定するようにする(横長な抽出ブロックを設定する)。このようにすることにより、不要な計算量を増やすことなく、正確な最大値と最小値の演算が可能となる。
【0578】
ステップS712において、データ取得部712は、注目画素について水平・垂直判定部711より入力される水平方向、または、垂直方向の判定結果に対応した抽出ブロックの画素を抽出する。すなわち、例えば、図78で示されるように、注目画素を中心として、(水平方向に3画素)×(垂直方向に7画素)の合計21画素を抽出ブロックとして抽出し、記憶する。
【0579】
ステップS713において、データ取得部712は、抽出ブロックの各画素について、水平・垂直判定部711の判定結果に対応した方向に対応するダイナミックレンジブロックの画素を抽出し、記憶する。すなわち、図78を参照して、上述したように、例えば、抽出ブロックの画素pix11については、今の場合、水平・垂直判定部711の判定結果が垂直方向になるので、データ取得部712は、垂直方向に、ダイナミックレンジブロックB1を、同様にして、画素pix12は、ダイナミックレンジブロックB2を抽出する。その他の抽出ブロックについても同様にしてダイナミックレンジブロックが抽出される。
【0580】
すなわち、このデータ抽出処理により、所定の注目画素Tについて、正規方程式の演算に必要な画素の情報がデータ取得部712に蓄えられることになる(処理される領域が選択されることになる)。
【0581】
ここで、図88のフローチャートの説明に戻る。
【0582】
ステップS703において、データ足し込み部702は、正規方程式(ここでは、式(74))の演算の各項に必要な値の足し込み処理を実行する。
【0583】
ここで、図90のフローチャートを参照して、正規方程式への足し込み処理について説明する。
【0584】
ステップS721において、差分足し込み部721は、データ選択部701の水平・垂直判定部711の判定結果に応じて、データ取得部712に記憶されている抽出ブロックの画素間の画素値の差分を求め(検出し)、さらに、2乗(自乗)して足し込む。すなわち、水平・垂直判定部711の判定結果が垂直方向である場合、差分足し込み部721は、抽出ブロックの各画素について垂直方向に隣接する画素間の画素値の差分を求めて、さらに2乗して足し込む。同様にして、水平・垂直判定部711の判定結果が水平方向である場合、差分足し込み部721は、抽出ブロックの各画素について水平方向に隣接する画素間の画素値の差分を求めて、さらに2乗して足し込む。結果として、差分足し込み部721は、上述の式(40)の分母となる項の差分の自乗和を生成し、記憶する。
【0585】
ステップS722において、MaxMin取得部722は、データ取得部712に記憶されたダイナミックレンジブロックに含まれる画素の画素値の最大値と最小値を取得し、ステップS723において、その最大値と最小値との差分からダイナミックレンジを求め(検出し)、差分足し込み部723に出力する。すなわち、図75Bで示されているような、画素pix1乃至7からなる7画素のダイナミックレンジブロックの場合、pix2の画素値が最大値として検出され、pix7の画素が最小値として検出され、これらの差分がダイナミックレンジとして求められる。
【0586】
ステップS724において、差分足し込み部723は、データ取得部712に記憶されている抽出ブロックの画素間のうち、データ選択部701の水平・垂直判定部711の判定結果に対応する方向に隣接する画素間の画素値の差分を求め(検出し)、MaxMin取得部722より入力されたダイナミックレンジを乗じた値を足し込む。すなわち、差分足し込み部721は、上述の式(40)の分子となる項の和を生成し、記憶する。
【0587】
ここで、図88のフローチャートの説明に戻る。
【0588】
ステップS704において、差分足し込み部721は、抽出ブロックの全ての画素の画素間の画素値の差分(水平・垂直判定部711の判定結果に対応する方向に隣接する画素間の画素値の差分)を足し込んだか否かを判定し、例えば、抽出ブロックの全ての画素の画素間の差分を足し込んでいないと判定した場合、その処理は、ステップS702に戻り、それ以降の処理が繰り返される。すなわち、抽出ブロックの全ての画素の画素間の画素値の差分が足し込まれたと判定されるまで、ステップS702乃至S704の処理が繰り返される。
【0589】
ステップS704において、抽出ブロックの全ての画素の画素間の画素値の差分が足し込まれたと判定された場合、ステップS705にいて、差分足し込み部721,723は、自らで記憶している足し込み結果を定常方向導出部703に出力する。
【0590】
ステップS706において、定常方向演算部731は、データ足し込み部702の差分足し込み部721より入力された、取得ブロックの各画素間のうち、水平・垂直判定部711により判定された方向に隣接する画素間の画素値の差分の自乗和、差分足し込み部723より入力された、取得ブロックの各画素間のうち、水平・垂直判定部711により判定された方向に隣接する画素間の画素値の差分、および、取得ブロックの各画素に対応するダイナミックレンジとの積の和に基づいて、上述の式(40)で示した正規方程式を解くことにより、最小自乗法を用いて統計的に注目画素のデータ定常性情報である、定常性の方向を示す角度(細線、または、2値エッジの傾きを示す角度)を演算し、出力する。
【0591】
ステップS707において、データ取得部712は、入力画像の全ての画素について処理が行われたか否かを判定し、例えば、入力画像の全ての画素について処理が行われていない、すなわち、入力画像の全ての画素について、細線、または、2値エッジの角度の情報を出力していないと判定した場合、ステップS708において、カウンタTを1インクリメントして、その処理は、ステップS702に戻る。すなわち、入力画像のうちの処理しようとする画素が変更されて、入力画像の全ての画素について処理がなされるまで、ステップS702乃至S708の処理が繰り返されることになる。このカウンタTによる画素の変化は、例えば、ラスタスキャンなどであってもよいし、それ以外の規則により順次変化していくものであってもよい。
【0592】
ステップS707において、入力画像の全ての画素について処理がなされたと判定された場合、ステップS709において、データ取得部712は、次の入力画像があるか否かを判定し、次の入力画像があると判定された場合、その処理は、ステップS701に戻り、それ以降の処理が繰り返される。
【0593】
ステップS709において、次の入力画像はないと判定された場合、その処理は、終了する。
【0594】
以上の処理により、細線、または、2値エッジの角度が、定常性情報として検出されて、出力される。
【0595】
このように統計的処理により得られる細線、または、エッジの傾きの角度は、相関を用いて得られる細線、または、2値エッジの角度とほぼ一致する。すなわち、図91Aで示すような画像の白線で囲まれる範囲の画像について、細線上の所定の水平方向の座標上の空間方向Yへの傾きの変化は、図91Bで示されるように、相関を用いた方法により得られる細線の傾きを示す角度(図中の黒丸印)と、図63で示されたデータ定常性検出部101により統計処理により得られる細線の角度(図中の黒三角印)は、細線近傍の空間方向Yの座標上で、それぞれがほぼ一致している。尚、図91Bにおいては、図中の黒実線で挟まれた空間方向Y=680乃至730が細線上の座標である。
【0596】
同様にして、図92Aで示すような画像の白線で囲まれる範囲の画像について、2値エッジ上の所定の水平方向の座標上の空間方向Yへの傾きの変化は、図92Bで示されるように、相関を用いた方法により得られる2値エッジの傾きを示す角度(図中の黒丸印)と、図63で示されたデータ定常性検出部101により統計処理により得られる2値エッジの角度(図中の黒三角印)は、細線近傍の空間方向Yの座標上で、それぞれがほぼ一致している。尚、図92Bにおいては、空間方向Y=376(付近)乃至388(付近)が細線上の座標であるである。
【0597】
結果として、図63に示されるデータ定常性検出部101は、データの定常性として細線、または、2値エッジの角度を求める際、所定の画素からなるブロックによる相関を用いる方法と異なり、各画素の周辺の情報を用いて、統計的に細線、または、2値エッジの傾きを示す角度(ここでは、水平方向を基準軸とした角度)を求めることができるので、相関を用いた方法に見られるように、所定の角度の範囲に応じて切り替わることが無いので、全ての細線、または、2値エッジの傾きの角度を同一の処理により求めることが可能となるため、処理を簡単なものとすることが可能となる。
【0598】
また、以上においては、データ定常性検出部101は、細線、または、2値エッジの所定の基準軸とのなす角度を定常性情報として出力する例について説明してきたが、後段の処理によっては、傾きをそのまま出力する方が、処理効率が向上することも考えられる。そのような場合、データ定常性検出部101の定常方向導出部703の定常方向演算部731は、最小自乗法により求められた細線、または、2値エッジの傾きGfを、そのまま定常性情報として出力するようにしてもよい。
【0599】
さらに、以上においては、式(40)において、ダイナミックレンジDri_rは、抽出ブロックの各画素について求められるものとして演算してきたが、このダイナミックレンジは、ダイナミックレンジブロックを十分に大きく設定することにより、すなわち、多くの注目画素について、その周辺の多くの画素を用いて設定することにより、画像中の画素の画素値の最大値と最小値が、常に選択されることになるはずである。従って、ダイナミックレンジDri_rは、抽出ブロックの各画素について演算することなく、抽出ブロック中、または、画像データ中の画素の最大値と最小値から得られるダイナミックレンジを固定値として演算するようにしてもよい。
【0600】
すなわち、以下の式(41)のように、画素間の画素値の差分のみを足し込むことにより細線の角度θ(傾きGf)を求めるようにしてもよい。このように、ダイナミックレンジを固定することにより、演算処理をより簡素化することができ、高速で処理を行うことが可能となる。
【数31】
【0601】
次に、図93を参照して、データ定常性情報として、各画素の混合比を検出するデータ定常性検出部101について説明する。
【0602】
尚、図93のデータ定常性検出部101においては、図63のデータ定常性検出部101における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
【0603】
図93のデータ定常性検出部101において、図63のデータ定常性検出部101と異なるのは、データ足し込み部702、および、定常性方向導出部703に代えて、データ足し込み部751、および、混合比導出部761が設けられている点である。
【0604】
データ足し込み部751のMaxMin取得部752は、図63におけるMaxMin取得部722と同様の処理を行うものであるが、ダイナミックレンジブロックの各画素の画素値の最大値と最小値を取得し、最大値と最小値の差分(ダイナミックレンジ)を求め、足し込み部753,755に出力すると共に、最大値を差分演算部754に出力する。
【0605】
足し込み部753は、MaxMin取得部より入力された値を自乗して、抽出ブロックの全ての画素について足し込み、その和を求めて、混合比導出部761に出力する。
【0606】
差分演算部754は、データ取得部712の取得ブロックの各画素について、対応するダイナミックレンジブロックの最大値との差分を求めて、足し込み部755に出力する。
【0607】
足し込み部755は、取得ブロックの各画素について、MaxMin取得部752より入力された最大値と最小値の差分(ダイナミックレンジ)と、差分演算部754より入力された取得ブロックの各画素の画素値と、対応するダイナミックレンジブロックの最大値との差分と乗じて、その和を求め、混合比導出部761に出力する。
【0608】
混合比導出部761の混合比算出部762は、データ足し込み部の足し込み部753,755のそれぞれより入力された、値に基づいて、注目画素の混合比を最小自乗法により統計的に求め、データ定常性情報として出力する。
【0609】
次に、混合比の導出方法について説明する。
【0610】
図94Aで示されるように、画像上に細線が存在する場合、センサで撮像された画像は、図94Bで示されるような画像となる。個の画像について、図94Bの空間方向X=X1上の黒の実線で囲まれた画素について注目する。尚、図94Bの白線ではさまれた範囲は、細線領域に対応する位置を示す。この画素の画素値Mは、背景領域のレベルに対応する画素値Bと、細線領域のレベルに対応する画素値Lの中間色となっているはずであり、さらに詳細には、この画素値PSは、背景領域と細線領域の面積比で、それぞれのレベルが混合されているはずである。従って、この画素値PSは、以下の式(42)により表現される。
PS=α×B+(1−α)×L・・・(42)
【0611】
ここで、αは、混合比であり、より具体的には、注目されている画素中の背景領域の占める面積の割合を示すものである。従って、(1−α)は、細線領域の占める面積の割合を示しているともいえる。尚、背景領域の画素は、背景に存在するオブジェクトの成分とも考えられるので、背景オブジェクト成分とも言える。また、細線領域の画素は、背景オブジェクトに対して前景オブジェクトの成分であると考えられるので、前景オブジェクト成分とも言える。
【0612】
この結果、混合比αは、式(42)を展開することにより、以下の式(43)で表現できることになる。
α=(PS−L)/(B−L)・・・(43)
【0613】
さらに、今の場合、画素値は、第1の画素値(画素値B)の領域と第2の画素値(画素値L)の領域とをまたいだ位置に存在することが前提であるので、画素値Lは、画素値の最大値Maxで置き換えることができ、さらに、画素値Bは、画素値の最小値と置き換えることができる。従って、混合比αは、以下の式(44)でも表現することができる。
α=(PS−Max)/(Min−Max)・・・(44)
【0614】
以上の結果、混合比αは、注目画素についてのダイナミックレンジブロックのダイナミックレンジ((Min−Max)に相当する)と、注目画素と、ダイナミックレンジブロック内の画素の最大値との差分から求めることが可能となるが、より精度を向上させるため、ここでは、最小自乗法により統計的に混合比αを求める。
【0615】
すなわち、上述の式(44)は、展開すると以下の式(45)となる。
(PS−Max)=α×(Min−Max)・・・(45)
【0616】
この式(45)は、上述の式(36)と同様の1変数の最小自乗法の式となる。すなわち、式(36)においては、最小自乗法により傾きGfが求められていたが、ここでは、混合比αが求められることになる。従って、以下の式(46)で示される正規方程式を解くことにより、混合比αは、統計的に求められる。
【数32】
【0617】
ここで、iは、抽出ブロックの各画素を識別するものである。従って、式(46)においては、抽出ブロックの画素数はnである。
【0618】
次に、図95のフローチャートを参照して、混合比をデータ定常性としたときのデータ定常性の検出の処理について説明する。
【0619】
ステップS731において、水平・垂直判定部711は、入力画像の各画素を識別するカウンタUを初期化する。
【0620】
ステップS732において、水平・垂直判定部711は、後段の処理に必要なデータの抽出処理を実行する。尚、ステップS732の処理は、図89のフローチャートを参照して説明した処理と同様であるので、その説明は省略する。
【0621】
ステップS733において、データ足し込み部751は、正規方程式(ここでは、式(46))の演算の各項に必要な値の足し込み処理を実行する。
【0622】
ここで、図96のフローチャートを参照して、正規方程式への足し込み処理について説明する。
【0623】
ステップS751において、MaxMin取得部752は、データ取得部712に記憶されたダイナミックレンジブロックに含まれる画素の画素値の最大値と最小値を取得し、そのうち、最小値を差分演算部754に出力する。
【0624】
ステップS752において、MaxMin取得部752は、その最大値と最小値との差分からダイナミックレンジを求め、差分足し込み部753,755に出力する。
【0625】
ステップS753において、足し込み部753は、MaxMin取得部752より入力されたダイナミックレンジ(Max−Min)を自乗して、足し込む。すなわち、足し込み部753は、上述の式(46)の分母に相当する値を足し込みにより生成する。
【0626】
ステップS754において、差分演算部754は、MaxMin取得部752より入力されたダイナミックレンジブロックの最大値と、抽出ブロックにおける今現在処理中の画素の画素値との差分を求めて、足し込み部755に出力する。
【0627】
ステップS755において、足し込み部755は、MaxMin取得部752より入力されたダイナミックレンジと、差分演算部754より入力された、今現在処理している画素の画素値と、ダイナミックレンジブロックの画素のうち最大値となる値との差分を乗じて、足し込む。すなわち、足し込み部755は、上述の式(46)の分子の項に相当する値を生成する。
【0628】
以上のように、データ足し込み部751は、足し込み処理により、上述の式(46)の各項の演算を実行する。
【0629】
ここで、図95のフローチャートの説明に戻る。
【0630】
ステップS734において、差分足し込み部721は、抽出ブロックの全ての画素について、足し込みが終了したか否かを判定し、例えば、抽出ブロックの全ての画素についての足し込み処理が終了していないと判定した場合、その処理は、ステップS732に戻り、それ以降の処理が繰り返される。すなわち、抽出ブロックの全ての画素について、足し込み処理が終了したと判定されるまで、ステップS732乃至S734の処理が繰り返される。
【0631】
ステップS734において、抽出ブロックの全ての画素について足し込みが終了したと判定された場合、ステップS735にいて、足し込み部753,755は、自らで記憶している足し込み結果を混合比導出部761に出力する。
【0632】
ステップS736において、混合比導出部761の混合比算出部762は、データ足し込み部751の足し込み部753,755より入力された、ダイナミックレンジの自乗和、および、抽出ブロックの各画素の画素値とダイナミックレンジブロックの最大値との差分と、ダイナミックレンジとを乗じた和に基づいて、上述の式(46)で示した正規方程式を解くことにより、最小自乗法を用いて統計的に注目画素のデータ定常性情報である、混合比を演算し、出力する。
【0633】
ステップS737において、データ取得部712は、入力画像の全ての画素について処理が行われたか否かを判定し、例えば、入力画像の全ての画素について処理が行われていない、すなわち、入力画像の全ての画素について、混合比を出力していないと判定した場合、ステップS738において、カウンタUを1インクリメントして、その処理は、ステップS732に戻る。
【0634】
すなわち、入力画像のうちの処理しようとする画素が変更されて、入力画像の全ての画素について混合比が演算されるまで、ステップS732乃至S738の処理が繰り返されることになる。このカウンタUによる画素の変化は、例えば、ラスタスキャンなどであってもよいし、それ以外の規則により順次変化していくものであってもよい。
【0635】
ステップS737において、入力画像の全ての画素について処理がなされたと判定された場合、ステップS739において、データ取得部712は、次の入力画像があるか否かを判定し、次の入力画像があると判定された場合、その処理は、ステップS731に戻り、それ以降の処理が繰り返される。
【0636】
ステップS739において、次の入力画像はないと判定された場合、その処理は、終了する。
【0637】
以上の処理により、各画素の混合比が、定常性情報として検出されて、出力される。
【0638】
以上の手法により、例えば、図97Aで示される画像中の白線内の細線の画像について、所定の空間方向X(=561,562,563)上の混合比の変化が、図97Bに示されている。図97Bで示されるように、水平方向に連続する空間方向Yの混合比の変化は、それぞれ、空間方向X=563の場合、混合比は、空間方向Y=660付近で立ち上がり、Y=685付近でピークとなり、Y=710まで減少する。また、空間方向X=562の場合、混合比は、空間方向Y=680付近で立ち上がり、Y=705付近でピークとなり、Y=735まで減少する。さらに、空間方向X=561の場合、混合比は、空間方向Y=705付近で立ち上がり、Y=725付近でピークとなり、Y=755まで減少する。
【0639】
このように、図97Bで示されるように、連続する空間方向Xのそれぞれの混合比の変化は、混合比により変化する画素値の変化(図72Bで示した画素値の変化)と同様の変化であり、周期的に連続していることから、細線近傍の画素の混合比が正確に表現されていることが分かる。
【0640】
また、同様にして、図98Aで示される画像中の白線内の2値エッジの画像について、所定の空間方向X(=658,659,660)上の混合比の変化が、図98Bに示されている。図98Bで示されるように、水平方向に連続する空間方向Yの混合比の変化は、それぞれ、空間方向X=660の場合、混合比は、空間方向Y=750付近で立ち上がり、Y=765付近でピークとなる。また、空間方向X=659の場合、混合比は、空間方向Y=760付近で立ち上がり、Y=775付近でピークとなる。さらに、空間方向X=658の場合、混合比は、空間方向Y=770付近で立ち上がり、Y=785付近でピークとなる。
【0641】
このように、図98Bで示されるように、2値エッジの混合比の変化は、混合比により変化する画素値の変化(図84Bで示した画素値の変化)と同様の変化とほぼ同様であり、周期的に連続していることから、2値エッジ近傍の画素値の混合比が正確に表現されていることが分かる。
【0642】
以上によれば、最小自乗法により統計的にデータ定常性情報として、各画素の混合比を求めることが可能となる。さらに、この混合比に基づいて、各画素の画素値を直接生成することが可能となる。
【0643】
また、混合比の変化が、定常性を有するものであり、さらに、この混合比の変化が直線的なもので近似すると、以下の式(47)で示されるような関係が成立する。
α=m×y+n・・・(47)
【0644】
ここで、mは、混合比αが、空間方向Yに対して変化するときの傾きを示し、また、nは、混合比αが直線的に変化するときの切片に相当するものである。
【0645】
すなわち、図99で示されるように、混合比を示す直線は、背景領域のレベルに相当する画素値Bと、細線のレベルに相当するレベルLの境界を示す直線であり、この場合、空間方向Yについて単位距離進んだときの混合比の変化量が傾きmとなる。
【0646】
そこで、式(47)を、式(42)に代入すると以下の式(48)が導出される。
M=(m×y+n)×B+(1−(m×y+n))×L・・・(48)
【0647】
さらに、この式(48)を展開すると、以下の式(49)が導出される。
M−L=(y×B−y×L)×m+(B−L)×n・・・(49)
【0648】
式(49)においては、第1項のmが、混合比の空間方向の傾きを示し、第2項が混合比の切片を示す項である。従って、上述の式(49)のm,nを2変数の最小自乗法を用いて、正規方程式を生成し、求めるようにすることもできる。
【0649】
しかしながら、混合比αの傾きmは、上述した細線や2値エッジの傾き(上述の傾きGf)そのものであるので、予め、上述の方法を用いて、細線、または、2値エッジの傾きGfを求めた後、その傾きを用いて、式(49)に代入することにより、切片の項についての1変数の関数とし、上述した手法と同様に、1変数の最小自乗法により求めるようにしてもよい。
【0650】
以上の例においては、空間方向の細線、または、2値エッジの角度(傾き)、または、混合比をデータ定常性情報として検出するデータ定常性検出部101について説明してきたが、例えば、空間内の軸(空間方向X,Y)のいずれかを、時間方向(フレーム方向)Tの軸に置き換えることにより得られる、空間方向における角度に対応するものであってもよい。すなわち、空間内の軸(空間方向X,Y)のいずれかを、時間方向(フレーム方向)Tの軸に置き換えることにより得られる角度に対応するものとは、物体の動きベクトル(動きベクトルの方向)である。
【0651】
より具体的には、図100Aで示すように、物体が、時間が進むにつれて空間方向Yについて、図中の上方向に移動している場合、図中の細線に相当する部分(図70Aとの比較)には、物体の移動の軌跡が現れることになる。従って、時間方向Tの細線における傾きは、図100Aにおいては、物体の動く方向(物体の動きを示す角度)を示すもの(動きベクトルの方向と同値のもの)である。従って、現実世界において、図100A中の矢印で示される、所定の時刻におけるフレームでは、図100Bで示すように物体の軌跡となる部分が、物体の(色の)レベルとなり、それ以外の部分が、背景のレベルとなったパルス状の波形となる。
【0652】
このように、センサにより動きのある物体を撮像したした場合、図101Aで示されるように、時刻T1乃至T3におけるフレームの各画素の画素値の分布は、図101Bで示されるように、空間方向Yに対して、それぞれ山型の波形をとる。この関係は、図71A,Bを参照して、説明した空間方向X,Yにおける関係と同様であるものと考えることができる。従って、フレーム方向Tに対して、物体に動きがある場合、上述した細線の傾き、または、2値エッジの角度(傾き)の情報と同様の手法により、物体の動きベクトルの方向をデータ定常性情報として求めることも可能である。尚、図101Bにおいては、フレーム方向T(時間方向T)について、各マス目は、1フレームの画像を構成するシャッタ時間となる。
【0653】
また、同様にして、図102Aで示されるように、フレーム方向T毎に、空間方向Yについて物体に動きがある場合、図102Bで示されるように、所定の時刻T1に相当するフレーム上で空間方向Yに向けて、物体の動きに対応して、各画素値が得られることになる。このとき、例えば、図102Bにおける、黒の実線で囲まれた画素の画素値は、図102Cで示されるように、物体の動きに対応して、背景のレベルと物体のレベルがフレーム方向に混合比βで混合している画素値である。
【0654】
この関係は、図94A,B,Cを参照して説明した関係と同様である。
【0655】
さらに、図103で示されるように、物体のレベルOと背景のレベルBとは、フレーム方向(時間方向)の混合比βにより直線近似することも可能である。個の関係は、図99を参照して説明した空間方向の混合比の直線近似と同様の関係である。
【0656】
従って、空間方向の混合比αと同様の手法により、時間(フレーム)方向の混合比βをデータ定常性情報として求めることも可能である。
【0657】
また、フレーム方向、または、空間方向のいずれか1次元を選択して、定常性の角度、または、動きベクトルの方向を求めるようにしてもよいし、同様にして混合比α,βを選択的に求めるようにしてもよい。
【0658】
以上によれば、現実世界の光信号を射影し、現実世界の光信号の定常性の一部が欠落した画像データ内の注目画素に対応する領域を選択し、選択した領域内の、欠落した現実世界の光信号の定常性に対応する画像データの定常性の基準軸に対する角度を検出するための特徴を検出し、検出した特徴に基づいて統計的に角度を検出し、検出した画像データの定常性の基準軸に対する角度に基づいて、欠落した現実世界の光信号の定常性を推定することにより光信号を推定するようにしたので、定常性の角度(動きベクトルの方向)、または、(時空間の)混合比を求めることが可能となる。
【0659】
以上のように、データ定常性検出部101は、注目画素に対応する、入力画像の複数の周辺画素の、現実世界の光信号の定常性に対応するデータの定常性を検出する。
【0660】
図6に戻り、ステップS101において、データ定常性検出部101により検出されるデータの定常性は、入力画像に含まれる、実世界の画像の定常性の一部であるか、または、実世界の信号の定常性から変化してしまった定常性である。
【0661】
例えば、データ定常性検出部101は、同様の形状の並び方を示す、空間方向の角度(傾き)を検出することにより、データの定常性を検出する。
【0662】
なお、データ定常性情報は、データの特徴を示す特徴量として利用することができる。
【0663】
ステップS102において、クラスタップ抽出部102は、創造しようとするHD画像の注目しているHD画素である注目画素を選択する。クラスタップ抽出部102は、データ定常性検出部101により検出されたデータの定常性に基づいて、注目画素に対応する、入力画像の複数の周辺画素を抽出し、抽出した入力画像の複数の周辺画素をクラスタップとする。クラスタップは、特徴量検出部103に供給され、手続は、ステップS103に進む。例えば、クラスタップ抽出部102は、データ定常性検出部101により検出されたデータの定常性に基づいて、注目画素の位置に空間的または時間的に近い複数の画素値を入力画像からクラスタップとして抽出して、クラスタップを生成する。
【0664】
次に、図104乃至図108を参照して、クラスタップ抽出部102による、データの定常性に基づいた、注目画素に対応する、入力画像の複数の周辺画素の抽出の処理について説明する。
【0665】
図104は、従来の時間方向により高解像度の画像のフレームを創造するクラス分類適応処理における、動きベクトルvを基にした、クラスタップの抽出の処理を説明する図である。
【0666】
図104において、横方向は、画像の空間方向を示し、縦方向は、時間方向を示す。フレーム#1は、フレーム#0の次のフレーム、すなわちフレーム#0に対して時間的に後のフレームである。注目フレームは、フレーム#0およびフレーム#1の間に配置される。
【0667】
図104において、黒丸は、注目画素を示し、白丸は、抽出される周辺画素を示す。
【0668】
従来のクラス分類適応処理において、注目画素に対応する動きベクトルvが検出され、検出された動きベクトルvが、注目画素を通過し、始点がフレーム#0に位置し、終点がフレーム#1に位置するように配置される。そして、配置された動きベクトルvの始点に位置する画素x(2)、動きベクトルvの終点に位置する画素x(5)が、クラスタップとして抽出される。
【0669】
さらに、従来のクラス分類適応処理において、画素x(2)に隣接する、フレーム#0の画素x(1)および画素x(3)が、クラスタップとして抽出され、画素x(5)に隣接する、フレーム#1の画素x(4)および画素x(6)が、クラスタップとして抽出される。
【0670】
図105は、本発明の画像処理装置における、データの定常性の方向Cを基にした、クラスタップの抽出の処理を説明する図である。
【0671】
以下の説明において、画素の単位は、入力画像における画素を基準とする。
【0672】
なお、図105の上側において、空間方向Yの座標値が増加し(プラス側)、図105の下側において、空間方向Yの座標値が減少する(マイナス側)。また、図105の右側において、空間方向Xの座標値が増加し(プラス側)、図105の左側において、空間方向Xの座標値が減少する(マイナス側)。
【0673】
図105で示されるデータの定常性の方向Cにおいて、空間方向Xに1画素の距離に対する空間方向Yの変化量は、3.25画素である。
【0674】
例えば、データの定常性を有する領域に属する注目画素(図中黒丸で示す)に対して、空間方向Xに−0.25画素および空間方向Yに−0.75画素の画素x(5)、空間方向Xに−0.25画素および空間方向Yに+0.25画素の画素x(4)、並びに空間方向Xに−0.25画素および空間方向Yに−1.75画素の画素x(6)がクラスタップとして抽出される。
【0675】
また、データの定常性を有する領域に属する注目画素に対して、空間方向Xに+0.75画素および空間方向Yに+2.75画素の画素x(2)、空間方向Xに+0.75画素および空間方向Yに+3.75画素の画素x(1)、並びに空間方向Xに+0.75画素および空間方向Yに+1.75画素の画素x(3)がクラスタップとして抽出される。
【0676】
さらに、データの定常性を有する領域に属する注目画素に対して、空間方向Xに−1.25画素および空間方向Yに−3.75画素の画素x(8)、空間方向Xに−1.25画素および空間方向Yに−2.75画素の画素x(7)、並びに空間方向Xに−1.25画素および空間方向Yに−4.75画素の画素x(9)がクラスタップとして抽出される。
【0677】
図106および図107を参照して、データの定常性に基づく、クラスタップとして抽出される画素の位置の決定について説明する。
【0678】
図106および図107において、×印は、HD画素を示し、丸印は、SD画素を示す。
【0679】
以下、注目画素などの所定の基準位置から、空間方向Xにa画素および空間方向Yにb画素の位置を、(a,b)で表す。
【0680】
例えば、注目画素の対応する位置の入力画素(対応画素)が含まれる空間方向Yに1列の画素であって、対応画素から定まる中心画素を中心とし、中心画素に空間方向Yに隣接する画素からなる3つの周辺画素、さらに3つの周辺画素に空間方向Xに隣接する6つの周辺画素の位置が基準として予め定められている。
【0681】
なお、周辺画素の基準の位置は、空間方向Xに1画素おき、または空間方向Yに1画素おきなど、任意に定めることができる。
【0682】
対応画素は、注目画素に対して、空間方向Xに−0.25画素乃至+0.25画素、および空間方向Yに−0.25画素乃至+0.25画素の範囲に位置する。
【0683】
中心画素は、対応画素と同じである場合もあるが、対応画素と同じでない場合もある。すなわち、中心画素は、対応画素と同じとは限らない。
【0684】
例えば、図106に示すように、注目画素であるHD画素y1の位置が、対応画素x11を基準として(−0.25,+0.25)であるとき、対応画素x11から空間方向Xに1画素の位置の画素x12と、注目画素y1との空間方向Xの距離は、1.25画素、すなわち5/4画素である。
【0685】
データの定常性における、空間方向Xに1画素の距離に対する空間方向Yの変化量が、1画素であるとき(データの定常性の傾きが1であるとき)、注目画素y1から空間方向Xに1.25画素であって、空間方向Yに1.25画素(空間方向Xの距離1.25に傾き1を乗算して得られた距離1.25)の位置に最も近い入力画素、例えば、入力画素x6がクラスタップとして選択される。
【0686】
そして、選択された入力画素x6を基準として、入力画素x6に空間方向Yに1列に並ぶ入力画素であって、入力画素x6に対して所定の位置にある入力画素がクラスタップとして選択される。例えば、選択された入力画素x6に空間方向Yに隣接する入力画素x3および入力画素x9がクラスタップとして選択される。
【0687】
データの定常性における、空間方向Xに1画素の距離に対する空間方向Yの変化量が、2画素であるとき(データの定常性の傾きが2であるとき)、図106に示すように、注目画素y1から空間方向Xに1.25画素であって、空間方向Yに2.50画素(空間方向Xの距離1.25に傾き2を乗算して得られた距離2.50)の位置に最も近い入力画素、例えば、入力画素x3がクラスタップとして選択される。
【0688】
そして、選択された入力画素x3を基準として、入力画素x3に空間方向Yに1列に並ぶ入力画素であって、入力画素x3に対して所定の位置にある入力画素がクラスタップとして選択される。例えば、選択された入力画素x3に空間方向Yに隣接する入力画素が選択される。
【0689】
例えば、図106に示すように、注目画素であるHD画素y1の位置が対応画素x11に対して(−0.25,+0.25)なので、対応画素x11と注目画素y1との空間方向Xの距離は、0.25画素、すなわち1/4画素である。
【0690】
データの定常性における、空間方向Xに1画素の距離に対する空間方向Yの変化量が、2画素であるとき(データの定常性の傾きが2であるとき)、図106に示すように、注目画素y1から空間方向Xに0.25画素であって、空間方向Yに0.50画素(空間方向Xの距離0.25に傾き2を乗算して得られた距離0.50)の位置に最も近い入力画素、例えば、入力画素x11が中心画素として、選択される。
【0691】
そして、例えば、選択された入力画素x11に空間方向Yに隣接する入力画素x8および入力画素x14が選択される。
【0692】
すなわち、この場合、対応画素と中心画素とは、同じ画素となる。
【0693】
データの定常性における、空間方向Xに1画素の距離に対する空間方向Yの変化量が、3.25画素であるとき(データの定常性の傾きが3.25であるとき)、図106に示すように、注目画素y1から空間方向Xに0.25画素であって、空間方向Yに0.8125画素(空間方向Xの距離0.25に傾き3.25を乗算して得られた距離0.8125)の位置に最も近い入力画素、例えば、入力画素x14が中心画素として、選択される。
【0694】
そして、例えば、選択された入力画素x14に空間方向Yに隣接する入力画素x11および入力画素x17が選択される。
【0695】
すなわち、この場合、対応画素と中心画素とは、異なる画素となる。
【0696】
例えば、図107に示すように、注目画素であるHD画素y2の位置が、対応画素x11に対して(+0.25,+0.25)であるとき、対応画素x11から空間方向Xに1画素の位置の画素x12と、注目画素y2との空間方向Xの距離は、0.75画素、すなわち3/4画素である。
【0697】
データの定常性における、空間方向Xに1画素の距離に対する空間方向Yの変化量が、1画素であるとき(データの定常性の傾きが1であるとき)、注目画素y2から空間方向Xに0.75画素であって、空間方向Yに0.75画素(空間方向Xの距離0.75に傾き1を乗算して得られた距離0.75)の位置に最も近い入力画素、例えば、入力画素x9がクラスタップとして選択される。
【0698】
そして、選択された入力画素x9を基準として、入力画素x9に空間方向Yに1列に並ぶ入力画素であって、入力画素x9に対して所定の位置にある入力画素がクラスタップとして選択される。例えば、選択された入力画素x9に空間方向Yに隣接する入力画素x6および入力画素x12が選択される。
【0699】
データの定常性における、空間方向Xに1画素の距離に対する空間方向Yの変化量が、2画素であるとき(データの定常性の傾きが2であるとき)、図107に示すように、注目画素y2から空間方向Xに0.75画素であって、空間方向Yに1.50画素(空間方向Xの距離0.75に傾き2を乗算して得られた距離1.50)の位置に最も近い入力画素、例えば、入力画素x6がクラスタップとして選択される。
【0700】
そして、選択された入力画素x6を基準として、入力画素x6に空間方向Yに1列に並ぶ入力画素であって、入力画素x6に対して所定の位置にある入力画素がクラスタップとして選択される。例えば、選択された入力画素x6に空間方向Yに隣接する入力画素x3および入力画素x9が選択される。
【0701】
このように、注目画素に対する、周辺画素の所定の方向の距離に、データの定常性の傾きを乗算することにより、周辺画素の他の方向の距離を求めて、データの定常性の方向を基に、クラスタップとして抽出される周辺画素の位置が特定される。
【0702】
このようにすることで、データの定常性を有する周辺画素をクラスタップとして選択できる。これにより、共通した特徴を有する周辺画素がクラスタップとして選択されるので、より適切にクラスを分類することができるようになる。
【0703】
また、本発明の画像処理装置においては、時空間方向のデータの定常性の方向を検出し、検出された時空間方向のデータの定常性の方向を基にして、時空間方向のクラスタップを抽出することができる。
【0704】
図108は、本発明の画像処理装置における、データ定常性検出部101により検出された時空間方向のデータの定常性の方向Cを基にした、時空間方向のクラスタップの抽出の処理を説明する図である。
【0705】
図108において、入力画像に対して、出力画像の一方の空間方向の画素の数は2倍であり、出力画像の単位時間当たりのフレームの数は2倍である。
【0706】
図108において、過去の時刻が、図中の左側の位置に対応し、未来の時刻が、図中の右側の位置に対応する。図108の上側において、空間方向の座標値が増加し(プラス側)、図108の下側において、空間方向の座標値が減少する(マイナス側)。
【0707】
図108において、f−1,f0,f1は、入力画像のフレームを示し、F−2,F−1,F0,F1,F2,F3は、出力画像のフレームを示す。
【0708】
図108で示されるデータの定常性の方向Cにおいて、入力画像を基準として、時間方向に1フレームの距離に対する空間方向の変化量が、3.25画素である。
【0709】
例えば、データの定常性を有する領域に属する注目画素(図中黒丸で示す)に対して、時間方向に−0.25フレームおよび空間方向に−0.75画素の画素x(5)、時間方向に−0.25フレームおよび空間方向に+0.25画素の画素x(4)、並びに時間方向に−0.25フレームおよび空間方向に−1.75画素の画素x(6)がクラスタップとして抽出される。
【0710】
データの定常性を有する領域に属する注目画素に対して、時間方向に+0.75フレームおよび空間方向に+2.75画素の画素x(2)、時間方向に+0.75フレームおよび空間方向に+3.75画素の画素x(1)、並びに時間方向に+0.75フレームおよび空間方向に+1.75画素の画素x(3)がクラスタップとして抽出される。
【0711】
さらに、データの定常性を有する領域に属する注目画素に対して、時間方向に−1.25フレームおよび空間方向に−3.75画素の画素x(8)、時間方向に−1.25フレームおよび空間方向に−2.75画素の画素x(7)、並びに時間方向に−1.25フレームおよび空間方向に−4.75画素の画素x(9)がクラスタップとして抽出される。
【0712】
時空間方向のデータの定常性の傾きを基に、時空間方向にクラスタップを抽出する処理は、図106および図107を参照して説明した処理において、空間方向の一方を時間方向に置き換えたものと同様なので、その説明は省略する。
【0713】
時空間方向のデータの定常性の傾きを基に、時空間方向にクラスタップを抽出することにより、時空間方向のデータの定常性を考慮したクラスタップを抽出することができるようになる。
【0714】
図6に戻り、ステップS103において、特徴量検出部103は、入力画像またはクラスタップから特徴量を検出して、検出された特徴量をクラス分類部104に供給すると共に、クラスタップをクラス分類部104に供給して、ステップS104に進む。
【0715】
ステップS104において、クラス分類部104は、特徴量検出部103から供給される特徴量またはクラスタップに基づき、1以上のクラスのうちのいずれかのクラスに、注目画素についてクラス分類を行い、その結果得られる注目画素のクラスを表すクラスコードを、係数メモリ105および予測タップ抽出部106に供給して、ステップS105に進む。
【0716】
ステップS105において、予測タップ抽出部106は、データ定常性検出部101により検出されたデータの定常性に基づいて、注目画素に対応する、入力画像の複数の周辺画素を抽出し、抽出した入力画像の複数の周辺画素を予測タップとする。
【0717】
予測タップ抽出部106による予測タップの抽出の処理は、クラスタップ抽出部102における処理と同様なので、その詳細な説明は省略する。
【0718】
このようにすることで、データの定常性を有する周辺画素を予測タップとして選択できる。これにより、共通した特徴を有する周辺画素が予測タップとして選択されるので、より精度良く、またはより正確に画素値を予測することができるようになる。
【0719】
すなわち、予測タップ抽出部106は、予測タップ抽出部106は、データ定常性検出部101により検出されたデータの定常性およびクラス分類部104から供給されたクラスコードに基づいて、注目画素の位置に空間的または時間的に近い複数の画素値を入力画像から予測タップとして抽出して、予測タップを生成する。予測タップは、画素値予測部107に供給され、手続は、ステップS106に進む。
【0720】
ステップS106において、係数メモリ105は、クラス分類部104から供給されるクラスコードに対応するアドレスに記憶されている予測係数(タップ係数)を読み出し、これにより、注目画素のクラスの予測係数を取得して、予測係数を画素値予測部107に供給し、ステップS107に進む。
【0721】
ステップS107において、画素値予測部107は、特徴量検出部103により検出された特徴量に基づいて、適応処理により、予測タップ抽出部106により抽出された複数の周辺画素から注目画素(の予測値)を予測し、ステップS108に進む。すなわち、ステップS107では、画素値予測部107は、予測タップ抽出部106からの予測タップと、係数メモリ105からの予測係数(タップ係数)とを用いて、式(1)に示した演算を行い、注目画素(の予測値)を予測する。
【0722】
ステップS108において、クラスタップ抽出部102は、HD画像の注目しているフレームの画素のうち、まだ、注目画素としていない画素が存在するかどうかを判定し、存在すると判定した場合、ステップS102に戻り、以下、同様の処理を繰り返す。
【0723】
また、ステップS108において、注目フレームの画素のうち、注目画素としていない画素が存在しないと判定された場合、即ち、注目フレームを構成するすべてのHD画素が、予測された場合、画素値予測部107は、予測された画素からなる出力画像を出力して、処理は終了する。
【0724】
このように、図5に構成を示す画像処理装置は、入力画像から、より高解像度の出力画像を生成して、生成した出力画像を出力することができる。
【0725】
図109乃至図118は、本発明に係る画像処理装置の処理結果の例を説明する図である。
【0726】
図109は、入力画像の例を示す図である。図110は、入力画像の元になった画像を示す図である。すなわち、図110で示される画像の4画素の画素値の平均から、図109で示される入力画像の画素値を計算した。
【0727】
図111は、図109で示される入力画像に、従来のクラス分類適応処理を適用することにより生成した画像を示す図である。
【0728】
図112は、図109で示される入力画像からデータの定常性の傾きを検出し、データの定常性の傾きを基に、対応画素と中心画素とが常に同じになるように、クラスタップおよび予測タップを抽出して、クラス分類し、適応処理を適用することにより生成した画像を示す図である。
【0729】
図113は、図5で示される画像処理装置により、図109で示される入力画像から生成された画像を示す図である。すなわち、図113は、入力画像からデータの定常性の傾きを検出し、データの定常性の傾きを基に、対応画素と中心画素とが適宜異なるように、クラスタップおよび予測タップを抽出して、クラス分類し、適応処理を適用することにより生成された画像を示す図である。
【0730】
図114は、入力画像の他の例を示す図である。図115は、図114で示される入力画像の元になった画像を示す図である。すなわち、図115で示される画像の4画素の画素値の平均から、図114で示される入力画像の画素値を計算した。
【0731】
図116は、図114で示される入力画像に、従来のクラス分類適応処理を適用することにより生成した画像を示す図である。
【0732】
図117は、図114で示される入力画像からデータの定常性の傾きを検出し、データの定常性の傾きを基に、対応画素と中心画素とが常に同じになるように、クラスタップおよび予測タップを抽出して、クラス分類し、適応処理を適用することにより生成した画像を示す図である。
【0733】
データの定常性の傾きを基に、クラスタップおよび予測タップを抽出しても、対応画素と中心画素とが常に同じになるようにした場合、滑らかな画像を得ることはできない。これは、垂直方向に同じ波形を含むタップが抽出されてしまい、水平方向に波形の変化がないとしてマッピングされた結果によるものと考えられる。
【0734】
図118は、図5で示される画像処理装置により、図114で示される入力画像から生成された画像を示す図である。すなわち、図118は、入力画像からデータの定常性の傾きを検出し、データの定常性の傾きを基に、対応画素と中心画素とが適宜異なるように、クラスタップおよび予測タップを抽出して、クラス分類し、適応処理を適用することにより生成された画像を示す図である。
【0735】
図5で示される画像処理装置により、入力画像から生成された画像は、従来のクラス分類適応処理を適用することにより生成された画像に比較して、より滑らかな画像であって、元の画像により近い画像であることがわかる。特に、図118で示される画像からわかるように、本発明によれば、2本線によるモアレ部分の画像をほぼ完全に復元できる。
【0736】
次に、図119は、図5の係数メモリ105に記憶させるクラスごとのタップ係数を求める学習を行う学習装置の一実施の形態の構成を示すブロック図である。
【0737】
図119の学習装置には、タップ係数の学習用の画像(教師画像)としての、例えばHD画像が入力される。学習装置に入力された入力画像は、生徒画像生成部801および教師画素抽出部809に供給される。
【0738】
生徒画像生成部801は、入力された入力画像(教師画像)から、生徒画像であるSD画像を生成し、画像メモリ802に供給する。生徒画像生成部801は、例えば、教師画像としてのHD画像の水平方向または垂直方向に互いに隣接する4つのHD画素の画素値の平均値を求めてSD画像の画素値とすることにより、その教師画像としてのHD画像に対応した生徒画像としてのSD画像を生成する。ここで、SD画像は、図5の画像処理装置で処理対象となるSD画像に対応した画質のものとする必要がある。画像メモリ802は、生徒画像生成部801からの生徒画像であるSD画像を一時記憶する。
【0739】
図119で示される学習装置においては、SD画像を生徒データとして、タップ係数が生成される。
【0740】
データ定常性検出部803は、図5のデータ定常性検出部101における場合と同様に、画像メモリ802に記憶された生徒画像からデータの定常性を検出して、検出した定常性を示すデータ定常性情報をクラスタップ抽出部804および予測タップ抽出部807に供給する。
【0741】
データ定常性検出部803の構成の詳細は、データ定常性検出部101と同様なので、その説明は省略する。
【0742】
クラスタップ抽出部804は、図5のクラスタップ抽出部102における場合と同様に、画像メモリ802に記憶された生徒画像であるSD画像に対応する教師画像としてのHD画像に含まれる画素のうちの1つの画素を、順次、注目画素とする。
【0743】
さらに、クラスタップ抽出部804は、データ定常性検出部804により検出されたデータの定常性に基づいて、注目画素に対応する、画像メモリ802に記憶された生徒画像の複数の周辺画素を抽出し、抽出した生徒画像の複数の周辺画素をクラスタップとする。すなわち、クラスタップ抽出部804は、データ定常性検出部803により検出されたデータの定常性に基づいて、注目画素についてのクラスタップを、画像メモリ802に記憶されたSD画像から抽出し、特徴量検出部805に供給する。ここで、クラスタップ抽出部804は、図5のクラスタップ抽出部102が生成するのと同一のタップ構造のクラスタップを生成する。
【0744】
特徴量検出部805は、図5の特徴量検出部103と同様の処理で、画像メモリ802から供給された生徒画像またはクラスタップ抽出部804から供給されたクラスタップから特徴量を検出して、検出した特徴量をクラス分類部806に供給する。
【0745】
例えば、特徴量検出部805は、画像メモリ802から供給されたSD画像またはクラスタップ抽出部804から供給されたクラスタップを基に、SD画像の画素の動きベクトルを検出して、検出した動きベクトルを特徴量としてクラス分類部806に供給する。また、例えば、特徴量検出部805は、SD画像またはクラスタップを基に、SD画像またはクラスタップの複数の画素の画素値の空間的または時間的な変化を検出して、検出した画素値の変化を特徴量としてクラス分類部806に供給する。
【0746】
さらに、例えば、特徴量検出部805は、画像メモリ802から供給されたSD画像またはクラスタップ抽出部804から供給されたクラスタップを基に、クラスタップまたはSD画像の複数の画素の画素値の空間的な変化の傾きを検出して、検出した画素値の変化の傾きを特徴量としてクラス分類部806に供給する。
【0747】
なお、特徴量検出部805は、特徴量検出部103と同様に、特徴量として、画素値の、ラプラシアン、ソーベル、または分散などを求めることができる。
【0748】
すなわち、特徴量検出部805は、図5の特徴量検出部103と同一の特徴量を検出する。
【0749】
特徴量検出部805は、特徴量とは別に、クラスタップをクラス分類部806に供給する。
【0750】
クラス分類部806は、図5のクラス分類部104と同様に構成され、特徴量検出部805からの特徴量またはクラスタップに基づいて、1以上のクラスのうちのいずれかのクラスに注目画素をクラス分類し、注目画素のクラスを表すクラスコードを、予測タップ抽出部807および学習メモリ810に供給する。
【0751】
予測タップ抽出部807は、図5の予測タップ抽出部106と同様に構成され、データ定常性検出部803により検出されたデータの定常性に基づいて、注目画素に対応する、生徒画像の複数の周辺画素を抽出し、抽出した生徒画像の複数の周辺画素を予測タップとする。すなわち、予測タップ抽出部807は、データ定常性検出部803により検出されたデータの定常性およびクラス分類部806から供給されたクラスコードに基づいて、注目画素についての予測タップを、画像メモリ802に記憶されたSD画像から抽出し、足し込み演算部808に供給する。ここで、予測タップ抽出部807は、図5の予測タップ抽出部106が生成するのと同一のタップ構造の予測タップを生成する。
【0752】
教師画素抽出部809は、教師画像である入力画像(HD画像)から、注目画素を教師データ(教師画素)として抽出して、抽出した教師データを足し込み演算部808に供給する。即ち、教師画素抽出部809は、入力された学習用の画像であるHD画像を、例えば、そのまま教師データとする。ここで、図5の画像処理装置で得られるHD画像は、図119の学習装置で教師データとして用いられるHD画像の画質に対応したものとなる。
【0753】
足し込み演算部808および正規方程式演算部811は、注目画素となっている教師データと、予測タップ抽出部807から供給される予測タップとを用い、教師データと生徒データとの関係を、クラス分類部806から供給されるクラスコードで示されるクラスごとに学習することにより、クラスごとのタップ係数を求める。
【0754】
即ち、足し込み演算部808は、予測タップ抽出部807から供給される予測タップ(SD画素)と、注目画素となっている教師データであるHD画素とを対象とした、式(8)の足し込みを行う。
【0755】
具体的には、足し込み演算部808は、予測タップを構成する生徒データとしてのSD画素xn,kを用い、式(8)の左辺の行列におけるSD画素どうしの乗算(xn,kxn’,k)と、サメーション(Σ)に相当する演算を行う。
【0756】
さらに、足し込み演算部808は、予測タップを構成する生徒データとしてのSD画素xn,kと、注目画素となっている教師データであるHD画素ykを用い、式(8)の右辺のベクトルにおけるSD画素xn,kおよびHD画素ykの乗算(xn,kyk)と、サメーション(Σ)に相当する演算を行う。
【0757】
足し込み演算部808は、教師データとしてのHD画像の画素すべてを注目画素として、上述の足し込みを行うことにより、各クラスについて、式(8)に対応した正規方程式をたてると、その正規方程式を、学習メモリ810に供給する。
【0758】
学習メモリ810は、足し込み演算部808から供給された、生徒データとしてSD画素、教師データとしてHD画素が設定された、式(8)に対応した正規方程式を記憶する。
【0759】
正規方程式演算部811は、学習メモリ810から、各クラスについての式(8)の正規方程式を取得し、例えば、掃き出し法により、その正規方程式を解くことにより(クラスごとに学習し)、クラスごとのタップ係数を求めて出力する。
【0760】
すなわち、足し込み演算部808および正規方程式演算部811は、検出された特徴量毎に、抽出された複数の周辺画素から注目画素を予測する予測手段を学習する。
【0761】
この場合、予測手段は、複数の周辺画素から注目画素を予測する具体的手段であり、例えば、クラス毎のタップ係数により動作が規定される画素値予測部107、または画素値予測部107における処理を言う。複数の周辺画素から注目画素を予測する予測手段を学習するとは、例えば、複数の周辺画素から注目画素を予測する予測手段の実現(構築)を可能にすることを意味する。
【0762】
従って、複数の周辺画素から注目画素を予測するための予測手段を学習するとは、例えば、クラス毎のタップ係数を得ることを言う。クラス毎のタップ係数を得ることにより、画素値予測部107、または画素値予測部107における処理が具体的に特定され、画素値予測部107を実現し、または画素値予測部107における処理を実行することができるようになるからである。
【0763】
係数メモリ812は、正規方程式演算部811が出力するクラスごとのタップ係数を記憶する。
【0764】
次に、図120のフローチャートを参照して、図119の学習装置において行われる、クラスごとのタップ係数を求める学習処理について説明する。
【0765】
まず最初に、ステップS801において、生徒画像生成部801は、例えば、HD画像である、学習用の入力画像(教師画像)を取得し、画素を間引くことにより、例えば、SD画像である生徒画像を生成する。例えば、生徒画像生成部801は、HD画像の水平方向または垂直方向に互いに隣接する4つのHD画素の画素値の平均値を求めて、平均値をSD画像の画素値とすることにより、SD画像を生成する。SD画像は、画像メモリ802に供給される。
【0766】
ステップS802において、データ定常性検出部803は、図5のデータ定常性検出部101における場合と同様に、画像メモリ802に記憶された生徒画像からデータの定常性を検出して、検出した定常性を示すデータ定常性情報をクラスタップ抽出部804および予測タップ抽出部807に供給し、ステップS803に進む。
【0767】
ステップS802における、データの定常性の検出の処理の詳細は、ステップS101における処理と同様なので、その詳細の説明は省略する。
【0768】
そして、ステップS803に進み、クラスタップ抽出部804は、教師データとしてのHD画像のHD画素の中から、まだ注目画素としていないもののうちの1つを注目画素として選択する。クラスタップ抽出部804は、図5のクラスタップ抽出部102における場合と同様に、ステップS802の処理において検出されたデータの定常性に基づいて、注目画素に対応する、画像メモリ802に記憶された生徒画像の複数の周辺画素を抽出し、抽出した生徒画像の複数の周辺画素をクラスタップとする。
【0769】
すなわち、クラスタップ抽出部804は、データ定常性検出部803により検出されたデータの定常性に基づいて、注目画素についてのクラスタップを、画像メモリ802に記憶されたSD画像から抽出し、特徴量検出部805に供給する。クラスタップ抽出部804は、クラスタップを特徴量検出部805に供給して、ステップS804に進む。
【0770】
ステップS804において、特徴量検出部805は、図5の特徴量検出部103における場合と同様に、ステップS801の処理において生成された生徒画像またはステップS803の処理において抽出されたクラスタップから、例えば、動きベクトル、またはSD画像の画素の画素値の変化などの特徴量を検出して、検出した特徴量をクラス分類部806に供給し、ステップS805に進む。
【0771】
ステップS805では、クラス分類部806が、図5のクラス分類部104における場合と同様にして、特徴量検出部805からの特徴量またはクラスタップを用いて、1以上のクラスのうちのいずれかのクラスに注目画素をクラス分類し、その注目画素のクラスを表すクラスコードを、予測タップ抽出部807および学習メモリ810に供給して、ステップS806に進む。
【0772】
ステップS806において、予測タップ抽出部807は、図5の予測タップ抽出部106における場合と同様に、データ定常性検出部803により検出されたデータの定常性に基づいて、注目画素に対応する、生徒画像の複数の周辺画素を抽出し、抽出した生徒画像の複数の周辺画素を予測タップとする。すなわち、予測タップ抽出部807は、データ定常性検出部803により検出されたデータの定常性およびクラス分類部806から供給されるクラスコードに基づいて、注目画素に対応する予測タップを、画像メモリ802に記憶されている生徒画像としてのSD画像から抽出し、足し込み演算部808に供給して、ステップS807に進む。
【0773】
ステップS807において、教師画素抽出部809は、注目画素、すなわちHD画素である教師画素(教師データ)を入力画像から抽出し、抽出した教師画素を足し込み演算部808に供給し、ステップS808に進む。
【0774】
ステップS808では、足し込み演算部808が、予測タップ抽出部807から供給される予測タップ(生徒データ)、および教師画素抽出部809から供給される教師画素(教師データ)を対象とした、上述した式(8)における足し込みを行い、生徒データおよび教師データが足し込まれた正規方程式を学習メモリ810に記憶させ、ステップS809に進む。
【0775】
そして、ステップS809では、クラスタップ抽出部804は、教師データとしてのHD画像のHD画素の中に、まだ注目画素としていないものがあるかどうか、すなわち対象となる全画素の足し込みを終了したか否かを判定する。ステップS809において、教師データとしてのHD画像のHD画素の中に、まだ注目画素としていないものがあると判定された場合、ステップS803に戻り、以下、同様の処理が繰り返される。
【0776】
また、ステップS809において、教師データとしてのHD画像のHD画素の中に、注目画素としていないものがない、すなわち対象となる全画素の足し込みを終了したと判定された場合、ステップS810に進み、正規方程式演算部811は、いままでのステップS808における足し込みによって、クラスごとに得られた式(8)の正規方程式から、まだタップ係数が求められていないクラスの正規方程式を、学習メモリ810から読み出し、読み出した式(8)の正規方程式を掃き出し法などで解くことにより(クラス毎に学習し)、所定のクラスの予測係数(タップ係数)を求め、係数メモリ812に供給する。係数メモリ812は、正規方程式演算部811から供給された所定のクラスの予測係数(タップ係数)を、クラス毎に記憶し、ステップS811に進む。
【0777】
すなわち、ステップS808およびステップS810において、特徴量検出部805により検出された特徴量毎に、予測タップ抽出部807により抽出された複数の周辺画素から注目画素を予測するための予測手段が学習される。
【0778】
ステップS811において、正規方程式演算部811は、全クラスの予測係数の演算を終了したか否かを判定し、全クラスの予測係数の演算を終了していないと判定された場合、ステップS810に戻り、次のクラスの予測係数を求める処理を繰り返す。
【0779】
ステップS811において、全クラスの予測係数の演算を終了したと判定された場合、処理は終了する。
【0780】
以上のようにして、係数メモリ812に記憶されたクラスごとの予測係数が、図5の画像処理装置における係数メモリ105に記憶されている。
【0781】
なお、以上のような予測係数(タップ係数)の学習処理において、用意する学習用の画像等によっては、タップ係数を求めるのに必要な数の正規方程式が得られないクラスが生じる場合があり得るが、そのようなクラスについては、例えば、正規方程式演算部811において、デフォルトのタップ係数を出力するようにすること等が可能である。あるいは、タップ係数を求めるのに必要な数の正規方程式が得られないクラスが生じた場合には、新たに学習用の画像を用意して、再度、タップ係数の学習を行うようにしても良い。このことは、後述する学習装置におけるタップ係数の学習についても、同様である。
【0782】
図121は、本発明に係る画像処理装置の一実施の形態の他の構成を示すブロック図である。
【0783】
図121で構成が示される画像処理装置は、入力画像を取得し、入力された入力画像に対して、画面の水平方向に2倍の解像度の画像(以下、水平倍密画像と称する)を創造して出力する。
【0784】
図121で示される画像処理装置においては、例えば、入力画像の一例であるSD画像が入力され、入力されたSD画像からデータの定常性が検出され、検出されたデータの定常性を基に、SD画像に対して、クラス分類適応処理が施されることにより、水平倍密画像の画素(以下、水平倍密画素と称する)が創造されると共に、データの定常性を利用せずに、SD画像に対して、クラス分類適応処理が施されることにより、水平倍密画素が創造される。そして、SD画像に対する、データの定常性を基に創造された水平倍密画素の積分特性が判定され、判定結果を基に、データの定常性を基に創造された水平倍密画素およびデータの定常性を利用せずに創造された水平倍密画素のいずれか一方が選択され、選択された水平倍密画素で水平倍密画像である出力画像が合成され、合成された出力画像が出力される。
【0785】
すなわち、図121で構成が示される画像処理装置においては、データ定常性検出部901、クラスタップ抽出部902、特徴量検出部903、クラス分類部904、係数メモリ905、予測タップ抽出部906、画素値予測部907、積分特性判定部908、画像合成部909、クラスタップ抽出部910、特徴量検出部911、クラス分類部912、係数メモリ913、予測タップ抽出部914、および画素値予測部915が設けられている。
【0786】
入力画像は、データ定常性検出部901、クラスタップ抽出部902、特徴量検出部903、予測タップ抽出部906、積分特性判定部908、クラスタップ抽出部910、特徴量検出部911、および予測タップ抽出部914に供給される。
【0787】
データ定常性検出部901は、入力画像からデータの定常性を検出して、検出した定常性を示すデータ定常性情報をクラスタップ抽出部902および予測タップ抽出部906に供給する。データ定常性情報は、例えば、データの定常性を有する画素の領域の方向(時間方向および空間方向の角度または傾き)(以下、データの定常性の方向とも称する。)を含む。
【0788】
データ定常性検出部901は、データ定常性検出部101と同様に構成され、その詳細な説明は省略する。データ定常性検出部901によるデータの定常性の検出の処理は、データ定常性検出部101における場合と同様なので、その説明は省略する。
【0789】
クラスタップ抽出部902は、クラス分類適応処理により求めようとする水平倍密画像の水平倍密画素のうちの1つを、順次、注目画素とする。そして、クラスタップ抽出部902は、データ定常性検出部901により検出されたデータの定常性に基づいて、注目画素に対応する、入力画像の複数の周辺画素を抽出し、抽出した入力画像の複数の周辺画素をクラスタップとする。すなわち、クラスタップ抽出部902は、データ定常性検出部901により検出されたデータの定常性に基づいて、注目画素についてのクラス分類に用いるクラスタップを、入力画像から抽出し、抽出したクラスタップを特徴量検出部903に出力する。
【0790】
例えば、クラスタップ抽出部902は、データの定常性に基づいて、注目画素の位置から空間的または時間的に近い位置にある複数の画素を、入力された入力画像から抽出することによりクラスタップとし、特徴量検出部903に出力する。
【0791】
なお、データ定常性検出部901、クラスタップ抽出部902、および予測タップ抽出部906は、データ定常性検出部101、クラスタップ抽出部102、および予測タップ抽出部106における場合と同様にフレームメモリを設けることができる。
【0792】
また、図121で示される画像処理装置においても、入力側に1つのフレームメモリを設けるようにしてもよい。
【0793】
例えば、クラスタップ抽出部902は、データ定常性検出部901により検出されたデータの定常性に基づいて、注目画素について、注目画素の位置から近い横×縦が3×3個の画素を入力画像から抽出することによりクラスタップとする。
【0794】
クラスタップ抽出部902は、抽出されたクラスタップを、特徴量検出部903に供給する。
【0795】
クラスタップ抽出部902によるクラスタップの抽出の処理は、クラスタップ抽出部102における場合と同様なので、その詳細な説明は省略する。
【0796】
特徴量検出部903は、クラスタップ抽出部902から供給されたクラスタップまたは入力画像から特徴量を検出して、検出した特徴量をクラス分類部904に供給する。
【0797】
例えば、特徴量検出部903は、クラスタップ抽出部902から供給されたクラスタップまたは入力画像を基に、入力画像の画素の動きベクトルを検出して、検出した動きベクトルを特徴量としてクラス分類部904に供給する。また、例えば、特徴量検出部903は、クラスタップまたは入力画像を基に、クラスタップまたは入力画像の複数の画素の画素値の空間的または時間的な変化(アクティビティ)を検出して、検出した画素値の変化を特徴量としてクラス分類部904に供給する。
【0798】
さらに、例えば、特徴量検出部903は、クラスタップ抽出部902から供給されたクラスタップまたは入力画像を基に、クラスタップまたは入力画像の複数の画素の画素値の空間的な変化の傾きを検出して、検出した画素値の変化の傾きを特徴量としてクラス分類部904に供給する。
【0799】
なお、特徴量として、画素値の、ラプラシアン、ソーベル、または分散などを採用することができる。
【0800】
特徴量検出部903は、特徴量とは別に、クラスタップをクラス分類部904に供給する。
【0801】
クラス分類部904は、特徴量検出部903からの特徴量またはクラスタップに基づいて、1以上のクラスのうちのいずれかのクラスに注目画素をクラス分類し、その結果得られる注目画素のクラスに対応するクラスコードを、係数メモリ905と予測タップ抽出部906とに供給する。
【0802】
クラス分類部904は、クラス分類部104と同様の処理でクラスコードを生成するので、その詳細な説明は省略する。
【0803】
係数メモリ905は、学習の教師となる、出力画像の一例である水平倍密画像の水平倍密画素である教師データと、学習の生徒となる、入力画像の一例であるSD画像の画素値である生徒データとの関係を、1以上のクラスごとに学習することにより得られたタップ係数を記憶している。そして、係数メモリ905は、クラス分類部904から注目画素のクラスコードが供給されると、そのクラスコードに対応するアドレスに記憶されているタップ係数を読み出すことにより、注目画素のクラスのタップ係数を取得し、画素値予測部907に供給する。
【0804】
なお、係数メモリ905に記憶されるタップ係数は、図119で構成が示される学習装置または図120のフローチャートを参照して説明した学習の処理により学習される。この場合において、図119で構成が示される学習装置には、入力画像として水平倍密画像が入力され、生徒画像生成部801は、水平倍密画像からSD画像を生成する。同様に、ステップS801においては、入力画像である水平倍密画像からSD画像が生成される。
【0805】
予測タップ抽出部906は、データ定常性検出部901により検出されたデータの定常性に基づいて、注目画素に対応する、入力画像の複数の周辺画素を抽出し、抽出した入力画像の複数の周辺画素を予測タップとする。すなわち、予測タップ抽出部906は、データ定常性検出部901により検出されたデータの定常性およびクラス分類部904から供給されるクラスコードを基に、画素値予測部907において注目画素(の予測値)を求めるのに用いる予測タップを入力画像から抽出し、抽出した予測タップを画素値予測部907に供給する。
【0806】
例えば、予測タップ抽出部906は、データの定常性に基づいて、注目画素の位置から空間的または時間的に近い位置にある複数の画素値を、入力画像から抽出することにより予測タップとし、画素値予測部907に供給する。例えば、予測タップ抽出部906は、データ定常性検出部901により検出されたデータの定常性に基づいて、注目画素について、注目画素の位置から近い横×縦が3×3個の画素を、入力画像から抽出することにより予測タップとする。
【0807】
なお、クラスタップとする画素値と、予測タップとする画素値とは、同一であっても、異なるものであってもよい。即ち、クラスタップと予測タップは、それぞれ独立に構成(生成)することが可能である。また、予測タップとする画素値は、クラス毎に異なるものであっても、同一であってもよい。
【0808】
なお、クラスタップや予測タップのタップ構造は、3×3個の画素値に限定されるものではない。
【0809】
予測タップ抽出部906による予測タップの抽出の処理は、予測タップ抽出部106における場合と同様なので、その詳細な説明は省略する。
【0810】
画素値予測部907は、係数メモリ905から供給される、注目画素のクラスについてのタップ係数w1,w2,・・・と、予測タップ抽出部906からの予測タップ(を構成する画素値)x1,x2,・・・とを用いて、式(1)に示した積和演算を行うことにより、注目画素y(の予測値)を予測し、これを、水平倍密画素の画素値とする。画素値予測部907は、演算された水平倍密画素の画素値を積分特性判定部908および画像合成部909に供給する。
【0811】
例えば、クラスタップ抽出部902は、図122で示される、入力画像の対応画素x(5)に空間方向に包含される画素y(1)および画素y(2)を注目画素とし、画素値予測部907は、図122で示される注目画素y(1)の画素値および注目画素y(2)の画素値を予測し、予測した注目画素y(1)の画素値および注目画素y(2)の画素値を積分特性判定部908および画像合成部909に供給する。
【0812】
積分特性判定部908は、画素値予測部907により予測された第1の注目画素の第1の予測値と、画素値予測部907により予測された、第1の注目画素に空間的に隣接する出力画像の第2の注目画素の第2の予測値と、少なくとも第1の注目画素と第2の注目画素とを空間方向に対して包含する位置に配される入力画像の対応画素の画素値との関係を検出する。
【0813】
すなわち、例えば、積分特性判定部908は、図122で示される注目画素y(1)の予測値と、注目画素y(2)の予測値と、注目画素y(1)と注目画素y(2)とを空間方向に包含する位置に配される入力画像の対応画素x(5)との関係を検出する。
【0814】
ここで、注目画素y(1)と、注目画素y(2)と、注目画素y(1)および注目画素y(2)を空間方向に包含する対応画素x(5)との関係について説明する。
【0815】
図123は、図7に対応する、CCDであるイメージセンサに設けられている画素の配置、および水平倍密画像の画素に対応する領域を説明する図である。図123中において、A乃至Iは、個々の画素を示す。領域a乃至rは、画素A乃至Iの個々の画素を縦に半分にした受光領域である。画素A乃至Iの受光領域の幅が、2Lであるとき、領域a乃至rの幅は、Lである。図121に構成を示す画像処理装置は、領域a乃至rに対応する画素の画素値を算出する。
【0816】
図124は、領域g乃至領域lに入射される光に対応する画素の画素値を説明する図である。図124のF(x)は、空間上(検出素子上)の空間方向Xの座標xを変数とする、実世界の光の強度の分布を表す関数の例である。
【0817】
1つの画素の画素値が、F(x)の一様な積分で表されるとすれば、領域iに対応する画素の画素値Y1は、式(50)で表され、領域jに対応する画素の画素値Y2は、式(51)で表され、画素Eの画素値Y3は、式(52)で表される。
【数33】
【0818】
【数34】
【0819】
【数35】
【0820】
式(50)乃至式(52)において、x1,x2、およびx3は、画素Eの受光領域、領域i、および領域jのそれぞれの境界の空間座標である。
【0821】
式(50)乃至式(52)における、Y1およびY2は、それぞれ、図121の画像処理装置が求めようとする、SD画像に対する水平倍密画像の水平倍密画素(注目画素y(1)または注目画素y(2))の画素値に対応する。また、式(52)における、Y3は、水平倍密画像の水平倍密画素の画素値Y1およびY2に対応するSD画素(対応画素)の画素値に対応する。
【0822】
Y3をx(5)に、Y1をy(1)に、Y2をy(2)にそれぞれ置き換えると、式(52)から、式(53)を導くことができる。
x(5)=(y(1)+y(2))/2 ・・・(53)
【0823】
積分特性判定部908は、図112で示される注目画素y(1)の予測値と、注目画素y(2)の予測値と、注目画素y(1)および注目画素y(2)を空間方向に包含する位置に配される入力画像の対応画素x(5)とについて、式(53)が成立するか否かを判定する。
【0824】
式(53)が成立すれば、注目画素y(1)の予測値および注目画素y(2)の予測値は、正しいと言える。換言すれば、式(53)が成立していないとき、注目画素y(1)の予測の処理および注目画素y(2)の予測の処理は、破綻していると言える。
【0825】
より詳しく説明すれば、積分特性判定部908は、入力画像の対応画素x(5)の画素値から、画素値予測部907から供給された注目画素y(1)の画素値(の予測値)および注目画素y(2)の画素値(の予測値)を減算する。積分特性判定部908は、減算した結果と、予め定めた閾値とを比較する。積分特性判定部908は、減算した結果が閾値より小さいとき、式(53)の関係が成立していると判定し、減算した結果が閾値以上であるとき、式(53)の関係が成立していないと判定する。積分特性判定部908は、判定の結果を示す積分特性判定情報を画像合成部909に供給する。
【0826】
なお、閾値は、積分特性判定部908において、予め記憶するようにしてもよく、外部から積分特性判定部908に供給するようにしてもよい。
【0827】
クラスタップ抽出部910は、クラス分類適応処理により求めようとする水平倍密画像の水平倍密画素のうちの1つを、順次、注目画素とする。クラスタップ抽出部910は、クラスタップ抽出部902により注目画素とされる画素を注目画素とする。すなわち、クラスタップ抽出部910およびクラスタップ抽出部902は、同じ画素を注目画素とする。
【0828】
そして、クラスタップ抽出部910は、注目画素に対応する、入力画像の複数の周辺画素を抽出し、抽出した入力画像の複数の周辺画素をクラスタップとする。すなわち、クラスタップ抽出部910は、注目画素についてのクラス分類に用いるクラスタップを、入力画像から抽出し、抽出したクラスタップを特徴量検出部911に出力する。
【0829】
例えば、クラスタップ抽出部910は、注目画素の位置から空間的または時間的に近い位置にある複数の画素を、入力された入力画像から抽出することによりクラスタップとし、特徴量検出部911に出力する。
【0830】
なお、クラスタップ抽出部910および予測タップ抽出部914は、クラスタップ抽出部102および予測タップ抽出部106における場合と同様にフレームメモリを設けることができる。
【0831】
例えば、図122で示されるように、クラスタップ抽出部910は、注目画素y(1)について、注目画素の位置から近い横×縦が3×3個の画素x(1)乃至x(9)を入力画像から抽出することによりクラスタップとする。
【0832】
クラスタップ抽出部910は、抽出されたクラスタップを、特徴量検出部911に供給する。
【0833】
なお、クラスタップ抽出部910により抽出されるクラスタップは、クラスタップ抽出部902により抽出されるクラスタップと同一のものであっても異なるものであってもよい。
【0834】
特徴量検出部911は、クラスタップ抽出部910から供給されたクラスタップまたは入力画像から特徴量を検出して、検出した特徴量をクラス分類部912に供給する。
【0835】
例えば、特徴量検出部911は、クラスタップ抽出部910から供給されたクラスタップまたは入力画像を基に、入力画像の画素の動きベクトルを検出して、検出した動きベクトルを特徴量としてクラス分類部912に供給する。また、例えば、特徴量検出部911は、クラスタップ抽出部910から供給されたクラスタップまたは入力画像を基に、クラスタップまたは入力画像の複数の画素の画素値の空間的または時間的な変化(アクティビティ)を検出して、検出した画素値の変化を特徴量としてクラス分類部912に供給する。
【0836】
さらに、例えば、特徴量検出部911は、クラスタップ抽出部910から供給されたクラスタップまたは入力画像を基に、クラスタップまたは入力画像の複数の画素の画素値の空間的な変化の傾きを検出して、検出した画素値の変化の傾きを特徴量としてクラス分類部912に供給する。
【0837】
なお、特徴量として、画素値の、ラプラシアン、ソーベル、または分散などを採用することができる。
【0838】
特徴量検出部911は、特徴量とは別に、クラスタップをクラス分類部912に供給する。
【0839】
クラス分類部912は、特徴量検出部911からの特徴量またはクラスタップに基づいて、1以上のクラスのうちのいずれかのクラスに注目画素をクラス分類し、その結果得られる注目画素のクラスに対応するクラスコードを、係数メモリ913と予測タップ抽出部914とに供給する。
【0840】
係数メモリ913は、学習の教師となる、出力画像の一例である水平倍密画像の水平倍密画素である教師データと、学習の生徒となる、入力画像の一例であるSD画像の画素値である生徒データとの関係を、1以上のクラスごとに学習することにより得られたタップ係数を記憶している。そして、係数メモリ913は、クラス分類部912から注目画素のクラスコードが供給されると、そのクラスコードに対応するアドレスに記憶されているタップ係数を読み出すことにより、注目画素のクラスのタップ係数を取得し、画素値予測部915に供給する。
【0841】
なお、係数メモリ913に記憶されるタップ係数の学習方法についての詳細は、後述する。
【0842】
予測タップ抽出部914は、注目画素に対応する、入力画像の複数の周辺画素を抽出し、抽出した入力画像の複数の周辺画素を予測タップとする。すなわち、予測タップ抽出部914は、クラス分類部912から供給されるクラスコードを基に、画素値予測部915において注目画素(の予測値)を求めるのに用いる予測タップを入力画像から抽出し、抽出した予測タップを画素値予測部915に供給する。
【0843】
例えば、予測タップ抽出部914は、クラス分類部912から供給されるクラスコードに基づいて、注目画素の位置から空間的または時間的に近い位置にある複数の画素値を、入力画像から抽出することにより予測タップとし、画素値予測部915に供給する。例えば、図122で示されるように、予測タップ抽出部914は、クラス分類部912から供給されるクラスコードに基づいて、注目画素y(1)について、注目画素の位置から近い横×縦が3×3個の画素x(1)乃至x(9)を入力画像から抽出することにより予測タップとする。
【0844】
なお、クラスタップとする画素値と、予測タップとする画素値とは、同一であっても、異なるものであってもよい。即ち、クラスタップと予測タップは、それぞれ独立に構成(生成)することが可能である。また、予測タップとする画素値は、クラス毎に異なるものであっても、同一であってもよい。
【0845】
また、クラスタップや予測タップのタップ構造は、3×3個の画素値に限定されるものではない。
【0846】
なお、予測タップ抽出部914により抽出される予測タップは、予測タップ抽出部906により抽出される予測タップと同一のものであっても異なるものであってもよい。
【0847】
画素値予測部915は、係数メモリ913から供給される、注目画素のクラスについてのタップ係数w1,w2,・・・と、予測タップ抽出部914からの予測タップ(を構成する画素値)x1,x2,・・・とを用いて、式(1)に示した積和演算を行うことにより、注目画素y(の予測値)を予測し、これを、水平倍密画素の画素値とする。画素値予測部915は、演算された水平倍密画素の画素値を画像合成部909に供給する。
【0848】
例えば、クラスタップ抽出部910は、図122で示される、入力画像の対応画素x(5)に空間方向に包含される画素y(1)および画素y(2)を注目画素とし、画素値予測部915は、図122で示される注目画素y(1)の画素値および注目画素y(2)の画素値を予測し、予測した注目画素y(1)の画素値および注目画素y(2)の画素値を画像合成部909に供給する。
【0849】
画像合成部909は、積分特性判定部908から供給された積分特性判定情報を基に、画素値予測部907から供給された予測値および画素値予測部915から供給された予測値のいずれか一方を選択して、選択した予測値を画素値として出力画像に設定することにより画像を合成する。
【0850】
すなわち、画像合成部909は、式(53)の関係が成立していることを示す積分特性判定情報が積分特性判定部908から供給されたとき、画素値予測部907から供給された注目画素y(1)の予測値および注目画素y(2)の予測値が正しいので、画素値予測部907から供給された注目画素y(1)の予測値および注目画素y(2)の予測値を出力画像の画素値に設定する。
【0851】
一方、画像合成部909は、式(53)の関係が成立していないことを示す積分特性判定情報が積分特性判定部908から供給されたとき、画素値予測部907から供給された注目画素y(1)の予測値および注目画素y(2)の予測値が正しくない、すなわち、画素値予測部907における予測の処理が破綻しているので、画素値予測部915から供給された注目画素y(1)の予測値および注目画素y(2)の予測値を出力画像の画素値に設定する。
【0852】
画像合成部909は、このように合成された出力画像を出力する。
【0853】
すなわち、画像合成部909は、画素値予測部907により予測された注目画素y(1)の予測値と、画素値予測部907により予測された注目画素y(2)の予測値と、少なくとも注目画素y(1)と注目画素y(2)とを空間方向に対して包含する位置に配される入力画像内の対応画素x(5)の画素値との関係の検出結果に応じて画素値予測部907から出力される注目画素y(1)の予測値および注目画素y(2)の予測値を選択的に出力する。
【0854】
図125は、式(53)の関係が成立していない、画素値予測部907による予測値を含む出力画像の例を示す図である。
【0855】
図126は、図121で示される画像処理装置の出力画像の例、すなわち、式(53)の関係が成立していない、画素値予測部907による予測値を、画素値予測部915による予測値に置き換えた出力画像の例を示す図である。
【0856】
このように、本発明に係る画像処理装置においては、予測の破綻を回避することができる。
【0857】
このように、図121に構成を示す画像処理装置は、入力された入力画像に対応する、より高解像度の出力画像を創造して、創造した出力画像を出力することができる。
【0858】
次に、図127のフローチャートを参照して、図121の画像処理装置が行う、入力画像からより高解像度の出力画像を創造する画像の創造の処理について説明する。
【0859】
ステップS901において、データ定常性検出部901は、定常性の検出の処理を実行する。データ定常性検出部901は、入力画像に含まれているデータの定常性を検出して、検出したデータの定常性を示すデータ定常性情報をクラスタップ抽出部902および予測タップ抽出部906に供給する。例えば、データ定常性検出部901は、入力画像からデータの定常性の方向を検出する。
【0860】
ステップS902において、クラスタップ抽出部902は、創造しようとする水平倍密画像の注目している水平倍密画素である注目画素を選択する。クラスタップ抽出部902は、データ定常性検出部901により検出されたデータの定常性に基づいて、注目画素に対応する、入力画像の複数の周辺画素を抽出し、抽出した入力画像の複数の周辺画素をクラスタップとする。クラスタップは、特徴量検出部903に供給され、手続は、ステップS903に進む。例えば、クラスタップ抽出部902は、データ定常性検出部901により検出されたデータの定常性に基づいて、注目画素の位置に空間的または時間的に近い複数の画素値を入力画像からクラスタップとして抽出して、クラスタップを生成する。
【0861】
ステップS903において、特徴量検出部903は、入力画像またはステップS902の処理において抽出されたクラスタップから特徴量を検出して、検出された特徴量をクラス分類部904に供給すると共に、クラスタップをクラス分類部904に供給して、ステップS904に進む。
【0862】
ステップS904において、クラス分類部904は、特徴量検出部903から供給される特徴量またはクラスタップに基づき、1以上のクラスのうちのいずれかのクラスに、注目画素についてクラス分類を行い、その結果得られる注目画素のクラスを表すクラスコードを、係数メモリ905および予測タップ抽出部906に供給して、ステップS905に進む。
【0863】
ステップS905において、予測タップ抽出部906は、データ定常性検出部901により検出されたデータの定常性に基づいて、注目画素に対応する、入力画像の複数の周辺画素を抽出し、抽出した入力画像の複数の周辺画素を予測タップとする。予測タップ抽出部906による予測タップの抽出の処理は、クラスタップ抽出部902における処理と同様なので、その説明は省略する。
【0864】
予測タップ抽出部906は、データ定常性検出部901により検出されたデータの定常性およびクラス分類部904から供給されたクラスコードに基づいて、注目画素の位置に空間的または時間的に近い複数の画素値を入力画像から予測タップとして抽出して、予測タップを生成する。予測タップは、画素値予測部907に供給され、手続は、ステップS906に進む。
【0865】
ステップS906において、係数メモリ905は、クラス分類部904から供給されるクラスコードに対応するアドレスに記憶されている予測係数(タップ係数)を読み出し、これにより、注目画素のクラスの予測係数を取得して、予測係数を画素値予測部907に供給し、ステップS907に進む。
【0866】
ステップS907において、画素値予測部907は、特徴量検出部903により検出された特徴量に基づいて、適応処理により、予測タップ抽出部906により抽出された複数の周辺画素から注目画素(の予測値)を予測し、ステップS908に進む。すなわち、ステップS907では、画素値予測部907は、予測タップ抽出部906からの予測タップと、係数メモリ905からの予測係数(タップ係数)とを用いて、式(1)に示した演算を行い、注目画素(の予測値)を予測する。
【0867】
ステップS901乃至ステップS907において、データの定常性を基に、入力画像の1つの対応画素に空間方向に包含される2つの注目画素の画素値が予測される。
【0868】
ステップS908において、クラスタップ抽出部910は、創造しようとする水平倍密画像の注目している水平倍密画素である注目画素を選択する。クラスタップ抽出部910は、注目画素に対応する、入力画像の複数の周辺画素を抽出し、抽出した入力画像の複数の周辺画素をクラスタップとする。クラスタップは、特徴量検出部911に供給され、手続は、ステップS909に進む。例えば、クラスタップ抽出部910は、注目画素の位置に空間的または時間的に近い複数の画素値を入力画像からクラスタップとして抽出して、クラスタップを生成する。
【0869】
ステップS909において、特徴量検出部911は、入力画像またはステップS908の処理において抽出されたクラスタップから特徴量を検出して、検出された特徴量をクラス分類部912に供給すると共に、クラスタップをクラス分類部912に供給して、ステップS910に進む。
【0870】
ステップS910において、クラス分類部912は、特徴量検出部911から供給される特徴量またはクラスタップに基づき、1以上のクラスのうちのいずれかのクラスに、注目画素についてクラス分類を行い、その結果得られる注目画素のクラスを表すクラスコードを、係数メモリ913および予測タップ抽出部914に供給して、ステップS911に進む。
【0871】
ステップS911において、予測タップ抽出部914は、クラス分類部912から供給されたクラスコードに基づいて、注目画素に対応する、入力画像の複数の周辺画素を抽出し、抽出した入力画像の複数の周辺画素を予測タップとする。すなわち、予測タップ抽出部914は、クラス分類部912から供給されたクラスコードに基づいて、注目画素の位置に空間的または時間的に近い複数の画素値を入力画像から予測タップとして抽出して、予測タップを生成する。予測タップは、画素値予測部915に供給され、手続は、ステップS912に進む。
【0872】
ステップS912において、係数メモリ913は、クラス分類部912から供給されるクラスコードに対応するアドレスに記憶されている予測係数(タップ係数)を読み出し、これにより、注目画素のクラスの予測係数を取得して、予測係数を画素値予測部915に供給し、ステップS913に進む。
【0873】
ステップS913において、画素値予測部915は、特徴量検出部911により検出された特徴量に基づいて、適応処理により、予測タップ抽出部914により抽出された複数の周辺画素から注目画素(の予測値)を予測し、ステップS914に進む。すなわち、ステップS913では、画素値予測部915は、予測タップ抽出部914からの予測タップと、係数メモリ913からの予測係数(タップ係数)とを用いて、式(1)に示した演算を行い、注目画素(の予測値)を予測する。
【0874】
ステップS908乃至ステップS913において、データの定常性を利用することなく、入力画像の1つの対応画素に空間方向に包含される2つの注目画素の画素値が予測される。
【0875】
ステップS914において、積分特性判定部908は、ステップS907の処理で予測された2つの注目画素の予測値、および2つの注目画素を空間方向に包含する位置に配される入力画像の対応画素について、積分特性が成立しているか否かを判定し、ステップS915に進む。
【0876】
例えば、ステップS914において、入力画像の対応画素の画素値から、画素値予測部907から供給された2つの注目画素の画素値(の予測値)が減算される。減算した結果と、予め定めた閾値とが比較される。そして、減算した結果が閾値より小さいとき、積分特性が成立していると判定され、減算した結果が閾値以上であるとき、積分特性が成立していないと判定される。判定の結果を示す積分特性判定情報は、画像合成部909に供給される。
【0877】
すなわち、ステップS914において、画素値予測部907により予測された第1の注目画素の第1の予測値と、画素値予測部907により予測された、第1の注目画素に空間的に隣接する出力画像の第2の注目画素の第2の予測値と、少なくとも第1の注目画素と第2の注目画素とを空間方向に対して包含する位置に配される入力画像の対応画素の画素値との関係が検出される。
【0878】
ステップS915において、画像合成部909は、ステップS914における判定の結果を基に、画素値予測部907により予測された予測値および画素値予測部915により予測された予測値のいずれか一方を選択して、選択した予測値を画素値に設定することにより出力画像を合成し、ステップS916に進む。
【0879】
すなわち、ステップS915において、画像合成部909は、ステップS914において、積分特性が成立していると判定されたとき、ステップS907の処理において予測された2つの注目画素の予測値が正しいので、ステップS907の処理において予測された2つの注目画素の予測値を出力画像の画素値に設定することにより、出力画像を合成する。
【0880】
一方、ステップS915において、画像合成部909は、ステップS914において、積分特性が成立していないと判定されたとき、ステップS907の処理において予測された2つの注目画素の予測値が正しくない、すなわち、ステップS907における予測の処理が破綻しているので、ステップS913の処理で予測された2つの注目画素の予測値を出力画像の画素値に設定する。
【0881】
ステップS916において、クラスタップ抽出部902は、水平倍密画像の注目しているフレームの画素のうち、まだ、注目画素としていない画素が存在するかどうかを判定し、存在すると判定した場合、ステップS902に戻り、以下、同様の処理を繰り返す。
【0882】
また、ステップS916において、注目フレームの画素のうち、注目画素としていない画素が存在しないと判定された場合、即ち、注目フレームを構成するすべての水平倍密画素が、予測された場合、画像合成部909は、合成された出力画像を出力して、処理は終了する。
【0883】
すなわち、ステップS916において、ステップS907の処理において予測された2つの注目画素の予測値と、少なくとも2つの注目画素を空間方向に対して包含する位置に配される入力画像内の対応画素の画素値との関係の検出結果に応じて、ステップS907の処理において予測される2つの注目画素の予測値が選択的に出力される。
【0884】
このように、図121に構成を示す画像処理装置は、入力画像から、破綻無く、より高解像度の出力画像を生成して、生成した出力画像を出力することができる。
【0885】
なお、図121で示される画像処理装置は、入力画像を取得し、水平倍密画像を創造して出力すると説明したが、時間方向に2倍の解像度の画像(以下、時間倍密画像と称する)を創造して出力するようにすることもできる。
【0886】
図128は、時間倍密画像を創造する場合における、注目画素を説明する図である。図128において、図の横方向は、入力画像(SD画像)および時間倍密画像の時間方向に対応し、図の縦方向は、入力画像および時間倍密画像の一方の空間方向、例えば、画面の縦方向である空間方向Yに対応する。なお、図128において、過去の時刻が、図中の左側の位置に対応し、未来の時刻が、図中の右側の位置に対応する。
【0887】
ここで、図128において、○印がSD画像を構成するSD画素を表し、×印が時間倍密画像を構成する時間倍密画素を表している。また、図128では、時間倍密画像は、入力画像に対して、時間方向に2倍の数のフレームを配置した画像になっている。例えば、1秒間に30フレームからなる入力画像に対して、時間倍密画像は、1秒間に60フレームからなる。なお、時間倍密画像の1つのフレームに配置されている画素の数は、入力画像の1つのフレームに配置されている画素の数と同じである。
【0888】
図128において、f−2,f−1,f0,f1,f2は、入力画像のフレームを示し、F−4,F−3,F−2,F−1,F0,F1,F2,F3,F4,F5は、時間倍密画像のフレームを示す。
【0889】
時間倍密画像を創造する場合において、データ定常性検出部901は、時空間方向のデータの定常性を検出する。クラスタップ抽出部902は、図128で示される、入力画像の対応画素x(5)に時間方向に包含される、時間倍密画像の画素y(1)および画素y(2)を注目画素とする。画素値予測部907は、データの定常性を基に、図128で示される注目画素y(1)の画素値および注目画素y(2)の画素値を予測し、予測した注目画素y(1)の画素値および注目画素y(2)の画素値を積分特性判定部908および画像合成部909に供給する。
【0890】
図129を参照して、注目画素y(1)と、注目画素y(2)と、注目画素y(1)および注目画素y(2)を時間方向に包含する対応画素x(5)との関係について説明する。
【0891】
図129のF(t)は、時刻tを変数とする、実世界の光の強度の分布を表す関数である。図129において、入力画像であるSD画像を撮像するセンサのシャッタ時間は、時刻t1から時刻t3までの期間であり、2tsで示す。
【0892】
SD画像の1つの画素値が、F(x)の一様な積分で表されるとすれば、時刻t1から時刻t2までの期間に対応する画素の画素値Y1は、式(54)で表され、時刻t2から時刻t3までの期間に対応する画素の画素値Y2は、式(55)で表され、SD画像としてセンサから出力される画素値Y3は、式(56)で表される。
【数36】
【0893】
【数37】
【0894】
【数38】
【0895】
式(54)乃至式(56)における、Y1およびY2は、それぞれ、図121の画像処理装置が求めようとする、SD画像に対する時間倍密画像の時間倍密画素(注目画素y(1)または注目画素y(2))の画素値に対応する。また、式(56)における、Y3は、時間倍密画像の時間倍密画素の画素値Y1およびY2に対応するSD画素(対応画素)の画素値に対応する。
【0896】
Y3をx(5)に、Y1をy(1)に、Y2をy(2)にそれぞれ置き換えると、式(56)から、式(57)を導くことができる。
x(5)=(y(1)+y(2))/2 ・・・(57)
【0897】
積分特性判定部908は、図128で示される注目画素y(1)の予測値と、注目画素y(2)の予測値と、注目画素y(1)および注目画素y(2)を空間方向に包含する位置に配される入力画像の対応画素x(5)とについて、式(57)が成立するか否かを判定する。
【0898】
式(57)が成立すれば、注目画素y(1)の予測値および注目画素y(2)の予測値は、正しいと言える。換言すれば、式(57)が成立していないとき、注目画素y(1)の予測の処理および注目画素y(2)の予測の処理は、破綻していると言える。
【0899】
より詳しく説明すれば、積分特性判定部908は、入力画像の対応画素x(5)の画素値から、画素値予測部907から供給された注目画素y(1)の画素値(の予測値)および注目画素y(2)の画素値(の予測値)を減算する。積分特性判定部908は、減算した結果と、予め定めた閾値とを比較する。積分特性判定部908は、減算した結果が閾値より小さいとき、式(57)の関係が成立していると判定し、減算した結果が閾値以上であるとき、式(57)の関係が成立していないと判定する。
【0900】
クラスタップ抽出部910は、図128で示される、入力画像の対応画素x(5)に時間方向に包含される画素y(1)および画素y(2)を注目画素とし、画素値予測部915は、図128で示される注目画素y(1)の画素値および注目画素y(2)の画素値を予測し、予測した注目画素y(1)の画素値および注目画素y(2)の画素値を画像合成部909に供給する。
【0901】
画像合成部909は、積分特性判定部908から供給された積分特性判定情報を基に、画素値予測部907から供給された予測値および画素値予測部915から供給された予測値のいずれか一方を選択して、選択した予測値を画素値として出力画像に設定することにより画像を合成する。
【0902】
すなわち、画像合成部909は、式(57)の関係が成立していることを示す積分特性判定情報が積分特性判定部908から供給されたとき、画素値予測部907から供給された注目画素y(1)の予測値および注目画素y(2)の予測値が正しいので、画素値予測部907から供給された注目画素y(1)の予測値および注目画素y(2)の予測値を出力画像の画素値に設定する。
【0903】
一方、画像合成部909は、式(57)の関係が成立していないことを示す積分特性判定情報が積分特性判定部908から供給されたとき、画素値予測部907から供給された注目画素y(1)の予測値および注目画素y(2)の予測値が正しくない、すなわち、画素値予測部907における予測の処理が破綻しているので、画素値予測部915から供給された注目画素y(1)の予測値および注目画素y(2)の予測値を出力画像の画素値に設定する。
【0904】
すなわち、積分特性判定部908は、画素値予測部907により予測された第1の注目画素の第1の予測値と、画素値予測部907により予測された、第1の注目画素に時間的に隣接する出力画像の第2の注目画素の第2の予測値と、少なくとも第1の注目画素と第2の注目画素とを時間方向に対して包含する位置に配される入力画像の対応画素の画素値との関係を検出する。
【0905】
画像合成部909は、画素値予測部907により予測された第1の注目画素の予測値と、画素値予測部907により予測された第2の注目画素の予測値と、対応画素の画素値との関係の検出結果に応じて、画素値予測部907から出力される第1の注目画素の予測値および第2の注目画素の予測値を選択的に出力する。
【0906】
画像合成部909は、このように合成された時間倍密画像である出力画像を出力する。
【0907】
以上のように、図121に示す画像処理装置は、入力画像を取得し、時間倍密画像を創造して出力することができる。
【0908】
このように、入力画像にクラス分類適応処理を適用するようにした場合には、より高画質の画像を得ることができる。
【0909】
高質画像データ内の第1の注目画素に対応する、入力画像データ内の複数の第1の周辺画素の、現実世界の光信号の定常性に対応する画像データの第1の定常性を検出し、第1の注目画素に時間的または空間的に隣接する高質画像データ内の第2の注目画素に対応する、入力画像データ内の複数の第2の周辺画素の、現実世界の光信号の定常性に対応する画像データの第2の定常性を検出し、検出された画像データの第1の定常性に基づいて、第1の注目画素に対応する、入力画像データ内の複数の第3の周辺画素を抽出し、検出された画像データの第2の定常性に基づいて、第2の注目画素に対応する、入力画像データ内の複数の第4の周辺画素を抽出し、検出された画像データの第1の定常性に基づいて、第1の注目画素に対応する、入力画像データ内の複数の第5の周辺画素を抽出し、検出された画像データの第2の定常性に基づいて、第2の注目画素に対応する、入力画像データ内の複数の第6の周辺画素を抽出し、抽出された複数の第3の周辺画素の第1の特徴量を検出し、抽出された複数の第4の周辺画素の第2の特徴量を検出し、検出された第1の特徴量に基づいて、抽出された複数の第5の周辺画素から第1の注目画素を予測し、検出された第2の特徴量に基づいて、抽出された複数の第6の周辺画素から第2の注目画素を予測し、第1の注目画素の第1の予測値および第2の注目画素の第2の予測値を出力し、予測された第1の注目画素の第1の予測値と、予測された第2の注目画素の第2の予測値と、少なくとも第1の注目画素と第2の注目画素とを時間方向または空間方向に対して包含する位置に配される入力画像データ内の対応画素の画素値との関係を検出し、検出結果に応じて第1の注目画素の第1の予測値および第2の注目画素の第2の予測値を選択的に出力するようにした場合には、データの定常性を利用して、より正確で、より精度の高い処理結果を得ることができるようになる。
【0910】
図130は、図121の係数メモリ913に記憶させるクラスごとのタップ係数を求める学習を行う学習装置の一実施の形態の構成を示すブロック図である。
【0911】
図130の学習装置には、タップ係数の学習用の画像(教師画像)としての、例えば水平倍密画像が入力される。学習装置に入力された入力画像は、生徒画像生成部951および教師画素抽出部958に供給される。
【0912】
生徒画像生成部951は、入力された入力画像(教師画像)から、生徒画像であるSD画像を生成し、画像メモリ952に供給する。生徒画像生成部951は、例えば、教師画像としての水平倍密画像の水平方向に隣接する2つの水平倍密画素の画素値の平均値を求めてSD画像の画素値とすることにより、その教師画像としての水平倍密画像に対応した生徒画像としてのSD画像を生成する。ここで、SD画像は、図121の画像処理装置で処理対象となるSD画像に対応した画質のものとする必要がある。画像メモリ952は、生徒画像生成部951からの生徒画像であるSD画像を一時記憶する。
【0913】
図130に示す学習装置においては、SD画像を生徒データとして、タップ係数が生成される。
【0914】
クラスタップ抽出部953は、図121のクラスタップ抽出部910における場合と同様に、画像メモリ952に記憶された生徒画像であるSD画像に対応する教師画像としての水平倍密画像に含まれる画素を、順次、注目画素とする。
【0915】
さらに、クラスタップ抽出部953は、注目画素についてのクラスタップを、画像メモリ952に記憶されたSD画像から抽出し、特徴量検出部954に供給する。ここで、クラスタップ抽出部953は、図121のクラスタップ抽出部910が生成するのと同一のタップ構造のクラスタップを生成する。
【0916】
特徴量検出部954は、図121の特徴量検出部911と同様の処理で、画像メモリ952に記憶された生徒画像またはクラスタップ抽出部953から供給されたクラスタップから特徴量を検出して、検出した特徴量をクラス分類部955に供給する。
【0917】
例えば、特徴量検出部954は、画像メモリ952に記憶されたSD画像またはクラスタップ抽出部953から供給されたクラスタップを基に、SD画像の画素の動きベクトルを検出して、検出した動きベクトルを特徴量としてクラス分類部955に供給する。また、例えば、特徴量検出部954は、画像メモリ952から供給されたSD画像またはクラスタップ抽出部953から供給されたクラスタップを基に、SD画像またはクラスタップの複数の画素の画素値の空間的または時間的な変化を検出して、検出した画素値の変化を特徴量としてクラス分類部955に供給する。
【0918】
さらに、例えば、特徴量検出部954は画像メモリ952から供給されたSD画像またはクラスタップ抽出部953から供給されたクラスタップを基に、クラスタップまたはSD画像の複数の画素の画素値の空間的な変化の傾きを検出して、検出した画素値の変化の傾きを特徴量としてクラス分類部955に供給する。
【0919】
なお、特徴量検出部954は、特徴量検出部911と同様に、特徴量として、画素値の、ラプラシアン、ソーベル、または分散などを求めることができる。
【0920】
すなわち、特徴量検出部954は、図121の特徴量検出部911と同一の特徴量を検出する。
【0921】
特徴量検出部954は、特徴量とは別に、クラスタップをクラス分類部955に供給する。
【0922】
クラス分類部955は、図121のクラス分類部912と同様に構成され、特徴量検出部954からの特徴量またはクラスタップに基づいて、1以上のクラスのうちのいずれかのクラスに注目画素をクラス分類し、注目画素のクラスを表すクラスコードを、予測タップ抽出部956および学習メモリ959に供給する。
【0923】
予測タップ抽出部956は、図121の予測タップ抽出部914と同様に構成され、クラス分類部955から供給されたクラスコードに基づいて、注目画素についての予測タップを、画像メモリ952に記憶されたSD画像から抽出し、足し込み演算部957に供給する。ここで、予測タップ抽出部956は、図121の予測タップ抽出部914が生成するのと同一のタップ構造の予測タップを生成する。
【0924】
教師画素抽出部958は、教師画像である入力画像(水平倍密画像)から、注目画素を教師データ(教師画素)として抽出して、抽出した教師データを足し込み演算部957に供給する。即ち、教師画素抽出部958は、入力された学習用の画像である水平倍密画像を、例えば、そのまま教師データとする。ここで、図121の画像処理装置で得られる水平倍密画像は、図130の学習装置で教師データとして用いられる水平倍密画像の画質に対応したものとなる。
【0925】
足し込み演算部957および正規方程式演算部960は、注目画素となっている教師データと、予測タップ抽出部956から供給される予測タップとを用い、教師データと生徒データとの関係を、クラス分類部955から供給されるクラスコードで示されるクラスごとに学習することにより、クラスごとのタップ係数を求める。
【0926】
即ち、足し込み演算部957は、予測タップ抽出部956から供給される予測タップ(SD画素)と、注目画素となっている教師データである水平倍密画素とを対象とした、式(8)の足し込みを行う。
【0927】
具体的には、足し込み演算部957は、予測タップを構成する生徒データとしてのSD画素xn,kを用い、式(8)の左辺の行列におけるSD画素どうしの乗算(xn,kxn’,k)と、サメーション(Σ)に相当する演算を行う。
【0928】
さらに、足し込み演算部957は、予測タップを構成する生徒データとしてのSD画素xn,kと、注目画素となっている教師データである水平倍密画素ykを用い、式(8)の右辺のベクトルにおけるSD画素xn,kおよび水平倍密画素ykの乗算(xn,kyk)と、サメーション(Σ)に相当する演算を行う。
【0929】
足し込み演算部957は、教師データとしての水平倍密画像の画素すべてを注目画素として、上述の足し込みを行うことにより、各クラスについて、式(8)に対応した正規方程式をたてると、その正規方程式を、学習メモリ959に供給する。
【0930】
学習メモリ959は、足し込み演算部957から供給された、生徒データとしてSD画素、教師データとして水平倍密画素が設定された、式(8)に対応した正規方程式を記憶する。
【0931】
正規方程式演算部960は、学習メモリ959から、各クラスについての式(8)の正規方程式を取得し、例えば、掃き出し法により、その正規方程式を解くことにより(クラスごとに学習し)、クラスごとのタップ係数を求めて出力する。
【0932】
すなわち、足し込み演算部957および正規方程式演算部960は、検出された特徴量毎に、抽出された複数の周辺画素から注目画素を予測する予測手段を学習する。
【0933】
この場合、予測手段は、複数の周辺画素から注目画素を予測する具体的手段であり、例えば、クラス毎のタップ係数により動作が規定される画素値予測部915、または画素値予測部915における処理を言う。複数の周辺画素から注目画素を予測する予測手段を学習するとは、例えば、複数の周辺画素から注目画素を予測する予測手段の実現(構築)を可能にすることを意味する。
【0934】
従って、複数の周辺画素から注目画素を予測するための予測手段を学習するとは、例えば、クラス毎のタップ係数を得ることを言う。クラス毎のタップ係数を得ることにより、画素値予測部915、または画素値予測部915における処理が具体的に特定され、画素値予測部915を実現し、または画素値予測部915における処理を実行することができるようになるからである。
【0935】
係数メモリ961は、正規方程式演算部960が出力するクラスごとのタップ係数を記憶する。
【0936】
次に、図131のフローチャートを参照して、図130の学習装置において行われる、クラスごとのタップ係数を求める学習処理について説明する。
【0937】
まず最初に、ステップS951において、生徒画像生成部951は、例えば、水平倍密画像である、学習用の入力画像(教師画像)を取得し、画素を間引くことにより、例えば、SD画像である生徒画像を生成する。例えば、生徒画像生成部951は、水平倍密画像の水平方向に隣接する2つの水平倍密画素の画素値の平均値を求めて、平均値をSD画像の画素値とすることにより、SD画像を生成する。SD画像は、画像メモリ952に供給される。
【0938】
そして、ステップS952に進み、クラスタップ抽出部953は、教師データとしての水平倍密画像の水平倍密画素の中から、まだ注目画素としていないもののうちの1つを注目画素として選択する。クラスタップ抽出部953は、図121のクラスタップ抽出部910における場合と同様に、注目画素に対応するクラスタップを、画像メモリ952に記憶されている生徒画像としてのSD画像から抽出する。クラスタップ抽出部953は、クラスタップを特徴量検出部954に供給して、ステップS953に進む。
【0939】
ステップS953において、特徴量検出部954は、図121の特徴量検出部911における場合と同様に、ステップS951の処理で生成された生徒画像またはステップS953の処理で生成されたクラスタップから、例えば、動きベクトル、またはSD画像の画素の画素値の変化などの特徴量を検出して、検出した特徴量をクラス分類部955に供給し、ステップS954に進む。
【0940】
ステップS954では、クラス分類部955が、図121のクラス分類部912における場合と同様にして、特徴量検出部954からの特徴量またはクラスタップを用いて、1以上のクラスのうちのいずれかのクラスに注目画素をクラス分類し、その注目画素のクラスを表すクラスコードを、予測タップ抽出部956および学習メモリ959に供給して、ステップS955に進む。
【0941】
ステップS955において、予測タップ抽出部956は、クラス分類部955から供給されるクラスコードに基づいて、図121の予測タップ抽出部914における場合と同様に、注目画素に対応する予測タップを、画像メモリ952に記憶されている生徒画像としてのSD画像から抽出し、足し込み演算部957に供給して、ステップS956に進む。
【0942】
ステップS956において、教師画素抽出部958は、注目画素、すなわち水平倍密画素である教師画素(教師データ)を入力画像から抽出し、抽出した教師画素を足し込み演算部957に供給し、ステップS957に進む。
【0943】
ステップS957では、足し込み演算部957が、予測タップ抽出部956から供給される予測タップ(生徒データ)、および教師画素抽出部958から供給される教師画素(教師データ)を対象とした、上述した式(8)における足し込みを行い、生徒データおよび教師データが足し込まれた正規方程式を学習メモリ959に記憶させ、ステップS958に進む。
【0944】
そして、ステップS958では、クラスタップ抽出部953は、教師データとしての水平倍密画像の水平倍密画素の中に、まだ注目画素としていないものがあるかどうか、すなわち対象となる全画素の足し込みを終了したか否かを判定する。ステップS958において、教師データとしての水平倍密画像の水平倍密画素の中に、まだ注目画素としていないものがあると判定された場合、ステップS952に戻り、以下、同様の処理が繰り返される。
【0945】
また、ステップS958において、教師データとしての水平倍密画像の水平倍密画素の中に、注目画素としていないものがない、すなわち対象となる全画素の足し込みを終了したと判定された場合、ステップS959に進み、正規方程式演算部960は、いままでのステップS957における足し込みによって、クラスごとに得られた式(8)の正規方程式から、まだタップ係数が求められていないクラスの正規方程式を、学習メモリ959から読み出し、読み出した式(8)の正規方程式を掃き出し法などで解くことにより(クラス毎に学習し)、所定のクラスの予測係数(タップ係数)を求め、係数メモリ961に供給する。係数メモリ961は、正規方程式演算部960から供給された所定のクラスの予測係数(タップ係数)を、クラス毎に記憶し、ステップS960に進む。
【0946】
ステップS960において、正規方程式演算部960は、全クラスの予測係数の演算を終了したか否かを判定し、全クラスの予測係数の演算を終了していないと判定された場合、ステップS959に戻り、次のクラスの予測係数を求める処理を繰り返す。
【0947】
ステップS960において、全クラスの予測係数の演算を終了したと判定された場合、処理は終了する。
【0948】
以上のようにして、係数メモリ961に記憶されたクラスごとの予測係数が、図121の画像処理装置における係数メモリ913に記憶されている。
【0949】
このように、学習を行うようにした場合には、予測において、より高画質の画像を得ることができるようになる。
【0950】
高質画像データ内の注目画素に対応する入力画像データ内の複数の第1の周辺画素の、現実世界の光信号の定常性に対応する画像データの定常性を検出し、検出された画像データの定常性に基づいて、高質画像データ内の注目画素に対応する、入力画像データ内の複数の第2の周辺画素を抽出し、検出された画像データの定常性に基づいて、注目画素に対応する、入力画像データ内の複数の第3の周辺画素を抽出し、抽出された複数の第2の周辺画素の特徴量を検出し、検出された特徴量毎に、抽出された複数の第3の周辺画素から注目画素を予測するための予測手段を学習するようにした場合には、予測において、データの定常性を利用して、より正確で、より精度の高い処理結果を得ることができるようになる。
【0951】
なお、画像処理装置は、SD画像を入力して、SD画像に対応する空間方向または時間方向により高解像度の画像を生成して出力すると説明したが、入力される画像が、SD画像に限られるものではないことは勿論である。例えば、画像処理装置は、時間倍密画像または垂直倍密画像を入力して、HD画像を出力するようにしてもよい。
【0952】
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
【0953】
図132は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。CPU(Central Processing Unit)1001は、ROM(Read Only Memory)1002または記憶部1008に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)1003には、CPU1001が実行するプログラムやデータなどが適宜記憶される。これらのCPU1001、ROM1002およびRAM1003は、バス1004により相互に接続されている。
【0954】
CPU1001にはまた、バス1004を介して入出力インタフェース1005が接続されている。入出力インタフェース1005には、キーボード、マウス、マイクロホンなどよりなる入力部1006、ディスプレイ、スピーカなどよりなる出力部1007が接続されている。CPU1001は、入力部1006から入力される指令に対応して各種の処理を実行する。そして、CPU1001は、処理の結果得られた画像や音声等を出力部1007に出力する。
【0955】
入出力インタフェース1005に接続されている記憶部1008は、例えばハードディスクなどで構成され、CPU1001が実行するプログラムや各種のデータを記憶する。通信部1009は、インターネット、その他のネットワークを介して外部の装置と通信する。この例の場合、通信部1009は、入力画像を取得するか、または出力画像を出力する、外部とのインタフェースとして動作する。
【0956】
また、通信部1009を介してプログラムを取得し、記憶部1008に記憶してもよい。
【0957】
入出力インタフェース1005に接続されているドライブ1010は、磁気ディスク1051、光ディスク1052、光磁気ディスク1053、或いは半導体メモリ1054などが装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部1008に転送され、記憶される。
【0958】
一連の処理をさせるプログラムが格納されている記録媒体は、図132に示すように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク1051(フレキシブルディスクを含む)、光ディスク1052(CD−ROM(Compact Disc−Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク1053(MD(Mini−Disc)(商標)を含む)、若しくは半導体メモリ1054などよりなるパッケージメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM1002や、記憶部1008に含まれるハードディスクなどで構成される。
【0959】
なお、上述した一連の処理を実行させるプログラムは、必要に応じてルータ、モデムなどのインタフェースを介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を介してコンピュータにインストールされるようにしてもよい。
【0960】
また、本明細書において、記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0961】
【発明の効果】
以上のように、第1の本発明によれば、より高解像度の画像を出力することができる。
【0962】
また、第1の本発明によれば、データの定常性を利用して、より正確で、より精度の高い処理結果を得ることができるようになる。
【0963】
第2の本発明によれば、画像処理装置において、より高解像度の画像を出力することができる。
【0964】
また、第2の本発明によれば、画像処理装置において、データの定常性を利用して、より正確で、より精度の高い処理結果を得ることができるようになる。
【図面の簡単な説明】
【図1】従来の画像処理装置の構成を説明するブロック図である
【図2】従来の画像の創造の処理を説明するフローチャートである。
【図3】予測係数を生成する、従来の画像処理装置の構成を説明するブロック図である。
【図4】従来の学習の処理を説明するフローチャートである。
【図5】本発明に係る画像処理装置の一実施の形態の構成を示すブロック図である。
【図6】より高解像度の出力画像を創造する画像創造処理を説明するフローチャートである。
【図7】イメージセンサ上の画素の配置の例を説明する図である。
【図8】CCDである検出素子の動作を説明する図である。
【図9】画素D乃至画素Fに対応する検出素子に入射される光と、画素値との関係を説明する図である。
【図10】時間の経過と、1つの画素に対応する検出素子に入射される光と、画素値との関係を説明する図である。
【図11】実世界の線状の物の画像の例を示す図である。
【図12】実際の撮像により得られた画像データの画素値の例を示す図である。
【図13】画像データの模式図である。
【図14】背景とは異なる色であって、単色の、直線状の縁を有する物の実世界の画像の例を示す図である。
【図15】実際の撮像により得られた画像データの画素値の例を示す図である。
【図16】画像データの模式図である。
【図17】データ定常性検出部101の構成を示すブロック図である。
【図18】データの定常性を有する入力画像におけるアクティビティを説明する図である。
【図19】アクティビティを検出するためのブロックを説明する図である。
【図20】アクティビティに対するデータの定常性の角度を説明する図である。
【図21】データ定常性検出部101のより詳細な構成を示すブロック図である。
【図22】画素の組を説明する図である。
【図23】画素の組の位置とデータの定常性の角度との関係を説明する図である。
【図24】データの定常性の検出の処理を説明するフローチャートである。
【図25】時間方向および空間方向のデータの定常性の角度を検出するとき、抽出される画素の組を示す図である。
【図26】データ定常性検出部101のより詳細な他の構成を示すブロック図である。
【図27】設定された直線の角度の範囲に応じた数の画素からなる画素の組を説明する図である。
【図28】設定された直線の角度の範囲を説明する図である。
【図29】設定された直線の角度の範囲と、画素の組の数、および画素の組毎の画素の数を説明する図である。
【図30】画素の組の数および画素の組毎の画素の数を説明する図である。
【図31】画素の組の数および画素の組毎の画素の数を説明する図である。
【図32】画素の組の数および画素の組毎の画素の数を説明する図である。
【図33】画素の組の数および画素の組毎の画素の数を説明する図である。
【図34】画素の組の数および画素の組毎の画素の数を説明する図である。
【図35】画素の組の数および画素の組毎の画素の数を説明する図である。
【図36】画素の組の数および画素の組毎の画素の数を説明する図である。
【図37】画素の組の数および画素の組毎の画素の数を説明する図である。
【図38】データの定常性の検出の処理を説明するフローチャートである。
【図39】データ定常性検出部101のさらに他の構成を示すブロック図である。
【図40】データ定常性検出部101のより詳細な構成を示すブロック図である。
【図41】ブロックの例を説明する図である。
【図42】注目ブロックと参照ブロックとの、画素値の差分の絶対値の算出の処理を説明する図である。
【図43】注目画素の周辺の画素の位置と、角度θを有する直線との空間方向Xの距離を説明する図である。
【図44】シフト量γと角度θとの関係を示す図である。
【図45】シフト量γに対する、注目画素の周辺の画素の位置と、注目画素を通り、角度θを有する直線との空間方向Xの距離を示す図である。
【図46】注目画素を通り、空間方向Xの軸に対して角度θの直線との距離が最小の参照ブロックを示す図である。
【図47】検出するデータの定常性の角度の範囲を1/2にする処理を説明する図である。
【図48】データの定常性の検出の処理を説明するフローチャートである。
【図49】間方向および空間方向のデータの定常性の角度を検出するとき、抽出されるブロックを示す図である。
【図50】入力画像のコンポーネント信号を基に、データの定常性の検出の処理を実行するデータ定常性検出部101の構成を示すブロック図である。
【図51】入力画像のコンポーネント信号を基に、データの定常性の検出の処理を実行するデータ定常性検出部101の構成を示すブロック図である。
【図52】データ定常性検出部101のさらに他の構成を示すブロック図である。
【図53】入力画像における、基準軸を基準としたデータの定常性の角度を説明する図である。
【図54】入力画像における、基準軸を基準としたデータの定常性の角度を説明する図である。
【図55】入力画像における、基準軸を基準としたデータの定常性の角度を説明する図である。
【図56】入力画像における、画素の空間方向の位置に対する、画素値の変化と、回帰直線との関係を示す図である。
【図57】回帰直線Aと、例えば、基準軸である空間方向Xを示す軸との角度を説明する図である。
【図58】領域の例を示す図である。
【図59】図52で構成が示されるデータ定常性検出部101による、データの定常性の検出の処理を説明するフローチャートである。
【図60】本発明を適用した細線、または、2値エッジの角度をデータ定常性情報として検出するデータ定常性検出部の構成を示すブロック図である。
【図61】データ定常性情報の検出方法を説明する図である。
【図62】データ定常性情報の検出方法を説明する図である。
【図63】図60のデータ定常性検出部のより詳細な構成を示す図である。
【図64】水平・垂直判定処理を説明する図である。
【図65】水平・垂直判定処理を説明する図である。
【図66】現実世界の細線とセンサにより撮像される細線の関係を説明する図である。
【図67】現実世界の画像の細線と背景の関係を説明する図である。
【図68】センサにより撮像された画像の細線と背景の関係を説明する図である。
【図69】センサにより撮像された画像の細線と背景の関係の例を説明する図である。
【図70】現実世界の画像の細線と背景の関係を説明する図である。
【図71】センサにより撮像された画像の細線と背景の関係を説明する図である。
【図72】センサにより撮像された画像の細線と背景の関係の例を説明する図である。
【図73】細線の角度を求めるためのモデルを示す図である。
【図74】細線の角度を求めるためのモデルを示す図である。
【図75】注目画素に対応するダイナミックレンジブロックの画素値の最大値と最小値を説明する図である。
【図76】細線の角度の求め方を説明する図である。
【図77】細線の角度の求め方を説明する図である。
【図78】抽出ブロックとダイナミックレンジブロックを説明する図である。
【図79】最小自乗法の解法を説明する図である。
【図80】最小自乗法の解法を説明する図である。
【図81】2値エッジを説明する図である。
【図82】センサにより撮像された画像の2値エッジを説明する図である。
【図83】センサにより撮像された画像の2値エッジの例を説明する図である。
【図84】センサにより撮像された画像の2値エッジを説明する図である。
【図85】2値エッジの角度を求めるためのモデルを示す図である。
【図86】2値エッジの角度を求める方法を説明する図である。
【図87】2値エッジの角度を求める方法を説明する図である。
【図88】細線、または、2値エッジの角度をデータ定常性と検出する処理を説明するフローチャートである。
【図89】データ抽出処理を説明するフローチャートである。
【図90】正規方程式への足し込み処理を説明するフローチャートである。
【図91】本発明を適用して求めた細線の傾きと、相関を用いて求めた細線の角度とを比較する図である。
【図92】本発明を適用して求めた2値エッジの傾きと、相関を用いて求めた細線の角度とを比較する図である。
【図93】本発明を適用した混合比をデータ定常性情報として検出するデータ定常性検出部の構成を示すブロック図である。
【図94】混合比の求め方を説明する図である。
【図95】混合比をデータ定常性と検出する処理を説明するフローチャートである。
【図96】正規方程式への足し込み処理を説明するフローチャートである。
【図97】細線の混合比の分布例を示す図である。
【図98】2値エッジの混合比の分布例を示す図である。
【図99】混合比の直線近似を説明する図である。
【図100】物体の動きをデータ定常性情報として求める方法を説明する図である。
【図101】物体の動きをデータ定常性情報として求める方法を説明する図である。
【図102】物体の動きによる混合比をデータ定常性情報として求める方法を説明する図である。
【図103】物体の動きによる混合比をデータ定常性情報として求める際の混合比の直線近似を説明する図である。
【図104】従来のクラスタップの抽出の処理を説明する図である。
【図105】本発明に係る画像処理装置におけるクラスタップの抽出の処理を説明する図である。
【図106】データの定常性に基づく、クラスタップとして抽出される画素の位置の決定を説明する図である。
【図107】データの定常性に基づく、クラスタップとして抽出される画素の位置の決定を説明する図である。
【図108】本発明に係る画像処理装置におけるクラスタップの抽出の処理を説明する図である。
【図109】入力画像の例を示す図である。
【図110】入力画像の元になった画像を示す図である。
【図111】従来のクラス分類適応処理により生成された画像を示す図である。
【図112】対応画素と中心画素とが常に同じになるようにした場合に、生成された画像を示す図である。
【図113】本発明に係る画像処理装置により生成された画像を示す図である。
【図114】入力画像の例を示す図である。
【図115】入力画像の元になった画像を示す図である。
【図116】従来のクラス分類適応処理により生成された画像を示す図である。
【図117】対応画素と中心画素とが常に同じになるようにした場合に、生成された画像を示す図である。
【図118】本発明に係る画像処理装置により生成された画像を示す図である。
【図119】本発明に係る学習装置の一実施の形態の構成を示すブロック図である。
【図120】学習処理を説明するフローチャートである。
【図121】本発明に係る画像処理装置の一実施の形態の他の構成を示すブロック図である。
【図122】注目画素を説明する図である。
【図123】イメージセンサに設けられている画素の配置、および水平倍密画像の画素に対応する領域を説明する図である。
【図124】領域a乃至rに入射される光に対応する画素の画素値を説明する図である。
【図125】式(53)の関係が成立していない、画素値予測部907による予測値を含む出力画像の例を示す図である。
【図126】式(53)の関係が成立していない、画素値予測部907による予測値を、画素値予測部915による予測値に置き換えた出力画像の例を示す図である。
【図127】画像の創造の処理を説明するフローチャートである。
【図128】時間倍密画像を創造する場合における、注目画素を説明する図である。
【図129】注目画素y(1)と、注目画素y(2)と、注目画素y(1)および注目画素y(2)を時間方向に包含する対応画素x(5)との関係について説明する図である。
【図130】学習装置の一実施の形態の構成を示すブロック図である。
【図131】学習処理を説明するフローチャートである。
【図132】パーソナルコンピュータの構成の例を示すブロック図である。
【符号の説明】
101 データ定常性検出部, 102 クラスタップ抽出部, 103 特徴量検出部, 104 クラス分類部, 105 係数メモリ, 106 予測タップ抽出部, 107 画素値予測部, 401 アクティビティ検出部, 402 データ選択部, 403 誤差推定部, 404 定常方向導出部, 411−1乃至411−L 画素選択部, 412−1乃至412−L 推定誤差算出部, 413 最小誤差角度選択部, 421−1乃至421−L 画素選択部, 422−1乃至422−L 推定誤差算出部, 441 データ選択部, 442 誤差推定部, 443 定常方向導出部, 461−1乃至461−L 画素選択部, 462−1乃至462−L 推定誤差算出部, 463最小誤差角度選択部, 481−1乃至481−3 データ定常性検出部, 482 決定部, 491 コンポーネント処理部, 492 データ定常性検出部, 502 画素取得部, 503 度数検出部, 504 回帰直線演算部, 505 角度算出部, 602 画素取得部, 603 度数検出部, 604 回帰直線演算部, 605 領域算出部, 701 データ選択部, 702 データ足し込み部, 703 定常方向導出部, 711 水平・垂直判定部, 712 データ取得部, 721 差分足し込み部, 722 MaxMin取得部, 723 差分足し込み部, 731 定常方向演算部, 751 データ足し込み部, 752 MaxMin取得部, 753 足し込み部, 754差分演算部, 755 足し込み部, 761 混合比導出部, 762 混合比算出部, 801 生徒画像生成部, 802 画像メモリ, 803 データ定常性検出部, 804 クラスタップ抽出部, 805 特徴量検出部,806 クラス分類部, 807 予測タップ抽出部, 808 足し込み演算部, 809 教師画素抽出部, 810 学習メモリ, 811 正規方程式演算部, 812 係数メモリ, 901 データ定常性検出部, 902 クラスタップ抽出部, 903 特徴量検出部, 904 クラス分類部, 905 係数メモリ, 906 予測タップ抽出部, 907 画素値予測部, 908 積分特性判定部, 909 画像合成部, 910 クラスタップ抽出部, 911 特徴量検出部, 912 クラス分類部, 913 係数メモリ, 914 予測タップ抽出部, 915 画素値予測部, 951 生徒画像生成部, 952 画像メモリ, 953 クラスタップ抽出部, 954 特徴量検出部, 955 クラス分類部, 956 予測タップ抽出部, 957足し込み演算部, 958 教師画素抽出部, 959 学習メモリ, 960 正規方程式演算部, 961 係数メモリ, 1001 CPU, 1002 ROM, 1003 RAM, 1008 記憶部, 1051 磁気ディスク, 1052 光ディスク, 1053 光磁気ディスク, 1054 半導体メモリ
Claims (10)
- それぞれ時間積分効果または空間積分効果を有する複数の画素を有する撮像素子が現実世界の光信号を撮像することにより取得された複数の画素データからなる入力画像データを、前記入力画像データよりも高質な高質画像データに変換する画像処理装置において、
前記高質画像データ内の第1の注目画素に対応する、前記入力画像データ内の複数の第1の周辺画素の、前記現実世界の光信号の定常性に対応する画像データの第1の定常性を検出し、前記第1の注目画素に時間的または空間的に隣接する前記高質画像データ内の第2の注目画素に対応する、前記入力画像データ内の複数の第2の周辺画素の、前記現実世界の光信号の定常性に対応する画像データの第2の定常性を検出する画像データ定常性検出手段と、
前記画像データ定常性検出手段により検出された前記画像データの第1の定常性に基づいて、前記第1の注目画素に対応する、前記入力画像データ内の複数の第3の周辺画素を抽出し、前記画像データ定常性検出手段により検出された前記画像データの第2の定常性に基づいて、前記第2の注目画素に対応する、前記入力画像データ内の複数の第4の周辺画素を抽出する第1の抽出手段と、
前記画像データ定常性検出手段により検出された前記画像データの第1の定常性に基づいて、前記第1の注目画素に対応する、前記入力画像データ内の複数の第5の周辺画素を抽出し、前記画像データ定常性検出手段により検出された前記画像データの第2の定常性に基づいて、前記第2の注目画素に対応する、前記入力画像データ内の複数の第6の周辺画素を抽出する第2の抽出手段と、
前記第1の抽出手段により抽出された複数の前記第3の周辺画素の第1の特徴量を検出し、前記第1の抽出手段により抽出された複数の前記第4の周辺画素の第2の特徴量を検出する第1の特徴量検出手段と、
前記第1の特徴量検出手段により検出された前記第1の特徴量に基づいて、前記第2の抽出手段により抽出された複数の前記第5の周辺画素から前記第1の注目画素を予測し、前記第1の特徴量検出手段により検出された前記第2の特徴量に基づいて、前記第2の抽出手段により抽出された複数の前記第6の周辺画素から前記第2の注目画素を予測し、前記第1の注目画素の第1の予測値および前記第2の注目画素の第2の予測値を出力する第1の予測手段と、
前記第1の予測手段により予測された前記第1の注目画素の前記第1の予測値と、前記第1の予測手段により予測された前記第2の注目画素の前記第2の予測値と、少なくとも前記第1の注目画素と前記第2の注目画素とを時間方向または空間方向に対して包含する位置に配される前記入力画像データ内の対応画素の画素値との関係を検出し、検出結果に応じて前記第1の予測手段から出力される前記第1の注目画素の前記第1の予測値および前記第2の注目画素の前記第2の予測値を選択的に出力する選択出力手段と
を含むことを特徴とする画像処理装置。 - 前記高質画像データ内の前記第1の注目画素に対応する、前記入力画像データ内の複数の第7の周辺画素を抽出し、前記高質画像データ内の前記第2の注目画素に対応する、前記入力画像データ内の複数の第8の周辺画素を抽出する第3の抽出手段と、
前記第1の注目画素に対応する、前記入力画像データ内の複数の第9の周辺画素を抽出し、前記第2の注目画素に対応する、前記入力画像データ内の複数の第10の周辺画素を抽出する第4の抽出手段と、
前記第3の抽出手段により抽出された複数の前記第7の周辺画素の第3の特徴量を検出し、前記第3の抽出手段により抽出された複数の前記第8の周辺画素の第4の特徴量を検出する第2の特徴量検出手段と、
前記第2の特徴量検出手段により検出された前記第3の特徴量に基づいて、前記第4の抽出手段により抽出された複数の前記第9の周辺画素から前記第1の注目画素を予測し、前記第2の特徴量検出手段により検出された前記第4の特徴量に基づいて、前記第4の抽出手段により抽出された複数の前記第10の周辺画素から前記第2の注目画素を予測し、前記第1の注目画素の第3の予測値および前記第2の注目画素の第4の予測値を出力する第2の予測手段と
をさらに含み、
前記選択出力手段は、
前記第1の予測手段により予測された前記第1の注目画素の前記第1の予測値と、前記第1の予測手段により予測された前記第2の注目画素の前記第2の予測値と、前記入力画像データの前記対応画素の画素値との関係を検出し、検出結果に応じて前記第1の予測値と前記第2の予測値とからなる予測値の第1の組および前記第3の予測値と前記第4の予測値とからなる予測値の第2の組のうちいずれか一方を選択的に出力する
ことを特徴とする請求項1に記載の画像処理装置。 - 前記選択出力手段は、前記対応画素の画素値から、前記第1の注目画素の前記第1の予測値および前記第2の注目画素の前記第2の予測値を引き算した結果の絶対値が、所定の閾値未満であるとき、前記第1の予測値と前記第2の予測値とからなる予測値の前記第1の組を選択的に出力する
ことを特徴とする請求項2に記載の画像処理装置。 - それぞれ時間積分効果または空間積分効果を有する複数の画素を有する撮像素子が現実世界の光信号を撮像することにより取得された複数の画素データからなる入力画像データを、前記入力画像データよりも高質な高質画像データに変換する画像処理方法において、
前記高質画像データ内の第1の注目画素に対応する、前記入力画像データ内の複数の第1の周辺画素の、前記現実世界の光信号の定常性に対応する画像データの第1の定常性を検出し、前記第1の注目画素に時間的または空間的に隣接する前記高質画像データ内の第2の注目画素に対応する、前記入力画像データ内の複数の第2の周辺画素の、前記現実世界の光信号の定常性に対応する画像データの第2の定常性を検出する画像データ定常性検出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの第1の定常性に基づいて、前記第1の注目画素に対応する、前記入力画像データ内の複数の第3の周辺画素を抽出し、前記画像データ定常性検出ステップにおいて検出された前記画像データの第2の定常性に基づいて、前記第2の注目画素に対応する、前記入力画像データ内の複数の第4の周辺画素を抽出する第1の抽出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの第1の定常性に基づいて、前記第1の注目画素に対応する、前記入力画像データ内の複数の第5の周辺画素を抽出し、前記画像データ定常性検出ステップにおいて検出された前記画像データの第2の定常性に基づいて、前記第2の注目画素に対応する、前記入力画像データ内の複数の第6の周辺画素を抽出する第2の抽出ステップと、
前記第1の抽出ステップにおいて抽出された複数の前記第3の周辺画素の第1の特徴量を検出し、前記第1の抽出ステップにおいて抽出された複数の前記第4の周辺画素の第2の特徴量を検出する特徴量検出ステップと、
前記特徴量検出ステップにおいて検出された前記第1の特徴量に基づいて、前記第2の抽出ステップにおいて抽出された複数の前記第5の周辺画素から前記第1の注目画素を予測し、前記特徴量検出ステップにおいて検出された前記第2の特徴量に基づいて、前記第2の抽出ステップにおいて抽出された複数の前記第6の周辺画素から前記第2の注目画素を予測し、前記第1の注目画素の第1の予測値および前記第2の注目画素の第2の予測値を出力する予測ステップと、
前記予測ステップにおいて予測された前記第1の注目画素の前記第1の予測値と、前記予測ステップにおいて予測された前記第2の注目画素の前記第2の予測値と、少なくとも前記第1の注目画素と前記第2の注目画素とを時間方向または空間方向に対して包含する位置に配される前記入力画像データ内の対応画素の画素値との関係を検出し、検出結果に応じて前記第1の注目画素の前記第1の予測値および前記第2の注目画素の前記第2の予測値を選択的に出力する選択出力ステップと
を含むことを特徴とする画像処理方法。 - それぞれ時間積分効果または空間積分効果を有する複数の画素を有する撮像素子が現実世界の光信号を撮像することにより取得された複数の画素データからなる入力画像データを、前記入力画像データよりも高質な高質画像データに変換する画像処理用のプログラムであって、
前記高質画像データ内の第1の注目画素に対応する、前記入力画像データ内の複数の第1の周辺画素の、前記現実世界の光信号の定常性に対応する画像データの第1の定常性を検出し、前記第1の注目画素に時間的または空間的に隣接する前記高質画像データ内の第2の注目画素に対応する、前記入力画像データ内の複数の第2の周辺画素の、前記現実世界の光信号の定常性に対応する画像データの第2の定常性を検出する画像データ定常性検出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの第1の定常性に基づいて、前記第1の注目画素に対応する、前記入力画像データ内の複数の第3の周辺画素を抽出し、前記画像データ定常性検出ステップにおいて検出された前記画像データの第2の定常性に基づいて、前記第2の注目画素に対応する、前記入力画像データ内の複数の第4の周辺画素を抽出する第1の抽出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの第1の定常性に基づいて、前記第1の注目画素に対応する、前記入力画像データ内の複数の第5の周辺画素を抽出し、前記画像データ定常性検出ステップにおいて検出された前記画像データの第2の定常性に基づいて、前記第2の注目画素に対応する、前記入力画像データ内の複数の第6の周辺画素を抽出する第2の抽出ステップと、
前記第1の抽出ステップにおいて抽出された複数の前記第3の周辺画素の第1の特徴量を検出し、前記第1の抽出ステップにおいて抽出された複数の前記第4の周辺画素の第2の特徴量を検出する特徴量検出ステップと、
前記特徴量検出ステップにおいて検出された前記第1の特徴量に基づいて、前記第2の抽出ステップにおいて抽出された複数の前記第5の周辺画素から前記第1の注目画素を予測し、前記特徴量検出ステップにおいて検出された前記第2の特徴量に基づいて、前記第2の抽出ステップにおいて抽出された複数の前記第6の周辺画素から前記第2の注目画素を予測し、前記第1の注目画素の第1の予測値および前記第2の注目画素の第2の予測値を出力する予測ステップと、
前記予測ステップにおいて予測された前記第1の注目画素の前記第1の予測値と、前記予測ステップにおいて予測された前記第2の注目画素の前記第2の予測値と、少なくとも前記第1の注目画素と前記第2の注目画素とを時間方向または空間方向に対して包含する位置に配される前記入力画像データ内の対応画素の画素値との関係を検出し、検出結果に応じて前記第1の注目画素の前記第1の予測値および前記第2の注目画素の前記第2の予測値を選択的に出力する選択出力ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。 - それぞれ時間積分効果または空間積分効果を有する複数の画素を有する撮像素子が現実世界の光信号を撮像することにより取得された複数の画素データからなる入力画像データを、前記入力画像データよりも高質な高質画像データに変換する画像処理を、コンピュータに行わせるプログラムにおいて、
前記高質画像データ内の第1の注目画素に対応する、前記入力画像データ内の複数の第1の周辺画素の、前記現実世界の光信号の定常性に対応する画像データの第1の定常性を検出し、前記第1の注目画素に時間的または空間的に隣接する前記高質画像データ内の第2の注目画素に対応する、前記入力画像データ内の複数の第2の周辺画素の、前記現実世界の光信号の定常性に対応する画像データの第2の定常性を検出する画像データ定常性検出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの第1の定常性に基づいて、前記第1の注目画素に対応する、前記入力画像データ内の複数の第3の周辺画素を抽出し、前記画像データ定常性検出ステップにおいて検出された前記画像データの第2の定常性に基づいて、前記第2の注目画素に対応する、前記入力画像データ内の複数の第4の周辺画素を抽出する第1の抽出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの第1の定常性に基づいて、前記第1の注目画素に対応する、前記入力画像データ内の複数の第5の周辺画素を抽出し、前記画像データ定常性検出ステップにおいて検出された前記画像データの第2の定常性に基づいて、前記第2の注目画素に対応する、前記入力画像データ内の複数の第6の周辺画素を抽出する第2の抽出ステップと、
前記第1の抽出ステップにおいて抽出された複数の前記第3の周辺画素の第1の特徴量を検出し、前記第1の抽出ステップにおいて抽出された複数の前記第4の周辺画素の第2の特徴量を検出する特徴量検出ステップと、
前記特徴量検出ステップにおいて検出された前記第1の特徴量に基づいて、前記第2の抽出ステップにおいて抽出された複数の前記第5の周辺画素から前記第1の注目画素を予測し、前記特徴量検出ステップにおいて検出された前記第2の特徴量に基づいて、前記第2の抽出ステップにおいて抽出された複数の前記第6の周辺画素から前記第2の注目画素を予測し、前記第1の注目画素の第1の予測値および前記第2の注目画素の第2の予測値を出力する予測ステップと、
前記予測ステップにおいて予測された前記第1の注目画素の前記第1の予測値と、前記予測ステップにおいて予測された前記第2の注目画素の前記第2の予測値と、少なくとも前記第1の注目画素と前記第2の注目画素とを時間方向または空間方向に対して包含する位置に配される前記入力画像データ内の対応画素の画素値との関係を検出し、検出結果に応じて前記第1の注目画素の前記第1の予測値および前記第2の注目画素の前記第2の予測値を選択的に出力する選択出力ステップと
を含むことを特徴とするプログラム。 - それぞれ時間積分効果または空間積分効果を有する複数の画素を有する撮像素子が現実世界の光信号を撮像することにより取得された複数の画素データからなる入力画像データから、前記入力画像データよりも高質な高質画像データを予測する予測手段を学習する学習装置において、
前記高質画像データ内の注目画素に対応する前記入力画像データ内の複数の第1の周辺画素の、前記現実世界の光信号の定常性に対応する画像データの定常性を検出する画像データ定常性検出手段と、
前記画像データ定常性検出手段により検出された前記画像データの定常性に基づいて、前記高質画像データ内の前記注目画素に対応する、前記入力画像データ内の複数の第2の周辺画素を抽出する第1の抽出手段と、
前記画像データ定常性検出手段により検出された前記画像データの定常性に基づいて、前記注目画素に対応する、前記入力画像データ内の複数の第3の周辺画素を抽出する第2の抽出手段と、
前記第1の抽出手段により抽出された複数の前記第2の周辺画素の特徴量を検出する特徴量検出手段と、
前記特徴量検出手段により検出された前記特徴量毎に、前記第2の抽出手段により抽出された複数の前記第3の周辺画素から前記注目画素を予測するための前記予測手段を学習する学習手段と
を含むことを特徴とする学習装置。 - それぞれ時間積分効果または空間積分効果を有する複数の画素を有する撮像素子が現実世界の光信号を撮像することにより取得された複数の画素データからなる入力画像データから、前記入力画像データよりも高質な高質画像データを予測する予測手段を学習する学習方法において、
前記高質画像データ内の注目画素に対応する前記入力画像データ内の複数の第1の周辺画素の、前記現実世界の光信号の定常性に対応する画像データの定常性を検出する画像データ定常性検出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの定常性に基づいて、前記高質画像データ内の前記注目画素に対応する、前記入力画像データ内の複数の第2の周辺画素を抽出する第1の抽出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの定常性に基づいて、前記注目画素に対応する、前記入力画像データ内の複数の第3の周辺画素を抽出する第2の抽出ステップと、
前記第1の抽出ステップにおいて抽出された複数の前記第2の周辺画素の特徴量を検出する特徴量検出ステップと、
前記特徴量検出ステップにおいて検出された前記特徴量毎に、前記第2の抽出ステップにおいて抽出された複数の前記第3の周辺画素から前記注目画素を予測するための前記予測手段を学習する学習ステップと
を含むことを特徴とする学習方法。 - それぞれ時間積分効果または空間積分効果を有する複数の画素を有する撮像素子が現実世界の光信号を撮像することにより取得された複数の画素データからなる入力画像データから、前記入力画像データよりも高質な高質画像データを予測する予測手段を学習する学習処理用のプログラムであって、
前記高質画像データ内の注目画素に対応する前記入力画像データ内の複数の第1の周辺画素の、前記現実世界の光信号の定常性に対応する画像データの定常性を検出する画像データ定常性検出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの定常性に基づいて、前記高質画像データ内の前記注目画素に対応する、前記入力画像データ内の複数の第2の周辺画素を抽出する第1の抽出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの定常性に基づいて、前記注目画素に対応する、前記入力画像データ内の複数の第3の周辺画素を抽出する第2の抽出ステップと、
前記第1の抽出ステップにおいて抽出された複数の前記第2の周辺画素の特徴量を検出する特徴量検出ステップと、
前記特徴量検出ステップにおいて検出された前記特徴量毎に、前記第2の抽出ステップにおいて抽出された複数の前記第3の周辺画素から前記注目画素を予測するための前記予測手段を学習する学習ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。 - それぞれ時間積分効果または空間積分効果を有する複数の画素を有する撮像素子が現実世界の光信号を撮像することにより取得された複数の画素データからなる入力画像データから、前記入力画像データよりも高質な高質画像データを予測する予測手段を学習する学習処理を、コンピュータに行わせるプログラムにおいて、
前記高質画像データ内の注目画素に対応する前記入力画像データ内の複数の第1の周辺画素の、前記現実世界の光信号の定常性に対応する画像データの定常性を検出する画像データ定常性検出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの定常性に基づいて、前記高質画像データ内の前記注目画素に対応する、前記入力画像データ内の複数の第2の周辺画素を抽出する第1の抽出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの定常性に基づいて、前記注目画素に対応する、前記入力画像データ内の複数の第3の周辺画素を抽出する第2の抽出ステップと、
前記第1の抽出ステップにおいて抽出された複数の前記第2の周辺画素の特徴量を検出する特徴量検出ステップと、
前記特徴量検出ステップにおいて検出された前記特徴量毎に、前記第2の抽出ステップにおいて抽出された複数の前記第3の周辺画素から前記注目画素を予測するための前記予測手段を学習する学習ステップと
を含むことを特徴とするプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003050208A JP4265237B2 (ja) | 2003-02-27 | 2003-02-27 | 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム |
CN2004800052509A CN100407787C (zh) | 2003-02-27 | 2004-02-13 | 图像处理装置和方法、学习设备和方法 |
US10/545,074 US7450764B2 (en) | 2003-02-27 | 2004-02-13 | Image processing device and method, learning device and method, recording medium, and program |
PCT/JP2004/001607 WO2004077828A1 (ja) | 2003-02-27 | 2004-02-13 | 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム |
KR1020057016028A KR101023451B1 (ko) | 2003-02-27 | 2004-02-13 | 화상 처리 장치 및 방법, 학습 장치 및 방법, 기록 매체,및 프로그램 |
US12/044,557 US7483565B2 (en) | 2003-02-27 | 2008-03-07 | Image processing device and method, learning device and method, recording medium, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003050208A JP4265237B2 (ja) | 2003-02-27 | 2003-02-27 | 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2004266381A true JP2004266381A (ja) | 2004-09-24 |
JP2004266381A5 JP2004266381A5 (ja) | 2006-04-06 |
JP4265237B2 JP4265237B2 (ja) | 2009-05-20 |
Family
ID=32923337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003050208A Expired - Fee Related JP4265237B2 (ja) | 2003-02-27 | 2003-02-27 | 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム |
Country Status (5)
Country | Link |
---|---|
US (2) | US7450764B2 (ja) |
JP (1) | JP4265237B2 (ja) |
KR (1) | KR101023451B1 (ja) |
CN (1) | CN100407787C (ja) |
WO (1) | WO2004077828A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009038154A1 (en) * | 2007-09-19 | 2009-03-26 | Sharp Kabushiki Kaisha | Adaptive image up-scaling technique |
JP2009524861A (ja) * | 2006-01-26 | 2009-07-02 | ヴェステル エレクトロニック サナイ ヴェ ティカレット アノニム シュルケット | デジタル画像の解像度向上方法及び装置 |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4214459B2 (ja) | 2003-02-13 | 2009-01-28 | ソニー株式会社 | 信号処理装置および方法、記録媒体、並びにプログラム |
JP4265237B2 (ja) | 2003-02-27 | 2009-05-20 | ソニー株式会社 | 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム |
JP4144378B2 (ja) * | 2003-02-28 | 2008-09-03 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4144377B2 (ja) * | 2003-02-28 | 2008-09-03 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4265291B2 (ja) * | 2003-06-06 | 2009-05-20 | ソニー株式会社 | 情報信号の処理装置および処理方法、並びに情報信号の処理方法を実行するためのプログラム |
JP2008252862A (ja) * | 2007-03-05 | 2008-10-16 | Ricoh Co Ltd | 画像処理装置、画像処理方法及び画像処理プログラム |
JP4882999B2 (ja) * | 2007-12-21 | 2012-02-22 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム、および学習装置 |
JP5061882B2 (ja) * | 2007-12-21 | 2012-10-31 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム、並びに学習装置 |
CN101631188B (zh) * | 2008-07-14 | 2012-05-09 | 华晶科技股份有限公司 | 数字影像的合成方法 |
JP5347862B2 (ja) * | 2008-09-29 | 2013-11-20 | ソニー株式会社 | 係数学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体 |
US8669771B2 (en) * | 2009-01-28 | 2014-03-11 | Massachusetts Institute Of Technology | System and method for providing electromagnetic imaging through electroquasistatic sensing |
GB2474281A (en) * | 2009-10-09 | 2011-04-13 | Snell Ltd | Defining image features using local spatial maxima and minima |
JP5550301B2 (ja) * | 2009-10-16 | 2014-07-16 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
US9405975B2 (en) | 2010-03-26 | 2016-08-02 | Brain Corporation | Apparatus and methods for pulse-code invariant object recognition |
US8467623B2 (en) | 2010-03-26 | 2013-06-18 | Brain Corporation | Invariant pulse latency coding systems and methods systems and methods |
US9311593B2 (en) | 2010-03-26 | 2016-04-12 | Brain Corporation | Apparatus and methods for polychronous encoding and multiplexing in neuronal prosthetic devices |
US9122994B2 (en) | 2010-03-26 | 2015-09-01 | Brain Corporation | Apparatus and methods for temporally proximate object recognition |
US9193075B1 (en) | 2010-08-26 | 2015-11-24 | Brain Corporation | Apparatus and methods for object detection via optical flow cancellation |
JP2012244395A (ja) * | 2011-05-19 | 2012-12-10 | Sony Corp | 学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体 |
US9070039B2 (en) | 2013-02-01 | 2015-06-30 | Brian Corporation | Temporal winner takes all spiking neuron network sensory processing apparatus and methods |
US9047568B1 (en) | 2012-09-20 | 2015-06-02 | Brain Corporation | Apparatus and methods for encoding of sensory data using artificial spiking neurons |
JP2013021635A (ja) * | 2011-07-14 | 2013-01-31 | Sony Corp | 画像処理装置、画像処理方法、プログラム、及び記録媒体 |
US9098811B2 (en) | 2012-06-04 | 2015-08-04 | Brain Corporation | Spiking neuron network apparatus and methods |
JP5412692B2 (ja) * | 2011-10-04 | 2014-02-12 | 株式会社モルフォ | 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体 |
WO2013086601A1 (en) * | 2011-12-12 | 2013-06-20 | The University Of British Columbia | System and method for determining a depth map sequence for a two-dimensional video sequence |
US9224090B2 (en) | 2012-05-07 | 2015-12-29 | Brain Corporation | Sensory input processing apparatus in a spiking neural network |
US9129221B2 (en) | 2012-05-07 | 2015-09-08 | Brain Corporation | Spiking neural network feedback apparatus and methods |
US9412041B1 (en) | 2012-06-29 | 2016-08-09 | Brain Corporation | Retinal apparatus and methods |
US9311594B1 (en) | 2012-09-20 | 2016-04-12 | Brain Corporation | Spiking neuron network apparatus and methods for encoding of sensory data |
US9183493B2 (en) | 2012-10-25 | 2015-11-10 | Brain Corporation | Adaptive plasticity apparatus and methods for spiking neuron network |
US9218563B2 (en) | 2012-10-25 | 2015-12-22 | Brain Corporation | Spiking neuron sensory processing apparatus and methods for saliency detection |
US9111226B2 (en) | 2012-10-25 | 2015-08-18 | Brain Corporation | Modulated plasticity apparatus and methods for spiking neuron network |
US9275326B2 (en) | 2012-11-30 | 2016-03-01 | Brain Corporation | Rate stabilization through plasticity in spiking neuron network |
US9123127B2 (en) | 2012-12-10 | 2015-09-01 | Brain Corporation | Contrast enhancement spiking neuron network sensory processing apparatus and methods |
US9177245B2 (en) | 2013-02-08 | 2015-11-03 | Qualcomm Technologies Inc. | Spiking network apparatus and method with bimodal spike-timing dependent plasticity |
US9239985B2 (en) | 2013-06-19 | 2016-01-19 | Brain Corporation | Apparatus and methods for processing inputs in an artificial neuron network |
US9436909B2 (en) | 2013-06-19 | 2016-09-06 | Brain Corporation | Increased dynamic range artificial neuron network apparatus and methods |
US9552546B1 (en) | 2013-07-30 | 2017-01-24 | Brain Corporation | Apparatus and methods for efficacy balancing in a spiking neuron network |
US9489623B1 (en) | 2013-10-15 | 2016-11-08 | Brain Corporation | Apparatus and methods for backward propagation of errors in a spiking neuron network |
US9939253B2 (en) | 2014-05-22 | 2018-04-10 | Brain Corporation | Apparatus and methods for distance estimation using multiple image sensors |
US9713982B2 (en) | 2014-05-22 | 2017-07-25 | Brain Corporation | Apparatus and methods for robotic operation using video imagery |
US10194163B2 (en) | 2014-05-22 | 2019-01-29 | Brain Corporation | Apparatus and methods for real time estimation of differential motion in live video |
US9848112B2 (en) | 2014-07-01 | 2017-12-19 | Brain Corporation | Optical detection apparatus and methods |
US10057593B2 (en) | 2014-07-08 | 2018-08-21 | Brain Corporation | Apparatus and methods for distance estimation using stereo imagery |
US9870617B2 (en) | 2014-09-19 | 2018-01-16 | Brain Corporation | Apparatus and methods for saliency detection based on color occurrence analysis |
US9881349B1 (en) | 2014-10-24 | 2018-01-30 | Gopro, Inc. | Apparatus and methods for computerized object identification |
US10197664B2 (en) | 2015-07-20 | 2019-02-05 | Brain Corporation | Apparatus and methods for detection of objects using broadband signals |
US11074671B2 (en) | 2017-12-18 | 2021-07-27 | Samsung Electronics Co., Ltd. | Electronic apparatus and control method thereof |
KR101882704B1 (ko) | 2017-12-18 | 2018-07-27 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US11321813B2 (en) * | 2018-08-02 | 2022-05-03 | Apple Inc. | Angular detection using sum of absolute difference statistics systems and methods |
CN113506279B (zh) * | 2021-07-22 | 2024-07-02 | 浙江大华技术股份有限公司 | 对象倾斜角度的确定方法、装置、存储介质及电子装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3438233B2 (ja) * | 1992-05-22 | 2003-08-18 | ソニー株式会社 | 画像変換装置および方法 |
KR100360206B1 (ko) * | 1992-12-10 | 2003-02-11 | 소니 가부시끼 가이샤 | 화상신호변환장치 |
US5852470A (en) | 1995-05-31 | 1998-12-22 | Sony Corporation | Signal converting apparatus and signal converting method |
JP3859089B2 (ja) * | 1995-05-31 | 2006-12-20 | ソニー株式会社 | 信号変換装置及び信号変換方法 |
US6160845A (en) * | 1996-12-26 | 2000-12-12 | Sony Corporation | Picture encoding device, picture encoding method, picture decoding device, picture decoding method, and recording medium |
US5912708A (en) * | 1996-12-26 | 1999-06-15 | Sony Corporation | Picture signal encoding device, picture signal encoding method, picture signal decoding device, picture signal decoding method, and recording medium |
KR100252988B1 (ko) * | 1997-01-27 | 2000-04-15 | 구자홍 | 에이치디 티브이(hdtv)의 영상포멧 변환장치 및 방법 |
JPH10327392A (ja) * | 1997-05-23 | 1998-12-08 | Sony Corp | 走査線変換装置および方法 |
JPH1169144A (ja) | 1997-08-12 | 1999-03-09 | Sony Corp | 画像信号の変換装置および変換方法 |
JP4158232B2 (ja) * | 1998-07-23 | 2008-10-01 | ソニー株式会社 | 画像情報変換装置および画像表示装置 |
US6636222B1 (en) * | 1999-11-09 | 2003-10-21 | Broadcom Corporation | Video and graphics system with an MPEG video decoder for concurrent multi-row decoding |
JP4517409B2 (ja) * | 1998-11-09 | 2010-08-04 | ソニー株式会社 | データ処理装置およびデータ処理方法 |
US6600517B1 (en) * | 2000-03-07 | 2003-07-29 | Koninklijke Philips Electronics N.V. | System and method for improving the sharpness of a video image |
JP4470280B2 (ja) * | 2000-05-24 | 2010-06-02 | ソニー株式会社 | 画像信号処理装置及び画像信号処理方法 |
JP4277446B2 (ja) * | 2000-12-26 | 2009-06-10 | ソニー株式会社 | 情報信号処理装置、情報信号処理方法、画像信号処理装置およびそれを使用した画像表示装置、それに使用される係数種データ生成装置および生成方法、並びに記録媒体 |
US6903782B2 (en) * | 2001-03-28 | 2005-06-07 | Koninklijke Philips Electronics N.V. | System and method for performing segmentation-based enhancements of a video image |
EP1326436B1 (en) * | 2001-12-28 | 2013-02-13 | Sony Corporation | Displaying information |
JP4265237B2 (ja) | 2003-02-27 | 2009-05-20 | ソニー株式会社 | 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム |
-
2003
- 2003-02-27 JP JP2003050208A patent/JP4265237B2/ja not_active Expired - Fee Related
-
2004
- 2004-02-13 WO PCT/JP2004/001607 patent/WO2004077828A1/ja active Application Filing
- 2004-02-13 US US10/545,074 patent/US7450764B2/en not_active Expired - Fee Related
- 2004-02-13 CN CN2004800052509A patent/CN100407787C/zh not_active Expired - Fee Related
- 2004-02-13 KR KR1020057016028A patent/KR101023451B1/ko not_active IP Right Cessation
-
2008
- 2008-03-07 US US12/044,557 patent/US7483565B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009524861A (ja) * | 2006-01-26 | 2009-07-02 | ヴェステル エレクトロニック サナイ ヴェ ティカレット アノニム シュルケット | デジタル画像の解像度向上方法及び装置 |
WO2009038154A1 (en) * | 2007-09-19 | 2009-03-26 | Sharp Kabushiki Kaisha | Adaptive image up-scaling technique |
US8655108B2 (en) | 2007-09-19 | 2014-02-18 | Sharp Laboratories Of America, Inc. | Adaptive image up-scaling technique |
Also Published As
Publication number | Publication date |
---|---|
US7450764B2 (en) | 2008-11-11 |
CN1754384A (zh) | 2006-03-29 |
KR101023451B1 (ko) | 2011-03-24 |
US20060146198A1 (en) | 2006-07-06 |
US7483565B2 (en) | 2009-01-27 |
CN100407787C (zh) | 2008-07-30 |
JP4265237B2 (ja) | 2009-05-20 |
KR20050104412A (ko) | 2005-11-02 |
WO2004077828A1 (ja) | 2004-09-10 |
US20080199072A1 (en) | 2008-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4265237B2 (ja) | 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム | |
JP4148041B2 (ja) | 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体 | |
JP5777311B2 (ja) | 低解像度ビデオから高解像度ビデオを生成する方法 | |
JP4392584B2 (ja) | 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体 | |
JP2004264925A (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
US20100202711A1 (en) | Image processing apparatus, image processing method, and program | |
CN113902611A (zh) | 图像美颜处理方法、装置、存储介质与电子设备 | |
CN114049278A (zh) | 图像美颜处理方法、装置、存储介质与电子设备 | |
JP2009212605A (ja) | 情報処理方法、情報処理装置及びプログラム | |
CN114565532A (zh) | 视频美颜处理方法、装置、存储介质与电子设备 | |
JP4660979B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4423537B2 (ja) | 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体 | |
JP2010219715A (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
JP4182827B2 (ja) | 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体 | |
JP2004259232A (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4325296B2 (ja) | 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体 | |
JP4182826B2 (ja) | 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体 | |
Neuenhahn et al. | Pareto optimal design of an FPGA-based real-time watershed image segmentation | |
JP2004265120A (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4264631B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4264632B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP2004264947A (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP2004264944A (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP2007235312A (ja) | 画像信号処理装置および方法、学習装置および方法、プログラム、並びに記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060214 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081028 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090127 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090209 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140227 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |