JP6772000B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP6772000B2 JP6772000B2 JP2016165671A JP2016165671A JP6772000B2 JP 6772000 B2 JP6772000 B2 JP 6772000B2 JP 2016165671 A JP2016165671 A JP 2016165671A JP 2016165671 A JP2016165671 A JP 2016165671A JP 6772000 B2 JP6772000 B2 JP 6772000B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- misalignment
- data
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 94
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000012937 correction Methods 0.000 claims description 135
- 238000004364 calculation method Methods 0.000 claims description 46
- 238000012952 Resampling Methods 0.000 claims description 25
- 210000000746 body region Anatomy 0.000 claims description 5
- 238000000034 method Methods 0.000 description 69
- 239000000872 buffer Substances 0.000 description 53
- 238000010586 diagram Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 15
- 238000006073 displacement reaction Methods 0.000 description 9
- 238000001914 filtration Methods 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 238000012935 Averaging Methods 0.000 description 3
- 230000002146 bilateral effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000012886 linear function Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000002939 conjugate gradient method Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20182—Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20201—Motion blur correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Description
また他の手法としては、時系列な連続画像上に存在する揺らぎを、画像間の動ベクトルとして抽出し、動ベクトルを追跡して揺らぎの中心を求め、中心位置に揺らぎの起点となる部分画像又は画素を再配置する方法がある(特許文献2)。
ここで、特許文献1及び特許文献2で開示されている揺らぎ補正技術では、撮像画像中に移動している被写体(動体)が存在する場合には、当該被写体の移動が揺らぎと誤認識されて結果的に画質の劣化が生じてしまう。
これに対して、補正対象画像と時間的に近い画像に存在する移動物体の画素値を用いて移動物体の動き情報を求め、動き補償を行う方法が提案されている(特許文献3)。また、時間的に近い画像の移動量に対して時系列のフィルタを適用することで、揺らぎによる変形量を算出し補正する方法も提案されている(非特許文献1)。
本発明は上記課題を解決するためになされたものであり、移動被写体を含む画像データ中の長周期の揺らぎを良好に補正することを課題とする。
<撮像装置の全体構成>
本発明の実施形態1に係る撮像装置では、時間的に連続して撮像された複数の画像データのうち時間的に近傍する複数の画像データを用いて、処理対象の画像データに対して揺らぎ補正を行って第1の補正データを得る。また、この撮像装置では、基準画像データと処理対象の画像データまたは第1の補正データとの間の位置ずれ量を、第1の位置ずれデータとして算出し、さらに、複数の画像データに含まれる動体領域を判定する。
また、この撮像装置では、第1の位置ずれデータまたは第1の補正データに基づいて、判定された動体領域における第1の位置ずれデータを補間して、第2の位置ずれデータを算出する。さらに、この撮像装置では、第2の位置ずれデータに基づいて、処理対象の画像データまたは第1の補正データを補正して、第2の補正データを得るようになっている。
第1の補正データは、少なくとも、処理対象の画像データに対して揺らぎ補正を行った揺らぎ補正画像データと揺らぎによる位置ずれ量を示す位置ずれデータのいずれかを含んでいる。
この撮像装置は、被写体を撮像して画像データを出力する撮像部1と、画像データに対するデータ処理を行う画像処理部2と、画像データを符号化するエンコーダ部3と、画像データに対する信号処理を行うデジタル信号処理部4とを備えている。
撮像部1は、詳細は後述するが、光学系によって結像された像を撮像素子により画像データへと変換するプロセスを繰り返すことで、被写体を時間的に連続して撮像した複数の画像データを取得する。
画像処理部2は、詳細は後述するが、撮像部1により取得された複数の画像データに対して揺らぎ補正処理を行う。エンコーダ部3は、画像処理部2による揺らぎ補正処理の結果生成された画像データのエンコード(符号化)処理を行う。デジタル信号処理部4は撮像部1により取得された画像データの輝度値の調整や欠陥画素の補間などを行う。これらの処理は画像処理部2による処理の前に行われる。
CPU11は、各構成の処理全てに関わり、ROM12やRAM13に格納された命令を順に読み込み、解釈し、その結果に従って処理を実行する。また、ROM12とRAM13は、その処理に必要なプログラム、データ、作業領域などをCPU11に提供する。
操作部14は、ボタンやモードダイヤル等から構成され、これらを介して入力されたユーザーの指示を受け取る。
表示制御部15は、表示部16の表示を制御する。表示部16は、一般的には液晶ディスプレイが広く用いられており、キャラクタ生成部19や表示制御部15から受け取った撮像画像データや文字の表示を行う。また、表示部16がタッチスクリーン機能を有していても良く、その場合は、ユーザーによるタッチスクリーンの指示を操作部14の入力として扱うようにしてもよい。
メディアインターフェース17は、PCやその他のメディア(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)18に接続するためのインターフェースである。メディアインターフェース17を介してエンコーダ部3でエンコードされた画像データの出力が行われる。バス20は、各構成要素間で、データや処理の指示をやり取りするための経路として機能する。
なお、装置の構成要素は上記以外にも存在してよいが、本実施形態の主眼ではないので、説明を省略する。
以下、図2のブロック図により撮像部1の構成例を説明する。
撮像部1は、結像光学系を構成するレンズ21及びレンズ22と、絞り23と、赤外線(IR)カットフィルタ24と、ローパスフィルタ25と、カラーフィルタ26と、撮像素子27と、A/D変換部28と、バッファ29と、撮像素子制御部30とを備えている。
被写体からの光は、結像光学系により、絞り23、IRカットフィルタ24、ローパスフィルタ25、カラーフィルタ26を通過した後に、撮像素子27上に結像される。
なお、ここで示した光学系の構成は、説明のために単純化した例であり、撮像素子上に被写体の像を結像させる機能を有すればどのような構成でも構わない。また、カラー画像を取得する構成について説明したが、取得する画像は白黒や4色以上の画素を持つ画像、画素毎に露出の異なる画像でも構わない。また、オートフォーカスやズームなどの機構を持たせても構わない。
撮像素子27及びA/D変換部28は、CMOSイメージセンサなどのイメージセンサに相当する。撮像素子27は、2次元の格子状に配列され、結像された像を電気信号に変換する。A/D変換部28は、電気信号に変換された像の情報をデジタル信号に変換する。A/D変換部28によりデジタル信号に変換された像の情報(電気信号)は、バッファ29内に格納され画像データとなる。
撮像は連続的に行われ、バッファ29に格納された各画像データは、バス20を介して順次画像処理部2に送られる。
本実施形態の前提となる補正方法、すなわち時間的に近傍の画像を用いて、移動している被写体(移動被写体)を破綻させずに連続して撮像された画像中の揺らぎを補正する方法の原理について説明する。
時間的に近傍の画像を用いて揺らぎを補正する方法としては、各画素の時系列の画素値に対して時系列の平均値フィルタやメディアンフィルタを適用する方法と、各画素の時系列の位置ずれに対して時系列のフィルタを適用し画像を変形する方法とがある。ここでは、この2つの方法について原理を説明する。
図3は、揺らぎによる位置ずれを表した模式図である。以降の説明では、動画像(映像)を構成する時系列に並んだ画像データをフレームと呼ぶものとする。
図3(a)は、被写体が静止している静止領域における位置ずれの例を表している。符号31は、被写体上のある点の揺らぎが無かった場合に映る本来の位置であり、符号32〜36は、フレームn〜n+4において符号31に対応する点が実際に映っている位置である。符号31の位置に撮像されるべき点は、揺らぎによって位置が変動することで、フレーム毎にそれぞれ符号32〜36の位置にばらついて撮像される。
図3(b)は、被写体が動いている動体領域における位置ずれを表している。符号37〜41は、フレームn〜n+4において被写体上のある点の揺らぎが無かった場合に映る本来の位置であり、フレームが進む毎に右に移動している。符号42〜46は、フレームn〜n+4において、符号37〜41に対応する点が実際に撮像された位置である。符号37〜41の位置に撮像されるべき点は、揺らぎによって位置が変動することで、フレーム毎にそれぞれ符号42〜46の位置にばらついて撮像される。
図4(a)は、静止領域の場合の被写体の本来の位置の推定を示す例であり、被写体上のある点がフレームn〜n+4において映っている位置を、フレームn+2における位置を基準とした位置ずれ量(位置ずれの量)で表している。ここでは本来の位置の推定を、時間と位置ずれ量の関係の1次関数へのフィッティングに基づいて行う例を示す。グラフ中の水平の実線が推定された本来の位置であり、静止領域であるためフレーム間の位置ずれ量の変動は無い。フレームn+2において着目している点の揺らぎを補正するには、dn+2だけ画素の位置を移動させれば良い。このフィッティングによる本来の位置の推定と補正を補正対象の画像の各画素に対してそれぞれ行うことで、画像データ全体に対する揺らぎ補正を行うことができる。
この方法では位置ずれ量の算出が必要であるため、移動被写体の位置ずれが大きくなるような時間的に離れたフレームを用いると、位置ずれ量の算出に失敗して破綻してしまう。そのため、時間的に近傍の画像を用いて補正処理を行う必要がある。
ここでは、図5(a)を例に、フレームnからフレームn+4を用いて、揺らぎ補正された画像データにおける画素位置51の画素値を算出する原理について説明する。
図5(a)では、被写体52が各フレームにおいて揺らぎによる変形を伴いながら撮像されている。画素位置51における画素値は、揺らぎによる変形のため、撮像される被写体の位置がフレームによって変動している。
この方法では、移動被写体の位置ずれが大きくなるような時間的に離れたフレームを用いると、移動被写体の位置合わせに失敗したり、移動被写体の画素値の出現頻度が低下して移動被写体が補正結果から消えたりする。そのため、時間的に近傍の画像データを用いて処理を行う必要がある。
上記のような時間的に近傍の画像データを用いた揺らぎ補正では、補正処理で参照したフレーム数を超えるような長周期に亘るフレーム間の揺らぎが残存してしまう。
これに対して、本実施形態では、時間的に長周期な揺らぎが時間的に長周期であるという性質を利用して、移動被写体領域の残存揺らぎ量(残存位置ずれ量)を、それ以外の領域(静止領域等)のデータに基づき補間処理により生成する。
図6は、残存揺らぎ補正の概念を表す模式図である。本実施形態では、入力画像61から前述の近傍画像揺らぎ補正を用いて、揺らぎ補正画像62を生成する。また、全入力画像を平均するなどして、近傍画像揺らぎ補正より多数のフレームを用いて揺らぎを補正し、基準画像63を生成する。
このとき、基準画像63においては、揺らぎ補正画像62より多数のフレームを用いて揺らぎ補正処理を行っているため、移動被写体領域は破綻するか消失してしまうことがあるが、揺らぎもほぼ残存しない。
以下、図7のブロック図により、上記の処理を実行する画像処理部2の構成例を説明する。
この画像処理部2は、画像取得部71と、近傍画像揺らぎ補正部72と、基準画像生成部73と、位置ずれ算出部74と、動体判定部75と、位置ずれ補間部76と、リサンプリング部77と、画像出力部78とを備えている。
画像取得部71は、撮像部1によって連続的に撮像された複数の画像データを、バス20を介して1フレームずつ取得する。
近傍画像揺らぎ補正部72は、画像取得部71が取得した画像データに対して、時間的に近傍の画像のみを用いた揺らぎ補正を適用し、揺らぎ補正画像データと被写体の移動速度データとを生成する。詳細は後述する。
基準画像生成部73は、画像取得部71が取得した画像データより、近傍画像揺らぎ補正部72によって生成された揺らぎ補正画像データに残存する揺らぎ(残存位置ずれ量)を推定する位置合わせの基準となる画像データ(基準画像データ)を生成する。
動体判定部75は、近傍画像揺らぎ補正部72が生成した揺らぎ補正画像データ及び移動速度データと、位置ずれ算出部74が算出した位置ずれ量とに基づき、移動被写体が存在する画像上の領域を判定し、動体マップデータを生成する。詳細は後述する。
位置ずれ補間部76は、位置ずれ算出部74が算出した位置ずれ量において、動体判定部75が生成した動体マップデータで移動被写体が存在するとされる領域について、位置ずれ量の補間を行う。詳細は後述する。
画像出力部78は、リサンプリング部77が生成した出力画像データを、バス20を介して出力する。
以下、図8を用いて画像処理部2の処理概略の流れの一例を説明する。それぞれのステップにおける処理詳細は後述する。
S1では、画像取得部71が、撮像部1によって撮像された画像データを、バス20を介して新たに1フレーム取得する。
S2では、近傍画像揺らぎ補正部72が、S1で取得した画像データに基づき揺らぎ補正を行い、揺らぎ補正画像データと被写体の移動速度データを生成する。
S3では、基準画像生成部73が、基準画像データを生成する。
S4では、位置ずれ算出部74が、S3で生成した基準画像データと、S2で生成した揺らぎ補正画像データとの間の位置ずれ量を算出する。
S6では、位置ずれ補間部76が、S4で算出された位置ずれ量に対して、S5で生成された動体マップデータで移動被写体とされた領域の補間を行う。
S7では、リサンプリング部77が、S6で補間され位置ずれ量に基づき、S2で生成された補正画像データを、基準画像データに重なるようリサンプリングする。
S8では、画像出力部78が、S7でリサンプリングされた画像データを出力画像データとして出力する。
以下、近傍画像揺らぎ補正部72の構成と処理の例を説明する。図9、図10は、画素値をフィルタ処理することで揺らぎを補正する方法の例であり、図11、図12は、位置ずれをフィッティングして求めた位置に合わせて各画像を変形することで揺らぎを補正する方法の例である。本実施形態では、後者の方法を用いるものとするが、どちらの方法を用いても構わない。また、移動被写体領域を破綻させず、長周期の揺らぎ(残存位置ずれ量)が残存するような揺らぎ補正であれば、他のどのような方法を用いて揺らぎ補正を行っても構わない。
この近傍画像揺らぎ補正部72は、画像取得部81と、第1〜第5バッファ82〜86と、動体位置合わせ部87と、画素値フィルタ部88とを備えている。
画像取得部81は、画像取得部71から順次入力される画像データを取得する。取得された画像データは、第1バッファ82から第5バッファ86で保持される。取得された直後の画像データはまず、第1バッファ82に格納され、新たな画像データが入力されるたびに、次のバッファに移動される。
画素値フィルタ部88は、動体位置合わせ部87が出力した画像データに対して、画素毎に平均値を算出することで時系列のフィルタ処理を行い、揺らぎ補正画像データを生成する。なお、時系列フィルタ処理は平均値フィルタ以外に中間値フィルタやバイラテラルフィルタなど、揺らぎが補正されるならばどのような方法を用いても構わない。
S11では、近傍画像揺らぎ補正部72が、カウンタnをバッファ数Nに設定する。
S12では、近傍画像揺らぎ補正部72が、バッファn−1の画像データをバッファnにコピーする。ここでバッファは、図9の各バッファ82〜86を表すものとする。
S13では、近傍画像揺らぎ補正部72が、カウンタnにn−1を代入する。
S14では、近傍画像揺らぎ補正部72が、カウンタnが1より大きいか判定し、1より大きければS12に戻って処理を繰り返し、1以下であればS15に進む。S11からS14の処理で、第5バッファ86に格納されている画像データを破棄し、第1バッファ82から第4バッファ85までに格納されている画像データを次のバッファにコピーする。
S16からS19では、動体位置合わせ部87が、バッファ(N+1)/2すなわち第3バッファ84に重なるように、各バッファに格納された画像データを位置合わせする。
S16では、近傍画像揺らぎ補正部72が、カウンタnをバッファ数Nに設定する。
S17では、動体位置合わせ部87が、バッファnの画像データの位置合わせを行う。
S18では、近傍画像揺らぎ補正部72が、カウンタnにn−1を代入する。
S19では、近傍画像揺らぎ補正部72が、カウンタnが0より大きいか判定し、0より大きければS17に戻って処理を繰り返し、0以下であればS20に進む。
S20では、画素値フィルタ部88が、各バッファに格納されている画像データに対して時系列フィルタ処理を行い、揺らぎ補正画像データを生成する。
S21では、画素値フィルタ部88が、揺らぎ補正画像データを出力する。
この近傍画像揺らぎ補正部72’は、画像取得部81と、第1〜第5バッファ82〜86と、位置ずれ算出部91と、位置ずれフィッティング部92と、リサンプリング部93とを備えている。画像取得部81及び第1バッファ82から第5バッファ86の機能は図9の例と同様である。
位置ずれ算出部91は、第3バッファ84に格納されている画像データの各画素が、各バッファに格納されている画像データ上のどの位置に対応するかを表す位置ずれ量を算出する。位置ずれ量算出の詳細は後述する。
リサンプリング部93は、第3バッファ84に格納された画像データの各画素が、位置ずれフィッティング部92で算出した関数が示す位置に移動するようリサンプリングを行い、揺らぎ補正画像データを生成する。
S11からS19における処理は、図10の例と同様である。
なお、この図12では、図10のS17に対応する処理として、S17’において、位置ずれ算出部91が、バッファnの画像データの位置ずれ量を算出する。
S31では、位置ずれ算出部91が、バッファ(N+1)/2、すなわち第3バッファ84に格納されている画像データに対する、各バッファに格納された画像データの位置ずれ量を算出する。
S33では、リサンプリング部93が、バッファ(N+1)/2、すなわち第3バッファ84に格納された画像データの各画素が、位置ずれフィッティング部92で算出した関数が示す位置に移動するようリサンプリングを行い、揺らぎ補正画像データを生成する。
S34では、リサンプリング部93が、揺らぎ補正画像データを出力する。
なお、ここでは用いる画像データの数を5フレームとし、時間的に中央に位置する画像データを基準として処理を行ったが、用いる画像データの数はいくつであっても構わない。また、基準とする画像データはどれであっても構わない。
位置ずれ算出部74は、位置合わせの基準となる画像データから対象になる画像データへの位置ずれ量を算出する。
本実施形態では、位置ずれ算出部74は、以下の文献に示されているHorn−Schunckの方法を用いて、対象画像データと基準画像データとの位置ずれ量を算出する。
“Determining optical flow”, Horn, B. K. P. and Schunck, B.G.,1981,Artificial Intelligence,17:185-203.
Horn−Schunckの方法では、式(1)で表されるエネルギー関数Eを最小化する位置ずれ量u,vを繰り返しの演算で求める。このとき、Ix、Iyは、基準画像データの画素値のx方向、y方向の微分であり、Itは、位置ずれ量を算出する2つの画像間の輝度の変動である。
Ix(Ixu+Iyv+If)―α2Δu=0
Iy(Ixu+Iyv+If)―α2Δu=0 (2)
この位置ずれ算出部74は、差分画像生成部101と、微分画像生成部102と、位置ずれ初期化部103と、バッファ104と、位置ずれ更新部105と、位置ずれ出力部106とを備えている。
差分画像生成部101は、基準画像データと対象画像データとの差分画像を生成する。基準画像データ上の(i,j)の位置の画素値をIi,j,0とし、対象画像データ上の(i,j)の位置の画素値をIi,j,1としたとき、差分画像データ上の(i,j)の位置の値It i,jは、式(6)を用いて算出する。
バッファ104は、式(5)に基づく繰り返し処理の間、計算途中の位置ずれ量を格納しておくバッファである。
位置ずれ更新部105は、式(5)に基づいて、微分画像生成部102が生成した微分画像データと、差分画像生成部101が生成した差分画像データとから、バッファ104に格納された計算途中の位置ずれ量を更新する。
位置ずれ出力部106は、位置ずれ更新部105による所定の回数の繰り返し処理が完了した後、バッファ104に格納された位置ずれ量を出力する。
S41では、差分画像生成部101が、対象画像データと基準画像データとを取得する。
S42では、差分画像生成部101が、対象画像データと基準画像データとの差分画像データを生成する。
S43では、微分画像生成部102が、基準画像データのx微分とy微分の微分画像データを生成する。
S44では、位置ずれ初期化部103が、位置ずれ量を初期化してバッファ104に格納する。
S45では、位置ずれ更新部105が、S41で生成した差分画像データと、S42で生成した微分画像データに基づき、バッファ104に格納された位置ずれ量を更新する。
S47では、位置ずれ出力部106が、位置ずれ量を出力する。
なお、本実施形態における位置ずれ算出の方法は一例であり、別の手法によって算出しても構わない。例えば、領域毎にブロックマッチングを行う方法や、特徴点の対応を補間して画素位置の対応を求める方法で算出しても構わない。また、画素間の対応を規定する情報ならばどのような形態の情報を算出しても構わない。
動体判定部75は、基準画像データ上のどの領域に移動被写体が存在するか、基準画像データ、揺らぎ補正画像データ、移動速度データに基づき判定し、動体マップデータを生成する。
図15は、動体判定部75の構成の一例である。
この動体判定部75は、基準画像取得部111、対象画像取得部112、位置ずれ取得部113、移動速度取得部114、リサンプリング部115、類似度判定部116、位置ずれ判定部117、移動速度判定部118及び動体マップ生成部119を備えている。
対象画像取得部112は、位置合わせ対象の画像データとしての揺らぎ補正画像データを、近傍画像揺らぎ補正部72から取得する。
位置ずれ取得部113は、位置ずれ算出部74から位置ずれ量を取得する。
移動速度取得部114は、近傍画像揺らぎ補正部72から移動速度データを取得する。
リサンプリング部115は、位置ずれ量に基づき対象画像データを基準画像データに重なるよう変形してリサンプリングする。
ここで、移動被写体が存在しない領域は位置合わせが良好に機能し基準画像と整合するが、移動被写体が存在する領域は基準画像と整合しないため、類似度が低下する。したがって、類似度判定部116は、類似度が低い領域を移動被写体が存在する領域として判定する。類似度の算出と判定にはどのような方法を用いても構わないが、本実施形態では画素毎に各チャネルの差分2乗和を類似度の指標として算出し、値が大きいほど類似していないものとして閾値tcで判定を行うものとする。画素位置xにおける基準画像データの画素値をIr(x)し、対象画像データの画素値をIt(x)とすると、類似度判定部116で生成される動体マップMcは式(9)のようになる。
移動被写体が存在する領域は、基準画像データと対象画像データが整合しないため、位置合わせに失敗して位置ずれ量が妥当でない大きさになる場合がある。したがって、位置ずれ判定部117は、位置ずれ量の大きい領域を移動被写体が存在する領域として判定する。
なお、位置ずれ量に基づく判定にはどのような方法を用いても構わないが、本実施形態では画素毎に位置ずれ量の絶対値を算出し、閾値tdにより判定を行うものとする。画素位置xにおける位置ずれ量ベクトルをd(x)とすると、位置ずれ判定部117で生成される動体マップMdは式(10)のようになる。
なお、移動速度に基づく判定にはどのような方法を用いても構わないが、本実施形態では画素毎に移動速度の絶対値を算出し、閾値tvにより判定を行うものとする。画素位置xにおける移動速度ベクトルをv(x)とすると、移動速度判定部118で生成される動体マップMvは式(11)のようになる。
M=MC∪Md∪Mv (12)
S51では、基準画像取得部111が、基準画像データを取得する。
S52では、対象画像取得部112が、位置合わせ対象の画像データとしての揺らぎ補正画像データを取得する。
S53では、位置ずれ取得部113が、位置ずれ量を取得する。
S54では、移動速度取得部114が、移動速度データを取得する。
S55では、リサンプリング部115が、S53で取得した位置ずれ量に基づき、S52で取得した対象画像データを基準画像データに重なるよう変形してリサンプリングする。
S57では、位置ずれ判定部117が、S53で取得された位置ずれ量に基づき移動被写体が存在する動体領域を判定する。
S58では、移動速度判定部118が、S54で取得された移動速度に基づき移動被写体が存在する動体領域を判定する。
S59では、動体マップ生成部119が、S56からS58での判定結果を合成して動体マップを生成する。
なお、本実施形態で用いた動体判定の方法は一例であり、位置ずれ量の算出が失敗している領域を判定できるならばどのような方法を用いても構わない。例えば、本実施形態で用いた判定方法のうちの一部だけを用いても構わない。
位置ずれ補間部76は、位置ずれ算出部74が算出した入力位置ずれ量に対して、動体判定部75が生成した動体マップで移動被写体領域と判定された領域の補間を行い、補間された出力位置ずれ量を生成する。補間される位置ずれは、移動被写体領域以外の位置ずれ量に基づいて算出する。
なお、位置ずれ量の補間は、補間された位置ずれ量が時空間的に滑らかになるような方法であれば、どのような方法を用いても構わない。本実施形態では位置ずれ量のx,y方向それぞれの成分の時空間ラプラシアンが小さくなるよう最適化処理を行うことで算出するものとする。動体マップをM、ラプラシアンフィルタをflapとし、入力位置ずれ量の処理対象の成分をDdatとすると、補間位置ずれ量をDintは式(13)のような評価関数Eを最小化することで算出できる。
この位置ずれ補間部76は、位置ずれ取得部121と、動体マップ取得部122と、補間位置ずれ初期化部123と、バッファ124と、位置ずれ更新部125と、位置ずれ出力部126とを備えている。
位置ずれ取得部121は、位置ずれ算出部74から位置ずれ量を取得する。
動体マップ取得部122は、動体判定部75から動体マップデータを取得する。
補間位置ずれ初期化部123は、更新処理によって生成される補間位置ずれ量の初期値を生成し、バッファ124に格納する。
なお、ここでは、入力位置ずれ量をそのまま用いるものとするが、近傍の平均位置ずれ量を用いても構わないし、階層的な処理を行って粗いスケールの出力から初期値を生成する構成としても構わない。
位置ずれ更新部125は、位置ずれ取得部121が取得した位置ずれ量と動体マップ取得部122が取得した動体マップデータとバッファ124に格納された補間位置ずれ量とに基づき、補間位置ずれ量の更新を行い、結果をバッファ124に格納する。この処理を繰り返すことで最終的な補間位置ずれ量がバッファ124内に生成される。更新量の算出は、最急降下法や共役勾配法などを用いて、式(13)から解析的にあるいは数値計算的に算出する。
位置ずれ出力部126は、バッファ124に格納されている補間位置ずれ量を出力位置ずれ量として、リサンプリング部77に出力する。出力位置ずれ量Doutは、入力位置ずれ量の処理対象の成分をDdat、補間位置ずれ量をDintとすると、式(14)のようになる。
DOUT=(1−M)・Ddat+M・Dint (14)
S61では、位置ずれ取得部121が、位置ずれ量を取得する。
S62では、動体マップ取得部122が、動体マップデータを取得する。
S63では、補間位置ずれ初期化部123が、更新処理によって生成される補間位置ずれ量の初期値を生成する。
S64では、位置ずれ更新部125が、S61で取得した位置ずれ量とS62で取得した動体マップデータと補間位置ずれ量とに基づき、補間位置ずれ量の更新を行う。
S65では、位置ずれ更新部125が、所定の回数処理を繰り返したか判定する。条件を満たしていなければS64に戻り処理を継続する。条件を満たしていればS66に進む。なお、処理を終了する条件は、繰り返し回数以外を基準としても構わない。
S66では、位置ずれ出力部126が、補間位置ずれ量を出力位置ずれ量として出力する。
これにより、本実施形態によれば、移動する被写体を含む画像データ中の長周期の揺らぎを良好に補正することができる。
実施形態1では、近傍画像揺らぎ補正を適用した画像データの基準画像データに対する位置ずれ量を算出し、リサンプリングすることで残存する長周期の揺らぎを補正していた。第2の実施形態では、位置ずれ量のフィッティングに基づく近傍画像揺らぎ補正を用いることで、位置ずれ量135をさらに算出する。
図19は、本実施形態における、揺らぎ補正の処理を概念的に示す図である。
本実施形態では、実施形態1と同様に入力画像131から揺らぎ補正画像132と基準画像133を生成し、基準画像133と揺らぎ補正画像132の位置ずれ量134を位置合わせにより算出する。また、本実施形態では、位置ずれ量のフィッティングに基づく近傍画像揺らぎ補正を用いることで、位置ずれ量135をさらに算出する。位置ずれ量135が残存揺らぎであり、これに対して補間処理を行う。画素位置xでの位置ずれ量134をdres(x)、補間されたdres(x)をd′res(x)、位置ずれ量135をdnear(x)とすると、残存揺らぎが補正された画像から入力画像131への位置ずれ量dcor(x)は式(15)のように合成できる。リサンプリング部77が、この位置ずれ量dcorに基づき、入力画像131をリサンプリングすることで、最終的な揺らぎ補正画像を生成する。
dcor(x)=d−1 near{dres(x)+x} (15)
図20は、本実施形態の画像処理部2の構成例を表す図である。この画像処理部2は、図7に示す実施形態1の構成に加えて、式(15)による位置ずれ量の合成を行う位置ずれ合成部141が追加されている。
本実施形態では、図21に示すように、入力画像131から基準画像133を生成するが、揺らぎ補正画像132は生成しない。基準画像133と入力画像131の位置ずれ量136を位置合わせにより算出する。また、仮想的な揺らぎ補正画像132と入力画像131の位置ずれ量135を、近傍画像揺らぎ補正により算出する。仮想的な揺らぎ補正画像132と仮想的な揺らぎ補正画像132の位置ずれ量134は位置ずれ量136と135を合成することで算出する。
dres(x)=dnear{d−1 ref(x)+x} (16)
図22は、本実施形態の画像処理部2の構成例を表す図である。この実施形態における位置ずれ算出部74は、基準画像データと入力画像データの位置ずれ量を算出する。また、この画像処理部2には、図7に示す実施形態1の構成に加えて、式(15)による位置ずれ量の合成を行う位置ずれ合成部141と、式(16)による位置ずれ量の合成を行う位置ずれ合成部142が追加されている。
本実施形態では、図23に示すように、入力画像131から揺らぎ補正画像132を生成するが、基準画像133は生成しない。入力画像131あるいは揺らぎ補正画像132のうちの1フレームを基準として、揺らぎ補正画像132の位置ずれ量を位置合わせにより算出する。この位置ずれ量の平均位置を算出することで、仮想的な基準画像133と揺らぎ補正画像132の位置ずれ量134を算出する。このようにして算出した位置ずれ量134を用いて、実施形態1と同様に位置ずれ量の補間と残存揺らぎ補正の処理を行う。なお、実施形態2のように、位置ずれ量135と位置ずれ量134の合成によって得られた位置ずれ量で、リサンプリングによって入力画像131を変形する構成としても構わない。
本実施形態では、揺らぎ補正画像132と基準画像133の生成は行わない。入力画像131のうちの1フレームを基準として、入力画像131の位置ずれ量を位置合わせにより算出する。この位置ずれ量の平均位置を算出することで、仮想的な基準画像133と入力画像131の位置ずれ量135を算出する。また、仮想的な揺らぎ補正画像132と入力画像131の位置ずれ量136を、近傍画像揺らぎ補正により算出する。このようにして算出した位置ずれ量135と位置ずれ量136を用いて、実施形態3と同様に位置ずれ量の補間とリサンプリングによる残存揺らぎ補正の処理を行う。
なお、以上の例において、画像A(任意の画像データ)から画像B(任意の画像データ)への位置ずれ量として説明した箇所は、全て画像Bから画像Aへの位置ずれ量に置き換えて、リサンプリングや合成のときに逆変換するように構成しても同様に機能する。
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。なお、上述の2以上の実施形態における処理を組み合わせて実行するようにしてもよい。
Claims (13)
- 被写体を時間的に連続して撮像した複数の画像データを取得する取得手段と、
前記取得手段により取得された前記複数の画像データのうち時間的に近傍する複数の画像データを用いて、処理対象の画像データに対して揺らぎ補正を行い第1の補正データを得る第1の補正手段と、
基準画像データと、前記処理対象の画像データまたは前記第1の補正データとの間の位置ずれ量を、第1の位置ずれデータとして算出する第1の算出手段と、
前記複数の画像データに含まれる動体領域を判定する判定手段と、
前記第1の位置ずれデータまたは前記第1の補正データに基づいて、前記判定手段により判定された前記動体領域内の前記第1の位置ずれデータを補間して、第2の位置ずれデータを算出する第2の算出手段と、
前記第2の位置ずれデータに基づいて、前記処理対象の画像データまたは前記第1の補正データを補正して、第2の補正データを得る第2の補正手段と、
を備えることを特徴とする画像処理装置。 - 前記取得手段が取得した前記複数の画像データから前記基準画像データを生成する生成手段をさらに備え、
前記生成手段は、前記基準画像データを、前記第1の補正手段が前記第1の補正データを得るために用いた前記複数の画像データの数より多い数の画像データから生成する、ことを特徴とする請求項1記載の画像処理装置。 - 前記生成手段は、前記複数の画像データから揺らぎが静止した前記基準画像データを生成する、ことを特徴とする請求項2記載の画像処理装置。
- 前記生成手段は、前記複数の画像データの時系列の画素値にフィルタを適用することで前記基準画像データを生成することを特徴とする請求項2または3に記載の画像処理装置。
- 前記生成手段は、前記複数の画像データの時系列の位置ずれ量にフィルタを適用することで基準画像データを生成することを特徴とする請求項2または3に記載の画像処理装置。
- 前記複数の画像データのうちの1つを前記基準画像データとして選択する選択手段をさらに備えることを特徴とする請求項1記載の画像処理装置。
- 前記第2の補正手段は、前記第2の位置ずれデータに基づいて前記取得した複数の画像データまたは前記第1の補正データをリサンプリングするリサンプリング手段をさらに備えることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
- 前記第1の算出手段は、前記複数の画像データの時系列の画素値にフィルタを適用することにより前記第1の補正データを生成することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
- 前記第1の算出手段は、前記複数の画像データの時系列の位置ずれ量にフィルタを適用することにより前記第1の補正データを生成することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
- 前記第2の算出手段は、前記第2の位置ずれデータが時空間において滑らかになるように前記補間を行うことを特徴とする請求項2記載の画像処理装置。
- 前記第2の算出手段は、前記第2の位置ずれデータのラプラシアンを小さくするように更新する更新手段を有することを特徴とする請求項2記載の画像処理装置。
- 被写体を時間的に連続して撮像した複数の画像データを取得するステップと、
前記取得された前記複数の画像データのうち時間的に近傍の複数の画像データを用いて、処理対象の画像データに対して揺らぎ補正を行い第1の補正データを得るステップと、
基準画像データと前記処理対象の画像データまたは前記第1の補正データとの間の位置ずれ量を、第1の位置ずれデータとして算出するステップと、
前記複数の画像データに含まれる動体領域を判定するステップと、
前記第1の位置ずれデータまたは前記第1の補正データに基づいて、前記判定された前記動体領域内の前記第1の位置ずれデータを補間して、第2の位置ずれデータを算出するステップと、
前記第2の位置ずれデータに基づいて、前記処理対象の画像データまたは前記第1の補正データを補正して、第2の補正データを得るステップと、
を備えることを特徴とする画像処理方法。 - コンピュータを請求項1から11のいずれか1項に記載の画像処理装置として動作させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016165671A JP6772000B2 (ja) | 2016-08-26 | 2016-08-26 | 画像処理装置、画像処理方法およびプログラム |
US15/669,776 US10339640B2 (en) | 2016-08-26 | 2017-08-04 | Image processing apparatus, image processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016165671A JP6772000B2 (ja) | 2016-08-26 | 2016-08-26 | 画像処理装置、画像処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018033080A JP2018033080A (ja) | 2018-03-01 |
JP6772000B2 true JP6772000B2 (ja) | 2020-10-21 |
Family
ID=61243091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016165671A Active JP6772000B2 (ja) | 2016-08-26 | 2016-08-26 | 画像処理装置、画像処理方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10339640B2 (ja) |
JP (1) | JP6772000B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111260779B (zh) * | 2018-11-30 | 2022-12-27 | 华为技术有限公司 | 地图构建方法、装置及系统、存储介质 |
JP7315821B2 (ja) * | 2019-04-01 | 2023-07-27 | 日本電信電話株式会社 | 画像生成装置、画像生成方法、及びプログラム |
JP7263149B2 (ja) * | 2019-06-26 | 2023-04-24 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0395686A (ja) | 1989-09-08 | 1991-04-22 | Matsushita Giken Kk | 画像処理方法 |
US8447129B2 (en) * | 2009-03-18 | 2013-05-21 | Florida Institute Of Technology | High-speed diversity-based imaging method for parallel atmospheric turbulence compensation |
JP2012182625A (ja) | 2011-03-01 | 2012-09-20 | Nikon Corp | 撮像装置 |
JP5680524B2 (ja) * | 2011-12-09 | 2015-03-04 | 株式会社日立国際電気 | 画像処理装置 |
JP5362878B2 (ja) * | 2012-05-09 | 2013-12-11 | 株式会社日立国際電気 | 画像処理装置及び画像処理方法 |
US9292934B2 (en) * | 2012-10-29 | 2016-03-22 | Hitachi Kokusai Electric Inc. | Image processing device |
US9006633B2 (en) * | 2012-11-02 | 2015-04-14 | The United States Of America As Represented By The Secretary Of The Army | Passive imaging correction system using feedback including a variable aperture with plural settings and method thereof |
JP6104680B2 (ja) * | 2013-03-21 | 2017-03-29 | 株式会社日立国際電気 | 画像処理装置、撮像装置、監視システム、符号化装置、画像処理方法 |
EP3021575B1 (en) * | 2013-07-09 | 2020-06-17 | Hitachi Kokusai Electric Inc. | Image processing device and image processing method |
WO2015132826A1 (ja) * | 2014-03-05 | 2015-09-11 | パナソニックIpマネジメント株式会社 | 画像処理装置、監視カメラ及び画像処理方法 |
WO2016136151A1 (ja) * | 2015-02-25 | 2016-09-01 | パナソニックIpマネジメント株式会社 | 画像処理装置、画像処理方法及びそれを実行させるためのプログラム |
JP6671975B2 (ja) * | 2016-01-20 | 2020-03-25 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法およびコンピュータプログラム |
-
2016
- 2016-08-26 JP JP2016165671A patent/JP6772000B2/ja active Active
-
2017
- 2017-08-04 US US15/669,776 patent/US10339640B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018033080A (ja) | 2018-03-01 |
US20180061024A1 (en) | 2018-03-01 |
US10339640B2 (en) | 2019-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3934151B2 (ja) | 画像生成装置および画像生成方法 | |
JP6016061B2 (ja) | 画像生成装置、画像表示装置及び画像生成方法並びに画像生成プログラム | |
US9787905B2 (en) | Image processing apparatus, image display apparatus and imaging apparatus having the same, image processing method, and computer-readable medium storing image processing program for displaying an image having an image range associated with a display area | |
US7907183B2 (en) | Image generation apparatus and image generation method for generating a new video sequence from a plurality of video sequences | |
TWI387935B (zh) | 影像生成方法、及其程式與記錄有程式的記錄媒體 | |
WO2013005316A9 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP5107409B2 (ja) | 動き領域の非線形スムージングを用いた動き検出方法およびフィルタリング方法 | |
JPWO2014069632A1 (ja) | 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体 | |
US9131155B1 (en) | Digital video stabilization for multi-view systems | |
JP6772000B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP5566199B2 (ja) | 画像処理装置およびその制御方法、並びにプログラム | |
JP6604908B2 (ja) | 画像処理装置、その制御方法、および制御プログラム | |
JP2015154334A (ja) | 撮像装置、その制御方法、および制御プログラム | |
JP6604783B2 (ja) | 画像処理装置、撮像装置および画像処理プログラム | |
JP5279453B2 (ja) | 画像振れ補正装置、撮像装置及び画像振れ補正方法 | |
JP6671975B2 (ja) | 画像処理装置、撮像装置、画像処理方法およびコンピュータプログラム | |
JP2007329596A (ja) | 画像生成装置および画像生成方法 | |
JP2012014268A (ja) | 情報処理装置およびその制御方法 | |
JP6091082B2 (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
JP7003342B2 (ja) | 動画分離装置、プログラム及び動画分離方法 | |
JP5401696B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2009004919A (ja) | 動きベクトル処理装置、動きベクトル検出方法、動きベクトル検出プログラム、および該プログラムを記録した記録媒体 | |
JP7157526B2 (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
JP5804801B2 (ja) | 画像処理装置、撮像装置、制御方法、及びプログラム | |
JP2024002631A (ja) | 画像処理装置、撮像装置、画像処理方法、コンピュータのプログラムおよび記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190821 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200901 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200930 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6772000 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D03 |