JP2004349939A - Method and device for image encoding and recording device - Google Patents
Method and device for image encoding and recording device Download PDFInfo
- Publication number
- JP2004349939A JP2004349939A JP2003143464A JP2003143464A JP2004349939A JP 2004349939 A JP2004349939 A JP 2004349939A JP 2003143464 A JP2003143464 A JP 2003143464A JP 2003143464 A JP2003143464 A JP 2003143464A JP 2004349939 A JP2004349939 A JP 2004349939A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image
- band
- divided
- stream
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、所望の解像度あるいは画質で復号できる符号化画像を生成する画像符号化方法、画像符号化装置及び記録装置に関するものである。
【0002】
【従来の技術】
従来、デジタルスチルカメラやデジタルビデオカメラで撮影した画像を表示する装置としては、テレビモニターやパーソナルコンピュータ(PC)のモニターが一般的である。また、近年になって、多くの解像度に比較的柔軟に対応できるPCモニターや、複数の解像度を表示可能なデジタルテレビシステム等のインフラが整いつつある。
【0003】
一方、カメラ本体では、100万画素を越えるCCDに代表されるような高画素の撮像素子を搭載した製品や、撮影画像を容易に視認可能とする大型液晶モニターを搭載した製品が主流となっている。さらに、近年になって、撮影画像の一部を切り出して直接印刷するようなプリントシステムのインフラや、カメラをインターネット等のネットワークと接続し、撮影画像を電子メール等で送受信するといったインフラも整ってきている。
【0004】
このように、以前は一つの解像度のみを表示する標準モニターあるいはテレビモニターに対して最適な出力画像が得られるようにカメラシステムを構成していたが、今日のカメラシステムでは、上記したように多様な画像出力形態に柔軟に対応することが重要となっており、柔軟に対応するために必要な高画質・大容量データを効率よく生成・出力する構成が必要となっている。
【0005】
多様な表示形態に対応するための技術としては、高精細画像(HD)を記録して、標準画像(SD)で再生する先行技術が特開平06−339114号(特許文献1)に開示されている。特許文献1の第16図に記録方法、第27図に標準画像の再生方法、第19図に高精細画像の再生方法のブロック図が示されている。特許文献1の第16図に示されたように、入力の高精細画像をダウンコンバートした標準画像(図中162の出力信号)と、前記高精細画像と前記標準画像をアップコンバートした画像(図中164の出力信号)の差分情報(図中169の出力信号)を、同時に記録している。標準画像を再生するときは、特許文献1の第27図に示されたように、前記ダウンコンバートした標準画像のみを選択再生して(図中193の出力信号)表示する。一方、高精細画像を再生するときは、特許文献1の第19図に示されたように、ダウンコンバートした標準画像データをアップコンバートしたデータ(図中191の出力信号)と、標準画像のアップコンバートデータと高精細画像の差分データ(図中195の出力信号)とを合成して(図中194の出力信号)表示する。以上のような構成が、特許文献1に開示されている。
【0006】
また、異なる先行技術として、同一画像を複数の解像度で伝送する技術が特開2000−184328号(特許文献2)に開示されている。特許文献2の第3図には、所定の画像を、可逆圧縮したデータ(C1)と、非可逆圧縮した第2図に示すような階層構造をもつデータ(C2)に変換して、データベースサーバ30に蓄積する構成が開示されている。医師の診断で所望する画像を参照するときは、標準モニターの参照端末14で所望の解像度で表示する。一方、画像データで診断する場合には、高精細表示が可能な診断用ワークステーション12で、所望の解像度で画像データを確認する。この場合、非可逆圧縮のデータだけでなく、最終確認をするために可逆圧縮データも表示・操作することが可能なシステムとなっている。このように、用途や表示端末に応じて、所定の画像を所望する解像度で表示する技術が特許文献2に開示されている。
【0007】
さらに、特開2000−36959号(特許文献3)には、画像データを解像度レベルにおいて階層符号化し、各解像度レベルを生成する変換係数を分割(タイル化)し、画像データの所望する部分あるいは解像度レベルで、ランダムアクセスと高速アクセスの両立を可能にするタイルデータの構築方法が開示されている。特許文献3の第3図にあるように、各解像度レベルの変換係数の分割方法を、原画像の画素と同じ部分にある変換係数に分割し(304、302、303)、かつ、第5図にあるように解像度レベルで同じ部分にある変換係数のタイルを連続するように並べ、かつ、連続するタイルデータのポインター情報をヘッダ情報に入れる。これにより、ユーザは、所望する解像度レベル及び部分の画像データを、全データから探し出す事はしないで、前記ポインター情報とそれに続く分割データを抜き出す操作だけで、データを読み出すことができるので、高速なランダムアクセスを実現することができる。以上のような構成が、特許文献3に開示されている。
【0008】
【特許文献1】
特開平6−339114号公報(第16図、第27図、第19図)
【特許文献2】
特開2000−184328号公報(第2図、第3図)
【特許文献3】
特開2000−36959号公報(第3図、第5図)
【0009】
【発明が解決しようとする課題】
しかしながら上記した特許文献においては、複数の解像度に対応しようとする思想で書かれているものであって、今日のビデオテープレコーダ、DVDレコーダ或いはHDレコーダ等で採用されている高画質モード(以降XPモードと記載する)・標準モード(以降SPモードと記載する)・長時間モード(以降LPモードと記載する)のような記録システムの各モード、つまり選択的に記録画質とそれに応じた記録時間(あるいは記録枚数)を設定するモードに対応する構成のものは考えられていない。
【0010】
すなわち従来の技術では、同一解像度で複数の画質に対応するモード(XPモード、SPモード、LPモード)を有する記録システム等に対して、単一の符号化データですべてのモードに対応することができないといった問題点があった。
【0011】
本発明は上記の如き問題点を解決して、記録、再生、伝送又は表示を行うシステムに用いて好適な、多様な画質モードに対応可能な画像の符号化データを生成し、またシステムで設定された画質モードに応じて前記符号化データから所望の画像データを抽出可能とする画像符号化方法、画像符号化装置及び記録装置を提供することを目的とする。
【0012】
【課題を解決するための手段】
斯かる目的を達成する為の手段として、本発明は以下の構成からなる手段を有する。
【0013】
本発明の画像符号化方法は、入力した画像データを圧縮符号化する画像符号化方法において、入力画像データを複数の周波数帯域に分割する帯域分割工程と、前記帯域分割工程で帯域分割された各画像データの大きさを所定の閾値で複数の階層に分割する画質分割工程と、前記帯域分割工程で帯域分割された画像データの垂直成分の程度に応じて前記画質分割工程における前記閾値を設定する設定工程とを有することを特徴とする。
【0014】
また、本発明の画像符号化装置は、入力した画像データを圧縮符号化する画像符号化装置において、入力画像データを複数の周波数帯域に分割する帯域分割手段と、前記帯域分割手段で帯域分割された各画像データを複数の画像空間に分割する位置分割手段と、前記帯域分割手段で帯域分割された各画像データの大きさを所定の閾値で複数の階層に分割する画質分割手段と、前記帯域分割手段で帯域分割された帯域データの画素数が複数の表示解像度を包含するように分割するよう設定し、前記位置分割手段で位置分割された帯域データの画素数を複数の表示画角を包含するように画素数を設定し、前記帯域分割された画像データの前記垂直成分が低いときは前記垂直成分が高いときに比べて前記閾値を高く設定する設定手段を備えたことを特徴とする。
【0015】
また、本発明の記録装置は、前記画像符号化装置で生成されたデータストリームを記録する記録装置であって、所望の解像度、画角または画質にしたがって、前記データストリームを所定の切出し地点で分離して、分離したデータストリームの前半部分に含まれる符号化データを第1の記録エリアに記録し、分離したデータストリームの後半部分に含まれる符号化データを前記第1の記録エリアとは異なる第2の記録エリアに記録することを特徴とする。
【0016】
【発明の実施の形態】
本発明の実施の形態における各実施例では、画像の符号化方式としてJPEG2000(Motion JPEG2000を含む)を用いる。JPEG2000方式に関しては、ISO/IEC15444−1(以降、規格書と称す)に記載されているので詳細な説明は省略するが、本発明の実施の形態に関連するところの概略を以下に説明する。
【0017】
前記規格書では、階層符号化により生成される圧縮符号化データを同一の解像度(R)、画像位置(P)、画質(L)、信号成分(C)でまとめ、パケットデータ単位で前記圧縮符号化データを区分する仕組みが規定されている。これによって、前記パケットデータの並び替えに応じて復号処理の優先順位を決定できる。
【0018】
また、規格書のAnnexBのB.12章には標準的な5つの優先順位が規定されている。その5つとは、画質・解像度・成分・位置(LRCP)の順、解像度・画質・成分・位置(RLCP)の順、解像度・位置・成分・画質(RPCL)の順、位置・成分・解像度・画質(PCRL)の順、成分・位置・解像度・画質(CPRL)の順である。具体的には、LRCPでは、画像全体の画質が向上する画質優先の表示方法となり、RLCPやRPCLでは、画像全体の解像度が向上する解像度優先の表示方法となる。また、PCRLは、画像の一部から全体の画像が表示される位置優先の表示方法となり、CPRLは、画像全体の着色状態が向上する成分優先の表示方法となる。
【0019】
しかしながら上記規格書には、デジタルテレビシステムにあるような画質や解像度の階層構造で表される多彩な表現形態を満たす方法までは規定されていない。特に、デジタルテレビシステムにおいては、720×480(インターレス・ノンインターSD)、1280×720(ノンインターHD)、1920×1080(インターレスHD)の複数の解像度を表示するモードがあり、さらに画角も4:3(Narrow)と16:9(Wide)の2種類の表示モードがある。このように多彩な表示形態に加え、さらに高画質モード(XP)、標準モード(SP)、長時間モード(LP)といった再生形態が存在する。
【0020】
JPEG2000方式で圧縮符号化した画像データを用いれば、原理的には上記表示モードに必要な符号化パケットデータをランダムアクセスして、復号処理することで、上記の多彩な表示モードを実現することができるが、必要なパケットデータを抽出する際に、全てのパケットの属性を検出して探し出すのではシステム上の大変な処理負荷となり、現実的でない。そこで、表示モード毎に必要なパケットデータをあらかじめまとめておき、所望する表示モードが選択されたときは、ある程度まとまった単位でパケットデータを抽出すれば、処理負荷がかなり軽減される。本実施の形態ではそこに着眼し、所定のパケットデータの並びを規定し、パケットデータの選択処理をすることなく、容易に多彩な表示モードを実現したり、あるいは、表示モードを変更したりすることを可能にする。そのような実施例を以下に詳述する。
【0021】
(実施例1)
図1は、画質に関する多様なモード(LP、SP、XP)に対応した第一の実施例となる画像符号化装置及び画像復号化装置のブロック図である。図1の(a)が画像符号化装置、(b)が画像復号化装置の構成である。なお、図1の画像符号化装置及び画像復号化装置は一体化されていてもよく(所謂コーデック)、磁気テープ、DVDやBlu−Rayなどのディスク、メモリカードなどを記録媒体に用いた記録再生装置等に適用できる。
【0022】
図1(a)の画像符号化装置10は入力画像データをJPEG2000方式で圧縮して出力する構成であって、以下の構成要素からなる。1は入力画像データをウェブレット変換(DWT)して高域成分と低域成分に帯域分割し、各帯域(サブバンド)において同じ位置画像データを所定の大きさ(プリシンクト)に位置分割する帯域・位置分割部、2は帯域・位置分割処理された画像データを所定刻みで量子化しデジタル値する量子化部、3は量子化した画像データを所定ブロック(コードブロック)でまとめ、各ブロックに関してEBCOT方式のエントロピー符号化を行う符号化部、4は符号化された前記コードブロックに関してビット深さ方向に画質分割し、同一の解像度・位置・画質の単位(パケットデータ)でまとめ、前記パケットデータを所定の順番に並び替え、さらに前記パケットデータの属性や並び方情報等を所定フォーマットで付加して、一連のビットストリームを形成するストリーム生成部、5は生成されたビットストリームをJPEG2000の所定のファイルフォーマット形式に整え、データを書き出す出力部である。
【0023】
図1(b)の画像復号化装置20は入力された符号化データを伸張して出力する構成であって、以下の構成要素からなる。21は符号化データに対して所望する解像度・位置・画質情報を受けるユーザインターフェースあるいはデジタルインターフェース等の読み出しコマンド入力部、22は入力した読み出しコマンドの情報から、画像の符号化データの対応する部分を算出し、ストリーム解析部24に適宜指令を出す操作指令部(マイクロコンピュータ)、23は符号化された画像データを入力し、ファイルフォーマットから所望する画像の符号化データを読み込む入力部、24は前記符号化データのビットストリームを分析し、前記操作司令情報に従って必要なデータを切り出すビットストリーム解析部、25は切り出された前記符号化データをコードブロック単位でIEBCOT方式のエントロピー復号化を行う復号化部、26は復号された画像データのデジタル値に所定刻み値を乗じて逆量子化する逆量子化部、27は所望の画像位置データの逆量子化された変換係数を所定位置に並べ、逆ウェブレット変換で帯域合成し、所望の画像データを出力する帯域合成部である。
【0024】
まず、圧縮時の画像データの処理を図1(a)に従って説明する。本実施例においては、想定画像としてノンインターHD1280×720を包含するように構成するため、図2のような1920×960画素の解像度のフレームを用いる。
【0025】
画像ソースから取り込まれた1フレーム分の画像データは、帯域・位置分割部1で、水平方向にウェブレット変換され、さらに垂直方向にウェブレット変換される。ウェブレット変換のフィルター処理により、画像データは高域成分と低域成分に帯域(サブバンド)分割され、係数変換される。
【0026】
図2は、上述の2次元のウェブレット変換を施し、高域の変換係数と低域の変換係数の入れ替え操作を行った状態を示している。図2において1フレーム分の画像データ100が、4つの帯域(1LL、1HL、1LH、1HH)の変換係数101に分割されている。通常のJPEG2000方式では低周波帯域(1LL)に対して、再帰的に、上述のウェブレット変換および係数入れ替え操作を行うが、本発明の第一の実施例では、1回のウェブレット変換等の操作で目的を達成するので、それ以上の説明を行わない。
【0027】
また、2次元の帯域(サブバンド)の表記方法については、低域帯域をL、高域帯域をHで表し、1回のウェブレット操作で生成される係数を1としている。
【0028】
また、帯域分割の回数(解像度レベル)の表記方法については、2次元ウェブレット変換で生成される最低帯域の係数をR0とし、低域係数に対する高域データには+1する表記法も図中の()内に示してある。例えば、今回は1回の操作だったので、R0の1LLと、R1の1HL、1LH、1HHが生成されている。1LLに対して再帰的にウェブレット操作を加えれば、R0の2LLと、R1の2HL、2LH、2HHと、R2の1HL、1LH、1HHが生成される(図16参照)。今後の帯域分割された変換係数を表す場合、上記の表記方法で説明をしていく。
【0029】
以上のウェブレット操作により帯域分割された係数は、さらに、1フレーム分の画像データ100の画素と同じ位置の変換係数のまとまり(プリシンクト)に分割する操作、いわゆる位置分割の操作も行うが、本実施例の場合は、位置分割を行わない(1個のプリシンクトとする)。
【0030】
前記位置分割によるまとまり(プリシンクト)の表記方法は、図3に示してあるように、Pの下付添字に、解像度レベルを表記し、続いてプリシンクトを表記する。従って、本実施例では、R0がP00、R1がP10で構成される。
【0031】
図1に戻って、以上のような帯域・位置分割操作を帯域・位置分割部1で行った変換係数は、量子化部2で所定の刻み幅で数値化される。刻み幅は各帯域(1LL、1HL、1LH、1HH)で独立に設定することも、関連付けて設定することも可能である。
【0032】
量子化された変換係数は、符号化部3で圧縮符号化する。符号化については、まず、各位置(プリシンクト)において、図4に示すように、さらに細かいコードブロックに分割する。103がコードブロックであり、P00に関しては、0から127のコードブロックに分割されている。また、P10に関しては、0から383のコードブロックに分割されている。
【0033】
さらに分割された前記コードブロックに対して、エントロピー符号化処理を行う。具体的には、図5に示すように、コードブロック103の変換係数を上位ビット(MSB)から下位ビット(LSB)に並べて、各ビットプレーン104の二値化データを算術符号化する。
【0034】
算術符号化に関しては、角ビットプレーン内の各画素において、対象画素の周辺画素値と、対象画素の上位ビットから、符号化モデルを決定して、算術符号化する。この方式をEBCOT方式のエントロピー符号化方式と呼んでいる。
【0035】
以上のように、ビットプレーン104単位で符号化されたデータは、図1のストリーム生成部4に送られる。
【0036】
ストリーム生成部4では、解像度・位置分割されたブロック(プリシンクト)を集めて、今度はビット深さ方向に所定値レベルで分割する。通常この分割は、画質の改善寄与率でコードブロック単位毎に決められるが、本実施例では、説明の簡略化のため、図5に示すすように、所定レベルで分割する。
【0037】
本実施例のビット深さ方向の分割は、3つのブロック105(レイヤ)で以下のように分割する。
【0038】
第1の解像度のデータブロックP00は、上位6ビットを第1のレイヤ(L0)とし、第2のレイヤ(L1)にはデータがなく、残り下位2ビットを第3のレイヤ(L2)としている。第2の解像度のデータブロックP10は、垂直成分の低域データ(1HL)は、上位6ビットと、その他(1LH、1HH)の上位2ビットを第1のレイヤ(L0)とし、垂直成分の高域データ(1LH、1HH)の上位6ビットから上位3ビットまで(中位4ビット)を第2のレイヤ(L1)とし、残り下位2ビットを第3のレイヤ(L2)としている。
【0039】
このように、ビット深さ方向に分割するのは、各画素において画質に寄与するデータブロックに分けていることになるので、画質に関して分割したということと等価になる。また、解像度・位置・画質分割されたデータをパケットデータと呼ぶ。
【0040】
以上の解像度・位置・画質に分割された符号化データのイメージを図6に示す。図において、102が解像度・位置に分割されたデータブロックを表し、縦方向が画質に分割されたデータブロックを表している。
【0041】
本発明の特徴となる画質に関する分割方法として、第一の画質ブロック(L0)に、水平方向の上位6ビットを含ませている点がある。このことにより、L0の画質をもつ長時間モード(LP)でも、標準モード(SP)と同程度水平解像度を確保できることになる。テレビモニターの場合、垂直解像度はTV本数で限定されるが、水平解像度はTV表示能力まで表現できるので、水平解像度を保つ事により、画質劣化を低減することが可能となる。
【0042】
前記パケットデータは、図1のストリーム生成部4で、さらに、並び替え処理、付加情報の追加をして一連のストリームデータとして出力する。
【0043】
図7(a)において、ストリームデータの構成を説明する。まず、生成されたパケットデータには、マーカセグメント131により付加情報が追加される。一連のストリームデータの先頭には、ヘッダ情報121があり、続いて、マーカセグメントが付加されたパケットデータ群115が並び、最後にフッタ情報122がある。
【0044】
ヘッダ情報121は、ストリームの開始を示すSOC(Start of Code stream)マーカが先頭にあり、続いてメインヘッダ(MH)が続く。メインヘッダはSIZ(image and tile Size)マーカが先頭で、画素に関する情報を付加する。ここには、原画の画像の大きさに関する情報も含まれている。メインヘッダには、量子化に関するマーカセグメントQCD(Quantization Default)の他に、パケットヘッダの並べ方に関するマーカセグメントCOD(Coding style Default)、POC(Progression order Change)がある。前者は一連のストリーム全体の情報であり、後者は部分的にパケットの並べ方を変える場合の情報が含まれる。
【0045】
以上のヘッダ情報のあとに、タイルパートヘッダ(TpH)が続く。本実施例では採用していないが、1フレーム画像の帯域分割の前に、1フレーム画像を小領域(タイル)に分割することも、JPEG2000符号化方式では可能である。本実施例の場合、前記タイル分割は行っていないので、1フレーム画像は1タイルデータと解釈される。このタイルに関する情報がタイルパートヘッダにある。
【0046】
タイルパートヘッダは、開始を示すマーカセグメントSOT(Start of Tile−part)で始まる。このSOTには、1つのタイルパートの長さに関する情報もある。タイルパートヘッダの他の情報として、タイル内のパケットデータの並び方に関する情報COD、POCが存在する。優先順位はタイルパートヘッダ内の方が高い。タイルパートヘッダの最後には、その後に続くパケットデータが開始されることを示すSOD(Start of Data)がある。ヘッダ情報には、その他情報もあるが本発明には関係ないので、説明を省略する。
【0047】
パケットデータは、パケットの先頭であること示すSOP(Start of Packet)マーカセグメントがあり、パケットデータの終わりには、パケットの終了を示すEPH(End of Packet Header)がある。
一連のストリームデータの最後にはフッタ情報として、ストリームの終了を示すマーカセグメントEOC(End of Codestream)がある。
【0048】
このように、1フレーム画像の符号化データに、上述の付加情報を加えて一連のストリームデータとして、ストリーム生成部4で生成される。
【0049】
ここで、本発明の特徴となるパケットデータの並べ方について、図7(a)を使って説明する。まず、最初に画質に関してパケットデータを上位レイヤから順に、L0、L1、L2と並べる。さらに、同じ画質のパケットデータ内の並べ方は、解像度の低い順に、P00、P10に並べる。このような並べ方を画質優先のプログレッションオーダと呼び、JPEG2000の標準で用意されている5つの中で、LRCP(画質−解像度−成分−位置)が該当する。本実施例では、このプログレッションオーダを、前記メインヘッダのCODマーカセグメントの情報として付加しておく。
【0050】
図1に戻って、このように生成されたストリームデータは、出力のポスト処理を行うために出力部5に送られる。出力部5では、後段の出力形態にあった形で、ストリームデータを生成しなおす。
【0051】
例えば、後段にファイルシステムを有するディスクシステムがあれば、前記ストリームデータ情報に対して、動画の同期に関する情報、著作権に関する情報等を付加して、Motion JPEG2000のファイルファーマットデータとして出力する。また、後段がデジタルインターフェースであれば、パケット伝送するために前記ストリームデータを小分けに分割し、適宜ヘッダ情報を付加して出力する。
【0052】
以上が、図1(a)の画像符号化装置10の動作説明である。
【0053】
続いて、画像符号化装置10で圧縮された画像の符号化データを伸張する動作について、図1(b)のブロック図に従って説明する。
【0054】
まず、画像データをどのような表示形態、あるいは出力形態で出力をするか、読み出しコマンド入力部21から指示入力する。コマンド入力元がユーザならばユーザインターフェースとなり、他の機器であればデジタル通信等のデジタルインターフェースとなる。
【0055】
また、読み出しコマンドで指示する読み出し方法とは、具体的には、表示部の表示可能な解像度HD、SDであったり、画角ワイド画角16:9(W)、標準画角4:3(N)であったり、画質XP、SP、LPであったりする。
【0056】
また、出力先が別の記録媒体を有する機器であったりする場合、出力先の記録容量や復号能力に見合ったデータストリームを読み出すために、デジタルインターフェースを介して、読み出しコマンドが入力される。
【0057】
本実施例の場合、画質に関する複数のモードXP、SP、LPに対応しているので、出力先の能力に応じて、読み出し方法が上記モードに合致するように入力する。前記読み出し方法のコマンド入力を受けて、操作司令部22は、ストリームデータ操作部24に対して、操作方法の指令を出す。
【0058】
一方、符号化された画像データは入力部23で取り込まれ、ファイルシステムやその他伝送フォーマットからストリームデータが入力される。ビットストリーム解析部24では、入力したストリームデータから図7(a)に示したような必要なパケットデータを取り出す。
【0059】
続いて、ストリームデータは、SOCで始まる先頭のマーカセグメントから順次処理され、逐次パケットデータも処理される。例えば、パケットデータ『P00 L0』『P10 L0』まで処理されると、画像データとしては、図7(b)に示すように、全解像度の上位2ビットと、全解像度の水平方向の上位3ビットから上位6ビット(中位4ビット)までの画像データとなる。コード量としては最もコンパクトであり、画質に関しては水平方向成分のデータ上位6ビットまで含んでいるので、TVモニタでの劣化を低減している。いわゆる長時間モード(LP)となる。
【0060】
さらに、パケットデータを『P00 L1』『P10 L1』まで処理すると、図7(c)に示すように、全解像度の上位6ビットの画像データとなるので、いわゆる標準的な画質が得られる標準画質モード(SP)となる。
【0061】
さらに、残りのパケットデータ『P00 L2』『P10 L2』まで処理すると、図7(d)に示すように、全解像度の全8ビットの画像データとなるので、高画質モード(XP)となる。
【0062】
このように、画質優先モードでパケットデータを並べておけば、所望するモードの画像データを、すべてのヘッダ情報を解析することなく、ストリーム先頭からの順次処理だけで抽出することが可能となる。これは、有限な電力で小型化を強いられるポータブル機器において、制限されたワークメモリや処理能力でも実現可能な処理となる。具体的には、他の機器にデータをダビングする時のモード変換(XPモードからSP、LPへのダウンコンバート)時の処理が想定される。
【0063】
上記先頭からパケットデータ取り出した後の作業として、デジタルダビングする場合は以下の処理を行う。最後に取り出したパケットデータの後には、一連のストリームデータのパケットデータ数が変わらないように、零パケットデータを付加する。さらに、零パケットデータを付加することによって、変化するパケットデータ長の情報をSOTマーカセグメントに反映させる。
【0064】
このような処理をすると、多少コード量が増加するが、ストリームの切り出しによる解像度・画質の変更等の情報をヘッダ情報に反映させる必要がなくなり、ヘッダ処理の負荷を低減できる。また、ストリームのフォーマット形式を統一しているので、編集作業等でモードの異なるストリームの繋ぎを容易にする。つまり、モードが切り替わっても、データの読み取りシーケンス(パケットの読み出す回数、ヘッダ情報の属性変更等)に変更が生じないため、画質だけ変化するスムーズなモード移行の切り替えが可能となる。また、ストリームデータの構造は変えていないので、ストリームデータ構造に特化して記録媒体に記録するシステムを容易に実現することができる。
【0065】
なお、本実施例では、符号化時の全ての画像データが存在すること(XPモード)を前提に説明しているが、LPモードのように一部のデータしかない場合なども、上記のように零パケットを挿入しておけば、LPからSP、XPへのアップコンバート作業も上述と同様の処理で実現することは、可能である。
【0066】
再び、図1に戻ると、ビットストリーム解析部24で処理された前記パケットデータは、復号化部25に送られる。復号化部25では、前記パケットデータから、図5のコードブロックとビットプレーンの構造を構築し、コードブロック単位でエントロピー復号処理を行う。エントロピー復号は、各ビットプレーンにおいて、符号化時に決定した符号化モデルに則って算術復号し、二値データを復元する。そして、コードブロック毎に前記復号されたビットプレーンを、上位ビットから下位ビットにならべ、変換係数を復元する。変換係数は、解像度・位置分割のIDにより、図4のように変換係数空間に再構築される。
【0067】
再構築された変換係数は、逆量子化部26に送られ、所定の刻み幅が乗じられ、変換係数値が復元される。この変換係数値は、帯域合成部27で逆ウェブレット変換を施され、周波数帯域合成され、画像データとなる。前記画像データは、復号された画像データとして出力される。以上が、図1(b)の画像復号化装置20の動作説明である。
【0068】
以上説明したように、本実施例によれば、複数の画質モードを実現する上で、単なるビット方向の画質分割ではなく、解像度・画質分割をして、水平方向の帯域データを重視して、上位の画質レベルに分類することにより、画質の劣化を低減することができる。
【0069】
また、前記解像度・画質分割のパケットデータの並びに関して画質優先の並びにすることで、復号時の先頭からの順次読み出しで、複数の画質モードに必要なデータを、容易に取得することができる。
【0070】
また、零パケットを挿入することにより、ストリーム構成のフォーマット形式を変更することなく、複数の画質モードを実現することができ、スムーズなモード移行と処理負荷の低減を実現できる。
【0071】
さらに、複数の画質モードを統一したフォーマットで実現しているので、ストリーム構造に特化した記録フォーマットを容易に構築することができる。
【0072】
なお、本実施例においては、解像度をHDモードとして想定して説明したが、これに限ること無くSDモードやその他の解像度においても有効な技術となる。
【0073】
また、本実施例においては、画質分割を、所定のビット数で一様に行ったが、実際に行われるコードブロック単位での画質向上寄与率で決定される値に対して、重み係数を乗算した形で実現する方が好ましく、本発明の効果をより一層高める別の実施例となる。
【0074】
さらに、本実施例においては、3つの画質モードで説明したが、2つあるいは、4つ以上の画質モードでも、本発明を摘要することは可能である。
【0075】
(実施例2)
次に、本発明により、解像度・画角に関する多様なモード(SN、SW、HW)に対応する第2の実施例について説明する。基本的な処理ブロックは第1の実施例と同じなので、説明は省略する。以下処理の異なる部分のみ説明していく。
【0076】
本実施例においては、想定画像として、ノンインターで16:9のワイド画角であるHD1280×720(以下HWと呼ぶ)とノンインターで16:9のワイド画角であるSD720×480(以下SWと呼ぶ)とノンインターで4:3の標準画角であるSD720×480(以下SNと呼ぶ)としている。ただし、HWに関しては、包含するような解像度にしているため、1920×960画素の解像度のフレームで説明している(図8参照)。
【0077】
まず、圧縮時の処理については、画像ソースから取り込まれた1フレームの画像データに対して、2次元のウェブレット変換を施す処理までは、第1の実施例と同じである。
【0078】
本実施例においては、図8に示すように、原画像の位置と同じ位置の変換係数をまとめ、位置ブロック(プリシンクト)202に分割する操作が加わる。
【0079】
図8において、帯域分割された帯域(サブバンド)において、3つの領域(プリシンクト)に分割している。第1のプリシンクト(P00、P10)は画像中央で720×480の領域で、その両脇に第2、第3のプリシンクト(P01、P11、P02、P12)120×480の領域になるように位置分割している。
【0080】
上述のように解像度・位置に分割された変換係数に対して量子化後、図9に示すコードブロック203に分割する。P00に関しては、0から95のコードブロックに分割され、P10に関しては、0から287のコードブロックに分割される。分割された前記コードブロックに対して、第1の実施例同様に、エントロピー符号化処理を行う。
【0081】
符号化されたデータは、1フレーム分の画像データ200において、解像度・位置分割されたブロック(プリシンクト)202単位で集められ、図10に示すように、ビット深さ方向の所定値レベルで3つのブロック205(レイヤ)に分割される。
【0082】
上位2ビットを第1のレイヤ(L0)とし、第2のレイヤ(L1)を中位4ビット、残り下位2ビットを第3のレイヤ(L2)としている。
【0083】
以上の解像度・位置・画質に分割された符号化された画像データのイメージを図11に示す。図11において、202が解像度・位置に分割されたデータブロックを表し、縦方向に画質で分割されたデータブロックを表している。
【0084】
本発明の特徴は、解像度・位置に関する分割方法で、SD標準画角4:3(SN)、SDワイド画角16:9(SW)、HD標準画角4:3(HN)、HDワイド画角16:9(HW)の表示モードを表現していることである。具体的には、第1解像度(1LL)の第1のプリシンクト(P0)が720×480のSNモードであり、第1解像度(1LL)の第1、2、3のプリシンクト(P0、P1、P2)が960×480のSWモードであり、第2解像度(1LL、1HL、1LH、1HH)の第1のプリシンクト(P0)が1440×960のHNモードであり、第2解像度(1LL、1HL、1LH、1HH)の第1、2、3のプリシンクト(P0、P1、P2)が1920×960HWモードとなる。
【0085】
次に、解像度・位置・画質に分割されたパケットデータの並びに関して、図12(a)において、説明する。ストリームデータの全体構造は第1の実施例と同じで、先頭のヘッダ情報221、パケットデータ群215、フッタ情報222となる。
【0086】
付加情報(マーカセグメント)の構成についても、同じなので説明は省き、パケットデータの並びについてのみ、説明する。まず、最初に解像度の低い順に、P00、P10と並べる。さらに、同じ解像度のパケットデータ内の並べ方は、位置の番号順に、P00、P01、P02に並べる。JPEG2000のプログレッションオーダの中で、RPCL(解像度−位置−成分−画質)が該当し、メインヘッダのCODマーカセグメントの情報として付加しておく。
【0087】
前記ストリームデータは、第1の実施例同様に、出力形態にあわせた形で出力する。以上が、画像圧縮時の処理の説明である。
【0088】
続いて、圧縮された画像の符号化データを伸張する動作について、説明する。まず、符号化された画像データに対して、読み出しコマンド入力部21から読み出し方法を指定するコマンドが入力され、操作司令部22がストリーム操作部に操作方法を指令する。本実施例での読み出し方法とは、解像度・画角に関する複数のモードで、HDワイド画角のHW、SDワイド画角のSW、SD標準画角のSNである。
【0089】
一方、符号化された画像データは、入力部23から取り込まれ、ストリームデータとなって、ストリーム操作部に送られる。前記ストリームデータから、必要なパケットデータの取り出し方を図12で説明する。
【0090】
パケットデータ『P00 L0』『P0 L1』『P00 L2』まで処理されると、画像データとしては、図12(b)に示すように、SD解像度の第1解像度の4:3画角の画像データとなる。いわゆるSD標準画角(SN)であり、デジタルテレビシステムの480I(D1)で主流の表示方法である。
【0091】
さらに、パケットデータを『P01 L0』『P01 L1』『P01 L2』『P02 L0』『P02 L1』『P02 L2』まで処理すると、図12(c)に示すように、SD解像度の第1解像度の16:9画角の画像データとなる。いわゆるSDワイド画角(SW)であり、デジタルテレビシステムの480P(D2)で主流の表示方法である。
【0092】
さらに、残りのパケットデータ『P10 L0』『P10 L1』『P10 L2』『P11 L0』『P11 L1』『P11 L2』『P12 L0』『P12 L1』『P12 L2』まで処理すると、図12(d)に示すように、HD解像度の第2解像度までの16:9画角の画像データが含まれる。いわゆるHDワイド(HW)であり、デジタルテレビシステムの720P(D3)で主流の表示方法である。
【0093】
このように、解像度優先モードでパケットデータを並べておけば、所望するモードの画像データを、すべてのヘッダ情報を解析することなく、ストリームの先頭からの順次処理だけで抽出することが可能となる。これは、前述したようにポータブル機器に向いた処理となる。
【0094】
また、本実施例においても、第1の実施例と同様に、零パケット挿入の操作が可能で、コンバート変換、編集によるモード移行、記録システムへの同様の効果が得られる。
【0095】
以上のように抽出されたパケットデータは、第1の実施例と同様に処理されデータは復号されて出力される。
【0096】
以上が、本実施例の伸長処理の動作説明である。
【0097】
以上説明したように、本発明の実施例によれば、複数の表示モードを実現する上で、解像度・位置分割して、画角・解像度を表示モードにあわせることにより、各種画像表示方法を実現することができる。
【0098】
また、前記解像度・位置分割のパケットデータの並びに関して解像度優先の並びにすることで、復号時の先頭から順次読み出し、複数の表示モードに必要なデータを、容易に取得することができる。
【0099】
また、JPEG2000方式には帯域分割する前に、画像を複数のタイルに分割する処理があり、この機能を使っても、画角の切り替えを行う事は可能であるが、帯域分割する前の画像分割は、復号時に分割境界で画像歪みが発生してしまうが、本実施例の画像分割では、プリシンクト境界での画像歪みは発生しないので、より良好な画像復元が実現できる。
【0100】
本実施例においては、3つの表示モードで説明したが、2つ(SN、HW)の解像度と画角が両方変化する表示モードでも、本発明を摘要することは可能である。
【0101】
また、上記2つの表示モードでは、位置優先のプログレッションオーダ(PRCL)でも表示モードを切り替える事ができる。
【0102】
また、本実施例においては、画角を画像位置の階層構造(プリシンクト)を利用した。JPEG2000方式では、帯域分割する前に画像をタイル分割する処理を設ける事ができる。本実施例では、タイル分割なし(1タイル)の処理で説明したが、このタイル分割処理により画角の切り替えを実現することも可能である。前記プログレッションオーダは全て、タイル内(タイルパートストリーム内のパケットデータの並び替え)で行われている。従って、タイル分割は、プログレッションオーダの観点からみると最優先されるので、位置優先のプログレッションオーダとなる。従って、タイル分割+解像度優先プログレッションオーダにすると、PRxxのプログレッションオーダになり、上記2つの表示モードを実現することが可能となり、本発明の他の実施例となる。この場合の実施例では、前記プログレッションオーダPRCLは、JPEG2000の標準で用意されたものでないが、本実施例では、標準のオーダで実現できるので、JPEG2000の規格内で実現できる。
【0103】
(実施例3)
次に、本発明により、解像度・画角・画質に関する多様なモード(SN、SW、HW、LP、SP、XP)に対応した第3の実施例について説明する。基本的な処理ブロックは第1の実施例と同じなので、説明を省く。また、本実施例における想定画像についても、第2の実施例と同じなので、説明を省く。以下処理の異なる部分のみ説明していく。
【0104】
圧縮時の処理については、画像ソースから取り込まれた1フレームの画像データをエントロピー符号化するまでは、第2の実施例と同じなので説明を省略する。
【0105】
符号化されたデータは、1フレーム分の画像データ300において、解像度・位置分割されたプリシンクトに集められ、図13に示すように、ビット深さ方向の所定値レベルで3つのレイヤ305に分割される。
【0106】
第1の解像度のデータブロックP00は、上位6ビットを第1のレイヤ(L0)とし、第2のレイヤ(L1)にはデータがなく、残り下位2ビットを第3のレイヤ(L2)としている。第2の解像度のデータブロックP10は、垂直成分の低域データ(1HL)の上位6ビットと、その他(1LH、1HH)の上位2ビットを第1のレイヤ(L0)とし、垂直成分の高域データ(1LH、1HH)の中位4ビットを第2のレイヤ(L1)とし、残り下位2ビットを第3のレイヤ(L2)として、画質の分割が行われる。
【0107】
以上の解像度・位置・画質に分割された符号化された画像データのイメージを図14に示す。本発明の特徴である画質に関する分割方法は第1の実施例と同じで、解像度・位置に関する分割方法は第2の実施例と同じである。
【0108】
次に、解像度・位置・画質に分割されたパケットデータの並びに関して、図15(a)において、説明する。
【0109】
ストリームデータの全体構造及び、付加情報の構成に関しては、第1の実施例と同じであり、情報の内容のみとパケットデータの並び方が異なっているだけであるので、まずパケットデータの並び方に関して説明する。
【0110】
まず、最初に画質の上位レイヤから、L0、L1、L2と並べる。さらに、同じ画質のパケットデータ内の並べ方は、解像度の低い順に、P00、P10と並べる。さらに、同じ解像度のパケットデータ内の並べ方は、位置の番号順に、P00、P01、P02に並べる。JPEG2000のプログレッションオーダの中にはないLRPC(画質―解像度―位置―成分)の並べ方となる。しかしながら、JPEG2000のプログレッションオーダには未割当てコードがあり、新規に設定する余地があるので、メインヘッダのCODの情報として付加しておく。
【0111】
前記ストリームデータは、第1の実施例同様に、出力形態にあわせた形で出力する。以上が、本実施例の圧縮符号化処理の動作である。
【0112】
次に、前記符号化処理された画像データを伸張する動作について、図26のフローチャートを参照しながら説明する。
【0113】
まず、符号化された画像データに対して、読み出しコマンド入力部から読み出し方法に関する要求仕様を受信し(ステップ1301)、操作司令部がパケット切り出し点を算出してストリーム操作部に操作方法を指令する(ステップ1302)。本実施例での読み出し方法とは、解像度・画角・画質に関する複数のモードで、HDワイド画角HW、SDワイド画角SW、SD標準画角SNと、高画質モードXP、標準画質モードSP、長時間モードLPである。
【0114】
一方、符号化された画像データは、入力部から取り込まれ、ストリームデータとなって、ストリーム操作部に送られる。このストリームデータから必要なパケットデータを取り出し、パケット数Nの計測を開始する(ステップ1303)。
【0115】
パケットデータ『P00 L0』が処理されると(ステップ1304)、画像データとしては、図15(b)に示すように、SD解像度の第1解像度までの標準4:3画角の上位6ビットの画像データとなる。いわゆるSD標準画角の標準画質モード(SN/Sp)となる。
【0116】
さらに、パケットデータを『P01 L0』『P02 L0』まで処理すると(ステップ1305)、図15(c)に示すように、SD解像度の第1解像度までのワイド16:9画角の上位6ビットの画像データとなる。いわゆるSDワイド画角の標準画質モード(SW/Sp)となる。
【0117】
さらに、パケットデータを『P10 L0』『P11 L0』『P12 L0』まで処理すると(ステップ1306)、図15(d)に示すように、HD解像度の第1解像度までのワイド16:9画角の上位2ビットと第1解像度までの水平方向のワイド16:9画角の中位4ビットの画像データとなる。いわゆるHDワイド画角の長時間モード(HW/Lp)となる。
【0118】
さらに、パケットデータを『P00 L1』『P01 L1』『P02 L1』『P10 L1』『P11 L1』『P12 L1』まで処理すると(ステップ1307)、図15(e)に示すように、HD解像度の第1解像度までのワイド画角16:9の上位6ビットの画像データとなる。いわゆるHDワイド画角の標準画質モード(HW/Sp)となる。
【0119】
さらに、パケットデータを『P00 L2』『P01 L2』『P02 L2』『P10 L2』『P11 L2』『P12 L2』まで処理すると(ステップ1308)、図15(f)に示すように、HD解像度の第1解像度までのワイド画角16:9の全8ビットの画像データとなる。いわゆるHDワイド画角の高画質モード(HW/Xp)となる。
【0120】
このように、画質・解像度・位置優先モードでパケットデータを並べておけば、所望するモードの画像データを、ストリームの先頭からの順次処理だけで抽出することが可能となり、前述したポータブル機器に向いた処理となる。また、本実施例においても、零パケット挿入(ステップ1309)による各種効果が得られる。その後、抽出処理は終了となる(ステップ1310)。また、フローが異常処理となったときは、異常終了(ステップ1320)となる。
【0121】
以上のように抽出されたパケットデータは、第1の実施例と同様に処理されデータは復号されて出力される。以上が、本実施例の伸張処理の動作である。
【0122】
以上説明したように、本発明の実施例によれば、複数の表示・画質モードを実現する上で、解像度・位置・画質分割して、画角・解像度の表示モードにあわせ、水平方向の帯域データを重視した画質分割をすることで、各種画像表示方法と、劣化の少ない画質モードとを両立することできる。
【0123】
また、前記解像度・位置・画質分割のパケットデータの並びに関して、画質・解像度・位置優先の並びにすることで、復号時の先頭から順次読み出し、複数のモードに必要なデータを、容易に取得することができる。
【0124】
また、復号時のフォーマット形式を変更することなく、複数の表示モードを実現することができる。これにより、モード移行の切り替わり動作は、スムーズになるとともに、処理負荷の低減を実現できる。
【0125】
(実施例4)
次に、本発明により、解像度・画角・画質に関する多様なモード(SN、SW、HW、LP、SP、XP)に対応した第4の実施例について説明する。基本的な処理ブロック、想定画像は第3の実施例と同じなので、説明は省く。以下処理の異なる部分のみ説明していく。
【0126】
まず、圧縮時の処理について、説明する。画像ソースから取り込まれた1フレームの画像データ400を帯域分割するが、第2の実施例と異なるのは、図16に示すように、2次元ウェブレット変換で生成する低域データに対して再度2次元のウェブレット変換を行う。これにより、3つの帯域分割が行われ、第1の解像度は2LLで、第2の解像度は2HL、2LH、2HHで、第3の解像度が1HL、1LH、1HHとなる。
【0127】
次に、前記帯域分割されたサブバンドを、図17に示すように、3つのプリシンクト402に分割する。第1、第2の解像度での第1のプリシンクト(P00、P10)は画像中央で360×240画素の領域となり、その両脇に第2、第3のプリシンクト(P01、P11、P02、P12)60×240画素の領域となるように位置分割している。第3の解像度での第1のプリシンクト(P20)は画像中央で720×480画素の領域となり、その両脇に第2、第3のプリシンクト(P21、P22)120×480画素の領域となるように位置分割している。
【0128】
上述のように解像度・位置分割されたデータを、図18に示すように、コードブロック403に分割する。第2解像度の第1プリシンクトP10において、0から71のコードブロックに分割され、第1の実施例同様に、エントロピー符号化処理を行う。
【0129】
符号化されたデータは、1フレーム分の画像データ400において、解像度・位置分割されたプリシンクトに集められ、図19に示すように、ビット深さ方向の所定値レベルで3つのレイヤ405に分割される。
【0130】
第1の解像度のデータブロックP00は(図示せず)、上位6ビットを第1のレイヤ(L0)とし、第2のレイヤ(L1)のデータはなく、下位2ビットを第3のレイヤ(L2)としている。第2の解像度のデータブロックP10は、図19のように、垂直成分の低域データ(2HL)の上位6ビットと、その他(2LH、2HH)の上位2ビットを第1のレイヤ(L0)とし、垂直成分の高域データ(1LH、1HH)の中位4ビットを第2のレイヤ(L1)、残り下位2ビットを第3のレイヤ(L2)としている。第3の解像度のデータブロックP20は(図示せず)、第2の解像度のデータブロックにおける分割方法に準じる。第1の実施例同様に、説明の単純化のため画質向上寄与率に関係なく、一様のビット数で画質の分割している。
【0131】
以上の解像度・位置・画質に分割された符号化された画像データのイメージを図20に示す。本発明の特徴である解像度・位置に関する分割方法は、解像度の階層がひとつ多くなっているが、基本的には、第2の実施例同じで、画質に関する分割方法は第1の実施例と同じである。
【0132】
次に、解像度・位置・画質に分割されたパケットデータの並びに関して、図21(a)において、説明する。ストリームデータの全体構造及び、付加情報の構成に関しては、第1の実施例と同じであり、情報の内容のみとパケットデータの並び方が異なっているだけであるので、まずパケットデータの並び方に関して説明する。
【0133】
まず、第2解像度(P00、P10)までは、最初に画質の上位レイヤから、L0、L1、L2と並べる。そして、同じ画質のパケットデータ内の並べ方は、位置の番号順に、P00、P01、P02に並べる。さらに、同じ位置のパケットデータ内の並べ方は、解像度の低い順に、P00、P10と並べる。LPRC(画質―位置―解像度―成分)のプログレッションオーダである。
【0134】
つぎに、第3解像度(P20)からは、最初に画質の上位レイヤから、L0、L1、L2と並べる。そして、同じ画質のパケットデータ内の並べ方は、解像度の低い順に、P00、P10と並べる。さらに、同じ解像度のパケットデータ内の並べ方は、位置の番号順に、P00、P01、P02に並べる。つまり、LRPC(画質−解像度−位置−成分)である。
【0135】
上記のように、プログレッションオーダを途中で切り替える場合、JPEG2000ではPOCマーカセグメントが用意されている。POCマーカセグメントは、プログレッシブオーダを変更する開始点の解像度番号、位置番号(画質番号の開始点は零)と、変更を終了する終了点の解像度番号、位置番号、画質番号と、変更するプログレッションオーダを、指定するようになっている。本実施例の場合、メインヘッダのPOCマーカセグメントに、開始点の解像度番号0、位置番号0を、終了点の解像度番号1、位置番号2、画質番号0を、プログレッションオーダLPCRを指定し、引き続き、次の開始点の解像度番号0、位置番号0を、終了点の解像度番号2、位置番号2、画質番号2を、プログレッションオーダLRPCを指定する。
【0136】
ただし、上記のプログレッションオーダLPRCやLRPCは、JPEG2000の標準で用意されていないが、前述のようにJPEG2000符号化方式には、プログレッションオーダのコードでまだ未割り当てがあるので、新規に設定される余地はある。
【0137】
前記ストリームデータは、第1の実施例同様に、出力形態にあわせた形で出力する。以上が、本実施例の圧縮符号化処理の動作である。
【0138】
次に、前記符号化処理された画像データを伸張する動作について説明する。
【0139】
まず、符号化された画像データに対して、読み出しコマンド入力部から読み出し方法が入力され、操作司令部がストリーム操作部に操作方法を指令する。
【0140】
一方、符号化された画像データは、入力部から取り込まれ、ストリームデータとなって、ストリーム操作部に送られる。前記ストリームデータから、必要なパケットデータの取り出し方を図21で説明する。
【0141】
パケットデータ『P00 L0』『P10 L0』が処理されると、画像データとしては、図21(b)に示すように、SD解像度の第2解像度までの標準4:3画角の上位2ビットと、第2解像度までの水平方向の標準4:3画角の中位4ビットの画像データとなる。いわゆるSD標準画角の長時間モード(SN/Lp)となる。
【0142】
さらに、パケットデータを『P01 L0』『P11 L0』『P02 L0』『P12 L0』まで処理すると、図21(c)に示すように、SD解像度の第2解像度までのワイド16:9画角の上位2ビットと、第2解像度までの水平方向のワイド16:9画角の中位4ビットの画像データとなる。いわゆるSDワイド画角の長時間モード(SW/Lp)となる。
【0143】
さらに、パケットデータを『P20 L0』『P21 L0』『P22 L0』『P00 L1』『P01 L1』『P02 L1』『P10 L1』『P11 L1』『P12 L1』まで処理すると、図21(d)に示すように、HD解像度の第3解像度までのワイド16:9画角で上位2ビットと第3解像度までの水平方向のワイド16:9画角の中位4ビットの画像データとなる。いわゆるHDワイド画角の長時間モード(HW/Lp)となる。
【0144】
さらに、パケットデータを『P20 L1』『P21 L1』『P22 L1』まで処理すると、図21(e)に示すように、HD解像度の第3解像度までのワイド16:9画角で上位6ビットの画像データとなる。いわゆるHDワイド画角の標準画質モード(HW/Sp)となる。
【0145】
さらに、パケットデータを『P00 L2』『P01 L2』『P02 L2』『P10 L2』『P11 L2』『P12 L2』『P20 L2』『P21 L2』『P22 L2』まで処理すると、図21(f)に示すように、HD解像度の第3解像度までのワイド16:9画角で全8ビットの画像データとなる。いわゆるHDワイド画角の高画質モード(HW/Xp)となる。
【0146】
このように、画質・位置・解像度優先モードと画質・解像度・位置優先モードを切り替えてパケットデータを並べておけば、HDワイド画角の画質を重視したモードで画像データを、ストリームの先頭からの順次処理だけで抽出することが可能なり、前述したポータブル機器に向いた処理となる。また、本実施例においても、零パケット挿入による各種効果が得られる。
【0147】
以上のように抽出されたパケットデータは、第1の実施例と同様に処理されデータは復号されて出力される。以上が、本実施例の伸張処理の動作である。
【0148】
以上説明したように、本実施例によれば、3つの帯域分割とプログレッションオーダを途中で変化させることにより、HDワイド画角の画質モードを重視しつつ、SDの画角切り替えも可能な表示処理を、ストリームの先頭からの順次読み出しで、容易に実現することができる。
【0149】
(実施例5)
次に、本発明により、解像度・画角・画質に関する多様なモード(SN、SW、HW、LP、SP、XP)に対応した第5の実施例について説明する。基本的な処理ブロック、想定画像、一部データ処理手順は、第4の実施例と同じなので説明は省き、異なる部分のみ説明していく。
【0150】
まず、圧縮時の処理については、パケットデータを並べるところまでは、第4の実施例と同じである。
【0151】
解像度・位置・画質に分割されたパケットデータの並びに関して、図22(a)において、説明する。
【0152】
まず、第2解像度(P00、P10)までは、最初に画質の上位レイヤから、L0、L1、L2と並べる。そして、同じ画質のパケットデータ内の並べ方は、位置の番号順に、P00、P01、P02に並べる。さらに、同じ位置のパケットデータ内の並べ方は、解像度の低い順に、P00、P10と並べる。LPRC(画質―位置―解像度―成分)のプログレッションオーダである。
【0153】
つぎに、第3解像度(P20)からは、最初に画質の上位レイヤから、L0、L1、L2と並べる。そして、同じ画質のパケットデータ内の並べ方は、解像度の低い順に、P00、P10と並べる。さらに、同じ解像度のパケットデータ内の並べ方は、位置の番号順に、P00、P01、P02と並べる。LRPC(画質−解像度−位置−成分)である。
【0154】
上記のように、本実施例においても第4の実施例と同様にプログレッションオーダを途中で切り替えている。メインヘッダのPOCマーカセグメントに、開始点の解像度番号0、位置番号0を、終了点の解像度番号1、位置番号2、画質番号2を、プログレッションオーダLPCRを指定し、引き続き、次の開始点の解像度番号2、位置番号0を、終了点の解像度番号2、位置番号2、画質番号2を、プログレッションオーダLRPCを指定する。
【0155】
ただし、第4の実施例同様に、上記のプログレッションオーダLPRC やLRPCは、JPEG2000の標準ではないが新規に設定される余地はある。
【0156】
前記ストリームデータは、第4の実施例同様に、出力形態にあわせた形で出力する。以上が、本実施例の圧縮符号化処理の動作である。
【0157】
次に、前記符号化処理された画像データを伸張する動作について説明するが、ストリームデータのパケットデータの読み出し以外は、第4の実施例と同じなので、説明は省略する。ストリームデータの符号化データの取り出し方を図22で説明する。
【0158】
パケットデータ『P00 L0』『P10 L0』が処理されると、画像データとしては、図22(b)に示すように、SD解像度の第2解像度までの標準4:3画角の上位2ビットと、第2解像度までの水平方向の標準4:3画角の中位4ビットの画像データとなる。いわゆるSD標準画角の長時間モード(SN/Lp)となる。
【0159】
さらに、パケットデータを『P01 L0』『P11 L0』『P02 L0』『P12 L0』まで処理すると、図22(c)に示すように、SD解像度の第2解像度までのワイド16:9画角の上位2ビットと、第2解像度までの水平方向のワイド16:9画角の中位4ビットの画像データとなる。いわゆるSDワイド画角の長時間モード(SW/Lp)となる。
【0160】
さらに、パケットデータを『P00 L1』『P10 L1』『P01 L1』『P11 L1』『P02 L1』『P12 L1』まで処理すると、図22(d)に示すように、SD解像度の第2解像度までのワイド16:9画角で上位6ビットの画像データとなる。いわゆるSDワイド画角の標準画質モード(SW/Sp)となる。
【0161】
さらに、パケットデータを『P00 L2』『P10 L2』『P01 L2』『P11 L2』『P02 L2』『P12 L2』まで処理すると、図22(e)に示すように、SD解像度の第2解像度までのワイド16:9画角で全8ビットの画像データとなる。いわゆるSDワイド画角の高画質モード(SW/Xp)となる。
【0162】
さらに、パケットデータを『P20 L0』『P21 L0』『P22 L0』『P20 L1』『P21 L1』『P22 L1』『P20 L2』『P21 L2』『P22 L2』まで処理すると、図22(f)に示すように、HD解像度の第3解像度までのワイド16:9画角で全8ビットの画像データとなる。いわゆるHDワイド画角の高画質モード(HW/Xp)となる。
【0163】
このように、画質・位置・解像度優先モードと解像度・画質・位置優先モードを切り替えてパケットデータを並べておけば、SDワイド画角の画質を重視したモードで画像データを、ストリームの先頭からの順次処理だけで抽出することが可能なり、前述したポータブル機器に向いた処理となる。また、本実施例においても、零パケット挿入による各種効果が得られる。
【0164】
以上のように抽出されたパケットデータは、第1の実施例と同様に処理されデータは復号されて出力される。以上が、本実施例の伸張処理の動作である。
【0165】
以上説明したように、本実施例によれば、3つの帯域分割とプログレッションオーダを途中で変化させることにより、SDワイド画角の画質モードを重視しつつ、SD標準画角/HDワイド画角の切り替えも可能な表示処理を、ストリームの先頭からの順次読み出しで、容易に実現することができる。
【0166】
(実施例6)
次に、本発明により、解像度・画角・画質に関する多様なモード(SN、SW、HW、LP、SP、XP)に対応した第6の実施例について説明する。基本的な処理ブロック、想定画像、一部データ処理手順は、第4の実施例と同じなので説明は省き、異なる部分のみ説明していく。
【0167】
まず、圧縮時の処理については、パケットデータを並べるところまでは、第4の実施例と同じである。解像度・位置・画質に分割されたパケットデータの並びに関して、図23(a)において、説明する。
【0168】
まず、第2の解像度(P00、P10)までは、最初に位置の番号順に、P00、P01、P02と並べる。そして、同じ位置のパケットデータ内の並べ方は、画質の上位レイヤから、L0、L1、L2と並べる。さらに、同じ画質のパケットデータ内の並べ方は、解像度の低い順に、P00、P10と並べる。PLRC(位置−画質−解像度−成分)である。
【0169】
つぎに、第3解像度(P20)からは、最初に解像度の低い順に、P02と並べる。そして、同じ解像度のパケットデータ内の並べ方は、位置の番号順に、P00、P01、P02と並べる。さらに、同じ位置のパケットデータ内の並べ方は、画質の上位レイヤから、L0、L1、L2に並べる。RPLC(解像度−位置−画質−成分)である。
【0170】
上記のように、本実施例においても第4の実施例と同様にプログレッションオーダを途中で切り替えている。メインヘッダのPOCマーカセグメントに、開始点の解像度番号0、位置番号0を、終了点の解像度番号1、位置番号2、画質番号2を、プログレッションオーダPLRCを指定し、引き続き、次の開始点の解像度番号2、位置番号0を、終了点の解像度番号2、位置番号2、画質番号2を、プログレッションオーダRPLCを指定する。
【0171】
ただし、第4の実施例同様に、上記のプログレッションオーダPLRC やRPLCは、JPEG2000の標準ではないが新規に設定される余地はある。
【0172】
前記ストリームデータは、第4の実施例同様に、出力形態にあわせた形で出力する。以上が、本実施例の圧縮符号化処理の動作である。
【0173】
次に、前記符号化処理された画像データを伸張する動作について説明するが、ストリームデータのパケットデータの読み出し以外は、第4の実施例と同じなので説明は省略する。ストリームデータの符号化データの取り出し方を図23で説明する。
【0174】
パケットデータ『P00 L0』『P10 L0』が処理されると、画像データとしては図23(b)に示すように、SD解像度の第2解像度までの標準4:3画角の上位2ビットと、第2解像度までの水平方向の標準4:3画角の中位4ビットの画像データとなる。いわゆるSD標準画角の長時間モード(SN/Lp)となる。
【0175】
さらに、パケットデータを『P00 L1』『P10 L1』まで処理すると、図23(c)に示すように、SD解像度の第2解像度までの標準4:3画角で上位6ビットの画像データとなる。いわゆるSD標準画角の標準画質モード(SN/Sp)となる。
【0176】
さらに、パケットデータを『P00 L2』『P10 L2』まで処理すると、図23(d)に示すように、SD解像度の第2解像度までの標準4:3画角で全8ビットの画像データとなる。いわゆるSD標準画角の標準画質モード(SN/Xp)となる。
【0177】
さらに、パケットデータを『P01 L0』『P11 L0』『P01 L1』『P11 L1』『P01 L2』『P11 L2』『P02 L0』『P12 L0』『P02 L1』『P12 L1』『P02 L2』『P12 L2』まで処理すると、図23(e)に示すように、SD解像度の第2解像度までのワイド16:9画角で全8ビットの画像データとなる。いわゆるSDワイド画角の高画質モード(SW/Xp)となる。
【0178】
さらに、パケットデータを『P20 L0』『P20 L1』『P20 L2』『P21 L0』『P21 L1』『P21 L2』『P22 L0』『P22 L1』『P22 L2』まで処理すると、図23(f)に示すように、HD解像度の第3解像度までのワイド16:9画角で全8ビットの画像データとなる。いわゆるHDワイド画角の高画質モード(HW/Xp)となる。
【0179】
このように、画質・位置・解像度優先モードと解像度・画質・位置優先モードを切り替えてパケットデータを並べておけば、SD標準画角の画質を重視したモードで画像データを、ストリームの先頭からの順次処理だけで抽出することが可能なり、前述したポータブル機器に向いた処理となる。また、本実施例においても、零パケット挿入による各種効果が得られる。
【0180】
以上のように抽出されたパケットデータは、第1の実施例と同様に処理されデータは復号されて出力される。以上が、本実施例の伸張処理の動作である。
【0181】
以上説明したように、本実施例によれば、3つの帯域分割とプログレッションオーダを途中で変化させることにより、SD標準画角の画質モードを重視しつつ、SD/HDワイド画角の切り替えも可能な表示処理を、ストリームの先頭からの順次読み出しで、容易に実現することができる。
【0182】
(実施例7)
次に、これまでの実施例で説明してきたストリームデータを、記録媒体に記憶しダビングするシステムに関する実施例7を、図24を用いて説明する。
【0183】
図24(a)が本発明を実施した実施例のブロック図である。
【0184】
図24(a)において、10は第3の実施例の符号化装置、20は第3の実施例の復号化装置、30はディスクビデオカメラシステム、31はカメラ部、32はバッファメモリ、33はデータ転送部、34はディスクメディア、35はデジタルインターフェース、40はメモリカードビデオカメラシステム、41はデジタルインターフェース、42はバッファメモリ、43はデータ転送部、44はメモリカードメディアである。
【0185】
まず、ディスクビデオカメラシステム30の記録に関して説明する。被写体映像がカメラ部から取り込まれると、画像・位置・画質に分割符号化する符号化装置10でデータ圧縮され、バッファメモリ32に書き込まれる。バッファメモリにデータが所定量蓄積されると、データ転送部33が動作し、バッファメモリ32の符号化データをディスクメディア34に書き込む。
【0186】
ここで、分割された符号化データとディスク書込みエリアの関係を図24(b)、(c)で説明する。
【0187】
書き込むストリームデータは、第3の実施例で生成された図15のように、5つの階層データをもつ。一方、本実施例のディスクメディアは、図24(c)に示すように、片面二層のディスクシステムであり、書込みエリアを厚さ方向に34a、34bに分割して入れることができる。また、円周方向には図24(b)に示すように、リードインエリア34xと第1のデータエリア34y、第2のデータエリア34zに分かれている。リードインエリアは、ディスクを管理する上で必要な制御データが書き込まれ、データ書き込めないので、データを書き込むエリアは4つに分けることができる。
【0188】
そこで、SD解像度の標準画角の標準画質データ(SN/Sp)は、現行TVシステム必須の表示方法なので、固定長化してアクセスの容易なディスク内周エリア34yの上層の34aに記録する。SD解像度のワイド画角の標準画質データ(SW/Sp)とHD解像度のワイド画角の長時間モードデータ(HW/Lp)は、デジタルTVの標準表示方法なので、やはり固定長化してアクセスの容易なディスク内周エリア34yの下層の34bに記録する。さらに、HD解像度のワイド画角の標準画質データ(HW/Sp)とHD解像度ワイド画角の高画質データ(HW/Xp)は、可変長のまま外周エリア34zの上層34aと下層34bにそれぞれ分けて記録しておく。
【0189】
ここで、内周エリアは各解像度・画角の表示で必要なデータを記録し、しかも固定長化しているので、各表示方法でサーチ・特殊再生等でデータを検索するのに効果がある。
【0190】
また、内周記録エリアのデータが一杯になってしまった時は、内周エリアの境界を移動させ、外周エリアのデータをオーバーライトするようにしておくと、HDワイド画角の高画質化データを書き換えるだけで、高画質モードから長時間モード記録に容易に変更できる。
【0191】
次に、本システムを用いたダビング動作を説明する。
【0192】
図24(a)において、ダビングソース送り元がディスクビデオカメラ30で、送り先がメモリカードビデオカメラ40である。まず、SD解像度の画像データしか復号できないメモリカードビデオカメラ40は、デジタルインターフェース41、35を介してSD解像度の画像データを要求する。ディスクビデオカメラ30は、ディスクメディア34の内周エリア上層に書き込まれたSD解像度の標準画角の標準画質データをデータ転送部33でバッファメモリ32に逐次読み出す。ストリームとしては先頭から2つの分のパケットデータとなる。前記パケットデータを含んだストリームの一部を復号化装置20は読み出す。復号化装置20では、読み出したSD解像度の画像データのパケットに対して、HDワイド画角の高画質モードに不足するパケットデータを零パケットとして挿入し、ストリームを再構築して、デジタルインターフェース35に送る。デジタルインターフェース35、41を介してストリームデータは、メモリカードビデオカメラ40に送られる。そして、データは、既にストリーム化されているので、符号化装置10ではファイルフォーマット処理を施す程度で、バッファメモリ42に書き込まれる。前記ダビングデータは、SD解像度の画像データ以外は零パケットになっているので、データ量もコンパクトな形で、バッファメモリ42からメモリカードメディア44にデータ転送部43で書き込まれる。
【0193】
以上のように、デジタルダビングするときのモード変換は、先頭から読み出した必要なストリームの後に、零パケットデータを挿入するだけで、コード量を減らし機器間のデータ転送を容易にして、実現することができる。
【0194】
また、ストリームの前半にあるデータは、アクセス頻度が高いので、内周側に記録することにより、ダビング時のデータ転送速度を稼ぐ事ができる。さらに、ストリーム後半にあるデータを外周に配置し可変長にすることにより、高精細なデータを漏らす事無く記録したり、零パケットのコード長の変更にも、有効に記録エリアを利用したりすることができる。
【0195】
(実施例8)
最後に、これまでの実施例で説明してきたストリームデータを、複数の記録媒体に分けて記録するシステムに関して、本発明の実施例を、図25で説明する。
【0196】
図25(a)が本発明を実施した実施例の記録動作時のブロック図である。
【0197】
図において、51がカメラ部、10が実施例3の符号化装置、52、55がバッファメモリ、53、56がデータ転送部、57がディスクメディア、54がメモリカードメディアである。
【0198】
カメラ部51から入力された画像は、符号化装置10で、解像度・位置・画質分割されパケットデータの並びであるストリームデータを生成する。ストリームデータはファイルシステムのヘッダ処理等の付加データをつけて、バッファメモリ52、55に書き出す。ここで、55は実施例7で述べたディスクの内周エリアに書き込むデータであり、52はディスクエリアの外周エリアに書き込むデータである。そして、前記バッファメモリ52、55に書かれたデータは、データ転送部53、56で、記録メディアである54、57に書き込まれる。つまり、高画質化データをメモリカードに、ベースラインデータをディスクに書き込むシステムである。
【0199】
ここで、再生動作について、図25(b)で説明する。再生時にカードメディアがあれば、メモリカードから高画質化データを読み出し、ディスクからベースラインデータを読み出して、復号化装置20でHDワイド画角の高画質ストリームデータ再構成したのち、データを復号して、デジタルテレビシステム60にフルスペックで出力する。
【0200】
一方、メモリカードメディア54が装着されて無ければ、図25(c)に示すように、ディスク57からベースラインデータを読み出して、カードが無いために不足しているデータを復号装置20で零パケット挿入して、ストリームデータを整えた後、復号処理して、SD標準画角の標準画質データを出力し、本体内のLCD58に表示する。
【0201】
このように、本実施例においても、ストリームデータの先頭からの抽出あるいは、零パケット挿入で、モード変換ができる復号化方式で、優先順位の高いメディアにストリーム前半のデータを割り当てておけば、複数のメディアにデータを振り分けて記録することができる。
【0202】
【発明の効果】
以上説明したように、本発明によれば、多様な画質モードに対応可能な画像の符号化データを容易に生成できる。またシステムで設定された画質モードに応じて符号化データから所望の画像データを抽出できる。
【図面の簡単な説明】
【図1】(a)は本発明における符号化装置10の全体ブロック図、(b)は本発明における復号化装置20の全体ブロック図である。
【図2】本発明の実施例1における画像の帯域分割の概念図である。
【図3】本発明の実施例1における位置分割の概念図である。
【図4】本発明の実施例1におけるコードブロック分割の概念図である。
【図5】本発明の実施例1におけるに画質分割の概念図である。
【図6】本発明の実施例1における階層的な分割の概念図である。
【図7】(a)、(b)、(c)、(d)は本発明の実施例1におけるストリームデータの概念図である。
【図8】本発明の実施例2における位置分割の概念図である。
【図9】本発明の実施例2におけるコードブロック分割の概念図である。
【図10】本発明の実施例2における画質分割の概念図である。
【図11】本発明の実施例2における階層的な分割の概念図である。
【図12】(a)、(b)、(c)、(d)は本発明の実施例2におけるストリームデータの概念図である。
【図13】本発明の実施例3における画質分割の概念図である。
【図14】本発明の実施例3における階層的な分割の概念図である。
【図15】(a)、(b)、(c)、(d)、(e)、(f)は本発明の実施例2におけるストリームデータの概念図である。
【図16】本発明の実施例4における画像の帯域分割の概念図である。
【図17】本発明の実施例4における位置分割の概念図である。
【図18】本発明の実施例4におけるコードブロック分割の概念図である。
【図19】本発明の実施例4における画質分割の概念図である。
【図20】本発明の実施例4における階層的な分割の概念図である。
【図21】(a)、(b)、(c)、(d)、(e)、(f)は本発明の実施例4におけるストリームデータの概念図である。
【図22】(a)、(b)、(c)、(d)、(e)、(f)は本発明の実施例5におけるストリームデータの概念図である。
【図23】(a)、(b)、(c)、(d)、(e)、(f)は本発明の実施例6におけるストリームデータの概念図である。
【図24】本発明の実施例7におけるダビングシステムの全体のブロック図である。
【図25】本発明の実施例8における複数メディアシステムの全体のブロック図である。
【図26】本発明の実施例3におけるストリームデータ抽出処理に関するフローチャートである。
【符号の説明】
1 帯域・位置分割部
2 量子化部
3 符号化部
4 ストリーム生成部
5 出力部
10 画像符号化装置
20 画像復号化装置
21 コマンド入力部
22 操作指令部(マイクロコンピュータ)
23 入力部
24 ビットストリーム解析部
25 復号化部
26 逆量子化部
27 帯域合成部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image encoding method, an image encoding device, and a recording device that generate an encoded image that can be decoded at a desired resolution or image quality.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as a device for displaying an image captured by a digital still camera or a digital video camera, a television monitor or a monitor of a personal computer (PC) is generally used. In recent years, infrastructures such as a PC monitor capable of relatively flexibly supporting many resolutions and a digital television system capable of displaying a plurality of resolutions are being prepared.
[0003]
On the other hand, the mainstream of the camera body is a product equipped with a high-pixel image sensor such as a CCD exceeding 1 million pixels, and a product equipped with a large LCD monitor that allows the captured image to be easily viewed. I have. Furthermore, in recent years, an infrastructure for a print system that cuts out a part of a captured image and directly prints the image, and an infrastructure for connecting a camera to a network such as the Internet and transmitting and receiving the captured image by e-mail or the like have been prepared. ing.
[0004]
As described above, the camera system was previously configured to obtain an optimum output image for a standard monitor or a television monitor that displays only one resolution. It is important to flexibly cope with various image output modes, and a configuration for efficiently generating and outputting high-quality and large-capacity data necessary for flexibly responding is required.
[0005]
As a technique for coping with various display forms, a prior art for recording a high-definition image (HD) and reproducing it as a standard image (SD) is disclosed in Japanese Patent Application Laid-Open No. 06-339114 (Patent Document 1). I have. FIG. 16 of
[0006]
As a different prior art, a technique for transmitting the same image at a plurality of resolutions is disclosed in Japanese Patent Application Laid-Open No. 2000-184328 (Patent Document 2). In FIG. 3 of
[0007]
Further, Japanese Patent Application Laid-Open No. 2000-36959 (Patent Document 3) discloses that image data is hierarchically encoded at a resolution level, and a transform coefficient for generating each resolution level is divided (tiled) to obtain a desired portion or resolution of the image data. At the level, a method of constructing tile data that enables both random access and high-speed access is disclosed. As shown in FIG. 3 of
[0008]
[Patent Document 1]
JP-A-6-339114 (FIGS. 16, 27 and 19)
[Patent Document 2]
JP 2000-184328 A (FIGS. 2 and 3)
[Patent Document 3]
JP 2000-36959 A (FIGS. 3 and 5)
[0009]
[Problems to be solved by the invention]
However, the above-mentioned patent documents are written with the idea of trying to cope with a plurality of resolutions, and employ a high image quality mode (hereinafter referred to as XP) employed in today's video tape recorders, DVD recorders or HD recorders. Each mode of the recording system such as a standard mode (hereinafter referred to as an SP mode), a long time mode (hereinafter referred to as an LP mode), that is, a selective recording image quality and a recording time corresponding thereto (hereinafter referred to as an LP mode) Or, a configuration corresponding to a mode for setting the number of recorded images is not considered.
[0010]
That is, according to the conventional technology, it is possible to use a single encoded data for all modes in a recording system or the like having a mode (XP mode, SP mode, LP mode) corresponding to a plurality of image qualities at the same resolution. There was a problem that it could not be done.
[0011]
SUMMARY OF THE INVENTION The present invention solves the above-described problems, generates encoded data of an image that can be used in various image quality modes, and is suitable for use in a system that performs recording, reproduction, transmission or display, and sets the encoded data. It is an object of the present invention to provide an image encoding method, an image encoding device, and a recording device that enable desired image data to be extracted from the encoded data according to the set image quality mode.
[0012]
[Means for Solving the Problems]
As means for achieving such an object, the present invention has means having the following configuration.
[0013]
An image encoding method according to the present invention is the image encoding method for compressing and encoding input image data, wherein a band dividing step of dividing the input image data into a plurality of frequency bands, and each of the bands divided in the band dividing step. An image quality dividing step of dividing the size of the image data into a plurality of layers by a predetermined threshold value, and setting the threshold value in the image quality dividing step according to a degree of a vertical component of the image data band-divided in the band dividing step. Setting step.
[0014]
Further, the image coding apparatus of the present invention is a video coding apparatus for compressing and coding input image data, wherein the band splitting means for splitting the input image data into a plurality of frequency bands, Position dividing means for dividing each image data into a plurality of image spaces, image quality dividing means for dividing the size of each image data band-divided by the band dividing means into a plurality of layers at a predetermined threshold, The number of pixels of the band data divided by the dividing unit is set to include a plurality of display resolutions, and the number of pixels of the band data divided by the position dividing unit includes a plurality of display angles of view. Setting means for setting the number of pixels such that the threshold is set higher when the vertical component of the band-divided image data is lower than when the vertical component is higher. And butterflies.
[0015]
The recording device of the present invention is a recording device that records a data stream generated by the image encoding device, and separates the data stream at a predetermined cutout point according to a desired resolution, angle of view, or image quality. Then, the encoded data included in the first half of the separated data stream is recorded in the first recording area, and the encoded data included in the second half of the separated data stream is recorded in the first recording area different from the first recording area. 2 is recorded in the recording area.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
In each example of the embodiment of the present invention, JPEG2000 (including Motion JPEG2000) is used as an image encoding method. Since the JPEG2000 system is described in ISO / IEC15444-1 (hereinafter referred to as a standard), a detailed description thereof will be omitted, but an outline related to the embodiment of the present invention will be described below.
[0017]
According to the standard, compression-encoded data generated by hierarchical encoding is grouped by the same resolution (R), image position (P), image quality (L), and signal component (C), and the compression code is generated in units of packet data. A mechanism for classifying coded data is specified. Thereby, the priority of the decoding process can be determined according to the rearrangement of the packet data.
[0018]
In addition, B.N.
[0019]
However, the standard does not specify a method that satisfies various expression forms represented by a hierarchical structure of image quality and resolution as in a digital television system. In particular, the digital television system has a mode for displaying a plurality of resolutions of 720 × 480 (interless non-inter SD), 1280 × 720 (non-inter HD), and 1920 × 1080 (interless HD). The corners also have two display modes, 4: 3 (Narrow) and 16: 9 (Wide). In addition to such various display modes, there are reproduction modes such as a high image quality mode (XP), a standard mode (SP), and a long time mode (LP).
[0020]
If image data compressed and encoded by the JPEG2000 system is used, the above-mentioned various display modes can be realized in principle by randomly accessing and decoding encoded packet data required for the above-mentioned display mode. Although it is possible, when extracting necessary packet data, detecting and searching for the attributes of all packets causes a heavy processing load on the system, which is not practical. Therefore, if the necessary packet data is grouped in advance for each display mode, and the desired display mode is selected, the packet data is extracted in a certain unit to reduce the processing load. In the present embodiment, focusing on this, the arrangement of predetermined packet data is defined, and various display modes are easily realized or the display mode is changed without performing the packet data selection processing. Make it possible. Such an embodiment is described in detail below.
[0021]
(Example 1)
FIG. 1 is a block diagram of an image encoding device and an image decoding device according to a first embodiment corresponding to various modes (LP, SP, XP) relating to image quality. FIG. 1A shows the configuration of an image encoding device, and FIG. 1B shows the configuration of an image decoding device. Note that the image encoding device and the image decoding device in FIG. 1 may be integrated (so-called codec), and recording / reproduction using a magnetic tape, a disk such as a DVD or Blu-Ray, a memory card, or the like as a recording medium. Applicable to devices and the like.
[0022]
The
[0023]
The
[0024]
First, processing of image data at the time of compression will be described with reference to FIG. In the present embodiment, a frame having a resolution of 1920 × 960 pixels as shown in FIG. 2 is used in order to include the non-inter HD 1280 × 720 as the assumed image.
[0025]
The image data for one frame captured from the image source is subjected to the horizontal-direction weblet conversion and further to the vertical-direction weblet conversion by the band /
[0026]
FIG. 2 shows a state in which the above-described two-dimensional wavelet transform has been performed and the operation of exchanging the high-frequency transform coefficient and the low-frequency transform coefficient has been performed. In FIG. 2,
[0027]
Regarding the notation of a two-dimensional band (sub-band), the low band is represented by L and the high band is represented by H, and the coefficient generated by one weblet operation is 1.
[0028]
In the notation method of the number of band divisions (resolution level), the coefficient of the lowest band generated by the two-dimensional Weblet transform is set to R0, and the notation of adding +1 to the high band data with respect to the low band coefficient is also shown in FIG. It is shown in parentheses. For example, since this operation is performed once, 1LL of R0 and 1HL, 1LH, and 1HH of R1 are generated. If the weblet operation is recursively applied to 1LL, 2LL of R0, 2HL, 2LH, 2HH of R1, and 1HL, 1LH, 1HH of R2 are generated (see FIG. 16). In the case of expressing the transform coefficient obtained by dividing the band in the future, the description will be made using the above notation.
[0029]
The coefficients that have been band-divided by the above-described weblet operation are also subjected to an operation of so-called position division, which is an operation of dividing into a group (precinct) of transform coefficients at the same positions as the pixels of the
[0030]
As shown in FIG. 3, a method of notifying a unit (precinct) by the position division is to write a resolution level in a subscript of P, and then to write a precinct. Therefore, in this embodiment, R0 is
[0031]
Returning to FIG. 1, the transform coefficient obtained by performing the band / position division operation as described above in the band /
[0032]
The quantized transform coefficients are compression-coded by the
[0033]
Further, entropy encoding processing is performed on the divided code blocks. Specifically, as shown in FIG. 5, the transform coefficients of the
[0034]
With respect to arithmetic coding, an encoding model is determined for each pixel in a square bit plane from peripheral pixel values of the target pixel and upper bits of the target pixel, and arithmetic coding is performed. This method is called an EBCOT type entropy coding method.
[0035]
As described above, data encoded in units of
[0036]
The
[0037]
The division in the bit depth direction according to the present embodiment is performed in three blocks 105 (layers) as follows.
[0038]
Data block P of first resolution 0 For 0, the upper 6 bits are the first layer (L0), the second layer (L1) has no data, and the remaining lower 2 bits are the third layer (L2). Data block P of
[0039]
In this manner, dividing in the bit depth direction is equivalent to dividing in terms of image quality because each pixel is divided into data blocks that contribute to image quality. The data obtained by dividing the resolution / position / image quality is called packet data.
[0040]
FIG. 6 shows an image of the coded data divided into the above resolution, position, and image quality. In the figure,
[0041]
As a division method related to image quality, which is a feature of the present invention, the first image quality block (L0) includes the upper 6 bits in the horizontal direction. As a result, even in the long-time mode (LP) having the image quality of L0, it is possible to secure the same horizontal resolution as in the standard mode (SP). In the case of a television monitor, the vertical resolution is limited by the number of TVs, but the horizontal resolution can be expressed up to the TV display capability. Therefore, by maintaining the horizontal resolution, it is possible to reduce image quality degradation.
[0042]
The packet data is output as a series of stream data by the
[0043]
FIG. 7A illustrates the configuration of stream data. First, additional information is added to the generated packet data by the
[0044]
The
[0045]
After the above header information, a tile part header (TpH) follows. Although not employed in the present embodiment, it is also possible with the JPEG2000 encoding method to divide one frame image into small areas (tiles) before band division of one frame image. In the case of the present embodiment, since the tile division is not performed, one frame image is interpreted as one tile data. Information about this tile is in the tile part header.
[0046]
The tile part header starts with a marker segment SOT (Start of Tile-part) indicating the start. The SOT also has information on the length of one tile part. As other information of the tile part header, there are information COD and POC on the arrangement of packet data in the tile. The priority is higher in the tile part header. At the end of the tile part header, there is an SOD (Start of Data) indicating that subsequent packet data is started. Although there is other information in the header information, it is not relevant to the present invention, and a description thereof will be omitted.
[0047]
The packet data has an SOP (Start of Packet) marker segment indicating that it is the head of the packet, and an EPH (End of Packet Header) indicating the end of the packet is provided at the end of the packet data.
At the end of the series of stream data, there is a marker segment EOC (End of Codestream) indicating the end of the stream as footer information.
[0048]
As described above, the
[0049]
Here, a method of arranging packet data, which is a feature of the present invention, will be described with reference to FIG. First, regarding the image quality, the packet data is arranged in the order of L0, L1, and L2 from the upper layer. Furthermore, the order of arrangement in packet data of the same image quality is
[0050]
Returning to FIG. 1, the stream data thus generated is sent to the output unit 5 for post-processing the output. The output unit 5 regenerates the stream data in a form suitable for the output form of the subsequent stage.
[0051]
For example, if there is a disk system having a file system at the subsequent stage, information relating to synchronization of a moving image, information relating to a copyright, and the like are added to the stream data information, and the stream data information is output as Motion JPEG2000 file format data. If the subsequent stage is a digital interface, the stream data is divided into small parts for packet transmission, and header information is appropriately added and output.
[0052]
The above is the description of the operation of the
[0053]
Next, an operation of expanding the encoded data of the image compressed by the
[0054]
First, an instruction is input from the read
[0055]
Further, the read method instructed by the read command is, specifically, a resolution HD or SD that can be displayed on the display unit, a wide angle of view 16: 9 (W), a standard angle of view 4: 3 ( N) or image quality XP, SP, LP.
[0056]
When the output destination is a device having another recording medium, a read command is input via a digital interface in order to read a data stream that matches the recording capacity and decoding capability of the output destination.
[0057]
In the case of this embodiment, since a plurality of modes XP, SP, and LP relating to image quality are supported, an input is performed so that the readout method matches the above-described mode according to the capability of the output destination. In response to the command input of the reading method, the
[0058]
On the other hand, the encoded image data is captured by the
[0059]
Subsequently, the stream data is sequentially processed from the first marker segment starting with the SOC, and the sequential packet data is also processed. For example, packet data "
[0060]
Further, the packet data is changed to "
[0061]
Further, the remaining packet data "
[0062]
Thus, by arranging the packet data in the image quality priority mode, it becomes possible to extract the image data in the desired mode by only sequential processing from the head of the stream without analyzing all the header information. This is a process that can be realized even with a limited work memory and a limited processing capacity in a portable device that is forced to be downsized with limited power. Specifically, a process at the time of mode conversion (down conversion from the XP mode to SP and LP) when dubbing data to another device is assumed.
[0063]
When digital dubbing is performed as work after the packet data is extracted from the top, the following processing is performed. After the last extracted packet data, zero packet data is added so that the number of packet data in a series of stream data does not change. Further, by adding zero packet data, information on the changing packet data length is reflected in the SOT marker segment.
[0064]
This processing slightly increases the code amount, but eliminates the need to reflect information such as a change in resolution and image quality due to stream clipping in the header information, and can reduce the load of the header processing. Also, since the stream format is unified, it is easy to connect streams of different modes in editing work or the like. In other words, even when the mode is switched, no change occurs in the data reading sequence (the number of times of reading the packet, the change of the attribute of the header information, and the like), so that it is possible to smoothly switch the mode transition in which only the image quality changes. Further, since the structure of the stream data is not changed, it is possible to easily realize a system that records on a recording medium by specializing in the stream data structure.
[0065]
Although the present embodiment has been described on the premise that all the image data at the time of encoding exists (XP mode), the case where only a part of the data is present as in the LP mode is described above. If a zero packet is inserted in the above, the up-conversion operation from LP to SP and XP can be realized by the same processing as described above.
[0066]
Returning to FIG. 1 again, the packet data processed by the bit
[0067]
The reconstructed transform coefficients are sent to the
[0068]
As described above, according to the present embodiment, in order to realize a plurality of image quality modes, instead of mere image quality division in the bit direction, resolution / image quality division is performed, and emphasis is placed on band data in the horizontal direction. By classifying the image into the higher image quality level, it is possible to reduce the deterioration of the image quality.
[0069]
In addition, by giving priority to the image quality with respect to the arrangement of the packet data of the resolution / image quality division, data necessary for a plurality of image quality modes can be easily obtained by sequential reading from the head at the time of decoding.
[0070]
Further, by inserting zero packets, a plurality of image quality modes can be realized without changing the format format of the stream configuration, and a smooth mode transition and a reduction in processing load can be realized.
[0071]
Further, since a plurality of image quality modes are realized in a unified format, a recording format specialized for a stream structure can be easily constructed.
[0072]
In the present embodiment, the description has been made on the assumption that the resolution is the HD mode. However, the present invention is not limited to this, and is an effective technique in the SD mode and other resolutions.
[0073]
Further, in the present embodiment, the image quality division is uniformly performed with a predetermined number of bits, but a value determined by an image quality improvement contribution rate in units of code blocks actually performed is multiplied by a weight coefficient. It is preferable to realize the present invention in a different form, and this is another embodiment that further enhances the effects of the present invention.
[0074]
Further, in the present embodiment, three image quality modes have been described, but the present invention can be applied to two or four or more image quality modes.
[0075]
(Example 2)
Next, a description will be given of a second embodiment corresponding to various modes (SN, SW, HW) relating to the resolution and the angle of view according to the present invention. The basic processing blocks are the same as in the first embodiment, and a description thereof will be omitted. Hereinafter, only different portions of the processing will be described.
[0076]
In the present embodiment, as the assumed images, HD1280 × 720 (hereinafter, referred to as HW) having a 16: 9 wide field angle of non-inter and SD720 × 480 (hereinafter, SW) having 16: 9 wide field of view of non-inter are used. ) And SD720 × 480 (hereinafter, referred to as SN), which is a 4: 3 standard angle of view. However, the resolution of the HW is set so as to be included, and therefore, the description is made with a frame having a resolution of 1920 × 960 pixels (see FIG. 8).
[0077]
First, the processing at the time of compression is the same as that of the first embodiment up to the processing of performing two-dimensional weblet conversion on one frame of image data captured from an image source.
[0078]
In the present embodiment, as shown in FIG. 8, an operation of combining the transform coefficients at the same position as the position of the original image and dividing it into a position block (precinct) 202 is added.
[0079]
In FIG. 8, a band (sub-band) obtained by band division is divided into three regions (precincts). The first precinct (
[0080]
After quantizing the transform coefficient divided into the resolution and the position as described above, it is divided into code blocks 203 shown in FIG. P 0 For 0, it is divided into 0 to 95 code blocks and P 1 For 0, it is divided into 0 to 287 code blocks. An entropy encoding process is performed on the divided code blocks as in the first embodiment.
[0081]
The coded data is collected in units of resolution / position-divided blocks (precincts) 202 in the
[0082]
The upper two bits are the first layer (L0), the second layer (L1) is the middle four bits, and the remaining lower two bits are the third layer (L2).
[0083]
FIG. 11 shows an image of the encoded image data divided into the above resolution, position, and image quality. In FIG. 11,
[0084]
The feature of the present invention is a resolution method and a position division method, which are SD standard view angle 4: 3 (SN), SD wide view angle 16: 9 (SW), HD standard view angle 4: 3 (HN), and HD wide view. This is to express the display mode of the corner 16: 9 (HW). Specifically, the first precinct (P0) of the first resolution (1LL) is the SN mode of 720 × 480, and the first, second, and third precincts (P0, P1, P2) of the first resolution (1LL) are used. ) Is the SW mode of 960 × 480, the first precinct (P0) of the second resolution (1LL, 1HL, 1LH, 1HH) is the HN mode of 1440 × 960, and the second resolution (1LL, 1HL, 1LH). , 1HH), the first, second and third precincts (P0, P1, P2) are in the 1920 × 960 HW mode.
[0085]
Next, the arrangement of packet data divided into resolution, position, and image quality will be described with reference to FIG. The overall structure of the stream data is the same as in the first embodiment, and includes the
[0086]
Since the configuration of the additional information (marker segment) is the same, the description is omitted, and only the arrangement of the packet data will be described. First, in order from the lowest resolution,
[0087]
The stream data is output in a form according to the output mode, as in the first embodiment. The above is the description of the processing at the time of image compression.
[0088]
Subsequently, an operation of expanding the encoded data of the compressed image will be described. First, a command specifying a reading method is input to the encoded image data from the reading
[0089]
On the other hand, the encoded image data is taken in from the
[0090]
Packet data "
[0091]
Further, the packet data is changed to "
[0092]
Further, the remaining packet data "
[0093]
Thus, by arranging the packet data in the resolution priority mode, it becomes possible to extract the image data of the desired mode only by sequential processing from the head of the stream without analyzing all the header information. This is a process suitable for a portable device as described above.
[0094]
Also in this embodiment, as in the first embodiment, the operation of inserting a zero packet can be performed, and the same effects on the recording system as in the conversion by conversion, mode transition by editing can be obtained.
[0095]
The packet data extracted as described above is processed in the same manner as in the first embodiment, and the data is decoded and output.
[0096]
The above is the description of the operation of the decompression process of this embodiment.
[0097]
As described above, according to the embodiment of the present invention, in realizing a plurality of display modes, various image display methods are realized by dividing resolution and position and adjusting the angle of view and resolution to the display mode. can do.
[0098]
In addition, by arranging the resolution / position division packet data arrangement in a priority order of resolution, it is possible to sequentially read data from the head at the time of decoding and easily obtain data necessary for a plurality of display modes.
[0099]
In addition, the JPEG2000 system includes a process of dividing an image into a plurality of tiles before band division. Even if this function is used, it is possible to switch the angle of view. In the division, image distortion occurs at the division boundary during decoding. However, in the image division of the present embodiment, image distortion does not occur at the precinct boundary, so that better image restoration can be realized.
[0100]
In this embodiment, three display modes have been described. However, the present invention can be applied to a display mode in which both the resolution (SN and HW) and the angle of view change.
[0101]
In the above two display modes, the display mode can be switched even in the position priority progression order (PRCL).
[0102]
In the present embodiment, the angle of view uses a hierarchical structure (precinct) of image positions. In the JPEG2000 system, a process of dividing an image into tiles before band division can be provided. In the present embodiment, the processing without tile division (one tile) has been described, but it is also possible to realize switching of the angle of view by this tile division processing. All of the progression orders are performed in a tile (rearrangement of packet data in a tile part stream). Therefore, the tile division is given the highest priority from the viewpoint of the progression order, so that the position-first progression order is obtained. Therefore, if the tile division + resolution priority progression order is used, the progression order is PRxx, and the above two display modes can be realized, which is another embodiment of the present invention. In this embodiment, the progression order PRCL is not prepared according to the JPEG2000 standard. However, in the present embodiment, the progression order PRCL can be realized within the JPEG2000 standard.
[0103]
(Example 3)
Next, a description will be given of a third embodiment corresponding to various modes (SN, SW, HW, LP, SP, XP) relating to resolution, angle of view, and image quality according to the present invention. The basic processing blocks are the same as in the first embodiment, and a description thereof will be omitted. Also, the assumed image in the present embodiment is the same as that in the second embodiment, and a description thereof will be omitted. Hereinafter, only different portions of the processing will be described.
[0104]
The processing at the time of compression is the same as that of the second embodiment until the entropy coding of one frame of image data taken in from the image source is omitted, and therefore the description is omitted.
[0105]
The encoded data is collected into resolution / position divided precincts in the
[0106]
Data block P of first resolution 0 For 0, the upper 6 bits are the first layer (L0), the second layer (L1) has no data, and the remaining lower 2 bits are the third layer (L2). Data block P of
[0107]
FIG. 14 shows an image of the encoded image data divided into the above resolution, position, and image quality. The division method relating to image quality, which is a feature of the present invention, is the same as that of the first embodiment, and the division method relating to resolution and position is the same as that of the second embodiment.
[0108]
Next, an arrangement of packet data divided into resolution, position, and image quality will be described with reference to FIG.
[0109]
The overall structure of the stream data and the structure of the additional information are the same as those in the first embodiment. Only the information content is different from the arrangement of the packet data. First, the arrangement of the packet data will be described. .
[0110]
First, L0, L1, and L2 are arranged from the upper layer of image quality. Furthermore, the order of arrangement in packet data of the same image quality is
[0111]
The stream data is output in a form according to the output mode, as in the first embodiment. The above is the operation of the compression encoding process of the present embodiment.
[0112]
Next, the operation of decompressing the encoded image data will be described with reference to the flowchart of FIG.
[0113]
First, for the encoded image data, a required specification regarding a read method is received from the read command input unit (step 1301), and the operation command unit calculates a packet cutout point and instructs the stream operation unit on the operation method. (Step 1302). The reading method according to the present embodiment includes a plurality of modes related to resolution, angle of view, and image quality, including an HD wide angle of view HW, an SD wide angle of view SW, an SD standard angle of view SN, a high image quality mode XP, and a standard image quality mode SP. , A long-time mode LP.
[0114]
On the other hand, the encoded image data is fetched from the input unit, becomes stream data, and is sent to the stream operation unit. The necessary packet data is extracted from the stream data, and measurement of the number of packets N is started (step 1303).
[0115]
Packet data "
[0116]
Further, the packet data is changed to "
[0117]
Further, the packet data is changed to "
[0118]
Further, the packet data is changed to "
[0119]
Further, the packet data is changed to "
[0120]
By arranging the packet data in the image quality / resolution / position priority mode as described above, it becomes possible to extract the image data in the desired mode only by sequential processing from the head of the stream, which is suitable for the portable device described above. Processing. Also in the present embodiment, various effects can be obtained by zero packet insertion (step 1309). Thereafter, the extraction processing ends (step 1310). If the flow has an abnormal process, the process ends abnormally (step 1320).
[0121]
The packet data extracted as described above is processed in the same manner as in the first embodiment, and the data is decoded and output. The above is the operation of the decompression processing of this embodiment.
[0122]
As described above, according to the embodiment of the present invention, in order to realize a plurality of display / image quality modes, resolution, position, and image quality are divided, and a horizontal band By performing image quality division with emphasis on data, it is possible to achieve both various image display methods and an image quality mode with less deterioration.
[0123]
Also, regarding the arrangement of the packet data of the resolution / position / image quality division, the image data is sequentially read from the head at the time of decoding by prioritizing the image quality / resolution / position to easily obtain data necessary for a plurality of modes. Can be.
[0124]
Also, a plurality of display modes can be realized without changing the format format at the time of decoding. As a result, the mode switching operation becomes smooth and the processing load can be reduced.
[0125]
(Example 4)
Next, a fourth embodiment corresponding to various modes (SN, SW, HW, LP, SP, XP) relating to resolution, angle of view, and image quality according to the present invention will be described. Basic processing blocks and assumed images are the same as in the third embodiment, and a description thereof will be omitted. Hereinafter, only different portions of the processing will be described.
[0126]
First, processing at the time of compression will be described. One-
[0127]
Next, the band-divided sub-band is divided into three
[0128]
The data that has been subjected to resolution / position division as described above is divided into code blocks 403 as shown in FIG. First precinct P of second resolution 1 At 0, the code block is divided into code blocks from 0 to 71, and the entropy coding process is performed as in the first embodiment.
[0129]
The encoded data is collected into resolution / position divided precincts in the
[0130]
Data block P of first resolution 0 0 (not shown) indicates that the upper 6 bits are the first layer (L0), there is no data of the second layer (L1), and the lower 2 bits are the third layer (L2). Data block P of
[0131]
FIG. 20 shows an image of the encoded image data divided into the above resolution, position, and image quality. The division method relating to resolution / position, which is a feature of the present invention, has one more resolution hierarchy, but is basically the same as the second embodiment, and the division method relating to image quality is the same as the first embodiment. It is.
[0132]
Next, the arrangement of packet data divided into resolution, position, and image quality will be described with reference to FIG. The overall structure of the stream data and the structure of the additional information are the same as those in the first embodiment. Only the information content is different from the arrangement of the packet data. First, the arrangement of the packet data will be described. .
[0133]
First, the second resolution (
[0134]
Next, the third resolution (P 2 From 0), L0, L1, and L2 are arranged first from the upper layer of image quality. The order of arrangement in the packet data of the same image quality is
[0135]
As described above, when the progression order is switched in the middle, a POC marker segment is prepared in JPEG2000. The POC marker segment includes a resolution number and a position number of a start point at which the progressive order is changed (the start point of the image quality number is zero), a resolution number, a position number, and an image quality number of an end point at which the change is ended, and a progressive order to be changed. Is specified. In the case of the present embodiment, the start
[0136]
However, the above-mentioned progression order LPRC and LRPC are not prepared in the JPEG2000 standard, but as described above, the JPEG2000 encoding method still has unassigned progression order codes, so there is room for new setting. Is there.
[0137]
The stream data is output in a form according to the output mode, as in the first embodiment. The above is the operation of the compression encoding process of the present embodiment.
[0138]
Next, an operation of expanding the encoded image data will be described.
[0139]
First, a read method is input to the encoded image data from the read command input unit, and the operation command unit instructs the stream operation unit on the operation method.
[0140]
On the other hand, the encoded image data is fetched from the input unit, becomes stream data, and is sent to the stream operation unit. How to extract necessary packet data from the stream data will be described with reference to FIG.
[0141]
Packet data "
[0142]
Further, the packet data is changed to "
[0143]
Further, the packet data is changed to "
[0144]
Further, the packet data is changed to "
[0145]
Further, the packet data is changed to "
[0146]
As described above, by switching the image quality / position / resolution priority mode and the image quality / resolution / position priority mode and arranging the packet data, the image data is sequentially shifted from the head of the stream in the mode emphasizing the image quality of the HD wide view angle. Extraction can be performed only by processing, and the processing is suitable for the portable device described above. Also in the present embodiment, various effects by zero packet insertion can be obtained.
[0147]
The packet data extracted as described above is processed in the same manner as in the first embodiment, and the data is decoded and output. The above is the operation of the decompression processing of this embodiment.
[0148]
As described above, according to the present embodiment, by changing the three band divisions and the progression order in the middle, the display processing that can switch the SD angle of view while emphasizing the image quality mode of the HD wide angle of view is emphasized. Can be easily realized by sequentially reading from the head of the stream.
[0149]
(Example 5)
Next, a description will be given of a fifth embodiment corresponding to various modes (SN, SW, HW, LP, SP, XP) relating to resolution, angle of view, and image quality according to the present invention. Basic processing blocks, assumed images, and partial data processing procedures are the same as those in the fourth embodiment, and thus description thereof will be omitted, and only different parts will be described.
[0150]
First, the processing at the time of compression is the same as that of the fourth embodiment up to the point where the packet data is arranged.
[0151]
The arrangement of the packet data divided into the resolution, the position, and the image quality will be described with reference to FIG.
[0152]
First, the second resolution (
[0153]
Next, the third resolution (P 2 From 0), L0, L1, and L2 are arranged first from the upper layer of image quality. The order of arrangement in the packet data of the same image quality is
[0154]
As described above, also in the present embodiment, the progression order is switched on the way as in the fourth embodiment. In the POC marker segment of the main header, the
[0155]
However, as in the fourth embodiment, the above-described progress order LPRC and LRPC are not JPEG2000 standards, but there is room for new setting.
[0156]
The stream data is output in a form according to the output form, as in the fourth embodiment. The above is the operation of the compression encoding process of the present embodiment.
[0157]
Next, the operation of decompressing the encoded image data will be described. However, the operation is the same as that of the fourth embodiment except for reading the packet data of the stream data, and the description is omitted. A method of extracting encoded data of stream data will be described with reference to FIG.
[0158]
Packet data "
[0159]
Further, the packet data is changed to "
[0160]
Further, the packet data is changed to "
[0161]
Further, the packet data is changed to "
[0162]
Further, the packet data is changed to "
[0163]
As described above, if the packet data is arranged by switching the image quality / position / resolution priority mode and the resolution / image quality / position priority mode, the image data is sequentially transferred from the head of the stream in the mode emphasizing the image quality of the SD wide angle of view. Extraction can be performed only by processing, and the processing is suitable for the portable device described above. Also in the present embodiment, various effects by zero packet insertion can be obtained.
[0164]
The packet data extracted as described above is processed in the same manner as in the first embodiment, and the data is decoded and output. The above is the operation of the decompression processing of this embodiment.
[0165]
As described above, according to this embodiment, by changing the three band divisions and the progression order in the middle, the SD standard angle of view / HD wide angle of view can be emphasized while emphasizing the image quality mode of the SD wide angle of view. Switchable display processing can be easily realized by sequentially reading from the head of the stream.
[0166]
(Example 6)
Next, a description will be given of a sixth embodiment corresponding to various modes (SN, SW, HW, LP, SP, XP) relating to resolution, angle of view, and image quality according to the present invention. Basic processing blocks, assumed images, and partial data processing procedures are the same as those in the fourth embodiment, and thus description thereof will be omitted, and only different parts will be described.
[0167]
First, the processing at the time of compression is the same as that of the fourth embodiment up to the point where the packet data is arranged. The arrangement of the packet data divided into the resolution, the position, and the image quality will be described with reference to FIG.
[0168]
First, the second resolution (
[0169]
Next, the third resolution (P 2 0), P is first set in ascending order of resolution. 0 Line up with 2. The arrangement in the packet data of the same resolution is as follows: 0 0,
[0170]
As described above, also in the present embodiment, the progression order is switched on the way as in the fourth embodiment. In the POC marker segment of the main header, the
[0171]
However, as in the fourth embodiment, the above-mentioned progress order PLRC and RPLC are not JPEG2000 standards, but there is room for new setting.
[0172]
The stream data is output in a form according to the output form, as in the fourth embodiment. The above is the operation of the compression encoding process of the present embodiment.
[0173]
Next, the operation of decompressing the coded image data will be described. However, the operation is the same as that of the fourth embodiment except for the reading of the packet data of the stream data, so that the description is omitted. A method of extracting encoded data of stream data will be described with reference to FIG.
[0174]
Packet data "
[0175]
Further, the packet data is changed to "
[0176]
Further, the packet data is changed to "
[0177]
Further, the packet data is changed to "
[0178]
Further, the packet data is changed to "
[0179]
As described above, if the packet data is arranged by switching the image quality / position / resolution priority mode and the resolution / image quality / position priority mode, the image data is sequentially transferred from the head of the stream in the mode emphasizing the image quality of the SD standard angle of view. Extraction can be performed only by processing, and the processing is suitable for the portable device described above. Also in the present embodiment, various effects by zero packet insertion can be obtained.
[0180]
The packet data extracted as described above is processed in the same manner as in the first embodiment, and the data is decoded and output. The above is the operation of the decompression processing of this embodiment.
[0181]
As described above, according to this embodiment, it is possible to switch the SD / HD wide angle of view while emphasizing the image quality mode of the SD standard angle of view by changing the three band divisions and the progression order in the middle. Such display processing can be easily realized by sequentially reading from the head of the stream.
[0182]
(Example 7)
Next, a seventh embodiment relating to a system for storing and dubbing the stream data described in the above embodiments in a recording medium will be described with reference to FIG.
[0183]
FIG. 24A is a block diagram of an embodiment embodying the present invention.
[0184]
24A,
[0185]
First, recording of the disc
[0186]
Here, the relationship between the divided encoded data and the disk write area will be described with reference to FIGS.
[0187]
The stream data to be written has five hierarchical data as shown in FIG. 15 generated in the third embodiment. On the other hand, as shown in FIG. 24 (c), the disk medium of this embodiment is a single-sided, dual-layer disk system, and the write area can be divided into 34a and 34b in the thickness direction. In the circumferential direction, as shown in FIG. 24B, a lead-in
[0188]
Therefore, the standard image quality data (SN / Sp) of the standard angle of view of the SD resolution is recorded in the upper layer 34a of the disk inner peripheral area 34y which is fixed in length and easily accessible since it is a display method indispensable to the current TV system. The standard resolution data (SW / Sp) with the wide angle of view of the SD resolution and the long-time mode data (HW / Lp) with the wide angle of view of the HD resolution are standard display methods of the digital TV. Is recorded in the
[0189]
Here, the inner peripheral area records data necessary for displaying each resolution and angle of view, and has a fixed length, so that it is effective to search data by search, special reproduction, or the like in each display method.
[0190]
If the data in the inner recording area becomes full, the boundary of the inner recording area is moved and the data in the outer recording area is overwritten to improve the image quality of the HD wide view angle. It is possible to easily change from the high image quality mode to the long time mode recording only by rewriting.
[0191]
Next, a dubbing operation using the present system will be described.
[0192]
In FIG. 24A, the dubbing source is the
[0193]
As described above, the mode conversion for digital dubbing can be realized by simply inserting zero packet data after the necessary stream read from the head, reducing the code amount and facilitating data transfer between devices. Can be.
[0194]
Further, since the data in the first half of the stream has a high access frequency, by recording the data on the inner side, the data transfer speed at the time of dubbing can be increased. Furthermore, by arranging the data in the latter half of the stream on the outer periphery and making it variable length, high-definition data can be recorded without leaking, and the recording area can be effectively used for changing the code length of zero packets. be able to.
[0195]
(Example 8)
Finally, an embodiment of the present invention will be described with reference to FIG. 25 with respect to the system for dividing the stream data described in the above embodiments into a plurality of recording media for recording.
[0196]
FIG. 25A is a block diagram at the time of the recording operation of the embodiment according to the present invention.
[0197]
In the figure,
[0198]
The image input from the
[0199]
Here, the reproducing operation will be described with reference to FIG. If there is a card medium at the time of reproduction, the high-quality data is read from the memory card, the baseline data is read from the disk, and the high-quality stream data of the HD wide angle of view is reconstructed by the
[0200]
On the other hand, if the
[0201]
As described above, also in this embodiment, if the data in the first half of the stream is assigned to a medium having high priority by a decoding method capable of mode conversion by extracting from the beginning of the stream data or inserting zero packets, Data can be sorted and recorded on a medium.
[0202]
【The invention's effect】
As described above, according to the present invention, it is possible to easily generate encoded data of an image that can support various image quality modes. Also, desired image data can be extracted from the encoded data according to the image quality mode set by the system.
[Brief description of the drawings]
FIG. 1A is an overall block diagram of an
FIG. 2 is a conceptual diagram of band division of an image according to the first embodiment of the present invention.
FIG. 3 is a conceptual diagram of position division in
FIG. 4 is a conceptual diagram of code block division in
FIG. 5 is a conceptual diagram of image quality division according to the first embodiment of the present invention.
FIG. 6 is a conceptual diagram of hierarchical division according to the first embodiment of the present invention.
FIGS. 7A, 7B, 7C, and 7D are conceptual diagrams of stream data according to the first embodiment of the present invention.
FIG. 8 is a conceptual diagram of position division in
FIG. 9 is a conceptual diagram of code block division in
FIG. 10 is a conceptual diagram of image quality division in
FIG. 11 is a conceptual diagram of hierarchical division in
FIGS. 12A, 12B, 12C, and 12D are conceptual diagrams of stream data according to the second embodiment of the present invention.
FIG. 13 is a conceptual diagram of image quality division in
FIG. 14 is a conceptual diagram of hierarchical division in a third embodiment of the present invention.
FIGS. 15 (a), (b), (c), (d), (e), and (f) are conceptual diagrams of stream data according to the second embodiment of the present invention.
FIG. 16 is a conceptual diagram of band division of an image according to
FIG. 17 is a conceptual diagram of position division in
FIG. 18 is a conceptual diagram of code block division in
FIG. 19 is a conceptual diagram of image quality division in
FIG. 20 is a conceptual diagram of hierarchical division in
FIGS. 21 (a), (b), (c), (d), (e), and (f) are conceptual diagrams of stream data in
FIGS. 22 (a), (b), (c), (d), (e), and (f) are conceptual diagrams of stream data in Embodiment 5 of the present invention.
FIGS. 23 (a), (b), (c), (d), (e), and (f) are conceptual diagrams of stream data in
FIG. 24 is an overall block diagram of a dubbing system according to a seventh embodiment of the present invention.
FIG. 25 is an overall block diagram of a multiple media system in
FIG. 26 is a flowchart relating to stream data extraction processing in
[Explanation of symbols]
1 Band / position division unit
2 Quantization unit
3 Encoding unit
4 Stream generator
5 Output section
10. Image coding device
20 Image decoding device
21 Command input section
22 Operation command section (microcomputer)
23 Input section
24 bit stream analyzer
25 Decoding unit
26 Inverse quantization unit
27 Band synthesis unit
Claims (24)
入力画像データを複数の周波数帯域に分割する帯域分割工程と、
前記帯域分割工程で帯域分割された各画像データの大きさを所定の閾値で複数の階層に分割する画質分割工程と、
前記帯域分割工程で帯域分割された画像データの垂直成分の程度に応じて前記画質分割工程における前記閾値を設定する設定工程とを有することを特徴とする画像符号化方法。In an image encoding method for compressing and encoding input image data,
A band dividing step of dividing the input image data into a plurality of frequency bands,
An image quality division step of dividing the size of each image data band-divided in the band division step into a plurality of layers with a predetermined threshold value,
A setting step of setting the threshold value in the image quality dividing step according to a degree of a vertical component of the image data band-divided in the band dividing step.
入力画像データを複数の周波数帯域に分割する帯域分割工程と、
前記帯域分割工程で帯域分割された各画像データを複数の画像空間に分割する位置分割工程とを有し、
前記帯域分割工程で帯域分割された帯域データの画素数を複数の表示解像度を包含する値とし、前記位置分割工程で位置分割された帯域データの画素数を複数の表示画角を包含する値とするように符号化空間の画素数を設定することを特徴とする画像符号化方法。In an image encoding method for compressing and encoding input image data,
A band dividing step of dividing the input image data into a plurality of frequency bands,
A position division step of dividing each image data band-divided in the band division step into a plurality of image spaces,
The number of pixels of the band data divided in the band dividing step is a value including a plurality of display resolutions, and the number of pixels of the band data position-divided in the position dividing step is a value including a plurality of display angles of view. An image coding method characterized by setting the number of pixels in a coding space so as to perform coding.
入力画像データを複数の周波数帯域に分割する帯域分割工程と、
前記帯域分割工程で帯域分割された各画像データを複数の画像空間に分割する位置分割工程と
前記帯域分割工程で帯域分割された各画像データの大きさを所定の閾値で複数の階層に分割する画質分割工程とを有し、
前記帯域分割工程で帯域分割された帯域データの画素数が複数の表示解像度を包含する値となるよう設定し、前記位置分割工程で位置分割される帯域データの画素数が複数の表示画角を包含する値となるように画素数を設定し、前記帯域分割された画像データの前記垂直成分が低いときは前記垂直成分が高いときに比べて前記閾値を高くなるように設定することを特徴とする画像符号化方法。In an image encoding method for compressing and encoding input image data,
A band dividing step of dividing the input image data into a plurality of frequency bands,
A position dividing step of dividing each image data band-divided in the band dividing step into a plurality of image spaces, and dividing a size of each image data band-divided in the band dividing step into a plurality of layers by a predetermined threshold value Image quality dividing step,
The number of pixels of the band data divided in the band dividing step is set to a value including a plurality of display resolutions, and the number of pixels of the band data divided in the position dividing step is set to a plurality of display angles of view. The number of pixels is set to be a value that includes, and the threshold is set to be higher when the vertical component of the band-divided image data is low than when the vertical component is high. Image encoding method.
入力画像データを複数の周波数帯域に分割する帯域分割手段と、
前記帯域分割手段で帯域分割された各画像データを複数の画像空間に分割する位置分割手段と、
前記帯域分割手段で帯域分割された各画像データの大きさを所定の閾値で複数の階層に分割する画質分割手段と、
前記帯域分割手段で帯域分割された帯域データの画素数が複数の表示解像度を包含するように分割するよう設定し、前記位置分割手段で位置分割された帯域データの画素数を複数の表示画角を包含するように画素数を設定し、前記帯域分割された画像データの前記垂直成分が低いときは前記垂直成分が高いときに比べて前記閾値を高く設定する設定手段を備えたことを特徴とする画像符号化装置。In an image encoding device that compresses and encodes input image data,
Band dividing means for dividing the input image data into a plurality of frequency bands,
Position dividing means for dividing each image data band-divided by the band dividing means into a plurality of image spaces,
Image quality dividing means for dividing the size of each image data band-divided by the band dividing means into a plurality of layers at a predetermined threshold,
The number of pixels of the band data divided by the band dividing means is set so as to include a plurality of display resolutions, and the number of pixels of the band data divided by the position dividing means is set to a plurality of display angles of view. Setting means for setting the number of pixels so as to include, and setting the threshold value higher when the vertical component of the band-divided image data is lower than when the vertical component is higher. Image encoding device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003143464A JP4143471B2 (en) | 2003-05-21 | 2003-05-21 | Image encoding method, image encoding apparatus, and recording apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003143464A JP4143471B2 (en) | 2003-05-21 | 2003-05-21 | Image encoding method, image encoding apparatus, and recording apparatus |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2004349939A true JP2004349939A (en) | 2004-12-09 |
JP2004349939A5 JP2004349939A5 (en) | 2006-06-29 |
JP4143471B2 JP4143471B2 (en) | 2008-09-03 |
Family
ID=33531248
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003143464A Expired - Fee Related JP4143471B2 (en) | 2003-05-21 | 2003-05-21 | Image encoding method, image encoding apparatus, and recording apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4143471B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006345452A (en) * | 2005-06-10 | 2006-12-21 | Canon Inc | Information processing device, its controlling method, computer program, and storage medium |
JP2007311999A (en) * | 2006-05-17 | 2007-11-29 | Ricoh Co Ltd | Code processor, program, and information recording medium |
US7456844B2 (en) | 2005-04-07 | 2008-11-25 | Ricoh Company, Ltd. | Image transmission method, computer-readable image transmission program, recording medium, and image transmission apparatus |
CN109478893A (en) * | 2016-07-25 | 2019-03-15 | 株式会社高速屋 | Data compression coding method, coding/decoding method, its device and its program |
-
2003
- 2003-05-21 JP JP2003143464A patent/JP4143471B2/en not_active Expired - Fee Related
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7456844B2 (en) | 2005-04-07 | 2008-11-25 | Ricoh Company, Ltd. | Image transmission method, computer-readable image transmission program, recording medium, and image transmission apparatus |
JP2006345452A (en) * | 2005-06-10 | 2006-12-21 | Canon Inc | Information processing device, its controlling method, computer program, and storage medium |
JP2007311999A (en) * | 2006-05-17 | 2007-11-29 | Ricoh Co Ltd | Code processor, program, and information recording medium |
CN109478893A (en) * | 2016-07-25 | 2019-03-15 | 株式会社高速屋 | Data compression coding method, coding/decoding method, its device and its program |
CN109478893B (en) * | 2016-07-25 | 2023-05-09 | 株式会社高速屋 | Data compression encoding method, apparatus and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP4143471B2 (en) | 2008-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210385473A1 (en) | Encoding and Decoding Selectively Retrievable Representations of Video Content | |
EP1851683B1 (en) | Digital intermediate (di) processing and distribution with scalable compression in the post-production of motion pictures | |
US8260068B2 (en) | Encoding and decoding device and associated methodology for obtaining a decoded image with low delay | |
KR101226748B1 (en) | Remote edition system, main edition device, remote edition device, edition method, and recording medium | |
JP2001258031A (en) | Signal processing method, image coder and image decoder | |
US20090189995A1 (en) | Image recording device, image reproducing device, recording medium, image recording method, and program thereof | |
US20030099293A1 (en) | Image reproducing method, and image processing method, and image reproducing device, image processing device, and television receiver capable of using the methods | |
JPH0865663A (en) | Digital image information processor | |
JP3850015B2 (en) | Digital video signal recording / reproducing apparatus and transmission apparatus | |
JP4143471B2 (en) | Image encoding method, image encoding apparatus, and recording apparatus | |
US20040091240A1 (en) | Image processing apparatus and method | |
JP4155566B2 (en) | Image reproducing apparatus and method | |
EP1259073A1 (en) | Image reproducing method and image processing method, and image reproducing device, image processing device, and television receiver capable of using the methods | |
JP2003115765A (en) | Encoding device and method therefor decoding device and method therefor and editing device and method therefor | |
JP3800819B2 (en) | Image synthesizer | |
US20040141653A1 (en) | Image processing apparatus and method | |
JP2005136671A (en) | Image recorder | |
JPH10215454A (en) | Encoding device and method | |
JP2004165800A (en) | Image processing apparatus | |
JPH0564144A (en) | Picture memory device | |
JP2020072390A (en) | Image encoding device, control method thereof, and program | |
JP2004328796A (en) | Digital image information processing apparatus and digital image information processing method | |
JP2003125333A (en) | Recorder and recording method and reproducer and reproducing method | |
JP2006304103A (en) | Moving video recording apparatus and moving video recording/reproducing apparatus | |
JP2005237020A (en) | Digital video processing apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060517 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060517 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071211 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080311 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080508 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080603 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080616 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110620 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4143471 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120620 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120620 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130620 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |