JP4094942B2 - Arbitrary viewpoint image transmission method, apparatus for implementing the method, processing program therefor, and recording medium - Google Patents
Arbitrary viewpoint image transmission method, apparatus for implementing the method, processing program therefor, and recording medium Download PDFInfo
- Publication number
- JP4094942B2 JP4094942B2 JP2002359168A JP2002359168A JP4094942B2 JP 4094942 B2 JP4094942 B2 JP 4094942B2 JP 2002359168 A JP2002359168 A JP 2002359168A JP 2002359168 A JP2002359168 A JP 2002359168A JP 4094942 B2 JP4094942 B2 JP 4094942B2
- Authority
- JP
- Japan
- Prior art keywords
- packet
- image
- viewpoint
- identification number
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は利用者が所望する任意の視点位置からの画像を伝送する任意視点画像伝送装置に関し、特に複数の視点位置で撮影された2次元画像を元に、利用者が所望する任意の視点位置からの画像を生成する画像処理システムで画像データを伝送する任意視点画像伝送装置に適用して有効な技術に関するものである。
【0002】
【従来の技術】
近年のコンピュータグラフィックス(CG)やバーチャルリアリティ(VR)技術の発達により、カメラが設置された視点位置からだけでなく、利用者が望む視点位置から被写体の写実的な画像を観察できる様になってきた。
【0003】
その様な画像生成技術は一般にImage-Based Rendering(IBR)と呼ばれ、従来のCG技術が被写体の精緻な幾何モデルを必要としていたのに対し、IBRは被写体を多数の位置から撮影した2次元画像を元に、幾何モデルを殆ど或いは全く用いずに任意の視点位置から被写体を見た画像を生成することができる。
【0004】
IBRの代表的なものに、Light Field Rendering、Lumigraphや、光線空間理論と呼ばれる手法がある(例えば非特許文献1乃至3参照)。
【0005】
これらの手法では、多数の位置からカメラで撮影した2次元画像を、そのカメラのレンズ中心を通る光線の束(光線群)の強度をサンプリングしたデータであると見なす。そして、一旦それら光線群のデータを光線空間等と呼ばれる多次元空間上で表現し、その後に所望する視点位置を通る光線群を光線空間上で再サンプリングすると言う手順を経る。
【0006】
しかし、この様な手法では、光線空間を構成する為に多数の視点位置で撮影した2次元画像データ(多眼データ)を必要とする為、幾何モデルを用いる方法と比べて必要とするデータ量は膨大となる欠点がある。その為、多眼データが内包する冗長性を利用し、符号化処理を行うことでデータ量を圧縮するアプローチがとられることが多い。
【0007】
例えば、参照画像を幾つか設定し、その他の画像はその差分を符号化する方式や、一旦3次元的なモデルを構築し、そのモデルを視点位置から見たときの画像を生成し、実際の画像との予測誤差を符号化する等の方式がある(例えば特許文献1及び2参照)。
【0008】
しかし、これらの符号化処理を行うとデータ量はある程度まで減少するものの、通常の2次元画像と比較すると膨大である。
【0009】
故にネットワークでの利用を考えた場合、利用者側の端末に膨大なデータを一旦時間をかけてダウンロードし、その後に端末で蓄えたデータを閲覧するといった使い方は現実的であるが、絶え間なく配信されてくるデータをすぐさま端末で閲覧するストリーミングと呼ばれる用途では伝送路の帯域が不足し、実現が困難である。
【0010】
また、より高い圧縮率の符号化方式をとることで伝送帯域に収める様なアプローチをとるにしても、圧縮率を高くする程、計算機負荷が高くなり、処理時間は増大する。その為、遅延が生じてしまい、実時間性が重視されるコミュニケーションやライブ配信の用途には向かない。
【0011】
これらの問題は、遠隔地間でのデータ伝送に限った問題ではなく、ローカルなシステムにおいても、膨大な多眼データを構成機器間で伝送する際に問題となる。よって、符号化によりデータ量を減らすと言う従来の手法は、適用できるアプリケーションやサービスの形態を著しく限定していた。
【0012】
一方、この様な手法とは別のアプローチとして、まず利用者側から視点位置の要求を伝送し、多眼カメラ側で要求された視点位置の画像を生成し、その生成画像を利用者側に伝送すると言う手法も考えうる。この場合、符号化による圧縮効率を考慮しなければ、データ量は1つのカメラ分の画像と同じであるので、通常の2次元画像の通信に必要な帯域で伝送が可能となる。
【0013】
この様に、伝送帯域の面だけに注目すると上記手法は理想的と言えるが、利用者が視点位置の変更を要求してから提示画像に変更が反映されるまでの応答性に問題がある。つまり、利用者の指示した視点移動が提示画像に反映される為には、利用者側と多眼カメラ側でデータが往復する伝送時間がかかり、利用者への応答に遅延が生じる為に、システムとしての操作性が著しく揖なわれてしまう。
【0014】
また、この方法により一定数以上の利用者に任意視点画像を提供することは難しい。何故なら、多眼カメラ側でそれぞれの利用者が要求する視点の映像を逐一作成することになり、計算機負荷もデータの伝送量も人数倍で増えていくからである。
【0015】
【非特許文献1】
Marc Levoy, Pat Hanrahan,“Light Field Rendering”, SIGGRAPH'96 Conference Proceedings, Association for Computing Machinery, 1996年, p.31-41
【非特許文献2】
Steven J.Gortler外,“The Lumigraph”, SIGGRAPH'96 Conference Proceedings, Association for Computing Machinery, 1996年, p.43-54
【非特許文献3】
内山外、“光線空間理論に基づく実写データのCGモデルを融合した仮想環境の実現”、3次元画像コンファレンス’96、3次元画像コンファレンス’96実行委員会、1996年、p.13−18
【特許文献1】
特開平10−111951号公報(第5−6頁、第6図)
【特許文献2】
特開平11−18091号公報(第7−10頁、第1図)
【0016】
【発明が解決しようとする課題】
前記従来のIBRの代表的な手法では、光線空間を構成する為に多数の視点位置で撮影した多眼データのデータ量が膨大となる為、ネットワークでの利用を考えた場合、ストリーミングの用途では伝送路の帯域が不足し、実現が困難になると言う問題がある。
【0017】
また、より高い圧縮率の符号化方式をとることで伝送帯域に収める様なアプローチをとるにしても、圧縮率を高くする程、計算機負荷が高くなって処理時間が増大し、遅延が生じてしまう為、実時間性が重視されるコミュニケーションやライブ配信の用途には向かないと言う問題がある。
【0018】
一方、利用者側から要求された視点位置の画像を多眼カメラ側で生成して利用者側に伝送する手法では、利用者側と多眼カメラ側でデータが往復する際の伝送時間がかかる為、システムとしての操作性が著しく揖なわれてしまうと言う問題がある。
【0019】
また、この方法では、多眼カメラ側でそれぞれの利用者が要求する視点の映像を逐一作成することになり、計算機負荷及びデータ伝送量が利用者の人数倍で増えていく為、所定数以上の利用者に任意視点画像を提供することが難しいと言う問題がある。
【0020】
本発明の目的は、上記問題を解決し、画像データを伝送する為の伝送帯域を節約し、利用者からの視点移動の要求に対する応答性を犠牲にすること無く、利用者の人数が増えた場合にも安定して、任意視点画像を生成する元となる複数の視点位置から撮影された画像データを伝送することが可能な技術を提供することにある。また本発明の他の目的は、利用者に近い末端の伝送帯域を節約すると共に、利用者の視点移動に対する画像生成の応答性を犠牲にすること無く、任意視点画像を生成する為の画像データの伝送を行うこと、画像全体を符号化した場合と比較して圧縮効率を落とすこと無く画像の分割を行うことや、伝送帯域を必要最小限に節約することが可能な技術を提供することにある。
【0021】
【課題を解決するための手段】
本発明は、任意視点画像を生成する元となる複数の視点位置から撮影された画像データを伝送する任意視点画像伝送装置において、複数の領域の部分画像に分割された画像データの内、利用者の所望する視点位置の画像を生成するのに必要な部分画像を選択して伝送するものである。
【0022】
本発明では、実時間コミュニケーション、ライブ配信やストリーミング放送等、処理時間の要求が厳しいネットワーク・アプリケーションで、利用者の所望する視点位置からの画像(任意視点画像)を提供する場合に、次の様に画像データの伝送を行う。
【0023】
すなわち、異なる視点位置で撮影されたそれぞれの画像を更に複数の領域の部分画像に分割した後、それらのそのデータがどの視点位置のどの領域のものであるかを示す領域ヘッダ情報を前記分割された部分画像のデータに付加する。そして、そのデータに対して通信用プロトコルのヘッダを付加してパケットとし、そのパケットの中から利用者の所望する視点位置の画像を生成するのに必要な部分画像を含むパケットを選択した後、その選択したパケットを通信プロトコルのヘッダにより経路判定して伝送する。
【0024】
一般的なIBRによる画像生成法においては、ある視点位置での画像を利用者端末で生成する際に複数の異なる視点位置で撮影した元画像を用いるが、その全てが必要なのではなく、必要となるのは各視点の元画像毎に一部分づつだけである。
【0025】
よって、上記提案手法により、複数の視点で撮影した元画像を更に部分的な領域に分割したデータとすることで、ある時点での所望の視点位置からの画像の生成に必要な領域を含むデータのみを伝送でき、全ての元画像を伝送してから画像の生成を行う場合に比べて伝送帯域を節約することができる。
【0026】
また、分割後の部分画像のデータに対して領域の情報を示すヘッダを付加する処理は非常にシンプルな為、その処理負荷はごく少なく、時間的なオーバーヘッドも殆ど生じない。
【0027】
その一方で、選択処理は部分画像の内容によらず、ヘッダ部分により判断ができる為、一般にスイッチと呼ばれるハードウェアにより高いスループットで処理することが可能である。
【0028】
更に、この領域ヘッダを含む画像データに対して更に通信プロトコルのヘッダを加えてパケットとすることで、領域ヘッダに対応していない既存のネットワーク機器であっても、パケットを伝送することができる。
【0029】
利用者数が増加して同一のパケットを異なる利用者が必要とする場合でも、選択処理の過程でその様なパケットを複写することで、元画像を提供する側には負担をかけること無く、スケーラビリティに優れるシステムを実現することができる。
【0030】
また本発明のパケット選択処理では、送信側と受信側との間の伝送経路上で段階的にパケットの選択を行うものとしても良い。
【0031】
利用者の視点位置が変化した場合、画像生成に必要となる部分画像も変化する。よって、パケットの伝送期間中に利用者が視点移動をすると、送信する時点で必要であったパケットと、受信側に到着した時点で必要なパケットとが異なることになる。その為、送信する時点で必要なパケットのみを選択して伝送すると、利用者が視点移動をした場合には画像生成に必要なパケットが受信側で取得できないことがあり、結果として利用者に適切な画像を提示できず、利用者の操作への応答性を損なう場合がある。
【0032】
その一方で、送信時にパケットの選択を厳しくせずに、余剰にパケットを送信した場合は、受信した段階で新たに必要なパケットを選択することができるが、広い伝送帯域を必要とする。一般にネットワークは末端の利用者側に近くなる程、帯域が狭くなる為、送信側に近い経路では広い帯域で伝送することのできた量のデータも、受信する利用者側までは伝送できないことがある。
【0033】
しかし、送信側で大まかにパケットの選択をしておき、経路上のノードでの中継により利用者に近づくにつれて逐次的にパケットの選択を厳しくすれば、利用者に近い末端の伝送帯域を節約することができる。そして、利用者に近いノード程、そこから利用者までパケットが到達する時間が短いことから、視点の移動する範囲が狭く、パケットの選択も厳しくしても、利用者側に到着した時に必要なパケットが欠落する危険が少ない為、利用者の視点移動に対する画像生成の応答性を犠牲にすることが無い。
【0034】
また本発明の部分画像への分割では、符号化処理の最小単位若しくはその集合を分割単位として生成した部分画像に対して直交変換を含む符号化を行うものとしても良い。
【0035】
2次元画像の符号化として一般的に用いられている変換符号化方式では、画像の2次元相関性を積極的に利用することで圧縮効率を高めている。しかし、部分画像に分割すると、それぞれのデータ毎に圧縮効率が落ち、全体としてはデータサイズが大きくなることがある。
【0036】
しかし、変換符号化方式では、ブロックと呼ばれる部分画像毎に例えば離散コサイン変換(DCT)により直交符号化していることから、部分画像の分割をこのブロック若しくはその集合毎に行うことで、画像全体を符号化した場合と比べても圧縮効率を落とすこと無く画像の分割をすることができる。
【0037】
また本発明では、利用者の所望する視点位置が伝送期間中に移動することを想定してその移動範囲を予測し、その範囲内の視点位置での画像生成に必要なパケットを選択するものとしても良い。
【0038】
パケットの伝送期間中に利用者が視点移動をすると、送信する時点で必要であったパケットと、受信側に到着した時点で必要なパケットは異なることになる。この為、送信する時点で必要なパケットのみを選択して伝送すると、利用者が視点移動をした場合には必要なパケットが受信側で取得できないことがある。パケットの選択を大まかに行えば視点移動に対するロバスト性が向上するが、その分必要な伝送帯域も広くなる。
【0039】
そこで本発明において、利用者の視点移動範囲を具体的に予測して、その予測した視点の範囲内で画像を生成するのに必要なパケットを選択する様にし、この様にパケットの選択に具体的な指針を与えることで、伝送帯域を必要最小限に節約することができる。
【0040】
以上の様に本発明の任意視点画像伝送装置によれば、複数の領域の部分画像に分割された画像データの内、利用者の所望する視点位置の画像を生成するのに必要な部分画像を選択して伝送するので、画像データを伝送する為の伝送帯域を節約し、利用者からの視点移動の要求に対する応答性を犠牲にすること無く、利用者の人数が増えた場合にも安定して、任意視点画像を生成する元となる複数の視点位置から撮影された画像データを伝送することが可能である。
【0041】
【発明の実施の形態】
(実施形態1)
以下に任意視点画像を生成する元となる複数の視点位置から撮影された画像データを伝送する実施形態1の任意視点画像伝送装置について説明する。
【0042】
図1は本実施形態の任意視点画像伝送装置の処理概要を示す図である。図1に示す様に本実施形態の任意視点画像伝送装置は、カメラ101により異なる視点位置で撮影されたそれぞれの画像を、画像分割ユニット102により更に複数の領域の部分画像に分割した後、それらの分割された部分画像のデータに、そのデータがどの視点位置のどの領域のものであるかを示すヘッダ情報を領域ヘッダ付加ユニット103により付加する。そして通信ヘッダ付加ユニット104により、そのデータに対して通信用プロトコルのヘッダを付加してパケットとし、利用者端末107からパケット要求108を受け取って、利用者の所望する視点位置の画像を生成するのに必要な部分画像を含むパケットをパケット選択ユニット105により選択した後、その選択したパケットを通信プロトコルのヘッダによりネットワーク106上で経路判定して利用者端末107へ伝送する。
【0043】
図1において、カメラ101は、被写体の画像を多視点位置から撮影する装置であり、刻々と変化する被写体を、例えば1秒間に30フレームの2次元画像として記録し、そのディジタルデータを出力する。なお、カメラ101は、撮影された画像データを実時間で逐次出力しても良いし、カメラ101で撮影された画像データを一旦記憶装置に蓄積し、その蓄積したデータを後で読み出して出力しても良いものとする。
【0044】
画像分割ユニット102は、画像の分割処理を担うユニットであり、カメラ101から出力されてきた被写体の2次元画像を複数の領域に分割し、複数の部分的な画像としてそのデータを出力する。
【0045】
領域ヘッダ付加ユニット103は、画像分割ユニット102で分割された部分画像データに対して、その部分画像データがどのカメラで撮影されたかや、どの領域の画像であるか等を示すヘッダ情報(以下、領域ヘッダと呼ぶ)を付加するユニットである。
【0046】
通信ヘッダ付加ユニット104は、領域ヘッダ付加ユニット103により領域ヘッダが付加された部分画像データに対し、更に通信プロトコル用のヘッダ(以下、通信ヘッダと呼ぶ)を付加してパケットと呼ばれるデータの固まりとし、ネットワーク106に送出するユニットである。ここで通信プロトコルとは、OSI参照モデルにおける物理・データリンク層及びネットワーク層及びトランスポート層の全て若しくは一部に相当し、通信ヘッダは例えばイーサネットヘッダ、IPヘッダ、TCPヘッダがそれぞれ相当する。しかし、本発明はこれら特定の通信プロトコルに限定されるものではないものとする。
【0047】
パケット選択ユニット105は、通信ヘッダ付加ユニット104より送られてくる多数のパケットの内、利用者の任意視点生成端末である利用者端末107で必要となる部分画像を含むパケットをネットワーク106に送出し、不要なパケットを破棄する処理を、パケットの領域ヘッダにより判断して行うユニットである。必要となるパケットを示すパケット要求108は利用者端末107側から与えられ、パケット選択ユニット105で保持されるものとする。利用者端末107で生成する画像の視点位置が移動し、必要となるパケットも変化した際にはパケット選択ユニット105において保持されている情報が更新される。
【0048】
ネットワーク106は、パケットの伝送経路となる伝送媒体や中継ノードを有しており、パケットの通信ヘッダにより経路を決定し、パケット選択ユニット105により選択されたパケットを利用者端末107まで伝送する。
【0049】
利用者端末107は、利用者が使用する端末装置であり、利用者の所望する視点位置の画像を生成する為に必要な部分画像を算出し、その部分画像を含むパケットをパケット選択ユニット105に要求し、要求に応じて送られてきたパケットを元に、その視点位置での画像を生成して利用者に提示する。
【0050】
図2は本実施形態の任意視点画像伝送装置の概略構成を示す図である。図2に示す様に本実施形態の任意視点画像伝送装置210は、CPU211と、メモリ212と、磁気ディスク装置213と、入力装置214と、出力装置215と、CD−ROM装置216と、通信装置217と、パケット要求管理テーブル218とを有している。
【0051】
CPU211は、任意視点画像伝送装置210全体の動作を制御する装置である。メモリ212は、任意視点画像伝送装置210全体の動作を制御する際にその為の各種処理プログラムやデータをロードする記憶装置である。
【0052】
磁気ディスク装置213は、前記各種処理プログラムやデータを格納しておく記憶装置である。入力装置214は、任意視点画像の画像データを伝送する為の各種入力を行う装置である。出力装置215は、任意視点画像の画像データの伝送に伴う各種出力を行う装置である。
【0053】
CD−ROM装置216は、前記各種処理プログラムを記録したCD−ROMの内容を読み出す装置である。通信装置217は、インターネットやイントラネット等のネットワークを介して利用者端末107との通信を行う装置である。パケット要求管理テーブル218は、パケット要求108を受信したポート番号と、そのパケット要求108中の視点位置識別番号とを対応付けて格納するテーブルである。
【0054】
本実施形態の任意視点画像伝送装置210は、コンピュータとプログラムによっても実現できるものとし、画像分割ユニット102、領域ヘッダ付加ユニット103、通信ヘッダ付加ユニット104、パケット選択ユニット105としてコンピュータを機能させる為のプログラムは、CD−ROM等の記録媒体に記録され磁気ディスク等に格納された後、メモリにロードされて実行されるものとする。なお前記プログラムを記録する記録媒体はCD−ROM以外の他の記録媒体でも良い。また前記プログラムを当該記録媒体からコンピュータにインストールして使用しても良いし、ネットワークを通じて当該記録媒体にアクセスして前記プログラムを使用するものとしても良い。
【0055】
図3は本実施形態の画像分割及びヘッダ付加処理の処理手順を示すフローチャートである。図3の様に本実施形態の画像分割ユニット102は、カメラ101により異なる視点位置で撮影されたそれぞれの画像データを複数の領域の部分画像に分割した後、領域ヘッダ付加ユニット103により、その部分画像データがどの視点位置のどの領域のものであるかを示すヘッダ情報を付加し、通信ヘッダ付加ユニット104によりその部分画像データに対して通信用プロトコルのヘッダを付加してパケット選択ユニット105へ送る。
【0056】
本実施形態の任意視点画像伝送装置210は、利用者端末107から任意視点画像の伝送要求を受信すると、まず画像分割ユニット102の処理を開始し、ステップ301で画像分割ユニット102は、その画像がどのカメラで撮影されたかを識別する為のカメラ識別番号や、分割された部分画像データを識別する為の領域識別番号を初期化する。
【0057】
ステップ302では、カメラ101から出力されてきた被写体の画像データを受信した後、ステップ303では、前記受信した画像データをメモリ212に一時的に格納する。ここで、カメラ101で撮影された画像データを一旦蓄積した記憶装置から画像データを読み出してメモリ212に一時的に格納するものとしても良い。
【0058】
ステップ304では、前記の様にメモリ212に格納した画像データのサイズや再生時間を調べ、前記格納した画像データが部分画像への分割を行う為の分割単位に達しているかどうかを判定し、分割単位に達している場合にはステップ305へ進む。
【0059】
ステップ305で領域ヘッダ付加ユニット103は、前記分割単位の部分画像データに、前記視点識別番号や領域識別番号を含む領域ヘッダを付加した後、領域識別番号をインクリメントしてステップ306へ進む。
【0060】
ステップ306で通信ヘッダ付加ユニット104は、前記領域ヘッダが付加された部分画像データに対し、利用者端末107へ送信する為の通信ヘッダを付加してパケットを生成する。そしてステップ307では、前記生成したパケットをパケット選択ユニット105へ渡す。
【0061】
ステップ308では、画像分割及びヘッダ付加処理の終了指示が入力されているかどうかや、全ての元画像の処理が終了したかどうかを調べ、終了指示が入力されておらず、未処理の元画像がまだ存在している場合にはステップ302へ戻り、次の画像データの分割を行う。
【0062】
前記の様にして複数のカメラ101により撮影された各視点位置の画像に対して画像分割及びヘッダ付加処理が行われると、各視点位置の画像がそれぞれ複数の部分画像に分割された後、複数の視点位置の複数の部分画像のパケットがそれぞれ分割された順にパケット選択ユニット105に渡される。
【0063】
図4は本実施形態のパケット選択処理の処理手順を示すフローチャートである。図4の様に本実施形態のパケット選択ユニット105は、前記の様に複数の視点位置の複数の部分画像のパケットをそれぞれの分割順に受け取り、利用者の所望する視点位置の画像を生成するのに必要な部分画像を含むパケットを選択して伝送する。
【0064】
ステップ401でパケット選択ユニット105は、利用者の所望する視点位置を示すパケット要求108を利用者端末107から受信しているかどうかを調べ、パケット要求108を受信している場合にはステップ402へ進む。
【0065】
ステップ402では、パケット要求108から視点位置識別番号を読み出し、パケット要求108を受信したポート番号と、前記読み出した視点位置識別番号とを対応付けてパケット要求管理テーブル218に保持する。
【0066】
ステップ403では、通信ヘッダ付加ユニット104よりパケットを受け取っているかどうかを調べ、パケットを受け取っている場合にはステップ404へ進む。
【0067】
ステップ404では、通信ヘッダ付加ユニット104より受け取ったパケットの領域ヘッダを参照して、その領域ヘッダ中のカメラ識別番号がパケット要求管理テーブル218に格納されている視点位置識別番号に該当するかどうを調べ、該当する場合には、そのパケットは利用者端末107で必要となる部分画像を含むパケットであると判定してステップ405へ進む。ここで、あるカメラ識別番号がどの視点位置識別番号に該当するかを示す情報、すなわちある視点位置の画像を生成する際に、どのカメラで撮影した画像が必要であるかを示す情報については、予めパケット選択ユニット105に設定されているものとする。
【0068】
ステップ405では、必要となる部分画像を含むパケットをパケット要求管理テーブル218中の視点位置識別番号に対応付けられたポートからネットワーク106へ送出し、利用者端末107へ伝送する。
【0069】
利用者端末107では、パケット選択ユニット105から伝送されたパケットを受信し、その領域ヘッダを参照して画像データを領域識別番号順に並べ替えて合成し、その視点位置での画像を生成してディスプレイ装置やスピーカ等の出力装置へ出力し、利用者へ任意視点画像を提供する。
【0070】
またステップ404で調べた結果、利用者端末107で必要となる部分画像を含むパケットであると判定されなかった場合にはステップ406へ進み、その不要なパケットを破棄する処理を行う。
【0071】
前記の様に本実施形態では、複数の視点位置で撮影した元画像を各視点位置毎に並列に分割して部分画像データを生成し、それらの複数の視点位置の複数の部分画像データを分割した順に伝送するので、ある時点での所望の視点位置からの画像の生成に必要な領域を含む部分画像データのみを伝送でき、全ての元画像を伝送してから画像の生成を行う場合に比べて伝送帯域を節約することができる。
【0072】
例えば、視点位置1〜5の5つの元画像を伝送して、利用者の所望する視点位置3での画像を利用者端末107で生成する場合、従来では、視点位置1及び2の元画像の伝送が全て完了し、視点位置3の伝送が開始されなければ、視点位置3の画像を利用者端末107で生成することができなかった。この為、利用者端末107での応答性を確保するには、視点位置1及び2等の全画像を所定の応答時間内に伝送できるだけの広い帯域が必要であった。
【0073】
一方、本実施形態では、視点位置1〜5の各元画像の伝送の際、視点位置1の部分画像1-1、視点位置2の部分画像2-1、…、視点位置5の部分画像5-1、視点位置1の部分画像1-2、視点位置2の部分画像2-2、…、視点位置5の部分画像5-2の様に、分割された部分画像をパケット選択ユニット105で順次受け取って伝送しているので、部分画像1-1から3-1までの部分画像のパケット選択ユニット105への受け渡しが終了した後、部分画像3-1を選択して伝送した時点で、視点位置3の画像の生成を利用者端末107で開始することができる。この為、利用者端末107での応答性を確保するには、部分画像3-1等の部分画像を所定の応答時間内で利用者端末107へ伝送できるだけの帯域を用意すれば良く、伝送帯域を節約することが可能である。
【0074】
また本実施形態では、前記分割された部分画像のパケットを選択して伝送するので、利用者からの視点移動の要求に対する応答性を犠牲にすること無く、任意視点画像の伝送を行うことができる。
【0075】
例えば、視点位置1〜5の5つの元画像を伝送して、視点位置3での画像を利用者端末107で生成中に視点が視点位置5に変更された場合、従来では、視点位置3及び4の元画像の伝送が全て完了し、視点位置5の伝送が開始されなければ、視点位置5への視点移動を利用者端末107で行うことができなかった。
【0076】
一方、本実施形態では、視点位置1〜5の各元画像の伝送の際、前記の様に分割された部分画像をパケット選択ユニット105で順次受け取って選択しているので、例えば部分画像3-2から5-2の部分画像のパケット選択ユニット105への受け渡しが終了した後、選択される部分画像を部分画像3-2から部分画像5-2へ変更するだけで、視点位置3から視点位置5への視点移動を利用者端末107で行うことができる。この為、利用者からの視点移動の要求に対する応答性を犠牲にすること無く、任意視点画像の伝送を行うことが可能である。
【0077】
以上、本実施形態の概要を記した。次に、個別の構成要素について詳細を説明する。
【0078】
図5は本実施形態のカメラと画像分割ユニットの接続の一形態を示す図である。図1においては1つの画像分割ユニット102に対してカメラ101は1つづつ接続されているが、本発明はこの様な接続形態に限定されるものではなく、図5に示す様に、1つの画像分割ユニット202に対して複数のカメラ201を接続する様な形態をとることも可能であるものとする。
【0079】
同様にして、それ以降の領域ヘッダ付加ユニット103及び通信ヘッダ付加ユニット104に関しても、データフローの上流にあるユニットと下流にあるユニットは1対1の接続形態に限定されるものではないものとする。
【0080】
図6は本実施形態の階層的なパケット選択処理の一例を示す図である。図1においてパケット選択ユニット105は1つだけ表記されているが、本発明はこの様な形態に限定されるものではなく、例えば図6に示す様に、パケット選択処理を階層401〜403に分け、各階層で段階的な選択処理を行い、各構成ユニットにおける負荷を軽減させる様な形態もとりうるものとする。
【0081】
例えば、図6のパケット選択処理では、カメラ識別番号がパケット要求108中の視点位置識別情報に該当しているものを必要なパケットとしているが、受信したパケットのカメラ識別番号が、パケット要求108中の視点位置識別番号を含むある範囲内の視点位置識別情報に該当する場合にそのパケットを必要なパケットと判定し、階層401から階層403へ進むにつれ、徐々にその範囲を狭めて段階的な選択処理を行う。
【0082】
図7は本実施形態のOSI参照モデルにおける複数のレイヤへの通信ヘッダの付加処理の一例を示す図である。図1における通信ヘッダ付加ユニット104は、より詳細に記すと図7に示す様に、領域ヘッダ付加ユニット501、OSI参照モデルにおける複数のレイヤを処理する1つ以上の通信ヘッダ付加ユニット502及び503、パケット選択ユニット504から構成され、通信ヘッダ付加ユニット502及び503としては、例えば下位レイヤとしてイーサネットヘッダ、上位レイヤとしてIPヘッダを付加するユニットが考えられる。但し、本発明はこれら特定のプロトコルに依存するものではないものとする。
【0083】
図8は本実施形態の通信ヘッダの付加処理を上位レイヤと下位レイヤで分割し、領域ヘッダ付加処理の前後にパケット選択処理を配置する場合の一例を示す図である。図8に示す様に、領域ヘッダ付加ユニット601及び下位レイヤ通信ヘッダ付加ユニット602と、上位レイヤ通信ヘッダ付加ユニット604との間にパケット選択ユニット603を配置し、複数のレイヤでのヘッダ付加処理の任意の段階でパケット選択処理を行うものとしても良い。
【0084】
次に図1におけるパケット選択ユニット105、ネットワーク106、利用者端末107に至る処理の流れを図9において詳細に述べる。
【0085】
図9は本実施形態のパケット選択ユニット、ネットワーク、利用者端末に至る処理の流れの一例を示す図である。図9において、パケット選択ユニット701は図1のパケット選択ユニット105に相当するユニット、利用者端末702〜704は利用者側の端末、中継ノード712〜717はネットワーク106上でパケットの中継を行う装置、入力パケット706はパケット選択ユニット701に入力されるパケット、選択パケット707及び708はパケット選択ユニット701により選択されたパケット、破棄パケット709はパケット選択ユニット701により破棄されたパケットを表している。
【0086】
パケット選択ユニット701は、1つの入力ポートと2つの出力ポート710及び711を持ち、2つの出力ポートの内のポート710にはネットワーク106の延長上に利用者端末702と利用者端末703が接続され、ポート711の延長には利用者端末704が接続されている。
【0087】
このときパケット選択ユニット701は、入力ポートに刻々と到達する入力パケット706の内、利用者端末702及び利用者端末703の画像生成に必要な選択パケット707をポート710から出力することにより、ネットワーク106の中継ノード712〜715経由で当該パケットを各端末に伝送し、同様に利用者端末704の画像生成に必要な選択パケット708をポート711から出力することにより、ネットワーク106の中継ノード716及び717経由で選択パケット708を利用者端末704に伝送する。
【0088】
このときパケット選択ユニット701は、ポート710及び711の両方から出力する必要のあるパケットを複写して両方のポートから出力し、また、どの端末でも必要の無い破棄パケット709を破棄する処理を行う。
【0089】
図10は本実施形態の利用者端末からの視点位置入力を元に必要なパケットを算出し、パケット選択ユニット701に要求する処理の一例を示す図である。前記の様なパケット選択処理は、利用者端末702〜704からのどのパケットが必要であるかと言うパケット要求108をパケット選択ユニット701が受けてなされるが、図10に示す様に利用者端末801からは所望する視点位置を出力し、その視点位置での画像生成に必要なパケットを算出する必要パケット算出ユニット802を経由することでパケット要求108をパケット選択ユニット803に受け渡すことも可能である。このとき必要パケット算出ユニット802の設置位置は、ネットワーク106に対して利用者端末801側でも良いし、パケット選択ユニット803側でも良く、任意のネットワークノードであっても良い。
【0090】
また、ポート710から出力される選択パケット707の内、利用者端末702と利用者端末703の両方で必要なパケットを、経路中の中継ノード713で複写し、パケット選択ユニット701−中継ノード712−中継ノード713の経路の帯域を節約して伝送することも可能であるし、予めパケット選択ユニット701にて複写し、ポート710から重複して出力し、中継ノード713にて分岐させて両端末に伝送することも可能である。
【0091】
前記の様に本実施形態では、利用者数が増加して同一のパケットを異なる利用者が必要とする場合でも、選択処理や中継処理の過程でその様なパケットを複写することで、元画像を提供する側には負担をかけること無く、スケーラビリティに優れるシステムを実現することができる。
【0092】
以上、図9を例にとってパケット選択ユニットから利用者端末までのパケットの処理過程を述べたが、本発明はこの様な接続形態に限定されるものではないものとする。
【0093】
以上説明した様に本実施形態の任意視点画像伝送装置によれば、複数の領域の部分画像に分割された画像データの内、利用者の所望する視点位置の画像を生成するのに必要な部分画像を選択して伝送するので、画像データを伝送する為の伝送帯域を節約し、利用者からの視点移動の要求に対する応答性を犠牲にすること無く、利用者の人数が増えた場合にも安定して、任意視点画像を生成する元となる複数の視点位置から撮影された画像データを伝送することが可能である。
【0094】
(実施形態2)
以下にパケット選択処理を伝送路上で段階的に行う実施形態2の任意視点画像伝送装置について説明する。
【0095】
図11は本実施形態の任意視点画像伝送装置の処理概要を示す図である。図11では画像分割処理及びヘッダ付加処理を行う任意視点画像伝送装置900から中継ノード902及び903を介して利用者端末905へ画像データを伝送する際に、任意視点画像伝送装置910の2つのパケット選択ユニット901及び904により段階的にパケットの選択処理を行うことを表している。ここで、段階的な選択処理とは、パケット選択ユニット901で一旦大まかな選択処理を行い、その後にパケット選択ユニット904でより絞り込んだ選択処理を行うことを言うものとする。
【0096】
ここで図11の様に、利用者端末905からパケット選択ユニット904までの片道の伝送遅延をt1、同様にパケット選択ユニット901までの片道の伝送遅延をt2(t2>t1)とし、往復の伝送遅延が等しいとすれば、利用者端末905に時刻t0に到達するパケットは、利用者端末905からの時刻t0-2×t2の時点でのパケット要求908に基づき、時刻t0-t2にパケット選択ユニット901にて選択したパケットの内、更に利用者端末905からの時刻t0-2×t1の時点でのパケット要求908に基づき、時刻t0-t1にパケット選択ユニット904にて選択したパケットである。
【0097】
パケット選択ユニット904とパケット選択ユニット901へ利用者端末905がパケット要求908を出してから実際に画像生成処理をするまでのタイムラグをそれぞれ△t1、△t2とおくと、△t1=2×t1、△t2=2×t2、△t1<△t2なので、利用者端末905に近いパケット選択ユニット904の方が、利用者端末905から遠いパケット選択ユニット901よりもタイムラグが少なく、その為タイムラグの期間中に視点が移動する程度も少なく、よってパケット選択をより厳しくしても画像の生成に必要なパケットを破棄してしまう状況が起き難い。
【0098】
よって、パケット選択ユニット901とパケット選択ユニット904で段階的な選択処理を行っても、パケット選択ユニット901だけで選択処理を行った場合と比べて、視点移動に対する応答性のパフォーマンスを落とすことは無い。その一方で、パケット選択ユニット904で更に絞り込みをすることで、一般に伝送帯域の小さい利用者端末905側の伝送路でも十分に必要なパケットを伝送できる。
【0099】
なお、上記の例ではパケット選択ユニットは2つであるが、2つ以上のパケット選択ユニットにより伝送経路中で段階的にパケットの選択を行うものとしても良い。
【0100】
図12は本実施形態の伝送路における利用者端末905の間近で行われるパケット選択処理の一例を示す図である。本実施形態では、利用者端末905の手前までの伝送経路(バックボーン)が全てのパケットを伝送するのに十分な伝送帯域を持ち、利用者端末905に間近の伝送路では限られた伝送帯域しか持たない場合、図12の様に伝送路の入り口にはパケット選択ユニットを設置せず、伝送経路の利用者に近い側にのみパケット選択ユニットを設置する様な実施の形態も取りうるものとする。
【0101】
図13は本実施形態の任意視点画像伝送装置900及び910の概略構成を示す図である。図13に示す様に本実施形態の任意視点画像伝送装置900は、CPU1301と、メモリ1302と、磁気ディスク装置1303と、入力装置1304と、出力装置1305と、CD−ROM装置1306と、通信装置1307とを有している。
【0102】
CPU1301は、任意視点画像伝送装置900全体の動作を制御する装置である。メモリ1302は、任意視点画像伝送装置900全体の動作を制御する際にその為の各種処理プログラムやデータをロードする記憶装置である。
【0103】
磁気ディスク装置1303は、前記各種処理プログラムやデータを格納しておく記憶装置である。入力装置1304は、画像分割、領域ヘッダ付加及び通信ヘッダ付加を実行する為の各種入力を行う装置である。
【0104】
出力装置1305は、画像分割、領域ヘッダ付加及び通信ヘッダ付加に伴う各種出力を行う装置である。CD−ROM装置1306は、前記各種処理プログラムを記録したCD−ROMの内容を読み出す装置である。通信装置1307は、インターネットやイントラネット等のネットワークを介して任意視点画像伝送装置910との通信を行う装置である。
【0105】
任意視点画像伝送装置910は、CPU1311と、メモリ1312と、磁気ディスク装置1313と、入力装置1314と、出力装置1315と、CD−ROM装置1316と、通信装置1317と、パケット要求管理テーブル1318とを有している。
【0106】
CPU1311は、任意視点画像伝送装置910全体の動作を制御する装置である。メモリ1312は、任意視点画像伝送装置910全体の動作を制御する際にその為の各種処理プログラムやデータをロードする記憶装置である。
【0107】
磁気ディスク装置1313は、前記各種処理プログラムやデータを格納しておく記憶装置である。入力装置1314は、パケット選択を実行する為の各種入力を行う装置である。出力装置1315は、パケットの選択に伴う各種出力を行う装置である。
【0108】
CD−ROM装置1316は、前記各種処理プログラムを記録したCD−ROMの内容を読み出す装置である。通信装置1317は、インターネットやイントラネット等のネットワークを介して任意視点画像伝送装置900、中継ノード902及び903、利用者端末905との通信を行う装置である。パケット要求管理テーブル1318は、パケット要求908を受信したポート番号と、そのパケット要求908中の視点位置識別番号とを対応付けて格納するテーブルである。
【0109】
本実施形態の任意視点画像伝送装置900は、コンピュータとプログラムによっても実現できるものとし、画像分割ユニット102、領域ヘッダ付加ユニット103、通信ヘッダ付加ユニット104としてコンピュータを機能させる為のプログラムは、CD−ROM等の記録媒体に記録され磁気ディスク等に格納された後、メモリにロードされて実行されるものとする。なお前記プログラムを記録する記録媒体はCD−ROM以外の他の記録媒体でも良い。また前記プログラムを当該記録媒体からコンピュータにインストールして使用しても良いし、ネットワークを通じて当該記録媒体にアクセスして前記プログラムを使用するものとしても良い。
【0110】
また本実施形態の任意視点画像伝送装置910は、コンピュータとプログラムによっても実現できるものとし、パケット選択ユニット901またはパケット選択ユニット904としてコンピュータを機能させる為のプログラムは、CD−ROM等の記録媒体に記録され磁気ディスク等に格納された後、メモリにロードされて実行されるものとする。なお前記プログラムを記録する記録媒体はCD−ROM以外の他の記録媒体でも良い。また前記プログラムを当該記録媒体からコンピュータにインストールして使用しても良いし、ネットワークを通じて当該記録媒体にアクセスして前記プログラムを使用するものとしても良い。
【0111】
図14は本実施形態のパケット選択処理の処理手順を示すフローチャートである。図14の様に本実施形態の任意視点画像伝送装置910のパケット選択ユニットは、複数の視点位置の複数の部分画像のパケットを任意視点画像伝送装置910または中継ノード903からそれぞれの分割順に受け取り、利用者の所望する視点位置の画像を生成するのに必要な部分画像を含むパケットを選択して伝送する。
【0112】
ステップ1401で任意視点画像伝送装置910のパケット選択ユニットは、利用者の所望する視点位置を示すパケット要求908を利用者端末905から受信しているかどうかを調べ、パケット要求908を受信している場合にはステップ1402へ進む。
【0113】
ステップ1402では、パケット要求908から視点位置識別番号を読み出し、パケット要求908を受信したポート番号と、前記読み出した視点位置識別番号とを対応付けてパケット要求管理テーブル1318に保持する。
【0114】
ステップ1403では、任意視点画像伝送装置910の通信ヘッダ付加ユニット104または中継ノード903よりパケットを受信しているかどうかを調べ、パケットを受信している場合にはステップ1404へ進む。
【0115】
ステップ1404では、通信ヘッダ付加ユニット104より受信したパケットの領域ヘッダを参照して、その領域ヘッダ中のカメラ識別番号が、パケット要求管理テーブル1318に格納されている視点位置識別番号を含む所定範囲内の視点位置識別情報に該当するかどうかを調べ、該当する場合には、そのパケットは利用者端末905で必要となる部分画像を含むパケットであると判定してステップ1405へ進む。ここで前記所定範囲は、パケット選択ユニット901では大まかな範囲が設定され、パケット選択ユニット904では絞り込まれた範囲が設定されているものとし、例えば、大まかな範囲としてパケット要求管理テーブル1318中の視点位置識別番号の前後数十%の範囲、絞り込んだ範囲としてパケット要求管理テーブル1318中の視点位置識別番号の前後数%の範囲等を設定しておくものとする。
【0116】
ステップ1405では、前記必要となる部分画像を含むものとして判定されたパケットをパケット要求管理テーブル1318中の視点位置識別番号に対応付けられたポートから送出し、そのパケットを中継ノード902または利用者端末905へ伝送する。
【0117】
パケット選択ユニット901から中継ノード902へパケットが伝送された場合、中継ノード902は、パケット選択ユニット901からパケットを受信し、その通信ヘッダを参照して伝送経路を判定した後、そのパケットを中継ノード903経由でパケット選択ユニット904へ伝送する。
【0118】
パケット選択ユニット904から利用者端末905へパケットが伝送された場合、利用者端末905は、パケット選択ユニット904からパケットを受信し、その領域ヘッダを参照して画像データを領域識別番号順に並べ替えて合成し、その視点位置での画像を生成してディスプレイ装置やスピーカ等の出力装置へ出力し、利用者へ任意視点画像を提供する。
【0119】
またステップ1404で調べた結果、利用者端末905で必要となる部分画像を含むパケットであると判定されなかった場合にはステップ1406へ進み、その不要なパケットを破棄する処理を行う。
【0120】
以上説明した様に本実施形態の任意視点画像伝送装置によれば、伝送経路上で段階的にパケットの選択を行うので、利用者に近い末端の伝送帯域を節約すると共に、利用者の視点移動に対する画像生成の応答性を犠牲にすること無く、任意視点画像を生成する為の画像データの伝送を行うことが可能である。
【0121】
(実施形態3)
以下に直交変換を含む符号化処理の最小単位若しくはその集合を部分画像の分割単位とする実施形態3の任意視点画像伝送装置について説明する。
【0122】
本実施形態においては、図1の画像分割ユニット102における画像分割処理において、画像を分割するだけでなく符号化処理を行い、パケットのデータサイズを圧縮することで、伝送に必要な帯域を小さくする。
【0123】
図15は本実施形態の画像の分割・符号化処理の概要を示す図である。図中、ブロック化処理1101ではディジタル画像全体をブロックと呼ばれる部分画像に分割し、直交変換処理1102では、例えば離散フーリエ変換(DFT)や離散コサイン変換(DCT)により直交変換を施し、量子化処理1103では、直交変換後の変換係数に符号化ビット数を周波数成分毎に適応的に配分し、領域ヘッダ付加処理1104にて領域ヘッダ付加して、それ以降の処理に結果を出力する。
【0124】
図16は本実施形態の画像の符号化における直交変換のブロックと、パケット分割における部分画像の関係の一例を示す図である。図16において、1201は直交変換の1ブロックを示しており、ブロック毎に符号化処理を行い、領域ヘッダを付加することで1202の様なパケットを生成する。
【0125】
この様に、パケット化する為の画像の分割の単位を直交変換におけるブロックと一致させることで、画像全体を直交変換により符号化する場合と比較しても、符号化の圧縮効率が低下しない様にすることができる。
【0126】
なお、本発明における直交変換は、上記の例で示したDFTとDCTに限定されるものではなく、他の基底を用いた直交変換も含まれるものとする。また、本発明は、直交変換の複数ブロックに対して1つのパケットを生成する場合も含むものとし、例えば図16の1203の様にパケットをまとめる形態を取りうるものとする。更に、本発明における符号化処理は、直交変換に限定されるものではなく、画像を部分領域毎に区切って符号化する方式一般に適用されるものとする。
【0127】
以上説明した様に本実施形態の任意視点画像伝送装置によれば、直交変換を含む符号化処理の最小単位若しくはその集合を部分画像の分割単位とするので、画像全体を符号化した場合と比較して圧縮効率を落とすこと無く画像の分割を行うことが可能である。
【0128】
(実施形態4)
以下に利用者の所望する視点位置の移動範囲を予測し、その範囲内の視点位置での画像生成に必要なパケットを選択する実施形態4の任意視点画像伝送装置について説明する。
【0129】
前述の通り、利用者端末107からパケット選択ユニット105に画像生成に必要となるパケットを要求し、それから実際にパケットを受信するまでにはタイムラグがある為、その間に利用者端末107で所望する視点位置が移動することがあり得る。
【0130】
本実施形態では、パケットの伝送遅延とその間の視点移動を想定して、予め視点が移動する範囲を予測し、その範囲内の視点位置での画像を生成するのに必要なパケットを利用者端末107から要求する。パケット選択ユニット105では、利用者端末107からのパケット要求108を受け取り、前記予測された範囲内の視点位置での画像生成に必要なパケットを選択して伝送する。ここで前記予測処理をパケット選択ユニット105で行うものとしても良い。
【0131】
図17は本実施形態のパケットの伝送期間中に移動する視点の範囲を推定し、その範囲での画像生成に必要なパケットを算出して要求する処理の処理手順を示すフローチャートである。図中、ステップ1301では現時点での視点位置を取得し、ステップ1302でパケットの伝送遅延△tを実測若しくは推定により求め、ステップ1303で△tの間にされる視点移動の範囲を推定し、ステップ1304でその視点の範囲で画像を生成するのに必要なカメラの部分画像を含むパケットを算出し、ステップ1305で算出したパケットをパケット選択ユニットに要求する。
【0132】
ここで、ステップ1303における視点移動範囲の推定は、例えば以下に示すカルマンフィルタのアルゴリズムにより△t後の視点位置を推定することで求めることができる。
【0133】
まず、時刻tにおける仮想視点の状態を、数1に示す6つのパラメータからなるベクトルで表す。
【数1】
【0134】
ここで、[x,y,z]Tは3次元デカルト座標系における仮想視点位置、[x,y,z]Tの変数x,y,zに記号“・”が付けられたものは、その速度を表している。このとき、状態量の最適な推定値と一期先予測値は、以下に述べるカルマンフィルタにより計算することができる。
【0135】
まず、システムモデルは数2で記述できるものとする。
【数2】
【0136】
ここで、wtは系に加わる6次元の外乱ベクトルで、平均が0、共分散がQt、で既知であるものとする。また、Fは状態の推移行列を表し、次の6×6の行列であるものとする。
【0137】
【数3】
【0138】
一方、時刻tでの観測値は次の数4で表される。
【数4】
ここで、Hは6×6の単位行列とし、vtは6次元の推定誤差ベクトルで、平均が0、共分散がRtで既知であるものとする。
【0139】
wt、vtは共に独立な離散化された正規白色雑音で、状態量Xtとも独立である場合、以上のモデルによるカルマンフィルタのアルゴリズムは、以下の様になる。
【0140】
すなわち、
[フィルタリング]
【数5】
【数6】
【数7】
【0141】
[一期先予測]
【数8】
【数9】
【0142】
[初期値]
【数10】
【0143】
数5〜数7により、状態量の最適な推定値更新処理を行う。また、一期先予測値を数8及び数9により計算する。
【0144】
以上がカルマンフィルタによる視点移動の推定法であるが、本発明は、このアルゴリズムを用いた推定法に限定されるものではないものとする。
【0145】
以上説明した様に本実施形態の任意視点画像伝送装置によれば、利用者の所望する視点位置の移動範囲を予測し、その範囲内の視点位置での画像生成に必要なパケットを選択するので、伝送帯域を必要最小限に節約することが可能である。
【0146】
【発明の効果】
本発明によれば、複数の領域の部分画像に分割された画像データの内、利用者の所望する視点位置の画像を生成するのに必要な部分画像を選択して伝送するので、実時間コミュニケーション、ライブ配信やストリーミング放送等、処理時間の要求が厳しいネットワーク・アプリケーションで利用者の所望する視点位置からの画像である任意視点画像を提供する場合において、伝送帯域を節約しつつも、利用者からの視点移動の要求に対する応答性を犠牲にすること無く、利用者の人数が増えても安定して、任意視点画像を生成する元となる複数の視点位置から操影した画像データを伝送することができる。
【図面の簡単な説明】
【図1】実施形態1の任意視点画像伝送装置の処理概要を示す図である。
【図2】実施形態1の任意視点画像伝送装置の概略構成を示す図である。
【図3】実施形態1の画像分割及びヘッダ付加処理の処理手順を示すフローチャートである。
【図4】実施形態1のパケット選択処理の処理手順を示すフローチャートである。
【図5】実施形態1のカメラと画像分割ユニットの接続の一形態を示す図である。
【図6】実施形態1の階層的なパケット選択処理の一例を示す図である。
【図7】実施形態1のOSI参照モデルにおける複数のレイヤへの通信ヘッダの付加処理の一例を示す図である。
【図8】実施形態1の通信ヘッダの付加処理を上位レイヤと下位レイヤで分割し、領域ヘッダ付加処理の前後にパケット選択処理を配置する場合の一例を示す図である。
【図9】実施形態1のパケット選択ユニット、ネットワーク、利用者端末に至る処理の流れの一例を示す図である。
【図10】実施形態1の利用者端末からの視点位置入力を元に必要なパケットを算出し、パケット選択ユニット701に要求する処理の一例を示す図である。
【図11】実施形態2の任意視点画像伝送装置の処理概要を示す図である。
【図12】実施形態2の伝送路における利用者端末905の間近で行われるパケット選択処理の一例を示す図である。
【図13】実施形態2の任意視点画像伝送装置900及び910の概略構成を示す図である。
【図14】実施形態2のパケット選択処理の処理手順を示すフローチャートである。
【図15】実施形態3の画像の分割・符号化処理の概要を示す図である。
【図16】実施形態3の画像の符号化における直交変換のブロックと、パケット分割における部分画像の関係の一例を示す図である。
【図17】実施形態4のパケットの伝送期間中に移動する視点の範囲を推定し、その範囲での画像生成に必要なパケットを算出して要求する処理の処理手順を示すフローチャートである。
【符号の説明】
101…カメラ、102…画像分割ユニット、103…領域ヘッダ付加ユニット、104…通信ヘッダ付加ユニット、105…パケット選択ユニット、106…ネットワーク、107…利用者端末、108…パケット要求、210…任意視点画像伝送装置、211…CPU、212…メモリ、213…磁気ディスク装置、214…入力装置、215…出力装置、216…CD−ROM装置、217…通信装置、218…パケット要求管理テーブル、201…カメラ、202…画像分割ユニット、401〜403…階層、501…領域ヘッダ付加ユニット、502及び503…通信ヘッダ付加ユニット、504…パケット選択ユニット、601…領域ヘッダ付加ユニット、602…下位レイヤ通信ヘッダ付加ユニット、603…パケット選択ユニット、604…上位レイヤ通信ヘッダ付加ユニット、701…パケット選択ユニット、702〜704…利用者端末、706…入力パケット、707及び708…選択パケット、709…破棄パケット、710及び711…ポート、712〜717…中継ノード、801…利用者端末、802…必要パケット算出ユニット、803…パケット選択ユニット、900及び910…任意視点画像伝送装置、901及び904…パケット選択ユニット、902及び903…中継ノード、905…利用者端末、908…パケット要求、1301…CPU、1302…メモリ、1303…磁気ディスク装置、1304…入力装置、1305…出力装置、1306…CD−ROM装置、1307…通信装置、1311…CPU、1312…メモリ、1313…磁気ディスク装置、1314…入力装置、1315…出力装置、1316…CD−ROM装置、1317…通信装置、1318…パケット要求管理テーブル、1101…ブロック化処理、1102…直交変換処理、1103…量子化処理、1104…領域ヘッダ付加処理、1201…ブロック、1202…パケット、1203…パケット。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an arbitrary viewpoint image transmission apparatus that transmits an image from an arbitrary viewpoint position desired by a user, and in particular, an arbitrary viewpoint position desired by a user based on a two-dimensional image captured at a plurality of viewpoint positions. The present invention relates to a technique that is effective when applied to an arbitrary viewpoint image transmission apparatus that transmits image data in an image processing system that generates an image from the image.
[0002]
[Prior art]
Recent developments in computer graphics (CG) and virtual reality (VR) technologies have made it possible to observe realistic images of subjects not only from the viewpoint where the camera is installed, but also from the viewpoint desired by the user. I came.
[0003]
Such image generation technology is generally called Image-Based Rendering (IBR), and conventional CG technology required a precise geometric model of the subject, whereas IBR is a two-dimensional image of the subject taken from many positions. Based on the image, an image in which the subject is viewed from an arbitrary viewpoint position can be generated with little or no geometric model.
[0004]
Representative examples of IBR include light field rendering, Lumigraph, and a technique called ray space theory (see, for example, Non-Patent Documents 1 to 3).
[0005]
In these methods, a two-dimensional image taken by a camera from a large number of positions is regarded as data obtained by sampling the intensity of a bundle of rays (a group of rays) passing through the lens center of the camera. Then, a procedure is performed in which the light group data is once expressed in a multidimensional space called a light space or the like, and then a light group passing through a desired viewpoint position is resampled on the light space.
[0006]
However, since such a method requires two-dimensional image data (multi-view data) taken at a large number of viewpoint positions in order to construct a ray space, the amount of data required compared to a method using a geometric model Has enormous drawbacks. For this reason, an approach is often taken in which the amount of data is compressed by performing the encoding process using the redundancy included in the multiview data.
[0007]
For example, some reference images are set, and other images are encoded with the difference, or once a three-dimensional model is constructed and the model is viewed from the viewpoint position, There are methods such as encoding a prediction error with an image (see, for example, Patent Documents 1 and 2).
[0008]
However, although the amount of data decreases to some extent when these encoding processes are performed, it is enormous compared to a normal two-dimensional image.
[0009]
Therefore, when considering use on a network, it is realistic to download a huge amount of data to the terminal on the user side over time, and then browse the data stored on the terminal, but it is distributed continuously. In an application called streaming in which incoming data is immediately viewed on a terminal, the bandwidth of the transmission path is insufficient, which is difficult to realize.
[0010]
Even if an approach is adopted in which a higher compression rate encoding method is used to fit within the transmission band, the higher the compression rate, the higher the computer load and the processing time. For this reason, a delay occurs and it is not suitable for communication or live distribution where real-time characteristics are important.
[0011]
These problems are not limited to data transmission between remote locations, and become a problem when a large amount of multi-view data is transmitted between component devices even in a local system. Therefore, the conventional method of reducing the amount of data by encoding significantly limits the types of applications and services that can be applied.
[0012]
On the other hand, as an approach different from such a method, first, a request for the viewpoint position is transmitted from the user side, an image of the viewpoint position requested on the multi-view camera side is generated, and the generated image is transmitted to the user side. A method of transmitting is also conceivable. In this case, if the compression efficiency by encoding is not taken into account, the data amount is the same as that of an image for one camera, and therefore transmission can be performed in a band necessary for normal two-dimensional image communication.
[0013]
In this way, the above method can be said to be ideal when focusing only on the aspect of the transmission band, but there is a problem in responsiveness from when the user requests the change of the viewpoint position until the change is reflected in the presented image. That is, in order for the viewpoint movement instructed by the user to be reflected in the presented image, it takes a transmission time for the data to reciprocate between the user side and the multi-lens camera side, resulting in a delay in the response to the user. The operability of the system will be greatly deceived.
[0014]
Also, it is difficult to provide an arbitrary viewpoint image to a certain number of users or more by this method. This is because the viewpoint camera required by each user is created one by one on the multi-lens camera side, and the computer load and the amount of data transmission increase by the number of people.
[0015]
[Non-Patent Document 1]
Marc Levoy, Pat Hanrahan, “Light Field Rendering”, SIGGRAPH'96 Conference Proceedings, Association for Computing Machinery, 1996, p.31-41
[Non-Patent Document 2]
Steven J. Gortler et al., “The Lumigraph”, SIGGRAPH'96 Conference Proceedings, Association for Computing Machinery, 1996, p. 43-54
[Non-Patent Document 3]
Uchiyamagai, “Realization of a virtual environment by combining CG models of live-action data based on ray space theory”, 3D Image Conference '96, 3D Image Conference '96 Executive Committee, 1996, p. 13-18
[Patent Document 1]
Japanese Patent Laid-Open No. 10-111951 (page 5-6, FIG. 6)
[Patent Document 2]
Japanese Patent Laid-Open No. 11-18091 (page 7-10, FIG. 1)
[0016]
[Problems to be solved by the invention]
In the conventional method of the conventional IBR, since the data amount of multi-view data taken at a large number of viewpoint positions in order to construct a light space becomes enormous, when considering use in a network, in streaming applications There is a problem that the bandwidth of the transmission path is insufficient and it becomes difficult to realize.
[0017]
In addition, even if an approach is taken to fit the transmission band by taking a higher compression rate encoding method, the higher the compression rate, the higher the computer load and the processing time, resulting in delays. Therefore, there is a problem that it is not suitable for communication or live distribution where importance is placed on real time.
[0018]
On the other hand, in the method of generating the image of the viewpoint position requested from the user side on the multi-lens camera side and transmitting it to the user side, it takes a transmission time when data is reciprocated between the user side and the multi-lens camera side. Therefore, there is a problem that the operability as a system is remarkably deceived.
[0019]
Also, in this method, the viewpoint images required by each user are created one by one on the multi-lens camera side, and the computer load and the data transmission amount increase by the number of users, so a predetermined number or more There is a problem that it is difficult to provide arbitrary viewpoint images to users.
[0020]
The object of the present invention is to solve the above problems, save the transmission band for transmitting image data, and increase the number of users without sacrificing the responsiveness to the viewpoint movement request from the users. The present invention also provides a technique capable of stably transmitting image data captured from a plurality of viewpoint positions that are sources for generating an arbitrary viewpoint image. Another object of the present invention is to save image transmission bandwidth at the end close to the user and to generate image data for generating an arbitrary viewpoint image without sacrificing the responsiveness of the image generation to the user's viewpoint movement. To provide a technique capable of dividing an image without reducing the compression efficiency compared to the case where the entire image is encoded, and saving the transmission band to the minimum necessary. is there.
[0021]
[Means for Solving the Problems]
The present invention relates to an arbitrary viewpoint image transmission apparatus that transmits image data taken from a plurality of viewpoint positions from which an arbitrary viewpoint image is generated. Among image data divided into partial images of a plurality of areas, a user A partial image necessary for generating an image at a desired viewpoint position is selected and transmitted.
[0022]
In the present invention, when an image (arbitrary viewpoint image) from a viewpoint position desired by a user is provided in a network application that requires strict processing time, such as real-time communication, live distribution, and streaming broadcasting, the following is performed. The image data is transmitted.
[0023]
That is, after each image taken at different viewpoint positions is further divided into partial images of a plurality of areas, the area header information indicating which area of which viewpoint position the data of which is divided is divided. To the partial image data. Then, a header of a communication protocol is added to the data to form a packet, and after selecting a packet including a partial image necessary to generate an image at a viewpoint position desired by the user from the packet, The selected packet is routed by the communication protocol header and transmitted.
[0024]
In a general IBR image generation method, when an image at a certain viewpoint position is generated by a user terminal, original images taken at a plurality of different viewpoint positions are used, but not all of them are necessary. It becomes only a part for each original image of each viewpoint.
[0025]
Therefore, the data including the area necessary for generating an image from a desired viewpoint position at a certain point in time is obtained by further dividing the original image captured from a plurality of viewpoints into partial areas by the proposed method. The transmission band can be saved as compared with the case of generating the image after transmitting all the original images.
[0026]
In addition, since the process of adding a header indicating area information to the divided partial image data is very simple, the processing load is very small and little time overhead occurs.
[0027]
On the other hand, since the selection processing can be determined by the header portion regardless of the content of the partial image, it can be processed with high throughput by hardware generally called a switch.
[0028]
Further, by adding a communication protocol header to the image data including the area header to form a packet, even an existing network device that does not support the area header can transmit the packet.
[0029]
Even if the number of users increases and different users need the same packet, copying such packets in the process of selection processing, without burdening the side that provides the original image, A system with excellent scalability can be realized.
[0030]
In the packet selection process of the present invention, packets may be selected step by step on the transmission path between the transmission side and the reception side.
[0031]
When the viewpoint position of the user changes, the partial image necessary for image generation also changes. Therefore, if the user moves the viewpoint during the packet transmission period, the packet required at the time of transmission differs from the packet required at the time of arrival at the receiving side. For this reason, if only the necessary packets are selected and transmitted at the time of transmission, when the user moves the viewpoint, the packets necessary for image generation may not be acquired on the receiving side. May not be able to present a correct image, and the responsiveness to the user's operation may be impaired.
[0032]
On the other hand, when packets are transmitted excessively without strict selection of packets at the time of transmission, newly necessary packets can be selected at the reception stage, but a wide transmission band is required. In general, the closer the network is to the end user side, the narrower the band, so the amount of data that could be transmitted over a wide band on the route close to the transmitting side may not be transmitted to the receiving user side. .
[0033]
However, if the packet is roughly selected on the transmission side and the packet selection is made stricter sequentially as it approaches the user by relaying at a node on the route, the transmission bandwidth at the end close to the user is saved. be able to. And the closer the user is to the node, the shorter the time it takes for the packet to reach the user, so even if the range of movement of the viewpoint is narrow and the packet selection is strict, it is necessary when arriving at the user side. Since there is little risk of packet loss, the responsiveness of image generation to the user's viewpoint movement is not sacrificed.
[0034]
In the division into partial images according to the present invention, encoding including orthogonal transformation may be performed on a partial image generated using a minimum unit of encoding processing or a set thereof as a division unit.
[0035]
In the transform coding method generally used for coding a two-dimensional image, the compression efficiency is increased by actively using the two-dimensional correlation of the image. However, when the image is divided into partial images, the compression efficiency decreases for each data, and the data size as a whole may increase.
[0036]
However, in the transform coding method, orthogonal coding is performed by, for example, discrete cosine transform (DCT) for each partial image called a block, and therefore, by dividing the partial image for each block or each set, the entire image can be obtained. Compared to the case of encoding, the image can be divided without reducing the compression efficiency.
[0037]
Further, in the present invention, assuming that the viewpoint position desired by the user moves during the transmission period, the movement range is predicted, and a packet necessary for image generation at the viewpoint position within the range is selected. Also good.
[0038]
If the user moves the viewpoint during the packet transmission period, the packet required at the time of transmission differs from the packet required at the time of arrival at the receiving side. For this reason, if only the necessary packets are selected and transmitted at the time of transmission, the necessary packets may not be acquired on the receiving side when the user moves the viewpoint. If packet selection is roughly performed, the robustness with respect to viewpoint movement is improved, but the necessary transmission band is widened accordingly.
[0039]
Therefore, in the present invention, the viewpoint movement range of the user is specifically predicted, and a packet necessary for generating an image within the predicted viewpoint range is selected. By providing a general guideline, the transmission band can be saved to the minimum necessary.
[0040]
As described above, according to the arbitrary viewpoint image transmission apparatus of the present invention, the partial image necessary for generating the image at the viewpoint position desired by the user among the image data divided into the partial images of a plurality of regions is obtained. Selective transmission saves transmission bandwidth for image data transmission and is stable even when the number of users increases without sacrificing responsiveness to user requests for viewpoint movement. Thus, it is possible to transmit image data taken from a plurality of viewpoint positions from which arbitrary viewpoint images are generated.
[0041]
DETAILED DESCRIPTION OF THE INVENTION
(Embodiment 1)
Hereinafter, the arbitrary viewpoint image transmission apparatus according to the first embodiment that transmits image data captured from a plurality of viewpoint positions, which are sources for generating an arbitrary viewpoint image, will be described.
[0042]
FIG. 1 is a diagram showing an outline of processing of the arbitrary viewpoint image transmission apparatus of the present embodiment. As shown in FIG. 1, the arbitrary viewpoint image transmission apparatus according to the present embodiment further divides each image captured at a different viewpoint position by the
[0043]
In FIG. 1, a
[0044]
The
[0045]
The area
[0046]
The communication
[0047]
The
[0048]
The
[0049]
The
[0050]
FIG. 2 is a diagram showing a schematic configuration of the arbitrary viewpoint image transmission apparatus of the present embodiment. As shown in FIG. 2, the arbitrary viewpoint
[0051]
The
[0052]
The
[0053]
The CD-
[0054]
The arbitrary viewpoint
[0055]
FIG. 3 is a flowchart showing a processing procedure of image division and header addition processing according to this embodiment. As shown in FIG. 3, the
[0056]
When the arbitrary viewpoint
[0057]
In
[0058]
In
[0059]
In
[0060]
In
[0061]
In
[0062]
When image division and header addition processing are performed on the images at the respective viewpoint positions captured by the plurality of
[0063]
FIG. 4 is a flowchart showing the processing procedure of the packet selection processing of this embodiment. As shown in FIG. 4, the
[0064]
In
[0065]
In
[0066]
In
[0067]
In
[0068]
In
[0069]
The
[0070]
If it is determined in
[0071]
As described above, in the present embodiment, an original image captured at a plurality of viewpoint positions is divided in parallel for each viewpoint position to generate partial image data, and a plurality of partial image data at the plurality of viewpoint positions is divided. Therefore, only partial image data including an area necessary for generating an image from a desired viewpoint position at a certain point in time can be transmitted, compared to the case of generating an image after transmitting all original images. Transmission bandwidth can be saved.
[0072]
For example, when five original images at the viewpoint positions 1 to 5 are transmitted and an image at the viewpoint position 3 desired by the user is generated at the
[0073]
On the other hand, in the present embodiment, when the original images at the viewpoint positions 1 to 5 are transmitted, the partial image 1-1 at the viewpoint position 1, the partial image 2-1 at the
[0074]
In this embodiment, since the packet of the divided partial image is selected and transmitted, it is possible to transmit an arbitrary viewpoint image without sacrificing responsiveness to a request for moving the viewpoint from the user. .
[0075]
For example, when five original images of the viewpoint positions 1 to 5 are transmitted and the viewpoint is changed to the viewpoint position 5 while the image at the viewpoint position 3 is generated at the
[0076]
On the other hand, in the present embodiment, when the original images at the viewpoint positions 1 to 5 are transmitted, the partial images divided as described above are sequentially received and selected by the
[0077]
The outline of the present embodiment has been described above. Next, details of individual components will be described.
[0078]
FIG. 5 is a diagram showing one form of connection between the camera and the image division unit of the present embodiment. In FIG. 1, one
[0079]
Similarly, regarding the subsequent area
[0080]
FIG. 6 is a diagram illustrating an example of a hierarchical packet selection process according to the present embodiment. Although only one
[0081]
For example, in the packet selection process of FIG. 6, the camera identification number corresponding to the viewpoint position identification information in the
[0082]
FIG. 7 is a diagram showing an example of processing for adding communication headers to a plurality of layers in the OSI reference model of the present embodiment. More specifically, the communication
[0083]
FIG. 8 is a diagram illustrating an example in which the communication header addition processing according to the present embodiment is divided into an upper layer and a lower layer, and packet selection processing is arranged before and after the region header addition processing. As shown in FIG. 8, a
[0084]
Next, the flow of processing from the
[0085]
FIG. 9 is a diagram illustrating an example of a flow of processing from the packet selection unit, the network, and the user terminal according to the present embodiment. 9, a
[0086]
The
[0087]
At this time, the
[0088]
At this time, the
[0089]
FIG. 10 is a diagram illustrating an example of processing for calculating a required packet based on the viewpoint position input from the user terminal according to the present embodiment and requesting the
[0090]
Of the
[0091]
As described above, in this embodiment, even when the number of users increases and different users need the same packet, the original image can be copied by copying such a packet in the process of selection processing and relay processing. A system with excellent scalability can be realized without imposing a burden on the provider.
[0092]
The packet processing process from the packet selection unit to the user terminal has been described above using FIG. 9 as an example, but the present invention is not limited to such a connection form.
[0093]
As described above, according to the arbitrary viewpoint image transmission apparatus of the present embodiment, a part necessary for generating an image at a viewpoint position desired by a user among image data divided into partial images of a plurality of regions. Since images are selected and transmitted, even when the number of users increases without saving transmission bandwidth for transmitting image data and without sacrificing responsiveness to requests for viewpoint movement from users It is possible to stably transmit image data captured from a plurality of viewpoint positions from which an arbitrary viewpoint image is generated.
[0094]
(Embodiment 2)
The arbitrary viewpoint image transmission apparatus according to the second embodiment that performs packet selection processing stepwise on the transmission path will be described below.
[0095]
FIG. 11 is a diagram showing an outline of processing of the arbitrary viewpoint image transmission apparatus of this embodiment. In FIG. 11, when image data is transmitted from the arbitrary viewpoint
[0096]
Here, as shown in FIG. 11, a one-way transmission delay from the
[0097]
If the time lag from when the
[0098]
Therefore, even if the
[0099]
In the above example, there are two packet selection units, but it is also possible to select packets stepwise in the transmission path by two or more packet selection units.
[0100]
FIG. 12 is a diagram illustrating an example of a packet selection process performed near the
[0101]
FIG. 13 is a diagram illustrating a schematic configuration of arbitrary viewpoint
[0102]
The
[0103]
A
[0104]
The
[0105]
The arbitrary viewpoint
[0106]
The
[0107]
The
[0108]
A CD-
[0109]
The arbitrary viewpoint
[0110]
The arbitrary viewpoint
[0111]
FIG. 14 is a flowchart showing the processing procedure of the packet selection processing of this embodiment. As shown in FIG. 14, the packet selection unit of the arbitrary viewpoint
[0112]
In
[0113]
In
[0114]
In
[0115]
In
[0116]
In
[0117]
When a packet is transmitted from the
[0118]
When a packet is transmitted from the
[0119]
If it is determined in
[0120]
As described above, according to the arbitrary viewpoint image transmission apparatus of the present embodiment, packets are selected step by step on the transmission path, so that the transmission band at the end close to the user is saved and the viewpoint of the user is moved. It is possible to transmit image data for generating an arbitrary viewpoint image without sacrificing the responsiveness of image generation with respect to.
[0121]
(Embodiment 3)
The arbitrary viewpoint image transmission apparatus according to the third embodiment will be described below in which the minimum unit of encoding processing including orthogonal transformation or a set thereof is a division unit of partial images.
[0122]
In the present embodiment, in the image division processing in the
[0123]
FIG. 15 is a diagram showing an outline of image division / encoding processing according to the present embodiment. In the figure,
[0124]
FIG. 16 is a diagram showing an example of the relationship between the orthogonal transform block in the image coding of this embodiment and the partial image in the packet division. In FIG. 16,
[0125]
Thus, by matching the unit of image segmentation for packetization with the block in orthogonal transform, the compression efficiency of encoding does not decrease even when compared with the case where the entire image is encoded by orthogonal transform. Can be.
[0126]
Note that the orthogonal transform in the present invention is not limited to the DFT and DCT shown in the above example, and includes an orthogonal transform using other bases. In addition, the present invention includes a case where one packet is generated for a plurality of blocks of orthogonal transform, and can take a form in which packets are collected, for example, 1203 in FIG. Furthermore, the encoding process in the present invention is not limited to orthogonal transformation, and is generally applied to a method of encoding an image by dividing it into partial areas.
[0127]
As described above, according to the arbitrary viewpoint image transmission apparatus of the present embodiment, the minimum unit of encoding processing including orthogonal transformation or a set thereof is used as a division unit of partial images, so that it is compared with the case where the entire image is encoded. Thus, it is possible to divide the image without reducing the compression efficiency.
[0128]
(Embodiment 4)
An arbitrary viewpoint image transmission apparatus according to the fourth embodiment that predicts a moving range of a viewpoint position desired by a user and selects a packet necessary for image generation at a viewpoint position within the range will be described below.
[0129]
As described above, there is a time lag between the
[0130]
In the present embodiment, assuming a packet transmission delay and viewpoint movement between them, a range in which the viewpoint moves is predicted in advance, and packets necessary for generating an image at a viewpoint position within the range are transmitted to the user terminal. Request from 107. The
[0131]
FIG. 17 is a flowchart illustrating a processing procedure of processing for estimating and requesting a range of viewpoints that move during a packet transmission period, and calculating and requesting a packet necessary for image generation within the range. In the figure, in
[0132]
Here, the estimation of the viewpoint movement range in
[0133]
First, the state of the virtual viewpoint at time t is represented by a vector composed of six parameters shown in Equation 1.
[Expression 1]
[0134]
Where [x, y, z] T Is the virtual viewpoint position in the 3D Cartesian coordinate system, [x, y, z] T The variable “x”, “y”, “z” with the symbol “·” represents the speed. At this time, the optimum estimated value of the state quantity and the first predicted value can be calculated by the Kalman filter described below.
[0135]
First, the system model can be described by
[Expression 2]
[0136]
Where w t Is a 6-dimensional disturbance vector applied to the system, the mean is 0, and the covariance is Q t , And are known. Further, F represents a state transition matrix, and is the following 6 × 6 matrix.
[0137]
[Equation 3]
[0138]
On the other hand, the observed value at time t is expressed by the following equation (4).
[Expression 4]
Here, H is a 6 × 6 unit matrix, and v t Is a 6-dimensional estimated error vector, with mean 0 and covariance R t Is known.
[0139]
w t , V t Are both discretized normal white noises with state quantity X t If both are independent, the algorithm of the Kalman filter based on the above model is as follows.
[0140]
That is,
[filtering]
[Equation 5]
[Formula 6]
[Expression 7]
[0141]
[Forecast]
[Equation 8]
[Equation 9]
[0142]
[default value]
[Expression 10]
[0143]
The optimal estimated value update processing of the state quantity is performed according to Equations 5 to 7. In addition, the predicted value for the first term is calculated by Equation 8 and
[0144]
The above is the viewpoint movement estimation method using the Kalman filter, but the present invention is not limited to the estimation method using this algorithm.
[0145]
As described above, according to the arbitrary viewpoint image transmission apparatus of the present embodiment, the movement range of the viewpoint position desired by the user is predicted, and packets necessary for image generation at the viewpoint position within the range are selected. It is possible to save the transmission band to the minimum necessary.
[0146]
【The invention's effect】
According to the present invention, since the partial image necessary for generating the image at the viewpoint position desired by the user is selected and transmitted from the image data divided into the partial images of a plurality of regions, real-time communication is performed. When providing an arbitrary viewpoint image, which is an image from a viewpoint position desired by the user, in a network application that requires strict processing time, such as live distribution or streaming broadcasting, while saving transmission bandwidth, Without sacrificing the responsiveness to the request to move the viewpoint, even if the number of users increases, image data manipulated from multiple viewpoint positions that are the basis for generating an arbitrary viewpoint image can be transmitted. Can do.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an outline of processing of an arbitrary viewpoint image transmission apparatus according to a first embodiment.
FIG. 2 is a diagram illustrating a schematic configuration of an arbitrary viewpoint image transmission apparatus according to the first embodiment.
FIG. 3 is a flowchart illustrating a processing procedure of image division and header addition processing according to the first exemplary embodiment.
FIG. 4 is a flowchart illustrating a processing procedure of packet selection processing according to the first embodiment.
FIG. 5 is a diagram illustrating one form of connection between the camera and the image division unit of the first embodiment.
FIG. 6 is a diagram illustrating an example of a hierarchical packet selection process according to the first embodiment.
7 is a diagram illustrating an example of processing for adding communication headers to a plurality of layers in the OSI reference model of Embodiment 1. FIG.
FIG. 8 is a diagram illustrating an example when the communication header addition processing according to the first embodiment is divided into an upper layer and a lower layer, and packet selection processing is arranged before and after the region header addition processing.
FIG. 9 is a diagram illustrating an example of a flow of processing from a packet selection unit, a network, and a user terminal according to the first embodiment.
FIG. 10 is a diagram illustrating an example of processing for calculating a required packet based on viewpoint position input from a user terminal according to the first embodiment and requesting the
FIG. 11 is a diagram illustrating a processing outline of an arbitrary viewpoint image transmission apparatus according to a second embodiment.
FIG. 12 is a diagram illustrating an example of a packet selection process performed near the
FIG. 13 is a diagram illustrating a schematic configuration of arbitrary viewpoint
FIG. 14 is a flowchart illustrating a processing procedure of packet selection processing according to the second embodiment.
FIG. 15 is a diagram illustrating an outline of image division / encoding processing according to the third embodiment;
FIG. 16 is a diagram illustrating an example of a relationship between an orthogonal transform block in image coding according to the third embodiment and a partial image in packet division;
FIG. 17 is a flowchart illustrating a processing procedure of processing for estimating a range of a viewpoint that moves during a packet transmission period and calculating and requesting a packet necessary for image generation in the range according to the fourth embodiment.
[Explanation of symbols]
DESCRIPTION OF
Claims (15)
カメラ識別番号がどの視点位置識別番号に該当するかを示す情報、すなわち、視点位置の画像を生成する際に、どのカメラで撮影した画像が必要であるかを示す情報を事前に設定する第Aの過程と、
利用者端末からのパケット要求の情報に含まれる視点位置識別番号をパケット要求管理テーブルに保持する第Bの過程と、
異なる視点位置で撮影されたそれぞれの画像データを複数の領域の部分画像に分割する第1の過程と、
撮影したカメラのカメラ識別番号と前記部分画像の領域識別番号を含む領域ヘッダ情報を前記分割された部分画像のデータに付加する第2の過程と、
前記領域ヘッダ情報の付加されたデータに対して通信用プロトコルのヘッダを付加してパケットとする第3の過程と、
前記パケットの領域ヘッダ情報中のカメラ識別番号、前記パケット要求管理テーブルに保持された視点位置識別番号、および前記事前に設定された情報に基づき、カメラ識別番号が視点位置識別番号に該当するかどうかを調べ、該当する場合にはそのパケットを部分画像に分割した順に前記利用者端末に伝送し、該当しない場合にはそのパケットを破棄する第4の過程とを有することを特徴とする任意視点画像伝送方法。In an arbitrary viewpoint image transmission method for transmitting image data taken from a plurality of viewpoint positions, which is a source for generating an arbitrary viewpoint image,
Information indicating which viewpoint position identification number corresponds to the camera identification number, that is, information indicating which camera is necessary to generate an image at the viewpoint position is set in advance. And the process
A B-step of holding the viewpoint position identification number included in the packet request information from the user terminal in the packet request management table;
A first process of dividing each image data photographed at different viewpoint positions into partial images of a plurality of regions;
A second step of adding region header information including the camera identification number of the photographed camera and the region identification number of the partial image to the data of the divided partial images;
A third step of adding a communication protocol header to the data to which the region header information is added to form a packet;
Based on the realm header information in the camera identification number, the packet request management table held viewpoint location numbers, and the preset information of the packet, camera identification number corresponding to the viewpoint location numbers or examine whether, if applicable transmits to the user terminal in the order obtained by dividing the packet to the partial image, if not applicable any, characterized in that it comprises a fourth step of discarding the packet Viewpoint image transmission method.
カメラ識別番号がどの視点位置識別番号に該当するかを示す情報、すなわち、視点位置の画像を生成する際に、どのカメラで撮影した画像が必要であるかを示す情報を保持する手段と、
利用者端末からのパケット要求の情報に含まれる視点位置識別番号を保持するパケット要求管理テーブルと、
異なる視点位置で撮影されたそれぞれの画像データを複数の領域の部分画像に分割する画像分割ユニットと、
撮影したカメラのカメラ識別番号と前記部分画像の領域識別番号を含む領域ヘッダ情報を前記分割された部分画像のデータに付加する領域ヘッダ付加ユニットと、
前記領域ヘッダ情報の付加されたデータに対して通信用プロトコルのヘッダを付加してパケットとする通信ヘッダ付加ユニットと、
前記パケットの領域ヘッダ情報中のカメラ識別番号、前記パケット要求管理テーブルに保持された視点位置識別番号、および前記事前に設定された情報に基づき、カメラ識別番号が視点位置識別番号に該当するかどうかを調べ、該当する場合にはそのパケットを部分画像に分割した順に前記利用者端末に伝送し、該当しない場合にはそのパケットを破棄するパケット選択ユニットとを備えることを特徴とする任意視点画像伝送装置。In an arbitrary viewpoint image transmission device that transmits image data taken from a plurality of viewpoint positions that are sources of arbitrary viewpoint images,
Information indicating which viewpoint position identification number corresponds to the camera identification number, that is, means for holding information indicating which camera image is necessary when generating an image of the viewpoint position;
A packet request management table that holds the viewpoint position identification number included in the packet request information from the user terminal;
An image dividing unit that divides each image data captured at different viewpoint positions into partial images of a plurality of regions;
An area header adding unit for adding area header information including the camera identification number of the photographed camera and the area identification number of the partial image to the data of the divided partial images;
A communication header addition unit that adds a communication protocol header to the data to which the region header information is added to form a packet;
The packets realm header information in the camera identification number, based on the packet request management table held viewpoint location numbers, and the preset information, the corresponding camera identification number to the viewpoint location numbers any or examined whether, if applicable transmits to the user terminal in the order obtained by dividing the packet to the partial image, if not applicable, characterized in that it comprises a packet selection unit to discard the packet to Viewpoint image transmission device.
カメラ識別番号がどの視点位置識別番号に該当するかを示す情報、すなわち、視点位置の画像を生成する際に、どのカメラで撮影した画像が必要であるかを示す情報を保持する手段と、
利用者端末からのパケット要求の情報に含まれる視点位置識別番号を保持するパケット要求管理テーブルと、
画像を分割した部分画像、および撮影したカメラのカメラ識別番号と前記部分画像の領域識別番号を含む領域ヘッダ情報からなるパケットを受信する手段と、
前記パケットの領域ヘッダ情報中のカメラ識別番号、前記パケット要求管理テーブルに保持された視点位置識別番号、および前記事前に設定された情報に基づき、カメラ識別番号が視点位置識別番号に該当するかどうかを調べ、該当する場合にはそのパケットを部分画像に分割した順に前記利用者端末に伝送し、該当しない場合にはそのパケットを破棄するパケット選択ユニットを備えることを特徴とする任意視点画像伝送装置。In an arbitrary viewpoint image transmission device that transmits image data taken from a plurality of viewpoint positions that are sources of arbitrary viewpoint images,
Information indicating which viewpoint position identification number corresponds to the camera identification number, that is, means for holding information indicating which camera image is necessary when generating an image of the viewpoint position;
A packet request management table that holds the viewpoint position identification number included in the packet request information from the user terminal;
Means for receiving a packet consisting of a partial image obtained by dividing the image, and a region header information including a camera identification number of the photographed camera and a region identification number of the partial image;
The packets realm header information in the camera identification number, based on the packet request management table held viewpoint location numbers, and the preset information, the corresponding camera identification number to the viewpoint location numbers or examine whether to, if applicable is transmitted to the user terminal in the order obtained by dividing the packet to the partial image, if not applicable arbitrary viewpoint, characterized in that it comprises a packet selection unit to discard the packet Image transmission device.
カメラ識別番号がどの視点位置識別番号に該当するかを示す情報、すなわち、視点位置の画像を生成する際に、どのカメラで撮影した画像が必要であるかを示す情報を保持する手段と、
利用者端末からのパケット要求の情報に含まれる視点位置識別番号を保持するパケット要求管理テーブルと、
異なる視点位置で撮影されたそれぞれの画像データを複数の領域の部分画像に分割する画像分割ユニットと、
撮影したカメラのカメラ識別番号と前記部分画像の領域識別番号を含む領域ヘッダ情報を前記分割された部分画像のデータに付加する領域ヘッダ付加ユニットと、
前記領域ヘッダ情報の付加されたデータに対して通信用プロトコルのヘッダを付加してパケットとする通信ヘッダ付加ユニットと、
前記パケットの領域ヘッダ情報中のカメラ識別番号、前記パケット要求管理テーブルに保持された視点位置識別番号、および前記事前に設定された情報に基づき、カメラ識別番号が視点位置識別番号に該当するかどうかを調べ、該当する場合にはそのパケットを部分画像に分割した順に前記利用者端末に伝送し、該当しない場合にはそのパケットを破棄するパケット選択ユニットとしてコンピュータを機能させることを特徴とするプログラム。In a program for causing a computer to function as an arbitrary viewpoint image transmission device that transmits image data taken from a plurality of viewpoint positions that are sources for generating arbitrary viewpoint images,
Information indicating which viewpoint position identification number corresponds to the camera identification number, that is, means for holding information indicating which camera image is necessary when generating an image of the viewpoint position;
A packet request management table that holds the viewpoint position identification number included in the packet request information from the user terminal;
An image dividing unit that divides each image data captured at different viewpoint positions into partial images of a plurality of regions;
An area header adding unit for adding area header information including the camera identification number of the photographed camera and the area identification number of the partial image to the data of the divided partial images;
A communication header addition unit that adds a communication protocol header to the data to which the region header information is added to form a packet;
Based on the realm header information in the camera identification number, the packet request management table held viewpoint location numbers, and the preset information of the packet, camera identification number corresponding to the viewpoint location numbers or examine whether, if applicable transmits to the user terminal in the order obtained by dividing the packet to the partial image, if not applicable, characterized in that causes a computer to function as a packet selection unit that discards the packet program.
カメラ識別番号がどの視点位置識別番号に該当するかを示す情報、すなわち、視点位置の画像を生成する際に、どのカメラで撮影した画像が必要であるかを示す情報を保持する 手段と、
利用者端末からのパケット要求の情報に含まれる視点位置識別番号を保持するパケット要求管理テーブルと、
画像を分割した部分画像、および撮影したカメラのカメラ識別番号と前記部分画像の領域識別番号を含む領域ヘッダ情報からなるパケットを受信する手段と、
前記パケットの領域ヘッダ情報中のカメラ識別番号、前記パケット要求管理テーブルに保持された視点位置識別番号、および前記事前に設定された情報に基づき、カメラ識別番号が視点位置識別番号に該当するかどうかを調べ、該当する場合にはそのパケットを部分画像に分割した順に前記利用者端末に伝送し、該当しない場合にはそのパケットを破棄するパケット選択ユニットとしてコンピュータを機能させることを特徴とするプログラム。In a program for causing a computer to function as an arbitrary viewpoint image transmission device that transmits image data taken from a plurality of viewpoint positions that are sources for generating arbitrary viewpoint images,
Information indicating which viewpoint position identification number corresponds to the camera identification number, that is, means for holding information indicating which camera image is necessary when generating an image of the viewpoint position ;
A packet request management table that holds the viewpoint position identification number included in the packet request information from the user terminal;
Means for receiving a packet consisting of a partial image obtained by dividing the image, and a region header information including a camera identification number of the photographed camera and a region identification number of the partial image;
Whether the camera identification number corresponds to the viewpoint position identification number based on the camera identification number in the area header information of the packet, the viewpoint position identification number held in the packet request management table, and the preset information investigated how, if applicable transmits to the user terminal in the order obtained by dividing the packet to the partial image, if not applicable program for causing a computer to function as a packet selection unit that discards the packet .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002359168A JP4094942B2 (en) | 2002-12-11 | 2002-12-11 | Arbitrary viewpoint image transmission method, apparatus for implementing the method, processing program therefor, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002359168A JP4094942B2 (en) | 2002-12-11 | 2002-12-11 | Arbitrary viewpoint image transmission method, apparatus for implementing the method, processing program therefor, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004193941A JP2004193941A (en) | 2004-07-08 |
JP4094942B2 true JP4094942B2 (en) | 2008-06-04 |
Family
ID=32758644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002359168A Expired - Lifetime JP4094942B2 (en) | 2002-12-11 | 2002-12-11 | Arbitrary viewpoint image transmission method, apparatus for implementing the method, processing program therefor, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4094942B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100713415B1 (en) | 2004-12-10 | 2007-05-04 | 삼성전자주식회사 | Mobile phone modifying image view |
JP5029062B2 (en) * | 2007-02-26 | 2012-09-19 | 富士通株式会社 | Multi-view video transmission system |
JP2010183305A (en) * | 2009-02-05 | 2010-08-19 | Sony Corp | System and method for signal processing |
JP5449241B2 (en) * | 2011-03-29 | 2014-03-19 | 日本電信電話株式会社 | Video decoding apparatus, video transmission / reception apparatus, video decoding method, and video transmission / reception method |
JP7065836B6 (en) * | 2016-09-29 | 2022-06-06 | コーニンクレッカ フィリップス エヌ ヴェ | Image processing |
JP6479062B2 (en) * | 2017-02-06 | 2019-03-06 | セコム株式会社 | Data distribution system and data distribution method |
JP7104504B2 (en) * | 2017-10-18 | 2022-07-21 | キヤノン株式会社 | Image processing system, image processing device, image transmission method, and program |
JP7399879B2 (en) * | 2018-05-02 | 2023-12-18 | クイッディエント・エルエルシー | Codec for processing scenes with almost unlimited detail |
WO2024201978A1 (en) * | 2023-03-31 | 2024-10-03 | 三菱電機株式会社 | Image processing device, image processing method, and image processing program |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05130528A (en) * | 1991-11-05 | 1993-05-25 | Oki Electric Ind Co Ltd | Visual point variable television system |
JPH06125364A (en) * | 1992-10-12 | 1994-05-06 | Hitachi Ltd | Connection device and method between lan and broad area network |
JPH07336676A (en) * | 1994-06-08 | 1995-12-22 | Oki Electric Ind Co Ltd | Image transmitter, image receiver, distributed image communication system and centralized image communication system |
JPH0962861A (en) * | 1995-08-21 | 1997-03-07 | Matsushita Electric Ind Co Ltd | Panoramic video device |
JPH09261522A (en) * | 1996-03-27 | 1997-10-03 | Nippon Telegr & Teleph Corp <Ntt> | Video image distribution method and system to obtain variable area |
JPH09307893A (en) * | 1996-05-17 | 1997-11-28 | Canon Inc | Image communication system, image communication equipment display device |
JPH1079878A (en) * | 1996-09-05 | 1998-03-24 | Sharp Corp | Still image-pickup device |
JP3642923B2 (en) * | 1996-11-14 | 2005-04-27 | 富士通株式会社 | Video generation processing apparatus and structured data creation apparatus for creating structured data used in the apparatus |
JPH10322680A (en) * | 1997-05-16 | 1998-12-04 | Nippon Telegr & Teleph Corp <Ntt> | Chained multiple viewpoint video reproducing method |
JPH11346214A (en) * | 1998-06-02 | 1999-12-14 | Nec Corp | Multi-address distribution system |
JP2000078614A (en) * | 1998-09-02 | 2000-03-14 | Sony Corp | Picture recording device |
JP2000078573A (en) * | 1998-09-03 | 2000-03-14 | Hitachi Ltd | Hierarchical encoded data distribution device |
JP3810943B2 (en) * | 1999-05-06 | 2006-08-16 | 株式会社東芝 | Image processing apparatus, image processing method, and recording medium recording image processing program |
JP3550046B2 (en) * | 1999-05-13 | 2004-08-04 | 日本電信電話株式会社 | Camera image transmission method and camera image transmission system |
CA2309459A1 (en) * | 1999-06-10 | 2000-12-10 | International Business Machines Corporation | System for personalized field of view in a broadcast environment |
JP3449541B2 (en) * | 1999-12-22 | 2003-09-22 | 日本電気株式会社 | Data packet transfer network and data packet transfer method |
JP2001309342A (en) * | 2000-04-25 | 2001-11-02 | Nec Corp | System and method for providing program |
JP3791304B2 (en) * | 2000-06-23 | 2006-06-28 | 株式会社日立製作所 | Gateway device and multicast communication system |
JP3269056B2 (en) * | 2000-07-04 | 2002-03-25 | 松下電器産業株式会社 | Monitoring system |
JP2002077255A (en) * | 2000-08-29 | 2002-03-15 | Fujitsu Ltd | Method for distributing image, and device for transmitting image and router device thereof |
JP2002083286A (en) * | 2000-09-06 | 2002-03-22 | Telecommunication Advancement Organization Of Japan | Method and device for generating avatar, and recording medium recorded with program therefor |
JP2002135641A (en) * | 2000-10-27 | 2002-05-10 | Nippon Telegr & Teleph Corp <Ntt> | Camera system of freely moving view point and visual line |
JP4747410B2 (en) * | 2000-11-10 | 2011-08-17 | ソニー株式会社 | Video switching display device and video switching display method |
JP3951695B2 (en) * | 2001-12-11 | 2007-08-01 | ソニー株式会社 | Image distribution system and method, image distribution apparatus and method, image reception apparatus and method, recording medium, and program |
-
2002
- 2002-12-11 JP JP2002359168A patent/JP4094942B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2004193941A (en) | 2004-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dai et al. | A view synthesis-based 360° VR caching system over MEC-enabled C-RAN | |
Park et al. | Rate-utility optimized streaming of volumetric media for augmented reality | |
Park et al. | Volumetric media streaming for augmented reality | |
van der Hooft et al. | From capturing to rendering: Volumetric media delivery with six degrees of freedom | |
Hamza et al. | Adaptive streaming of interactive free viewpoint videos to heterogeneous clients | |
Lazar et al. | Modeling video sources for real-time scheduling | |
JP4094942B2 (en) | Arbitrary viewpoint image transmission method, apparatus for implementing the method, processing program therefor, and recording medium | |
Taleb et al. | Extremely interactive and low-latency services in 5G and beyond mobile systems | |
Veillon et al. | F-FDN: Federation of fog computing systems for low latency video streaming | |
WO2001053962A1 (en) | System and method for delivering rich media content over a network | |
CN109040786A (en) | Transmission method, device, system and the storage medium of camera data | |
Darabkh et al. | Improving UDP performance using intermediate QoD‐aware hop system for wired/wireless multimedia communication systems | |
CN116134474A (en) | Method and apparatus for performing rendering using delay-compensated gesture prediction with respect to three-dimensional media data in a communication system supporting mixed reality/augmented reality | |
JP2019050451A (en) | Image processing apparatus and method for controlling the same, and program, and image processing system | |
CN105847778A (en) | 360-degree multi-viewpoint 3D holographic video acquisition method, acquisition device, and realization method | |
Ravuri et al. | Partially reliable transport layer for quicker interactive immersive media delivery | |
Ramanathan et al. | Rate-distortion analysis for light field coding and streaming | |
JP2008061223A (en) | Communication apparatus and communication control method | |
Pan et al. | 5g mobile edge assisted metaverse light field video system: Prototype design and empirical evaluation | |
Yoo et al. | Real-time parallel remote rendering for mobile devices using graphics processing units | |
JP2019140483A (en) | Image processing system, image processing system control method, transmission device, transmission method, and program | |
Ramanathan et al. | Receiver-driven rate-distortion optimized streaming of light fields | |
JPH11161800A (en) | Multiple viewpoint picture encoding/decoding device, multiple viewpoint picture encoding/decoding method and picture encoding/decoding device for three-dimensional object | |
Chang et al. | Receiver-based rate-distortion optimized interactive streaming for scalable bitstreams of light fields | |
Dong et al. | Big Packet Protocol: Advances the Internet with In-Network Services and Functions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070911 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070925 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071218 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080304 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080306 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110314 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110314 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120314 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130314 Year of fee payment: 5 |