JP4018273B2 - Video processing apparatus, control method therefor, and storage medium - Google Patents
Video processing apparatus, control method therefor, and storage medium Download PDFInfo
- Publication number
- JP4018273B2 JP4018273B2 JP35189298A JP35189298A JP4018273B2 JP 4018273 B2 JP4018273 B2 JP 4018273B2 JP 35189298 A JP35189298 A JP 35189298A JP 35189298 A JP35189298 A JP 35189298A JP 4018273 B2 JP4018273 B2 JP 4018273B2
- Authority
- JP
- Japan
- Prior art keywords
- video data
- video
- value
- data
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は映像処理装置及びその制御方法及び記憶媒体、詳しくは所定のネットワーク回線を介して遠隔端末に撮像映像を送信する映像処理装置及びその制御方法及び記憶媒体に関するものである。
【0002】
【従来の技術】
ビデオカメラなどで撮影された映像情報をインターネットに代表される、いわゆるネットワークを介して遠隔地の端末に送信し、撮影された映像をその遠隔地の端末においてライブ、つまり、動画表示可能な技術が実用化されている。
【0003】
この技術を用いて、並列に配置された2台のビデオカメラにより撮影された2系統の映像を遠隔地に送信し、遠隔地において立体感のあるステレオ映像をライブで表示する技術を考察する。
【0004】
一般に、この種の撮影システムを構築しようとする場合、安価に供給されている家庭用ビデオカメラに内蔵されているカメラモジュールなどを使用することが考えられるであろう。
【0005】
【発明が解決しようとする課題】
しかし、家庭用ビデオカメラに内蔵されているカメラモジュールなどはAE(自動露出)機能を解除できないことが多い。それ故、1台のビデオカメラにより得られる映像を発信する場合には全く問題とならなかった点が、2台のビデオカメラにより得られる一対のステレオ映像を発信しようとする場合に問題になることがある。その理由は、ビデオカメラのAE機能を解除できないことにより、それぞれ異なるAE値で撮影された映像を発信してしまうからである。
【0006】
仮に、同じAE値で撮影できる、若しくはAE機能を解除できるとしても、各カメラモジュールの個体差により完全に同じ輝度信号が得られるとも限らない。このようなビデオカメラにより得られる一対のステレオ映像をそのまま発信してしまった場合、遠隔地の端末上でステレオ映像を再現するとき、観察者の左右の目に異なる明るさの映像を提示してしまい、違和感を拭えず、都合が悪い。
【0007】
【課題を解決するための手段】
本発明はかかる点に鑑みなされたものであり、2系統の撮像手段で得られたステレオ画像の明るさを統一して、遠隔端末に送信することで、遠隔端末の操作者に違和感のないステレオ映像を提供することを可能ならしめる映像処理装置及びその制御方法及び記憶媒体を提供しようとするものである。
【0008】
2系統の撮像手段から得られたステレオ画像を構成する2つの映像情報を所定のネットワークを介して配信する映像処理装置であって、
前記撮像手段により得られた、ステレオ画像となる2つの映像それぞれを映像データとして入力し、メモリに格納する入力手段と、
入力した2つの映像データの相互相関値に基づき、一方の映像データに対する他方の映像データの映像データ全体での画素単位の位置ずれ量を検出する検出手段と、
ステレオ画像を構成する前記一方の映像データと前記他方の映像データとの明度差を小さくするべく、前記一方の映像データの座標系の座標位置にある画素の輝度信号値と前記他方の映像データの座標系から前記位置ずれ量だけずれた座標位置にある画素の輝度信号値との差分値を前記一方の映像データの各画素について求め、求めた複数の差分値から前記一方の映像データの全体における前記差分値の平均値を求めて輝度値補正量とし、前記輝度値補正量に基づき前記他方の映像データの全ての画素の明度を補正する補正手段と、
前記一方の映像データと、前記補正手段で補正された前記他方の映像データとを結合して、1つの映像データを生成し、前記ネットワークを介して送信する送信手段とを備える。
【0009】
【発明の実施の形態】
以下、添付図面に従って本発明に係る実施形態を詳細に説明する。
【0010】
本実施形態の基本概念を簡単に説明すると次の通りである。
【0011】
並列に配置された2台のビデオカメラにより得られる2つのビデオ信号(ステレオビデオ信号)をリアルタイムでキャップチャできる映像配信装置(カメラサーバ)において、キャップチャされた2つの映像を比較し、それぞれの映像の対応する箇所がそれぞれ同じような輝度値を持つように明るさの補正を行い、補正後の2つの映像を縮小および結合することによりひとつ映像として再合成し、ネットワークを介して遠隔地の端末(クライアント)にステレオ映像を発信するものである。
【0012】
以下、これを実現するための構成とその動作を説明する。
【0013】
図1は本実施形態の映像配信装置のブロック構成図である。
【0014】
ハードウェアとしては、撮影装置1−1及び1−4と、映像処理装置1−8から構成される。映像処理装置1−8は、ビデオカメラからの映像を取り込(キャプチャ)するハードウェアを有するものの、汎用の情報処理装置(例えばパーソナルコンピュータ等)とソフトウェアでもって実現できるものである。
【0015】
撮影装置1−1(撮像装置1−4も同様)は映像を入力する撮像部1−2(1−5)と撮影時の露出状態を自動的に決定する露出制御部1−3(1−6)からなる。ここで露出状態を決定するパラメータとしては、シャッタースピード、アイリス、ゲイン、ホワイトバランスなどが考えられるが、ここでは特に限定しない。また以下の説明では簡単のためにこれらをまとめて単に露出パラメータと言う。
【0016】
撮像部1−2(1−5)の映像出力信号はNTSC形式やYC分離方式などがあり、映像は映像処理装置1−8に具備されるI/O部1−13を介し、映像処理装置1−8内のRAM1−10に順次格納される。このときI/O1−13はいわゆるキャプチャボードなどと呼ばれる映像を実時間でキャプチャすることのできる適当なインタフェースを2系統備えているものとする。
【0017】
露出制御部1−3(1−6)は撮影している画面全体に対して明度バランスを自動的に調整する機能を持つ。露出制御部1−3(1−6)は制御信号線を通じて撮像部1−2(1−5)から得られる輝度信号を参照したり、その情報をもとに算出された最適な露出パラメータを使用して撮影するように撮像部1−2(1−5)に指示することが可能である。
【0018】
撮像部1−2(1−5)及び露出制御部1−3(1−6)を備える撮影装置1−1(1−4)は、家庭用のビデオカメラに内蔵されているカメラモジュールを用いることで容易に実現できる。
【0019】
映像処理装置1−8は、装置全体の制御を司るCPU1−9、CPU1−9のワークエリアとして使用したり、OS、カメラサーバとして機能するアプリケーション等をロードし、実行するためのRAM1−10をはじめ、以下の構成を備える。
【0020】
1−11は、ブートプログラムやBIOSが記憶されているROMであり、1ー12はOS,カメラサーバとして機能するプログラム等を記憶している二次記憶装置(ハードディスク装置等)である。1−13は撮影装置1−1(1−14)との通信を行うI/Oであり、1−14はネットワーク1−19を通じて遠隔地へのステレオ映像を発信する通信制御部である。1−18は、上記の各処理部を接続するバスである。映像処理装置1−8は先に説明したように汎用のコンピュータにより実現できる。また、バス1−18にはキーボード1−15、マウスなどのポインティングデバイス1−16、映像モニタ1−17が接続される。
【0021】
映像処理装置1−8は、撮影装置1−1及び1−4から得られる2系統の映像に対して後述するような処理を施しステレオ映像を生成し、ネットワーク1−19を通じて遠隔地の端末(クライアント)にステレオ映像を発信する処理を行う。
【0022】
図2を用いて本実施形態の基本原理を説明する。
【0023】
同図(a)は並列に配置された2台のビデオカメラが同時に、或る情景を撮影している様子を示したものである。2−1及び2−2はビデオカメラであり、図1の撮影装置1−1及び1−4に相当する。2−3は2台のビデオカメラにより撮影されている情景を表しており、2−4及び2−5はそれぞれビデオカメラ2−1及び2−2で撮影された情景に対する映像信号のある時点の映像を表している。
【0024】
2台のビデオカメラ2−1及び2−2はそれらの撮影位置が互いに異なるため、映像2−4及び2−5では情景2−3の見え方が若干異なっている。さらに、ビデオカメラ2−1及び2−2に具備される露出制御部1−3及び1−6の適正露出判定結果が異なったり、またはビデオカメラ2−1及び2−2そのものの個体差により、映像2−4及び2−5では画面全体の明るさも同一ではない。
【0025】
同図(a)で撮影されている2系統の映像信号を映像処理装置1−8に入力してステレオ映像を生成する原理を同図(b)に示す。
【0026】
図示の2−6は映像処理装置1−8に相当し、同装置内に入力された2系統の映像がどのように加工されて出力されるのかを模式的に示したものである。2−7及び2−8は2台のビデオカメラ2−1及び2−2が撮影し、I/O1−13によりキャップチャされRAM1−10に格納された2系統の映像である。これら2系統の映像間において、相互相関値が最大となる対応づけを求める等の公知の画像処理技術により映像間の対応関係を調べ、対応する場所を同じ明るさに補正して得られた映像が2−9及び2−10である。
【0027】
次にこれらの映像をやはり公知の画像処理技術により縦方向だけ半分の大きさに圧縮することにより得られる映像が2−11及び2−12である。最後に圧縮された2系統の映像2−11及び2−12を統合し、ひとつの映像としたものが2−13であり、この最終的に生成された映像2−13がネットワークを通じて遠隔地の端末に発信される。
【0028】
上記処理を実現するプログラムは、二次記憶1−12内にあって、これをRAM1−10にロードし、CPU1−9が実行するものとしているが、ROMに納めら専用装置として構成させても良いのは勿論である。
【0029】
さて、映像2−13を受け取った遠隔地端末(やはり、汎用情報処理装置で構成可能)では、以上で説明してきたような処理を逆にたどる。即ち、映像2−13を縦方向に分離し、得られた2系統の映像をそれぞれ縦方向に伸張する。このようにして得られた2系統の映像を一対のステレオ映像として提示する。提示の方法に関してはヘッドマウントディスプレイ、レンティキュラスクリーン、液晶シャッター、偏向眼鏡など様々な方法が考えられるがこれは本発明の本質的な部分ではないので特に限定しない。
【0030】
以上説明したように、2台のビデオカメラにより得られるステレオ映像をネットワーク上に発信する前に、それらの輝度信号を比較し補正する手段を設けることにより、2台のビデオカメラから得られる一対のステレオ信号の明るさを統一することができるため、伝送先の遠隔地に対してより違和感の少ないステレオ映像を提供することが可能となる。
【0031】
図3は本実施形態の映像処理装置の基本処理手順を示すフローチャートである。全体の流れとしては、2台のビデオカメラにより撮影された2系統の映像の明るさを統一し、両映像を結合することによりひとつの映像を再合成して発信するというものである。
【0032】
はじめに、2台のビデオカメラ1−1及び1−4を用いて撮影されている2系統の映像を映像処理装置1−8に入力する(ステップS301)。これは、映像処理装置1−8に具備されるI/O1−1を介して行われる。入力された2系統の映像は直ちにRAM1−10(または二次記憶1−12)に格納される(ステップS302)。次に、ステップS303ではRAM1−10(または二次記憶1−12)に格納されている2系統の映像にたいして相互相関値を利用することによりその対応関係を求めている。ここで2つの映像間の相互相関値を算出し、それが最大となる対応づけを求めることにより、2つの映像間の対応関係を抽出する。次に、ステップS304では求められた2系統の映像が対応関係を利用して、両映像が同じような明度を持つように明度の補正を行う。これは映像内で対応している部分の輝度情報を比較することによりその映像の明度補正量を算出し、その補正量を用いて片方(または両方)の映像の明度補正が行われる。
【0033】
次に明度の統一された2系統の映像をそれぞれ縦方向に半分の大きさまで縮小し(ステップS305)、縮小された2系統の映像を縦方向に結合してひとつの映像として再合成する(ステップS306)。これらの処理も公知の画像処理技術により実現可能である。こうして、生成されたステレオ映像がネットワーク1−19を介して遠隔地に発信される(ステップSS307)。
【0034】
なお、ステップS305及びS306の処理を行う目的は、そもそも2系統の映像が一対のステレオ映像であることから、これらを別々に発信してしまうと受信側で2系統の映像の同期をとる必要が生じたり、伝送中のネットワーク内で片方の映像がロスした場合などステレオ映像にとって都合の悪い状況が発生するのを軽減するためである。
【0035】
また、ステップS304の処理において、2系統の映像の対応関係をもとに両映像の明度を補正する方法はいくつか考えられるが、以下にその簡単な例を説明する。
【0036】
2つの映像の相互相関値が最大になる対応関係を求めた場合、一方の映像(以下映像Aと表す)が他方の映像(以下映像Bと表す)に対してどれだけ画素位置がずれているかという情報が映像全体としてただひとつだけ求まる。この位置ずれの量を(δx,δy)と表す。映像Aの画素をA(x,y)、映像Bの画素をB(x,y)と表すと、A(x,y)はB(x+δx,y+δy)と対応していることになる(もちろん映像の境界を越えた場合はその限りではない)ため、映像Aをラスタスキャンし、それぞれの画素についてA(x,y)とB(x+δx,y+δy)の輝度信号の差をe(x,y)として求め、映像全体においてe(x,y)の平均値を求めることにより、映像Bの全ての画素に対する輝度値補正量を算出することができる。
【0037】
以上が、映像間の相互相関値が最大となるような対応関係を利用した場合の映像の明度を補正する方法の例であるが、もちろんこれは極簡単な処理の例であり更に適当な方法によって補正精度の向上が期待できる。
【0038】
<第2の実施形態>
第2の実施形態を説明する。本第2の実施形態では上記の第1の実施形態に加えて、映像信号の処理をハードウェアで実行するために、DSP(Digital Signal Processor)を付加する。このように比較的計算コストの高い画像処理をハードウェアで実行することにより、映像信号の処理速度が上がりさらにリアルタイム性を向上させることができる。
【0039】
図4は本第2の実施形態のハードウェア構成を示すブロック図である。以下では図1と異なる部分に関してのみ説明する。図4では撮影装置1−1及び1−4と映像処理装置1−8との間にDSP1−7を設ける。DSP1−7は撮影装置1−1及び1−4とビデオ信号線で接続されており撮影装置1−1及び1−4が撮影する2系統の映像をキャプチャし、上記第1の実施形態で述べたような映像処理をハードウェアで高速に実行する機能を有する。
【0040】
本第2の実施形態の基本原理及び処理手順は、図2及び図3に示す第1の実施形態の場合に準ずる。ただしDSP1−7を用いて高速な映像処理が可能となるため、第1の実施形態に比べて更に計算コストの高い画像処理手法を実装することもできる。第1の実施形態では、映像間の対応づけを求める方法として相互相関値を利用したが、本第2の実施形態ではステレオ対応探索を使用して対応づけを求める方法を採用する。
【0041】
第1の実施形態では処理手順(S303)において、映像間の対応づけを求める方法として相互相関値を利用していた。この方法は計算コストが比較的小さく高速に実行可能であるが、映像全体に対してただひとつの対応関係しか抽出できないという欠点をもっている。即ち、2台の撮影装置4−1及び4−4はその撮影位置が異なるため、情景の見え方も微妙に変化しており、正確に映像全体が矛盾なく対応がとれていることはありえない。そこで本第2の実施形態では処理手順(S303)において、映像全体ではなく1画素単位(またはある大きさのブロック単位)で対応関係を求めることのできるステレオ対応探索を用いることにする。これはもともと本発明が並列に配置された2台の撮影装置から得られる一対のステレオ映像を遠隔地に発信することを目的としているため、撮影装置の配置方法だけに着目しても、精度の高いステレオ対応探索を実現するために有利ないくつかの条件を既に満たしていることからもその有効性が期待できる。ステレオ対応探索も相互相関と同様に公知の画像処理技術であるので具体的なアルゴリズムについては説明を省略する。
【0042】
以上のようにDSP及びステレオ対応探索の導入により、更に高速に精度の高い明度補正の実現が期待できる。
【0043】
<第3の実施形態>
第3の実施形態を説明する。2つのビデオカメラから得られる映像の明度を補正するため、第1の実施形態では相互相関値を用い、第2の実施形態ではステレオ対応探索を使用した。本実施形態では処理コストを削減するために映像間の対応関係を求めることなく、映像のヒストグラム変換のみを用いて明度の補正を行う。
【0044】
本第3の実施形態のハードウェア構成及び基本原理は、図1及び図2に示す第1の実施形態の場合に準ずる。また、図5に示す本第3の実施形態の処理手順は図3に示す第1の実施形態の場合のそれに類似するので、以下ではその異なる部分についてのみ説明する。
【0045】
本第3の実施形態の処理手順のステップS503,S504は第1の実施形態における処理手順中のステップSS303,S304に相当する部分であり、第1、第2の実施形態では映像間の対応関係を求め、その対応関係をもとに明度の補正を行っていたが、先にも述べた通り本第3の実施形態ではヒストグラムを求め(ステップSS503)、一方(もしくは両方)の映像のヒストグラム変換を行うことによって明度の補正を行う(ステップS504)。ヒストグラム変換もまた公知の画像処理技術であるので詳細な説明は省略する。
【0046】
以上のように映像間の対応関係を求めることなく、簡便な方法を用いて映像間の明度差を補正することにより計算コストの削減ができるため、DSPなどの高価な器材を導入しなくてもある程度の明度補正が実現できる。
【0047】
また、実施形態では補正対象の映像は、予め決められた一方の撮影装置(一方のビデオカメラ)によって得られた映像に対して行なうものとして説明したが、これを動的に決定してもよい。例えば、2つの映像A,Bがあって、映像Aの全体の輝度(合計値)が、映像Bより小さい場合には、映像Aのダイナミックレンジは狭いことを意味する。換言すれば、映像Bの方がダイナミックレンジが広いことになる。補正をかけるとき、広いレンジには狭いレンジの特性を包含しているので、この場合には映像Bを補正対象とするのである。
【0048】
また、第1、第3の実施形態、及び第2の実施形態でもその一部はソフトウェアでもって実現する。先に説明したように、実施形態で説明した映像処理装置は、汎用の情報処理装置でもって実現できるわけであるから、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
【0049】
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
【0050】
プログラムコードを供給するための記憶媒体としては、例えば、フロッピディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
【0051】
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0052】
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0053】
以上で説明したように本実施形態によれば、2台のビデオカメラにより得られるステレオ映像をネットワーク上に発信する前に、それらの輝度信号を比較し補正することによって一対のステレオ信号の明るさを統一することができるため、伝送先の遠隔地に対してより違和感の少ないステレオ映像を提供することが可能となる。
【0054】
【発明の効果】
以上で説明したように本発明によれば、2系統の撮像手段で夫々得られた画像の明るさを統一して、遠隔端末に送信することで、遠隔端末の操作者に違和感のないステレオ映像を提供することが可能になる。
【図面の簡単な説明】
【図1】実施形態の概略構成ブロック図である。
【図2】実施形態の基本原理説明図である。
【図3】実施形態における装置の動作処理手順を示すフローチャートである。
【図4】第2の実施形態における概略構成ブロック図である。
【図5】第3の実施形態における動作処理手順を示すフローチャートである。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a video processing apparatus, a control method thereof, and a storage medium, and more particularly to a video processing apparatus that transmits a captured video to a remote terminal via a predetermined network line, a control method thereof, and a storage medium.
[0002]
[Prior art]
There is a technology that enables video information captured by a video camera or the like to be transmitted to a remote terminal via a so-called network typified by the Internet, and that the captured video can be displayed live on the remote terminal, that is, a video can be displayed. It has been put into practical use.
[0003]
Considering this technology, a technique for transmitting two images taken by two video cameras arranged in parallel to a remote location and displaying a stereo image having a stereoscopic effect at a remote location will be considered.
[0004]
In general, in order to construct this type of photographing system, it may be considered to use a camera module built in a home video camera supplied at low cost.
[0005]
[Problems to be solved by the invention]
However, a camera module or the like built in a home video camera often cannot release the AE (automatic exposure) function. Therefore, there is no problem when transmitting a pair of stereo images obtained by two video cameras, which is not a problem at all when transmitting images obtained by one video camera. There is. The reason is that, since the AE function of the video camera cannot be canceled, images shot with different AE values are transmitted.
[0006]
Even if photographing can be performed with the same AE value or the AE function can be canceled, the same luminance signal is not always obtained due to individual differences among the camera modules. When a pair of stereo images obtained by such a video camera is transmitted as it is, when reproducing the stereo image on a remote terminal, present images with different brightness to the left and right eyes of the observer. It is inconvenient because it does not wipe off the feeling of incongruity.
[0007]
[Means for Solving the Problems]
The present invention has been made in view of the above points, and by unifying the brightness of stereo images obtained by two systems of imaging means and transmitting the same to a remote terminal, the remote terminal operator feels comfortable. It is an object of the present invention to provide an image processing apparatus, a control method thereof, and a storage medium that make it possible to provide an image.
[0008]
A video processing apparatus for distributing two video information constituting a stereo image obtained from two systems of imaging means via a predetermined network,
Input means for inputting each of the two videos to be stereo images obtained by the imaging means as video data and storing them in a memory;
Detecting means for detecting a positional deviation amount in units of pixels in the entire video data of the other video data with respect to one video data, based on a cross-correlation value between the two input video data;
In order to reduce the brightness difference between the one of the picture data constituting a stereo image and the other image data, of the other image data and the luminance signal value of the pixel at the coordinate position of the coordinate system of the video data of the one A difference value with a luminance signal value of a pixel at a coordinate position shifted from the coordinate system by the amount of the position shift is obtained for each pixel of the one video data, and the whole of the one video data is obtained from the obtained plurality of difference values. A correction means for obtaining an average value of the difference values as a luminance value correction amount, and correcting brightness of all pixels of the other video data based on the luminance value correction amount ;
Comprising the a hand of video data, by combining the video data corrected the other hand by the correction means, to generate a single video data, and transmitting means for transmitting via the network.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
[0010]
The basic concept of this embodiment will be briefly described as follows.
[0011]
In a video distribution device (camera server) capable of capturing in real time two video signals (stereo video signals) obtained by two video cameras arranged in parallel, the two captured images are compared, The brightness is corrected so that the corresponding parts of the image have the same brightness value, and the two corrected images are recombined as a single image by reducing and combining them. A stereo image is transmitted to a terminal (client).
[0012]
Hereinafter, a configuration for realizing this and its operation will be described.
[0013]
FIG. 1 is a block diagram of a video distribution apparatus according to this embodiment.
[0014]
The hardware includes imaging devices 1-1 and 1-4 and a video processing device 1-8. The video processing device 1-8 has hardware for capturing video from a video camera, but can be realized by a general-purpose information processing device (for example, a personal computer) and software.
[0015]
The image capturing device 1-1 (the same applies to the image capturing device 1-4) includes an image capturing unit 1-2 (1-5) that inputs an image and an exposure control unit 1-3 (1-) that automatically determines an exposure state during photographing. 6). Here, as the parameters for determining the exposure state, shutter speed, iris, gain, white balance, and the like can be considered, but are not particularly limited here. In the following description, these are simply referred to as exposure parameters for the sake of simplicity.
[0016]
The video output signal of the imaging unit 1-2 (1-5) has an NTSC format, a YC separation method, and the like, and the video is transmitted through the I / O unit 1-13 included in the video processing device 1-8. The data are sequentially stored in the RAM 1-10 in 1-8. At this time, the I / O 1-13 is assumed to have two systems of suitable interfaces that can capture a video called a capture board or the like in real time.
[0017]
The exposure control unit 1-3 (1-6) has a function of automatically adjusting the brightness balance with respect to the entire screen being shot. The exposure control unit 1-3 (1-6) refers to the luminance signal obtained from the imaging unit 1-2 (1-5) through the control signal line, or sets an optimal exposure parameter calculated based on the information. It is possible to instruct the imaging unit 1-2 (1-5) to use and shoot.
[0018]
An imaging device 1-1 (1-4) including an imaging unit 1-2 (1-5) and an exposure control unit 1-3 (1-6) uses a camera module built in a home video camera. This can be easily realized.
[0019]
The video processing device 1-8 uses a RAM 1-10 for loading and executing the CPU 1-9 that controls the entire device, a work area for the CPU 1-9, an OS, an application that functions as a camera server, and the like. First, the following configuration is provided.
[0020]
Reference numeral 1-11 denotes a ROM that stores a boot program and BIOS, and reference numeral 1-12 denotes a secondary storage device (hard disk device or the like) that stores an OS, a program that functions as a camera server, and the like. Reference numeral 1-13 denotes an I / O that performs communication with the photographing apparatus 1-1 (1-14), and reference numeral 1-14 denotes a communication control unit that transmits a stereo image to a remote place through the network 1-19. Reference numeral 1-18 denotes a bus for connecting the above processing units. The video processing device 1-8 can be realized by a general-purpose computer as described above. The bus 1-18 is connected to a keyboard 1-15, a pointing device 1-16 such as a mouse, and a video monitor 1-17.
[0021]
The video processing device 1-8 performs processing as described later on the two systems of video obtained from the imaging devices 1-1 and 1-4 to generate a stereo video, and through a network 1-19, a remote terminal ( A process for transmitting a stereo image to a client.
[0022]
The basic principle of this embodiment will be described with reference to FIG.
[0023]
FIG. 2A shows a situation where two video cameras arranged in parallel are shooting a scene at the same time. Reference numerals 2-1 and 2-2 denote video cameras, which correspond to the photographing apparatuses 1-1 and 1-4 in FIG. 2-3 represents a scene shot by two video cameras, and 2-4 and 2-5 represent video signals for scenes shot by the video cameras 2-1 and 2-2, respectively. Represents a video.
[0024]
Since the two video cameras 2-1 and 2-2 have different shooting positions, the appearance of the scene 2-3 is slightly different in the images 2-4 and 2-5. Furthermore, the appropriate exposure determination results of the exposure control units 1-3 and 1-6 included in the video cameras 2-1 and 2-2 are different, or due to individual differences between the video cameras 2-1 and 2-2 themselves, In the images 2-4 and 2-5, the brightness of the entire screen is not the same.
[0025]
FIG. 2B shows the principle of generating a stereo image by inputting the two video signals captured in FIG. 1A to the video processing device 1-8.
[0026]
2-6 shown corresponds to the video processing apparatus 1-8, and schematically shows how the two systems of video input into the apparatus are processed and output. Reference numerals 2-7 and 2-8 are two images captured by the two video cameras 2-1 and 2-2, captured by the I / O 1-13, and stored in the RAM 1-10. A video obtained by examining the correspondence between videos using a known image processing technique such as obtaining a correlation between which the cross-correlation value is maximum between the two systems of videos, and correcting the corresponding locations to the same brightness. Are 2-9 and 2-10.
[0027]
Next, 2-11 and 2-12 are obtained by compressing these videos to a half size only in the vertical direction by a known image processing technique. Finally, the two compressed images 2-11 and 2-12 are integrated into one image 2-13, and this finally generated image 2-13 is transmitted to the remote site via the network. Called to the terminal.
[0028]
The program that realizes the above processing is in the secondary storage 1-12, and is loaded into the RAM 1-10 and executed by the CPU 1-9. Of course it is good.
[0029]
Now, in the remote terminal (which can be configured by a general-purpose information processing apparatus) that has received the video 2-13, the processing as described above is reversed. That is, the video 2-13 is separated in the vertical direction, and the obtained two systems of video are respectively expanded in the vertical direction. The two systems of videos thus obtained are presented as a pair of stereo videos. Various methods such as a head-mounted display, a lenticular screen, a liquid crystal shutter, and deflecting glasses are conceivable as a method of presentation, but this is not an essential part of the present invention and is not particularly limited.
[0030]
As described above, by providing a means for comparing and correcting the luminance signals before transmitting the stereo video obtained by the two video cameras over the network, a pair of signals obtained from the two video cameras is provided. Since the brightness of the stereo signal can be unified, it is possible to provide a stereo image with less sense of incongruity to the remote location of the transmission destination.
[0031]
FIG. 3 is a flowchart showing the basic processing procedure of the video processing apparatus of this embodiment. The overall flow is to unify the brightness of the two video images taken by the two video cameras and recombine and transmit one video by combining the two videos.
[0032]
First, two systems of video captured using the two video cameras 1-1 and 1-4 are input to the video processing device 1-8 (step S301). This is performed via the I / O 1-1 provided in the video processing device 1-8. The two input videos are immediately stored in the RAM 1-10 (or the secondary storage 1-12) (step S302). Next, in step S303, the correlation is obtained by using the cross-correlation values for the two systems of videos stored in the RAM 1-10 (or the secondary storage 1-12). Here, the correlation between the two videos is extracted by calculating the cross-correlation value between the two videos and obtaining the maximum correlation. Next, in step S304, brightness correction is performed so that the two images obtained have the same brightness using the correspondence relationship. In this method, the brightness correction amount of the video is calculated by comparing the luminance information of the corresponding part in the video, and the brightness correction of one (or both) video is performed using the correction amount.
[0033]
Next, the two video images with the same brightness are reduced to half the size in the vertical direction (step S305), and the reduced two video images are combined in the vertical direction and recombined as one video image (step S305). S306). These processes can also be realized by a known image processing technique. Thus, the generated stereo image is transmitted to a remote place via the network 1-19 (step SS307).
[0034]
Note that the purpose of performing the processes in steps S305 and S306 is that the two systems of video are originally a pair of stereo videos, so if these are transmitted separately, it is necessary to synchronize the two systems of video on the receiving side. This is to reduce the occurrence of an unfavorable situation for stereo video, such as when it occurs or one video is lost in the network being transmitted.
[0035]
In the process of step S304, there are several methods for correcting the brightness of both videos based on the correspondence between the two systems of videos. A simple example will be described below.
[0036]
When the correspondence that maximizes the cross-correlation value of two images is obtained, how much the pixel position of one image (hereinafter referred to as image A) is deviated from the other image (hereinafter referred to as image B) Only one piece of information is required for the entire image. The amount of this displacement is represented as (δx, δy). If the pixel of the image A is represented as A (x, y) and the pixel of the image B is represented as B (x, y), A (x, y) corresponds to B (x + δx, y + δy) (of course. Therefore, the image A is raster-scanned, and the difference between the luminance signals of A (x, y) and B (x + δx, y + δy) for each pixel is e (x, y). ), And the average value of e (x, y) in the entire video is obtained, whereby the luminance value correction amount for all the pixels of the video B can be calculated.
[0037]
The above is an example of a method for correcting the brightness of a video when a correspondence relationship that maximizes the cross-correlation value between videos is used. Of course, this is an example of an extremely simple process and a more appropriate method. Therefore, improvement in correction accuracy can be expected.
[0038]
<Second Embodiment>
A second embodiment will be described. In the second embodiment, in addition to the first embodiment, a DSP (Digital Signal Processor) is added in order to execute the processing of the video signal by hardware. As described above, by executing image processing with relatively high calculation cost by hardware, the processing speed of the video signal is increased, and real-time performance can be improved.
[0039]
FIG. 4 is a block diagram showing a hardware configuration of the second embodiment. Only the parts different from FIG. 1 will be described below. In FIG. 4, a DSP 1-7 is provided between the photographing apparatuses 1-1 and 1-4 and the video processing apparatus 1-8. The DSP 1-7 is connected to the image capturing apparatuses 1-1 and 1-4 via video signal lines, captures two systems of images captured by the image capturing apparatuses 1-1 and 1-4, and is described in the first embodiment. It has a function to execute such video processing at high speed by hardware.
[0040]
The basic principle and processing procedure of the second embodiment are the same as those of the first embodiment shown in FIGS. However, since it is possible to perform high-speed video processing using the DSP 1-7, it is possible to implement an image processing method having a higher calculation cost than that of the first embodiment. In the first embodiment, the cross-correlation value is used as a method for obtaining the association between videos. However, in the second embodiment, a method for obtaining the association using a stereo correspondence search is adopted.
[0041]
In the first embodiment, in the processing procedure (S303), the cross-correlation value is used as a method for obtaining correspondence between videos. This method has a relatively low calculation cost and can be executed at high speed, but has the disadvantage that only one correspondence can be extracted for the entire video. That is, since the photographing positions of the two photographing apparatuses 4-1 and 4-4 are different, the appearance of the scene is also slightly changed, and it is impossible that the entire image can be accurately handled without any contradiction. Therefore, in the second embodiment, in the processing procedure (S303), a stereo correspondence search capable of obtaining a correspondence relationship in units of one pixel (or a block of a certain size) instead of the entire video is used. This is because the present invention is originally intended to transmit a pair of stereo images obtained from two imaging devices arranged in parallel to a remote place. The effectiveness can also be expected from the fact that several conditions that are advantageous for realizing a high stereo correspondence search are already satisfied. Since the stereo correspondence search is a known image processing technique as well as the cross-correlation, a description of a specific algorithm will be omitted.
[0042]
As described above, the introduction of DSP and stereo correspondence search can be expected to realize lightness correction with higher accuracy at higher speed.
[0043]
<Third Embodiment>
A third embodiment will be described. In order to correct the brightness of the images obtained from the two video cameras, the cross correlation value is used in the first embodiment, and the stereo correspondence search is used in the second embodiment. In the present embodiment, in order to reduce the processing cost, the brightness is corrected using only the histogram conversion of the video without obtaining the correspondence between the videos.
[0044]
The hardware configuration and basic principle of the third embodiment are the same as those of the first embodiment shown in FIGS. Further, since the processing procedure of the third embodiment shown in FIG. 5 is similar to that of the first embodiment shown in FIG. 3, only the different parts will be described below.
[0045]
Steps S503 and S504 of the processing procedure of the third embodiment are portions corresponding to steps SS303 and S304 in the processing procedure of the first embodiment. In the first and second embodiments, the correspondence between the images is shown. In the third embodiment, as described above, a histogram is obtained (step SS503), and one (or both) image histogram conversion is performed. Is performed to correct the brightness (step S504). Since the histogram conversion is also a known image processing technique, detailed description thereof is omitted.
[0046]
As described above, the calculation cost can be reduced by correcting the brightness difference between the images using a simple method without obtaining the correspondence between the images, so that it is not necessary to introduce expensive equipment such as a DSP. A certain amount of brightness correction can be realized.
[0047]
In the embodiment, the correction target video is described as being performed on a video obtained by one predetermined photographing device (one video camera). However, this may be determined dynamically. . For example, if there are two videos A and B and the overall luminance (total value) of the video A is smaller than the video B, it means that the dynamic range of the video A is narrow. In other words, video B has a wider dynamic range. When correction is performed, the wide range includes the characteristics of the narrow range. In this case, the video B is the correction target.
[0048]
A part of the first, third, and second embodiments is also realized by software. As described above, since the video processing apparatus described in the embodiment can be realized by a general-purpose information processing apparatus, the present invention records a program code of software that realizes the functions of the above-described embodiment. Needless to say, this can also be achieved by supplying the storage medium to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium.
[0049]
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
[0050]
As a storage medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
[0051]
Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
[0052]
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
[0053]
As described above, according to the present embodiment, the brightness of a pair of stereo signals is obtained by comparing and correcting the luminance signals before transmitting the stereo image obtained by the two video cameras to the network. Therefore, it is possible to provide a stereo image with less sense of incongruity to a remote place of the transmission destination.
[0054]
【The invention's effect】
As described above, according to the present invention, the brightness of the images obtained by the two systems of imaging means is unified and transmitted to the remote terminal, so that the remote terminal operator does not feel uncomfortable. It becomes possible to provide.
[Brief description of the drawings]
FIG. 1 is a block diagram of a schematic configuration of an embodiment.
FIG. 2 is an explanatory diagram of a basic principle of the embodiment.
FIG. 3 is a flowchart showing an operation processing procedure of the apparatus in the embodiment.
FIG. 4 is a schematic block diagram of a second embodiment.
FIG. 5 is a flowchart showing an operation processing procedure in the third embodiment.
Claims (4)
前記撮像手段により得られた、ステレオ画像となる2つの映像それぞれを映像データとして入力し、メモリに格納する入力手段と、
入力した2つの映像データの相互相関値に基づき、一方の映像データに対する他方の映像データの映像データ全体での画素単位の位置ずれ量を検出する検出手段と、
ステレオ画像を構成する前記一方の映像データと前記他方の映像データとの明度差を小さくするべく、前記一方の映像データの座標系の座標位置にある画素の輝度信号値と前記他方の映像データの座標系から前記位置ずれ量だけずれた座標位置にある画素の輝度信号値との差分値を前記一方の映像データの各画素について求め、求めた複数の差分値から前記一方の映像データの全体における前記差分値の平均値を求めて輝度値補正量とし、前記輝度値補正量に基づき前記他方の映像データの全ての画素の明度を補正する補正手段と、
前記一方の映像データと、前記補正手段で補正された前記他方の映像データとを結合して、1つの映像データを生成し、前記ネットワークを介して送信する送信手段と
を備えることを特徴とする映像処理装置。A video processing apparatus for distributing two video information constituting a stereo image obtained from two systems of imaging means via a predetermined network,
Input means for inputting each of the two videos to be stereo images obtained by the imaging means as video data and storing them in a memory;
Detecting means for detecting a positional deviation amount in units of pixels in the entire video data of the other video data with respect to one video data, based on a cross-correlation value between the two input video data;
In order to reduce the brightness difference between the one of the picture data constituting a stereo image and the other image data, of the other image data and the luminance signal value of the pixel at the coordinate position of the coordinate system of the video data of the one A difference value with a luminance signal value of a pixel at a coordinate position shifted from the coordinate system by the amount of the position shift is obtained for each pixel of the one video data, and the whole of the one video data is obtained from the obtained plurality of difference values. A correction means for obtaining an average value of the difference values as a luminance value correction amount, and correcting brightness of all pixels of the other video data based on the luminance value correction amount ;
Characterized in that it comprises the a hand of video data, by combining the video data corrected the other hand by the correction means, to generate a single video data, and transmitting means for transmitting via the network A video processing device.
前記撮像手段により得られた、ステレオ画像となる2つの映像それぞれを映像データとして入力し、メモリに格納する入力工程と、
入力した2つの映像データの相互相関値に基づき、一方の映像データに対する他方の映像データの映像データ全体での画素単位の位置ずれ量を検出する検出工程と、
ステレオ画像を構成する前記一方の映像データと前記他方の映像データとの明度差を小さくするべく、前記一方の映像データの座標系の座標位置にある画素の輝度信号値と前記他方の映像データの座標系から前記位置ずれ量だけずれた座標位置にある画素の輝度信号値との差分値を前記一方の映像データの各画素について求め、求めた複数の差分値から前記一方の映像データの全体における前記差分値の平均値を求めて輝度値補正量とし、前記輝度値補正量に基づき前記他方の映像データの全ての画素の明度を補正する補正工程と、
前記一方の映像データと、前記補正工程で補正された前記他方の映像データとを結合して、1つの映像データを生成し、前記ネットワークを介して送信する送信工程と
を備えることを特徴とする映像処理装置の制御方法。A control method for a video processing apparatus for distributing two video information constituting a stereo image obtained from two systems of imaging means via a predetermined network,
An input step of inputting each of the two videos to be a stereo image obtained by the imaging means as video data and storing it in a memory;
A detection step of detecting a positional deviation amount in units of pixels in the entire video data of the other video data with respect to one video data based on a cross-correlation value between the two input video data;
In order to reduce the brightness difference between the one of the picture data constituting a stereo image and the other image data, of the other image data and the luminance signal value of the pixel at the coordinate position of the coordinate system of the video data of the one A difference value with a luminance signal value of a pixel at a coordinate position shifted from the coordinate system by the amount of the position shift is obtained for each pixel of the one video data, and the whole of the one video data is obtained from the obtained plurality of difference values. A correction step of obtaining an average value of the difference values as a luminance value correction amount, and correcting brightness of all pixels of the other video data based on the luminance value correction amount ;
Comprising: the image data of the hand, it said to combine the video data corrected the other hand in correcting step, to generate a single video data, and a transmission step of transmitting over the network A method for controlling the video processing apparatus.
前記撮像手段により得られた、ステレオ画像となる2つの映像それぞれを映像データとして入力し、メモリに格納する入力手段と、
入力した2つの映像データの相互相関値に基づき、一方の映像データに対する他方の映像データの映像データ全体での画素単位の位置ずれ量を検出する検出手段と、
ステレオ画像を構成する前記一方の映像データと前記他方の映像データとの明度差を小さくするべく、前記一方の映像データの座標系の座標位置にある画素の輝度信号値と前記他方の映像データの座標系から前記位置ずれ量だけずれた座標位置にある画素の輝度信号値との差分値を前記一方の映像データの各画素について求め、求めた複数の差分値から前記一方の映像データの全体における前記差分値の平均値を求めて輝度値補正量とし、前記輝度値補正量に基づき前記他方の映像データの全ての画素を補正する補正手段と、
前記一方の映像データと、前記補正手段で補正された前記他方の映像データとを結合して、1つの映像データを生成し、前記ネットワークを介して送信する送信手段
として機能するプログラムコードを格納することを特徴とする記憶媒体。A storage medium storing a program code that functions as a video processing device that distributes, via a predetermined network, two pieces of video information constituting a stereo image obtained from two systems of imaging means when read and executed by a computer. And
Input means for inputting each of the two videos to be stereo images obtained by the imaging means as video data and storing them in a memory;
Detecting means for detecting a positional deviation amount in units of pixels in the entire video data of the other video data with respect to one video data, based on a cross-correlation value between the two input video data;
In order to reduce the brightness difference between the one of the picture data constituting a stereo image and the other image data, of the other image data and the luminance signal value of the pixel at the coordinate position of the coordinate system of the video data of the one A difference value with a luminance signal value of a pixel at a coordinate position shifted from the coordinate system by the amount of the position shift is obtained for each pixel of the one video data, and the whole of the one video data is obtained from the obtained plurality of difference values. A correction means for obtaining an average value of the difference values as a luminance value correction amount, and correcting all pixels of the other video data based on the luminance value correction amount ;
Wherein the hand of the video data, by combining the video data corrected the other hand by the correction means, to generate a single video data, the program code functions as a transmitter for transmitting via the network A storage medium characterized by storing.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35189298A JP4018273B2 (en) | 1998-12-10 | 1998-12-10 | Video processing apparatus, control method therefor, and storage medium |
US09/456,293 US6704042B2 (en) | 1998-12-10 | 1999-12-08 | Video processing apparatus, control method therefor, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35189298A JP4018273B2 (en) | 1998-12-10 | 1998-12-10 | Video processing apparatus, control method therefor, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000184396A JP2000184396A (en) | 2000-06-30 |
JP4018273B2 true JP4018273B2 (en) | 2007-12-05 |
Family
ID=18420335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP35189298A Expired - Fee Related JP4018273B2 (en) | 1998-12-10 | 1998-12-10 | Video processing apparatus, control method therefor, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4018273B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101821141B1 (en) * | 2012-02-09 | 2018-01-23 | 삼성전자주식회사 | 3d imaging system and imaging display method for the same |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002044684A (en) * | 2000-07-19 | 2002-02-08 | Junichi Takeno | Image converter device for achieving up/down-split flicker-free stereoscopic image by frame sequence suited for computer communication |
KR100925200B1 (en) | 2003-01-16 | 2009-11-06 | 엘지전자 주식회사 | Method for compensating a luminance signal level in digital video recorder for monitoring |
WO2007142649A1 (en) | 2006-06-09 | 2007-12-13 | Thomson Licensing | Method and system for color correction using three-dimensional information |
EP2089852A1 (en) * | 2006-11-21 | 2009-08-19 | Thomson Licensing | Methods and systems for color correction of 3d images |
JP5669599B2 (en) * | 2010-05-14 | 2015-02-12 | キヤノン株式会社 | Image processing apparatus and control method thereof |
JP5843751B2 (en) | 2012-12-27 | 2016-01-13 | 株式会社ソニー・コンピュータエンタテインメント | Information processing apparatus, information processing system, and information processing method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0258993A (en) * | 1988-08-25 | 1990-02-28 | Fujitsu Ltd | Stereoscopic television signal processor |
JP2823577B2 (en) * | 1989-02-06 | 1998-11-11 | 日本電信電話株式会社 | Image matching device |
JPH0750856A (en) * | 1993-08-06 | 1995-02-21 | Fujitsu Ltd | Level correction circuit for multi-lens type stereoscopic video |
JPH07154827A (en) * | 1993-11-29 | 1995-06-16 | Canon Inc | Plural images synthesizing device and image display device |
-
1998
- 1998-12-10 JP JP35189298A patent/JP4018273B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101821141B1 (en) * | 2012-02-09 | 2018-01-23 | 삼성전자주식회사 | 3d imaging system and imaging display method for the same |
Also Published As
Publication number | Publication date |
---|---|
JP2000184396A (en) | 2000-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6704042B2 (en) | Video processing apparatus, control method therefor, and storage medium | |
RU2718119C1 (en) | Information processing device, image generation method, control method and data medium | |
US20210021803A1 (en) | Method for generating virtual viewpoint image and image processing apparatus | |
US11582437B2 (en) | Camera system and camera control method | |
JP6894687B2 (en) | Image processing system, image processing device, control method, and program | |
US8687041B2 (en) | Stereoscopic panorama image creating apparatus, stereoscopic panorama image creating method, stereoscopic panorama image reproducing apparatus, stereoscopic panorama image reproducing method, and recording medium | |
JP7179515B2 (en) | Apparatus, control method and program | |
US20200336719A1 (en) | Information processing apparatus, image generation method, control method, and program | |
JP5313127B2 (en) | Video composition method, video composition system | |
KR20090088325A (en) | Image processing apparatus, image processing method and imaging apparatus | |
JP2019083402A (en) | Image processing apparatus, image processing system, image processing method, and program | |
WO2011145539A1 (en) | Multiple-site drawn-image sharing apparatus, multiple-site drawn-image sharing system, method executed by multiple-site drawn-image sharing apparatus, program, and recording medium | |
JP2019191989A (en) | System for, method of, and program for generating virtual viewpoint image | |
JP2019201325A (en) | Imaging apparatus, control method of the same, and program | |
JP2019103067A (en) | Information processing device, storage device, image processing device, image processing system, control method, and program | |
JP5515729B2 (en) | Camera adapter device and camera control method | |
JP4018273B2 (en) | Video processing apparatus, control method therefor, and storage medium | |
JP2000057350A (en) | Image processor, image processing method and image transmitting method | |
CN112312114B (en) | Information processing apparatus, information processing method, and storage medium | |
JP2003111041A (en) | Image processor, image processing system, image processing method, storage medium and program | |
US20240015264A1 (en) | System for broadcasting volumetric videoconferences in 3d animated virtual environment with audio information, and procedure for operating said device | |
US20230328355A1 (en) | Information processing apparatus, information processing method, and program | |
CN112887653B (en) | Information processing method and information processing device | |
CN113781560A (en) | Method and device for determining viewpoint width and storage medium | |
JP4166463B2 (en) | Video generation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040618 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20040618 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040618 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070319 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070907 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070920 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100928 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100928 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110928 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110928 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120928 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120928 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130928 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |