JP2011155477A - 映像処理装置、映像処理方法及びプログラム - Google Patents
映像処理装置、映像処理方法及びプログラム Download PDFInfo
- Publication number
- JP2011155477A JP2011155477A JP2010015526A JP2010015526A JP2011155477A JP 2011155477 A JP2011155477 A JP 2011155477A JP 2010015526 A JP2010015526 A JP 2010015526A JP 2010015526 A JP2010015526 A JP 2010015526A JP 2011155477 A JP2011155477 A JP 2011155477A
- Authority
- JP
- Japan
- Prior art keywords
- video
- video data
- subject
- motion
- subject area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Abstract
【課題】映像中の被写体の動き同一性に基づいて、複数の映像の撮影時の同期位置を検出する。
【解決手段】少なくとも2つの映像データから、前記映像データの撮影時を同期した編集映像を生成する映像処理装置において、前記映像データ毎に、被写体を含む領域である被写体領域を選択する被写体領域選択手段と、前記被写体領域選択手段により選択された前記被写体領域に関する動き情報を算出する動き情報算出手段と、前記動き情報算出手段により算出された前記動き情報に基づき、前記被写体の動きに関する時系列のパターンである動きパターンを作成する動きパターン作成手段と、前記動きパターン作成手段で作成された複数の動きパターンを用いて、前記映像データ間の撮影時の同期位置を検出する同期位置検出手段と、を有する。
【選択図】図2
【解決手段】少なくとも2つの映像データから、前記映像データの撮影時を同期した編集映像を生成する映像処理装置において、前記映像データ毎に、被写体を含む領域である被写体領域を選択する被写体領域選択手段と、前記被写体領域選択手段により選択された前記被写体領域に関する動き情報を算出する動き情報算出手段と、前記動き情報算出手段により算出された前記動き情報に基づき、前記被写体の動きに関する時系列のパターンである動きパターンを作成する動きパターン作成手段と、前記動きパターン作成手段で作成された複数の動きパターンを用いて、前記映像データ間の撮影時の同期位置を検出する同期位置検出手段と、を有する。
【選択図】図2
Description
本発明は、複数の映像の撮影時情報を一致させるための技術に関するものである。
ディジタルカメラ、ディジタルビデオカメラなどの普及により、ディジタル符号化された映像が手軽に入手できるようになった。これらの映像から、オリジナル映像を作成して楽しむことが広がりつつある。オリジナル映像を作成する際には、素材映像を編集する必要がある。
例えば、小学校の運動会では、数多くの親がビデオカメラで自分の子供の姿を撮影する。ビデオカメラ設置位置を変えて、複数のビデオカメラで同じ時刻に同じ走者を撮影した素材映像を使って、走者を多視点から見る映像を作成することがある。この映像を作製するには、複数の素材映像から同時刻に撮影した部分を再生、早送り、巻き戻しをして探し出す必要があり、非常に手間がかかる。
特許文献1に開示される技術では、複数の映像から音声情報を抽出し、音声レベルの時間的変化が類似する時間情報を検出し、この時間情報を利用して補正した音声時間情報を生成する。具体的には、重複した撮影時刻があり、かつ近接する場所で、各々独立に撮影した複数の映像データがある。これらの映像データの音情報を解析し、音声レベルの時間的変化が類似する部分を検出する。この音情報解析結果を利用し、映像データに付与されている撮影時刻差を補正する。
特許文献2に開示される技術では、映像データに付加されている撮影時情報を利用して、映像を編集する。具体的には、映像ファイルに付加されている撮影時情報を、映像編集の作業に利用する映像編集管理テーブルの時刻情報として取り込む。
しかしながら、従来技術においては以下のような課題がある。特許文献1に開示される技術では、映像中に特徴的な音が無い場合は、撮影時情報を同期できない。また、特許文献2に開示される技術では、映像データに撮影時情報が付与されていない場合は、撮影時情報を同期できない。さらに、映像データに撮影時情報を付与する撮像機器の時刻情報が正確でない場合、撮影時情報を精度よく同期できない。
そこで、本発明の目的は、映像中に特徴的な音が無い場合でも、撮影時情報を同期することにある。
本発明の映像処理装置は、複数の映像データから、前記映像データの撮影時を同期した編集映像を生成する映像処理装置において、前記映像データごとに、被写体を含む領域である被写体領域を選択する選択手段と、前記被写体領域に関する動き情報を算出する算出手段と、前記動き情報に基づき、前記被写体の動きに関する時系列のパターンである動きパターンを作成する作成手段と、前記動きパターンを用いて、映像データ間の撮影時の同期位置を検出する検出手段とを有することを特徴とする。
本発明によれば、映像中に特徴的な音が無い場合でも、撮影時情報を同期できる。また、映像データに撮影時情報が付与されていない場合、もしくは付与された撮影時情報が正確でない場合でも撮影時情報を同期できる。
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。
先ず、本発明の第1の実施形態について説明する。本実施形態では、複数の映像の撮影時情報を一致させ、編集映像を作成する処理を、映像処理装置で実施した場合について説明する。なお、本発明はこの実施形態に限定されるものではない。
図1は、本実施形態における映像処理装置のハードウェア構成の一例を示す図である。図1において、CPU(Central Processing Unit)1は、ROM(Read Only Memory)2及び/又はHDD(Hard Disk Drive)3に格納された制御プログラムを実行し、各デバイスを制御する。
ROM2は、各種の制御プログラムやデータを保持する。RAM4(Random Access Memory)は、CPU1のワーク領域、エラー処理時のデータの退避領域、制御プログラムのロード領域等を有する。
HDD3は、各種制御プログラムや各種データを保存する。入力・表示装置5は、ユーザからの入力を受け付け、情報を映像処理装置に入力すると共に、後述する処理結果を表示する。CPUバス6は、アドレスバス、データバス及びコントロールバスを含む。
制御プログラムは、ROM2又はHDD3に予め記憶されていてもよいし、通信路を介して他の情報装置等からROM2又はHDD3に記憶されてもよい。CPU1が、ROM2又はHDD3等に記憶されているプログラムに基づき、処理を実行することにより、後述する映像処理装置の機能、又は後述するフローチャートに係る処理が実現される。
図2は、本実施形態における映像処理装置の機能構成の一例を示す図である。映像データ記憶部201はHDD3に存在する。複数の映像データA202、映像データB203を記憶している。映像入力部204は、入力・表示装置5でユーザに指定された映像データA202、映像データB203を、被写体領域選択部205に取り込む。被写体領域選択部205は、映像データ毎に被写体が映っている被写体領域を選択する。選択された被写体領域は、映像フレーム画像内の位置座標として保持される。
図3に被写体領域が示されている。映像データA202の被写体領域は、被写体領域301(図3(a))、被写体領域302(図3(b))である。映像データB203の被写体領域は、被写体領域304(図3(d))、被写体領域305(図3(e))である。被写体領域を選択する具体的な方法は、ユーザが映像を目視し、被写体が映っている画面領域を指定して被写体領域を選択する。
または、映像フレーム画像の色、輝度に関する画素値を解析処理して顔検出や物体検出するアルゴリズムを用いて、被写体領域を選択してもよい。または、映像フレーム画像の色に関する画素値を解析処理して、所定の色の領域を、被写体領域として選択してもよい。または、映像フレーム画像の輝度に関する画素値を解析処理して、所定の輝度の領域を、被写体領域として選択してもよい。または、映像フレーム画像の色もしくは輝度の境界部をエッジとして検出し、このエッジ形状が所定の形状である領域を、被写体領域として選択してもよい。
動き情報算出部206は、被写体領域選択部205で選択された被写体領域に関する動き情報を算出する。具体的には、被写体領域の中心、重心の位置の時間的変化量である。また、被写体領域の輪郭、外形の時間的変化量である。また、被写体領域内の画素の移動に関する動きベクトルであり、一般的にオプティカルフローと呼ばれている。本実施例では、動きベクトルを動き情報とする。
図3に映像データA202と映像データB203の動き情報を示している。動き情報は動きベクトルである。映像データA202に関する動きベクトル303(図3(c))と、映像データB203に関する動きベクトル306(図3(f))を示す。動きベクトル303(図3(c))の算出方法を説明する。被写体領域301(図3(a))と、被写体領域302(図3(b))の関係は、撮影時間的に前後の関係である。被写体領域301(図3(a))が前で、被写体領域302(図3(b))が後である。よって、被写体領域301(図3(a))内の所定の画素の、被写体領域302(図3(b))における移動を算出する。この移動の軌跡を動きベクトルとする。例えば、所定の画素とは、画像のエッジに関する画素である。また、画像空間的に近傍の複数の画素を、1つのグループとしてもよい。同様に、動きベクトル306(図3(f))を、被写体領域304(図3(d))と被写体領域305(図3(e))から算出する。
さらに以下の処理を行う場合がある。映像を撮影した撮影装置の操作、移動、撮影者の手ブレが、被写体領域に関する動き情報に及ぼす影響を補正する。撮影装置の操作とは、ズームイン、ズームアウト等である。撮影装置の移動とは、パン、ティルト、ドリー等である。具体的な補正方法を説明する。まず、撮影情報作成を行う。被写体領域以外の画素値の変化から動きベクトルを生成し、この動きベクトルを撮影情報とする。そして、撮影情報に基づいて、動き情報を補正する。撮影情報である動きベクトルとは逆の方向に、被写体領域に関する動き情報を補正する。または、撮影時に撮影装置により映像データに付与される、撮影装置の操作、移動に関する情報を撮影情報とする。この撮影情報で、被写体領域に関する動き情報を補正する。例えば、撮影装置の操作がズームインの場合、被写体領域をズーム倍率の逆数で縮小処理する。
動きパターン作成部207は、動き情報算出部206で算出された動き情報から、被写体の動きに関する時系列パターンである動きパターンを作成する。図4に、動きパターンを示す。映像データA202の動きパターン403(図4(a))と、映像データB203の動きパターン406(図4(b))を示す。
具体的な、動きパターン403(図4(a))を作成する方法を説明する。動き情報算出部206で算出された、動きベクトル303(図4(a))を用いる。すべての動きベクトル303(図3(c))の大きさを加算した総和値である、動きベクトル和401(図4(a))を算出する。動きベクトル和401(図4(a))が、所定の閾値402(図4(a))以上の映像フレームを“1”とする。それ以外の映像フレームを“0”とする。この2値の時系列パターンを動きパターン403(図4(a))とする。同様に、動きパターン406(図4(b))を、動きベクトル和404(図4(b))と閾値405(図4(b))から作成する。
同期位置検出部208は、動きパターン作成部207で作成した、複数の動きパターンを、パターンマッチングする。パターンマッチングの結果、最もパターンが一致する点を、映像データ間の撮影時の同期位置と判定する。具体例として、パターンマッチングの方法として、テンプレートマッチングを行う場合を説明する。映像データA202で作成された動きパターン403(図4(a))と、映像データB203で作成された動きパターン406(図4(b))がある。動きパターン406(図4(b))をテンプレートとし、動きパターン403(図4(a))とテンプレートマッチングを行う。この時、動きパターン406(図4(b))の全体ではなく、任意の一部を指定してテンプレートを作成してもよい。時間シフト501(図5(a))、時間シフト502(図5(b))、時間シフト503(図5(c))しながら、パターンマッチングを行う。時間シフト503(図5(c))において、最もパターンが一致する点となる。時間シフト503(図5(c))させた地点を、映像データA202と映像データB203の撮影時の同期位置とする。
本実施形態では動き情報を2値に変換しパターンマッチングを行う。しかし、これに限られるものではなく、N値や増減パターンのマッチングなどの一般的なパターンマッチング手法であってもよい。
タイムライン作成部209は、映像データA202と映像データB203の共通のタイムラインを作成する。同期位置検出部208で判定された映像データA202と映像データB203の同期位置と、映像データA202と映像データB203の撮影時を用いて作成する。映像データA202、もしくは映像データB203の撮影時を基準時とし、同期位置である時間シフト503(図5(c))で補正して、共通のタイムラインを作成する。
図6に映像処理装置の画面を示す。図7に映像処理装置の処理のフローチャートを示す。S701において、映像処理装置は、ユーザによる映像A選択ボタン601の操作入力を検出する。映像データA202が映像入力部204に取り込まれる。S702において、映像処理装置は、ユーザによる映像B選択ボタン602の操作入力を検出する。映像データB203が映像入力部204に取り込まれる。S703において、映像処理装置は、ユーザによるオブジェクト選択ボタン603の操作入力を検出する。被写体領域選択部205において、映像データA202、映像データB203の映像フレームが所定の間隔で表示される。ユーザが映像フレームを目視し、被写体が映っている画面領域を指定して被写体領域を選択する。映像データA202では被写体領域301(図3(a))と被写体領域302(図3(b))が、映像データB203では被写体領域304(図3(d))と被写体領域305(図3(e))が選択される。
S704において、映像処理装置は、ユーザによるタイムライン同期ボタン604の操作入力を検出する。まず、動き情報算出部206にて、映像データA202に関する動きベクトル303(図3(c))と、映像データB203に関する動きベクトル306(図3(f))が算出される。映像処理装置は、動きベクトル303(図3(c))を、被写体領域301(図3(a))と被写体領域302(図3(b))から算出する。また、映像処理装置は、動きベクトル306(図3(f))を、被写体領域304(図3(d))と被写体領域305(図3(e))から算出する。
そして、映像処理装置は、動きパターン作成部207にて、映像データA202の動きパターン403(図4(a))と、映像データB203の動きパターン406(図4(b))を作成する。映像処理装置は、動きパターン403(図4(a))を、動きベクトル和404(図4(b))と閾値405(図4(b))で作成する。また、映像処理装置は、動きパターン406(図4(b))を、動きベクトル和404(図4(b))と閾値405(図4(b))で作成する。そして、同期位置検出部208にて、動きパターン403(図4(a))と動きパターン406(図4(b))をパターンマッチングする。
図5にパターンマッチングの概要を示す。パターンマッチングの結果、動きパターン403(図4(a))を基準とし、動きパターン406(図4(b))を時間シフト503(図5(c))させた地点でパターンが最も一致する。よって、映像データA202と映像データB203の撮影時の同期位置は、時間シフト503(図5(c))の地点となる。
そして、タイムライン作成部209は、映像データA202と映像データB203の共通のタイムラインを作成する。映像データA202の撮影時を基準時とし、時間シフト503(図5(c))で補正して、共通のタイムラインを作成する。作成されたタイムラインを、画面のタイムライン表示部606に表示する。
S705において、映像処理装置はユーザによる映像作成ボタン605の操作入力を検出する。編集映像が作成され、作成された映像が画面の映像表示部607に表示される。映像データA202と映像データB203がタイムライン作成部209で作成された共通のタイムライン上に配置される。編集映像の画面はマルチ画面となっている。大きい画面に映像データAが再生されている。小さい画面に映像データBが再生されている。
よって、本実施形態における映像処理装置を利用することで、同一シーンを複数のカメラで撮影した映像を用いて、撮影時が同期した編集映像を簡易に作成することができる。
次に、本発明の第2の実施形態について説明する。本実施形態では、複数の映像の撮影時情報を一致させる処理を、映像処理装置で実施した場合について説明する。第1の実施形態との違いは、同一被写体領域選択部を利用することである。なお、本発明はこの実施形態に限定されるものではない。本実施形態の映像処理装置のハードウェア構成及び操作のフローチャートは第1の実施形態と同じであるため、本実施形態では説明を省略する。
図8に本実施形態における映像処理装置の機能構成を示す。201〜209は第1の実施形態と同じであるため、説明を省略する。同一被写体領域選択部801は、被写体領域選択部205で選択された被写体領域において、同一の被写体領域を識別し、同一被写体領域を選択する。図9に、映像データA202と映像データB203の被写体領域が示されている。映像データA202の被写体領域は、被写体領域901(図9(a))、被写体領域902(図9(a))、被写体領域903(図9(b))、被写体領域904(図9(b))である。映像データB203の被写体領域は、被写体領域905(図9(c))、被写体領域906(図9(d))である。この6つの被写体領域に対して、色、輝度に関する画素値を解析処理して顔検出を行う。被写体領域毎に1つ、合計で6つの顔が検出される。この6つの顔に対して、顔識別処理を行う。顔識別処理は、色、輝度に関する画素値を解析処理して、検出された顔の色合いおよび形状が、似ているものを判別する。被写体領域901(図9(a))、被写体領域903(図9(b))、被写体領域905(図9(c))、被写体領域906(図9(d))で検出された顔が同一の顔と識別される。そして、識別結果に基づいて、被写体領域901(図9(a))、被写体領域903(図9(b))、被写体領域905(図9(c))、被写体領域906(図9(d))が同一被写体領域と選択される。その他の同一被写体領域を選択する方法を、以下に記載する。映像フレーム画像の色に関する画素値を解析処理して、同じ色の領域を、同一被写体領域として選択してもよい。または、映像フレーム画像の輝度に関する画素値を解析処理して、同じ輝度の領域を、同一被写体領域として選択してもよい。または、映像フレーム画像の色もしくは輝度の境界部をエッジとして検出し、このエッジ形状が似ている領域を、同一被写体領域として選択してもよい。または、色解析結果、輝度解析結果、エッジ解析結果を組み合わせて、同一被写体領域を選択してもよい。または、顔識別処理に限定せず、オブジェクト識別、物体識別、人物識別でもよい。
よって、同一被写体領域選択部があることで、同一の被写体でないが動きパターンが似ている場合に起こる、撮影時同期位置の誤検出を防止することができる。したがって、撮影時同期位置判定の精度を向上することができる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
1:CPU、2:ROM、3:HDD、4:RAM、5:入力・表示装置
Claims (9)
- 複数の映像データから、前記映像データの撮影時を同期した編集映像を生成する映像処理装置において、
前記映像データごとに、被写体を含む領域である被写体領域を選択する選択手段と、
前記被写体領域に関する動き情報を算出する算出手段と、
前記動き情報に基づき、前記被写体の動きに関する時系列のパターンである動きパターンを作成する作成手段と、
前記動きパターンを用いて、映像データ間の撮影時の同期位置を検出する検出手段とを有することを特徴とする映像処理装置。 - 前記選択手段は、前記映像データの映像フレーム画像の色に関する画素値に基づいて被写体領域を選択することを特徴とする請求項1に記載の映像処理装置。
- 前記選択手段は、前記映像データの映像フレーム画像の輝度に関する値に基づいて被写体領域を選択することを特徴とする請求項1に記載の映像処理装置。
- 前記選択手段は、前記映像データの映像フレーム画像の色もしくは輝度の境界に基づいて被写体領域を選択することを特徴とする請求項1に記載の映像処理装置。
- 前記算出手段は、前記被写体領域の座標の変化量を算出することを特徴とする請求項1に記載の映像処理装置。
- 前記算出手段は、前記被写体領域の画素に関する動きベクトルを算出することを特徴とする請求項1に記載の映像処理装置。
- 前記検出手段は、前記作成手段で作成された複数の動きパターンを用いて、パターンマッチングを行い、前記パターンマッチングの結果に基づいて、前記映像データ間の撮影時の同期位置を検出することを特徴とする請求項1に記載の映像処理装置。
- 複数の映像データから、前記映像データの撮影時を同期した編集映像を生成する映像処理方法において、
前記映像データごとに、被写体を含む領域である被写体領域を選択する選択工程と、
前記被写体領域に関する動き情報を算出する算出工程と、
前記動き情報に基づき、前記被写体の動きに関する時系列のパターンである動きパターンを作成する作成工程と、
前記動きパターンを用いて映像データ間の撮影時の同期位置を検出する検出工程とを有することを特徴とする映像処理方法。 - 複数の映像データから、前記映像データの撮影時を同期した編集映像を生成する映像処理方法をコンピュータに実行させるためのプログラムにおいて、
前記映像データごとに、被写体を含む領域である被写体領域を選択する選択ステップと、
前記被写体領域に関する動き情報を算出する算出ステップと、
前記動き情報に基づき、前記被写体の動きに関する時系列のパターンである動きパターンを作成する作成ステップと、
前記動きパターンを用いて映像データ間の撮影時の同期位置を検出する検出ステップとをコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010015526A JP2011155477A (ja) | 2010-01-27 | 2010-01-27 | 映像処理装置、映像処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010015526A JP2011155477A (ja) | 2010-01-27 | 2010-01-27 | 映像処理装置、映像処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011155477A true JP2011155477A (ja) | 2011-08-11 |
Family
ID=44541117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010015526A Pending JP2011155477A (ja) | 2010-01-27 | 2010-01-27 | 映像処理装置、映像処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011155477A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013126233A (ja) * | 2011-12-16 | 2013-06-24 | Toshiba Corp | 映像処理装置、方法及びプログラム |
WO2014049989A1 (ja) * | 2012-09-28 | 2014-04-03 | パナソニック株式会社 | 映像出力装置 |
WO2017134770A1 (ja) * | 2016-02-03 | 2017-08-10 | 三菱電機株式会社 | 映像同期装置 |
WO2018003147A1 (ja) * | 2016-06-28 | 2018-01-04 | Necソリューションイノベータ株式会社 | 再生システム、再生方法、プログラム、および記録媒体 |
KR101887400B1 (ko) * | 2017-12-27 | 2018-08-10 | 이명섭 | 동기화를 이용한 방송촬영원본 영상 편집 서비스 제공 방법 |
WO2022195969A1 (ja) * | 2021-03-17 | 2022-09-22 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
-
2010
- 2010-01-27 JP JP2010015526A patent/JP2011155477A/ja active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013126233A (ja) * | 2011-12-16 | 2013-06-24 | Toshiba Corp | 映像処理装置、方法及びプログラム |
WO2014049989A1 (ja) * | 2012-09-28 | 2014-04-03 | パナソニック株式会社 | 映像出力装置 |
WO2017134770A1 (ja) * | 2016-02-03 | 2017-08-10 | 三菱電機株式会社 | 映像同期装置 |
JPWO2017134770A1 (ja) * | 2016-02-03 | 2018-02-08 | 三菱電機株式会社 | 映像同期装置 |
WO2018003147A1 (ja) * | 2016-06-28 | 2018-01-04 | Necソリューションイノベータ株式会社 | 再生システム、再生方法、プログラム、および記録媒体 |
JPWO2018003147A1 (ja) * | 2016-06-28 | 2019-04-11 | Necソリューションイノベータ株式会社 | 再生システム、再生方法、プログラム、および記録媒体 |
KR101887400B1 (ko) * | 2017-12-27 | 2018-08-10 | 이명섭 | 동기화를 이용한 방송촬영원본 영상 편집 서비스 제공 방법 |
WO2022195969A1 (ja) * | 2021-03-17 | 2022-09-22 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3457683B1 (en) | Dynamic generation of image of a scene based on removal of undesired object present in the scene | |
CN106375674B (zh) | 寻找和使用与相邻静态图像相关的视频部分的方法和装置 | |
US10762653B2 (en) | Generation apparatus of virtual viewpoint image, generation method, and storage medium | |
JP2008136174A (ja) | 撮像装置及び撮影制御方法 | |
JP4210954B2 (ja) | 画像処理方法、画像処理方法のプログラム、画像処理方法のプログラムを記録した記録媒体及び画像処理装置 | |
JP2011155477A (ja) | 映像処理装置、映像処理方法及びプログラム | |
Halperin et al. | Egosampling: Wide view hyperlapse from egocentric videos | |
KR20140126936A (ko) | 실시간 영상에 프라이버시 마스킹 툴을 제공하는 장치 및 방법 | |
JP2016063248A (ja) | 画像処理装置および画像処理方法 | |
JP2010258768A (ja) | 画像表示装置及びその制御方法、並びにプログラム及び記憶媒体 | |
JP7198043B2 (ja) | 画像処理装置、画像処理方法 | |
KR101645427B1 (ko) | 유저 인터페이스를 통한 카메라 장치의 동작 방법 | |
US20130106850A1 (en) | Representative image decision apparatus, image compression apparatus, and methods and programs for controlling operation of same | |
US9741393B2 (en) | Method and method for shortening video with event preservation | |
JP2011172103A (ja) | 画像生成装置 | |
JP5743729B2 (ja) | 画像合成装置 | |
JP5189568B2 (ja) | 画像合成装置,画像合成方法および画像合成プログラム | |
JP2012123721A (ja) | 画像処理装置及び画像処理方法 | |
JP4924131B2 (ja) | 画像処理装置と画像処理方法および画像処理プログラム、並びに再生情報生成装置と再生情報生成方法及び再生情報生成プログラム | |
Schörkhuber et al. | Intelligent film assistant for personalized video creation on mobile devices | |
JP2005252803A (ja) | 画像処理装置、画像処理方法、画像処理プログラムおよびそのプログラムを記録した記録媒体 | |
JP2018038090A (ja) | 画像生成装置、画像生成方法、画像生成プログラム及び画像生成システム | |
JP7151216B2 (ja) | 画像処理装置及び、画像処理方法 | |
JP5932963B2 (ja) | 画像生成装置、画像生成方法、画像生成プログラム及び画像生成システム | |
JP5677598B2 (ja) | 画像生成装置、画像生成方法、画像生成プログラム及び画像生成システム |