JP2008135923A - Production method of videos interacting in real time, video production device, and video production system - Google Patents
Production method of videos interacting in real time, video production device, and video production system Download PDFInfo
- Publication number
- JP2008135923A JP2008135923A JP2006319879A JP2006319879A JP2008135923A JP 2008135923 A JP2008135923 A JP 2008135923A JP 2006319879 A JP2006319879 A JP 2006319879A JP 2006319879 A JP2006319879 A JP 2006319879A JP 2008135923 A JP2008135923 A JP 2008135923A
- Authority
- JP
- Japan
- Prior art keywords
- video
- real
- image
- media content
- real time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Studio Devices (AREA)
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
Abstract
Description
本発明は動的映像の制作方法、制作装置、および、制作システムに関し、特に、リアルタイムに相互作用する映像の制作方法、制作装置、および、制作システムに関する。 The present invention relates to a dynamic video production method, production apparatus, and production system, and more particularly, to a video production method, production apparatus, and production system that interact in real time.
デジタルカメラ、インターネットカメラおよびカメラ付き携帯電話などの撮影装置が廉価になって広く普及したことにより、家庭用コンピュータと電子製品との融合は止めることのできない趨勢となっている。しかし、現在の映像マルチメディアの応用はその多くが静止画像を主としており、通常、写真の撮影保存およびファイル管理に重点が置かれ、基本的な画像処理および簡単な画像合成機能が設けられている。動的映像の設備においては、単純な録画、ファイル転換および再生に関する応用が主流となっており、時にはネットワークと組み合わせてリアルタイムな映像の伝送を行うが、マルチメディアコンテンツに創作的な付加価値を与えたり、改造を行ったりすることに対しては不足している部分が多い。また、ゲームソフトによっては使用者の四肢動作のインタラクティブゲームへの整合も試みられているが、運動パターンの理解層のためにゲームシナリオの設計に重大な制限がもたらされることによって、ゲーム内容の変化性も制限される。 As imaging devices such as digital cameras, internet cameras, and camera-equipped mobile phones have become inexpensive and widely spread, the fusion of home computers and electronic products has become an undeniable trend. However, many of the current video multimedia applications are mainly still images, and usually focus on photography storage and file management, and basic image processing and simple image composition functions are provided. . In dynamic video equipment, applications related to simple recording, file conversion and playback are the mainstream, sometimes transmitting real-time video in combination with a network, but giving creative value to multimedia content There are many parts that are lacking for doing or remodeling. In addition, some game software attempts to match the user's limb movements to interactive games. Sex is also limited.
また、テレビコンテンツにおいてよく見られる特殊効果は、制作時に必要なハードおよびソフトのコストが高いだけでなく、専門知識が必要であるので、閾の高い専門領域である。また、役者はその場に存在しない相手を想像して演技する必要があり、負担が大きく、制作上非常に不便である。 In addition, special effects often seen in television content are not only high hardware and software costs required for production, but also require specialized knowledge, which is a highly specialized area. In addition, the actor needs to perform by imagining a partner that does not exist on the spot, which is heavy and inconvenient in production.
上述の一般のデジタルコンテンツの制作における複雑性に鑑み、本発明の発明者はリアルタイムに相互作用する映像の制作方法、映像の制作装置、および、映像の制作システムを案出し、簡単で自然なマンマシンインターフェイスを提供することができ、制作者は廉価なコストで、内容が豊富なデジタルコンテンツを創作できる。
本発明の目的は、廉価で簡単なリアルタイムに相互作用する映像の制作方法、映像の制作装置、および、映像の制作システムを提供することにある。 An object of the present invention is to provide an inexpensive and simple real-time video production method, video production apparatus, and video production system.
上記課題を解決するために、本発明は簡単で自然なマンマシンインターフェイスを提供するものであり、制作者は廉価なコストで、内容が豊富なデジタルコンテンツを創作できる。 In order to solve the above problems, the present invention provides a simple and natural man-machine interface, and a creator can create rich digital contents at a low cost.
本発明はリアルタイムに相互作用する映像の制作方法、映像の制作装置、および、映像の制作システムを提供するものであり、画面を備える表示装置、現場人員、少なくとも一つのプロセッサ、メモリおよびプログラムを備える計算機器および撮影装置を備える。プログラムはメディアコンテンツおよび特殊効果コマンドスクリプトを提供する。撮影装置は現場人員映像を撮影し、特殊効果コマンドスクリプトと整合する。最後に、メディアコンテンツおよび整合された現場人員映像と、特殊効果コマンドスクリプトとを合成し、リアルタイムに画面上に表示する。 The present invention provides a video production method, a video production apparatus, and a video production system that interact in real time, and includes a display device including a screen, a field worker, at least one processor, a memory, and a program. Computation equipment and photographing device. The program provides media content and special effects command scripts. The imaging device captures field personnel video and matches the special effect command script. Finally, the media content and the matched field personnel video are combined with the special effect command script and displayed on the screen in real time.
すなわち、請求項1の発明は、画面を準備するステップと、リアルタイムに映像を撮影して前記画面に表示するステップと、仮想の物体の画像を生成し前記画面に表示するステップと、前記物体の画像と前記映像とを相互作用させるステップとを含むことを特徴とするリアルタイムに相互作用する映像の制作方法である。 That is, the invention of claim 1 provides a step of preparing a screen, a step of capturing a video in real time and displaying it on the screen, a step of generating an image of a virtual object and displaying it on the screen, A method for producing an image that interacts in real time, comprising the step of interacting an image with the image.
請求項2の発明は、前記映像を撮影する方法は、インターネットカメラを使用してインターネットカメラ前の映像を撮影する方法であることを特徴とする請求項1記載のリアルタイムに相互作用する映像の制作方法である。
請求項3の発明は、前記物体の画像を生成するステップは、さらに、予め選択されたモードで対応する物体の画像を生成するステップを含むことを特徴とする請求項1記載のリアルタイムに相互作用する映像の制作方法である。
請求項4の発明は、前記相互作用させるステップは、前記映像位置を認識するステップを含むことを特徴とする請求項1記載のリアルタイムに相互作用する映像の制作方法である。
請求項5の発明は、前記相互作用させるステップは、前記映像の変動を追跡するステップを含むことを特徴とする請求項1記載のリアルタイムに相互作用する映像の制作方法である。
請求項6の発明は、前記相互作用させるステップは、特殊効果スクリプトを前記映像上に生成するステップを含むことを特徴とする請求項1記載のリアルタイムに相互作用する映像の制作方法である。
請求項7の発明は、前記特殊効果スクリプトは、スクリプト言語によって記述された特殊効果コマンド集から選択されることを特徴とする請求項6記載のリアルタイムに相互作用する映像の制作方法である。
請求項8の発明は、前記物体は、メディアコンテンツから選択されることを特徴とする請求項1記載のリアルタイムに相互作用する映像の制作方法である。
請求項9の発明は、前記画面を準備するステップは、映像提供者が撮影装置前に存在し、前記撮影装置と前記画面とが電気的に接続されるステップを含むことを特徴とする請求項1記載のリアルタイムに相互作用する映像の制作方法である。
請求項10の発明は、前記物体の画像を生成するステップは、前記映像が前記映像の特徴追跡に従うステップを含むことを特徴とする請求項1記載のリアルタイムに相互作用する映像の制作方法である。
請求項11の発明は、前記物体の画像を生成するステップは、前記映像が姿勢分析および認識に従うステップを含むことを特徴とする請求項1記載のリアルタイムに相互作用する映像の制作方法である。
According to a second aspect of the present invention, the method of photographing the video is a method of photographing a video in front of the internet camera using an internet camera. Is the method.
The invention according to claim 3 is characterized in that the step of generating the image of the object further includes the step of generating an image of the corresponding object in a preselected mode. It is a production method of the image to be performed.
The invention of claim 4 is the real-time interactive video production method according to claim 1, wherein the interacting step includes a step of recognizing the video position.
The invention of claim 5 is the real-time interactive image production method according to claim 1, wherein the interacting step includes a step of tracking the variation of the image.
According to a sixth aspect of the present invention, in the method for producing a video that interacts in real time according to the first aspect, the step of interacting includes a step of generating a special effect script on the video.
The invention of claim 7 is the real-time interactive video production method according to claim 6, wherein the special effect script is selected from a special effect command collection described in a script language.
The invention of claim 8 is the real-time interactive video production method according to claim 1, wherein the object is selected from media content.
The invention of claim 9 is characterized in that the step of preparing the screen includes a step in which a video provider exists in front of the photographing apparatus, and the photographing apparatus and the screen are electrically connected. 1 is a method of producing a video that interacts in real time according to 1.
The invention of claim 10 is the real-time interactive video production method according to claim 1, wherein the step of generating an image of the object includes the step of the video following feature tracking of the video. .
The invention according to claim 11 is the method for producing a video that interacts in real time according to claim 1, wherein the step of generating the image of the object includes a step in which the video follows posture analysis and recognition.
請求項12の発明は、メディア処理装置によって判読される複数のプログラムを保存し、前記メディア処理装置は前記複数のプログラムに基づいて、背景データおよびリアルタイム映像を含むデータを入力するステップと、前記データを認識するステップと、前記データの変更部分を追跡するステップと、メディアコンテンツを準備するステップと、前記メディアコンテンツと前記データとを合成するステップと、前記メディアコンテンツと前記データとを合成したものを表示するステップとを実行することを特徴とするリアルタイムに相互作用する映像の制作装置である。 The invention of claim 12 stores a plurality of programs read by a media processing device, the media processing device inputs data including background data and real-time video based on the plurality of programs, and the data Recognizing, a step of tracking a changed portion of the data, a step of preparing media content, a step of combining the media content and the data, and a combination of the media content and the data A video production device that interacts in real time, characterized by executing a display step.
請求項13の発明は、前記メディア処理装置によって判読される複数のプログラムを保存し、メディアコンテンツを準備するステップは、さらに、前記メディアコンテンツの読み込みを行うステップと、前記メディアコンテンツを復号化するステップとを含むことを特徴とする請求項12記載のリアルタイムに相互作用する映像の制作装置である。
請求項14の発明は、前記メディア処理装置によって判読される複数のプログラムを保存し、前記メディアコンテンツと前記データとを合成するステップは、さらに、前記データの変更部分を再追跡するステップを含むことを特徴とする請求項12記載のリアルタイムに相互作用する映像の制作装置である。
請求項15の発明は、前記メディア処理装置によって判読される複数のプログラムを保存し、さらに、特殊効果の読み込みを行うステップと、前記メディアコンテンツ、前記データおよび特殊効果の合成したものを再処理するステップと、前記メディアコンテンツ、前記データおよび特殊効果の合成したものを表示するステップとを含むことを特徴とする請求項12記載のリアルタイムに相互作用する映像の制作装置である。
請求項16の発明は、前記メディア処理装置によって判読される複数のプログラムを保存し、前記特殊効果の読み込みを行うステップは、さらに、特殊効果を前記背景データに嵌入するステップを含むことを特徴とする請求項15記載のリアルタイムに相互作用する映像の制作装置である。
According to a thirteenth aspect of the present invention, the steps of storing a plurality of programs to be read by the media processing apparatus and preparing the media content further include a step of reading the media content and a step of decoding the media content 13. The apparatus for producing a video that interacts in real time according to claim 12, characterized in that:
According to a fourteenth aspect of the present invention, the step of storing a plurality of programs read by the media processing device and combining the media content and the data further includes the step of retracking the changed portion of the data. 13. The video production apparatus that interacts in real time according to claim 12.
The invention of claim 15 stores a plurality of programs read by the media processing device, further reads a special effect, and reprocesses the composite of the media content, the data, and the special effect. 13. The real-time interactive video production apparatus according to claim 12, comprising a step and a step of displaying a combination of the media content, the data and special effects.
According to a sixteenth aspect of the present invention, the step of storing a plurality of programs read by the media processing apparatus and reading the special effect further includes inserting a special effect into the background data. 16. An apparatus for producing an image that interacts in real time according to claim 15.
請求項17の発明は、画面を備える表示装置と、少なくとも1つのプロセッサ、メモリおよび、メディアコンテンツおよび特殊効果コマンドスクリプトを備える複数の読み取り可能プログラムを備える計算機器と、映像を受信する撮影装置とを備え、前記特殊効果コマンドスクリプト処理および前記メディアコンテンツとの合成によって、前記メディアコンテンツと前記映像をリアルタイムに相互作用させながら前記画面上に表示することを特徴とするリアルタイムに相互作用する映像の制作システムである。 The invention of claim 17 includes: a display device including a screen; a computing device including at least one processor, a memory, and a plurality of readable programs including media content and special effect command scripts; and a photographing device that receives video. A real-time interactive video production system, wherein the media content and the video are displayed on the screen while interacting in real time by combining the special effect command script processing and the media content. It is.
請求項18の発明は、前記表示装置は、液晶モニタであることを特徴とする請求項17記載のリアルタイムに相互作用する映像の制作システムである。
請求項19の発明は、前記計算機器は、コンピュータであることを特徴とする請求項17記載のリアルタイムに相互作用する映像の制作システムである。
The invention according to claim 18 is the real-time interactive video production system according to claim 17, wherein the display device is a liquid crystal monitor.
A nineteenth aspect of the present invention is the real-time interactive video production system according to the seventeenth aspect, wherein the computing device is a computer.
本発明のリアルタイムに相互作用する映像の制作方法、映像の制作装置、および映像の制作システムによれば、相互作用する特殊効果トラックの概念を使用し、未加工の映像における映像トラックおよびオーディオトラック以外に、リアルタイムに特殊効果を加えることができる。一般の映像特殊効果と異なる点は、本発明で規範された特殊効果はリアルタイムに生成することができ、適用する対象も予め選定しておく必要がなく、インタラクティブな変化をさせることができる点にある。 According to the video production method, video production apparatus, and video production system of the present invention that interact in real time, the concept of interactive special effect tracks is used, and other than video tracks and audio tracks in raw video. In addition, special effects can be added in real time. The difference from general video special effects is that the special effects specified in the present invention can be generated in real time, and it is not necessary to select the target to be applied in advance, and interactive changes can be made. is there.
本発明の詳細な説明を図に沿って下記に示す。本発明の実施例を説明するとき、一般の比率ではなく、説明上都合のいいように、局部的に拡大するが、それは本発明を制限するものではない。 A detailed description of the invention is given below with reference to the figures. When describing embodiments of the present invention, it is not a general ratio but is locally expanded for convenience of explanation, but is not intended to limit the present invention.
本発明は、リアルタイムに相互作用する映像の制作方法、制作装置(リアルタイムに相互作用する映像の保存装置)、および、制作システムであり、画面を備える表示装置、少なくとも一つのプロセッサ、メモリおよびプログラムを備える計算機器および撮影装置を備える。計算機器内のプログラムはメディアコンテンツおよび特殊効果コマンドスクリプトを提供する。撮影装置が現場の映像を撮影し、特殊効果コマンドスクリプトと整合して再生されるとき、メディアコンテンツがリアルタイムに画面上に表示される。メディアコンテンツは仮想人物を含み、リアルタイムに画面上の現場の映像と相互作用させることができる。 The present invention relates to a video production method, a production device (video storage device that interacts in real time), and a production system that interact in real time, a display device including a screen, at least one processor, a memory, and a program. A computing device and a photographing device are provided. The program in the computing device provides media content and special effect command scripts. Media content is displayed on the screen in real time as the photographic device captures the scene video and plays it in alignment with the special effect command script. Media content includes virtual people and can interact with on-site video in real time.
図1に示す本発明の一実施例において、パーソナルコンピュータ、セットトップボックス、ゲームコンソールまたは携帯電話などのプロセッサおよびメモリを備える機器、陰極線管ディスプレイ、液晶ディスプレイまたはプラズマディスプレイなどの表示装置および撮影装置が準備され、本実施例ではコンピュータメインフレーム100、液晶ディスプレイ101、および、インターネット等の通信回線を介して撮影画像を転送しうるインターネットカメラ102が採用されている。ここで説明しなければならないこととして、本実施例において、コンピュータメインフレーム100、液晶ディスプレイ101およびインターネットカメラ102は有線または無線方式で相互に接続されているが、当然、この形態には制限がなく、ノートブックパソコンまたはタブレットコンピュータなどのようにメインフレームとディスプレイとが接合されたものに撮影装置を組み合わせることもできる。
In one embodiment of the present invention shown in FIG. 1, a device having a processor and memory such as a personal computer, a set top box, a game console or a mobile phone, a display device such as a cathode ray tube display, a liquid crystal display or a plasma display, and a photographing device are provided. In this embodiment, the computer
次に、ライブ録画に関して、図1に示すように、インターネットカメラ102によって現場人員104をライブ撮影する。インターネットカメラ102は現場人員104の映像をキャプチャリングして液晶ディスプレイ101の画面103上に表示する。画面103上には現場人員映像105が表示される。現場人員映像105はそのときインターネットカメラ102の前にいる現場人員104をリアルタイムに表示するものである。一実施例における一選択モードにおいて、仮想人物106と現場人員映像105とが相互作用し合う。ここで説明しなければならないこととして、現場人員104はリアルタイムに画面103上に表示されて現場人員映像105となる。ここでのリアルタイムとは現場人員104の動作と現場人員映像105とが同期しているということである。また、現場人員104がいるシーンおよび仮想人物106と現場人員映像105との相互作用の方式は予め設定されてなく、使用者はメニュまたは類似のインターフェイスによって選択することができる。選択モードはプログラムが制作されたアプリケーションプログラムとすることができ、コンピュータメインフレーム100内のメモリなどに保存される。
Next, as for live recording, as shown in FIG. The
図2は、本発明のメディア処理装置の一実施例によるファイルアーキテクチャを示す図である。予め選択されたモードは主体コンテンツおよび特殊効果スクリプトファイルから構成され、一実施例として、先ず、メディアコンテンツ201およびシナリオを設定し、例えばポピュラー音楽、昔の歌またはクラシック音楽などのマルチメディア映像コンテンツを生成する。次に、お互いに対応する相互作用効果が設けられた特殊効果コマンドスクリプト202が設計され、それは時間パラメータ、相対空間パラメータ、特殊効果の種類、特殊効果適用対象などの基本データを含み、特定の言語によって記述され、コマンドファイルとして保存される。使用者は性別、年齢などの要素に応じて異なるテーマを設計することができ、異なる特殊効果と組み合わせることができる。即ち、同一の主体コンテンツに関して述べると、複数の特殊効果コマンドを搭載することができ、例として、流行音楽を再生するとき、お互いに対応する特殊効果スクリプトに仮想人物を読み込み、再生時にデータ整合を行う方式を採用できる。先ず、使用者はメディアコンテンツ201および特殊効果コマンドスクリプト202をダウンロードする。続いて現場人員映像のキャプチャリング203を行い、撮影装置のリアルタイムな映像のキャプチャリングと組み合わせ、図1に示すように現場人員映像105をキャプチャリングした後、特殊効果コマンドスクリプト202と直列整合し、最後に動的映像の合成204によって直列後のリアルタイムにキャプチャリングされた映像および特殊効果コマンドスクリプト202とメディアコンテンツ201とを合成し、現場人員を仮想世界の中に表示する。
FIG. 2 is a diagram illustrating a file architecture according to an embodiment of the media processing apparatus of the present invention. The preselected mode is composed of main content and special effect script file. As an example, first,
図3、4はメディア処理装置によってキャプチャリングされた現場人員と仮想世界とを合成し、再生した状態を示す模式図である。表示装置は一画面を表示し、それは撮影装置(図示せず)が現場人員を撮影し、リアルタイムに表示装置の画面400に表示したものであり、画面400には現場人員映像401が存在する。本実施例の読み取り可能プログラムを実行するとき、予め選択されたモードは人物、神様、アニメキャラクタ、妖怪などの仮想人物402を生成することができる。
3 and 4 are schematic views showing a state in which the on-site personnel captured by the media processing apparatus and the virtual world are synthesized and reproduced. The display device displays one screen, which is a screen shot of a field personnel photographed by a photographing device (not shown) and displayed in real time on the
このとき、仮想人物402は現場人員映像401と相互作用をさせることができ、リアルタイムに画面400に表示することができる。図4に示すように、仮想人物402は多くの動作および特殊効果を備えることができ、現場人員映像401も左右移動などの小さな運動をすることができる。例えば、仮想人物402を現場人員映像401の肩に乗せたり、現場人員映像401の頬にキスをしたりすることができる。このとき、仮想人物402の動作に反応して現場人員映像401に赤面効果501や喜悦効果502を生成することができる。もう1つの例として、仮想人物402は現場人員映像401に魔法を掛けることができ、このとき仮想人物402の動作に反応して現場人員映像401の頭の上には耳503が付き、現場人員映像401の頭部が少し揺動したとき、耳503もそれに連れて揺動する。即ち、仮想人物402、現場人員映像401および各種の効果はリアルタイムに相互作用する。つまり、画面500上において、現場人員映像401がどこに移動しても、耳503は永遠に現場人員映像401の頭の上にある。ここで説明しなければならないこととして、技術的には先ず認識技術を使用することができ、先ず現場人員映像401の髪の位置を確認し、次に追跡技術を使用して頭部の移動位置を追跡し、次に特殊効果である耳503を髪の上に加え、このような認識および追跡の繰り返しによって、画面上には人と仮想物とのリアルタイムな相互作用効果が生成される。
At this time, the
現場人員に関して述べると、現場人員映像は半身モードと全身モードとに分けることができ、半身モードは現場人員の頭部および肩部が画面に表示され、全身モードは画面中の身体部分が全身の十分の七を占める。ここで説明しなければならないこととして、インタラクティブなデジタルコンテンツの構成において、リアルタイム性および正確性は同時に達成するのが難しい目標であるが、本発明においてはアプリケーション形態の違いに応じて好適な処理および調整を行うことができる。例を挙げると、動的な顔部拡大映像に応用するとき、顔部特徴の検出および正確な定位が主に考慮される。動作モードでは全域動作の簡易パラメータの推定が主に考慮される。全身モードのときはエリア運動の追跡および構成の認識が相互作用モジュールの重点とされる。 Regarding site personnel, site personnel images can be divided into half-body mode and whole-body mode. In the half-body mode, the head and shoulders of the site personnel are displayed on the screen. Occupies seven. What must be explained here is that real-time performance and accuracy are difficult to achieve at the same time in the construction of interactive digital content, but in the present invention, suitable processing and Adjustments can be made. For example, when applied to dynamic facial magnified images, facial feature detection and accurate localization are primarily considered. In the operation mode, the estimation of the simple parameters for the entire operation is mainly considered. When in whole body mode, tracking of area motion and recognition of configuration is the focus of the interaction module.
仮想像と現場人員との相互作用の使用方法に関して、特徴検出、特徴追跡、姿勢分析および姿勢認識などは仮想像と現場人員の動作とを分析する。特徴検出は適用対象の性質に基づいて低レベル(特徴点)および高レベル(目や口などの顔部特徴)がそれぞれ考慮されたキャプチャリングである。特徴のマッチング方式に関しては、暗示的(Implicit)規則および明示的(Explicit)規則に分けられる。明示的特徴マッチング規則は特徴間の一対一の対応関係を求める。暗示的特徴マッチング規則はパラメータまたは転換などの方式によって前後のフレーム内の特徴間の関係を表す。例えば、明示的規則および低レベル特徴は特徴点マッチング(四肢追跡)とすることができ、明示的規則および高レベル特徴は表情分析とすることができ、暗示的規則および低レベル特徴は密度オプティカルフローとすることができ、暗示的規則および高レベル特徴は顔部器官検出および定位とすることができる。 Regarding the method of using the interaction between the virtual image and the field personnel, feature detection, feature tracking, posture analysis, posture recognition, and the like analyze the virtual image and the motion of the field personnel. Feature detection is capturing in which a low level (feature point) and a high level (face features such as eyes and mouth) are considered based on the properties of the application target. The feature matching method can be divided into an implicit rule and an explicit rule. An explicit feature matching rule finds a one-to-one correspondence between features. Implicit feature matching rules represent relationships between features in the previous and next frames by a method such as parameter or transformation. For example, explicit rules and low-level features can be feature point matching (limb tracking), explicit rules and high-level features can be facial expression analysis, and implicit rules and low-level features are density optical flows. Implicit rules and high-level features can be facial organ detection and localization.
特徴検出においては下記の方法及び装置が使用され、効率が高く、正確な顔面検出および器官定位がなされる。図5は水平辺縁の密度計算の初期選定の連続図であり、初期検出は、グレイスケール映像の水平辺縁の密度強弱によって目および口の位置が初期推定される。候補エリア601は選定された目および口の位置である。次に、多くの候補エリア601において、器官の相対位置と比率関係を利用して更なる篩い分けが行われる。最後に、眼球検出によって位置の確認が行われる。一実施例として、皮膚の色を判断根拠の補助材料とすることもできる。鼻、眉毛および耳などの器官の定位は一実施例として、比率関係によって位置推定がなされる。顔面の輪郭は楕円方程式によって表示される。一実施例として、全身モードの下で、皮膚の色および髪の特徴部位検出器によって迅速な検出を行うことができ、人体のその他部分に関しては比較的低いレベルであるがグループ化がされた特徴点によって描写される。
In the feature detection, the following method and apparatus are used, and highly efficient and accurate face detection and organ localization are performed. FIG. 5 is a continuous diagram of the initial selection of the horizontal edge density calculation. In the initial detection, the positions of the eyes and the mouth are initially estimated by the density of the horizontal edge of the gray scale image.
特徴追跡に関し、半身操作モードの特徴追跡の一実施例では、顔部器官の持続定位および全体のエリアの運動パラメータ推定に重点が置かれる。全身操作モードの一実施例として、グループ化のグラフマッチング方式によって特徴の比較および追跡がなされ、計算資源の変化状況によって特徴点の数量が調整される。説明しなければならないこととして、本実施例において、映像キャプチャリング装置が現場人員の顔部を追跡するのではなく、現場人員の顔部が映像キャプチャリング装置の撮影位置に適応しなければならず、このようにして姿勢推定を考慮する必要を無くすことができる。 With respect to feature tracking, one embodiment of feature tracking in the half-body operation mode focuses on sustained localization of facial organs and motion parameter estimation of the entire area. As an example of the whole-body operation mode, features are compared and tracked by a grouped graph matching method, and the number of feature points is adjusted according to a change state of a calculation resource. It should be explained that in this embodiment, the video capturing device does not track the face of the field personnel, but the face of the site personnel must adapt to the shooting position of the video capturing device. In this way, it is possible to eliminate the need to consider posture estimation.
姿勢の分析および認識に関して、静止状態の下での物体の形状の判別の一実施例として、形状マッチングを使用することができ、その関連技術であるShape Contextなどを使用することができる。演算法もElastic Matching演算法とすることができ、さらに多重解析度の概念と組み合わせて小さな程度の変形および遮蔽効果を容認する。連続動作の分析および認識の一実施例として、階層式のオプティカルフロー追跡方式(Pyramidal Optical Flow)を利用し、先ず人体の移動方向および速度を算出し、使用時間の序列法の一実施例として、隠れマルコフモデルまたはリカレント型ニューラルネットワークなどとすることができ、その動作の表す意味内容を分析する。 As an example of determining the shape of an object in a stationary state with respect to posture analysis and recognition, shape matching can be used, and its related technology, such as Shape Context, can be used. The calculation method can also be an Elastic Matching calculation method, and in combination with the concept of multiple analysis degree, a small degree of deformation and shielding effect is allowed. As an example of continuous motion analysis and recognition, using a hierarchical optical flow tracking method (Pyramidal Optical Flow), first calculate the moving direction and speed of the human body, as an example of the ordering method of usage time, It can be a hidden Markov model or a recurrent neural network, etc., and the semantic content represented by the operation is analyzed.
図6は、本発明のメディア処理装置、そのシステム、ソフトの運転の一実施例を示すフロー図である。アプリケーションプログラムのトリガー701、ハードの検出751、警告メッセージ731、アプリケーションプログラムの終了704および問題メッセージ732がプログラムがハード需要を認証するステップに使用される。ハードの検出751が問題を発見したとき、警告メッセージ731を生成し、そうでないときは問題メッセージ732を生成する。警告メッセージ731は使用者にハードが検出を行うとき必要なハード設備が未装着であることや運転不可であることを知らせ、例えば、撮影レンズが未装着であるというメッセージおよび撮影レンズの装着が不完全であるなどのメッセージを知らせる。問題メッセージ732は使用者に被撮影者がレンズを離れたことを知らせ、次の撮影ステップに便利になっている。次は前処理であり、背景データの収集706を行って内部保存背景データ707内に保存し、次に問題メッセージ733を生成し、その目的は使用者を撮影可能範囲内に進入させることにある。例えば、歓迎画面によって使用者を撮影可能範囲内に進入させ、その映像を表示画面に出現させる。
FIG. 6 is a flowchart showing an embodiment of the media processing apparatus, its system, and software operation of the present invention.
認識709はここでは顔部および四肢全体を認識できる。動作追跡710はここでは顔部および四肢全体の動作を検出できる。また、メディアデータ761は拡張ファイルの部類であるAVIまたはMPEGフォーマットを含むことができる。一実施例として、メディアデータ761はDLLファイルなどの圧縮ファイルとすることができる。次にメディアデータ711およびメディアデータの復号化713を読み込む。認識709、動作追跡710および内部保存背景データ707が次のステップと組み合わさって動的合成映像が生成される。
Here, the
メディア処理装置によって、撮影機映像とメディアデータ(仮想の物体の画像)との合成714および動作の再追跡715の後、合成メディアデータの表示716がされる。動作の再追跡715は背景および映像の変更をもう一度検出する。次に特殊効果の読み込みをするかどうか752の判断をし、する場合、特殊効果嵌入の読み込み718のステップに進む。特殊効果嵌入の読み込み718は一実施例として、その特殊効果の等級はCEffectとすることができる。次に合成メディアデータを保存するかどうか753のステップに進み、保存する場合、合成メディアデータの保存720を行う。次に時間が終了するかどうか754のステップに進み、終了する場合、保存合成メディアデータの再処理722のステップ進む、一実施例として、JPEGファイルフォーマットまたはCStyle等級とすることができる。最後に再処理された保存合成メディアデータの表示723およびアプリケーションプログラムの終了724を行う(リアルタイムに相互作用する映像の保存装置或いは制作装置)。
The media processing device displays composite
ここで説明しなければならないこととして、メディア処理装置により撮影機映像とメディアデータとの合成714は動作の再追跡715後、画面上に合成メディアデータの表示716を行うことができ、次に特殊効果嵌入の読み込み718に進み、合成メディアデータの保存720後、撮影機映像とメディアデータとの合成714に進み、このようにしてリアルタイムの効果が生成される。図3、4に示すように、仮想人物402は動作の再追跡715後、現場人員映像401の肩および頬の位置を知ることができる。特殊効果の赤面効果501は合成メディアデータの保存720および動作の再追跡715後、リアルタイムに図3に示す赤面効果501を加えることができる。また、動作の再追跡715によって頬がどこに移動しても赤面効果501は正確な位置に生成させることができる。
What has to be explained here is that the media processing device can display the
以上の説明は、本発明のリアルタイムに相互作用する映像の制作方法、制作装置、制作システムのソフト運転の工程の一実施例を示すものである。本発明はパーソナルコンピュータ、セットトップボックス、ゲームコンソールまたは携帯電話などにおいて、メディア処理装置は前述の説明した各ステップを実行する手段を有し、該各手段により各ステップを実行させることができる。さらに応用して二人の使用者がお互いに遊ぶこともできる。二人の使用者はインターネットまたはイントラネットなどのネットワークで接続され、相手または自分に仮想人物を選択し、一端で命令を出し、他端の仮想人物を操作し、各種の視覚特殊効果を発生させ、相手および自分のモニタ上に表示させることができる。 The above description shows one embodiment of the production method, production apparatus, and production system software operation process that interacts in real time according to the present invention. In the present invention, in a personal computer, a set top box, a game console, a mobile phone, or the like, the media processing apparatus has means for executing the above-described steps, and each step can be executed by the respective means. In addition, two users can play with each other. Two users are connected by a network such as the Internet or an intranet, select a virtual person to the other party or themselves, issue a command at one end, manipulate the virtual person at the other end, generate various visual special effects, It can be displayed on the other party and his monitor.
上述の本発明の一実施例において、アプリケーションソフトの相互作用性および合成効果のリアリティー性が共に考慮され、特殊効果モジュールおよび相互作用モジュールの設計が一緒に考慮され、1つのパッケージに統合され、このようにしてメディアコンテンツのレイアウト時、先ず処理を完了させ、システム資源を相互作用時のリアリティー表現に十分に利用できる。 In the above-described embodiment of the present invention, the interactivity of the application software and the reality of the composite effect are considered together, the design of the special effect module and the interaction module are considered together, and integrated into one package. In this way, when the media content is laid out, the processing is first completed, and the system resources can be fully utilized for expressing the reality at the time of interaction.
以上の説明は本発明の実施例を示したものであり、本発明の特許請求の範囲を制限するものではない。本発明の主旨を逸脱しない範囲における変更または修飾はすべて特許請求の範囲に含まれる。 The above description shows an embodiment of the present invention and does not limit the scope of the claims of the present invention. All changes or modifications within the scope of the present invention are included in the scope of the claims.
100 コンピュータメインフレーム
101 液晶ディスプレイ
102 ネットワークカメラ
103、400、500 画面
104 現場人員
105、401 現場人員映像
106、402 仮想人物
201 メディアコンテンツ
202 特殊効果コマンドスクリプト
203 現場人員映像のキャプチャリング
204 動的映像の合成
501 赤面効果
502 喜悦効果
503 耳
601 候補エリア
701 アプリケーションプログラムのトリガー
751 ハードの検出
731 警告メッセージ
704 アプリケーションプログラムの終了
732、733 問題メッセージ
706 背景データの収集
707 内部保存背景データ
709 認識
710 動作追跡
711 メディアデータの読み込み
761 メディアデータ
713 メディアデータの復号化
714 撮影機映像とメディアデータとの合成
715 動作の再追跡
716 合成メディアデータの表示
752 特殊効果の読み込みをするかどうか
718 特殊効果嵌入の読み込み
753 合成メディアデータを保存するかどうか
720 合成メディアデータの保存
754 時間が終了するかどうか
722 保存合成メディアデータの再処理
723 再処理された保存合成メディアデータの表示
724 アプリケーションプログラムの終了
100 computer
Claims (19)
リアルタイムに映像を撮影して前記画面に表示するステップと、
仮想の物体の画像を生成し前記画面に表示するステップと、
前記物体の画像と前記映像とを相互作用させるステップと
を含むことを特徴とするリアルタイムに相互作用する映像の制作方法。 Steps to prepare the screen,
Taking a picture in real time and displaying it on the screen;
Generating an image of a virtual object and displaying it on the screen;
A method for producing a video that interacts in real time, comprising the step of interacting the image of the object and the video.
前記メディア処理装置は前記複数のプログラムに基づいて、
背景データおよびリアルタイム映像を含むデータを入力するステップと、
前記データを認識するステップと、
前記データの変更部分を追跡するステップと、
メディアコンテンツを準備するステップと、
前記メディアコンテンツと前記データとを合成するステップと、
前記メディアコンテンツと前記データとを合成したものを表示するステップと
を実行することを特徴とするリアルタイムに相互作用する映像の制作装置 Save multiple programs that are read by the media processing device,
The media processing device is based on the plurality of programs,
Inputting data including background data and real-time video;
Recognizing the data;
Tracking changes in the data;
Preparing media content;
Combining the media content and the data;
A real-time interactive video production apparatus, comprising: a step of displaying a combination of the media content and the data
メディアコンテンツを準備するステップは、さらに、
前記メディアコンテンツの読み込みを行うステップと、
前記メディアコンテンツを復号化するステップと
を含むことを特徴とする請求項12記載のリアルタイムに相互作用する映像の制作装置 Storing a plurality of programs read by the media processing device;
The step of preparing media content further includes
Reading the media content;
The real-time interactive video production apparatus according to claim 12, further comprising: decrypting the media content.
前記メディアコンテンツと前記データとを合成するステップは、さらに、
前記データの変更部分を再追跡するステップ
を含むことを特徴とする請求項12記載のリアルタイムに相互作用する映像の制作装置 Storing a plurality of programs read by the media processing device;
The step of combining the media content and the data further includes:
The real-time interactive video production apparatus according to claim 12, further comprising the step of re-tracing the changed portion of the data.
特殊効果の読み込みを行うステップと、
前記メディアコンテンツ、前記データおよび特殊効果の合成したものを再処理するステップと、
前記メディアコンテンツ、前記データおよび特殊効果の合成したものを表示するステップと
を含むことを特徴とする請求項12記載のリアルタイムに相互作用する映像の制作装置 Storing a plurality of programs read by the media processing device; and
A step to load special effects,
Reprocessing the composite of the media content, the data and special effects;
13. The real-time interactive video production apparatus according to claim 12, further comprising a step of displaying a combination of the media content, the data, and a special effect.
前記特殊効果の読み込みを行うステップは、さらに、
特殊効果を前記背景データに嵌入するステップ
を含むことを特徴とする請求項15記載のリアルタイムに相互作用する映像の制作装置 Storing a plurality of programs read by the media processing device;
The step of reading the special effect further includes:
The real-time interactive video production apparatus according to claim 15, further comprising: inserting a special effect into the background data.
少なくとも1つのプロセッサ、メモリおよび、メディアコンテンツおよび特殊効果コマンドスクリプトを備える複数の読み取り可能プログラムを備える計算機器と、
映像を受信する撮影装置とを備え、
前記特殊効果コマンドスクリプト処理および前記メディアコンテンツとの合成によって、前記メディアコンテンツと前記映像をリアルタイムに相互作用させながら前記画面上に表示することを特徴とするリアルタイムに相互作用する映像の制作システム。 A display device comprising a screen;
A computing device comprising at least one processor, memory and a plurality of readable programs comprising media content and special effects command scripts;
An imaging device for receiving video,
A real-time interactive video production system characterized in that the media content and the video are displayed on the screen while interacting in real time by the special effect command script processing and the media content.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006319879A JP2008135923A (en) | 2006-11-28 | 2006-11-28 | Production method of videos interacting in real time, video production device, and video production system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006319879A JP2008135923A (en) | 2006-11-28 | 2006-11-28 | Production method of videos interacting in real time, video production device, and video production system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008135923A true JP2008135923A (en) | 2008-06-12 |
Family
ID=39560465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006319879A Withdrawn JP2008135923A (en) | 2006-11-28 | 2006-11-28 | Production method of videos interacting in real time, video production device, and video production system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008135923A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106341720A (en) * | 2016-08-18 | 2017-01-18 | 北京奇虎科技有限公司 | Method for adding face effects in live video and device thereof |
CN107622234A (en) * | 2017-09-12 | 2018-01-23 | 广州酷狗计算机科技有限公司 | It is a kind of to show the method and apparatus for sprouting face present |
JP2018129802A (en) * | 2017-02-10 | 2018-08-16 | シアーズラボ、インコーポレイテッドSeerslab Inc. | Live streaming video generation method and device, live service provision method and device, and live streaming system |
KR101894956B1 (en) * | 2017-06-21 | 2018-10-24 | 주식회사 미디어프론트 | Server and method for image generation using real-time enhancement synthesis technology |
CN113422910A (en) * | 2021-05-17 | 2021-09-21 | 北京达佳互联信息技术有限公司 | Video processing method and device, electronic equipment and storage medium |
JP2023515411A (en) * | 2020-03-24 | 2023-04-13 | 北京達佳互▲れん▼信息技術有限公司 | Video rendering method, apparatus, electronic equipment and storage medium |
WO2024027688A1 (en) * | 2022-08-01 | 2024-02-08 | 北京字跳网络技术有限公司 | Video processing method and apparatus, and device and storage medium |
-
2006
- 2006-11-28 JP JP2006319879A patent/JP2008135923A/en not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106341720A (en) * | 2016-08-18 | 2017-01-18 | 北京奇虎科技有限公司 | Method for adding face effects in live video and device thereof |
JP2018129802A (en) * | 2017-02-10 | 2018-08-16 | シアーズラボ、インコーポレイテッドSeerslab Inc. | Live streaming video generation method and device, live service provision method and device, and live streaming system |
KR101894956B1 (en) * | 2017-06-21 | 2018-10-24 | 주식회사 미디어프론트 | Server and method for image generation using real-time enhancement synthesis technology |
CN107622234A (en) * | 2017-09-12 | 2018-01-23 | 广州酷狗计算机科技有限公司 | It is a kind of to show the method and apparatus for sprouting face present |
CN107622234B (en) * | 2017-09-12 | 2020-04-24 | 广州酷狗计算机科技有限公司 | Method and device for displaying budding face gift |
JP2023515411A (en) * | 2020-03-24 | 2023-04-13 | 北京達佳互▲れん▼信息技術有限公司 | Video rendering method, apparatus, electronic equipment and storage medium |
CN113422910A (en) * | 2021-05-17 | 2021-09-21 | 北京达佳互联信息技术有限公司 | Video processing method and device, electronic equipment and storage medium |
WO2024027688A1 (en) * | 2022-08-01 | 2024-02-08 | 北京字跳网络技术有限公司 | Video processing method and apparatus, and device and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022001593A1 (en) | Video generation method and apparatus, storage medium and computer device | |
JP7457082B2 (en) | Reactive video generation method and generation program | |
Lai et al. | Semantic-driven generation of hyperlapse from 360 degree video | |
CN111968207B (en) | Animation generation method, device, system and storage medium | |
TWI255141B (en) | Method and system for real-time interactive video | |
JP6770061B2 (en) | Methods and devices for playing video content anytime, anywhere | |
JP7504968B2 (en) | Avatar display device, avatar generation device and program | |
US20130101164A1 (en) | Method of real-time cropping of a real entity recorded in a video sequence | |
US20100153847A1 (en) | User deformation of movie character images | |
WO2014194488A1 (en) | Karaoke avatar animation based on facial motion data | |
CN112199016B (en) | Image processing method, image processing device, electronic equipment and computer readable storage medium | |
Gonzalez-Franco et al. | Movebox: Democratizing mocap for the microsoft rocketbox avatar library | |
JP2008135923A (en) | Production method of videos interacting in real time, video production device, and video production system | |
CN113709543A (en) | Video processing method and device based on virtual reality, electronic equipment and medium | |
JP7483979B2 (en) | Method and apparatus for playing multi-dimensional responsive images | |
CN115442658B (en) | Live broadcast method, live broadcast device, storage medium, electronic equipment and product | |
Hu et al. | FSVVD: A dataset of full scene volumetric video | |
Sörös et al. | Augmented visualization with natural feature tracking | |
EP1944700A1 (en) | Method and system for real time interactive video | |
US11200919B2 (en) | Providing a user interface for video annotation tools | |
US20080122867A1 (en) | Method for displaying expressional image | |
JP2008186075A (en) | Interactive image display device | |
Gunkel et al. | Immersive Experiences and XR: A Game Engine or Multimedia Streaming Problem? | |
CN1728780A (en) | Method and system of instant interactive images and sounds | |
CN116017082A (en) | Information processing method and electronic equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080725 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20080728 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080814 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090213 |