JP2008539614A - Integrated wireless multimedia transmission system - Google Patents
Integrated wireless multimedia transmission system Download PDFInfo
- Publication number
- JP2008539614A JP2008539614A JP2008507808A JP2008507808A JP2008539614A JP 2008539614 A JP2008539614 A JP 2008539614A JP 2008507808 A JP2008507808 A JP 2008507808A JP 2008507808 A JP2008507808 A JP 2008507808A JP 2008539614 A JP2008539614 A JP 2008539614A
- Authority
- JP
- Japan
- Prior art keywords
- media
- capturing
- video data
- program
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/06—Optimizing the usage of the radio link, e.g. header compression, information sizing, discarding information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/70—Media network packetisation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Mobile Radio Communication Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本発明は、一般的に、データをソースからモニタへ無線でリアルタイムで送信するための方法及びシステムに関する。本発明は、更に、一般的に、無線デバイスの実質的な自動構成に関する。例示の実施の形態において、本発明は、ビデオ及び音声データをソースからキャプチャし、このデータを無線送信する方法であり、データを再生するステップ、ミラーディスプレイドライバを利用して当該ビデオデータをキャプチャするステップ、入力ソースから当該音声データをキャプチャするステップ、キャプチャされた音声及びビデオデータを圧縮するステップ、及び、圧縮された音声及びビデオデータを送信機を利用して送信するステップからなる。
【選択図】 図5The present invention generally relates to a method and system for wirelessly transmitting data from a source to a monitor in real time. The invention further generally relates to substantially automatic configuration of wireless devices. In an exemplary embodiment, the present invention is a method for capturing video and audio data from a source and wirelessly transmitting the data, reproducing the data, capturing the video data using a mirror display driver A step of capturing the audio data from an input source, a step of compressing the captured audio and video data, and a step of transmitting the compressed audio and video data using a transmitter.
[Selection] Figure 5
Description
発明の分野
本発明は、一般的に、ソースからモニタへデータを無線及びリアルタイムで送信する方法及びシステムに関する。また、本発明は、一般に、無線デバイスの実質的な自動構成に関する。
The present invention relates generally to methods and systems for transmitting data from a source to a monitor wirelessly and in real time. The present invention also generally relates to substantially automatic configuration of wireless devices.
発明の背景
個人は、限定されないが、グラフィック、テキスト、ビデオ、イメージ、及び、音声を含むメディアの格納、記録、送信、受信、及び再生に、パーソナルコンピュータ、ストレージデバイス、モバイル電話機、パーソナルデータアシスタント、及びサーバを含む計算デバイスを利用する。そのようなメディアは、限定されないが、インターネット、CD、DVD、他のネットワーク、又は、他の記録デバイスを含むたくさんのソースから取得されることが可能である。
BACKGROUND OF THE INVENTION Individuals may include, but are not limited to, personal computers, storage devices, mobile phones, personal data assistants, for storage, recording, transmission, reception and playback of media including graphics, text, video, images, and audio. And a computing device including a server. Such media can be obtained from a number of sources including, but not limited to, the Internet, CDs, DVDs, other networks, or other recording devices.
特に、個人は、時間、地理、価格、コンテンツのレンジ、他の制限を常に受けないで、オープンネットワークを通してメディアを迅速及び大量に分散し、それにアクセスすることが可能である。しかしながら、個人は、常に、1名、2名を上回る人数の観客に適さない小さな画面上に、取得したメディアを表示することを余儀なくされる。 In particular, individuals can quickly and massively distribute and access media through open networks without always being subject to time, geography, price, content range, and other restrictions. However, an individual is always forced to display the acquired media on a small screen that is not suitable for one or more spectators.
メディアを格納、記録、送信、受信、及び、再生する計算デバイスの利用の急成長及びフレキシビリティにもかかわらず、世界全体の圧倒的多数の人間は、テレビを、音声/ビデオ送信を受信する基本手段としてまだ使っている。特に、大気、衛星、及び、ケーブルを媒体したテレビへの送信は、個人への連絡、及び、個人が体験する音声/ビデオメディアの主要手段を今なお代表している。しかし、これらの送信は、コスト、コンテンツのレンジ、アクセス時間、及び、地理によって、非常に制限されている。 Despite the rapid growth and flexibility in the use of computing devices to store, record, transmit, receive, and play media, the vast majority of people around the world receive television and audio / video transmissions. Still using as a means. In particular, air, satellite, and cable media transmissions to television still represent the primary means of personal contact and audio / video media experienced by individuals. However, these transmissions are very limited by cost, content range, access time, and geography.
メディアの格納、記録、送信、受信、及び再生に利用されている個別計算デバイスのユビキティを考えると、メディアを迅速及び柔軟に取得し、そのメディアの体験に各自のテレビを利用することを個人に可能にするためには、非常に広く普及しているテレビの基盤と連動して同じ計算デバイスが利用できることが好ましい。 Given the ubiquity of individual computing devices used to store, record, transmit, receive, and play media, it is important for individuals to acquire media quickly and flexibly and use their own television for the media experience. In order to be possible, it is preferable that the same computing device can be used in conjunction with a very widespread television platform.
計算デバイスをテレビと統合可能にする従来の試みは、a)テレビを、インターネットに直接アクセスしてメディアを取得するネットワーク化された計算家電に変換し、b)計算デバイスからメディアを受信し、これを格納し、かつ、無線接続を通して、テレビへ転送する専用ハードウェアデバイスを作り出し、及び/又は、c)メモリスティック等のストレージデバイスを許可する手段をテレビへ統合する、ことに集中している。しかしながら、これらの従来のアプローチは、既存の計算デバイス及び/若しくはテレビの取り替え等の既存機器の実質的な修正、又は、高価な新しいハードウェアの購入に悩まされている。 Prior attempts to enable computing devices to integrate with televisions include: a) transforming televisions into networked computing appliances that directly access the Internet and obtain media; b) receive media from computing devices, Focuses on creating a dedicated hardware device for storing and transferring to a television over a wireless connection and / or c) integrating means into the television to allow storage devices such as memory sticks. However, these conventional approaches suffer from substantial modifications to existing equipment, such as replacement of existing computing devices and / or televisions, or the purchase of expensive new hardware.
追加して、両方のアプローチは、一般に、複数の物理的な配線接続を利用して、グラフィック、テキスト、音声及びビデオを送信することを要求する。そのような物理接続は、デバイスの利用を一台のテレビに限定し、機器の取替えを家庭内の特定エリアに限定し、及び、見苦しい配線網の結果をもたらす。最後に、メディアをメモリスティック等の格納要素に物理的に格納してからテレビに入力する要求は、使いにくくて、柔軟ではないだけではなく、転送できるデータ量を大きく制限する。 In addition, both approaches generally require the use of multiple physical wiring connections to transmit graphics, text, audio and video. Such a physical connection limits the use of the device to a single television, limits the replacement of equipment to a specific area in the home, and results in an unsightly wiring network. Lastly, the requirement to physically store media in a storage element such as a memory stick and then input to a television is not only difficult and not flexible, but also greatly limits the amount of data that can be transferred.
個人が既存の計算デバイスを利用してメディアを受信、送信、格納、及び、再生し、既存のテレビを利用してメディアを体験することを可能にする方法、デバイス、及びシステムの必要性が求められている。また、メディアを計算デバイスからテレビへ容易に低価格で無線送信し、よって、テレビをリモートモニタに変える必要性も求められている。テキスト、グラフィック、ビデオ、及び音声の送信に応用可能な数々の異なる規格が、シングル、ユニバーサルの無線メディア送信システムによって運用されることが更に望ましい。最後に、使い易さの面で、無線デバイスの構成を自動化する必要性がある。 There is a need for methods, devices, and systems that allow individuals to receive, transmit, store, and play media using existing computing devices and experience media using existing television. It has been. There is also a need to easily and inexpensively transmit media from computing devices to televisions, thus changing the television to a remote monitor. It is further desirable that a number of different standards applicable to the transmission of text, graphics, video and audio be operated by a single, universal wireless media transmission system. Finally, there is a need to automate the configuration of wireless devices for ease of use.
発明の要約
本発明は、一般的に、ソースからモニタへデータを無線及びリアルタイムで送信するための方法及びシステムに関する。本発明は、更に、一般的に、無線デバイスの実質的な自動構成に関する。
SUMMARY OF THE INVENTION The present invention generally relates to a method and system for transmitting data from a source to a monitor wirelessly and in real time. The invention further generally relates to substantially automatic configuration of wireless devices.
一つの実施の形態において、本発明は、メディアをソースからキャプチャし、前記メディアを無線送信する方法であり、この方法は、
少なくとも音声データ及びビデオデータからなる前記メディアを計算デバイス上に再生するステップ、
前記ビデオデータをミラーディスプレイドライバを利用してキャプチャするステップ、
入力ソースから前記音声データをキャプチャするステップ、
前記キャプチャされた音声及びビデオデータを圧縮するステップ、及び、
前記圧縮された音声及びビデオデータを送信機を利用して送信するステップ
からなる。
In one embodiment, the present invention is a method for capturing media from a source and wirelessly transmitting the media, the method comprising:
Playing back the media comprising at least audio data and video data on a computing device;
Capturing the video data using a mirror display driver;
Capturing the audio data from an input source;
Compressing the captured audio and video data; and
And transmitting the compressed audio and video data using a transmitter.
オプションとして、この方法は、更に、前記メディアを受信機で受信し、前記キャプチャされた音声及びビデオデータを解凍し、及び、前記解凍された音声及びビデオデータを、前記ソースからリモートされるディスプレイ上に再生するステップからなる。オプションとして、この送信機と受信機は、TCPを利用して接続確立をし、この送信機は、UDPを利用してビデオデータを送信する。 Optionally, the method further includes receiving the media at a receiver, decompressing the captured audio and video data, and extracting the decompressed audio and video data on a display remote from the source. It consists of steps to play. As an option, the transmitter and the receiver establish a connection using TCP, and the transmitter transmits video data using UDP.
オプションとして、メディアは、更に、グラフィック及びテキストデータからなり、このグラフィック及びテキストデータは、前述のビデオデータと一緒にミラーディスプレイドライバを利用してキャプチャされることを特徴とする。オプションとして、この方法は、更に、CODECを利用して前述のビデオデータを処理するステップからなる。オプションとして、CODECは、ビデオデータから時間冗長性を、動き推定ブロックを利用して、取り除く。 Optionally, the media further comprises graphics and text data, the graphics and text data being captured using a mirror display driver together with the video data described above. Optionally, the method further comprises the step of processing the aforementioned video data using CODEC. As an option, CODEC removes temporal redundancy from video data using motion estimation blocks.
オプションとして、CODECは、DCT変換ブロックを利用して、ビデオデータのフレームを8*8ブロック又は4*4ブロックのピクセルに変換する。オプションとして、CODECは、VLCコーディング回路を利用して、ビデオコンテンツを、短いワードに符号化する。オプションとして、CODECは、IDCTブロックを利用して、ビデオデータの空間周波数をピクセルドメインに戻して変換する。オプションとして、CODECは、メディア送信の高速化用に、レート制御メカニズムからなる。 Optionally, CODEC uses a DCT transform block to convert a frame of video data into 8 * 8 or 4 * 4 block pixels. Optionally, CODEC encodes video content into short words using VLC coding circuitry. Optionally, CODEC uses the IDCT block to convert the spatial frequency of the video data back to the pixel domain. Optionally, CODEC consists of a rate control mechanism for speeding up media transmission.
他の実施の形態において、本発明は、少なくともビデオデータからなるメディアを、ソースからキャプチャし、このメディアを無線送信するために、コンピュータ読取可能な基板に格納されたプログラムからなり、このプログラムは、前述のビデオデータをキャプチャするためにカーネルモードで動作するミラーディスプレイドライバ、前述のビデオデータの処理用のCODEC、及び、この処理されたビデオデータの送信用の送信機からなる。 In another embodiment, the invention comprises a program stored on a computer readable board for capturing media from at least video data from a source and transmitting the media wirelessly, the program comprising: It comprises a mirror display driver operating in a kernel mode to capture the video data, a CODEC for processing the video data, and a transmitter for transmitting the processed video data.
オプションとして、プログラムは、更に、バーチャルディスプレイドライバからなる。オプションとして、送信機は、受信機と、TCPを利用して接続確立をし、及び、送信機は、UDPを利用して、ビデオデータのパケットを送信する。オプションとして、メディアは、更に、グラフィック及びテキストデータからなり、前述のミラーディスプレイドライバは、グラフィック及びテキストデータを、前述のビデオデータと一緒にキャプチャする。オプションとして、CODECは、ビデオデータから時間冗長性を取り除くために、動き推定ブロックからなる。 Optionally, the program further comprises a virtual display driver. Optionally, the transmitter establishes a connection with the receiver using TCP, and the transmitter transmits a packet of video data using UDP. Optionally, the media further comprises graphic and text data, and the aforementioned mirror display driver captures the graphic and text data together with the aforementioned video data. Optionally, the CODEC consists of motion estimation blocks to remove temporal redundancy from the video data.
オプションとして、CODECはビデオデータのフレームを8*8又は4*4ブロックのピクセルに変換するDCTブロックからなる。オプションとして、CODECは、ビデオコンテンツを短いワードに符号化するためのVLCコーディング回路からなる。オプションとして、CODECは、ビデオデータの空間周波数をピクセルドメインに戻して変換するためのIDCTブロックからなる。オプションとして、CODECは、メディア送信の速度を向上させるために、レート制御メカニズムからなる。 Optionally, the CODEC consists of a DCT block that converts a frame of video data into 8 * 8 or 4 * 4 block pixels. Optionally, CODEC consists of a VLC coding circuit for encoding video content into short words. Optionally, CODEC consists of an IDCT block for converting the spatial frequency of the video data back to the pixel domain. Optionally, CODEC consists of a rate control mechanism to increase the speed of media transmission.
これらの、及び他の実施の形態は、図面の簡単な説明を参照しながら、詳細な説明の中に、明瞭に説明される。 These and other embodiments are clearly described in the detailed description with reference to the brief description of the drawings.
詳細な説明
本発明は、一つのデバイスから他のデバイスへメディアを無線でリアルタイムで送信するための統合無線システムである。後述の図面を参考して、本発明を説明する。ここで説明される実施の形態は、本発明を、開示された正確な形式へ限定又は制限するものではない。それらは、本発及びその応用を説明するために、及び当業者が本発明を利用することを可能にするために、選択されたものである。
DETAILED DESCRIPTION The present invention is an integrated wireless system for transmitting media wirelessly from one device to another in real time. The present invention will be described with reference to the following drawings. The embodiments described herein are not intended to limit or limit the invention to the precise form disclosed. They have been chosen to explain the invention and its applications and to enable those skilled in the art to utilize the invention.
図1に示すように、従来のパーソナルコンピュータ、デスクトップ、ラップトップ、PDA、携帯電話器、ゲームステーション、セットトップボックス、衛生受信機、DVDプレイヤ、パーソナルビデオ録画機、又は、本発明の新規システムで動作する他のデバイス等の計算デバイス101は、無線ネットワーク102を通してリモートモニタ103と通信する。計算デバイス101とリモートモニタ103は、更に、複数の規格でエンコードされたグラフィック、音声、テキスト、及びビデオを無線で送受信できる処理システムオンチップからなることが好ましい。
As shown in FIG. 1, a conventional personal computer, desktop, laptop, PDA, mobile phone, game station, set top box, sanitary receiver, DVD player, personal video recorder, or the new system of the present invention A
リモートモニタ103は、グラフィック、音声、及びビデオをレンダリングできる、周知のテレビ、プラズマディスプレイデバイス、フラットパネルLCD、HDD、プロジェクタ、又は、周知の任意の他の電子ディスプレイデバイスであることができる。処理システムオンチップは、リモートモニタ103と計算デバイス101へ統合されたもの、又は、リモートモニタ103又は計算デバイス101と有線通信しているスタンドアローンデバイスへ組み込まれたものであることができる。例示の処理システムオンチップは、本出願の所有者に譲渡された出願PCT/US2006/00622に記載され、参照することによりここに組み込まれている。
The
図2には、本発明の計算デバイス200が図示されている。計算デバイス200は、本発明の新規ソフトウェアシステム202を実行できるオペレーティングシステム201と、送受信機203からなっている。オペレーティングシステム201は、限定されないが、MS Windows 2000(登録商標)、MS Windows NT(登録商標)、MS Windows XP(登録商標)、Linux(登録商標)、OS/2(登録商標)、Palm(登録商標)ベースのオペレーティングシステム、セルフォーンオペレーティングシステム、iPOD(登録商標)オペレーティングシステム、及びMAC OS(登録商標)を含む任意のオペレーティングシステムであることができる。
FIG. 2 illustrates a computing device 200 of the present invention. The computing device 200 includes an operating system 201 that can execute the
計算デバイス200は、グラフィック、テキスト、ビデオ、及び音声信号の伝送用に、例えば、特に、IEEE 802.11a、802.11g、Bluetooth2.0、HomeRF 2.0、HiperLAN/2、及びUltra Wideband、そして、これらの規格の任意の独自仕様の適当な無線規格を利用して、メディアを送信する。 Computing device 200 may be used for transmission of graphics, text, video, and audio signals, for example, in particular, IEEE 802.11a, 802.11g, Bluetooth 2.0, HomeRF 2.0, HiperLAN / 2, and Ultra Wideband, and these standards. The media is transmitted using an appropriate wireless standard of any original specification.
図3には、本発明の新規ソフトウェアシステムのモジュール300を図示している。ソフトウェア300は、メディアのリアルタイムキャプチャ用のモジュール301、キャプチャされたメディアの格納用のバッファをマネージするためのモジュール302、メディアの圧縮、解凍用のCODEC303、及び、処理されたメディアを伝送用にパッケージ化するモジュール304からなる。
FIG. 3 illustrates a module 300 of the new software system of the present invention. The software 300 includes a
一つの実施の形態において、インターネットからダウンロードされた、インターネットからリアルタイムでストリーム送信された、ケーブルまたは衛星局から送信された、ストレージデバイスから転送された、又は他のソースにかかわらず、計算デバイスは、ソースからメディアを受信する。メディアは、計算デバイス上にインストールされた適当なプレイヤを介して、計算デバイス上に再生される。メディアが計算デバイス上に再生されるとき、ソフトウェアモジュール301は、データをリアルタイムでキャプチャし、CODECに送信する前にバッファに一時的に格納する。CODEC303は、これを圧縮し、送信用に準備する。
In one embodiment, the computing device, whether downloaded from the Internet, streamed in real time from the Internet, transmitted from a cable or satellite station, transferred from a storage device, or other source, Receive media from the source. The media is played on the computing device via a suitable player installed on the computing device. When the media is played on the computing device, the
図4には、本発明の受信機を図示している。受信機404は、送受信機401、CODEC402、ビデオとグラフィックデータのレンダリング用の表示デバイス403、及び、音声データのレンダリング用の音声デバイス404からなる。送受信機401は、好ましくは、本発明に利用された新規の送信プロトコルを通して、圧縮されたメディアデータを受信する。一つの例において、この新規送信プロトコルは、TCP/UDPハイブリッドプロトコルである。
FIG. 4 illustrates the receiver of the present invention. The
パケットのリアルタイム送信用のTCP/UDPハイブリッドプロトコルは、TCPのセキュリティサービスを、UDPの簡易及び低処理要求に、結合する。コンテンツは、受信機によって受信され、そして、CODEC402へ解凍用に送信される。CODECは、メディアを解凍し、レンダリング用に表示デバイス403とスピーカ404へ送信されるビデオと音声信号を用意する。
The TCP / UDP hybrid protocol for real-time transmission of packets combines TCP security services with UDP simple and low processing requirements. The content is received by the receiver and sent to the
図5に示すように、フローチャートは、本発明の統合無線システムの例示の動作を図示している。パーソナルコンピュータは、メディアをこれのコンソール上の適当なメディアプレイヤを利用して再生する(ステップ501)。そのようなメディアプレイヤは、Apple (iPod)(登録商標)、RealNetworks(RealPlayer)(登録商標)、Microsoft (Windows Media Player)(登録商標)からのプレイヤ、又は他の任意のメディアプレイヤを含むことができる。 As shown in FIG. 5, the flowchart illustrates exemplary operation of the integrated wireless system of the present invention. The personal computer plays the media using an appropriate media player on its console (step 501). Such media players may include players from Apple (iPod), RealNetworks (RealPlayer), Microsoft (Windows Media Player), or any other media player. it can.
本発明のソフトウェアは、リアルタイムビデオをビデオバッファから直接キャプチャする(ステップ502)。そして、キャプチャされたビデオは、CODECを利用して、圧縮される(ステップ503)。同様に、音声は、計算デバイス上に動作する音声ソフトウェアを利用してキャプチャされ(ステップ504)、CODECを利用して圧縮される。 The software of the present invention captures real-time video directly from the video buffer (step 502). The captured video is then compressed using CODEC (step 503). Similarly, audio is captured using audio software running on the computing device (step 504) and compressed using CODEC.
一つの実施の形態において、本発明のソフトウェアは、ビデオを、ミラーディスプレイドライバとバーチャルビデオドライバからなるソフトウェアモジュールの実行を通してキャプチャする。一つの実施の形態において、このミラーディスプレイドライバとバーチャルディスプレイドライバは、コンピュータ上に実行し、本発明のソフトウェアをホストするオペレーティングシステムのカーネルモードのコンポネントとしてインストールされる。 In one embodiment, the software of the present invention captures video through execution of a software module consisting of a mirror display driver and a virtual video driver. In one embodiment, the mirror display driver and virtual display driver run on a computer and are installed as kernel mode components of an operating system that hosts the software of the present invention.
バーチャルデバイス用のミラーディスプレイドライバは、物理ディスプレイデバイスドライバの動作をミラーすることによって、物理ディスプレイデバイスドライバの動作をミラーする。一つの実施の形態において、「拡張ディスクトップ」又はコンピュータと連携された第2ディスプレイデバイスのコンテンツのキャプチャに、バーチャルディスプレイドライバが利用されると同時に、ミラーディスプレイドライバは、コンピュータと連携されたプライマリディスプレイのコンテンツのキャプチャに利用される。 The mirror display driver for the virtual device mirrors the operation of the physical display device driver by mirroring the operation of the physical display device driver. In one embodiment, a virtual display driver is used to capture the content of an “extended desktop” or second display device associated with a computer, while the mirror display driver is a primary display associated with the computer. Used to capture content.
使用中、オペレーティングシステムは、グラフィックとビデオコンテンツを、バーチャルディスプレイドライバとミラーディスプレイドライバのビデオメモリ上にレンダーリングする。従って、例えば、メディアプレイヤを利用してコンピュータによって再生されている任意のメディアも、これらのドライバの1つの上にレンダーリングされる。本発明のソフトウェアのアプリケーションコンポネントは、バーチャルディスプレイドライバ及びミラーディスプレイドライバのビデオメモリを、アプリケーション空間にマップする。 In use, the operating system renders graphics and video content onto the video memory of the virtual display driver and mirror display driver. Thus, for example, any media being played by a computer using a media player is also rendered on one of these drivers. The software application component of the present invention maps the video memory of the virtual display driver and mirror display driver to the application space.
このように、本発明のアプリケーションは、ビデオメモリへのポインターを取得する。本発明のアプリケーションは、マップされたビデオメモリからローカルに割り当てられたメモリへメモリをコピーすることで、ディスプレイに映されたリアルタイムイメージ(及び、従って、表示されているリアルタイムグラフィック又はビデオコンテンツ)をキャプチャする。 Thus, the application of the present invention obtains a pointer to the video memory. The application of the present invention captures real-time images shown on the display (and thus the displayed real-time graphics or video content) by copying the memory from mapped video memory to locally allocated memory. To do.
一つの実施の形態において、ミラーディスプレイドライバ及びバーチャルディスプレイドライバは、Windows 2000/NT互換性のオペレーティングシステム等のMicrosoftオペレーティングシステムのカーネル空間に動作する。図17に示すように、ディスプレイドライバ開発用のMicrosoft Windowsフレームワーク1700が図示されている。コンピュータ上に実行しているアプリケーション1701は、Win32 GDI(Graphics Display Interface)1702と呼ばれるグラフィックディスプレイインターフェースへコールを発行する。
In one embodiment, the mirror display driver and the virtual display driver operate in the kernel space of a Microsoft operating system, such as a Windows 2000 / NT compatible operating system. As shown in FIG. 17, a
GDI1702は、グラフィック出力要求を発行する。これらの要求は、カーネルモードGDI1705を含め、カーネル空間内に動作しているソフトウェアへルートされる。カーネルモードGDI1705は、カーネルモードグラフィックドライバ1706とアプリケーション1701の間を中間サポートする。カーネルモードGDI1705は、これらの要求を、ディスプレイドライバ1706又はプリンタドライバ(図示せず。)等の適当なミニポート1709又はグラフィックドライバへ送信する。
The
各ディスプレイドライバ(DDI)に対応するビデオミニポート1709がある。ミニポートドライバ1709は、一つのグラフィックアダプタ(又はアダプタのファミリ)用に書かれている。ディスプレイドライバ1706は、共通描画インターフェースを共有する任意の数のアダプタ用に書かれることができる。
There is a
これは、ミニポートドライバがモード設定等の動作を行ない、ハードウェア情報をドライバへ提供する間に、ディスプレイドライバが描画するためのである。1以上のディスプレイドライバは、特定のミニポートドライバを使って動作することも可能である。このアーキテクチャのアクティブコンポネントは、Win32−GDIプロセス1702とアプリケーション1701である。残りのコンポネント1705〜1710は、Win32−GDIプロセス1702から呼び出される。
This is because the display driver performs drawing while the miniport driver performs operations such as mode setting and provides hardware information to the driver. One or more display drivers can also operate using a specific miniport driver. The active components of this architecture are the Win32-
ビデオミニポートドライバ1709は、一般的に、他のカーネルコンポネント1703と相互作用する動作を扱う。例えば、ハードウェア初期化やメモリマッピング等の動作は、NT I/Oサブシステムによるアクションを要求する。ビデオミニポートドライバ1709の責任範囲は、ハードウェア構成、及び物理デバイスメモリマッピング等のソースマネジメントを含む。ビデオミニポートドライバ1709は、ビデオハードウェア専用のものである。
The
ディスプレイドライバ1706は、高頻度で要求されない動作、例えば、リソース管理、物理デバイスメモリマッピング、レジスタ出力が近い間隔で起きないことの保証、又は割り込みへの応答、には、ビデオミニポートドライバ1709を利用する。ビデオミニポートドライバ1709は、複数のハードウェア種類(ディスプレイドライバ内のハードウェア種依存性を最小化)のグラフィックカードとの相互作用でのモード設定、及び、ディスプレイドライバ1706のアドレス空間へのビデオレジスタのマッピングもハンドルする。
The
ミニポートへ書き込むために、ドライバライターが実行しなければならない特定機能がある。これらの機能は、ミニポートが相互作用するビデオポートに出力される。ミニポートにおいて、ドライバライターは、ビデオカード上のビデオメモリとレジスタの絶対アドレスを特定する。これらのアドレスは、最初は、バス相対的アドレスに変換され、そして、コールプロセスのアドレス空間内のバーチャルアドレスに変換される。 There are certain functions that the driver writer must perform to write to the miniport. These functions are output to the video port with which the miniport interacts. At the miniport, the driver writer specifies the absolute addresses of the video memory and registers on the video card. These addresses are initially converted to bus-relative addresses and then to virtual addresses in the call process address space.
ディスプレイドライバ1706の主な仕事は、レンダーリングである。アプリケーションがデバイス・インデペンデント・グラフィック要求と一緒にWin32機能をコールするとき、グラフィック・デバイス・インターフェース(GDI)1705は、これらの命令を翻訳し、ディスプレイドライバ1706をコールする。ディスプレイドライバ1706は、そして、これらの要求を、ビデオハードウェア用のコマンドに翻訳し、スクリーン上にグラフィックを図示する。
The main task of the
ディスプレイドライバ1706は、ハードウェアに直接アクセスできる。デフォルトでは、GDI1705は、フレームバッファを含むハードウェア等の上に、標準フォーマットビットマップの描画動作をハンドルする。ディスプレイドライバ1706は、ハードウェアが特定サポートのオファー用の任意の描画機能をフックでき、及び実装できる。グラフィックアダプタによってサポートされていない少ないタイムクリティカルな動作ともっと複雑な動作用に、ドライバ1706は、機能をGDI1705へ戻してプッシュでき、GDI1705が動作をすることを許可する。
The
特に、タイムクリティカルな動作のために、ディスプレイドライバ1706は、ビデオハードウェアレジスタへの直接アクセスを備えている。例えば、一部の図示及びテキスト動作用に、x86システム用のVGAディスプレイドライバは、ハードウェアレジスタへの直接アクセスの実行に、最適化されたアセンブリコードを利用する。
In particular, for time critical operation, the
レンダーリングは別として、ディスプレイドライバ1706は、サーフェースマネジメント及びパレットマネジメント等の他のオペレーションを行なう。図18に示すように、GDIとディスプレイドライバの間の複数の入力と出力を図示している。一つの実施の形態において、GDI1801は、DrvEnableDriverコマンド1810をディスプレイドライバ1802へ発行する。そして、GDI1801は、DrvEnablePDEVコマンド1811をディスプレイドライバ1802へ発行する。
Apart from rendering, the
そして、GDI1801は、ディスプレイドライバ1802からEngCreatePaletteコマンド1812を受信する。そして、GDI1801は、ディスプレイドライバ1802へDrvCompletePDEVコマンド1813を発行する。そして、GDI1801は、ディスプレイドライバ1802へDrvEnableSurfaceコマンド1814を発行する。そして、GDI1801は、ディスプレイドライバ1802からEngCreateDeviceSurfaceコマンド1815を受信し、ディスプレイドライバ1802からEngModifySurfaceコマンド1816を受信する。
The
図19に示すように、グラフィック生成システム用のソフトウェアアーキテクチャを図示している。ソフトウェアアーキテクチャ1900は、次のコンポネントを含むMicrosoftのDirectDraw(登録商標)を表す。
1.ユーザモードDirectDraw。これは、ロードされ、DirectDrawアプリケーションから呼び出されるものである。このコンポネントは、様々なDirectDrawオブジェクトをマネージするハードウェアエミュレーションを提供し、及び、ディスプレイメモリとディスプレイ・ハードウェア・マネジメント・サービスを提供する。
As shown in FIG. 19, a software architecture for a graphics generation system is illustrated.
1. User mode DirectDraw. This is what is loaded and called from the DirectDraw application. This component provides hardware emulation to manage various DirectDraw objects, and provides display memory and display hardware management services.
2.カーネルモードDirectDraw。これは、カーネルモードディスプレイドライバによってロードされるシステム提供のグラフィックエンジンである。DirectDrawのこの部分は、ドライバ用のパラーメータの検証を行ない、もっとロバストなドライバを実装することを容易にする。カーネルモードDirectDrawは、GDIとの同期化、及び、全てのクロスプロセスステートもハンドルする。 2. Kernel mode DirectDraw. This is a system-provided graphics engine that is loaded by the kernel mode display driver. This part of DirectDraw validates the parameters for the driver and makes it easier to implement a more robust driver. Kernel mode DirectDraw also handles synchronization with GDI and all cross-process states.
3.ディスプレイドライバのDirectDraw部分。これは、残りのディスプレイドライバと一緒に、グラフィックカードハードウェアベンダーによって実装されている。ディスプレイドライバの他の部分は、GDIと他の非DirectDraw関連コールをハンドルする。 3. DirectDraw part of the display driver. This is implemented by the graphics card hardware vendor along with the rest of the display driver. Other parts of the display driver handle GDI and other non-DirectDraw related calls.
DirectDraw1900は読み出されたら、DirectDrawドライバ1902を通してグラフィックカードに直接アクセスする。DirectDraw1900は、サポートされたハードウェア機能用にDirectDrawドライバ1902をコールし、又はソフトウェア内にエミュレートされなければならない機能用に、ハードウェアエミュレーションレイヤ(HEL)1903をコールする。GDI1905コールは、ドライバへ送信される。
When the
初期化及びモード変換中に、ディスプレイドライバは、DirectDraw1900へキャパビリティビットを返す。これは、使用可能なドライバ機能、それらのアドレス、及びディスプレイカードとドライバの性能(伸ばし、トランスペアレントビット、ディスプレイピッチ、及び他の詳細な特徴等)についての情報へDirectDraw1900がアクセスすることを可能にする。
During initialization and mode conversion, the display driver returns capability bits to
DirectDraw1900がいったんこの情報を持つと、GDIコールをしないで又はディスプレイドライバのGDI特定部分を利用しないで、ディスプレイカードへの直接アクセスにDirectDrawドライバを利用できる。アプリケーションからビデオバッファへ直接アクセスするために、ビデオメモリを、コール処理のバーチャルアドレス空間へ、マップすることが必要である。
Once
一つの実施の形態において、バーチャルディスプレイドライバとミラーディスプレイドライバは、通常のディスプレイドライバのアーキテクチャに由来し、ミニポートドライバ及び対応ディスプレイドライバを含む。従来のディスプレイドライバには、PCIバス又はAGPスロットにアタッチされた物理デバイスがある。ビデオメモリとレジスタは、GDIプロセスのアドレス空間にマップされた、又は、DirectDrawを利用してアプリケーションをキャプチャしている、ビデオカード上に物理的に表される。 In one embodiment, the virtual display driver and the mirror display driver are derived from a normal display driver architecture and include a miniport driver and a corresponding display driver. Conventional display drivers include physical devices attached to a PCI bus or AGP slot. Video memory and registers are physically represented on the video card that is mapped to the address space of the GDI process or that captures the application using DirectDraw.
しかし、本実施の形態において、物理ビデオメモリがない。オペレーティングシステムは、物理デバイスの存在(バーチャルデバイスと言う。)、及び、ビデオメモリとレジスタを表すもので、メインメモリ内の割り当てられたそのメモリに責任を負う。本発明のミニポートがロードされたとき、2.5MBのようなメモリのチャンクは、非ページ化プールメモリから予約される。このメモリは、ビデオメモリとしての役割をする。 However, in this embodiment, there is no physical video memory. The operating system represents the presence of a physical device (referred to as a virtual device) and video memory and registers, and is responsible for the allocated memory in main memory. When the miniport of the present invention is loaded, a chunk of memory, such as 2.5 MB, is reserved from nonpaged pool memory. This memory serves as a video memory.
このメモリは、そして、GDIプロセス(グラフィックの場合は、アプリケーションはオペレーションを描画する。)のバーチャルアドレス空間内にマップされる。本発明のディスプレイドライバは、メモリへのポインタを要求し、ミニポートは、RAM内に予約されたビデオメモリへポインタを返す。従って、ビデオメモリがRAM上に又はビデオカード上にあるかが、GDI及びディスプレイデバイスインターフェース(DDI)(又はDirectDrawの場合は、アプリケーション)にとってトランスペアレントである。 This memory is then mapped into the virtual address space of the GDI process (in the case of graphics, the application draws operations). The display driver of the present invention requests a pointer to memory, and the miniport returns a pointer to video memory reserved in RAM. Thus, whether the video memory is on RAM or on a video card is transparent to the GDI and Display Device Interface (DDI) (or application in the case of DirectDraw).
DDI又はGDIは、このメモリロケーション上にレンダーリングを行なう。また、本発明のミニポートは、オーバーレイ用に別途のメモリを割り当てる。Power DVD、Win DVD等のような特定アプリケーションとビデオ再生ソフトは、ビデオレンダーリング用にオーバーレイメモリを利用する。 DDI or GDI renders on this memory location. The miniport of the present invention also allocates a separate memory for overlay. Certain applications such as Power DVD, Win DVD, and video playback software use overlay memory for video rendering.
一つの従来の実施の形態において、レンダーリングは、DDIとGDIによって行なわれる。DDIがデバイス特有の動作を行うと共に、GDIは、一般デバイス・インデペンデント・レンダーリング動作を提供する。ディスプレイアーキテクチャは、GDIをDDIの上の層にし、DDIが権限をGDIへ移すという便利さを提供する。本発明の一つの実施の形態において、物理デバイスが無いので、デバイス特有の動作は無い。 In one conventional embodiment, rendering is performed by DDI and GDI. While DDI performs device specific operations, GDI provides general device independent rendering operations. The display architecture provides the convenience of making GDI a layer above DDI, and DDI transferring authority to GDI. In one embodiment of the invention, there is no physical device, so there is no device specific operation.
従って、本発明のディスプレイドライバは、レンダーリング動作をGDIへ移す。DDIは、ビデオメモリポインタを有するGDIを提供し、GDIは、Win32 GDIプロセスからの受信した要求に基いて、レンダーリングを行なう。同様に、本発明がDirectDrawと互換性がある場合は、レンダーリング動作は、DDIによってHEL(Hardware Emulation Layer)へ移される。 Therefore, the display driver of the present invention shifts the rendering operation to GDI. The DDI provides a GDI with a video memory pointer, which renders based on the received request from the Win32 GDI process. Similarly, if the present invention is compatible with DirectDraw, the rendering operation is transferred to HEL (Hardware Emulation Layer) by DDI.
一つの実施の形態において、本発明は、ロードされたとき、自身をプライマリディスプレイドライバへアタッチするミラードライバからなる。従って、プライマリディスプレイドライバへの全てのレンダーリングコールは、ミラードライバへルートされ、プライマリディスプレイドライバのビデオメモリ上にレンダーリングされたいかなるデータは、ミラードライバのビデオメモリ上にレンダーリングされる。このように、ミラードライバは、コンピュータディスプレイの複製用に利用される。 In one embodiment, the present invention comprises a mirror driver that attaches itself to a primary display driver when loaded. Thus, all render calls to the primary display driver are routed to the mirror driver, and any data rendered on the primary display driver's video memory is rendered on the mirror driver's video memory. Thus, the mirror driver is used for duplicating a computer display.
一つの実施の形態において、本発明は、ロードされたとき、拡張バーチャルドライバとして動作するバーチャルドライバからなる。バーチャルドライバがインストールされたとき、コンピュータのディスプレイプロパティ内の第2のドライバとして表れ、ユーザは、このディスプレイドライバへこのディスプレイを拡張するオプションをオンにする。 In one embodiment, the present invention comprises a virtual driver that, when loaded, operates as an extended virtual driver. When the virtual driver is installed, it appears as a second driver in the display properties of the computer and the user turns on the option to extend this display to this display driver.
一つの実施の形態において、ミラードライバとバーチャルドライバは、次の解像度をサポートする。640*480、800*600、1024*768、及び1280*1024。これらの解像度それぞれのために、ドライバは、8、16、24、32ビットのカラーの深み、及び60と75Hzのリフレッシュレートをサポートする。オーバーレイサーフェース上のレンダーリングは、YUV420フォーマットでされる。 In one embodiment, the mirror driver and virtual driver support the following resolutions: 640 * 480, 800 * 600, 1024 * 768, and 1280 * 1024. For each of these resolutions, the driver supports 8, 16, 24, 32 bit color depth and 60 and 75 Hz refresh rates. Rendering on the overlay surface is done in the YUV420 format.
一つの実施の形態において、ソフトウェアライブラリは、ミラー又はバーチャルデバイスドライバを利用して、コンピュータディスプレイのキャプチャをサポートするのに利用される。このライブラリは、これが初期化されたとき、アプリケーション空間内のミラーとバーチャルデバイスドライバ内に割り当てられたビデオメモリをマップする。キャプチャ機能において、ライブラリは、アプリケーションバッファに、マップされたビデオバッファをコピーする。このように、アプリケーションは、その特有の場合、コンピュータディスプレイのコピーを持つ。 In one embodiment, the software library is utilized to support capture of a computer display utilizing mirrors or virtual device drivers. When this library is initialized, it maps mirrors in the application space and video memory allocated in the virtual device driver. In the capture function, the library copies the mapped video buffer to the application buffer. Thus, the application has a copy of the computer display in its particular case.
オーバレイサーフェースをキャプチャするために、ライブラリは、ビデオバッファをアプリケーション空間にマップする。追加して、最後にレンダーリングされたオーバーレイサーフェースのアドレスを持つポインタも、アプリケーション空間にマップされる。このポインタは、ドライバ内にアップデートされる。オーバーレイメモリ上のレンダーリングが開始されるとき、ライブラリは、バーチャルディスプレイドライバから通知を取得する。 In order to capture the overlay surface, the library maps the video buffer to application space. In addition, a pointer with the address of the last rendered overlay surface is also mapped into the application space. This pointer is updated in the driver. When rendering on the overlay memory is initiated, the library gets a notification from the virtual display driver.
ディスプレイドライバは、カラーキー値のキャプチャライブラリを知らせる。メインビデオメモリのコピー後、ソフトウェアモジュール、CAPIは、ドライバ空間からマップされたポインタを利用してレンダーリングされた最後のオーバーレイサーフェースをコピーする。カラーキー値が存在するメインビデオメモリの長方形の領域上、要求次元へ引き伸ばした後、YUVからRGBへの変換し、RGBデータをペーストする。 The display driver informs the capture library of color key values. After copying the main video memory, the software module, CAPI, copies the last overlay surface rendered using a pointer mapped from the driver space. After extending to the required dimension on the rectangular area of the main video memory where the color key value exists, YUV is converted to RGB, and RGB data is pasted.
カラーキー値は、GDIによってメインビデオメモリ上にペーストされた特別な値であり、オーバーレイでコピーされなければならないデータがレンダーリングされたリージョンを表す。現在のWindows/NTオペレーティングシステムで動作するコンピュータ上の利用において、オーバレイは、拡張バーチャルデバイスドライバのみに応用でき、ミラードライバにはできない。その理由は、ミラードライバがアタッチされているとき、DirectDrawは自動的に無効になる。 The color key value is a special value pasted onto the main video memory by GDI and represents a region in which data to be copied with an overlay is rendered. For use on computers running the current Windows / NT operating system, overlay can only be applied to extended virtual device drivers, not mirror drivers. The reason is that DirectDraw is automatically disabled when the mirror driver is attached.
ビデオとグラフィックのキャプチャ方法とシステムは、Microsoftオペレーティングシステムに関して詳細に説明されたが、同様なミラーディスプレイドライバとバーチャルディスプレイドライバアプローチが他のオペレーティングシステムで動作しているコンピュータに利用できることは明らかである。 Although video and graphics capture methods and systems have been described in detail with respect to the Microsoft operating system, it is clear that similar mirror display driver and virtual display driver approaches are available for computers running on other operating systems.
一つの実施の形態において、音声は、従来コンピュータベースのオーディオプレイヤによって利用されるインターフェースを通してキャプチャされ、音声データを再生する。一つの実施の形態において、音声は、Microsoft WindowsとNTオペレーティングシステムと互換性のソフトウェアモジュールであるMicrosoft Windows Multimedia APIを利用してキャプチャされる。Microsoft Windowsマルチメディアライブラリは、アプリケーションへのインターフェースを提供し、waveOutコールを利用して音声デバイス上に音声データを再生する。 In one embodiment, audio is captured through an interface conventionally used by computer-based audio players to reproduce the audio data. In one embodiment, audio is captured using the Microsoft Windows Multimedia API, which is a software module compatible with Microsoft Windows and NT operating systems. The Microsoft Windows Multimedia Library provides an interface to the application and uses the waveOut call to play audio data on the audio device.
同様に、音声デバイスから音声データを録音するインターフェースを提供する。録音デバイス用のソースは、ラインイン、マイクロフォン、又は任意の他の指定ソースであることができる。アプリケーションは、データを録音しようとするとき、フォーマット(サンプリング周波数、サンプルビット)を指示できる。Windows/NT互換性のオペレーティングシステム計算環境内の、音声キャプチャ用の例示のステップは、次の通りである。 Similarly, an interface for recording audio data from an audio device is provided. The source for the recording device can be a line-in, a microphone, or any other specified source. The application can indicate the format (sampling frequency, sample bits) when attempting to record data. Exemplary steps for audio capture within a Windows / NT compatible operating system computing environment are as follows.
1.アプリケーションは、音声デバイスをwavelnOpen()機能を利用してオープンする。これは、録音する音声フォーマット、一度にキャプチャする音声データのサイズ、及び、音声データへの特定サイズが利用可能であるとき、コールするコールバック機能を指示する。
2.アプリケーションは、空の音声バッファの数をwavelnAddBuffer()コールを利用してwindows音声サブシステムへ渡す。
1. The application opens the audio device using the wavelnOpen () function. This indicates the callback function to call when the audio format to record, the size of the audio data to capture at a time, and the specific size to the audio data are available.
2. The application passes the number of empty audio buffers to the windows audio subsystem using the wavelnAddBuffer () call.
3.アプリケーションはwavelnStart()をコールし、キャプチャの開始を指示する。
4.特定サイズの音声データが利用可能なとき、Windows音声サブシステムは、アプリケーションによって渡された音声データを音声バッファの1つのアプリケーションへ渡して、コールバック機能をコールする。
3. The application calls wavelnStart () to instruct the start of capture.
4). When audio data of a specific size is available, the Windows audio subsystem passes the audio data passed by the application to one application in the audio buffer and calls the callback function.
5.アプリケーションは、音声データをこれのローカルバッファにコピーし、必要であれば、キャプチャを継続し、空の音声バッファをwavelnAddBuffer()を通してWindows音声サブシステムへ渡す。
6.アプリケーションがキャプチャを停止させる必要があるとき、アプリケーションは、wavelnClose()をコールする。
5. The application copies the audio data to its local buffer, continues to capture if necessary, and passes an empty audio buffer to the Windows audio subsystem through wavelnAddBuffer ().
6). When the application needs to stop capturing, the application calls wavelnClose ().
一つの実施の形態において、メディアプレイバックアプリケーションにステレオミックスオプションが選択され、音声が進行中にキャプチャされる。音声デバイスは、一般的に、出力ピンに再生されている音声を入力ピンへ戻して、音声をルートする性能を備えている。異なるシステムに異なる名前が付けられているが、一般に「ステレオミックス」と呼ばれる。 In one embodiment, the stereo mix option is selected for the media playback application and audio is captured on the fly. An audio device generally has the ability to route audio by returning the audio being played back to the output pin to the input pin. Although different systems have different names, they are commonly referred to as “stereo mixes”.
プレイバックオプションにステレオミックスオプションが選択されたら、デフォルト音声デバイスから、wavelnコールを利用して、音声が録音され、そして、システム上の再生されている音声がキャプチャできる等、システム上に再生されるもの全てが録音できる。特定アプローチが、利用されている特定音声デバイスの性能に依存することは明らかであり、上に教えたことに従って音声ストリームをどのようにキャプチャするかは当業者ができる。コンピュータとリモートデバイスからの音声の並列再生を防ぐために、入力ピンへルーティングされている音声をミュートしないで、(コンピュータ上の)ローカル音声がミュートされることも明らかである。 When the stereo mix option is selected for the playback option, the sound is recorded from the default audio device using the waveln call and played back on the system, such as the audio being played on the system can be captured. You can record everything. Obviously, the particular approach will depend on the performance of the particular audio device being utilized, and those skilled in the art will know how to capture the audio stream in accordance with what has been taught above. It is also clear that the local audio (on the computer) is muted without muting the audio routed to the input pins to prevent parallel playback of audio from the computer and the remote device.
他の実施の形態において、バーチャル音声ケーブル(VAC)と呼ばれるバーチャル音声ドライバは、デフォルトの再生及び/又は録音デバイスとして選択できるノーマル音声ドライバとしてインストールされる。VACの特徴は、デフォルトで、その音声出力ピンへ行く全ての音声をその入力ピンへルートする。従って、もし、VACがデフォルト再生デバイスとして選択されたら、システム上に再生されている全ての音声は、VACの出力ピンへ行き、従って、その入力ピンへ行く。 In another embodiment, a virtual audio driver called a virtual audio cable (VAC) is installed as a normal audio driver that can be selected as the default playback and / or recording device. The VAC feature, by default, routes all audio going to its audio output pin to its input pin. Thus, if VAC is selected as the default playback device, all audio playing on the system goes to the output pin of the VAC and therefore goes to its input pin.
任意のアプリケーションが音声を、waveln API等の適当なインターフェースを利用して、VACの入力ピンからキャプチャするとき、そして、そのシステム上に再生されている全てをキャプチャすることが可能である。VACを利用して音声をキャプチャするために、デフォルト音声デバイスとして選択されていなければならない。VACがいったんデフォルト音声デバイスとして選択されると、そして、ローカルスピーカ上の音声は聞こえない。 When any application captures audio from a VAC input pin using a suitable interface, such as the waveln API, then it is possible to capture everything being played on the system. In order to capture audio using VAC, it must be selected as the default audio device. Once VAC is selected as the default audio device, then no audio on the local speaker is heard.
前述したように、メディアは、受信機へ同期で同時に無線で送信される(ステップ505)。リモート監視デバイスとデータ通信している受信機は、圧縮されたメディアデータを受信する(ステップ506)。メディアデータは、そして、CODECを利用して、解凍される(ステップ507)。データは、最後に、ディスプレイデバイス上にレンダーリングされる(ステップ508)。 As described above, the media is wirelessly transmitted simultaneously to the receiver (step 505). A receiver in data communication with the remote monitoring device receives the compressed media data (step 506). The media data is then decompressed using CODEC (step 507). The data is finally rendered on the display device (step 508).
任意の送信プロトコルを用いて、メディアを送信することが可能である。しかし、クロック又はカウンタを利用して同期化されたビデオと音声データストリームを別々に、ハイブリッドTCP/UDPプロトコルに従って、送信することが好ましい。特に、クロック又はカウンタの列は転送され、各データストリームが時間順序付けられたことを示す。 Any transmission protocol can be used to transmit the media. However, it is preferable to send the synchronized video and audio data streams utilizing a clock or counter separately according to the hybrid TCP / UDP protocol. In particular, a clock or counter column is transferred to indicate that each data stream has been time ordered.
図6に示すように、上述のTCP/UDPハイブリッドプロトコルの実施の形態が図示されている。TCP/UDPハイブリッドプロトコル600は、20TCP、20IP、及び物理レイヤヘッダのサイズと等しいTCPパケットヘッダ601、並びに、8UDP、20IP、及び物理レイヤヘッダのサイズと等しいUDPパケットヘッダ602からなる。
As shown in FIG. 6, an embodiment of the above-described TCP / UDP hybrid protocol is illustrated. The TCP /
図7は、本発明に実装されたTCP/UDPリアルタイム(RT)送信プロトコルの機能ステップを図示したフローダイアグラムである。前に説明された送信機と受信機は、TCPを利用して接続を確立し(ステップ701)、送信機は、TCPを利用して、全ての参照フレームを送信する(ステップ702)。その後、リアルタイムパケットの残りを送信するのに、送信機は、ステップ701での接続確立に利用されたのと同じTCPポートを利用(ステップ703)するが、トランスポートプロトコルとしてUDPへスイッチする(ステップ704)。 FIG. 7 is a flow diagram illustrating the functional steps of the TCP / UDP real-time (RT) transmission protocol implemented in the present invention. The transmitter and receiver described previously establish a connection using TCP (step 701), and the transmitter transmits all reference frames using TCP (step 702). Thereafter, to send the rest of the real-time packet, the transmitter uses the same TCP port that was used to establish the connection in step 701 (step 703), but switches to UDP as the transport protocol (step 703). 704).
UDPを利用してリアルタイムパケットを送信する間に、送信機は、更に、送信の期限切りになったRTパケットの存在をチェックする。送信機は、IPとMAC間の送信機自身での期限切りフレームを処分する(ステップ705)。しかし、期限切り参照フレーム/パケットは、いつも送信される。このように、TCP/UDPプロトコルは、RTトラフィックとネットワークスループットのパフォーマンスを実質的に増やして、衝突をかなり低減する。 While transmitting real-time packets using UDP, the transmitter further checks for the presence of RT packets that have expired transmission. The transmitter discards the expired frame at the transmitter itself between the IP and the MAC (step 705). However, expired reference frames / packets are always transmitted. Thus, the TCP / UDP protocol substantially increases RT traffic and network throughput performance and significantly reduces collisions.
追加して、TCP/UDPプロトコルは、無線ネットワークを介してRT送信用の混雑信号法としてACKスプーフィングを利用するように適合される。無線ネットワークを介したRTトラフィックの送信は、遅くできる。これの一つの理由は、従来、各データブロックの送信後、次のブロック又はフレームの送信を再開する前に、TCPは、ACK信号の受信をあて先/受信機から要求する。 Additionally, the TCP / UDP protocol is adapted to utilize ACK spoofing as a congestion signaling method for RT transmission over a wireless network. The transmission of RT traffic over the wireless network can be slow. One reason for this is that, conventionally, after the transmission of each data block, the TCP requests the destination / receiver to receive an ACK signal before resuming transmission of the next block or frame.
IPネットワークに、特に無線ネットワークに、ネットワーク混雑による、高い確率のACK信号損失があり、特にRTトラフィックにも同様である。このように、TCPはフロー制御及び混雑制御の両方をするので、受信機からのACK信号の非受理等のシナリオのせいで、この混雑制御は、無線ネットワーク上の接続切断をまねく。 IP networks, especially wireless networks, have a high probability of ACK signal loss due to network congestion, especially for RT traffic. Thus, since TCP performs both flow control and congestion control, this congestion control results in disconnection on the wireless network due to a scenario such as non-acceptance of an ACK signal from the receiver.
接続切断を解決するには、一つの実施の形態において、本発明は、ネットワークに送信されたRTトラヒック用のACKスプーフィングを利用する。ACKスプーフィングを実装することで、もし受信機が特定の時間間隔内にいかなるACKを受診しないとき、送信機は、送信プロセスが再開できるように、TCP用に偽のACKを生成する。 To solve the disconnection, in one embodiment, the present invention utilizes ACK spoofing for RT traffic sent to the network. By implementing ACK spoofing, if the receiver does not see any ACK within a certain time interval, the transmitter generates a fake ACK for TCP so that the transmission process can resume.
代替の実施の形態において、混雑及びネットワークスループットの低減による低品質送信の場合に、送信機と受信機の間の接続が切れ、及び、新しいTCP接続が同じ受信機へオープンされる。これは、前の接続に関係した混雑問題をキレイに解決する。この送信方法は、複数の送信方法の単に一つであることは明らかであり、利用され、動作例で説明される。 In an alternative embodiment, in the case of low quality transmission due to congestion and reduced network throughput, the connection between the transmitter and the receiver is broken and a new TCP connection is opened to the same receiver. This neatly solves the congestion problem associated with the previous connection. It is clear that this transmission method is just one of a plurality of transmission methods, will be used and will be described in the operation example.
図8に示すように、統合無線システムのCODECのコンポネントを図示したブロックダイアグラムである。CODEC800は、ストリーミングコンテンツから時間冗長性を取り除く動き推定ブロック801、フレームを8*8ブロックピクセルに変換してDCTを行なうDCTブロック802、コンテンツを更に短いワードに符号化するVLCコーディング回路803、空間周波数をピクセルドメインへ戻して変換するIDCTブロック804、及び、メディア送信の高速化用のレート制御メカニズム805からなる。
FIG. 9 is a block diagram illustrating CODEC components of an integrated wireless system as shown in FIG. CODEC 800 is a motion estimation block 801 that removes temporal redundancy from streaming content, a
ビデオの隣接フレーム間の時間冗長性を利用することで、動き推定ブロック801を利用して、ビデオを圧縮する。動き推定に利用されたアルゴリズムは、ベストマッチングブロックを取得するのに、参照フレームの各ブロックは、現在フレームと比較されるフルサーチアルゴリズムであることが好ましい。このフルサーチアルゴリズムは、その用語通り、チェックポイントとしてサーチ領域の各ポイントを取り、参照フレームの全てのチェックポイントに対応するブロックと、現在フレームのブロックの間の全てのピクセルを比較する。そして、ベストチェックポイントが判定され、動作ベクトル値を取得する。
By using temporal redundancy between adjacent frames of the video, the
例えば、図9は、動き推定ブロックの一つの実施の形態の機能ステップを図示している。図に示したチェックポイントAとA1は、参照フレームのブロック902と904にそれぞれ対応する。もしチェックポイントAは、左下へ1ピクセル移動した場合、これがチェックポイントA1になる。このように、ブロック902は、左下へ1ピクセルシフトされたとき、ブロック904になる。
For example, FIG. 9 illustrates the functional steps of one embodiment of a motion estimation block. Checkpoints A and A1 shown in the figure correspond to
比較技術は、全ての対応するピクセルイメージ情報内の差異を計算し、そして、イメージ情報内の差異の絶対値の合計することによって行なわれる。最後に、絶対値の合計(SAD)が行なわれる。そして、全チェックポイント中、最小のSADを有するチェックポイントは、ベストチェックポイントとして、判定される。ベストチェックポイントに対応するブロックは、エンコードされる現在フレームのブロックと最も一致する参照フレームのブロックである。この2つのブロックは、動きベクトルを取得する。 The comparison technique is performed by calculating the differences in all corresponding pixel image information and summing the absolute values of the differences in the image information. Finally, a sum of absolute values (SAD) is performed. Then, the check point having the smallest SAD among all the check points is determined as the best check point. The block corresponding to the best checkpoint is the block of the reference frame that most closely matches the block of the current frame being encoded. These two blocks obtain a motion vector.
もどって図8に示すように、動き推定がいったん実行すると、ピクチャーは、DCTブロック802を介して、離散コサイン変換(DCT)を利用して符号化される。DCTコーディングスキームは、ピクセル(又はエラーターム)を特定コサイン基底ファンクションの強度に対応する係数セットに変換する。この離散コサイン変換(DCT)は、一般的に、ビデオ圧縮用のもっとも効率的な変換コーディング技術とみなされており、連続波形に比べ、ディジタルイメージデータのようなサンプルされたデータに応用されている。 Returning to FIG. 8, once motion estimation is performed, the picture is encoded using DCT block 802 using a discrete cosine transform (DCT). The DCT coding scheme converts pixels (or error terms) into coefficient sets that correspond to the strength of a particular cosine basis function. This discrete cosine transform (DCT) is generally regarded as the most efficient transform coding technique for video compression and is applied to sampled data such as digital image data compared to continuous waveforms. .
変換は、ピクセルの行と列の形のN(ポイント)の高度相関入力空間ベクトルを、高周波数係数が一般にゼロ値になった、DCT係数の行と列を含むNポイントDCT係数ベクトルへ変換するので、イメージ圧縮にDCTを利用することは都合が良い。ベクトルの各要素の二乗値によって定義された空間ベクトルのエネルギーは、DCT変換によって、保存される。低周波数及び高度相関空間イメージは、最低周波数DCT係数に圧縮され、象徴的全てのエネルギーも同様に保存される。 The transformation transforms an N (point) highly correlated input space vector in the form of pixel rows and columns into an N-point DCT coefficient vector containing rows and columns of DCT coefficients, with high frequency coefficients typically being zero values. Therefore, it is convenient to use DCT for image compression. The energy of the space vector defined by the square value of each element of the vector is saved by the DCT transform. The low frequency and high correlation spatial images are compressed to the lowest frequency DCT coefficient and all symbolic energy is preserved as well.
なおその上、人間の心理視覚系は、次のように、高周波数信号に対して低い感受性を持っている。高周波数DCT係数の式の正確な減少は、受け取られるイメージ品質に最小縮小をもたらす。一つの実施の形態において、DCTブロックの結果である8*8ブロックは、量子化行列によって分割され、DCT係数の大きさを低減する。そのような場合、人間の視覚に見えにくい傾向を持つもっとも高い周波数に関連する情報は、取り除かれる。結果は、整理し直されて、可変長コーディングブロック803へ送信される。
Moreover, the human psycho-visual system has low sensitivity to high frequency signals as follows. Accurate reduction of the high frequency DCT coefficient equation results in minimal reduction in received image quality. In one embodiment, the 8 * 8 block resulting from the DCT block is divided by the quantization matrix to reduce the magnitude of the DCT coefficients. In such cases, the information associated with the highest frequency that tends to be less visible to the human eye is removed. The result is rearranged and transmitted to the variable
可変長コーディング(VLC)ブロック803は、コードワードをエンコードされる値に割り当てる、統計的コーディングブロックである。発生の高い周波数値は、短いコードワードに割り当てられ、それらの少ない発生は、長いコードワードに割り当てられる。平均で、もっと頻繁な短いコードワードは、コードストリングが元のデータより短いように、そろえる。 A variable length coding (VLC) block 803 is a statistical coding block that assigns codewords to encoded values. High frequency values of occurrence are assigned to short codewords, and those low occurrences are assigned to long codewords. On average, more frequent short codewords are aligned so that the code string is shorter than the original data.
仕上がったDCT係数値レベルのコードと、ノンゼロDCT係数間のピクセル数の実行長さを生成するVLCコーディングは、ゼロ値DCT係数の数が最大のとき、高圧縮コードを生成する。VLCコーディングブロックから取得されたデータは、送信機へ適当なビットレートで転送される。毎秒転送されたデータの量は、ビットレートとして知られている。 VLC coding that generates a code of the finished DCT coefficient value level and the execution length of the number of pixels between the non-zero DCT coefficients generates a high compression code when the number of zero-value DCT coefficients is maximum. Data obtained from the VLC coding block is transferred to the transmitter at an appropriate bit rate. The amount of data transferred per second is known as the bit rate.
図10は、例示のディジタル信号波形及びデータ転送を図示している。垂直軸1001は、電圧を表し、水平軸1002は、時間を表す。Nがパルスのビット時間を表すとき、ディジタル波形は、パルス幅N及び、2Nの周期(又は繰り返し)を有する(例えば、情報が転送される間の時間)。パルス幅Nは、ナノ秒、マイクロ秒、ピコ秒等のような任意の単位時間であることが可能である。
FIG. 10 illustrates an exemplary digital signal waveform and data transfer. The
このように送信されることが可能な最大のデータレートは、毎秒1/N転送、又は半サイクルごとにデータの1ビット(時間ラベルの量N)である。ディジタル波形の基本周波数は、1/2Nヘルツである。一つの実施の形態において、簡易化されたレート制御は、採用され、MPEG2(登録商標)を利用する上述の方法に比べて、データのビットレートを50%増加させる。
より短い時間の結果、送信機へ転送されているデータの大きなチャンクは、処理をリアルタイムにしている。
The maximum data rate that can be transmitted in this way is 1 / N transfer per second, or 1 bit of data (time label amount N) every half cycle. The fundamental frequency of the digital waveform is 1 / 2N hertz. In one embodiment, simplified rate control is employed, which increases the bit rate of the data by 50% compared to the method described above using MPEG2®.
As a result of the shorter time, large chunks of data being transferred to the transmitter are processing in real time.
圧縮されたデータは、上述の送信プロトコルに従って、送信され、受信機によって無線で受信される。動きビデオ性能を提供するために、圧縮されたビデオ情報は、速く及び効率的にデコードされなければならない。好ましい実施の形態に利用されているデコーディング処理の態様は、逆離散コサイン変換(IDCT)である。逆離散コサイン変換(IDCT)は、変換ドメインデータを、空間ドメインの形式へ戻して変換する。 The compressed data is transmitted according to the transmission protocol described above and received wirelessly by the receiver. In order to provide motion video performance, compressed video information must be decoded quickly and efficiently. The aspect of the decoding process utilized in the preferred embodiment is the inverse discrete cosine transform (IDCT). Inverse discrete cosine transform (IDCT) transforms transform domain data back to a spatial domain format.
コーディング効率とハードウェア複雑の間の妥当を与える、一般に利用される2時限データブロックのサイズは、8*8ピクセルである。逆DCT回路は、ブロックバイブロックに基づいて、デコードされたビデオ信号の逆離散コサイン変換を行い、解凍されたビデオ信号を提供する。 The size of a commonly used two-timed data block that gives a balance between coding efficiency and hardware complexity is 8 * 8 pixels. The inverse DCT circuit performs an inverse discrete cosine transform of the decoded video signal based on a block-by-block and provides a decompressed video signal.
図11に示すように。IDCTブロックの処理及び選択的最適化のダイアグラムが図示されている。回路1100は、前処理DCT係数ブロック(以下、PDCTという。)1101、評価係数ブロック1102、選択IDCTブロック1103、計算IDCTブロック1104、監視フレームレートブロック1105、及び、調整IDCTパラーメータブロック1106を含む。動作において、送信機から受信された無線送信されたメディアは、PDCTブロック1101へルートされた様々なコード化されたDCT係数を含む。
As shown in FIG. A diagram of IDCT block processing and selective optimization is shown. The circuit 1100 includes a preprocessing DCT coefficient block (hereinafter referred to as PDCT) 1101, an
PDCTブロック1101は、様々なDCT係数をゼロ値へ選択的にセットして、ビデオ品質をわずかに低下させ又は低下なしで、逆離散コサイン変換手順の処理速度を増加させる。そして、DCT係数評価ブロック1102は、前処理されたDCT係数をPDCT1101から受信する。評価回路1102は、逆離散コサイン変換オペレーションの計算の前に、DCT係数ブロック内の係数を調べる。ノンゼロ係数の数に基づいて、逆離散コサイン変換(IDCT)選択回路1103は、係数処理のために、最適IDCT手順を選択する。
The
係数計算は、計算IDCTブロック1104によって行われる。一つの実施の形態において、いくつかの逆離散コサイン変換(IDCT)エンジンは、選択回路1103によって、選択的に有効にされ、利用できる。一般的に、逆離散コサイン変換された係数は、表示前に他のデータと結合される。その後、監視フレームレートブロック1105は、ビデオシステムの適当なフレームレートを判定する。
The coefficient calculation is performed by the
この判定は、例えば、システムブロックレジスタ(図示せず。)を読み込み、及び、経過時間を望ましいフレームレートに対応する事前格納されたフレーム間隔と比較することによって行なわれる。そして、この調整IDCTパラーメータブロック1106は、望ましい又は適切なフレームレートに従って、ノンゼロ係数閾値、周波数、及び、大きさを含むパラーメータを調整する。
This determination is made, for example, by reading a system block register (not shown) and comparing the elapsed time with a prestored frame interval corresponding to the desired frame rate. The adjustment
上述のIDCTブロックは、選択された適当なIDCT方法に従って、逆離散コサイン変換を計算する。例えば、8*8順方向離散コサイン変換(DCT)は、次の式で定義される。
逆離散コサイン変換(IDCT)は、次の式で定義される。
8*8IDCTは、それぞれ2次元周波数(v,u)の1基底行列の64直交DCT基底行列の組み合わせとみなされている。更に、各基底行列は、各シングル変換係数を1にセットした2次元IDCT変換であるとみなされている。8*8IDCTに64変換係数があるため、64基底行列がある。 8 * 8IDCT is regarded as a combination of 64 orthogonal DCT basis matrices of one basis matrix each having a two-dimensional frequency (v, u). Furthermore, each basis matrix is considered to be a two-dimensional IDCT transform with each single transform coefficient set to 1. Since there are 64 transform coefficients in 8 * 8 IDCT, there are 64 basis matrices.
IDCTカーネルK(v,u)は、次の式に従う周波数(v,u)での変換係数を表す、DCT基底行列とも呼ばれる。
[数3]
K(v,u)=.nu.(u).nu.(v)cos((2m+1).pi.u/16)cos((2n+1).pi.v/16)
ここで、.nu.(u)と.nu.(v)は、u=0のとき.nu.(u)=1/.sqroot.8、u>0のとき.nu.(u)=1/2として定義された規格化係数である。IDCTは、その場所で係数を変換して、各カーネルをスケーリングし、スケールされたカーネルの合計を持って、計算される。
The IDCT kernel K (v, u) is also called a DCT basis matrix that represents a transform coefficient at a frequency (v, u) according to the following equation.
[Equation 3]
K (v, u) =. Nu. (U) .nu. (V) cos ((2m + 1) .pi.u / 16) cos ((2n + 1) .pi.v / 16)
Where .nu. (U) and .nu. (V) are when u = 0.nu. (U) = 1 / .sqroot.8, when u> 0.nu. (u) = 1 A normalization factor defined as / 2. The IDCT is computed by transforming the coefficients at that location, scaling each kernel, and having the sum of the scaled kernels.
空間ドメイン行列Sは、次の式を利用して取得される。
前に議論したように、様々なメディアストリームは、多重化され、シングルストリームとして送信されることが可能であると同時に、メディアデータストリームを同期して別々に送信することが好ましい。図12に示すように、統合無線システムの同期メディアデータの同期化回路のコンポネントを図示したブロックダイアグラムが図示されている。 As previously discussed, the various media streams can be multiplexed and transmitted as a single stream, while preferably simultaneously transmitting the media data streams separately. As shown in FIG. 12, a block diagram illustrating components of a synchronization media data synchronization circuit of an integrated wireless system is illustrated.
同期化回路1200は、送信機1206では、ビデオと音声メディアを有するバッファ1201、ビデオ送信用の第1ソケット1202、音声送信用の第2ソケット1203、第1カウンタ1204、及び第2カウンタ1205、並びに、受信端1213では、ビデオデータ用の第1受信機1207、音声データ用の第2受信機1208、第1カウンタ1209、第2カウンタ1210、ミクサー1211及びバッファ1212からなる。
In the transmitter 1206, the synchronization circuit 1200 includes a
動作的に、圧縮後、送信機1206でバッファされた音声及びビデオデータ1201は、第1ソケット1202及び第2ソケット1203に別々に送信される。カウンタ1204、1205は、送信前に、ビデオと音声データの両方に同一シーケンス番号を付加する。一つの実施の形態において、音声データは、ユーザー・データグラム・プロトコル(UDP)を介して、ビデオデータは、伝送制御プロトコル(TCP)を介して、ルートされることが好ましい。
In operation, after compression, the audio and
受信端1213では、音声受信機ブロック1208とビデオ受信機ブロック1207によって実装されたUDPプロトコルとTCPプロトコルは、音声及びビデオ信号を受信する。カウンタ1209、1210は、音声及びビデオ信号からのシーケンス番号を判定し、これをミクサー1211へ提供して、信号の正確なミキシングを可能にする。ミックスされたデータは、バッファ1212に格納され、そして、リモートモニタによってレンダーリングされる。
At the receiving end 1213, the UDP protocol and the TCP protocol implemented by the
図13に示すように、フローチャートは、本発明の統合無線システムの音声及びビデオ信号の同期化の他の実施の形態を図示している。最初は、受信機は、エンコードされたビデオデータとエンコードされた音声データのストリームを無線で受信する(ステップ1301)。そして、エンコードされたストリームのビデオの部分と音声の部分を処理するために、受信機は、要求時間を確かめる(ステップ1302)。 As shown in FIG. 13, the flow chart illustrates another embodiment of audio and video signal synchronization of the integrated wireless system of the present invention. Initially, the receiver wirelessly receives a stream of encoded video data and encoded audio data (step 1301). Then, to process the video and audio portions of the encoded stream, the receiver ascertains the requested time (step 1302).
その後、受信機は、エンコードされたストリームのビデオの部分の処理時間を、エンコードされたストリームの音声の部分の処理時間と比較して、時間の差異を判定する(ステップ1303)。受信機は、どの処理時間が大きい(例えば、ビデオ処理時間又は音声処理時間)かを続いて確立する(ステップ1304)。 The receiver then compares the processing time of the video portion of the encoded stream with the processing time of the audio portion of the encoded stream to determine a time difference (step 1303). The receiver subsequently establishes which processing time is large (eg, video processing time or audio processing time) (step 1304).
もし、音声処理時間が大きいとき、ビデオプレゼンテーションは、判定による差異時間で遅延され(ステップ1305)、従って、デコードされたビデオデータをデコードされた音声データと同期化する。しかし、もし、ビデオ処理時間が大きいとき、音声プレゼンテーションは、遅延されないで、その固定レートで再生される(ステップ1306)。 If the audio processing time is large, the video presentation is delayed by the difference time due to the decision (step 1305), thus synchronizing the decoded video data with the decoded audio data. However, if the video processing time is large, the audio presentation is played back at its fixed rate without being delayed (step 1306).
一定間隔で、ビデオフレームを処分することによって、ビデオプレゼンテーションは、音声プレゼンテーションに追い付くことを試みる。そして、データは、最後に、リモートモニタ上にレンダーリングされる(ステップ1307)。従って、音声がビデオを「リードする」の意味は、ビデオはそれ自身を音声と同期化することである。 By discarding the video frames at regular intervals, the video presentation attempts to catch up with the audio presentation. The data is finally rendered on the remote monitor (step 1307). Thus, the meaning of audio “leading” video is that the video synchronizes itself with the audio.
特定の実施の形態において、デコードされたビデオデータは、デコードされた音声データと実質的に同期化されている。この実質的に同期化されたの意味は、ビデオデータのプレゼンテーションと、それに対応する音声データのプレゼンテーションの間には、微小な、理論的に測定可能な差異があることは可能であるが、音声とビデオデータのプレゼンテーションのそのような小さな差異は、上演されているビデオと音声データを視聴しているユーザに気づかれる可能性は低い。 In certain embodiments, the decoded video data is substantially synchronized with the decoded audio data. This substantially synchronized means that there can be a small, theoretically measurable difference between the presentation of video data and the corresponding presentation of audio data, but audio Such a small difference between the presentation of video data and video data is unlikely to be noticed by users viewing the video and audio data being performed.
一般的なトランスポートストリームは、実質的に固定レートで受信される。この場合、ビデオプレゼンテーション又は音声プレゼンテーションに適用した遅延は、頻繁に変更される可能性は低い。このように、ビデオプレゼンテーション又は音声プレゼンテーションに現在適用された遅延が特定の閾値内(例えば、視覚的に又は音声的に認識できない。)にあることを確かめるために、上述の手順が定期的に(例えば、数秒毎に、又は受信した30ビデオフレーム毎に)行なわれることが可能である。代替的に、この手順は、トランスポートストリームから受信したビデオデータの新しいフレーム毎に行なわれることが可能である。 A typical transport stream is received at a substantially fixed rate. In this case, the delay applied to the video presentation or audio presentation is unlikely to change frequently. Thus, to ensure that the delay currently applied to the video presentation or audio presentation is within a certain threshold (eg, visually or audio not recognizable), the above procedure is performed periodically ( For example, every few seconds or every 30 video frames received. Alternatively, this procedure can be performed for each new frame of video data received from the transport stream.
図14に示すように、音声とビデオ同期化回路の他の実施の形態が図示されている。送信端1401での同期化回路1400は、メディアデータを有するバッファ1402、グラフィック、テキスト、音声、及び、ビデオ信号等のメディアデータ信号の合成用の多重機1403、及び、同期化用にメディアコンテンツへタイムスタンプを提供する
クロック1404からなる。
As shown in FIG. 14, another embodiment of an audio and video synchronization circuit is shown. A
受信端1405では、分離器1406は、クロック1407を利用して、データストリームを個別のメディアデータストリームへ分離する。クロックによって提供されたタイムスタンプは、受信端で音声及びビデオの同期化に役立つ。クロックは、受信機での周波数と、同じ周波数に設定される。分離された音声とビデオは、レンダーリング用にスピーカ1408及び表示デバイス1409へルートされる。
At the receiving
一つの実施の形態において、本発明は、本発明の新規ソフトウェアを、計算デバイス又はリモートモニタ上に、自動的にダウンロード、インストール、及びアップデータするシステム及び方法を提供する。リモートモニタ、リモートモニタ内の受信機、計算デバイス、又は計算デバイス内の送信機上に、ソフトウェアプログラムをインストールするのに、ソフトウェアCDは、要求されない。 In one embodiment, the present invention provides a system and method for automatically downloading, installing, and updating the new software of the present invention on a computing device or remote monitor. A software CD is not required to install the software program on the remote monitor, the receiver in the remote monitor, the computing device, or the transmitter in the computing device.
例としては、無線プロジェクタと通信しているパーソナルコンピュータが提供され、一般的な機種であるが、計算デバイスとリモートモニタの任意の組み合わせに応用できる。パーソナルコンピュータと無線プロジェクタの両方は、上述したような処理システムオンチップとデータ通信していると、仮定する。 As an example, a personal computer communicating with a wireless projector is provided and is a general model, but can be applied to any combination of a computing device and a remote monitor. Assume that both the personal computer and the wireless projector are in data communication with a processing system on chip as described above.
開始時、無線プロジェクタ(WP−AP)は、アクセスポイントとして自身を構成するために、スクリプトを実行する。WP−APは、「xxxxxx」がAPのMACアドレスの下6バイトであるとき、QWPxxxxxxとしてSSIDを設定する。WP−APは、そのIPアドレスを10.0.0.1として設定する。WP−APは、HTTPサーバを開始する。 At the start, the wireless projector (WP-AP) executes a script to configure itself as an access point. The WP-AP sets the SSID as QWPxxxxxx when “xxxxxxxx” is the lower 6 bytes of the MAC address of the AP. The WP-AP sets its IP address as 10.0.0.1. The WP-AP starts an HTTP server.
WP−APは、次のコンフィグレーションファイル内の設定でDHCPサーバを開始する。
開始アドレス: 10.0.0.3
終了アドレス: 10.0.0.254
DNS: 10.0.0.1
デフォルトゲートウェイ: 10.0.0.1
[アドレスの第2及び第3オクテットは、設定可能である。]
The WP-AP starts the DHCP server with the settings in the next configuration file.
Start address: 10.0.0.3
End address: 10.0.0.254
DNS: 10.0.0.1
Default gateway: 10.0.0.1
[The second and third octets of the address are configurable. ]
WP−APは、任意のDNSクエリー用に10.0.0.1(WP−APのアドレス等)を返信するように構成された、小さなDNSサーバを開始する。WP−APのIPアドレスが変化すると、応答のIPアドレスが変化される。HTTPサーバのデフォルトページは、ソフトウェアの自動アップデータを行なう、Java Appletのような小さなソフトウェアプログラムを備えている。 The WP-AP starts a small DNS server that is configured to send back 10.0.0.1 (such as the address of the WP-AP) for any DNS query. When the IP address of the WP-AP changes, the IP address of the response is changed. The default page of the HTTP server includes a small software program such as Java Applet that performs automatic software updater.
デフォルトページが任意の種類のHTTP要求でいつもアクセスされていることを確認するために、HTTPサーバのエラーページは、デフォルトページへリダイレクトする。これは、ブラウザ上のデフォルトページが、例えば、次のようなディレクトリを有するとき、起こりえる。
(公序良俗違反につき、不掲載)isapi/redir.dll?prd=ie&pver=6&=msnhomeIn order to make sure that the default page is always accessed with any kind of HTTP request, the HTTP server error page redirects to the default page. This can happen when the default page on the browser has, for example, the following directory:
(Not published for public order and morals violation) isapi / redir.dll? Prd = ie & pver = 6 & = msnhome
自身のシステムオンチップ及び送信機を通してWP−APは、アクセスポイントとしての自身の存在を知らせる。ユーザの計算デバイスは、既存の無線通信プロトコルと規格に従って無線で情報の送信と受信ができる送受信機を備えている。ユーザの計算デバイスは、アクセスポイントとして、無線プロジェクタの存在を認識する。ユーザは、計算デバイスに、当業者に知られたグラフィカルユーザインターフェースを通して、アクセスポイントに参加するように、指示する。 The WP-AP informs its existence as an access point through its system on chip and transmitter. The user computing device includes a transceiver capable of transmitting and receiving information wirelessly according to existing wireless communication protocols and standards. The user's computing device recognizes the presence of the wireless projector as an access point. The user instructs the computing device to join the access point through a graphical user interface known to those skilled in the art.
無線プロジェクタのアクセスポイントに参加した後、ユーザは、計算デバイス上のウェブブラウザアプリケーションをオープンし、ダイアログボックスへ、任意のURLをタイプし、又は、デフォルトURLへブラウザを戻すことを許可する。ウェブブラウザのオープニングは、WP−AP HTTPサーバのデフォルトページにアクセスし、ソフトウェアプログラム(Java Applet等)の初期化をもたらす。 After joining the wireless projector access point, the user opens a web browser application on the computing device and allows any URL to be typed into a dialog box or returned to the default URL. The opening of the web browser accesses the default page of the WP-AP HTTP server and causes initialization of the software program (such as Java Applet).
一つの実施の形態において、ソフトウェアプログラムは、ユーザのブラウザがこれをサポートしているかをチェックし、ソフトウェアの自動アップデータを処理する。残りの例は、Javaとの関係で説明されるが、任意のソフトウェアプログラム言語が利用できることが明らかである。 In one embodiment, the software program checks whether the user's browser supports it and processes the software automatic updater. The remaining examples are described in relation to Java, but it is clear that any software programming language can be used.
ブラウザにJavaがサポートされているとき、appletは、ここで説明されたメディア送信方法を実行するに必要なソフトウェアとドライバがすでにインストールされたかをチェックする。すでに存在するとき、Java Appletは、バージョンを比較し、そして、計算デバイスソフトウェアバージョンがリモートモニタ上のバージョンより古いとき、インストールを自動的に初期化する。 When the browser supports Java, applet checks to see if the software and drivers necessary to perform the media delivery method described here are already installed. When already present, Java Applet compares versions and automatically initializes the installation when the computing device software version is older than the version on the remote monitor.
ブラウザにJavaがサポートされないとき、ユーザのウェブページは、インストール実行へリダイレクトされ、ユーザにこれを保存又は実行するプロンプトを表す。このページは、また、インストールをどのように保存し、実行するかの説明も表示する。インストールプログラムは、また、ユーザがソフトウェアをすでにインストールしている、及び必要なバージョンがアップデータされたか否かをチェックする。この場合は、ユーザがJavaをインストールするように薦める。 When Java is not supported in the browser, the user's web page is redirected to run the installation and represents a prompt for the user to save or execute it. This page also displays instructions on how to save and run the installation. The installation program also checks whether the user has already installed the software and whether the required version has been updated. In this case, it is recommended that the user install Java.
第1の実施の形態において、WP−APのDNS用の開始アドレスは、10.0.0.2である。WP−APは、イーサネット接続用にDHCPクライアントを実行し、ローカルエリアネットワーク上のDHCPサーバからIP、ゲートウェイ、サブネット、及びDNSのアドレスを取得する。DHCPが無効のとき、スタティック値を利用する。インストールプログラムは、アプリケーション、アンインストール、及びドライバをインストールする。 In the first embodiment, the DNS start address of the WP-AP is 10.0.0.2. The WP-AP executes a DHCP client for Ethernet connection, and obtains IP, gateway, subnet, and DNS addresses from a DHCP server on the local area network. When DHCP is disabled, a static value is used. The installation program installs an application, uninstallation, and driver.
アプリケーションは、自動的にランチされる。接続時、アプリケーションは、WP−APのイーサネットポートのDNSアドレスを取得し、これをローカルマシン上に設定する。接続確立後、WP−APは、IP転送を可能にし、ファイアウォールを次のように設定する。これは、接続されたアプリケーションからのパケットのみを、イーサネット及びその逆に転送する。これらの設定は、ユーザをWP−APのイーサネットローカルエリアネットワークへアクセスすること、インターネットへのアクセスすることを可能にする。 The application is automatically lunched. At the time of connection, the application acquires the DNS address of the WP-AP Ethernet port and sets it on the local machine. After establishing the connection, the WP-AP enables IP forwarding and sets the firewall as follows. This forwards only packets from connected applications to Ethernet and vice versa. These settings allow the user to access the WP-AP's Ethernet local area network and the Internet.
アプリケーションがWP−APへ接続されたユーザのみがLAN/イーサネットへアクセスできることを、ファイアウォールが確認する。切断時、WP−APは、IP転送を無効にし、ファイアウォール設定をリストールする。ユーザシステム上に実行しているアプリケーションは、DNS設定を10.0.0.1に設定する。アプリケーションの終了時、DNS設定はDHCPに設定される。 The firewall verifies that only users connected to the WP-AP can access the LAN / Ethernet. When disconnected, the WP-AP disables IP forwarding and restores the firewall settings. An application running on the user system sets the DNS setting to 10.0.0.1. At the end of the application, the DNS settings are set to DHCP.
他の実施の形態において、インストール時、ユーザは、計算デバイスがゲートウェイとして振舞うか否かを選ぶように、プロンプトされる。応答に依存して、適当なドライバ、ソフトウェア、及び、スクリプトがインストールされる。 In other embodiments, during installation, the user is prompted to choose whether the computing device behaves as a gateway. Depending on the response, appropriate drivers, software and scripts are installed.
今度、図15に示すように、本発明のソフトウェアの自動ダウンロード、アップデート用の他の例示の構成が図示されている。無線プロジェクタアクセスポイントは、10.A.B.1に設定されたIPアドレスを有し、ゲートウェイシステムは、10.A.B.2に設定されたIPアドレスを有する。ここで、AとBのオクテットは、ユーザによって変更できる。 Now, as shown in FIG. 15, another exemplary configuration for automatic downloading and updating of the software of the present invention is shown. The wireless projector access point has an IP address set to 10.A.B.1, and the gateway system has an IP address set to 10.A.B.2. Here, the octets of A and B can be changed by the user.
WP−APは、ブートされる。ユーザの計算デバイスは、利用可能な無線ネットワークをスキャンし、QWPxxxxxxを選択する。計算デバイスの無線構成は、有効な自動TCP/IP構成を有しなければならない。例えば、「IPアドレスを自動的に取得」と、「DNSサーバアドレスを自動的に取得」のオプションはチェックされなければならない。計算デバイスは、10.0.0.3から10.0.0.254までアドレスからIPアドレスを自動的に取る。デフォルトゲートウェイとDNSは、10.0.0.1として設定される。 The WP-AP is booted. The user's computing device scans for available wireless networks and selects QWPxxxxxx. The wireless configuration of the computing device must have a valid automatic TCP / IP configuration. For example, the options “Obtain IP address automatically” and “Obtain DNS server address automatically” must be checked. The computing device automatically takes an IP address from an address from 10.0.0.3 to 10.0.0.254. The default gateway and DNS are set as 10.0.0.1.
ユーザは、ブラウザをオープンし、Javaがサポートされているとき、ソフトウェアのアップデータが自動的に開始される。Javaがサポートされていないとき、ユーザは、インストールを保存するようプロンプトされ、これを手動で実行する。もし、計算デバイスが、インターネット等のネットワークへのゲートウェイとして動作しないとき、インストール中、ユーザは、ゲートウェイオプションに「いいえ」を選択する。 The user opens a browser and the software updater is automatically started when Java is supported. When Java is not supported, the user is prompted to save the installation and runs this manually. If the computing device does not act as a gateway to a network such as the Internet, during installation, the user selects “No” for the gateway option.
インストールは、スクリプトを実行して、DNSを10.0.0.2に設定する。次のDNSクエリーは、適当にリダイレクトされるようにする。アプリケーションリンクは、デスクトップ上に作成される。ユーザは、アプリケーションを実行する。アプリケーションは、プロジェクタへユーザの画面の正確なコンテンツの送信を開始する。要求されたら、ユーザは、WP−AP構成(SSID、チャネル、IPアドエス設定:第2及び第3オクテットは、10.0.0.xに変更できる。)を変更できる。 The installation executes the script and sets DNS to 10.0.0.2. The next DNS query should be redirected appropriately. Application links are created on the desktop. A user executes an application. The application starts sending the correct content of the user's screen to the projector. If requested, the user can change the WP-AP configuration (SSID, channel, IP address settings: second and third octets can be changed to 10.0.0.x).
もし、計算デバイスは、インターネット等のネットワークへのゲートウェイとして動作するとき、インストール中、ユーザは、プロンプトされたとき、ゲートウェイオプションの「はい」を選択する。インストールは、イーサネットインターフェース(共有は、Windows 2000及びWindows XPの両方に、ネットワークインターフェースのプロパーティ内のオプションである。)上にインターネット共有(IP転送)を可能にし、システムの無線インターフェースIPを10.0.0.2に設定、システムの無線インターフェースネットマスクを255.255.255.0に設定、及び、システムの無線インターフェースゲートウェイを10.0.0.1に設定する。 If the computing device acts as a gateway to a network such as the Internet, during installation, the user selects the gateway option “Yes” when prompted. Installation enables Internet sharing (IP forwarding) over Ethernet interface (sharing is an option within the network interface pro party for both Windows 2000 and Windows XP), and the system's wireless interface IP to 10.0. Set to 0.2, set system radio interface netmask to 255.255.255.0, and set system radio interface gateway to 10.0.0.1.
アプリケーションリンクは、デスクトップ上に作成される。ユーザは、アプリケーションを次のように実行する。アプリケーションは、プロジェクタへユーザの画面の正確なコンテンツの送信を開始する。要求されたら、ユーザは、WP−AP構成(SSID、チャネル、IPアドレスの設定:第2と第3オクテットは、10.0.0.xに変更できる。)は変更できる。 Application links are created on the desktop. The user executes the application as follows. The application starts sending the correct content of the user's screen to the projector. If requested, the user can change the WP-AP configuration (SSID, channel, IP address settings: second and third octets can be changed to 10.0.0.x).
本発明は、計算デバイスから、1以上のリモートモニタリングデバイス又は他の計算デバイスへ、メディアのリアルタイム送信を可能にすることは明らかである。図16に示すように、本発明の統合無線マルチメディアシステムの他のアレンジメントは図示されている。この特定の実施の形態において、送信機1601及び複数の受信機1602、1603、1604の間の通信が図示されている。
Obviously, the present invention enables real-time transmission of media from a computing device to one or more remote monitoring devices or other computing devices. As shown in FIG. 16, another arrangement of the integrated wireless multimedia system of the present invention is shown. In this particular embodiment, communication between a
送信機1601は、メディアを、リアルタイムレンダーリング用に、複数のデバイス1601、1602、及び1603へ統合された、又は、データ通信している、受信機へ無線で送信する。代替の実施の形態において、上述のソフトウェアは、ミラーキャプチャモードと拡張モードの両方に利用されることができる。ミラーキャプチャモードにおいて、コンテンツのリアルタイムストリーミングは、送信端及び受信端の両方で表示されている同一コンテンツで行なわれる。しかし、拡張モードにおいては、ユーザは、送信側で多少他のアプリケーション上に作業でき、送信は、バックエンドプロセスとして継続できる。
The
上の例は、本発明のシステムのたくさんの応用の単に実例に過ぎない。本発明のほんのわずかな実施の形態がここで説明されたが、本発明の精神と範囲から逸脱することなく、他の特定の形式で実施されることが可能である。例えば、本発明の範囲と趣旨内にあれば、送信機、ネットワーク、及び受信機の他の構成が利用できる。従って、本実例及び実施の形態は、限定ではなく、実例と考えられ、本発明は、ここで示された詳細内容に制限されないが、添付請求項の範囲内に修正可能である。 The above examples are merely illustrative of the many applications of the system of the present invention. Although only a few embodiments of the present invention have been described herein, it can be implemented in other specific forms without departing from the spirit and scope of the present invention. For example, other configurations of transmitters, networks, and receivers can be used within the scope and spirit of the present invention. Accordingly, the examples and embodiments are to be regarded as illustrative rather than restrictive, and the invention is not limited to the details shown, but may be modified within the scope of the appended claims.
Claims (19)
計算デバイス上に、少なくとも音声データ及びビデオデータからなる前記メディアを再生するステップ、
ミラーディスプレイドライバを利用して前記ビデオデータをキャプチャするステップ、
入力ソースから前記音声データをキャプチャするステップ、
前記キャプチャされた音声及びビデオデータを圧縮するステップ、及び、
送信機を利用して前記圧縮された音声及びビデオデータを送信するステップ
からなることを特徴とするメディアのキャプチャ及び無線送信方法。 In a method for capturing media from a source and transmitting the media wirelessly,
Playing the media comprising at least audio data and video data on a computing device;
Capturing the video data using a mirror display driver;
Capturing the audio data from an input source;
Compressing the captured audio and video data; and
A method for capturing media and transmitting wirelessly, comprising: transmitting the compressed audio and video data using a transmitter.
前記メディアを受信機で受信し、前記キャプチャされた音声及びビデオデータを解凍し、及び、前記解凍された音声及びビデオデータを、前記ソースからリモートのディスプレイ上に再生するステップと
からなることを特徴とするメディアのキャプチャ及び無線送信方法。 The method of capturing and wirelessly transmitting media according to claim 1.
Receiving the media at a receiver, decompressing the captured audio and video data, and playing the decompressed audio and video data on a remote display from the source. A media capture method and a wireless transmission method.
前記送信機及び受信機は、TCPを利用して接続を確立し、前記送信機は、UDPを利用してビデオデータのパケットを送信する
ことを特徴とするメディアのキャプチャ及び無線送信方法。 The media capture and wireless transmission method according to claim 2,
The method of capturing and wirelessly transmitting media, wherein the transmitter and the receiver establish a connection using TCP, and the transmitter transmits a packet of video data using UDP.
前記メディアは、更に、グラフィック及びテキストデータからなり、及び、
前記グラフィック及びテキストデータは、ミラーディスプレイドライバを利用して前記ビデオデータと一緒にキャプチャされる
ことを特徴とするメディアのキャプチャ及び無線送信方法。 The method of capturing and wirelessly transmitting media according to claim 1.
The media further comprises graphic and text data, and
The method of capturing and wirelessly transmitting media, wherein the graphic and text data are captured together with the video data using a mirror display driver.
前記ビデオデータをCODECを利用して処理するステップ
からなることを特徴とするメディアのキャプチャ及び無線送信方法。 The method of capturing and wirelessly transmitting media according to claim 1.
A method of capturing media and transmitting wirelessly, comprising: processing the video data using CODEC.
前記CODECは、動き推定ブロックを利用して、前記ビデオデータから、時間冗長性を取り除く
ことを特徴とするメディアのキャプチャ及び無線送信方法。 The method of capturing and wirelessly transmitting media according to claim 1.
The CODEC removes temporal redundancy from the video data using a motion estimation block. A media capture and wireless transmission method according to claim 1, wherein:
前記CODECは、DCTブロックを利用して、ビデオデータのフレームを、8*8ブロックのピクセルに変換する
ことを特徴とするメディアのキャプチャ及び無線送信方法。 The method of capturing and wirelessly transmitting media according to claim 1.
The CODEC uses a DCT block to convert a frame of video data into 8 * 8 block pixels. A method for capturing and wirelessly transmitting media.
前記CODECは、VLCコーディング回路を利用して、ビデオコンテンツを短いワードに符号化する
ことを特徴とするメディアのキャプチャ及び無線送信方法。 The method of capturing and wirelessly transmitting media according to claim 1.
The CODEC encodes video content into a short word using a VLC coding circuit. A method for capturing and wirelessly transmitting media.
前記CODECは、IDCTブロックを利用して、前記ビデオデータの空間周波数をピクセルドメインに戻して変換する
ことを特徴とするメディアのキャプチャ及び無線送信方法。 The method of capturing and wirelessly transmitting media according to claim 1.
The CODEC uses an IDCT block to convert the spatial frequency of the video data back to the pixel domain and convert it. A method for capturing and wirelessly transmitting media.
前記CODECは、メディア送信の速度向上用に、レート制御メカニズムからなる
ことを特徴とするメディアのキャプチャ及び無線送信方法。 The method of capturing and wirelessly transmitting media according to claim 1.
The CODEC comprises a rate control mechanism for improving the speed of media transmission.
前記ビデオデータをキャプチャするためにカーネルモードで動作するミラーディスプレイドライバ、
前記ビデオデータを処理するためのCODEC、及び、
前記処理されたビデオデータを送信するための送信機
からなることを特徴とするメディアのキャプチャ及び無線送信用のプログラム。 A program stored on a computer-readable board for capturing media consisting of at least video data from a source and transmitting the media wirelessly,
A mirror display driver operating in kernel mode to capture the video data;
A CODEC for processing the video data; and
A program for media capture and wireless transmission comprising a transmitter for transmitting the processed video data.
バーチャルディスプレイドライバ
からなることを特徴とするメディアのキャプチャ及び無線送信用のプログラム。 In the program for media capture and wireless transmission according to claim 1,
A media capture and wireless transmission program characterized by comprising a virtual display driver.
前記送信機は、受信機との接続をTCPを利用して確立し、前記送信機は、ビデオデータのパケットをUDPを利用して送信する
ことを特徴とするメディアのキャプチャ及び無線送信用のプログラム。 In the program for media capture and wireless transmission according to claim 1,
The transmitter establishes a connection with a receiver using TCP, and the transmitter transmits a packet of video data using UDP. A program for media capture and wireless transmission characterized in that .
前記メディアは、更に、グラフィック及びテキストデータからなり、
前記ミラーディスプレイドライバは、グラフィック及びテキストデータを前記ビデオデータと一緒にキャプチャする
ことを特徴とするメディアのキャプチャ及び無線送信用のプログラム。 In the program for media capture and wireless transmission according to claim 1,
The media further comprises graphic and text data,
The mirror display driver captures graphics and text data together with the video data. A program for capturing media and transmitting wirelessly.
前記CODECは、前記ビデオデータから時間冗長性を取り除くための、動き推定ブロックからなる
ことを特徴とするメディアのキャプチャ及び無線送信用のプログラム。 In the program for media capture and wireless transmission according to claim 1,
The CODEC comprises a motion estimation block for removing temporal redundancy from the video data. A program for capturing media and transmitting wirelessly.
前記CODECは、ビデオデータのフレームを8*8ブロックのピクセルに変換するためのDCTブロックからなる
ことを特徴とするメディアのキャプチャ及び無線送信用のプログラム。 In the program for media capture and wireless transmission according to claim 1,
The CODEC comprises a DCT block for converting a frame of video data into 8 * 8 block pixels. A program for capturing media and transmitting wirelessly.
前記CODECは、ビデオコンテンツを短いワードに符号化するために、VLCコーディング回路からなる
ことを特徴とするメディアのキャプチャ及び無線送信用のプログラム。 In the program for media capture and wireless transmission according to claim 1,
The CODEC comprises a VLC coding circuit for encoding video content into short words. A program for media capture and wireless transmission characterized in that the codec is a VLC coding circuit.
前記CODECは、前記ビデオデータの空間周波数をピクセルドメインに戻して変換するために、IDCTブロックからなる
ことを特徴とするメディアのキャプチャ及び無線送信用のプログラム。 In the program for media capture and wireless transmission according to claim 1,
The CODEC comprises an IDCT block for converting the spatial frequency of the video data back to the pixel domain, and a program for media capture and wireless transmission.
前記CODECは、メディア送信の速度向上用に、レート制御メカニズムからなる
ことを特徴とするメディアのキャプチャ及び無線送信用のプログラム。 In the program for media capture and wireless transmission according to claim 1,
The CODEC comprises a rate control mechanism for improving the speed of media transmission. A program for media capture and wireless transmission characterized by the above.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US67343105P | 2005-04-21 | 2005-04-21 | |
PCT/US2006/014559 WO2006113711A2 (en) | 2005-04-21 | 2006-04-18 | Integrated wireless multimedia transmission system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008539614A true JP2008539614A (en) | 2008-11-13 |
Family
ID=37115862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008507808A Pending JP2008539614A (en) | 2005-04-21 | 2006-04-18 | Integrated wireless multimedia transmission system |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP1872576A4 (en) |
JP (1) | JP2008539614A (en) |
CN (1) | CN101273630A (en) |
AU (1) | AU2006236394B2 (en) |
CA (1) | CA2603579A1 (en) |
WO (1) | WO2006113711A2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014063259A (en) * | 2012-09-20 | 2014-04-10 | Fujitsu Ltd | Terminal apparatus and processing program |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2682945A1 (en) * | 2007-04-05 | 2008-10-23 | Sharp Kabushiki Kaisha | Communication method decision device, transmission device, reception device, ofdm adaptive modulation system, and communication method decision method |
KR20090030681A (en) | 2007-09-20 | 2009-03-25 | 삼성전자주식회사 | Image processing apparatus, display apparatus, display system and control method thereof |
US8645579B2 (en) | 2008-05-29 | 2014-02-04 | Microsoft Corporation | Virtual media device |
US11258676B2 (en) | 2011-09-14 | 2022-02-22 | Barco N.V. | Electronic tool and methods for meetings |
US9740375B2 (en) | 2012-11-16 | 2017-08-22 | Empire Technology Development Llc | Routing web rendering to secondary display at gateway |
TWI511104B (en) | 2014-10-07 | 2015-12-01 | Wistron Corp | Methods for operating interactive whiteboards and apparatuses using the same |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001333410A (en) * | 2000-05-22 | 2001-11-30 | Sony Corp | Method and system for using meta data to optimize provision of media data |
JP2004538695A (en) * | 2001-08-09 | 2004-12-24 | インタラクティブ・ビデオ・テクノロジーズ・インコーポレーテッド | Computer-based multimedia creation, management, and deployment platform |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6647061B1 (en) * | 2000-06-09 | 2003-11-11 | General Instrument Corporation | Video size conversion and transcoding from MPEG-2 to MPEG-4 |
US9317241B2 (en) * | 2000-10-27 | 2016-04-19 | Voxx International Corporation | Vehicle console capable of wireless reception and transmission of audio and video data |
US20030017846A1 (en) * | 2001-06-12 | 2003-01-23 | Estevez Leonardo W. | Wireless display |
JP2004265329A (en) * | 2003-03-04 | 2004-09-24 | Toshiba Corp | Information processing device and program |
US7434166B2 (en) * | 2003-06-03 | 2008-10-07 | Harman International Industries Incorporated | Wireless presentation system |
US20060010392A1 (en) * | 2004-06-08 | 2006-01-12 | Noel Vicki E | Desktop sharing method and system |
-
2006
- 2006-04-18 WO PCT/US2006/014559 patent/WO2006113711A2/en active Application Filing
- 2006-04-18 AU AU2006236394A patent/AU2006236394B2/en not_active Ceased
- 2006-04-18 CA CA002603579A patent/CA2603579A1/en not_active Abandoned
- 2006-04-18 CN CN200680013457.XA patent/CN101273630A/en active Pending
- 2006-04-18 EP EP06750566A patent/EP1872576A4/en not_active Withdrawn
- 2006-04-18 JP JP2008507808A patent/JP2008539614A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001333410A (en) * | 2000-05-22 | 2001-11-30 | Sony Corp | Method and system for using meta data to optimize provision of media data |
JP2004538695A (en) * | 2001-08-09 | 2004-12-24 | インタラクティブ・ビデオ・テクノロジーズ・インコーポレーテッド | Computer-based multimedia creation, management, and deployment platform |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014063259A (en) * | 2012-09-20 | 2014-04-10 | Fujitsu Ltd | Terminal apparatus and processing program |
Also Published As
Publication number | Publication date |
---|---|
WO2006113711A2 (en) | 2006-10-26 |
CN101273630A (en) | 2008-09-24 |
AU2006236394A1 (en) | 2006-10-26 |
EP1872576A2 (en) | 2008-01-02 |
AU2006236394B2 (en) | 2010-06-17 |
CA2603579A1 (en) | 2006-10-26 |
EP1872576A4 (en) | 2010-06-09 |
WO2006113711A3 (en) | 2007-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8108577B1 (en) | Method and apparatus for providing a low-latency connection between a data processor and a remote graphical user interface over a network | |
US7069573B1 (en) | Personal broadcasting and viewing method of audio and video data using a wide area network | |
US10567809B2 (en) | Selective media playing method and apparatus according to live streaming and recorded streaming | |
US10009646B2 (en) | Image processing device, image reproduction device, and image reproduction system | |
JP5148505B2 (en) | Display system and method | |
US20080201751A1 (en) | Wireless Media Transmission Systems and Methods | |
CN102387187A (en) | Server, client as well as method and system for remotely playing video file by using client | |
US9161063B2 (en) | System and method for low bandwidth display information transport | |
US20080288992A1 (en) | Systems and Methods for Improving Image Responsivity in a Multimedia Transmission System | |
AU2006236394B2 (en) | Integrated wireless multimedia transmission system | |
KR20060110267A (en) | Method and apparatus for generating graphical and media display at a thin client | |
KR101942269B1 (en) | Apparatus and method for playing back and seeking media in web browser | |
US8432966B2 (en) | Communication apparatus and control method for communication apparatus | |
US10404606B2 (en) | Method and apparatus for acquiring video bitstream | |
WO2012163059A1 (en) | Method, device and system for device redirection data transmission | |
KR20160015134A (en) | System for cloud streaming service, method of cloud streaming service based on type of image and apparatus for the same | |
JP5627413B2 (en) | Broadcast receiving apparatus and broadcast receiving system | |
JP6137257B2 (en) | Broadcast receiving system and broadcast receiving method | |
KR20080038723A (en) | System and server system and method of fragmentation web information for mobile phone with optimized screen rendering | |
KR20160044732A (en) | System for cloud streaming service, method of cloud streaming service based on still image and apparatus for the same | |
WO2014042137A1 (en) | Communication system and method, and server device and terminal | |
KR20160087255A (en) | System for cloud streaming service, method of image cloud streaming service considering full screen transition and apparatus for the same | |
JP2005045707A (en) | Network audio/image reproducing system | |
JP2001136227A (en) | Information processor, information processing method and program storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110309 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111222 |