JP2008113164A - Communication apparatus - Google Patents
Communication apparatus Download PDFInfo
- Publication number
- JP2008113164A JP2008113164A JP2006294269A JP2006294269A JP2008113164A JP 2008113164 A JP2008113164 A JP 2008113164A JP 2006294269 A JP2006294269 A JP 2006294269A JP 2006294269 A JP2006294269 A JP 2006294269A JP 2008113164 A JP2008113164 A JP 2008113164A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- sound source
- video
- data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
本発明は、音声と共に画像を送信する通信装置に関する。 The present invention relates to a communication apparatus that transmits an image together with sound.
近年、通信網を介して接続された複数の会議端末を用いて会議を行う会議システムが一般に普及している。特許文献1には、遠隔地にある者同士が参加して行われる遠隔テレビ会議の運営を支援する技術が開示されている。この文献に開示されたシステムは、複数のテレビ会議端末と、それら各端末における音声情報や映像情報のやり取りを仲介する多地点テレビ会議中継装置とを備える。そして中継装置は、会議で使用する資料の参照ページや会議終了までの残り時間などといった会議運営情報を、自身を経由する音声情報や映像情報に対して適宜重畳する。
ところで、参加者が相手側に関して必要とする映像情報は、会議の局面に応じてさまざまである。例えば会議開始直後においては、相手側の会議室全体の様子や参加者の位置関係などを知る必要があるし、議論の最中には誰がどのような表情で発言しているのかを知る必要があるであろう。しかし、特許文献1の技術を利用してそれら必要な映像情報を詳細に相手側に伝えようとすると送信するデータ量が膨大になってしまい、限りある通信帯域幅ではまかなうことはできなかった。
By the way, the video information that the participant needs regarding the other party varies depending on the aspect of the conference. For example, immediately after the start of the conference, it is necessary to know the state of the other party's conference room and the positional relationship of the participants, and it is necessary to know who is speaking with what expression during the discussion. There will be. However, if the technique of
本発明は、上記の課題に応じてなされたものであり、例えば会議端末間のデータ転送において、必要な映像情報を効率良く送信する技術を提供することを目的とする。 The present invention has been made in response to the above problems, and an object of the present invention is to provide a technique for efficiently transmitting necessary video information, for example, in data transfer between conference terminals.
本発明に係る通信装置の第1の実施形態は、撮影範囲がそれぞれ設定され、前記各撮影範囲内の映像を示す映像信号を各々出力する複数の撮影手段と、収音した音の音声信号を生成する音声信号生成手段と、前記音声信号生成手段が生成した音声信号に基づいて音源の方向を特定し、特定した方向を示す音源方向情報を出力する音源方向特定手段と、前記音源方向情報に対応する前記撮影手段を選択する選択手段と、前記選択手段が選択した撮影手段が出力する映像信号と前記音声信号生成手段が生成した音声信号をネットワークを介して他の端末装置に出力する出力手段とを具備することを特徴とする。 In the first embodiment of the communication apparatus according to the present invention, a shooting range is set, a plurality of shooting units each outputting a video signal indicating a video in each shooting range, and an audio signal of the collected sound A sound signal generating means for generating, a sound source direction specifying means for specifying the direction of the sound source based on the sound signal generated by the sound signal generating means, and outputting sound source direction information indicating the specified direction; and the sound source direction information Selection means for selecting the corresponding photographing means, and output means for outputting the video signal output by the photographing means selected by the selecting means and the audio signal generated by the audio signal generating means to another terminal device via the network It is characterized by comprising.
また、本発明に係る通信装置の第2の実施形態は、撮影範囲がそれぞれ設定され、前記各撮影範囲内の映像を示す映像信号を各々出力する複数の撮影手段と、収音した音の音声信号を生成する音声信号生成手段と、前記音声信号生成手段が生成した音声信号に基づいて音源の方向を特定し、特定した方向を示す音源方向情報を出力する音源方向特定手段と、前記音源方向情報に対応する前記撮影手段を選択する選択手段と、前記音声信号生成手段が生成した音声信号のうち前記音源方向情報に対応する音声信号を抽出する音声抽出手段と、前記選択手段が選択した撮影手段が出力する映像信号と前記音声抽出手段が抽出した音声信号をネットワークを介して他の端末装置に出力する出力手段とを具備することを特徴とする。 In the second embodiment of the communication apparatus according to the present invention, a plurality of photographing means each for which a photographing range is set and each outputs a video signal indicating a video in each photographing range, and the sound of the collected sound A sound signal generating means for generating a signal, a sound source direction specifying means for specifying a sound source direction based on the sound signal generated by the sound signal generating means, and outputting sound source direction information indicating the specified direction; and the sound source direction Selection means for selecting the photographing means corresponding to the information; audio extraction means for extracting the audio signal corresponding to the sound source direction information from the audio signals generated by the audio signal generation means; and the imaging selected by the selection means And a video signal output by the means and an output means for outputting the audio signal extracted by the audio extraction means to another terminal device via a network.
また、本発明に係る通信装置の第3の実施形態は、前記第2の実施形態において、前記音声信号生成手段は複数のマイクが配列されたマイクアレイを有し、前記音声抽出手段は前記マイクアレイの収音方向を制御する収音方向制御装置を有し、前記音源方向特定手段は前記収音方向制御装置が制御する収音方向と前記マイクアレイが出力する音声信号の音量レベルから前記方向を特定する方向特定装置を有していることを特徴とする。 The communication device according to a third embodiment of the present invention is the communication device according to the second embodiment, wherein the sound signal generation means has a microphone array in which a plurality of microphones are arranged, and the sound extraction means is the microphone. A sound collection direction control device for controlling the sound collection direction of the array, wherein the sound source direction specifying means determines the direction from the sound collection direction controlled by the sound collection direction control device and the volume level of the audio signal output from the microphone array. It is characterized by having a direction specifying device for specifying.
また、本発明に係る通信装置の第4の実施形態は、前記第1または2の実施形態において、前記音声信号生成手段は、個別に位置の設定ができる複数のマイクを有し、前記音源方向特定手段は、前記各マイクが出力する音声信号の音量レベルから音源方向として認識される一つのマイクを選択し、選択したマイクを示す情報を前記音源方向情報として出力し、前記音声信号抽出手段は前記音源方向特定手段によって選択されたマイクの音声信号を抽出することを特徴とする。 The communication device according to a fourth embodiment of the present invention is the communication device according to the first or second embodiment, wherein the audio signal generation means includes a plurality of microphones whose positions can be individually set, and the sound source direction. The specifying unit selects one microphone recognized as a sound source direction from the volume level of the audio signal output by each microphone, outputs information indicating the selected microphone as the sound source direction information, and the audio signal extraction unit includes The microphone audio signal selected by the sound source direction specifying means is extracted.
また、本発明に係る通信装置の第5の実施形態は、前記第1ないし4いずれかに記載の実施形態において、前記出力手段は、1画面を構成する全エリアのうち特定のエリアを前記撮影手段選択手段が選択した撮影手段が出力する映像信号の表示エリアとして設定し、他のエリアには、他の映像信号が表示されるように合成した映像信号を出力することを特徴とする。 According to a fifth embodiment of the communication apparatus of the present invention, in the embodiment described in any one of the first to fourth aspects, the output unit captures a specific area among all areas constituting one screen. It is set as a display area of the video signal output by the imaging means selected by the means selection means, and the synthesized video signal is output to the other area so that another video signal is displayed.
また、本発明に係る通信装置の第6の実施形態は、前記第5に記載の実施形態において、前記出力手段が出力する映像信号の1画面を構成する全エリアをどのように区分するかを示すとともに、区分したエリアの中において前記特定のエリアを設定する複数の区分データと、前記区分データを選択する区分データ選択手段とを有し、前記出力手段は前記区分データ選択手段が選択した区分データに従って1画面を区分するとともに、区分データが示すエリアを前記特定のエリアとして認識することを特徴とする。 In addition, the sixth embodiment of the communication device according to the present invention, in the fifth embodiment, how to divide all areas constituting one screen of the video signal output by the output means. A plurality of segment data for setting the specific area in the segmented area, and segment data selection means for selecting the segment data, and the output unit selects the segment selected by the segment data selection unit One screen is divided according to the data, and an area indicated by the divided data is recognized as the specific area.
また、本発明に係る通信装置の第7の実施形態は、前記第1ないし6いずれかに記載の実施形態において、撮影対象となる領域の音源位置に応じた複数の態様を示すパターン画像を複数記憶するとともに、前記各パターン画像における音源位置と前記各撮影手段の撮影範囲との対応関係が記憶されたテーブルと、前記パターン画像を選択するパターン画像選択手段とを有し、前記パターン画像選択手段が選択したテンプレートに対応する各撮影範囲を前記テーブルを参照して決定し、決定した各撮影範囲に一致するように前記各撮影手段を制御する撮影範囲制御手段とを有することを特徴とする。 Further, in a seventh embodiment of the communication device according to the present invention, in the embodiment described in any one of the first to sixth, a plurality of pattern images showing a plurality of modes according to the sound source position of the region to be photographed are provided. The pattern image selecting means having a table storing a correspondence relationship between a sound source position in each pattern image and a photographing range of each photographing means, and a pattern image selecting means for selecting the pattern image. And a shooting range control unit that determines each shooting range corresponding to the selected template with reference to the table and controls each shooting unit so as to match the determined shooting range.
本発明に係る会議端末によれば、会議端末間のデータ転送において必要な映像情報を効率良く送信する技術を提供することができる、といった効果を奏する。 According to the conference terminal according to the present invention, it is possible to provide a technique for efficiently transmitting video information necessary for data transfer between conference terminals.
以下、図面を参照しつつ本発明の一実施形態である会議端末について説明する。
(A:構成)
図1は、本発明の一実施形態である会議端末を含む会議システム1の構成を示すブロック図である。会議システム1は、会議端末10Aと会議端末10Bと通信網20とからなり、会議端末10Aおよび会議端末10Bは通信網20にそれぞれ有線接続されている。会議端末10Aおよび会議端末10Bは互いに同じ構成からなり、以下では会議端末10Aおよび会議端末10Bを区別する必要が無いときには、両者を会議端末10と総称する
なお、ここでは2台の会議端末が通信網20に接続されている場合について例示されているが、3台以上の会議端末が接続されているとしても良い。
Hereinafter, a conference terminal according to an embodiment of the present invention will be described with reference to the drawings.
(A: Configuration)
FIG. 1 is a block diagram showing a configuration of a
本実施形態では、通信プロトコルとして以下に述べる各通信プロトコルが用いられている。すなわち、アプリケーション層の通信プロトコルとして、音声データおよび映像データの転送にはReal-time Transport Protocol(以下、「RTP」)が用いられている。RTPとは、音声データや映像データをend-to-endでリアルタイムに送受信する通信サービスを提供するための通信プロトコルであり、その詳細はRFC1889に規定されている。RTPにおいては、RTPパケットを生成し送受信することにより通信端末同士でデータの授受が行われる。一方画像データの転送には、HTTP(Hypertext Transfer Protocol)が用いられている。また、トランスポート層の通信プロトコルとしては、UDPが用いられており、ネットワーク層の通信プロトコルとしてはIPが用いられている。上記の会議端末10Aおよび会議端末10Bには、それぞれにIPアドレスが割り振られており、ネットワーク上で一元的に識別される。
なお、HTTP、UDP、およびIPについては、一般に広く用いられている通信プロトコルであるため説明を省略する。
In this embodiment, each communication protocol described below is used as a communication protocol. That is, Real-time Transport Protocol (hereinafter “RTP”) is used for transferring audio data and video data as a communication protocol in the application layer. RTP is a communication protocol for providing a communication service for transmitting and receiving audio data and video data in end-to-end in real time, and details thereof are defined in RFC1889. In RTP, data is exchanged between communication terminals by generating and transmitting / receiving RTP packets. On the other hand, HTTP (Hypertext Transfer Protocol) is used for transferring image data. Further, UDP is used as a transport layer communication protocol, and IP is used as a network layer communication protocol. Each of the
Since HTTP, UDP, and IP are communication protocols that are generally widely used, description thereof is omitted.
次に、会議端末10のハードウェア構成について図3を参照して説明する。なお、以下の説明において、上に挙げた会議端末10の構成が、いずれの会議端末に属するものであるかを区別する必要があるときには、例えば会議端末10Aの制御部101を制御部101Aなどのようにアルファベットを付して表す。
Next, the hardware configuration of the
図に示す制御部101は、例えばCPU(Central Processing Unit)であり、後述する記憶部103に格納されている各種プログラムを実行することにより、会議端末10の各部の動作を制御する。
A
記憶部103は、ROM(Read Only Memory)103aおよびRAM(Random Access Memory)103bを有する。
ROM103aは、本発明に特徴的な機能を制御部101に実現させるためのデータや制御プログラムを格納している。上記データの一例としては、Webカメラ選択テーブル、テストデータ、送信レート管理テーブル等がある。これらのデータについては後に詳細に説明する。
RAM103bは、各種プログラムにしたがって作動している制御部101によってワークエリアとして利用されると共に、マイクアレイ106およびWebカメラ107から受取った音声データ・映像データ等を記憶する。
The
The
The
操作部104は、例えばキーボードやマウスなどであり、会議端末10の操作者が操作部104を操作して何らかの入力操作を行うと、その操作内容を表すデータが制御部101へと伝達される。
The
マイクアレイ106は、図示せぬ複数(本実施形態では8つ)のマイクロホンユニットと、アナログ/デジタル(以下、「A/D」と略記する)コンバータを含む。マイクアレイ106は指向性マイクとしての機能を有し、音声を収音する方位を走査しながら音声を収音する機能を有する。制御部101はそのようにさまざまな方位からの音声から生成された音声データを解析し、音量レベルが大きい方位を音源(すなわち、受信した音声が人間の声ならばその話者)の方位として特定する。なお、同時に複数の参加者が発言するなどして同時に複数の方向から音声の入力があった場合には、制御部101はそれら複数の方位からの音声の音量レベルを比較し、最も音量レベルが高い方向を音源の方向とする。
図5は、会議室におけるマイクアレイ106および参加者2の相対配置の一例を示した図である。具体的には、マイクアレイ106が特定した音源方位に関する情報は、マイクアレイ106の中央から見た音源の方向(極座標における偏角Φ)として生成され、音声データと共にRAM103bへ出力される。なお、図5において話者は参加者2aであり、音源方位はπ/6となる。
The
FIG. 5 is a diagram showing an example of the relative arrangement of the
Webカメラ107は、C−MOSイメージセンサからの入力をMotion−JPEG動画として出力する。なお、Motion−JPEGとは、撮影したフレームごとの映像をJPEG圧縮し、これを連続して記録する動画データ生成方式である。Webカメラ107は、所定の画像サイズおよび単位時間あたりのフレーム数(fps;frames per second)で映像を撮影し、JPEGによる画像圧縮を施してRAM103bへ出力する。解像度はWebカメラに予め設定された値を用い、単位時間当たりのフレーム数については、適宜制御部101により制御される。また、画像の圧縮率はJPEGによる画像圧縮(圧縮率は1/5〜1/60)の範囲内で、制御部101の制御下で設定が可能となっている。
なお、本実施形態において会議端末10においてWebカメラ107は5つ取り付けられており、参加者2はそれらの向きを手動で変更することが可能である。
The
In the present embodiment, five
Webカメラ107が出力したデータは一旦RAM103bに書き込まれ、制御部101はRAM103bに書き込まれたデータからRTPパケットを生成する。RTPパケットは、図2に示すようにIPにおけるデータ転送単位であるパケットやTCPにおけるデータ転送単位であるセグメントと同様に、ペイロード部に対してヘッダ部が付与され構成されている。
Data output from the
ペイロード部には、例えばデータ送信メッセージにおいては、所定時間(本実施形態においては20ミリ秒)分の音声・映像データ等が書き込まれる。また、受信通知メッセージにおいては、受取ったパケットのシーケンス番号が書き込まれる。
ヘッダ部には、タイムスタンプ、ペイロードタイプ、シーケンス番号、および区画情報の4種類のデータがセットされる。ここで、タイムスタンプとは、時刻(音声通信の開始を指示されてから経過した時間)を示すデータである。ペイロードタイプとは、通信メッセージの種別をその通信メッセージの宛先に識別させるためのデータである。本実施形態で利用されるメッセージ種別には、話者映像データ送信メッセージ、会議室映像データ送信メッセージ、音声データ送信メッセージ、資料データ送信メッセージ、受信通知メッセージの5種類がある。それらのメッセージにおいて、ペイロードタイプには、それぞれ“1”、“2”、“3”、“4”、“5”の5種類の数字が書き込まれる。シーケンス番号とは、各パケットを一意に識別するための識別子であり、例えば1つの音声データが複数のRTPパケットに分割されて送信される場合に、各パケットに対して1、2、3…のようにシーケンス番号が付与される。区画情報とは、当該RTPパケットに含まれる画像を後述する映像表示部105のどの領域に表示するかを規定する情報である。例えば(0、0)−(256、192)などのように、画像の位置情報が座標で書き込まれている。
In the payload portion, for example, audio / video data for a predetermined time (20 milliseconds in the present embodiment) is written in a data transmission message. In the reception notification message, the sequence number of the received packet is written.
Four types of data including a time stamp, a payload type, a sequence number, and partition information are set in the header portion. Here, the time stamp is data indicating the time (the time elapsed since the start of voice communication was instructed). The payload type is data for identifying the type of communication message to the destination of the communication message. There are five message types used in the present embodiment: a speaker video data transmission message, a conference room video data transmission message, a voice data transmission message, a material data transmission message, and a reception notification message. In these messages, five types of numbers “1”, “2”, “3”, “4”, and “5” are written in the payload type, respectively. The sequence number is an identifier for uniquely identifying each packet. For example, when one voice data is divided into a plurality of RTP packets and transmitted, 1, 2, 3,. Thus, a sequence number is assigned. The section information is information that defines in which area of the
通信IF部102は、例えばNIC(Network Interface Card)であり、通信網20に接続されている。この通信IF部102は、制御部101から引渡されたRTPパケットを下位層の通信プロトコルにしたがって順次カプセル化することにより得られるIPパケットを通信網20へ送出する。なお、カプセル化とは、上記RTPパケットをペイロード部に書き込んだUDPセグメントを生成し、さらに、そのUDPセグメントをペイロード部に書き込んだIPパケットを生成することである。また、通信IF部102は、通信網20を介してIPパケットを受信し、上記カプセル化とは逆の処理を行うことにより、そのIPパケットにカプセル化されているRTPパケットを読み出して制御部101へ引渡す。
The communication IF
映像表示部105は、1024pixel×768pixelのモニタである。通信IF部102を介して受取ったデータに基づいて画像や資料を表示する。
The
スピーカ108は、制御部101から引渡される音声データの表す音声を再生するものであり、スピーカユニットとD/Aコンバータとを含んでいる。D/Aコンバータは、制御部101から引渡される音声データに対してD/A変換を施すことによってアナログの音声信号へ変換しスピーカユニットへ出力するものである。そして、スピーカユニットは、D/Aコンバータから受取った音声信号に応じた音声を再生する。
以上が、会議端末10のハードウェア構成である。
The
The hardware configuration of the
ここで、会議室における会議端末10の設置態様について説明する。図6(A)は、会議端末10が設置された会議室の様子を示した図(図5と対応している)である。会議室には机3が設置され、会議に参加する参加者2a、2b、2c、および2dが机の周囲に設置されたイスに腰掛けている。机の横には会議端末10が設置され、映像表示部105、マイクアレイ106、5つ設置されたWebカメラ107、およびスピーカ108が参加者に面している。なお、以下で5つのWebカメラ107の各々を区別して示す必要がある場合には、図6(A)に示すようにそれぞれWebカメラ107a、107b、107c、107d、および107eと表す。
Here, an installation mode of the
映像表示部105は、全ての参加者が視認することができる場所に配置されている。マイクアレイ106は、複数のマイクロホンユニットが水平に一列に並ぶように映像表示部105の下方に配置されている。スピーカ108は、マイクアレイ106を挟むようにして会議端末10において左右2箇所に配置されている。
The
Webカメラ107は、映像表示部105の下方に、水平に一列に並ぶように配置されており、それぞれに番号が付けられたラインを介して会議端末10に接続されている。具体的には、Webカメラ107aはライン1に、Webカメラ107bはライン2に、Webカメラ107cはライン3に、Webカメラ107dはライン4に、Webカメラ107eはライン5に接続されている。
The
ここで、図6(A)に示した会議室を、会議端末10の側から俯瞰した場合の様子を図6(B)に示す。図6(B)において、領域a、b、c、d、およびeは、それぞれ図6(A)に示されるWebカメラ107a、107b、107c、107d、および107eにより撮影される領域を示す。領域eは、会議室全体を含み、領域a、b、c、およびdは、それぞれ参加者2a、2b、2c、および2dを含むように、各Webカメラ107の撮影範囲は設置されている。
Here, FIG. 6B shows a state where the conference room shown in FIG. 6A is viewed from the
次に、会議端末10の特徴的な機能について説明する。それらは大別して(1)映像選択機能、(2)利用可能帯域幅測定機能、(3)データ送信レート制御機能の3つがある。以上の機能は、制御部101がROM103aに格納されている制御プログラムを実行することにより実現される。
Next, characteristic functions of the
まず、映像選択機能について説明する。映像選択機能とは、その時点で発言をしている話者に向けられたWebカメラ107を選択し、選択されたWebカメラ107で撮影された映像を相手側会議端末10に表示する機能である。
ここで、ROM103aに格納されたWebカメラ選択テーブルについて説明する。図7は、Webカメラ選択テーブルの一例を示した図である。Webカメラ選択テーブルには、音源方位情報である偏角の範囲と、各Webカメラ107が接続されたライン番号が対応付けられている。
First, the video selection function will be described. The video selection function is a function of selecting the
Here, the Web camera selection table stored in the
制御部101は、RAM103bに書き込まれた音源方位情報を読み出し、音源方位情報である偏角の値をWebカメラ選択テーブルと照らし合わせることにより、ライン番号を特定する。例えば、図5に示されるように偏角Φ=π/6である参加者2aが発言した場合、Webカメラ選択テーブルにおいては音源方位情報の偏角Φ=0〜π/4に対応するため、ライン1に接続されたWebカメラ107、すなわちWebカメラ107aが選択される。続いて制御部101は、選択されたライン番号に接続されたWebカメラ107に映像データを生成・出力する旨の信号を出力する。制御部101から信号を受信したWebカメラ107は、映像データを生成しRAM103bに出力する。
The
制御部101は、以上のように話者が撮影された映像データと同時に、Webカメラ107eが生成した映像データを相手側会議端末10に向けて送信する。その際制御部101は、話者が撮影された映像データを含むRTPパケットのペイロードタイプには “1”を、区画情報には、“(0,0)−(512、384)”を書き込み、一方Webカメラ107eが生成した映像データのペイロードタイプには“2”を、区画情報には、“(0,384)−(512、768)”を書き込む。また、それら映像データと並行して資料データも送信する。資料データのペイロードタイプには“4”を、区画情報には、“(512,0)−(1024、768)”を書き込む。
The
相手側会議端末10は両映像データを受信する。映像表示部105は、受取ったデータの区画情報を読み出し、映像表示部105の該当する領域にデータの内容を表示する。さて図4に示すように、映像表示部105の表示面は図中左上を原点として座標が設定されている。例えば“(0,0)−(512、384)”の区画情報は、原点(0,0)、(512、0)、(512、384)、(0、384)の4点で囲まれた領域を表す。従って、Webカメラ107aの映像データは話者表示部105aに、Webカメラ107eの映像データは会議室表示部105bに、そして資料データは資料表示部105cに表示される。
The
次に、利用可能帯域幅測定機能について図8に示すフローチャートを参照しながら説明する。利用可能帯域幅測定機能とは、通信網20を介して相手側会議端末とデータ通信する際に、その通信網20にて利用することのできる最大の通信帯域幅を測定する機能である。まず制御部101は、パケットを送信する際の送信間隔を決定する(ステップSC100)。利用可能帯域幅測定処理を初めて行う際には、所定の送信間隔を選択する。次に制御部101は、ROM103aに格納されたテストデータから複数のパケットを生成し、上記選択された送信間隔で相手側会議端末へ送信する(ステップSC110)。このとき、制御部101は送信した各パケットのシーケンス番号をRAM103bに書き込む。なお、上記テストデータは、予めWebカメラ107が生成する映像データと同様にMotion−JPEGによる映像データであり、その映像内容はどのようなものであっても良い。
Next, the available bandwidth measurement function will be described with reference to the flowchart shown in FIG. The available bandwidth measurement function is a function of measuring the maximum communication bandwidth that can be used in the
相手側会議端末10の制御部101は上記テストデータを受信し、受信した各パケットのシーケンス番号を受信通知メッセージに書き込み、該受信通知メッセージを送信側会議端末に対して返信する。送信側会議端末10の制御部101は、相手側会議端末から返信されてきた受信通知メッセージを受信し(ステップSC120)、上記テストデータの送信におけるパケットロスの発生率(受信されなかったパケット数/送信されたパケット数)を算出する(ステップSC130)。
The
制御部101は、上記所定の送信間隔でテストデータを送信した場合に、パケットロスが発生しなかった場合(ステップSC130;“No”)、ステップSC100以降の処理を再度行う。そのとき、ステップSC100においては、前回のステップSC100ないしステップSC130の処理において利用した送信間隔より所定の割合だけ短い送信間隔を選択する。送信間隔が短くなると、単位時間当たりの送信データ量すなわち送信レートは高くなる。一般に、利用可能な帯域幅に比較して送信レートが小さい場合にはパケットロスの発生率は少なく、送信レートが利用可能な帯域幅に対して大きくなるに伴いパケットロスの発生率が高くなることが知られている。従って、テストデータの送信においてパケットロスが発生した場合には、その際に利用した送信レートは利用可能な通信帯域幅を上回ったことを意味する。
従って制御部101は、各パケットの送信間隔を順次短くしてステップSC100ないしステップSC130を繰り返し行い、パケットロスが発生した場合(ステップSC130;“Yes”)には、その1回前にテストデータを送信した際の送信レート(テストデータのデータ量/送信にかかった時間)を、その時点での利用可能な帯域幅(単位はBPS;Byte/秒)として算出する(ステップSC140)。
以上が、利用可能帯域幅測定処理である。
When the test data is transmitted at the predetermined transmission interval and no packet loss occurs (step SC130; “No”), the
Therefore, the
The above is the available bandwidth measurement process.
次に、データ送信レート制御機能について説明する。
データ送信レート制御機能とは、利用可能帯域幅測定機能により測定された利用可能な通信帯域幅に応じて、出力する音声データおよび映像データのデータ送信レートを制御する処理を実行する機能である。
Next, the data transmission rate control function will be described.
The data transmission rate control function is a function for executing processing for controlling the data transmission rate of audio data and video data to be output according to the available communication bandwidth measured by the available bandwidth measurement function.
図9は、送信レート管理テーブルの一例を示した図である。送信レート管理テーブルには、Webカメラ107に設定される単位時間当たりのフレーム数(frames per second)、およびMotion−JPEG方式におけるJPEG画像の圧縮率が、利用可能な通信帯域幅に対応させて規定されている。制御部101は、上述した利用可能帯域幅測定機能により測定された利用可能な通信帯域幅を、ROM103aに格納された送信レート管理テーブルと照らし合わせることにより、利用可能な帯域幅に対応した単位時間当たりのフレーム数およびJPEG画像の圧縮率を選択する。
FIG. 9 is a diagram showing an example of a transmission rate management table. In the transmission rate management table, the number of frames per unit time (frames per second) set in the
制御部101は、全てのWebカメラ107において、単位時間当たりのフレーム数、およびJPEG画像の圧縮率を、選択された値に設定する。データ通信が開始されると、Webカメラ107は設定された単位時間あたりのフレーム数で映像データを生成し、制御部101は生成された映像データを選択されたJPEG画像の圧縮率で圧縮する。
以上がデータ送信レート制御機能である。
The
The above is the data transmission rate control function.
(B:動作)
次に、会議端末10Aの側の参加者と会議端末10Bの参加者とが遠隔会議を行う際に、会議端末10が行う動作について説明する。なお、遠隔会議の開始時点で、Webカメラ107の各々はすでに図6(B)に示される領域を撮影できるように設置されているものとする。また、Webカメラ選択テーブルには、図7に示すように音源の方位と各Webカメラ107が接続されたライン番号とが対応付けられて書き込まれているものとする。
(B: Operation)
Next, an operation performed by the
始めに、制御部101Aは、データ通信の開始直後および一定時間おきにパラメータ調整処理を行う。図10は、データを送信する側(会議端末10A)の行うパラメータ調整処理の流れを示したフローチャートである。
First, the control unit 101A performs parameter adjustment processing immediately after the start of data communication and at regular intervals. FIG. 10 is a flowchart showing the flow of parameter adjustment processing performed by the data transmission side (
制御部101Aは、まず利用可能帯域幅測定処理を行う(ステップSA100)。次に制御部101は、利用可能帯域幅測定処理の測定値を、ROM103aに格納された送信レート管理テーブル(図9参照)と照らし合わせ、テーブル中で該測定値より小さいものの中で最大の利用可能な帯域幅と対応付けられているフレーム数、およびJPEG画像の圧縮率を選択する。制御部101Aは、全てのWebカメラ107の単位時間当たりの撮影フレーム数を選択された値に設定する(ステップSA110)と共に、JPEG画像の圧縮率を選択された値に設定する(ステップSA120)。続くステップSA130において、パラメータ調整処理を開始してから一定時間が経過したかどうか判定する。ステップSA130の判定結果が“No”である場合は、一定時間が経過するまでステップSA130の処理が繰り返される。一定時間が経過すると、ステップSA130の判定結果は“Yes”となり、ステップSA140が行われる。ステップSA140においては、制御部101Aは、データ通信が終了したかどうか判定する。ステップSA140の判定結果が“No”である場合にはステップSA100以降の処理が再び行われる。ステップSA140の判定結果が“Yes”である場合には、制御部101はパラメータ調整処理を終了する。
以上の処理から、制御部101はデータ通信開始後一定時間置きに利用可能帯域幅測定処理を行い、測定された利用可能な帯域幅に合わせてデータ送信に係る各種のパラメータがその都度設定されることとなる。そのことにより、時々刻々と変化する利用可能な通信帯域幅に応じてデータの送信を行うことができ、データを効率的に支障なく送信することができる。
First, the control unit 101A performs an available bandwidth measurement process (step SA100). Next, the
From the above processing, the
以下では、遠隔会議中に会議端末10Aの側の参加者2aが発言し、会議端末10Bの側の参加者がその発言を聴く場合に会議端末10Aが行う動作を説明する。
図11は、データ通信を行う際に会議端末10が行う処理の流れを示したフローチャートである。参加者2aが発言すると、マイクアレイ106Aは該音声を収音し、音声データを生成する(ステップSB100)。制御部101Aは、生成された音声データを元に音源の方位情報を生成する(ステップSB110)。この場合図5に示すような位置に参加者2aは位置することから、音源方位情報は参加者2aの方位(偏角)であるπ/6となる。マイクアレイ106Aにより生成された音声データおよび音源方位情報はRAM103bAに書き込まれる。
Hereinafter, an operation performed by the
FIG. 11 is a flowchart showing a flow of processing performed by the
制御部101Aは、RAM103bAに書き込まれた音源方位情報を、Webカメラ管理テーブルと照らし合わせることにより、Webカメラ107が接続されたライン番号の一つ(この場合ライン1)を特定する(ステップSB120)。次に制御部101Aは、ステップSB120で特定されたWebカメラ107aAに参加者2aの詳細な映像を表す映像データを生成させる(ステップSB130)。
The control unit 101A identifies one of the line numbers to which the
制御部101Aは、Webカメラ107aAにより生成された話者映像データ、Webカメラ107eAにより生成された会議室映像データ、音声データ、および資料データを会議端末10Bに向けて送信する(ステップSB140)。
The control unit 101A transmits the speaker video data generated by the Web camera 107aA, the conference room video data generated by the Web camera 107eA, audio data, and material data to the
会議端末10Bは、話者映像・会議室映像を表す映像データ、音声データ、および資料データを受信する。音声データはスピーカ108Bから再生される。映像データおよび資料データについては、制御部101Bは、各映像データの有する区画情報を読み出す。該区画情報には、それぞれのデータが表示されるべき映像表示部105Bの領域が座標で書き込まれている。映像表示部105Bは、該区画情報に基づいて所定の領域にそれぞれのデータ内容を表示する。
The
以上の処理により、相手側の会議端末10Bを利用する参加者は、スピーカ108Bから会議端末10Aを利用する話者の音声を聞きながら、話者により提示される資料データおよび話者の表情などを視認することができる。
(C:変形例)
以上、本発明の実施形態について説明したが、本発明は以下に述べる種々の形態で実施することができる。
Through the above processing, the participant who uses the
(C: Modification)
As mentioned above, although embodiment of this invention was described, this invention can be implemented with the various form described below.
(1)上記実施例において、映像選択機能、利用可能帯域幅測定機能、データ送信レート制御機能の各機能は、会議端末に対して設けられていたが、設置対象はもちろん会議端末に限定されない。たとえば映像データや音声データを生成し、それらをクライアント装置へ提供するサーバ装置などに適用しても良い。 (1) In the above embodiment, the video selection function, the available bandwidth measurement function, and the data transmission rate control function are provided for the conference terminal. However, the installation target is not limited to the conference terminal. For example, the present invention may be applied to a server device that generates video data and audio data and provides them to the client device.
(2)上記実施例において、本発明に係る会議端末に特徴的な機能をソフトウェアモジュールで実現する場合について説明したが、上記各機能を担っているハードウェアモジュールを組み合わせて本発明に係る会議端末を構成するようにしても良い。 (2) In the above embodiment, a case has been described in which the functions characteristic of the conference terminal according to the present invention are implemented by software modules. However, the conference terminal according to the present invention is combined with the hardware modules responsible for the above functions. You may make it comprise.
(3)上述した実施形態では、映像データおよび音声データの通信にアプリケーション層の通信プロトコルとしてRTPを用いる場合について説明したが、他の通信プロトコルを用いても良いことは勿論である。要は、所定のヘッダ部とペイロード部とを有するデータブロックのペイロード部に、映像データまたは音声データを所定時間分ずつ書き込んで送信する通信プロトコルであれば、どのような通信プロトコルであっても良い。また、上述した実施形態では、トランスポート層の通信プロトコルとしてUDPを用いる場合について説明したが、TCPを用いるようにしても良い。同様にネットワーク層の通信プロトコルがIPに限定されるものではない。 (3) In the above-described embodiment, the case where RTP is used as the communication protocol of the application layer for communication of video data and audio data has been described, but it is needless to say that other communication protocols may be used. In short, any communication protocol may be used as long as it is a communication protocol in which video data or audio data is written and transmitted for a predetermined time in a payload portion of a data block having a predetermined header portion and a payload portion. . In the above-described embodiment, the case where UDP is used as the transport layer communication protocol has been described. However, TCP may be used. Similarly, the network layer communication protocol is not limited to IP.
(4)上述した実施形態では、映像データ、音声データ、および資料データの送受信を並行して行う場合について説明したが、データの種類はそれらのデータ種に限られるものではない。資料データについては送受信を行わなくても良い。 (4) In the above-described embodiment, the case where transmission / reception of video data, audio data, and material data is performed in parallel has been described. However, the types of data are not limited to these data types. There is no need to send and receive document data.
(5)上記実施形態では、会議端末10Aおよび会議端末10Bが通信網20に有線接続されている場合について説明したが、通信網20が例えば無線LAN(Local Area Network)などの無線パケット通信網であり、会議端末10Aおよび会議端末10Bが、この無線パケット通信網に接続されていても勿論良い。また、上記実施形態では通信網20がインターネットである場合について説明したが、LAN(Local Area Network)であっても良いことは勿論である。要は、所定の通信プロトコルにしたがって行われる通信を仲介する機能を備えた通信網であれば、どのような通信網であっても良い。
(5) In the above embodiment, the case where the
(6)上記実施形態では、本発明に係る通信装置に特徴的な機能を制御部101に実現させるための制御プログラムをROM103aに予め書き込んでおく場合について説明したが、CD−ROMやDVDなどのコンピュータ装置読み取り可能な記録媒体に上記制御プログラムを記録して配布するとしても良く、インターネットなどの電気通信回線経由のダウンロードにより上記制御プログラムを配布するようにしても勿論良い。
(6) In the above embodiment, a case has been described in which a control program for causing the
(7)上記実施形態では、会議室全体の映像データについても、話者の映像の映像データと同様の解像度・単位時間当たりのフレーム数・JPEG画像の圧縮率による制御を行う場合について説明したが、会議室全体の映像は必要に応じて単位時間当たりのフレーム数を下げたり、JPEG画像の圧縮率を上げたりして送出してもよいし、一定時間置きに静止画を送出しても良い。 (7) In the above embodiment, the case where the video data of the entire conference room is controlled by the same resolution, the number of frames per unit time, and the compression rate of the JPEG image as the video data of the speaker's video has been described. The video of the entire conference room may be sent out by reducing the number of frames per unit time or increasing the compression rate of the JPEG image as necessary, or still images may be sent out at regular intervals. .
(8)上記実施形態では、話者の映像データを動画とする場合について説明したが、必要に応じて、または通信網の回線状況に応じて静止画を送信してもよい。 (8) In the above embodiment, the case where the video data of the speaker is a moving image has been described. However, a still image may be transmitted as necessary or according to the line status of the communication network.
(9)上記実施形態では、マイクアレイを用いることにより話者の特定を行う場合について示した。しかし、話者の特定方法はマイクアレイに限らない。例えば、会議室において複数の(望ましくは参加者の数と同数の)マイクロホンを参加者の前に設置し、複数のマイクロホンにおいて収音された音声のうち最も音量レベルが高い音声データを選択し、選択された音声データを生成したマイクロホンに対応する参加者が話者であると判断し、特定された話者に向けられたカメラを選択してもよい。
また、操作部104として参加者の数だけボタンを設置し、各参加者が該ボタンを押下してから発言を行うようにしても良い。その場合、制御部101は、押下されたボタンが出力する信号を受信して話者を特定し、該話者に向けられたWebカメラ107を選択するようにすれば良い。
(9) In the above embodiment, the case where the speaker is specified by using the microphone array has been described. However, the speaker identification method is not limited to the microphone array. For example, a plurality of microphones (preferably the same number as the number of participants) are installed in front of the participants in the conference room, and the audio data with the highest volume level is selected from the sounds collected by the plurality of microphones. It may be determined that the participant corresponding to the microphone that has generated the selected audio data is a speaker, and a camera directed to the identified speaker may be selected.
Further, as many buttons as the number of participants may be provided as the
(10)上記実施形態では、WebカメラはMotion−JPEG方式により映像データを生成した。しかし、映像の記録方式はMotion−JPEGに限定されず、MPEGなど他の方式を用いても良い。 (10) In the above embodiment, the Web camera generates the video data by the Motion-JPEG method. However, the video recording method is not limited to Motion-JPEG, and other methods such as MPEG may be used.
(11)上記実施形態では、Webカメラ107は5つ設置されている場合について説明したが、Webカメラ107の設置数は5つに限定されない。参加者の人数などに応じて適宜定めればよい。また、会議端末10に設けられるWebカメラ107を接続するライン(端子)の数についても同様であり、設置されるWebカメラ107の数よりも多く設けられていれば良い。
(11) In the above embodiment, the case where five
(12)上記実施形態では、Webカメラ107の撮影領域を予め参加者が手動で調整する場合について説明した。しかし、Webカメラ107の撮影領域の調整を制御部101による制御下で行うようにしても良い。その場合、以下に説明するような実施形態が可能である。
Webカメラを水平および上下に回転させて撮影領域を調整するための駆動手段を会議端末10に設け、該駆動手段を制御部101により制御できるようにする。また、予め“配置テンプレート”をROM103aに格納しておく。図12は、配置テンプレートの一例を示した図である。配置テンプレートには、複数のパターンA、B、およびCが設定されている。パターンごとに、参加者の位置とWebカメラ撮影方向が対応付けられて規定されている。ここで参加者の位置とは、マイクアレイ106を基準とした各参加者の相対位置を模式的に示した図であり、一方Webカメラ撮影方向とは、各ラインに接続されたWebカメラ107の撮影方向である。なお、撮影方向はマイクアレイが音源方位情報を生成する際に用いたのと同様の極座標における偏角として表されている。
会議を開始するにあたって、映像表示部105は、配置テーブルの“参加者の位置”の項目に書き込まれたテンプレート画像を表示する。該会議端末を利用する参加者は、映像表示部105に表示された複数のパターンから該会議における参加者の数や座席位置に合致するものを選択する。制御部101は、特定のパターンが選択されると、各ラインに接続されたWebカメラ107の各々を選択されたパターンにおいて規定されているWebカメラ撮影方向に向けるよう上記駆動手段を駆動させる。
以上に説明した実施形態により、参加者は会議端末10を会議室に設置した後に設置位置に応じたテンプレートを作成しておくことで、以降の会議開催の度にWebカメラの位置を手動で設定しなおす手間を省くことができる。
(12) In the above embodiment, the case where the participant manually adjusts the shooting area of the
The
When starting the conference, the
According to the embodiment described above, the participant creates a template according to the installation position after installing the
(13)上記実施形態では、映像表示部105の表示面を図4に示すように区画する場合について説明した。しかし、映像表示部105の区画は上記の態様に限定されない。例えば、図13に示す区画テンプレートをROM103aに格納しておく。区画テンプレートにおいては、映像表示部105の表示面の区画法を模式的に示した複数のテンプレートが、会議に参加する人数に対して規定されている。各テンプレートにおいて、数字が書き込まれた区画は、該数字のライン番号に接続されたWebカメラ107の映像(各参加者の映像)が表示される。なお、たとえば1/2/3と表示された区画は、1ないし3のライン番号に接続されたWebカメラ107いずれかの映像が表示される。“会議室”と書き込まれた区画は、上記実施形態における会議室表示部105bと同様に、ライン5に接続されたWebカメラ107eの映像が表示される。“資料”と書き込まれた区画は、上記実施形態における資料表示部105cと同様である。
さて、参加者は会議が始まる際に、会議の参加人数に合わせて特定のテンプレートを選択する。特定のテンプレートが選択されると、選択されたテンプレートに規定されるように映像表示部105は区画され、それぞれの区画にはテンプレートで規定されるように各Webカメラ107の映像や資料が表示される。
以上のようにすることで、参加者が必要とする情報を、そのときの状況に合わせたレイアウトで映像表示部105に表示させることができる。
また、以上のようにデフォルトのテンプレートを選択した上で、更に発言者が発言した際にテンプレートを短期間切り換えるようにしてもよい。すなわち、発言者切換用テンプレートを別途選択しておき、発言者が切り替わると制御部101は映像表示部105の区画法をデフォルトのテンプレートから発言者切換用テンプレートに所定の時間切り換え、所定時間が経過するとデフォルトのテンプレートに戻す。例えば、参加者が3名の場合に、デフォルトのテンプレートとしてテンプレートAを、発言者切換用テンプレートとしてテンプレートCを選択しておくと、例えば参加者Aが発言を始めるとテンプレートCに示されるように映像表示部105の中央に発言者である参加者Aの映像が画面中央に大きく表示され、その後テンプレートAに示されるように参加者全員の映像、会議室全体の映像、および資料が表示される。同様に参加者Bが発言すると、発言を始めてから所定の時間は参加者Bの映像が画面中央に大きく表示される。以上のように会議中にもテンプレートを切り換えることで、発言者が変わったことを知らせたり、どの参加者が発言を始めたのかを参加者に報知したりすることができる。
(13) In the above embodiment, the case where the display surface of the
Now, when the conference starts, the participant selects a specific template according to the number of participants in the conference. When a specific template is selected, the
As described above, information required by the participant can be displayed on the
Further, after selecting the default template as described above, the template may be switched for a short period when the speaker speaks further. That is, when a speaker switching template is separately selected and the speaker is switched, the
(14)上記実施形態では、映像表示部105において話者・会議室映像データおよび資料データを図4に示すような区画割りで表示する場合について説明した。しかし、映像表示部105の区画割りは上記の態様に限定されるものではなく、各データの表示領域の大小や位置関係など他の種々の態様でおこなっても良い。
(14) In the above-described embodiment, the case where the speaker / conference room video data and the material data are displayed in the division as shown in FIG. 4 on the
(15)上記実施形態では、RTPパケットのヘッダ部に区画情報を含ませることにより、各映像データが映像表示部105において表示される領域を指定する場合について説明した。しかし、各映像データを映像表示部105のどの領域に表示するのかを映像データの受信側の会議端末10が制御するようにしても良い。その場合、相手側会議端末10は、その映像表示部105をあらかじめ複数の領域に区画しそれぞれの区画に映像の種類(話者映像、会議室映像)を対応させておく。映像データを受取ったらパケットのペイロードタイプを読み出し、ペイロードタイプから映像の種類を判別し、対応する映像表示部105に割り当てて出力するようにすればよい。
(15) In the above-described embodiment, a case has been described in which an area in which each video data is displayed on the
(16)上記実施形態では、表示部105の表示面を区画し、複数のデータを表示する場合について説明した。しかし、例えば表示面全体に話者の映像を表示する場合など、映像表示部105の表示面の区画は行わなくても良い。
(16) In the above embodiment, the case where the display surface of the
1…会議システム、2…参加者、3…机、10、10A、10B…会議端末、20…通信網、101…制御部、102…通信IF部、103…記憶部(103a;ROM、103b;RAM)、104…操作部、105…映像表示部(105a…話者表示部、105b…会議室表示部、105c…資料表示部)、106…マイクアレイ、107…Webカメラ、108…スピーカ、109…バス
DESCRIPTION OF
Claims (7)
収音した音の音声信号を生成する音声信号生成手段と、
前記音声信号生成手段が生成した音声信号に基づいて音源の方向を特定し、特定した方向を示す音源方向情報を出力する音源方向特定手段と、
前記音源方向情報に対応する前記撮影手段を選択する選択手段と、
前記選択手段が選択した撮影手段が出力する映像信号と前記音声信号生成手段が生成した音声信号をネットワークを介して他の端末装置に出力する出力手段と
を具備することを特徴とする通信装置。 A plurality of photographing means each for which a photographing range is set and outputting a video signal indicating an image within each photographing range;
Audio signal generation means for generating an audio signal of the collected sound;
Sound source direction specifying means for specifying the direction of the sound source based on the sound signal generated by the sound signal generating means, and outputting sound source direction information indicating the specified direction;
Selecting means for selecting the photographing means corresponding to the sound source direction information;
A communication apparatus comprising: a video signal output by the photographing unit selected by the selection unit; and an output unit that outputs the audio signal generated by the audio signal generation unit to another terminal device via a network.
収音した音の音声信号を生成する音声信号生成手段と、
前記音声信号生成手段が生成した音声信号に基づいて音源の方向を特定し、特定した方向を示す音源方向情報を出力する音源方向特定手段と、
前記音源方向情報に対応する前記撮影手段を選択する選択手段と、
前記音声信号生成手段が生成した音声信号のうち前記音源方向情報に対応する音声信号を抽出する音声抽出手段と、
前記選択手段が選択した撮影手段が出力する映像信号と前記音声抽出手段が抽出した音声信号をネットワークを介して他の端末装置に出力する出力手段と
を具備することを特徴とする通信装置。 A plurality of photographing means each for which a photographing range is set and outputting a video signal indicating an image within each photographing range;
Audio signal generation means for generating an audio signal of the collected sound;
Sound source direction specifying means for specifying the direction of the sound source based on the sound signal generated by the sound signal generating means, and outputting sound source direction information indicating the specified direction;
Selecting means for selecting the photographing means corresponding to the sound source direction information;
A voice extraction unit that extracts a voice signal corresponding to the sound source direction information from the voice signal generated by the voice signal generation unit;
A communication apparatus comprising: a video signal output by the photographing means selected by the selection means; and an output means for outputting the audio signal extracted by the audio extraction means to another terminal device via a network.
前記区分データを選択する区分データ選択手段とを有し、
前記出力手段は前記区分データ選択手段が選択した区分データに従って1画面を区分するとともに、区分データが示すエリアを前記特定のエリアとして認識することを特徴とする請求項5記載の通信装置。 A plurality of pieces of division data indicating how to divide all areas constituting one screen of the video signal output by the output means, and setting the specific area in the divided areas;
Section data selection means for selecting the section data,
6. The communication apparatus according to claim 5, wherein the output unit classifies one screen according to the segment data selected by the segment data selection unit and recognizes an area indicated by the segment data as the specific area.
前記パターン画像を選択するパターン画像選択手段とを有し、
前記パターン画像選択手段が選択したテンプレートに対応する各撮影範囲を前記テーブルを参照して決定し、決定した各撮影範囲に一致するように前記各撮影手段を制御する撮影範囲制御手段とを有することを特徴とする請求項1から6いずれかに記載の通信装置。 A table storing a plurality of pattern images showing a plurality of modes according to the sound source position of the region to be imaged, and storing a correspondence relationship between the sound source position in each pattern image and the imaging range of each imaging means;
Pattern image selection means for selecting the pattern image,
A shooting range control unit that determines each shooting range corresponding to the template selected by the pattern image selection unit with reference to the table, and controls each shooting unit so as to match the determined shooting range; The communication device according to any one of claims 1 to 6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006294269A JP2008113164A (en) | 2006-10-30 | 2006-10-30 | Communication apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006294269A JP2008113164A (en) | 2006-10-30 | 2006-10-30 | Communication apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008113164A true JP2008113164A (en) | 2008-05-15 |
Family
ID=39445451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006294269A Pending JP2008113164A (en) | 2006-10-30 | 2006-10-30 | Communication apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008113164A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011080868A (en) * | 2009-10-07 | 2011-04-21 | Hitachi Ltd | Sound monitoring system, and speech collection system |
JP2012156829A (en) * | 2011-01-27 | 2012-08-16 | Brother Ind Ltd | Encoder, encoding method, and encoding program |
JP2013048412A (en) * | 2011-07-28 | 2013-03-07 | Apple Inc | Devices with enhanced audio |
US8600443B2 (en) | 2011-07-28 | 2013-12-03 | Semiconductor Technology Academic Research Center | Sensor network system for acquiring high quality speech signals and communication method therefor |
JP2014161029A (en) * | 2011-02-09 | 2014-09-04 | Polycom Inc | Automatic video layout for multi-stream multi-site telepresence conference system |
CN107750020A (en) * | 2017-12-05 | 2018-03-02 | 北京中电慧声科技有限公司 | A kind of microphone and conference system with electronic table tablet stand |
CN114422738A (en) * | 2015-04-01 | 2022-04-29 | 猫头鹰实验室股份有限公司 | Compositing and scaling angularly separated sub-scenes |
CN114422743A (en) * | 2021-12-22 | 2022-04-29 | 惠州视维新技术有限公司 | Video stream display method, device, computer equipment and storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05276511A (en) * | 1992-03-25 | 1993-10-22 | Nec Corp | Television camera control system for video conference |
JPH08205114A (en) * | 1995-01-24 | 1996-08-09 | Nec Eng Ltd | Video conference system with automatic camera control function |
JPH09135432A (en) * | 1995-09-21 | 1997-05-20 | At & T Corp | Automatic video tracking system |
JPH1141577A (en) * | 1997-07-18 | 1999-02-12 | Fujitsu Ltd | Speaker position detector |
JP2005348144A (en) * | 2004-06-03 | 2005-12-15 | Sharp Corp | Information terminal device, method and program for shared media data exhibition |
-
2006
- 2006-10-30 JP JP2006294269A patent/JP2008113164A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05276511A (en) * | 1992-03-25 | 1993-10-22 | Nec Corp | Television camera control system for video conference |
JPH08205114A (en) * | 1995-01-24 | 1996-08-09 | Nec Eng Ltd | Video conference system with automatic camera control function |
JPH09135432A (en) * | 1995-09-21 | 1997-05-20 | At & T Corp | Automatic video tracking system |
JPH1141577A (en) * | 1997-07-18 | 1999-02-12 | Fujitsu Ltd | Speaker position detector |
JP2005348144A (en) * | 2004-06-03 | 2005-12-15 | Sharp Corp | Information terminal device, method and program for shared media data exhibition |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011080868A (en) * | 2009-10-07 | 2011-04-21 | Hitachi Ltd | Sound monitoring system, and speech collection system |
JP2012156829A (en) * | 2011-01-27 | 2012-08-16 | Brother Ind Ltd | Encoder, encoding method, and encoding program |
JP2014161029A (en) * | 2011-02-09 | 2014-09-04 | Polycom Inc | Automatic video layout for multi-stream multi-site telepresence conference system |
JP2013048412A (en) * | 2011-07-28 | 2013-03-07 | Apple Inc | Devices with enhanced audio |
US8600443B2 (en) | 2011-07-28 | 2013-12-03 | Semiconductor Technology Academic Research Center | Sensor network system for acquiring high quality speech signals and communication method therefor |
US10402151B2 (en) | 2011-07-28 | 2019-09-03 | Apple Inc. | Devices with enhanced audio |
US10771742B1 (en) | 2011-07-28 | 2020-09-08 | Apple Inc. | Devices with enhanced audio |
CN114422738A (en) * | 2015-04-01 | 2022-04-29 | 猫头鹰实验室股份有限公司 | Compositing and scaling angularly separated sub-scenes |
CN107750020A (en) * | 2017-12-05 | 2018-03-02 | 北京中电慧声科技有限公司 | A kind of microphone and conference system with electronic table tablet stand |
CN114422743A (en) * | 2021-12-22 | 2022-04-29 | 惠州视维新技术有限公司 | Video stream display method, device, computer equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008113164A (en) | Communication apparatus | |
EP2046032B1 (en) | A method and an apparatus for obtaining acoustic source location information and a multimedia communication system | |
JP2009071580A (en) | Communication device | |
JP4655190B2 (en) | Information processing apparatus and method, recording medium, and program | |
US7425979B2 (en) | Communication system | |
CN105959614A (en) | Method and system for processing video conference | |
JPH08163522A (en) | Video conference system and terminal equipment | |
JP2008288974A (en) | Video conference system and video conference device | |
JP2008311910A (en) | Communication equipment and conference system | |
JP2009239762A (en) | Video conference system and video conference method | |
JP2004135968A (en) | Remote controllable endoscope controlling system | |
CN114531564B (en) | Processing method and electronic equipment | |
JP2020178237A (en) | Video processing device, video processing method, and video processing program | |
CN109802968B (en) | Conference speaking system | |
JP2000324463A (en) | Video conference system | |
JP4957221B2 (en) | Communication device | |
JP2007251355A (en) | Relaying apparatus for interactive system, interactive system, and interactive method | |
JPH10271477A (en) | Video conference system | |
JP3031320B2 (en) | Video conferencing equipment | |
JP2011066745A (en) | Terminal apparatus, communication method and communication system | |
JPH0758859A (en) | Information transmitter and information receiver for conference | |
JP2009027246A (en) | Television conference apparatus | |
JP4223922B2 (en) | TV camera communication device | |
JP4632132B2 (en) | Language learning system | |
JPH08149345A (en) | Camera system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090820 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120124 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120529 |