JP6631166B2 - Imaging device, program, and imaging method - Google Patents
Imaging device, program, and imaging method Download PDFInfo
- Publication number
- JP6631166B2 JP6631166B2 JP2015214722A JP2015214722A JP6631166B2 JP 6631166 B2 JP6631166 B2 JP 6631166B2 JP 2015214722 A JP2015214722 A JP 2015214722A JP 2015214722 A JP2015214722 A JP 2015214722A JP 6631166 B2 JP6631166 B2 JP 6631166B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- speaker
- person
- range
- notification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
本発明は、撮影装置、プログラム及び撮影方法に関する。 The present invention relates to a photographing device, a program, and a photographing method.
会議で発話した参加者をカメラで追尾して撮影し、会議の映像を外部に配信するシステムがある。 2. Description of the Related Art There is a system in which a participant who speaks at a conference is tracked and photographed by a camera, and a video of the conference is distributed to the outside.
例えば、会議室に設置されているカメラにマイクアレイが配列されており、マイクアレイによって発話した参加者の方向が検知される。検知した参加者の方向にカメラの向きが制御され、発話している参加者が撮影される。別の参加者が発話した場合、発話した参加者の方向にカメラの向きが変更される。撮影された会議の映像(画像)は、ネットワークを介して閲覧者の端末に配信される。 For example, a microphone array is arranged on a camera installed in a conference room, and the direction of a participant who speaks is detected by the microphone array. The direction of the camera is controlled according to the detected direction of the participant, and the speaking participant is photographed. When another participant utters, the direction of the camera is changed to the direction of the uttering participant. The captured video (image) of the conference is distributed to the terminal of the viewer via the network.
例えば、複数のマイクを配列して構成されたマイクアレイを用いて発話者の方向を検出し、検出した方向にカメラの向きを制御する技術が開示されている(例えば、特許文献1)。 For example, a technology has been disclosed in which the direction of a speaker is detected using a microphone array configured by arranging a plurality of microphones, and the direction of a camera is controlled in the detected direction (for example, Patent Document 1).
しかしながら、従来の技術では、撮影時に鮮明な音声を収録できないという問題があった。 However, the conventional technique has a problem that clear audio cannot be recorded during shooting.
例えば、発話者がカメラから遠く離れた位置に着席している場合、音声が小さすぎるため、鮮明な音声を収録できないことがある。また、発話者がカメラに近すぎる位置に着席している場合、音声が大きくなりすぎるため、音声が割れるおそれがある。 For example, if the speaker is seated far away from the camera, the voice may be too low to record clear voice. Also, if the speaker is seated too close to the camera, the sound may be too loud and the sound may be broken.
そこで、開示の技術では、より鮮明な音声を収録することを目的とする。 Thus, the disclosed technology aims to record clearer audio.
実施形態では、人物を撮影する撮影装置において、発話した人物の方向及び発話時の音量を検出する検出部と、前記検出した方向に撮影方向を制御する制御部と、前記検出部により検出された方向の前記人物の画像上の大きさを計測する計測部と、前記音量が所定範囲に係る第1範囲の最小値よりも小さく、かつ前記人物の画像上の大きさが第2範囲の最小値よりも小さい場合、前記人物に通知をする通知部と、を有する撮影装置が開示される。 In the embodiment, in a photographing apparatus for photographing a person, a detection unit that detects a direction of the person who spoke and a volume at the time of speech, a control unit that controls a photographing direction in the detected direction, and a detection unit that is detected by the detection unit A measurement unit for measuring the size of the person in the image in the direction, wherein the volume is smaller than the minimum value of the first range according to the predetermined range , and the size of the person on the image is the minimum value of the second range. And a notifying unit for notifying the person when the distance is smaller than the threshold value.
より鮮明な音声を収録することができる。 More clear audio can be recorded.
以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することによって重複した説明を省く。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the specification and the drawings, components having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted.
(実施形態1)
図1は、映像配信システム1の全体の構成の例を示す図である。映像配信システム1は、サーバ2と、配信端末3と、利用者端末4a〜4nと、表示装置6とを有する。サーバ2は、通信部21を有する。配信端末3は、通信部31と、処理部32と、データ取得部33と、データ出力部34と、記憶部35とを有する。サーバ2と、配信端末3と、利用者端末4a〜4nとは、通信ネットワーク5を介して接続される。また、表示装置6は、データ出力部34に接続される。なお、表示装置6は、配信端末3に設けられていてもよい。
(Embodiment 1)
FIG. 1 is a diagram illustrating an example of the overall configuration of the video distribution system 1. The video distribution system 1 includes a server 2, a
データ取得部33は、例えば、会議室内の画像データ及び音声データを取得する。通信部31は、取得した画像データ及び音声データを、通信ネットワーク5を介してサーバ2に送信する。サーバ2は、通信ネットワーク5を介して利用者端末4a〜4nに画像データ及び音声データを配信する。
The
図2は、配信端末3のハードウェア構成を示す図である。図2に示されているように、配信端末3は、配信端末3全体の動作を制御するCPU(Central Processing Unit)101、IPL(Initial Program Loader)等のCPU101の駆動に用いられるプログラムを記憶したROM(Read Only Memory)102、CPU101のワークエリアとして使用されるRAM(Random Access Memory)103、端末用プログラム、画像データ、及び音声データ等の各種データを記憶するフラッシュメモリ104、CPU101の制御にしたがってフラッシュメモリ104に対する各種データの読み出し又は書き込みを制御するSSD(Solid State Drive)105、フラッシュメモリ等の記録メディア106に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ107、配信端末3の宛先を選択する場合などに操作される操作ボタン108、配信端末3の電源のON/OFFを切り換えるための電源スイッチ109、通信ネットワーク5を利用してデータ伝送をするためのネットワークI/F(Interface)111を備えている。
FIG. 2 is a diagram illustrating a hardware configuration of the
また、配信端末3は、CPU101の制御に従って被写体を撮像して画像データを得る内蔵型のカメラ112、このカメラ112の駆動を制御する撮像素子I/F113、音声を入力する内蔵型のマイク114、音声を出力する内蔵型のスピーカ115、CPU101の制御に従ってマイク114及びスピーカ115との間で音声信号の入出力を処理する音声入出力I/F116、CPU101の制御に従って外付けのディスプレイ120に画像データを伝送するディスプレイI/F117、各種の外部機器を接続するための外部機器接続I/F118、及び上記各構成要素を図2に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン110を備えている。
The
ディスプレイ120は、被写体の画像や操作用アイコン等を表示する液晶や有機ELによって構成された表示部である。また、ディスプレイ120は、ケーブル120cによってディスプレイI/F117に接続される。このケーブル120cは、アナログRGB(VGA)信号用のケーブルであってもよいし、コンポーネントビデオ用のケーブルであってもよいし、HDMI(登録商標)(High-Definition Multimedia Interface)やDVI(Digital Video Interactive)信号用のケーブルであってもよい。
The
カメラ112は、レンズや、光を電荷に変換して被写体の画像(映像)を電子化する固体撮像素子を含み、固体撮像素子として、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサや、CCD(Charge Coupled Device)イメージセンサ等が用いられる。
The
外部機器接続I/F118には、USB(Universal Serial Bus)ケーブル等によって、外付けカメラ、外付けマイク、及び外付けスピーカ等の外部機器がそれぞれ接続可能である。外付けカメラが接続された場合には、CPU101の制御に従って、内蔵型のカメラ112に優先して、外付けカメラが動作する。同じく、外付けマイクが接続された場合や、外付けスピーカが接続された場合には、CPU101の制御に従って、それぞれが内蔵型のマイク114や内蔵型のスピーカ115に優先して、外付けマイクや外付けスピーカを駆動させる。
External devices such as an external camera, an external microphone, and an external speaker can be connected to the external device connection I / F 118 via a USB (Universal Serial Bus) cable or the like. When an external camera is connected, the external camera operates prior to the built-in
なお、記録メディア106は、配信端末3に対して着脱自在な構成となっている。また、CPU101の制御にしたがってデータの読み出し又は書き込みを行う不揮発性メモリであれば、フラッシュメモリ104に限らず、EEPROM(Electrically Erasable and Programmable ROM)等を用いてもよい。
Note that the
更に、上記端末用プログラムは、インストール可能な形式又は実行可能な形式のファイルで、上記記録メディア106等の、コンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。また、上記端末用プログラムは、フラッシュメモリ104ではなくROM102に記憶させるようにしてもよい。
Further, the terminal program may be recorded in a computer-readable recording medium such as the
図3は、実施形態1に係る配信端末3の機能構成の例を示す図である。データ取得部33は、音声取得部33aと、撮像部33bとを有する。音声取得部33aは、会議室内の音声データを取得する。
FIG. 3 is a diagram illustrating an example of a functional configuration of the
撮像部33bは、発話者の画像データを取得する。撮像部33bは、取得した発話者の画像データを記憶部35に記憶する。また、通信部31は、会議室内の画像データ及び音声データをサーバ2へ送信する。
The
処理部32は、検出部32aと、制御部32bと、計測部32cと、通知部32dとを有する。検出部32aは、音声取得部33aを用いて、会議室で発話した参加者の方向を検出する。具体的には、検出部32aは、例えば、音声取得部33aで取得された音声データから音声の平均値を算出し、音声の平均値が所定値以上の場合に発話者が存在するものと判定する。
The
続いて、検出部32aは、マイクアレイを構成する各マイクから取得された音声データに基づいて発話者の方向を検出する。例えば、検出部32aは、座標を(0,0)とする原点から会議室内の基準点(座標(0,Y0))を撮影する方向を0度とした場合、撮像部33bの位置座標(X0,Y0)を取得し、また音声データに基づいて参加者を撮影した時の撮影角度θとを取得する。
Subsequently, the
以下、発話者の位置に対応した撮影方向に関するデータを方向データという。方向データは、撮像部33bの位置座標(X0,Y0)と参加者を撮影した時の撮影角度θとにより、例えば、(X0,Y0,θ)のように表される。
Hereinafter, data relating to the shooting direction corresponding to the position of the speaker is referred to as direction data. The direction data is represented, for example, as (X 0 , Y 0 , θ) by the position coordinates (X 0 , Y 0 ) of the
図4は、撮像部33bの位置座標と角度との関係を示す図である。方向データB(0,0,0)は、原点(0,0)から基準点β(0,Y0)を撮影した場合の撮像部33bの位置座標(0,0)及び撮影角度0度を示す。
FIG. 4 is a diagram illustrating a relationship between the position coordinates and the angle of the
方向データA(X1,Y1,θ1)は、撮像部33bの位置座標(X1,Y1)と、発話者が検出された方向に対応する撮像部33bの撮影角度θ1を示す。また、撮影角度θ1は、原点(0,0)から基準点β(0,Y0)を撮影した撮像部33bの撮影角度を0度とした場合において、位置座標(X1,Y1)から発話者を撮影したときの撮影角度を示す。なお、撮像部33bを原点(0,0)に固定する場合は、方向データを撮影角度θ1のみで表してもよい。
The direction data A (X 1 , Y 1 , θ 1 ) indicates the position coordinates (X 1 , Y 1 ) of the
また、検出部32aは、複数の撮像部33bを用いて発話者を検出してもよい。例えば、複数の撮像部33bを用いて発話者を検出する場合、発話者を検出した撮像部33bの識別番号nと、撮像部33bの位置及び撮影角度のデータ(X0,Y0,θ)とに基づいて、検出部32aは、カメラの識別番号nを含む方向データ(n,X0,Y0,θ)を取得してもよい。
Further, the
図3に戻る。制御部32bは、撮像部33bが発話者の方向に向くように撮影方向を制御する。例えば、制御部32bは、方向データに基づいて、発話者が画像の中心となるように撮像部33bを旋回させる。続いて、制御部32bは、撮像部33bによって撮影された発話者の画像データを取得する。制御部32bは、取得した画像データから顔部分の画像データを抽出して記憶部35に記憶させる。
Referring back to FIG. The
顔部分の画像データの抽出は、例えば、顔の形状及び肌色の領域を基に実行される。例えば、制御部32bは、画像データの画素のRGB値をYCC表色系に変換し、Cr値及びCb値が所定の範囲内にある肌色画素を抽出する。制御部32bは、画像データから肌色画素が集まっている領域を特定することにより、顔画像を抽出する。
The extraction of the image data of the face portion is executed, for example, based on the face shape and the skin color area. For example, the
計測部32cは、記憶部35に記憶された画像データに含まれる参加者の顔部分のサイズを計測する。計測部32cは、肌色画素が集まっている領域の左端、右端、上端、下端を特定することで顔のサイズ(インチ)を計測する。
The measuring
参加者が撮像部33bの近くに着席していた場合、比較的顔部分のサイズが大きくなり、参加者が撮像部33bから離れた位置に着席していた場合、比較的顔部分のサイズが小さくなる。
When the participant is seated near the
通知部32dは、音声取得部33aによって取得された参加者の音声が所定範囲の最大値よりも大きいか否かと、参加者の音声が所定範囲の最小値よりも小さいか否かと、を判定する。また、通知部32dは、例えば、発話者の音声データに係る音量の平均値を用いて上記所定範囲と比較する判定を行う。また、計測部32cによって計測された参加者の顔部分のサイズが所定範囲の最大値よりも大きいか否かと、参加者の顔部分のサイズが所定範囲の最小値よりも小さいか否かと、を判定する。なお、参加者の音声は、デシベル「dB」等の単位で表され、参加者の顔のサイズは、インチ「in」等の単位で表される。
The notifying
通知部32dは、参加者の音声が所定範囲の最大値よりも大きく、かつ参加者の顔部分のサイズが所定範囲の最大値よりも大きい場合、マイクから離れることを促すメッセージを参加者に通知する。また、通知部32dは、参加者の音声が所定範囲の最小値よりも小さく、かつ参加者の顔部分のサイズが所定範囲の最小値よりも小さい場合、マイクに近づくことを促すメッセージを参加者に通知する。
The notifying
このように、通知部32dは、発話者の音声データの音量が所定範囲の最大値よりも大きいか、又は所定の範囲の最小値よりも小さい場合に、さらに、発話者の顔のサイズに基づいて発話者に通知を行うか否かを判定する。例えば、通知部32dは、発話者がマイクから遠い位置にいるが、声量が大きく明瞭な音声を取得できる場合、発話者にメッセージを通知しない。これにより、音声の収録に影響がない場合にまで発話者にメッセージを通知することを避けることができる。
As described above, when the volume of the voice data of the speaker is larger than the maximum value of the predetermined range or smaller than the minimum value of the predetermined range, the
なお、本実施形態では、発話者の音声または顔部分のサイズのいずれか一方が所定範囲以内である場合、通知部32dは、当該発話者を通知の対象としないが、これに限定されない。例えば、通知部32dは、発話者の音声または顔部分のサイズのいずれか一方が所定範囲外の場合に当該発話者を通知の対象としてもよい。
In the present embodiment, when either the voice of the speaker or the size of the face part is within the predetermined range, the
通知部32dは、例えば、データ出力部34を介して表示装置6にテロップを表示することでメッセージを参加者に通知する。また、通知部32dは、データ出力部34を介して音声データを外部に出力することによってメッセージを参加者に通知してもよい。なお、参加者へのメッセージの通知方法は、上記に限定されない。
The
図5は、参加者の位置と通知されるメッセージとの関係を示す図である。図5(a)では、参加者βは、テーブルを介してデータ取得部33(音声取得部33a)の対面に着席しており、(b)(c)よりもデータ取得部33から遠い位置に着席している。かかる場合に、通知部32dは、参加者の音声が所定範囲の最小値よりも小さく、かつ参加者の顔部分のサイズが所定範囲の最小値よりも小さくなりやすいので、「マイクに近づいてください。」というテロップを表示装置6に表示する。
FIG. 5 is a diagram showing the relationship between the position of the participant and the message to be notified. In FIG. 5A, the participant β is seated opposite to the data acquisition unit 33 (
また、図5(b)では、参加者βは、データ取得部33の近辺に着席しており、(a)(c)よりもデータ取得部33に近い位置に着席している。かかる場合に、通知部32dは、参加者の音声が所定範囲の最大値よりも大きく、かつ参加者の顔部分のサイズが所定範囲の最大値よりも小さくなりやすいので、「マイクから離れてください。」というテロップを表示装置6に表示する。
In addition, in FIG. 5B, the participant β is seated near the
また、図5(c)では、参加者βは、データ取得部33に対して(a)よりもデータ取得部33に近く、(b)よりもデータ取得部33に遠い位置に着席している。かかる場合に、通知部32dは、参加者の音声が所定範囲内であるので、テロップ等を表示装置6に表示しない。
In FIG. 5C, the participant β is seated at a position closer to the
なお、参加者に通知されるメッセージの内容は、上記に限定されない。 Note that the content of the message notified to the participant is not limited to the above.
図6は、実施形態1の制御フローを示す図である。ビデオ会議の配信が開始されると(ステップS10)、検出部32aは、発話者が存在するか否かを判定する(ステップS11)。検出部32aは、例えば、音声取得部33aによって取得された音声データの音量の平均値が所定値以上であった場合に発話者が存在すると判定する。検出部32aは、発話者が存在しない場合(ステップS11No)、所定時間経過後、再度発話者が存在するか否かの判定(ステップS11)を実行する。一方、検出部32aは、発話者が存在する場合(ステップS11Yes)、音声取得部33aによって発話者の方向を検出する(ステップS12)。続いて、制御部32bは、発話者の方向に撮像部33bの撮影方向を制御する(ステップS13)。続いて、計測部32cは、撮像部33bによって撮影された発話者の画像データに基づき、発話者の顔部分のサイズを計測する(ステップS14)。
FIG. 6 is a diagram illustrating a control flow according to the first embodiment. When distribution of a video conference is started (step S10), the
通知部32dは、音声取得部33aから取得した発話者の音声データの音量が所定範囲の最小値よりも小さいか否かを判定する(ステップS15)。通知部32dは、発話者の音声データの音量が所定範囲の最小値よりも小さい場合(ステップ15Yes)、通知部32dは、計測部によって計測された発話者の顔のサイズが所定範囲の最小値よりも小さいか否かを判定する(ステップS16)。検出部32aは、発話者の顔のサイズが所定範囲の最小値以上の場合(ステップS16No)、タイマーで所定時間経過後(ステップS21)、再度発話者が存在するか否かの判定(ステップS11)を実行する。一方、通知部32dは、発話者の顔のサイズが所定範囲の最小値よりも小さい場合(ステップS16Yes)、発話者にマイクに近づくように通知する(ステップS17)。メッセージは、例えば、表示装置6にテロップを表示する等の方法によって通知される。続いて、検出部32aは、タイマーで所定時間経過後(ステップS21)、再度発話者が存在するか否かの判定(ステップS11)を実行する。
The notifying
発話者の音声データの音量の判定(ステップS15)において、通知部32dは、発話者の音声データの音量が所定範囲の最小値以上の場合(ステップ15No)、発話者の音声データの音量が所定範囲の最大値以下である否かの判定(ステップS18)に移行する。続いて、検出部32aは、発話者の音声データの音量が所定範囲の最大値以下である場合(ステップS18No)、タイマーで所定時間経過後(ステップS21)、再度発話者が存在するか否かの判定(ステップS11)を実行する。一方、通知部32dは、発話者の音声データの音量が所定範囲の最大値より大きい場合(ステップS18Yes)、発話者の顔サイズが所定範囲の最大値よりも大きいか否かを判定する(ステップS19)。検出部32aは、発話者の顔のサイズが最大値以下である場合(ステップS19No)、タイマーで所定時間経過後(ステップS21)、再度発話者が存在するか否かの判定(ステップS11)を実行する。一方、通知部32dは、発話者の顔のサイズが最大値より大きい場合(ステップS19Yes)、発話者にマイクから離れるように通知する(ステップS20)。続いて、検出部32aは、タイマーで所定時間経過後(ステップS21)、再度発話者が存在するか否かの判定(ステップS11)を実行する。
In the determination of the volume of the voice data of the speaker (step S15), when the volume of the voice data of the speaker is equal to or more than the minimum value of the predetermined range (No in step 15), the
(実施形態2)
図7は、実施形態2に係る配信端末7の機能構成の例を示す図である。配信端末7は、通信部31と、処理部32と、データ取得部33と、データ出力部34と、記憶部35とを有する。記憶部35は、ユーザテーブル35aを有する。
(Embodiment 2)
FIG. 7 is a diagram illustrating an example of a functional configuration of the distribution terminal 7 according to the second embodiment. The distribution terminal 7 includes a
データ取得部33は、音声取得部33aと、撮像部33bとを有する。処理部32は、検出部32aと、制御部32bと、計測部32cと、通知部32dと、格納部32eとを有する。格納部32eは、ユーザテーブル35aに接続される。また、通知部32dは、データ出力部34に接続される。
The
図8は、ユーザテーブル35aのデータ構造の例を示す図である。ユーザテーブル35aは、通知済みの参加者を識別するためのテーブルであり、ユーザIDと、顔画像と、通知の有無とを対応付ける。「ユーザID」は、ユーザを一意に識別する番号である。配信端末7は、「ユーザID」によって参加者を識別する。「顔画像」は、ユーザの顔部分の画像データを示す。例えば、「顔画像」は、ユーザ全体の画像データから顔部分を切り抜いた画像データである。例えば、JPEG、GIF等の画像フォーマットで記憶される。「通知の有無」は、参加者(ユーザ)に対して位置の移動を促す通知を行ったか否かを示す。「有」が格納されている場合、既に参加者に「マイクに近づいてください。」「マイクから離れてください。」等の通知を行ったことを示す。「無」が格納されている場合、まだ参加者に通知を行っていないことを示す。例えば、ユーザテーブル35aには、ユーザID「0101」の顔画像は「画像a」であり、まだ通知を行っていないことを示す。また、ユーザID「0103」の顔画像は「画像c」であり、既に通知を行ったことを示す。 FIG. 8 is a diagram illustrating an example of the data structure of the user table 35a. The user table 35a is a table for identifying a notified participant, and associates a user ID, a face image, and the presence or absence of a notification. “User ID” is a number that uniquely identifies a user. The distribution terminal 7 identifies a participant by the “user ID”. “Face image” indicates image data of a user's face portion. For example, “face image” is image data obtained by cutting out a face portion from image data of the entire user. For example, it is stored in an image format such as JPEG or GIF. The “presence / absence of notification” indicates whether or not a notification to urge the participant (user) to move the position is made. If "Yes" is stored, it indicates that the participant has already notified the participant such as "Please approach the microphone." When "absence" is stored, it indicates that the participant has not been notified yet. For example, the user table 35a indicates that the face image of the user ID “0101” is “image a” and has not yet been notified. Further, the face image of the user ID “0103” is “image c”, which indicates that the notification has already been performed.
図7に戻る。検出部32aは、音声取得部33aを用いて、会議室で発話した参加者の方向を検出する。例えば、検出部32aは、座標を(0,0)とする原点から会議室内の基準点(座標(X0,Y0))を撮影する方向を0度とした場合に、撮像部33bの位置座標(X1,Y1)と参加者を撮影した時の撮影角度θとを取得する。
Referring back to FIG. The
制御部32bは、発話者の方向に、撮像部33bの撮影方向を制御する。例えば、制御部32bは、検出部32aによって検出された方向データに基づいて、発話者が撮影画像の中心となるように撮像部33bを旋回させる。
The
計測部32cは、記憶部35に記憶された画像データに含まれる参加者の顔部分のサイズを計測する。
The measuring
通知部32dは、発話者の音声データの音量が所定範囲の最大値よりも大きく、かつ発話者の顔サイズが所定範囲の最大値よりも大きい場合、または、発話者の音声データの音量が所定範囲の最小値よりも小さく、かつ発話者の顔サイズが所定範囲の最小値よりも小さい場合、発話者の画像データを内蔵メモリ内に記憶させる。発話者の画像データは、発話者全体の画像であってもよいし、発話者の顔部分を切り抜いた画像であってもよい。なお、通知部32dは、発話者の音声データの音量が所定範囲以内である場合、及び発話者の顔サイズが所定範囲以内である場合は、処理を終了させる。
The notifying
続いて、通知部32dは、ユーザテーブル35aに記憶されているユーザの画像と比較し、顔認証することで発話者のユーザIDを特定する。例えば、通知部32dは、固有顔等の顔認証アルゴリズムを用いて顔認証を行う。格納部32eは、ユーザテーブル35aにおいて、特定したユーザIDに対応する「通知の有無」を参照し、過去に発話者に通知を行ったか否かを判定する。続いて、通知部32dは、通知が行われていない場合、発話者に位置を移動する通知を行う。
Subsequently, the notifying
例えば、通知部32dは、発話者の音声データの音量が所定範囲の最大値よりも大きく、かつ発話者の顔サイズが所定範囲の最大値よりも大きい場合、マイクから離れることを促すメッセージを発話者に通知する。一方、通知部32dは、発話者の音声データの音量が所定範囲の最小値よりも小さく、かつ発話者の顔サイズが所定範囲の最小値よりも小さい場合、マイクに近づくことを促すメッセージを発話者に通知する。
For example, when the volume of the voice data of the speaker is larger than the maximum value in the predetermined range and the face size of the speaker is larger than the maximum value in the predetermined range, the notifying
格納部32eは、通知部32dによって発話者にメッセージが通知された場合、ユーザテーブル35aのユーザIDに対応する「通知の有無」に、通知済みであることを示す「有」を格納する。
When the message is notified to the speaker by the notifying
図9は、実施形態2の制御フローを示す図である。ビデオ会議の配信が開始されると(ステップS30)、検出部32aは、発話者が存在するか否かを判定する(ステップS31)。検出部32aは、発話者が存在しない場合(ステップS31No)、所定時間経過後、再度発話者が存在するか否かの判定(ステップS31)を実行する。一方、検出部32aは、発話者が存在する場合(ステップS31Yes)、音声取得部33aによって発話者の方向を検出する(ステップS32)。続いて、制御部32bは、発話者の方向に撮像部33bの撮影方向を制御する(ステップS33)。続いて、計測部32cは、発話者の顔部分のサイズを計測する(ステップS34)。
FIG. 9 is a diagram illustrating a control flow according to the second embodiment. When distribution of the video conference is started (step S30), the
続いて、通知部32dは、音声取得部33aから取得した発話者の音声データの音量が所定範囲の最小値よりも小さいか否かを判定する(ステップS35)。通知部32dは、発話者の音声データの音量が所定範囲の最小値よりも小さい場合(ステップ35Yes)、計測部によって計測された発話者の顔のサイズが所定範囲の最小値よりも小さいか否かを判定する(ステップS36)。検出部32aは、発話者の顔のサイズが所定範囲の最小値以上の場合(ステップS36No)、タイマーで所定時間経過後(ステップS41)、再度発話者が存在するか否かの判定(ステップS31)を実行する。一方、通知部32dは、発話者の顔のサイズが所定範囲の最小値よりも小さい場合、認証処理を実行する(ステップS37)。認証処理に関しては、図10で説明する。続いて、検出部32aは、タイマーで所定時間経過後(ステップS41)、再度発話者が存在するか否かの判定(ステップS31)を実行する。
Subsequently, the
発話者の音声データの音量の判定(ステップS35)において、通知部32dは、発話者の音声データの音量が所定範囲の最小値以上の場合(ステップ35No)、発話者の音声データの音量が所定範囲の最大値以下であるか否かの判定(ステップS38)に移行する。続いて、検出部32aは、発話者の音声データの音量が所定範囲の最大値以下である場合(ステップS38No)、タイマーで所定時間経過後(ステップS41)、再度発話者が存在するか否かの判定(ステップS31)を実行する。一方、通知部32dは、発話者の音声データの音量が所定範囲の最大値より大きい場合(ステップS38Yes)、発話者の顔サイズが所定範囲の最大値よりも大きいか否かを判定する(ステップS39)。検出部32aは、発話者の顔のサイズが最大値以下である場合(ステップS39No)、タイマーで所定時間経過後(ステップS41)、再度発話者が存在するか否かの判定(ステップS31)を実行する。一方、通知部32dは、発話者の顔のサイズが最大値より大きい場合(ステップS39Yes)、認証処理を実行する(ステップS40)。続いて、検出部32aは、タイマーで所定時間経過後(ステップS21)、再度発話者が存在するか否かの判定(ステップS31)を実行する。
In the determination of the volume of the speaker's voice data (step S35), when the volume of the speaker's voice data is equal to or greater than the minimum value in the predetermined range (step 35No), the notifying
図10は、認証処理のフローを示す図である。図10の認証処理は、図9の(ステップS37)及び(ステップS40)に対応する。通知部32dは、発話者の画像データを内蔵メモリ内に記憶させる(ステップS50)。続いて、通知部32dは、ユーザテーブル35aに記憶されているユーザの顔部分の画像データと比較し、顔認証を行うことで発話者のユーザIDを特定する(ステップS51)。続いて、格納部32eは、ユーザテーブル35aを参照し、過去に発話者に位置移動の通知を行ったか否かを判定する(ステップS52)。通知部32dは、過去に発話者に通知を行っていた場合(ステップS52No)、処理を終了させる。まだ発話者に通知を行っていない場合(ステップS52Yes)、通知部32dは、発話者に位置を移動する通知を行う(ステップS53)。
FIG. 10 is a diagram illustrating a flow of the authentication process. The authentication processing in FIG. 10 corresponds to (Step S37) and (Step S40) in FIG. The notifying
例えば、通知部32dは、発話者の音声データの音量が所定範囲の最小値よりも小さく、かつ発話者の顔サイズが所定範囲よりも小さい場合(ステップS37から移行した場合)、マイクに近づくことを促すメッセージを発話者に通知する。一方、通知部32dは、発話者の音声データの音量が所定範囲の最大値よりも大きく、かつ発話者の顔サイズが所定範囲の最大値よりも大きい場合(ステップS40から移行した場合)、マイクから離れることを促すメッセージを発話者に通知する。
For example, when the volume of the voice data of the speaker is smaller than the minimum value of the predetermined range and the face size of the speaker is smaller than the predetermined range (when shifting from step S37), the
続いて、格納部32eは、ユーザテーブル35aの「通知の有無」に「有」を格納する(ステップS54)。
Subsequently, the
以上のように、過去にユーザに位置移動を通知したか否かを事前に判定することで、会議室内が満席である場合等のように、ユーザが移動できない事情がある場合に繰り返し通知することを避けることができる。 As described above, by determining in advance whether or not the user has been notified of the position movement in the past, it is possible to repeatedly notify when there is a situation where the user cannot move, such as when the conference room is full. Can be avoided.
(実施形態3)
実施形態1又は2のように顔のサイズから距離を計測する以外の方法で、発話者との距離を計測してもよい。例えば、計測部32cは、距離センサを用いて発話者との距離を計測してもよい。距離センサには、例えば、ステレオカメラ、超音波センサ、赤外線センサ等が含まれる。なお、ステレオカメラは、発話者との距離の測定に並行して、発話者の画像データの取得を行ってもよい。
(Embodiment 3)
The distance from the speaker may be measured by a method other than measuring the distance from the face size as in the first or second embodiment. For example, the measuring
図11Aは、実施形態3の配信端末8の第1のハードウェア構成を示す図である。第1のハードウェア構成では、ステレオカメラ50を用いて発話者との距離が測定される。配信端末8は、撮像素子I/F113にステレオカメラ50が接続されている点で実施形態1の配信端末3と異なり、他のハードウェア構成は実施形態1と同様である。なお、撮像素子I/F113に、撮影用のカメラ112と距離計測用のステレオカメラ50とがそれぞれ接続される構成であってもよい。
FIG. 11A is a diagram illustrating a first hardware configuration of the distribution terminal 8 according to the third embodiment. In the first hardware configuration, the distance from the speaker is measured using the
図11Bは、実施形態3の配信端末8の第2のハードウェア構成を示す図である。第2のハードウェア構成は、赤外線センサ51を用いて発話者との距離が測定される。配信端末8は、バス110に接続されたセンサI/F122を介して赤外線センサ51又は超音波センサ52が接続されている点で実施形態1の配信端末3と異なり、他のハードウェア構成は実施形態1と同様である。
FIG. 11B is a diagram illustrating a second hardware configuration of the distribution terminal 8 according to the third embodiment. In the second hardware configuration, the distance from the speaker is measured using the
また、配信端末8は、図3と同様の機能構成を有するので、各構成の説明を省略する。 In addition, the distribution terminal 8 has the same functional configuration as that of FIG.
図12は、ステレオカメラ50の外観の一例を示す図である。ステレオカメラ50は、並列して設置された複数のカメラを用いて発話者との距離を計測する機器である。各カメラの撮影方向は、独立して制御される。図12の例では、2つのカメラが近接して設置されているが、カメラ間の距離を大きくしてもよい。また、図12の例では、2つのカメラを使用しているが3つ以上のカメラを使用してもよい。
FIG. 12 is a diagram illustrating an example of the appearance of the
ステレオカメラ50を用いて発話者との距離を算出する方法について説明する。カメラ間の距離A[m]と、カメラの焦点距離B[m]と、各カメラによって撮像された発話者の位置の差C[m]に基づいて、計測部32cは、次の数式に基づいて発話者との距離D[m]を算出する。
A method of calculating the distance from the speaker using the
(数1)
D=A×B/C
カメラ間の距離A[m]は、大きい方が距離の測定精度が高いが、カメラ間の距離Aを大きくする場合、距離の測定時間が大きくなる。カメラ間の距離が大きいと、発話者の探索を開始してから各カメラで発話者を捕捉するまでの時間が大きくなるためである。カメラ間の距離A[m]を大きくする場合、ステレオカメラ50で計測するターゲットとなる距離範囲を狭く設定することで、探索にかかる時間を小さくすることができる。
(Equation 1)
D = A × B / C
The greater the distance A [m] between the cameras, the higher the distance measurement accuracy is. However, when the distance A between the cameras is increased, the distance measurement time increases. This is because if the distance between the cameras is large, the time from the start of the search for the speaker to the capture of the speaker by each camera becomes long. When the distance A [m] between the cameras is increased, the time required for the search can be reduced by setting the distance range to be the target measured by the
例えば、ステレオカメラ50で計測するターゲットとなる距離範囲は、例えば、撮影する室内の広さに応じて設定される。ステレオカメラ50で計測するターゲットとなる距離範囲をあらかじめ設定しておくことで、発話者との距離を計測する時間を短くすることができる。
For example, the target distance range measured by the
また、発話者の位置の差Cは、一方のカメラにより撮像された発話者の位置と、他方のカメラにより撮像された発話者の位置とが左右に例えば、5cmずれていた場合、発話者の位置の差C[m]は0.05となる。 Further, the difference C between the positions of the speakers is, for example, when the position of the speaker imaged by one camera and the position of the speaker imaged by the other camera are shifted left and right by 5 cm, for example. The position difference C [m] is 0.05.
また、ステレオカメラ50は、計測部33c以外に図2のカメラ112として用いてもよい。例えば、ステレオカメラ50は、カメラ112として使用される場合、複数のカメラにより撮像された画像を合成して画像データを生成してもよい。また、ステレオカメラ50は、一方のカメラで撮像された画像を画像データとしてサーバ2に送信してもよい。また、ステレオカメラ50は、専ら発話者との距離計測に用い、配信端末3は、発話者の画像データを取得するためのカメラ112を別に備えてもよい。
Further, the
図13は、赤外線センサ51を有するカメラ112の外観の一例を示す図である。例えば、図13に示すように赤外線センサ51は、カメラ112の撮影方向と同じ方向に向くように、カメラ112と並列して配置される。赤外線センサ51は、検出部32aによって検出された発話者の方向にカメラ112の撮影方向が制御された後に、発話者との距離の測定を開始する。なお、超音波センサ52を距離センサとして用いる場合も、図13の赤外線センサ51と同様にカメラ112と並列して配置される。
FIG. 13 is a diagram illustrating an example of an external appearance of a
また、赤外線センサ51が距離センサである場合、赤外線センサ51は、例えば、発話者に赤外線を照射し、反射光を検出した受光素子の位置に基づいて三角測量の原理で発話者との距離を計測する。
Further, when the
具体的には、赤外線センサ51は、発話者に赤外線を照射し、位置検出素子PSD(Position Sensing Device)で発話者からの反射光を受光する。発話者との距離に応じて反射光を検出する位置検出素子の位置が変化するので、計測部32cは、反射光を検出した位置検出素子の位置を距離に換算することにより、発話者との距離を算出することができる。
Specifically, the
なお、赤外線センサ51として使用される素子は、PSDに限定されず、OES(Opto Elektronischer Schaltkreis)等の他の種類の素子を使用してもよい。
Note that the element used as the
また、超音波センサ52を用いる場合は、計測部32cは、検出部32aによって検出された発話者の方向に制御された後に、検出された発話者に超音波を発信して反射波を計測、又は発話者に赤外線を照射して反射光を計測することで、発話者との距離を測定する。
When the
例えば、計測部32cは、超音波センサを用いて発話者に超音波を発信してから反射波を受信するまでの時間を計測することで発話者との距離を測定する。例えば、発話者に超音波を発信してから反射波を受信するまでの時間をt[s]、音速をc[m/s]とした場合、計測部32cは、以下の式に基づいて発話者との距離Lを算出する。
For example, the measuring
(数2)
L=c×t/2
図14は、実施形態3の制御フローを示す図である。ビデオ会議の配信が開始されると(ステップS60)、検出部32aは、発話者が存在するか否かを判定する(ステップS61)。検出部32aは、発話者が存在しない場合(ステップS61No)、所定時間経過後、再度発話者が存在するか否かの判定(ステップS61)を実行する。一方、検出部32aは、発話者が存在する場合(ステップS61Yes)、音声取得部33aによって発話者の方向を検出する(ステップS62)。続いて、制御部32bは、発話者の方向に撮像部33bの撮影方向を制御する(ステップS63)。続いて、計測部32cは、ステレオカメラ50、赤外線センサ51又は超音波センサ52に基づいて、発話者との距離を計測する(ステップS64)。
(Equation 2)
L = c × t / 2
FIG. 14 is a diagram illustrating a control flow according to the third embodiment. When distribution of the video conference is started (step S60), the
通知部32dは、音声取得部33aから取得した発話者の音声データの音量が所定範囲の最小値よりも小さいか否かを判定する(ステップS65)。通知部32dは、発話者の音声データの音量が所定範囲の最小値よりも小さい場合(ステップ65Yes)、計測部によって計測された発話者との距離が所定範囲の最大値よりも大きいか否かを判定する(ステップS66)。検出部32aは、発話者との距離が所定範囲の最大値以下の場合(ステップS66No)、タイマーで所定時間経過後(ステップS71)、再度発話者が存在するか否かの判定(ステップS61)を実行する。一方、通知部32dは、発話者との距離が所定範囲の最大値より大きい場合(ステップS66Yes)、発話者にマイクに近づくように通知する(ステップS67)。続いて、検出部32aは、タイマーで所定時間経過後(ステップS71)、再度発話者が存在するか否かの判定(ステップS61)を実行する。
The notifying
発話者の音声データの音量が所定範囲の最小値よりも小さいか否かの判定(ステップS65)において、通知部32dは、発話者の音声データの音量が所定範囲の最小値以上の場合(ステップ65No)、発話者の音声データの音量が所定範囲の最大値以下であるか否かの判定(ステップS68)に移行する。続いて、検出部32aは、発話者の音声データの音量が所定範囲の最大値以下である場合(ステップS68No)、タイマーで所定時間経過後(ステップS71)、再度発話者が存在するか否かの判定(ステップS61)を実行する。一方、通知部32dは、発話者の音声データの音量が所定範囲の最大値より大きい場合(ステップS68Yes)、発話者との距離が所定範囲の最小値より小さいか否かを判定する(ステップS69)。発話者との距離が最小値以上である場合(ステップS69No)、検出部32aは、タイマーで所定時間経過後(ステップS71)、再度発話者が存在するか否かの判定(ステップS61)を実行する。
In determining whether or not the volume of the voice data of the speaker is lower than the minimum value of the predetermined range (step S65), the notifying
一方、通知部32dは、発話者との距離が最小値より小さい場合(ステップS69Yes)、発話者にマイクから離れるように通知する(ステップS70)。続いて、検出部32aは、タイマーで所定時間経過後(ステップS71)、再度発話者が存在するか否かの判定(ステップS61)を実行する。
On the other hand, when the distance to the speaker is smaller than the minimum value (step S69 Yes), the
また、実施形態3において実施形態2で説明した認証処理を行ってもよい。かかる場合、(ステップS67)及び(ステップS70)において、図10に示した認証処理が行われる。 In the third embodiment, the authentication processing described in the second embodiment may be performed. In such a case, in (Step S67) and (Step S70), the authentication processing shown in FIG. 10 is performed.
また、実施形態1乃至3は、コンピュータの媒体に格納されたプログラムを実行させることにより、配信端末3、配信端末7又は配信端末8の機能を実現できる。
In the first to third embodiments, the functions of the
以上、配信端末3を実施形態1で、配信端末7を実施形態2で、配信端末8を実施形態3で説明したが、本発明は上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。
As described above, the
なお、本実施形態において、配信端末3及び配信端末7は、撮影装置の一例である。記憶部35は、記憶部の一例である。検出部32aは、検出部の一例である。制御部32bは、制御部の一例である。計測部32cは、計測部の一例である。通知部32dは、通知部の一例である。格納部32eは、格納部の一例である。ユーザIDは、識別情報の一例である。
Note that, in the present embodiment, the
2 サーバ
3,7,8 配信端末
4 利用者端末
5 通信ネットワーク
6 表示装置
31 通信部
32 処理部
32a 検出部
32b 制御部
32c 計測部
32d 通知部
33 データ取得部
33a 音声取得部
33b 撮像部
34 データ出力部
35 記憶部
100 ビデオ配信システム
2
Claims (8)
発話した人物の方向及び発話時の音量を検出する検出部と、
前記検出した方向に撮影方向を制御する制御部と、
前記検出部により検出された方向の前記人物の画像上の大きさを計測する計測部と、
前記音量が所定範囲に係る第1範囲の最小値よりも小さく、かつ前記人物の画像上の大きさが第2範囲の最小値よりも小さい場合、前記人物に通知をする通知部と、
を有する撮影装置。 In a photographing device for photographing a person,
A detection unit that detects the direction of the uttered person and the volume at the time of utterance;
A control unit that controls a shooting direction to the detected direction,
A measurement unit that measures the size of the person in the direction of the direction detected by the detection unit,
A notification unit that notifies the person when the volume is smaller than the minimum value of the first range according to the predetermined range and the size of the person on the image is smaller than the minimum value of the second range ;
An imaging device having
前記通知部は、前記音量が前記第1範囲の最小値よりも小さく、かつ前記人物との距離が第3範囲の最大値よりも大きい場合、前記人物に通知をする請求項1に記載の撮影装置。 The measuring unit measures a distance to the person in the direction detected by the detecting unit ,
The notification unit, the volume is smaller than the minimum value before Symbol first range, and when the distance between the detected persons is larger than the maximum value of the third range, according to claim 1, a notification to the person Shooting equipment.
前記通知部は、前記音量が前記第1範囲の最大値よりも大きく、かつ前記人物との距離が第3範囲の最小値よりも小さい場合、前記人物に通知をする請求項2に記載の撮影装置。 The measuring unit measures a distance to the person in the direction detected by the detecting unit ,
The notification unit, the volume is greater than the maximum value before Symbol first range, and when the distance between the detected persons is smaller than the minimum value of the third range, according to claim 2, the notification to the person Shooting equipment.
前記通知部は、前記撮影された人物に対して通知を行っていない場合に、通知をする請求項1〜5のいずれか1項に記載の撮影装置。 A storage unit that stores the identification information of the person corresponding to the face image extracted from the captured image in the storage unit in association with the presence or absence of the notification,
The notification unit, when not subjected to notification to the photographed person photographing apparatus according to any one of claims 1 to 5, the notification.
発話した人物の方向及び発話時の音量を検出し、
前記検出した方向に撮影方向を制御し、
前記検出した方向の前記人物の画像上の大きさを計測し、
前記音量が所定範囲に係る第1範囲の最小値よりも小さく、かつ前記人物の画像上の大きさが第2範囲の最小値よりも小さい場合、前記人物に通知をする処理を撮影装置に実行させるプログラム。 A program to be executed by a photographing device for photographing a person,
Detects the direction of the person who spoke and the volume at the time of speech,
Controlling the shooting direction to the detected direction,
Measure the size of the person in the detected direction on the image,
When the sound volume is smaller than the minimum value of the first range related to the predetermined range and the size of the person on the image is smaller than the minimum value of the second range , a process of notifying the person is performed on the photographing apparatus. Program to let.
発話した人物の方向及び発話時の音量を検出し、
前記検出した方向に撮影方向を制御し、
前記検出した方向の前記人物の画像上の大きさを計測し、
前記音量が所定範囲に係る第1範囲の最小値よりも小さく、かつ前記人物の画像上の大きさが第2範囲の最小値よりも小さい場合、前記人物に通知をする処理を撮影装置が実行する方法。 A method performed by a photographing device for photographing a person,
Detects the direction of the person who spoke and the volume at the time of speech,
Controlling the shooting direction to the detected direction,
Measure the size of the person in the detected direction on the image,
When the sound volume is smaller than the minimum value of the first range related to the predetermined range and the size of the person on the image is smaller than the minimum value of the second range , the photographing device executes a process of notifying the person. how to.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015153404 | 2015-08-03 | ||
JP2015153404 | 2015-08-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017034645A JP2017034645A (en) | 2017-02-09 |
JP6631166B2 true JP6631166B2 (en) | 2020-01-15 |
Family
ID=57986312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015214722A Expired - Fee Related JP6631166B2 (en) | 2015-08-03 | 2015-10-30 | Imaging device, program, and imaging method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6631166B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021084905A1 (en) * | 2019-10-30 | 2021-05-06 | パナソニックIpマネジメント株式会社 | Sound pickup device and sound pickup method |
CN113742517B (en) * | 2021-08-11 | 2022-09-27 | 北京百度网讯科技有限公司 | Voice packet generation method and device, electronic equipment and storage medium |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4356663B2 (en) * | 2005-08-17 | 2009-11-04 | ソニー株式会社 | Camera control device and electronic conference system |
JP5028944B2 (en) * | 2006-10-17 | 2012-09-19 | ヤマハ株式会社 | Audio conference device and audio conference system |
JP2010087891A (en) * | 2008-09-30 | 2010-04-15 | Yamaha Corp | Sound collection apparatus and mobile phone device |
JP2012034119A (en) * | 2010-07-29 | 2012-02-16 | Brother Ind Ltd | Terminal device and processing method |
JP2012134936A (en) * | 2010-11-29 | 2012-07-12 | Ricoh Co Ltd | Tv conference apparatus |
JP5556719B2 (en) * | 2011-03-28 | 2014-07-23 | ブラザー工業株式会社 | Remote conference equipment |
-
2015
- 2015-10-30 JP JP2015214722A patent/JP6631166B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017034645A (en) | 2017-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102531128B1 (en) | Electronic device for photographing image using camera according to a plurality of frame rate and method for operating thereof | |
KR102512298B1 (en) | Electronic device displaying a interface for editing video data and method for controlling thereof | |
US10158798B2 (en) | Imaging apparatus and method of controlling the same | |
CN109756671B (en) | Electronic device for recording images using multiple cameras and method of operating the same | |
US20160100092A1 (en) | Object tracking device and tracking method thereof | |
JP5246790B2 (en) | Sound data processing apparatus and program | |
KR102661185B1 (en) | Electronic device and method for obtaining images | |
KR102622123B1 (en) | Electronic device for photograping moving picture by adjusting threshold associated with movement of object in region of interest according to movement of electronic device and method for operating thereof | |
KR102668233B1 (en) | Electronic device for obtaining images by controlling frame rate for external object moving through point ofinterest and operating method thereof | |
CN103024265A (en) | Imaging device and imaging method for imaging device | |
JP6250297B2 (en) | Voice input device and image display device | |
WO2018165912A1 (en) | Imaging method and imaging control apparatus | |
KR102655625B1 (en) | Method and photographing device for controlling the photographing device according to proximity of a user | |
US20140369611A1 (en) | Image processing apparatus and control method thereof | |
JP6631166B2 (en) | Imaging device, program, and imaging method | |
US11706378B2 (en) | Electronic device and method of controlling electronic device | |
JP2017034313A (en) | Imaging apparatus, program, and imaging method | |
US11956530B2 (en) | Electronic device comprising multi-camera, and photographing method | |
CN108476290B (en) | Electronic device for providing panoramic image and control method thereof | |
JP2020057901A (en) | Information processing apparatus, control method thereof, and program | |
JP5712599B2 (en) | Imaging apparatus and program | |
WO2017018259A1 (en) | Electronic device, control method and program | |
JP6174114B2 (en) | Voice input device and image display device provided with the voice input device | |
KR20200093760A (en) | Electronic device having a plurality of lens and controlling method thereof | |
JP6524657B2 (en) | Conference equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180910 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190610 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190625 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190822 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191125 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6631166 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |