JP4660592B2 - Camera control apparatus, camera control method, camera control program, and recording medium - Google Patents
Camera control apparatus, camera control method, camera control program, and recording medium Download PDFInfo
- Publication number
- JP4660592B2 JP4660592B2 JP2008521277A JP2008521277A JP4660592B2 JP 4660592 B2 JP4660592 B2 JP 4660592B2 JP 2008521277 A JP2008521277 A JP 2008521277A JP 2008521277 A JP2008521277 A JP 2008521277A JP 4660592 B2 JP4660592 B2 JP 4660592B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- candidate
- input
- phrase
- shooting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 33
- 238000001514 detection method Methods 0.000 claims description 17
- 238000003384 imaging method Methods 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Studio Devices (AREA)
- Accessories Of Cameras (AREA)
- Navigation (AREA)
Description
この発明は、カメラの撮影方向を制御するカメラ制御装置、カメラ制御方法、カメラ制御プログラムおよび記録媒体に関する。ただし、この発明の利用は、上述したカメラ制御装置、カメラ制御方法、カメラ制御プログラムおよび記録媒体に限られない。 The present invention relates to a camera control device, a camera control method, a camera control program, and a recording medium that control a shooting direction of a camera. However, the use of the present invention is not limited to the above-described camera control device, camera control method, camera control program, and recording medium.
従来、インターネットや電話回線を用いたテレビ会議システムなどでは、音声が発せられた方向にカメラを向けて発言者を撮影し、違和感なく会議を進行できるようにしたものがある。このようなテレビ会議システムでは、たとえば、音声発生方向がカメラの現在の画角内にない場合は、雲台による方向変更により画角内に入るか否か判定し、入ると判定したときは、画角内に入るように雲台を駆動し、画像を表示し、入らないと判定したときは、画角内に入るように、画角を広げ、かつ雲台を駆動し、画像を表示する(たとえば、下記特許文献1参照。)。 2. Description of the Related Art Conventionally, there are some video conference systems using the Internet or telephone lines in which a speaker is photographed by directing a camera in a direction in which voice is emitted so that a conference can proceed without a sense of incongruity. In such a video conference system, for example, when the sound generation direction is not within the current angle of view of the camera, it is determined whether or not the angle of view is within the angle of view by changing the direction with the camera platform. When the pan head is driven to enter the angle of view and an image is displayed, and it is determined that it does not enter, the angle of view is widened and the pan head is driven to display the image so that it is within the angle of view. (For example, see Patent Document 1 below.)
しかしながら、上述した従来技術によれば、発言者による発言の内容を考慮した撮影をおこなうことができないという問題点が一例として挙げられる。従来技術において、カメラによって撮影されるのは音声を発している発言者であるが、発話の内容によっては、発言者を撮影対象とするのが必ずしも適切ではない場合がある。たとえば、カメラの撮影可能範囲内に、発言内容に関連する人物がいる場合には、その人物を撮影する方が好ましい場合がある。 However, according to the above-described conventional technology, there is a problem that it is not possible to perform shooting in consideration of the content of the speech by the speaker. In the prior art, a speaker who is shooting a voice is photographed by a camera. However, depending on the content of the utterance, it may not always be appropriate to photograph the speaker. For example, if there is a person related to the content of the remark within the shootable range of the camera, it may be preferable to shoot that person.
また、上述した従来技術によれば、発言者以外を撮影対象としたい場合は、操作者によるマニュアル操作によってカメラの撮影方向を変更する必要があるという問題点が一例として挙げられる。この場合、カメラを操作する操作者が必要となり、撮影が煩雑になってしまうという問題点が一例として挙げられる。 In addition, according to the above-described prior art, there is a problem that it is necessary to change the shooting direction of the camera by a manual operation by an operator when it is desired to take an image other than the speaker. In this case, an operator who operates the camera is required, and the problem that shooting becomes complicated is an example.
上述した課題を解決し、目的を達成するため、請求項1の発明にかかるカメラ制御装置は、カメラ周辺の音声を取得する取得手段と、前記取得手段によって取得された音声から、前記カメラによる撮影対象を特定する語句(以下、「特定語句」という)を判別する判別手段と、前記判別手段によって判別された特定語句に基づいて、前記カメラの撮影方向を制御する制御手段と、前記撮影対象の候補に関する情報の入力を受け付ける入力手段と、前記撮影対象の候補の位置を検出する検出手段と、を備え、前記判別手段は、前記入力手段に入力された前記撮影対象の候補に関する情報と略一致する語句を前記特定語句として判別し、前記制御手段は、前記判別手段によって前記撮影対象の候補に関する情報と略一致する語句が判別された場合、前記検出手段によって検出された前記撮影対象の候補の位置に前記カメラの撮影方向を向けることを特徴とする。 In order to solve the above-described problems and achieve the object, a camera control device according to the invention of claim 1 is an acquisition unit that acquires audio around the camera, and an image captured by the camera from the audio acquired by the acquisition unit. Discriminating means for discriminating a word (hereinafter referred to as “specific phrase”) for specifying an object, control means for controlling the shooting direction of the camera based on the specific word / phrase discriminated by the discriminating means, Input means for accepting input of information relating to candidates, and detection means for detecting the position of the candidate for photographing object, wherein the determining means substantially matches the information relating to the candidate for photographing object input to the input means. A phrase to be identified is determined as the specific phrase, and the control unit determines that the determination unit determines a phrase that substantially matches information regarding the candidate to be photographed. Wherein the directing the shooting direction of the camera to the position of the candidate of the detected said imaging target by the detection means.
また、請求項6の発明にかかるカメラ制御方法は、カメラ周辺の音声を取得する取得工程と、前記取得工程によって取得された音声から、前記カメラによる撮影対象を特定する語句(以下、「特定語句」という)を判別する判別工程と、前記判別工程によって判別された特定語句に基づいて、前記カメラの撮影方向を制御する制御工程と、前記撮影対象の候補に関する情報の入力を受け付ける入力工程と、前記撮影対象の候補の位置を検出する検出工程と、を含み、前記判別工程は、前記入力工程に入力された前記撮影対象の候補に関する情報と略一致する語句を前記特定語句として判別し、前記制御工程は、前記判別工程によって前記撮影対象の候補に関する情報と略一致する語句が判別された場合、前記検出工程によって検出された前記撮影対象の候補の位置に前記カメラの撮影方向を向けることを特徴とする。 According to a sixth aspect of the present invention, there is provided a camera control method comprising: an acquisition step of acquiring audio around a camera; and a phrase that specifies a subject to be photographed by the camera from the voice acquired by the acquisition step (hereinafter referred to as “specific phrase”). A control step for controlling the shooting direction of the camera based on the specific phrase determined by the determination step, an input step for receiving input of information regarding the candidate for the shooting target, Detecting a position of the candidate for the photographing target, and the determining step determines, as the specific phrase, a phrase that substantially matches information related to the candidate for the photographing target input in the input step, In the control step, the word detected by the detection step is determined when a word or phrase substantially matching the information related to the candidate for the photographing target is determined by the determination step. Wherein the the position of the shadow object candidate directs photographing direction of the camera.
また、請求項7の発明にかかるカメラ制御プログラムは、請求項6に記載のカメラ制御方法をコンピュータに実行させることを特徴とする。 According to a seventh aspect of the present invention, a camera control program causes a computer to execute the camera control method according to the sixth aspect.
また、請求項8の発明にかかる記録媒体は、請求項7に記載のカメラ制御プログラムを記録したコンピュータに読み取り可能なことを特徴とする。 A recording medium according to an eighth aspect of the present invention is readable by a computer that records the camera control program according to the seventh aspect.
以下に添付図面を参照して、この発明にかかるカメラ制御装置、カメラ制御方法、カメラ制御プログラムおよび記録媒体の好適な実施の形態を詳細に説明する。 Exemplary embodiments of a camera control device, a camera control method, a camera control program, and a recording medium according to the present invention will be explained below in detail with reference to the accompanying drawings.
(実施の形態)
はじめに、実施の形態にかかるカメラ制御装置100の機能的構成について説明する。図1は、カメラ制御装置の機能的構成を示すブロック図である。カメラ制御装置100は、取得部101、判別部102、制御部103、入力部104、検出部105によって構成される。
(Embodiment)
First, a functional configuration of the
取得部101は、カメラ110周辺の音声を取得する。カメラ110周辺の音声とは、たとえば、カメラ110周辺に位置する人物による発話である。取得部101は、たとえば、マイクなどによってカメラ110周辺の音声を取得する。
The
判別部102は、取得部101によって取得された音声から、カメラ110による撮影対象を特定する語句(以下、特定語句という)を判別する。判別部102は、たとえば、後述する入力部104に入力される撮影対象の候補に関する情報を、特定語句として判別する。
The
制御部103は、判別部102によって判別された特定語句に基づいて、カメラ110の撮影方向を制御する。制御部103は、たとえば、判別部102によって撮影対象の候補に関する情報と略一致する語句が判別された場合、後述する検出部105によって検出された撮影対象の候補の位置にカメラ110の撮影方向を向ける。略一致する語句とは、撮影対象の候補に関する情報として入力された語句と同一または類似する語句である。
The control unit 103 controls the shooting direction of the camera 110 based on the specific phrase determined by the
入力部104は、撮影対象の候補に関する情報の入力を受け付ける。撮影対象の候補に関する情報とは、たとえば、撮影対象の候補の名称情報(氏名や愛称など)や属性情報などである。また、入力部104には、撮影対象の候補の画像や音声が入力されてもよい。
The
検出部105は、撮影対象の候補の位置を検出する。検出部105は、たとえば、入力部104に入力された撮影対象の候補の画像と、カメラ110によって撮影された映像とを照合して、撮影対象の候補の位置を検出する。ここで、撮影対象の位置とは、たとえば、カメラ110が車両に設置されている場合には、撮影対象の着席した座席の位置であり、検出部105は、搭乗者がどの座席に着席したかを検出する。また、撮影対象の位置とは、カメラ110からの相対方向、相対方位などであってもよい。検出部105は、具体的には、たとえば、カメラ110によって撮影された映像中に、撮影対象の候補の画像との類似度が所定値以上の物体が映っていた場合、その物体の位置を撮影対象の候補の位置とする。
The
また、検出部105は、たとえば、入力部104に入力された撮影対象の候補の音声と、取得部101によって取得された音声とを照合して撮影対象の候補の位置を検出する。具体的には、たとえば、取得部101によって取得された音声中に、撮影対象の候補の音声との類似度が所定値以上の音声が含まれていた場合、その音声が発音されている位置を撮影対象の候補の位置とする。
For example, the
また、カメラ110は、車両内部に設置されていてもよい。この場合、たとえば、取得部101は、車両の搭乗者の発話を取得し、判別部102は、撮影対象となる搭乗者に関する情報を特定語句として判別し、制御部103は、特定語句によって特定される搭乗者の乗車位置にカメラ110の撮影方向を向ける。また、入力部104には、たとえば、搭乗者に関する情報が入力され、検出部105は、各搭乗者がどの座席に着席したかを検出する。
The camera 110 may be installed inside the vehicle. In this case, for example, the
つぎに、カメラ制御装置100によるカメラ110の制御処理について説明する。図2は、カメラ制御装置によるカメラ制御処理の手順を示すフローチャートである。図2のフローチャートにおいて、まず、入力部104に対して、撮影対象の候補に関する情報の入力がおこなわれる(ステップS201)。また、検出部105によって、撮影対象の候補の位置を検出する(ステップS202)。
Next, control processing of the camera 110 by the
つぎに、取得部101によって、カメラ110周辺の音声を取得する(ステップS203)。つづいて、判別部102によって、ステップS203で取得された音声から、特定語句を判別する(ステップS204)。このときの特定語句とは、撮影対象の候補に関する情報である。これにより、撮影対象の候補の中から撮影すべき撮影対象が特定される。そして、制御部103によって、ステップS202で検出した撮影対象の位置にカメラ110の撮影方向を制御して(ステップS205)、本フローチャートによる処理を終了する。
Next, the sound around the camera 110 is acquired by the acquisition unit 101 (step S203). Subsequently, the
以上説明したように、カメラ制御装置100によれば、カメラ周辺の音声から撮影対象を特定し、撮影対象に向けてカメラの撮影方向を制御する。これにより、カメラ周辺の音声の内容を考慮して、カメラ110の撮影方向を変更することができる。
As described above, according to the
また、カメラ制御装置100は、あらかじめ入力された撮影対象の候補に関する情報を特定語句として撮影対象を特定するので、より精度良く撮影対象を特定することができる。さらに、撮影対象の候補の画像や音声から撮影対象の位置を検出するので、より精度良くカメラ110の撮影方向を制御することができる。
In addition, since the
つぎに、上述した実施の形態にかかるカメラ制御装置100の実施例について説明する。以下の実施例においては、カメラ制御装置100を、車両に搭載されたナビゲーション装置300に適用した場合について説明する。
Next, an example of the
(ナビゲーション装置300の周辺機器構成)
はじめに、ナビゲーション装置300の周辺機器構成について説明する。図3は、ナビゲーション装置が設置された車両のダッシュボード付近を示す説明図である。ナビゲーション装置300は、車両のダッシュボードに設置されている。ナビゲーション装置300は、本体部Mおよび表示部(ディスプレイ)Dによって構成され、表示部Dには車両の現在地点や地図情報、現在時刻などが表示される。
(Configuration of peripheral devices of navigation device 300)
First, the peripheral device configuration of the
また、ナビゲーション装置300には、バックミラー周辺に設置された車載用カメラ311、サンバイザーに設置された車載用マイク312が接続されている。車載用カメラ311は、撮影方向を変更可能であり、車外前方および車両内の各部(搭乗者など)を撮影する。以下、車載用カメラ311は、動画および静止画を撮影可能なカメラであるものとするが、静止画のみを撮影可能なカメラであってもよい。
The
車載用マイク312は、車両内の音声が入力され、ナビゲーション装置300の音声入力による操作や車両内の様子を記録する際などに用いられる。なお、車載用マイク312の位置は、サンバイザーに限ることなく、車両内の音声を効率的に入力できる位置にあればよい。また、車載用カメラ311および車載用マイク312は、車両に複数設置されていてもよいし、さらに、固定式ではなく可動式であってもよい。本実施例では、車載用マイク312は、各搭乗者の座席ごとに設けられているものとする。
The in-
ナビゲーション装置300は、目的地点までの経路探索および情報記録をおこなう他、ドライブ中の車両内の様子を記録する車内撮影機能を有している。車内撮影機能は、車載用カメラ311や車載用マイク312で車両内の映像および音声を記録する。車内撮影機能によって記録された映像および音声はナビゲーション装置300の記録媒体(後述する磁気ディスク405、光ディスク407)に記録される。また、記録された映像および音声を外部記録媒体に記録して、自宅のテレビなどで楽しめるようにしてもよい。
The
(ナビゲーション装置300のハードウェア構成)
つぎに、ナビゲーション装置300のハードウェア構成について説明する。図4は、ナビゲーション装置のハードウェア構成を示すブロック図である。図4において、ナビゲーション装置300は、CPU401と、ROM402と、RAM(メモリ)403と、磁気ディスクドライブ404と、磁気ディスク405と、光ディスクドライブ406と、光ディスク407と、音声I/F(インターフェース)408と、マイク409と、スピーカ410と、入力デバイス411と、映像I/F412と、カメラ413と、ディスプレイ414と、通信I/F415と、GPSユニット416と、各種センサ417と、外部接続用I/F418とを備えている。また、各構成部401〜418はバス420によってそれぞれ接続されている。
(Hardware configuration of navigation device 300)
Next, the hardware configuration of the
まず、CPU401は、ナビゲーション装置300の全体の制御を司る。ROM402は、ブートプログラム、通信プログラム、データベース作成プログラム、データ解析プログラムなどのプログラムを記録している。RAM403は、CPU401のワークエリアとして使用される。
First, the
磁気ディスクドライブ404は、CPU401の制御に従って磁気ディスク405に対するデータの読み取り/書き込みを制御する。磁気ディスク405は、磁気ディスクドライブ404の制御で書き込まれたデータを記録する。磁気ディスク405としては、たとえば、HD(ハードディスク)やFD(フレキシブルディスク)を用いることができる。
The
光ディスクドライブ406は、CPU401の制御に従って光ディスク407に対するデータの読み取り/書き込みを制御する。光ディスク407は、光ディスクドライブ406の制御に従ってデータが読み出される着脱自在な記録媒体である。光ディスク407は、書き込み可能な記録媒体を利用することもできる。また、この着脱可能な記録媒体として、光ディスク407のほか、MO、メモリカードなどであってもよい。
The
磁気ディスク405または光ディスク407に記録される情報の一例として、経路探索・経路誘導などに用いる地図データが挙げられる。地図データは、建物、河川、地表面などの地物(フィーチャ)を表す背景データと、道路の形状を表す道路形状データとを有しており、ディスプレイ414の表示画面において2次元または3次元に描画される。ナビゲーション装置300が経路誘導中の場合は、地図データと後述するGPSユニット416によって取得された自車の現在地点とが重ねて表示されることとなる。
One example of information recorded on the
音声I/F408は、音声入力用のマイク409(たとえば、図3の車載用マイク312)および音声出力用のスピーカ410に接続される。マイク409に受音された音声は、音声I/F408内でA/D変換される。また、スピーカ410からは音声が出力される。なお、マイク409から入力された音声は、音声データとして磁気ディスク405あるいは光ディスク407に記録可能である。
The audio I /
入力デバイス411は、文字、数値、各種指示などの入力のための複数のキーを備えたリモコン、キーボード、マウス、タッチパネルなどが挙げられる。さらに、入力デバイス411は、デジタルカメラや携帯電話端末などの他の情報処理端末を接続し、データの入出力をおこなうことができる。
Examples of the
映像I/F412は、映像入力用のカメラ413(たとえば、図3の車載用カメラ311)および映像出力用のディスプレイ414と接続される。映像I/F412は、具体的には、たとえば、ディスプレイ414全体の制御をおこなうグラフィックコントローラと、即時表示可能な画像情報を一時的に記録するVRAM(Video RAM)などのバッファメモリと、グラフィックコントローラから出力される画像データに基づいて、ディスプレイ414を表示制御する制御ICなどによって構成される。
The video I /
カメラ413は、車両内外の画像(動画を含む)を撮影し、画像データとして出力する。カメラ413で撮影された画像は、画像データとして磁気ディスク405あるいは光ディスク407に記録することができる。この画像データは、ディスプレイ414で出力する他、記録媒体に記録したり、ネットワークを介して送信するなどして、他の情報処理端末で利用することができる。
The
ディスプレイ414には、アイコン、カーソル、メニュー、ウインドウ、あるいは文字や画像などの各種データが表示される。このディスプレイ414は、たとえば、CRT、TFT液晶ディスプレイ、プラズマディスプレイなどを採用することができる。
The
通信I/F415は、無線を介してインターネットなどの通信網に接続され、この通信網とCPU401とのインターフェースとして機能する。通信網には、LAN、WAN、公衆回線網や携帯電話網などがある。
The communication I /
GPSユニット416は、GPS衛星からの電波を受信し、車両の現在地点(ナビゲーション装置300の現在地点)を示す情報を出力する。GPSユニット416の出力情報は、後述する各種センサ417の出力値とともに、CPU401による車両の現在地点の算出に際して利用される。現在地点を示す情報は、たとえば緯度・経度、高度などの、地図データ上の1点を特定する情報である。
The
各種センサ417は、車速センサや加速度センサ、角速度センサなどの、車両の位置や挙動を判断することが可能な情報を出力する。各種センサ417の出力値は、CPU401による現在地点の算出や、速度や方位の変化量の測定に用いられる。
The
外部接続用I/F418は、オーディオ装置や車内空調装置など、外部の機器と接続するためのインターフェース類である。外部接続用I/F418は、たとえば、専用の接続ケーブルのポート、赤外線通信用ポートなどによって構成される。
The external connection I /
また、実施の形態にかかるカメラ制御装置100の構成のうち、取得部101は音声I/F408、マイク409によって、判別部102、検出部105はCPU401によって、制御部103はCPU401、映像I/F412によって、入力部104は入力デバイス411によって、それぞれの機能を実現する。
In the configuration of the
(ナビゲーション装置300による車内撮影処理)
つづいて、ナビゲーション装置300による車内撮影処理について説明する。前述のように、ナビゲーション装置300が設置された車両内には、車載用カメラ311および車載用マイク312が設けられており、ドライブ中の車両内の様子を記録することができる。ここで、車両内の様子を撮影する際に、ただ漫然と車両内を撮影するのみでは、コンテンツとしての魅力に乏しく、記録された映像を視聴する機会は低下してしまう。
(In-car shooting process by navigation device 300)
Next, in-vehicle shooting processing by the
このため、ナビゲーション装置300は、搭乗者による発話の内容に基づいて撮影対象を特定し、車載用カメラ311の撮影方向を変更する。具体的には、発言者の発話に特定の搭乗者に対応する言葉が含まれる場合に、その搭乗者に車載用カメラ311を向けて撮影する。これにより、話題の中心にいる搭乗者に焦点をあてて車両内の様子を撮影することができ、記録された映像のコンテンツとしての魅力を向上させることができる。
For this reason, the
ここで、ナビゲーション装置300では、撮影対象となる搭乗者を特定するため、あらかじめ搭乗者に関する情報を登録しておき、その登録情報に基づいて車載用カメラ311を制御している。具体的には、ナビゲーション装置300は、車両に搭乗する可能性や予定がある人物(以下、「搭乗予定者」という)に関する情報が累積的に蓄積される蓄積型データベース(搭乗予定者データベース)と、車両に搭乗者が乗降するごとに更新される更新型データベース(今回搭乗者データベース)を作成する。
Here, in the
図5は、ナビゲーション装置が作成するデータベースの内容を模式的に示す説明図である。搭乗予定者データベース510には、車両への搭乗者予定者の氏名情報521や愛称情報522、属性情報523、その搭乗予定者に対応するキーワード524などのテキスト情報511と、その搭乗者の顔画像データ512、声紋データ513が登録される。
FIG. 5 is an explanatory diagram schematically showing the contents of a database created by the navigation device. In the
今回搭乗者データベース530には、今回搭乗した搭乗者に対応したテキスト情報541と、その乗車位置情報542とが登録される。後述するように、ナビゲーション装置300は、搭乗者の画像や声紋から今回搭乗した搭乗者を特定する。そして、搭乗予定者情報データベース510に格納されている、その搭乗者に対応する情報(テキスト情報541)を今回搭乗者データベース530に格納する。
In the
テキスト情報541は、搭乗予定者データベース510と同様に、氏名情報551や愛称情報552、属性情報553、その搭乗予定者に対応するキーワード554などによって構成される。また、乗車位置情報542は、今回搭乗した搭乗者の乗車位置、たとえば、「助手席」や「右後部座席」などの情報である。
The
乗車位置情報542に関連して、ナビゲーション装置300のROM402には、各座席の位置に対応する車載用カメラ311の制御テーブル560が記録されている。制御テーブル500には、各座席を撮影する際に車載用カメラ311の撮影方向を変更する変更量が定義されている。具体的には、たとえば、基準となる撮影方向(0°方向)をリアウインドーに対して垂直とすると、運転席は基準となる撮影方向から左45°方向、助手席は基準となる撮影方向から右45°方向、右後部座席は基準となる撮影方向から左30°方向、左後部座席は基準となる撮影方向から右30°方向となる。
In relation to the
以上のようなデータベースを用いて、ナビゲーション装置300は、車載用カメラ311の撮影方向を制御する。
Using the database as described above, the
図6および図7は、ナビゲーション装置の車内撮影処理の手順を示すフローチャートである。図6のフローチャートにおいて、ナビゲーション装置300は、まず、自装置が搭載された車両の搭乗予定者に、搭乗予定者情報を入力させる(ステップS601)。搭乗予定者情報は、図5のテキスト情報511に対応し、搭乗者の氏名や愛称、属性、キーワードなどの情報である。搭乗者予定者情報の入力は、ナビゲーション装置300の入力デバイス411でおこなう他、各搭乗予定者の自宅のPC(パーソナルコンピュータ)や携帯電話端末などからネットワークを介しておこなうこととしてもよい。
6 and 7 are flowcharts showing the procedure of the in-vehicle shooting process of the navigation device. In the flowchart of FIG. 6, the
図8は、搭乗者予定者情報の入力画面の一例を示す説明図である。図8は、ナビゲーション装置300の入力デバイス411を用いて搭乗予定者の登録をおこなう場合を例として説明する。図8において、ナビゲーション装置300のディスプレイ414には、搭乗予定者の新規登録画面800が表示されている。新規登録画面800には、搭乗予定者の氏名を入力する氏名入力部811、搭乗予定者の愛称を入力する愛称入力部812、搭乗予定者の属性を入力する属性入力部813、搭乗予定者と関連するキーワードを入力するキーワード入力部814が表示されている。
FIG. 8 is an explanatory diagram illustrating an example of an input screen for prospective passenger information. FIG. 8 illustrates an example in which a boarding person is registered using the
新規に登録する搭乗予定者は、これらの入力部に自己の情報を入力する。そして、撮影ボタン821を押下して、車載用カメラ311を用いて自己の顔画像を撮影する。また、収音ボタン822押下して、車載用マイク312を用いて自己の音声を収音する。なお、顔画像の撮影と音声の収音は、どちらか一方のみとしてもよい。また、搭乗予定者として登録するのは、人間には限らず、犬や猫などの動物であってもよい。この場合、搭乗予定者情報データベース510への登録は、人間が代わりにおこなう。
A newly registered boarding person inputs his / her information in these input sections. Then, the photographing
なお、上述したように、入力画面に新規登録画面を表示して搭乗予定者情報を文字で入力させる他、たとえば、音声対話によって、搭乗予定者情報を発話させて、音声で入力することとしてもよい。この方法によれば、音声データも同時に取得することができる。また、搭乗予定者の顔画像は、車両のドアの開閉などをトリガーとして、自動的に撮影することとしてもよい。 As described above, the new registration screen is displayed on the input screen and the boarding person information is input by characters. For example, the boarding person information may be spoken and input by voice by voice dialogue. Good. According to this method, audio data can be acquired simultaneously. In addition, the face image of the person who is scheduled to board may be automatically taken by using the opening / closing of the door of the vehicle as a trigger.
図6説明に戻り、ナビゲーション装置300は、ステップS601で入力された搭乗者情報を搭乗予定者データベース510に格納する(ステップS602)。具体的には、搭乗予定者の氏名や愛称、属性などのテキスト情報511と、搭乗予定者の顔画像データ512および音声から抽出した声紋データ513(どちらか一方のみでもよい)とを関連付けて、搭乗予定者データベースに格納する。
Returning to FIG. 6, the
つぎに、ナビゲーション装置300は、車両に搭乗者が乗車するまで待機する(ステップS603:Noのループ)。搭乗者が乗車したか否かは、たとえば、車両のエンジンが始動したか否かや、車両のドアが開閉したか否かなどによって判断する。搭乗者が乗車すると(ステップS603:Yes)、車載用カメラ311で車両内全体の画像を撮影し、車載用マイク312で各座席に搭乗した搭乗者の音声を収音する(ステップS604)。具体的には、車載用カメラ311の撮影方向を制御して、全座席の搭乗者の顔が位置する範囲を撮影する。また、各座席に設けられている車載用マイク312に向かって発話するよう、搭乗者に指示する。なお、画像の撮影と音声の収音は、一方のみをおこなってもよい。
Next, the
つぎに、ナビゲーション装置300は、ステップS604で撮影・収音した画像および音声から、今回搭乗した搭乗者の顔画像および声紋を抽出する(ステップS605)。そして、ステップS605で抽出された顔画像および声紋のうち、任意の1つを搭乗予定者データベース510と照合し(ステップS606)、その顔画像および声紋と類似する顔画像データ512および声紋データ513が蓄積されているか否かを判断する(ステップS607)。具体的には、今回搭乗した搭乗者の顔画像や声紋の特徴点と、搭乗予定者データベースに格納されている顔画像データ512や声紋データ513の特徴点とを比較して、類似度が所定値以上の顔画像データ512や声紋データ513が蓄積されているか否かを判断する。
Next, the
類似した顔画像データ512や声紋データ513が蓄積されている場合は(ステップS607:Yes)、その顔画像データ512や声紋データ513に対応する搭乗予定者のテキスト情報511を、テキスト情報541として今回搭乗者データベース530に格納するとともに、その搭乗者の搭乗位置情報542を今回搭乗者データベースに格納する(ステップS608)。なお、搭乗予定者データベース510に格納されているテキスト情報511も、そのまま保持される。
When similar
一方、類似した顔画像データ512や声紋データ513が蓄積されていない場合は(ステップS607:No)、その搭乗者に対して搭乗者予定者情報を入力させる(ステップS609)。そして、入力された情報を搭乗予定者情報として搭乗予定者データベース510に格納する(ステップS610)。そして、ステップS609で入力された搭乗者情報を、テキスト情報541として今回搭乗者データベース530に格納するとともに、その搭乗者の搭乗位置情報542を今回搭乗者データベースに格納する(ステップS611)。
On the other hand, when similar
すべての顔画像および声紋について照合をおこなうまでは(ステップS612:No)、ステップS606に戻り、以降の処理を繰り返す。そして、すべての顔画像および声紋について照合をおこなうと(ステップS612:Yes)、図7のステップS613に移行する。ここまでの処理によって、搭乗予定者データベース510および今回搭乗者データベース530が作成される。
Until all face images and voiceprints are collated (step S612: No), the process returns to step S606, and the subsequent processing is repeated. When all face images and voiceprints are collated (step S612: Yes), the process proceeds to step S613 in FIG. Through the processing up to this point, the scheduled
なお、走行中に搭乗者の配置が変更する場合もあるため、走行中の所定のタイミング、たとえば、停車後にドアの開閉があった場合など、搭乗者の乗降を検知した際に、今回搭乗者データベース530を更新してもよい。この場合、ナビゲーション装置300は、ステップS604以降の処理をおこなうことによって、今回搭乗者データベース530を更新する。
In addition, since the arrangement of the passengers may change during traveling, the current passenger is detected when the passenger gets on or off at a predetermined timing during traveling, for example, when the door is opened or closed after stopping. The
図7の説明に移り、ナビゲーション装置300は、車両内の音声を監視し(ステップS613)、搭乗者の発話に今回搭乗者データベース530に格納されたテキスト情報541に含まれる語句(特定語句)が含まれているか否かを判断する(ステップS614)。音声の監視は、一般に用いられている音声認識技術を用いておこなう。具体的には、車載用マイク312で収音された音声をテキスト変換し、テキスト情報541に含まれる語句が搭乗者の発話に含まれているか否かを判断する。
Moving to the description of FIG. 7, the
テキスト情報541に含まれる語句が発話された場合は(ステップS614:Yes)、今回搭乗者データベース530を照合し、発話された語句に対応する搭乗者の搭乗位置情報542を取得する(ステップS615)。つづいて、ナビゲーション装置300は、優先するカメラ動作があるか否かを判断する(ステップS616)。優先するカメラ動作とは、たとえば、ドライブレコーダ機能や搭乗者認識処理など、車載用カメラ311を利用する処理のうち、搭乗者撮影処理より優先しておこなうべき処理である。たとえば、車両の走行速度が所定速度以上の場合や、車両の現在位置が交差点から所定距離以内の場合は、事故が発生する可能性が通常より高いとして、ドライブレコーダ機能を優先して動作させる。優先するカメラ動作の条件設定は、あらかじめ定められていてもよいし、ユーザによって設定できることとしてもよい。また、このときまで、車載用カメラ311は、停止(電源オフ)状態であってもよい。
When the phrase included in the
優先するカメラ動作がある場合は(ステップS616:Yes)、カメラ動作が終了するまで待機する。優先するカメラ動作がない場合は(ステップS616:No)、ROM402に記録されている制御テーブル560を参照して、発話された語句に対応する搭乗者の搭乗位置に車載用カメラ311の撮影方向を変更し(ステップS617)、搭乗者を撮影する(ステップS618)。一方、テキスト情報541に含まれる語句が発話されない場合は(ステップS614:No)、ステップS613に戻り、音声の監視を継続する。
If there is a priority camera operation (step S616: Yes), the process waits until the camera operation ends. When there is no priority camera operation (step S616: No), the shooting direction of the in-
なお、テキスト情報541に含まれる語句が発話された場合(ステップS614参照)に必ず搭乗者を撮影するのではなく、テキスト情報541に含まれる語句に加えて、特定のキーワード(撮影指示キーワード)が発話された場合にのみ、撮影をおこなってもよい。撮影指示キーワードとは、たとえば、「撮影」や「撮って」など、直接的に撮影を指示する語句の他、「○○さんを見て」「○○さんに向けて」など、間接的に撮影を指示する語句である。撮影指示キーワードは、あらかじめ決められていてもよいし、ユーザによって登録できるようにしてもよい。
It should be noted that when a phrase included in the
また、たとえば、ステップS617で搭乗者に撮影方向を向けた後、撮影指示キーワードが含まれる発話がされた時点で、撮影を開始してもよい。この場合、被撮影者を特定するキーワードが発せられた後、所定時間経過するまで撮影指示キーワードが発話されない場合は、タイムアウトとして車載用カメラ311の撮影方向を、初期状態に戻すようにしてもよい。
Alternatively, for example, after the shooting direction is directed to the passenger in step S617, shooting may be started when an utterance including the shooting instruction keyword is made. In this case, if a shooting instruction keyword is not spoken until a predetermined time has elapsed after a keyword specifying a subject is issued, the shooting direction of the in-
また、逆に、撮影指示キーワードが含まれる発話がされた時点で撮影を開始し、撮影中にテキスト情報541に含まれる語句が発話された場合は、発話された語句に対応する搭乗者の方へ向けるようにしてもよい。さらに、撮影指示キーワードが含まれる発話がされた時点では発言者に対して撮影方向を向けておき、その後、テキスト情報541に含まれる語句が発話された時点で、発話された語句に対応する搭乗者の方へ撮影方向を向け、撮影を開始するようにしてもよい。
On the other hand, when the utterance including the shooting instruction keyword is started, shooting is started, and when the phrase included in the
また、撮影対象となる搭乗者は1人には限らず、たとえば、「全員」「男性」など、複数の搭乗者に共通する属性が発話された場合には、該当する搭乗者を順次撮影する。また、発話の中に、テキスト情報541に含まれる語句が複数発話された場合も、それぞれの語句に対応する搭乗者を順次撮影する。また、各搭乗者の撮影優先順位を決めておいてもよい。
Further, the number of passengers to be photographed is not limited to one. For example, when an attribute common to a plurality of passengers such as “all members” and “male” is spoken, the corresponding passengers are sequentially photographed. . In addition, when a plurality of words / phrases included in the
ナビゲーション装置300は、撮影終了の指示があった場合や(ステップS619:Yes)、撮影を開始してから所定時間が経過した場合は(ステップS620:Yes)、搭乗者の撮影を終了する(ステップS621)。ここで、撮影終了の指示とは、たとえば、「ストップ」や「終了」など、直接的に撮影の終了を指示する語句の他、特定のキーワードの発話やボタン操作などである。また、撮影終了の指示がなく(ステップS619:No)、撮影を開始してから所定時間が経過していない間は(ステップS620:No)、ステップS618に戻り、搭乗者の撮影を継続する。
When there is an instruction to end shooting (step S619: Yes), or when a predetermined time has elapsed after starting shooting (step S620: Yes), the
ステップS621で撮影を終了した後は、車載用カメラ311の撮影方向を元の位置に戻す(ステップS622)。車両の走行が終了するまでは(ステップS623:No)、ステップS613に戻り、以降の処理を継続する。そして、車両の走行が終了すると(ステップS623:Yes)、今回搭乗者データベースを消去して(ステップS624)、本フローチャートの処理を終了する。
After shooting is finished in step S621, the shooting direction of the in-
なお、上述した説明では、搭乗予定者情報データベース510に搭乗予定者情報を蓄積することとしたが、たとえば、搭乗予定者情報データベース510を作成せず、毎回の走行ごとに搭乗者情報を入力させて今回搭乗者データベース530を生成するのみであってもよい。すなわち、毎回の走行ごとに図8に示したような登録画面を表示させ、そのとき搭乗している搭乗者全員に搭乗者情報を入力させ、搭乗位置情報とともに今回搭乗者データベース530に格納する。今回搭乗者データベース530は、走行が終了する度に消去されるため、搭乗者は搭乗するごとに情報の入力が必要となるが、ナビゲーション装置300では、搭乗者情報を保持する必要がない。
In the above description, the planned passenger information is stored in the planned
また、本実施例では、車両内の様子を撮影することとしたが、たとえば、テレビ会議システムなどでも同様に適用することができる。この場合、本実施例における搭乗予定者は会議出席予定者であり、搭乗位置は会議室における着席位置となる。 In this embodiment, the situation inside the vehicle is photographed. However, the present invention can be similarly applied to, for example, a video conference system. In this case, the boarding person in the present embodiment is a meeting attendee, and the boarding position is the seating position in the meeting room.
以上説明したように、ナビゲーション装置300によれば、車両内の音声から撮影対象を特定し、撮影対象に向けて車載用カメラ311の撮影方向を制御する。これにより、搭乗者の発話の内容を考慮して、車載用カメラ311の撮影方向を変更することができる。たとえば、後部座席に座っている子供に声をかけて、車載用カメラ311の撮影方向を子供に向け、その映像をディスプレイ414に出力させることができる。これにより、運転中においても、後方を振り返ることなく、後部座席の子供の様子を確認することができる。
As described above, according to the
また、ナビゲーション装置300は、車載用カメラ311によって撮影された映像や車載用マイク312から収音された音声から、搭乗者の位置を抽出する。これにより、搭乗者に乗車位置の入力をおこなわせることなく、搭乗者の乗車位置を特定することができる。さらに、搭乗予定者データベースに搭乗予定者情報を蓄積しているため、その都度搭乗者に関する情報を入力させることなく、搭乗者に煩雑な処理をおこなわせることなく撮影をおこなうことができる。
In addition, the
なお、本実施の形態で説明したカメラ制御方法は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。 The camera control method described in the present embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer. The program may be a transmission medium that can be distributed via a network such as the Internet.
100 カメラ制御装置
101 取得部
102 判別部
103 制御部
104 入力部
105 検出部
110 カメラ
DESCRIPTION OF
Claims (8)
前記取得手段によって取得された音声から、前記カメラによる撮影対象を特定する語句(以下、「特定語句」という)を判別する判別手段と、
前記判別手段によって判別された特定語句に基づいて、前記カメラの撮影方向を制御する制御手段と、
前記撮影対象の候補に関する情報の入力を受け付ける入力手段と、
前記撮影対象の候補の位置を検出する検出手段と、を備え、
前記判別手段は、
前記入力手段に入力された前記撮影対象の候補に関する情報と略一致する語句を前記特定語句として判別し、
前記制御手段は、
前記判別手段によって前記撮影対象の候補に関する情報と略一致する語句が判別された場合、前記検出手段によって検出された前記撮影対象の候補の位置に前記カメラの撮影方向を向けることを特徴とするカメラ制御装置。Acquisition means for acquiring audio around the camera;
Discriminating means for discriminating a phrase (hereinafter referred to as “specific phrase”) for identifying a subject to be photographed by the camera from the voice acquired by the acquiring means;
Control means for controlling the shooting direction of the camera based on the specific phrase determined by the determination means;
Input means for accepting input of information relating to the candidate to be photographed;
Detecting means for detecting the position of the candidate to be photographed,
The discrimination means includes
Determining a phrase that substantially matches the information related to the candidate to be photographed input to the input means as the specific phrase;
The control means includes
A camera that directs the shooting direction of the camera to the position of the candidate for the photographing target detected by the detecting means when a phrase that substantially matches the information related to the candidate for the photographing target is determined by the determining means. Control device.
前記撮影対象の候補に関する情報として、前記撮影対象の候補の名称情報または前記撮影対象の候補の属性情報のうち、少なくともいずれかが入力されることを特徴とする請求項1に記載のカメラ制御装置。The input means includes
The camera control apparatus according to claim 1, wherein at least one of name information of the shooting target candidate and attribute information of the shooting target candidate is input as the information related to the shooting target candidate. .
前記撮影対象の候補の画像が入力され、
前記検出手段は、
前記画像と前記カメラによって撮影された映像とを照合して前記撮影対象の候補の位置を検出することを特徴とする請求項1に記載のカメラ制御装置。The input means includes
A candidate image of the shooting target is input,
The detection means includes
The camera control apparatus according to claim 1, wherein the position of the candidate to be photographed is detected by comparing the image with a video photographed by the camera.
前記撮影対象の候補の音声が入力され、
前記検出手段は、
前記音声と前記取得手段によって取得された音声とを照合して前記撮影対象の候補の位置を検出することを特徴とする請求項1に記載のカメラ制御装置。The input means includes
The voice of the candidate for shooting is input,
The detection means includes
The camera control apparatus according to claim 1, wherein the position of the candidate to be photographed is detected by comparing the sound and the sound acquired by the acquisition unit.
車両内部に設置されており、
前記取得手段は、
前記車両の搭乗者の発話を取得し、
前記判別手段は、
前記撮影対象となる前記搭乗者に関する情報を特定語句として判別し、
前記制御手段は、
前記特定語句によって特定される前記搭乗者の乗車位置に前記カメラの撮影方向を向けることを特徴とする請求項1〜4のいずれか一つに記載のカメラ制御装置。The camera
It is installed inside the vehicle,
The acquisition means includes
Obtaining the utterance of the passenger of the vehicle,
The discrimination means includes
Identifying information about the passenger to be photographed as a specific phrase,
The control means includes
The camera control device according to claim 1, wherein a shooting direction of the camera is directed to a boarding position of the occupant specified by the specific phrase.
前記取得工程によって取得された音声から、前記カメラによる撮影対象を特定する語句(以下、「特定語句」という)を判別する判別工程と、
前記判別工程によって判別された特定語句に基づいて、前記カメラの撮影方向を制御する制御工程と、
前記撮影対象の候補に関する情報の入力を受け付ける入力工程と、
前記撮影対象の候補の位置を検出する検出工程と、を含み、
前記判別工程は、
前記入力工程に入力された前記撮影対象の候補に関する情報と略一致する語句を前記特定語句として判別し、
前記制御工程は、
前記判別工程によって前記撮影対象の候補に関する情報と略一致する語句が判別された場合、前記検出工程によって検出された前記撮影対象の候補の位置に前記カメラの撮影方向を向けることを特徴とするカメラ制御方法。An acquisition process for acquiring audio around the camera;
A discrimination step of discriminating a phrase (hereinafter referred to as “specific phrase”) that identifies a subject to be photographed by the camera, from the voice acquired by the acquisition step;
A control step of controlling the shooting direction of the camera based on the specific phrase determined by the determination step;
An input step for receiving input of information related to the candidate to be photographed;
Detecting a position of the candidate for the photographing target,
The discrimination step includes
A word or phrase that substantially matches information related to the candidate to be photographed input in the input step is determined as the specific word and phrase,
The control step includes
A camera that directs the shooting direction of the camera to the position of the candidate for the shooting target detected by the detection step when a phrase that substantially matches the information about the candidate for the shooting target is determined by the determination step. Control method.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006167403 | 2006-06-16 | ||
JP2006167403 | 2006-06-16 | ||
PCT/JP2007/062151 WO2007145331A1 (en) | 2006-06-16 | 2007-06-15 | Camera control apparatus, camera control method, camera control program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2007145331A1 JPWO2007145331A1 (en) | 2009-11-12 |
JP4660592B2 true JP4660592B2 (en) | 2011-03-30 |
Family
ID=38831844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008521277A Active JP4660592B2 (en) | 2006-06-16 | 2007-06-15 | Camera control apparatus, camera control method, camera control program, and recording medium |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4660592B2 (en) |
WO (1) | WO2007145331A1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011013605A1 (en) * | 2009-07-27 | 2011-02-03 | 三洋電機株式会社 | Presentation system |
JP5868164B2 (en) * | 2011-12-21 | 2016-02-24 | キヤノン株式会社 | Imaging apparatus, information processing system, control method, and program |
JP2017188715A (en) * | 2016-04-01 | 2017-10-12 | 富士通フロンテック株式会社 | Video display system and video display method |
CN111183322B (en) * | 2017-10-11 | 2021-12-10 | 三菱电机株式会社 | Controller for air conditioning |
KR102645054B1 (en) * | 2019-04-05 | 2024-03-08 | 현대자동차주식회사 | Vehicle status management apparatus and mehtod |
WO2023120244A1 (en) * | 2021-12-24 | 2023-06-29 | ソニーグループ株式会社 | Transmission device, transmission method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0983856A (en) * | 1995-09-07 | 1997-03-28 | Nippon Telegr & Teleph Corp <Ntt> | Intelligent camera equipment |
JP2000244885A (en) * | 1999-02-23 | 2000-09-08 | Canon Inc | Image photographing device, method therefor, storage medium and video conference system |
JP2004023676A (en) * | 2002-06-20 | 2004-01-22 | Hitachi Kokusai Electric Inc | Cctv set and state output method for cctv set |
JP2004297271A (en) * | 2003-03-26 | 2004-10-21 | Kenwood Corp | In-vehicle imaging system |
JP2005184386A (en) * | 2003-12-18 | 2005-07-07 | Sony Corp | Sound collecting/video recording device |
-
2007
- 2007-06-15 WO PCT/JP2007/062151 patent/WO2007145331A1/en active Application Filing
- 2007-06-15 JP JP2008521277A patent/JP4660592B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0983856A (en) * | 1995-09-07 | 1997-03-28 | Nippon Telegr & Teleph Corp <Ntt> | Intelligent camera equipment |
JP2000244885A (en) * | 1999-02-23 | 2000-09-08 | Canon Inc | Image photographing device, method therefor, storage medium and video conference system |
JP2004023676A (en) * | 2002-06-20 | 2004-01-22 | Hitachi Kokusai Electric Inc | Cctv set and state output method for cctv set |
JP2004297271A (en) * | 2003-03-26 | 2004-10-21 | Kenwood Corp | In-vehicle imaging system |
JP2005184386A (en) * | 2003-12-18 | 2005-07-07 | Sony Corp | Sound collecting/video recording device |
Also Published As
Publication number | Publication date |
---|---|
WO2007145331A1 (en) | 2007-12-21 |
JPWO2007145331A1 (en) | 2009-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4660592B2 (en) | Camera control apparatus, camera control method, camera control program, and recording medium | |
JP6604151B2 (en) | Speech recognition control system | |
JP6584731B2 (en) | Gesture operating device and gesture operating method | |
JP6466385B2 (en) | Service providing apparatus, service providing method, and service providing program | |
US11176948B2 (en) | Agent device, agent presentation method, and storage medium | |
US11450316B2 (en) | Agent device, agent presenting method, and storage medium | |
JP2017090612A (en) | Voice recognition control system | |
JP2008039596A (en) | System, method, program for providing information and memory medium | |
JP4556586B2 (en) | Driving assistance device | |
JP2017090613A (en) | Voice recognition control system | |
JP2017090614A (en) | Voice recognition control system | |
KR20130046759A (en) | Apparatus and method for recogniting driver command in a vehicle | |
JP2004354930A (en) | Speech recognition system | |
US20200286479A1 (en) | Agent device, method for controlling agent device, and storage medium | |
JP6785889B2 (en) | Service provider | |
US20220020374A1 (en) | Method, device, and program for customizing and activating a personal virtual assistant system for motor vehicles | |
JP2009098217A (en) | Speech recognition device, navigation device with speech recognition device, speech recognition method, speech recognition program and recording medium | |
JP2009113725A (en) | Device, method and program for controlling instrument, and recording medium | |
JP2018180424A (en) | Speech recognition apparatus and speech recognition method | |
US20230206918A1 (en) | Speech Recognition System and Method for Providing Speech Recognition Service | |
US20230252987A1 (en) | Vehicle and control method thereof | |
US11941316B2 (en) | Vehicle information display apparatus and method | |
WO2023047654A1 (en) | Vehicular recording control device and recording method | |
JP2020144552A (en) | Information providing device and information providing method | |
JP2009086132A (en) | Speech recognition device, navigation device provided with speech recognition device, electronic equipment provided with speech recognition device, speech recognition method, speech recognition program and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101207 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101228 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140107 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4660592 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |