JP2022516491A - 音声対話の方法、装置、及びシステム - Google Patents
音声対話の方法、装置、及びシステム Download PDFInfo
- Publication number
- JP2022516491A JP2022516491A JP2021537969A JP2021537969A JP2022516491A JP 2022516491 A JP2022516491 A JP 2022516491A JP 2021537969 A JP2021537969 A JP 2021537969A JP 2021537969 A JP2021537969 A JP 2021537969A JP 2022516491 A JP2022516491 A JP 2022516491A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- voice information
- terminal
- information
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000012545 processing Methods 0.000 claims abstract description 31
- 230000004044 response Effects 0.000 claims abstract description 7
- 230000000007 visual effect Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 10
- 230000007704 transition Effects 0.000 claims description 6
- 230000001815 facial effect Effects 0.000 claims description 5
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 238000003786 synthesis reaction Methods 0.000 claims description 4
- 230000002452 interceptive effect Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 abstract description 11
- 230000002708 enhancing effect Effects 0.000 abstract description 3
- 238000013461 design Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 12
- 238000001514 detection method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000005236 sound signal Effects 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000004549 pulsed laser deposition Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
- 230000002028 premature Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/4401—Bootstrapping
- G06F9/4418—Suspend and resume; Hibernate and awake
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Computer Security & Cryptography (AREA)
- Telephonic Communication Services (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Abstract
Description
aは、顔画像の横方向(左右)のずれ角度に等しく(図中、顔が右向きの場合、aの値は負の数であり、顔が左向きの場合、aの値は正の数である)、
bは、スクリーンの法線方向と、話者の音源と音声アシスタントの視覚的焦点との間の接続線であって、水平面上にある投影面との間の包含角度に等しく(図において、顔が、音声アシスタントの視覚的焦点の法線の垂直面の右側にある場合、bの値は負の数である)、
cは、スクリーンの法線方向と、カメラと話者の顔との間の接続線の投影との間の包含角度に等しい(図において、顔が、カメラの中心の法線の垂直面の右側にある場合、cの値は負の数である)。
Claims (21)
- 音声対話方法であって
端末によって、音声対話開始指示を検出することと、
前記端末によって、前記音声対話開始指示に応答して、音声対話動作状態に移行することと、
前記端末によって、第1の音声情報を受信し、前記第1の音声情報に対する処理結果を出力することと、
前記端末によって、第2の音声情報を受信し、前記第2の音声情報の送信者と前記第1の音声情報の送信者が同じユーザであるかどうかを判定することと、
前記送信者が同じユーザであると判定した場合、前記端末によって、前記第2の音声情報に応答して、処理結果を出力することと、
前記送信者が異なるユーザであると判定した場合、前記端末によって、前記音声対話動作状態を終了することと、を含む、方法。 - 前記端末によって、前記第2の音声情報の送信者と前記第1の音声情報の送信者が同じユーザであるかどうかを判定することは、
前記端末によって、前記第1の音声情報と前記第2の音声情報を受信するときに、前記第1の音声情報の特徴と前記第2の音声情報の特徴を別々に取得することと、
前記端末によって、前記第1の音声情報の前記特徴と前記第2の音声情報の前記特徴との比較結果に基づいて、前記第2の音声情報の前記送信者と前記第1の音声情報の前記送信者が同じユーザであるかどうかを判定することと、を含む、請求項1に記載の方法。 - 前記音声特徴情報は、声紋モデル情報である、請求項1に記載の方法。
- 前記端末によって、前記第2の音声情報の送信者と前記第1の音声情報の送信者が同じユーザであるかどうかを判定することは、
前記端末によって、前記第1の音声情報及び前記第2の音声情報を受信するときに、ユーザの方向情報又は距離情報を別々に取得することと、
前記端末によって、前記ユーザの前記方向情報又は前記距離情報に基づいて、前記第2の音声情報の前記送信者と前記第1の音声情報の前記送信者が同じユーザであるかどうかを判定することと、を含む、請求項1に記載の方法。 - 前記端末は、前記ユーザの前記距離情報を検出するために赤外線センシングを使用し、前記第1の音声情報及び前記第2の音声情報を受信するときに、前記ユーザの前記距離情報に基づいて、前記送信者が同じユーザであるかどうかを判定するか、又は
前記端末は、前記ユーザの前記方向情報を検出するためにマイクロホンアレイを使用し、前記第1の音声情報及び前記第2の音声情報を受信するときに、前記ユーザの前記距離情報に基づいて、前記送信者が同じユーザであるかどうかを判定する、請求項4に記載の方法。 - 前記端末によって、前記第2の音声情報の送信者と前記第1の音声情報の送信者が同じユーザであるかどうかを判定することは、
前記端末によって、前記第1の音声情報と前記第2の音声情報を受信するときに、ユーザの顔特徴情報を別々に取得することと、
前記端末によって、前記ユーザの前記顔特徴情報を比較することによって、前記第2の音声情報の前記送信者と前記第1の音声情報の前記送信者が同じユーザであるかどうかを判定することと、を含む、請求項1に記載の方法。 - 前記方法は、前記第2の音声情報の前記送信者と前記第1の音声情報の前記送信者が同じユーザであると判定した後に、前記端末によって、前記ユーザの顔の向きがプリセット閾値を満たすかどうかをさらに判定し、前記ユーザの顔の向きが前記プリセット閾値を満たすときに、前記端末によって、前記第2の音声情報の処理結果を出力し、そうでなければ、前記端末によって、前記音声対話動作状態を終了することをさらに含む、請求項1~6のいずれか一項に記載の方法。
- 前記ユーザの顔の向きがプリセット閾値を満たすかどうかを判定することは、音声対話インターフェースの視覚中心点とカメラ位置との間のオフセットを判定し、前記オフセットに基づいて、前記ユーザの前記顔の向きが前記プリセット閾値を満たすかどうかを判定することを含む、請求項7に記載の方法。
- 前記端末によって、音声対話動作状態に移行することは、前記端末によって、第1の音声対話インターフェースを表示することと、
前記端末によって、前記端末が前記第1の音声情報の前記処理結果を出力した後、第2の音声対話インターフェースを表示することであって、前記第1の音声対話インターフェースは、第2の音声インターフェースとは異なる、表示することと、をさらに含み、
前記端末によって、前記音声対話動作状態を終了させることは、前記端末によって、前記第2の音声対話インターフェースをキャンセルすることを含む、請求項1~8のいずれか一項に記載の方法。 - インテリジェント音声対話を実施するための端末であって、前記端末は、音声対話モジュールと、継続会話意図判定モジュールと、を含み、
前記音声対話モジュールは、インテリジェント音声対話を実施し、受信した音声情報に基づいてターゲット処理結果を出力するように構成されており、
前記継続会話意図判定モジュールは、受信した第1の音声情報と受信した第2の音声情報とが同じユーザからのものであるかどうかを判定することであって、前記第1の音声情報は、前記音声対話モジュールが音声対話開始指示に応答した後に受信した音声情報であり、前記第2の音声情報は、前記音声対話モジュールが前記第1の音声情報の処理結果を出力した後に受信した音声情報である、判定することをするように構成されている、端末。 - 前記継続会話意図判定モジュールが、受信した第1の音声情報と受信した第2の音声情報が同じユーザからのものであるかどうかを判定するように構成されていることは、
前記継続会話意図判定モジュールによって、前記第1の音声情報の特徴と前記第2の音声情報の特徴との比較結果に基づいて、前記第2の音声情報の送信者と前記第1の音声情報の送信者が同じユーザであるかどうかを判定することを含む、請求項10に記載の端末。 - 前記音声特徴情報は、声紋モデル情報である、請求項11に記載の端末。
- 前記継続会話意図判定ユニットが、受信した第1の音声情報と受信した第2の音声情報が同じユーザからのものであるかどうかを判定するように構成されていることは、
前記継続会話意図判定モジュールによって、前記第1の音声情報と前記第2の音声情報を受信するときに、ユーザの方向情報又は距離情報に基づいて、前記第2の音声情報の送信者と前記第1の音声情報の送信者が同じユーザであるかどうかを判定することを含む、請求項10に記載の端末。 - 前記継続会話意図判定モジュールは、前記ユーザの前記距離情報を検出するために赤外線センシングを使用し、前記第1の音声情報及び前記第2の音声情報を受信するときに、前記ユーザの前記距離情報に基づいて、前記送信者が同じユーザであるかどうかを判定するか、前記継続会話意図判定モジュールは、前記ユーザの前記方向情報を検出するためにマイクロホンアレイを使用し、前記第1の音声情報及び前記第2の音声情報を受信するときに、前記ユーザの前記方向情報に基づいて、前記送信者が同じユーザであるかどうかを判定する、請求項13に記載の端末。
- 前記継続会話意図判定モジュールが、受信した第1の音声情報と受信した第2の音声情報が同じユーザからのものであるかどうかを判定するように構成されていることは、
前記継続会話意図判定モジュールによって、前記第1の音声情報及び前記第2の音声情報を受信するときに、前記ユーザの顔特徴情報に基づいて、前記第2の音声情報の送信者と前記第1の音声情報の送信者が同じユーザであるかどうかを判定することを含む、請求項10に記載の端末。 - 前記継続会話意図判定モジュールは、前記第2の音声情報の前記送信者と前記第1の音声情報の前記送信者が同じユーザであることを判定した後、前記ユーザの顔の向きがプリセット閾値を満たすかどうかをさらに判定する、請求項10~15のいずれか一項に記載の端末。
- 前記ユーザの顔の向きがプリセット閾値を満たすかどうかを判定することは、音声インターフェースの視覚中心点とカメラ位置との間のオフセットを判定することと、前記オフセットに基づいて、前記ユーザの前記顔の向きが前記プリセット閾値を満たすかどうかを判定することとを含む、請求項16に記載の端末。
- 前記端末は、音声対話インターフェース表示モジュールをさらに含み、前記音声対話インターフェース表示モジュールは、前記端末が音声対話作業状態に移行した後、第1の音声対話インターフェースを表示し、前記端末が前記第1の音声情報の前記処理結果を出力した後、第2の音声対話インターフェースを表示するように構成されており、前記第1の音声対話インターフェースは、前記第2の音声対話インターフェースとは異なる、請求項10~17のいずれか一項に記載の端末。
- インテリジェント音声対話を実施するための会議システムであって、前記会議システムは、請求項10~17に記載のいずれかの端末と、少なくとも1つのサーバと、を含み、前記端末は、インテリジェント音声対話を実施するために、ネットワークを介して前記少なくとも1つのサーバに接続され、前記サーバは、声紋認識サーバ、顔認識サーバ、音声認識及び意味理解サーバ、音声合成サーバ、及びセッション意図認識サーバを含む、会議システム。
- コンピュータプログラムを記憶するコンピュータ可読記憶媒体であって、プロセッサが前記プログラムを実行して、請求項1~9のいずれか一項に記載の方法を実施する、コンピュータ可読記憶媒体。
- メモリと、プロセッサと、前記メモリに記憶され、前記プロセッサ上で実行可能なコンピュータプログラムと、を含み、前記プロセッサは、前記コンピュータプログラムを実行して、請求項1~9のいずれか一項に記載の方法を実施する、インテリジェント音声対話を実施するための端末。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811644940.9A CN111402900B (zh) | 2018-12-29 | 2018-12-29 | 一种语音交互方法,设备和系统 |
CN201811644940.9 | 2018-12-29 | ||
PCT/CN2019/129631 WO2020135811A1 (zh) | 2018-12-29 | 2019-12-28 | 一种语音交互方法,设备和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022516491A true JP2022516491A (ja) | 2022-02-28 |
JP7348288B2 JP7348288B2 (ja) | 2023-09-20 |
Family
ID=71128858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021537969A Active JP7348288B2 (ja) | 2018-12-29 | 2019-12-28 | 音声対話の方法、装置、及びシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210327436A1 (ja) |
EP (1) | EP3896691A4 (ja) |
JP (1) | JP7348288B2 (ja) |
CN (1) | CN111402900B (ja) |
WO (1) | WO2020135811A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022069534A (ja) * | 2021-04-16 | 2022-05-11 | 阿波▲羅▼智▲聯▼(北京)科技有限公司 | 投影シーンの表示制御方法、装置、設備、媒体及びプログラム製品 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210042520A (ko) * | 2019-10-10 | 2021-04-20 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
CN111833876A (zh) * | 2020-07-14 | 2020-10-27 | 科大讯飞股份有限公司 | 会议发言控制方法、系统、电子设备及存储介质 |
CN112017629B (zh) * | 2020-07-15 | 2021-12-21 | 马上消费金融股份有限公司 | 语音机器人的会话控制方法及设备、存储介质 |
CN111951795B (zh) * | 2020-08-10 | 2024-04-09 | 中移(杭州)信息技术有限公司 | 语音交互方法、服务器、电子设备和存储介质 |
CN112133296B (zh) * | 2020-08-27 | 2024-05-21 | 北京小米移动软件有限公司 | 全双工语音控制方法、装置、存储介质及语音设备 |
US11557278B2 (en) | 2020-12-10 | 2023-01-17 | Google Llc | Speaker dependent follow up actions and warm words |
CN112908322A (zh) * | 2020-12-31 | 2021-06-04 | 思必驰科技股份有限公司 | 用于玩具车的语音控制方法和装置 |
CN113314120B (zh) * | 2021-07-30 | 2021-12-28 | 深圳传音控股股份有限公司 | 处理方法、处理设备及存储介质 |
CN113643728B (zh) * | 2021-08-12 | 2023-08-22 | 荣耀终端有限公司 | 一种音频录制方法、电子设备、介质及程序产品 |
CN118401997A (zh) * | 2021-10-13 | 2024-07-26 | 谷歌有限责任公司 | 基于数字信号处理器的持续通话 |
CN117746849A (zh) * | 2022-09-14 | 2024-03-22 | 荣耀终端有限公司 | 一种语音交互方法、装置及终端 |
CN115567336B (zh) * | 2022-09-28 | 2024-04-16 | 四川启睿克科技有限公司 | 一种基于智慧家居的无唤醒语音控制系统及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140249817A1 (en) * | 2013-03-04 | 2014-09-04 | Rawles Llc | Identification using Audio Signatures and Additional Characteristics |
US20140249811A1 (en) * | 2013-03-01 | 2014-09-04 | Google Inc. | Detecting the end of a user question |
US9098467B1 (en) * | 2012-12-19 | 2015-08-04 | Rawles Llc | Accepting voice commands based on user identity |
JP2018017936A (ja) * | 2016-07-28 | 2018-02-01 | 国立研究開発法人情報通信研究機構 | 音声対話装置、サーバ装置、音声対話方法、音声処理方法およびプログラム |
JP2018180523A (ja) * | 2017-04-12 | 2018-11-15 | サウンドハウンド,インコーポレイテッド | マン・マシン・ダイアログにおけるエージェント係属の管理 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100754384B1 (ko) * | 2003-10-13 | 2007-08-31 | 삼성전자주식회사 | 잡음에 강인한 화자위치 추정방법 및 장치와 이를 이용한카메라 제어시스템 |
US10042993B2 (en) * | 2010-11-02 | 2018-08-07 | Homayoon Beigi | Access control through multifactor authentication with multimodal biometrics |
WO2012066557A1 (en) * | 2010-11-16 | 2012-05-24 | Hewlett-Packard Development Company L.P. | System and method for using information from intuitive multimodal interactions for media tagging |
US20120259638A1 (en) * | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Apparatus and method for determining relevance of input speech |
DE102014109121B4 (de) * | 2013-07-10 | 2023-05-04 | Gm Global Technology Operations, Llc | Systeme und Verfahren zur Arbitrierung eines Sprachdialogdienstes |
KR102060661B1 (ko) * | 2013-07-19 | 2020-02-11 | 삼성전자주식회사 | 통신 방법 및 이를 위한 디바이스 |
US9575720B2 (en) * | 2013-07-31 | 2017-02-21 | Google Inc. | Visual confirmation for a recognized voice-initiated action |
US20160344567A1 (en) * | 2015-05-22 | 2016-11-24 | Avaya Inc. | Multi-channel conferencing |
US9653075B1 (en) * | 2015-11-06 | 2017-05-16 | Google Inc. | Voice commands across devices |
CN105912092B (zh) | 2016-04-06 | 2019-08-13 | 北京地平线机器人技术研发有限公司 | 人机交互中的语音唤醒方法及语音识别装置 |
US9898082B1 (en) * | 2016-11-01 | 2018-02-20 | Massachusetts Institute Of Technology | Methods and apparatus for eye tracking |
US20180293221A1 (en) * | 2017-02-14 | 2018-10-11 | Microsoft Technology Licensing, Llc | Speech parsing with intelligent assistant |
US10950228B1 (en) * | 2017-06-28 | 2021-03-16 | Amazon Technologies, Inc. | Interactive voice controlled entertainment |
CN108182943B (zh) | 2017-12-29 | 2021-03-26 | 北京奇艺世纪科技有限公司 | 一种智能设备控制方法、装置及智能设备 |
TWI704490B (zh) * | 2018-06-04 | 2020-09-11 | 和碩聯合科技股份有限公司 | 語音控制裝置及方法 |
KR102599607B1 (ko) * | 2018-08-21 | 2023-11-07 | 구글 엘엘씨 | 자동화된 어시스턴트를 호출하기 위한 다이내믹 및/또는 컨텍스트 특정 핫워드 |
-
2018
- 2018-12-29 CN CN201811644940.9A patent/CN111402900B/zh active Active
-
2019
- 2019-12-28 JP JP2021537969A patent/JP7348288B2/ja active Active
- 2019-12-28 EP EP19905540.1A patent/EP3896691A4/en active Pending
- 2019-12-28 WO PCT/CN2019/129631 patent/WO2020135811A1/zh unknown
-
2021
- 2021-06-28 US US17/360,015 patent/US20210327436A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9098467B1 (en) * | 2012-12-19 | 2015-08-04 | Rawles Llc | Accepting voice commands based on user identity |
US20140249811A1 (en) * | 2013-03-01 | 2014-09-04 | Google Inc. | Detecting the end of a user question |
US20140249817A1 (en) * | 2013-03-04 | 2014-09-04 | Rawles Llc | Identification using Audio Signatures and Additional Characteristics |
JP2018017936A (ja) * | 2016-07-28 | 2018-02-01 | 国立研究開発法人情報通信研究機構 | 音声対話装置、サーバ装置、音声対話方法、音声処理方法およびプログラム |
JP2018180523A (ja) * | 2017-04-12 | 2018-11-15 | サウンドハウンド,インコーポレイテッド | マン・マシン・ダイアログにおけるエージェント係属の管理 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022069534A (ja) * | 2021-04-16 | 2022-05-11 | 阿波▲羅▼智▲聯▼(北京)科技有限公司 | 投影シーンの表示制御方法、装置、設備、媒体及びプログラム製品 |
JP7318043B2 (ja) | 2021-04-16 | 2023-07-31 | 阿波▲羅▼智▲聯▼(北京)科技有限公司 | 投影シーンの表示制御方法、装置、設備、媒体及びプログラム製品 |
US11955039B2 (en) | 2021-04-16 | 2024-04-09 | Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. | Method and apparatus for controlling display in a screen projection scenario, device and program product |
Also Published As
Publication number | Publication date |
---|---|
WO2020135811A1 (zh) | 2020-07-02 |
CN111402900B (zh) | 2024-04-23 |
JP7348288B2 (ja) | 2023-09-20 |
EP3896691A4 (en) | 2022-07-06 |
EP3896691A1 (en) | 2021-10-20 |
US20210327436A1 (en) | 2021-10-21 |
CN111402900A (zh) | 2020-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7348288B2 (ja) | 音声対話の方法、装置、及びシステム | |
US10776073B2 (en) | System and method for managing a mute button setting for a conference call | |
US10930303B2 (en) | System and method for enhancing speech activity detection using facial feature detection | |
US10264214B1 (en) | System and methods for testing a video conference call using a virtual assistant | |
US7933226B2 (en) | System and method for providing communication channels that each comprise at least one property dynamically changeable during social interactions | |
US10586131B2 (en) | Multimedia conferencing system for determining participant engagement | |
US10257240B2 (en) | Online meeting computer with improved noise management logic | |
TWI703473B (zh) | 用於聊天機器人與人類通話的可編程智能代理機 | |
WO2021031308A1 (zh) | 音频处理方法、装置及存储介质 | |
US11909786B2 (en) | Systems and methods for improved group communication sessions | |
US12052391B2 (en) | Methods and systems for automatic queuing in conference calls | |
CN111968680B (zh) | 一种语音处理方法、装置及存储介质 | |
US20230282224A1 (en) | Systems and methods for improved group communication sessions | |
JP2004234631A (ja) | ユーザと対話型実体エージェントとの間の対話を管理するシステムおよび対話型実体エージェントによるユーザとの対話を管理する方法 | |
KR20240036701A (ko) | 컨텍스트 신호들에 기초하는 참여 상태 보존 | |
US8976223B1 (en) | Speaker switching in multiway conversation | |
US11189275B2 (en) | Natural language processing while sound sensor is muted | |
KR102134860B1 (ko) | 인공지능 스피커 및 이의 비언어적 요소 기반 동작 활성화 방법 | |
CN108942926B (zh) | 一种人机交互的方法、装置和系统 | |
WO2024070651A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
WO2024123364A1 (en) | Annotating automatic speech recognition transcription | |
WO2018017086A1 (en) | Determining when participants on a conference call are speaking | |
WO2023163895A1 (en) | Systems and methods for improved group communication sessions | |
CN114171039A (zh) | 信号处理方法、装置及电子设备 | |
Zhang et al. | Fusing array microphone and stereo vision for improved computer interfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210816 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210816 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230907 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7348288 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |