JP7127131B2 - 音声データおよびメディア消費データに基づいてユーザを識別するためのシステムおよび方法 - Google Patents
音声データおよびメディア消費データに基づいてユーザを識別するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7127131B2 JP7127131B2 JP2020535629A JP2020535629A JP7127131B2 JP 7127131 B2 JP7127131 B2 JP 7127131B2 JP 2020535629 A JP2020535629 A JP 2020535629A JP 2020535629 A JP2020535629 A JP 2020535629A JP 7127131 B2 JP7127131 B2 JP 7127131B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- users
- media guidance
- demographics
- media
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 63
- 238000004891 communication Methods 0.000 claims description 52
- 230000004044 response Effects 0.000 claims description 27
- 230000009471 action Effects 0.000 description 41
- 230000008569 process Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 14
- 238000013459 approach Methods 0.000 description 12
- 230000002452 interceptive effect Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000001755 vocal effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006855 networking Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 244000187656 Eucalyptus cornuta Species 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 229910021417 amorphous silicon Inorganic materials 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 239000002041 carbon nanotube Substances 0.000 description 1
- 229910021393 carbon nanotube Inorganic materials 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002772 conduction electron Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229910021420 polycrystalline silicon Inorganic materials 0.000 description 1
- 229920005591 polysilicon Polymers 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/242—Query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/248—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/45—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying users
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/61—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/65—Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for using the result on users' side
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本願明細書は、例えば、以下の項目も提供する。
(項目1)
音声データおよびメディア消費データに基づいてユーザを識別する方法であって、前記方法は、
ユーザから受信された音声コマンドから音声シグネチャを生成することと、
前記音声シグネチャに基づいて、前記ユーザに関連付けられた複数の音声特性を識別することであって、前記複数の音声特性の各々は、前記ユーザに関連付けられた人口統計データに対応する、ことと、
前記複数の人口統計を家庭に関連付けられた複数のユーザに関連付けられた複数のプロファイルのうちの各プロファイルにおける人口統計情報と比較することと、
前記比較することに基づいて、前記複数のプロファイルにおける2つ以上のプロファイルが前記複数の人口統計に合致することを決定することと、
前記複数のプロファイルにおける2つ以上のプロファイルが前記複数の人口統計に合致することを決定することに応答して、前記2つ以上のプロファイルからの前記音声コマンドのコンテンツに基づいて、前記ユーザのプロファイルを識別することと、
前記ユーザが識別されたことを示す指示を表示のために生成することと
を含む、方法。
(項目2)
音声データおよびメディア消費データに基づいてユーザを識別する方法であって、前記方法は、
ユーザから受信された音声コマンドから音声シグネチャを生成することと、
前記音声シグネチャから、前記ユーザに関連付けられた複数の音声特性を決定することであって、前記複数の音声特性は、複数の人口統計に対応する、ことと、
前記ユーザの家庭に関連付けられたユーザ情報のための要求を伝送することと、
前記ユーザ情報を受信することであって、前記ユーザ情報は、前記家庭内の各ユーザのそれぞれの人口統計情報を備えている、ことと、
前記複数の人口統計を前記ユーザ情報内の人口統計情報と比較することと、
前記比較することに基づいて、2人以上のユーザに関連付けられた人口統計情報が前記複数の人口統計に合致することを決定することと、
2人以上のユーザに関連付けられた前記人口統計情報が前記複数の人口統計に合致することを決定することに応答して、
前記音声コマンドがメディアアセットのための要求を備えていることを決定することと、
前記メディアアセットに関連付けられたメタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心があるメディアアセットに関連付けられたメタデータと比較することと、
前記メディアアセットに関連付けられた前記メタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心がある前記メディアアセットに関連付けられた前記メタデータと比較することに基づいて、前記2人以上のユーザのうちの第1のユーザが最良合致を構成することを決定することと、
前記第1のユーザが前記最良合致であることを決定することに応答して、前記ユーザが識別されたという指示を表示のために生成することと
を含む、方法。
(項目3)
前記ユーザの前記家庭に関連付けられたユーザ情報のための前記要求を伝送することは、
前記音声コマンドが受信されるユーザ機器デバイスに関連付けられた識別文字列を決定することと、
前記家庭ユーザ情報のためのクエリを生成することであって、前記クエリは、前記識別文字列を備えている、ことと、
前記クエリを前記ユーザの前記家庭に関連付けられた前記ユーザ情報を記憶している遠隔サーバに伝送することと
を含む、項目2に記載の方法。
(項目4)
前記ユーザ情報を受信することは、データ構造に前記ユーザ情報を記憶することをさらに含み、前記データ構造は、
複数のエントリであって、前記複数のエントリは、前記家庭内の各ユーザのためのエントリを備えている、複数のエントリと、
各エントリのための複数のフィールドであって、前記複数のフィールドは、それぞれのユーザに関連付けられた人口統計情報の各項目のためのフィールドを備えている、複数のフィールドと
を備えている、項目3に記載の方法。
(項目5)
前記複数の人口統計を前記ユーザ情報内の前記人口統計情報と比較することは、
前記複数のエントリから第1のエントリを読み出すことと、
前記複数の人口統計のうちの各人口統計を前記2人以上のユーザのうちの第1のユーザの対応する人口統計に関連付けられたフィールドのコンテンツと比較することと、
前記複数の人口統計のうちの各人口統計を前記2人以上のユーザのうちの前記第1のユーザの対応する人口統計に関連付けられた前記フィールドのコンテンツと比較することに基づいて、前記第1のユーザに関連付けられた人口統計に合致する前記複数の人口統計からの人口統計情報の組を生成することと
を含む、項目4に記載の方法。
(項目6)
前記2人以上のユーザに関連付けられた人口統計情報が前記複数の人口統計に合致することを決定することは、
前記複数の人口統計に合致する前記第1のユーザに関連付けられた人口統計情報の量を前記複数の人口統計に合致する他のユーザに関連付けられた人口統計情報の量と比較することと、
前記複数の人口統計に合致する前記第1のユーザに関連付けられた人口統計情報の量を前記複数の人口統計に合致する他のユーザに関連付けられた人口統計情報の量と比較することに基づいて、合致する人口統計情報の最高量を伴う2人以上のユーザを識別することと
を含む、項目5に記載の方法。
(項目7)
前記メディアアセットに関連付けられたメタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心があるメディアアセットに関連付けられたメタデータと比較することは、
複数のユーザプロファイルを受信することであって、前記複数のユーザプロファイルにおける各ユーザプロファイルは、前記2人以上のユーザのうちのユーザに対応し、各ユーザプロファイルは、前記2人以上のユーザのうちのそれぞれのユーザが好むメディアアセットに対応する複数の特性を備えている、ことと、
前記メディアアセットに関連付けられた前記メタデータを前記対応するユーザが好むメディアアセットの特性と比較することと、
前記メディアアセットに関連付けられた前記メタデータを前記対応するユーザが好むメディアアセットの特性と比較することに基づいて、前記2人以上のユーザのうちの各ユーザのために、合致する特性の量を決定することと
を含む、項目2に記載の方法。
(項目8)
前記2人以上のユーザから、合致するメタデータの最高量を伴う者を決定することは、
前記複数の特性のうちの各特性に関連付けられた重みを読み出すことと、
各特性のためのそれぞれの重みを使用して、前記2人以上のユーザのうちの各ユーザのために、合致する特性の量を計算することと、
合致する特性の最高量を伴う合致するユーザを選択することと
を含む、項目7に記載の方法。
(項目9)
前記ユーザが識別されたという前記指示を表示のために生成することは、
記憶装置から前記ユーザのプロファイルを読み出すことと、
前記ユーザの前記プロファイルに基づいて、前記ユーザがアバタを選択したことを決定することと、
前記メディアアセットの一部にオーバーレイされる前記アバタを表示のために生成することと
を含む、項目2に記載の方法。
(項目10)
前記ユーザに関連付けられた全てのデバイスにおいて前記音声シグネチャを記憶することをさらに含む、項目2に記載の方法。
(項目11)
前記ユーザの音声プロファイルに前記音声シグネチャおよび前記メディアアセットの指示を記憶することと、
後続の音声コマンドを検出することと、
前記後続の音声コマンドに関連付けられた後続の音声シグネチャが前記音声シグネチャに合致することを決定することと、
前記ユーザの前記音声プロファイルに前記後続の音声コマンドのコンテンツを記憶することと
をさらに含む、項目2に記載の方法。
(項目12)
音声データおよびメディア消費データに基づいてユーザを識別するためのシステムであって、前記システムは、
通信回路と、
制御回路と
を備え、
前記制御回路は、
ユーザから受信された音声コマンドから音声シグネチャを生成することと、
前記音声シグネチャから、前記ユーザに関連付けられた複数の音声特性を決定することであって、前記複数の音声特性は、複数の人口統計に対応している、ことと、
前記通信回路を使用して、前記ユーザの家庭に関連付けられたユーザ情報のための要求を伝送することと、
前記通信回路を使用して、前記ユーザ情報を受信することであって、前記ユーザ情報は、前記家庭内の各ユーザのそれぞれの人口統計情報を備えている、ことと、
前記複数の人口統計を前記ユーザ情報内の人口統計情報と比較することと、
前記比較することに基づいて、2人以上のユーザに関連付けられた人口統計情報が前記複数の人口統計に合致することを決定することと、
2人以上のユーザに関連付けられた前記人口統計情報が前記複数の人口統計に合致することを決定することに応答して、
前記音声コマンドがメディアアセットのための要求を備えていることを決定することと、
前記メディアアセットに関連付けられたメタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心があるメディアアセットに関連付けられたメタデータと比較することと、
前記メディアアセットに関連付けられた前記メタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心がある前記メディアアセットに関連付けられた前記メタデータと比較することに基づいて、前記2人以上のユーザのうちの第1のユーザが最良合致を構成することを決定することと、
前記第1のユーザが前記最良合致であることを決定することに応答して、前記ユーザが識別されたという指示を表示のために生成することと
を行うように構成されている、システム。
(項目13)
前記制御回路は、前記ユーザの前記家庭に関連付けられたユーザ情報のための前記要求を伝送するとき、
前記音声コマンドが受信されるユーザ機器デバイスに関連付けられた識別文字列を決定することと、
前記家庭ユーザ情報のためのクエリを生成することであって、前記クエリは、前記識別文字列を備えている、ことと、
前記クエリを前記ユーザの前記家庭に関連付けられた前記ユーザ情報を記憶している遠隔サーバに伝送することと
を行うようにさらに構成されている、項目12に記載のシステム。
(項目14)
前記制御回路は、前記ユーザ情報を受信するとき、データ構造に前記ユーザ情報を記憶するようにさらに構成され、前記データ構造は、
複数のエントリであって、前記複数のエントリは、前記家庭内の各ユーザのためのエントリを備えている、複数のエントリと、
各エントリのための複数のフィールドであって、前記複数のフィールドは、それぞれのユーザに関連付けられた人口統計情報の各項目のためのフィールドを備えている、複数のフィールドと
を備えている、項目13に記載のシステム。
(項目15)
前記制御回路は、前記複数の人口統計を前記ユーザ情報内の前記人口統計情報と比較するとき、
前記複数のエントリから第1のエントリを読み出すことと、
前記複数の人口統計のうちの各人口統計を前記2人以上のユーザのうちの第1のユーザの対応する人口統計に関連付けられたフィールドのコンテンツと比較することと、
前記複数の人口統計のうちの各人口統計を前記2人以上のユーザのうちの前記第1のユーザの対応する人口統計に関連付けられた前記フィールドのコンテンツと比較することに基づいて、前記第1のユーザに関連付けられた人口統計に合致する前記複数の人口統計からの人口統計情報の組を生成することと
を行うようにさらに構成されている、項目14に記載のシステム。
(項目16)
前記制御回路は、前記2人以上のユーザに関連付けられた人口統計情報が前記複数の人口統計に合致することを決定するとき、
前記複数の人口統計に合致する前記第1のユーザに関連付けられた人口統計情報の量を前記複数の人口統計に合致する他のユーザに関連付けられた人口統計情報の量と比較することと、
前記複数の人口統計に合致する前記第1のユーザに関連付けられた人口統計情報の量を前記複数の人口統計に合致する他のユーザに関連付けられた人口統計情報の量と比較することに基づいて、合致する人口統計情報の最高量を伴う2人以上のユーザを識別することと
を行うようにさらに構成されている、項目15に記載のシステム。
(項目17)
前記制御回路は、前記メディアアセットに関連付けられたメタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心があるメディアアセットに関連付けられた前記メタデータと比較するとき、
複数のユーザプロファイルを受信することであって、前記複数のユーザプロファイルにおける各ユーザプロファイルは、前記2人以上のユーザのうちのユーザに対応し、各ユーザプロファイルは、前記2人以上のユーザのうちのそれぞれのユーザが好むメディアアセットに対応する複数の特性を備えている、ことと、
前記メディアアセットに関連付けられた前記メタデータを前記対応するユーザが好むメディアアセットの特性と比較することと、
前記メディアアセットに関連付けられた前記メタデータを前記対応するユーザが好むメディアアセットの特性と比較することに基づいて、前記2人以上のユーザのうちの各ユーザのために、合致する特性の量を決定することと
を行うようにさらに構成されている、項目12に記載のシステム。
(項目18)
前記制御回路は、前記2人以上のユーザから、合致するメタデータの最高量を伴う者を決定するとき、
前記複数の特性のうちの各特性に関連付けられた重みを読み出すことと、
各特性のためのそれぞれの重みを使用して、前記2人以上のユーザのうちの各ユーザのために、合致する特性の量を計算することと、
合致する特性の最高量を伴う合致するユーザを選択することと
を行うようにさらに構成されている、項目17に記載のシステム。
(項目19)
前記制御回路は、前記ユーザが識別されたという前記指示を表示のために生成するとき、
記憶装置から前記ユーザのプロファイルを読み出すことと、
前記ユーザの前記プロファイルに基づいて、前記ユーザがアバタを選択したことを決定することと、
前記メディアアセットの一部にオーバーレイされる前記アバタを表示のために生成することと
を行うようにさらに構成されている、項目12に記載のシステム。
(項目20)
前記制御回路は、前記ユーザに関連付けられた全てのデバイスにおいて前記音声シグネチャを記憶するようにさらに構成されている、項目12に記載のシステム。
(項目21)
前記制御回路は、
前記ユーザの音声プロファイルに前記音声シグネチャおよび前記メディアアセットの指示を記憶することと、
後続の音声コマンドを検出することと、
前記後続の音声コマンドに関連付けられた後続の音声シグネチャが前記音声シグネチャに合致することを決定することと、
前記ユーザの前記音声プロファイルに前記後続の音声コマンドのコンテンツを記憶することと
を行うようにさらに構成されている、項目12に記載のシステム。
(項目22)
音声データおよびメディア消費データに基づいてユーザを識別するためのシステムであって、前記システムは、
ユーザから受信された音声コマンドから音声シグネチャを生成する手段と、
前記音声シグネチャから、前記ユーザに関連付けられた複数の音声特性を決定する手段であって、前記複数の音声特性は、複数の人口統計に対応する、手段と、
前記ユーザの家庭に関連付けられたユーザ情報のための要求を伝送する手段と、
前記ユーザ情報を受信する手段であって、前記ユーザ情報は、前記家庭内の各ユーザのそれぞれの人口統計情報を備えている、手段と、
前記複数の人口統計を前記ユーザ情報内の人口統計情報と比較する手段と、
前記比較することに基づいて、2人以上のユーザに関連付けられた人口統計情報が前記複数の人口統計に合致することを決定する手段と、
2人以上のユーザに関連付けられた前記人口統計情報が前記複数の人口統計に合致することを決定することに応答して、
前記音声コマンドがメディアアセットのための要求を備えていることを決定することと、
前記メディアアセットに関連付けられたメタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心があるメディアアセットに関連付けられたメタデータと比較することと、
前記メディアアセットに関連付けられた前記メタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心がある前記メディアアセットに関連付けられた前記メタデータと比較することに基づいて、前記2人以上のユーザのうちの第1のユーザが最良合致を構成することを決定することと、
前記第1のユーザが前記最良合致であることを決定することに応答して、前記ユーザが識別されたという指示を表示のために生成することと
を行う手段と
を備えている、システム。
(項目23)
前記ユーザの前記家庭に関連付けられたユーザ情報のための前記要求を伝送する前記手段は、
前記音声コマンドが受信されるユーザ機器デバイスに関連付けられた識別文字列を決定する手段と、
前記家庭ユーザ情報のためのクエリを生成する手段であって、前記クエリは、前記識別文字列を備えている、手段と、
前記クエリを前記ユーザの前記家庭に関連付けられた前記ユーザ情報を記憶している遠隔サーバに伝送する手段と
を備えている、項目22に記載のシステム。
(項目24)
前記ユーザ情報を受信する前記手段は、データ構造に前記ユーザ情報を記憶する手段をさらに備え、前記データ構造は、
複数のエントリであって、前記複数のエントリは、前記家庭内の各ユーザのためのエントリを備えている、複数のエントリと、
各エントリのための複数のフィールドであって、前記複数のフィールドは、それぞれのユーザに関連付けられた人口統計情報の各項目のためのフィールドを備えている、複数のフィールドと
を備えている、項目23に記載のシステム。
(項目25)
前記複数の人口統計を前記ユーザ情報内の前記人口統計情報と比較する前記手段は、
前記複数のエントリから第1のエントリを読み出す手段と、
前記複数の人口統計のうちの各人口統計を前記2人以上のユーザのうちの第1のユーザの対応する人口統計に関連付けられたフィールドのコンテンツと比較する手段と、
前記複数の人口統計のうちの各人口統計を前記2人以上のユーザのうちの前記第1のユーザの対応する人口統計に関連付けられた前記フィールドのコンテンツと比較することに基づいて、前記第1のユーザに関連付けられた人口統計に合致する前記複数の人口統計からの人口統計情報の組を生成する手段と
を備えている、項目24に記載のシステム。
(項目26)
前記2人以上のユーザに関連付けられた人口統計情報が前記複数の人口統計に合致することを決定する前記手段は、
前記複数の人口統計に合致する前記第1のユーザに関連付けられた人口統計情報の量を前記複数の人口統計に合致する他のユーザに関連付けられた人口統計情報の量と比較する手段と、
前記複数の人口統計に合致する前記第1のユーザに関連付けられた人口統計情報の量を前記複数の人口統計に合致する他のユーザに関連付けられた人口統計情報の量と比較することに基づいて、合致する人口統計情報の最高量を伴う2人以上のユーザを識別する手段と
を備えている、項目25に記載のシステム。
(項目27)
前記メディアアセットに関連付けられたメタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心があるメディアアセットに関連付けられた前記メタデータと比較する前記手段は、
複数のユーザプロファイルを受信する手段であって、前記複数のユーザプロファイルにおける各ユーザプロファイルは、前記2人以上のユーザのうちのユーザに対応し、各ユーザプロファイルは、前記2人以上のユーザのうちのそれぞれのユーザが好むメディアアセットに対応する複数の特性を備えている、手段と、
前記メディアアセットに関連付けられた前記メタデータを前記対応するユーザが好むメディアアセットの特性と比較する手段と、
前記メディアアセットに関連付けられた前記メタデータを前記対応するユーザが好むメディアアセットの特性と比較することに基づいて、前記2人以上のユーザのうちの各ユーザのために、合致する特性の量を決定する手段と
を備えている、項目22に記載のシステム。
(項目28)
前記2人以上のユーザから、合致するメタデータの最高量を伴う者を決定する前記手段は、
前記複数の特性のうちの各特性に関連付けられた重みを読み出す手段と、
各特性のためのそれぞれの重みを使用して、前記2人以上のユーザのうちの各ユーザのために、合致する特性の量を計算する手段と、
合致する特性の最高量を伴う合致するユーザを選択する手段と
を備えている、項目27に記載のシステム。
(項目29)
前記ユーザが識別されたという前記指示を表示のために生成する前記手段は、
記憶装置から前記ユーザのプロファイルを読み出す手段と、
前記ユーザの前記プロファイルに基づいて、前記ユーザがアバタを選択したことを決定する手段と、
前記メディアアセットの一部にオーバーレイされる前記アバタを表示のために生成する手段と
を備えている、項目22に記載のシステム。
(項目30)
前記ユーザに関連付けられた全てのデバイスにおいて前記音声シグネチャを記憶する手段をさらに備えている、項目22に記載のシステム。
(項目31)
前記ユーザの音声プロファイルに前記音声シグネチャおよび前記メディアアセットの指示を記憶する手段と、
後続の音声コマンドを検出する手段と、
前記後続の音声コマンドに関連付けられた後続の音声シグネチャが前記音声シグネチャに合致することを決定する手段と、
前記ユーザの前記音声プロファイルに前記後続の音声コマンドのコンテンツを記憶する手段と
をさらに備えている、項目22に記載のシステム。
(項目32)
音声データおよびメディア消費データに基づいてユーザを識別するためのエンコードされた非一過性のコンピュータ読み取り可能な命令を備えている非一過性のコンピュータ読み取り可能な媒体であって、前記命令は、
ユーザから受信された音声コマンドから音声シグネチャを生成するための命令と、
前記音声シグネチャから、前記ユーザに関連付けられた複数の音声特性を決定するための命令であって、前記複数の音声特性は、複数の人口統計に対応する、命令と、
前記ユーザの家庭に関連付けられたユーザ情報のための要求を伝送するための命令と、
前記ユーザ情報を受信するための命令であって、前記ユーザ情報は、前記家庭内の各ユーザのそれぞれの人口統計情報を備えている、命令と、
前記複数の人口統計を前記ユーザ情報内の人口統計情報と比較するための命令と、
前記比較することに基づいて、2人以上のユーザに関連付けられた人口統計情報が前記複数の人口統計に合致することを決定するための命令と、
2人以上のユーザに関連付けられた前記人口統計情報が前記複数の人口統計に合致することを決定することに応答して、
前記音声コマンドがメディアアセットのための要求を備えていることを決定することと、
前記メディアアセットに関連付けられたメタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心があるメディアアセットに関連付けられたメタデータと比較することと、
前記メディアアセットに関連付けられた前記メタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心がある前記メディアアセットに関連付けられた前記メタデータと比較することに基づいて、前記2人以上のユーザのうちの第1のユーザが最良合致を構成することを決定することと、
前記第1のユーザが前記最良合致であることを決定することに応答して、前記ユーザが識別されたという指示を表示のために生成することと
を行うための命令と
を備えている、非一過性のコンピュータ読み取り可能な媒体。
(項目33)
前記ユーザの前記家庭に関連付けられたユーザ情報のための前記要求を伝送するための前記命令は、
前記音声コマンドが受信されるユーザ機器デバイスに関連付けられた識別文字列を決定するための命令と、
前記家庭ユーザ情報のためのクエリを生成するための命令であって、前記クエリは、前記識別文字列を備えている、命令と、
前記クエリを前記ユーザの前記家庭に関連付けられた前記ユーザ情報を記憶している遠隔サーバに伝送するための命令と
を備えている、項目32に記載の非一過性の機械読み取り可能な媒体。
(項目34)
前記ユーザ情報を受信するための前記命令は、データ構造に前記ユーザ情報を記憶するための命令をさらに備え、前記データ構造は、
複数のエントリであって、前記複数のエントリは、前記家庭内の各ユーザのためのエントリを備えている、複数のエントリと、
各エントリのための複数のフィールドであって、前記複数のフィールドは、それぞれのユーザに関連付けられた人口統計情報の各項目のためのフィールドを備えている、複数のフィールドと
を備えている、項目33に記載の非一過性の機械読み取り可能な媒体。
(項目35)
前記複数の人口統計を前記ユーザ情報内の前記人口統計情報と比較するための前記命令は、
前記複数のエントリから第1のエントリを読み出すための命令と、
前記複数の人口統計のうちの各人口統計を前記2人以上のユーザのうちの第1のユーザの対応する人口統計に関連付けられたフィールドのコンテンツと比較するための命令と、
前記複数の人口統計のうちの各人口統計を前記2人以上のユーザのうちの前記第1のユーザの対応する人口統計に関連付けられた前記フィールドのコンテンツと比較することに基づいて、前記第1のユーザに関連付けられた人口統計に合致する前記複数の人口統計からの人口統計情報の組を生成するための命令と
を備えている、項目34に記載の非一過性の機械読み取り可能な媒体。
(項目36)
前記2人以上のユーザに関連付けられた人口統計情報が前記複数の人口統計に合致することを決定するための前記命令は、
前記複数の人口統計に合致する前記第1のユーザに関連付けられた人口統計情報の量を前記複数の人口統計に合致する他のユーザに関連付けられた人口統計情報の量と比較するための命令と、
前記複数の人口統計に合致する前記第1のユーザに関連付けられた人口統計情報の量を前記複数の人口統計に合致する他のユーザに関連付けられた人口統計情報の量と比較することに基づいて、合致する人口統計情報の最高量を伴う2人以上のユーザを識別するための命令と
を備えている、項目35に記載の非一過性の機械読み取り可能な媒体。
(項目37)
前記メディアアセットに関連付けられたメタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心があるメディアアセットに関連付けられた前記メタデータと比較するための前記命令は、
複数のユーザプロファイルを受信するための命令であって、前記複数のユーザプロファイルにおける各ユーザプロファイルは、前記2人以上のユーザのうちのユーザに対応し、各ユーザプロファイルは、前記2人以上のユーザのうちのそれぞれのユーザが好むメディアアセットに対応する複数の特性を備えている、命令と、
前記メディアアセットに関連付けられた前記メタデータを前記対応するユーザが好むメディアアセットの特性と比較するための命令と、
前記メディアアセットに関連付けられた前記メタデータを前記対応するユーザが好むメディアアセットの特性と比較することに基づいて、前記2人以上のユーザのうちの各ユーザのために、合致する特性の量を決定するための命令と
を備えている、項目32に記載の非一過性の機械読み取り可能な媒体。
(項目38)
前記2人以上のユーザから、合致するメタデータの最高量を伴う者を決定するための前記命令は、
前記複数の特性のうちの各特性に関連付けられた重みを読み出すための命令と、
各特性のためのそれぞれの重みを使用して、前記2人以上のユーザのうちの各ユーザのために、合致する特性の量を計算するための命令と、
合致する特性の最高量を伴う合致するユーザを選択するための命令と
を備えている、項目37に記載の非一過性の機械読み取り可能な媒体。
(項目39)
前記ユーザが識別されたという前記指示を表示のために生成するための前記命令は、
記憶装置から前記ユーザのプロファイルを読み出すための命令と、
前記ユーザの前記プロファイルに基づいて、前記ユーザがアバタを選択したことを決定するための命令と、
前記メディアアセットの一部にオーバーレイされる前記アバタを表示のために生成するための命令と
を備えている、項目32に記載の非一過性の機械読み取り可能な媒体。
(項目40)
前記ユーザに関連付けられた全てのデバイスにおいて前記音声シグネチャを記憶するための命令をさらに備えている、項目32に記載の非一過性の機械読み取り可能な媒体。
(項目41)
前記ユーザの音声プロファイルに前記音声シグネチャおよび前記メディアアセットの指示を記憶するための命令と、
後続の音声コマンドを検出するための命令と、
前記後続の音声コマンドに関連付けられた後続の音声シグネチャが前記音声シグネチャに合致することを決定するための命令と、
前記ユーザの前記音声プロファイルに前記後続の音声コマンドのコンテンツを記憶するための命令と
をさらに備えている、項目32に記載の非一過性の機械読み取り可能な媒体。
(項目42)
音声データおよびメディア消費データに基づいてユーザを識別する方法であって、前記方法は、
制御回路を使用して、ユーザから受信された音声コマンドから音声シグネチャを生成することと、
前記制御回路を使用して、前記音声シグネチャから、前記ユーザに関連付けられた複数の音声特性を決定することであって、前記複数の音声特性は、複数の人口統計に対応する、ことと、
通信回路を使用して、前記ユーザの家庭に関連付けられたユーザ情報のための要求を伝送することと、
前記通信回路を使用して、前記ユーザ情報を受信することであって、前記ユーザ情報は、
前記家庭内の各ユーザのそれぞれの人口統計情報を備えている、ことと、
前記制御回路を使用して、前記複数の人口統計を前記ユーザ情報内の人口統計情報と比較することと、
前記制御回路を使用して、前記比較することに基づいて、2人以上のユーザに関連付けられた人口統計情報が前記複数の人口統計に合致することを決定することと、
2人以上のユーザに関連付けられた前記人口統計情報が前記複数の人口統計に合致することを決定することに応答して、
前記制御回路を使用して、前記音声コマンドがメディアアセットのための要求を備えていることを決定することと、
前記制御回路を使用して、前記メディアアセットに関連付けられたメタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心があるメディアアセットに関連付けられたメタデータと比較することと、
前記制御回路を使用して、前記メディアアセットに関連付けられた前記メタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心がある前記メディアアセットに関連付けられた前記メタデータと比較することに基づいて、前記2人以上のユーザのうちの第1のユーザが最良合致を構成することを決定することと、
前記第1のユーザが前記最良合致であることを決定することに応答して、前記制御回路を使用して、前記ユーザが識別されたという指示を表示のために生成することと
を含む、方法。
(項目43)
前記ユーザの前記家庭に関連付けられたユーザ情報のための前記要求を伝送することは、
前記音声コマンドが受信されるユーザ機器デバイスに関連付けられた識別文字列を決定することと、
前記家庭ユーザ情報のためのクエリを生成することであって、前記クエリは、前記識別文字列を備えている、ことと、
前記クエリを前記ユーザの前記家庭に関連付けられた前記ユーザ情報を記憶している遠隔サーバに伝送することと
を含む、項目42に記載の方法。
(項目44)
前記ユーザ情報を受信することは、データ構造に前記ユーザ情報を記憶することをさらに含み、前記データ構造は、
複数のエントリであって、前記複数のエントリは、前記家庭内の各ユーザのためのエントリを備えている、複数のエントリと、
各エントリのための複数のフィールドであって、前記複数のフィールドは、それぞれのユーザに関連付けられた人口統計情報の各項目のためのフィールドを備えている、複数のフィールドと
を備えている、項目43に記載の方法。
(項目45)
前記複数の人口統計を前記ユーザ情報内の前記人口統計情報と比較することは、
前記複数のエントリから第1のエントリを読み出すことと、
前記複数の人口統計のうちの各人口統計を前記2人以上のユーザのうちの第1のユーザの対応する人口統計に関連付けられたフィールドのコンテンツと比較することと、
前記複数の人口統計のうちの各人口統計を前記2人以上のユーザのうちの前記第1のユーザの対応する人口統計に関連付けられた前記フィールドのコンテンツと比較することに基づいて、前記第1のユーザに関連付けられた人口統計に合致する前記複数の人口統計からの人口統計情報の組を生成することと
を含む、項目44に記載の方法。
(項目46)
前記2人以上のユーザに関連付けられた人口統計情報が前記複数の人口統計に合致することを決定することは、
前記複数の人口統計に合致する前記第1のユーザに関連付けられた人口統計情報の量を前記複数の人口統計に合致する他のユーザに関連付けられた人口統計情報の量と比較することと、
前記複数の人口統計に合致する前記第1のユーザに関連付けられた人口統計情報の量を前記複数の人口統計に合致する他のユーザに関連付けられた人口統計情報の量と比較することに基づいて、合致する人口統計情報の最高量を伴う2人以上のユーザを識別することと
を含む、項目45に記載の方法。
(項目47)
前記メディアアセットに関連付けられたメタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心があるメディアアセットに関連付けられた前記メタデータと比較することは、
複数のユーザプロファイルを受信することであって、前記複数のユーザプロファイルにおける各ユーザプロファイルは、前記2人以上のユーザのうちのユーザに対応し、各ユーザプロファイルは、前記2人以上のユーザのうちのそれぞれのユーザが好むメディアアセットに対応する複数の特性を備えている、ことと、
前記メディアアセットに関連付けられた前記メタデータを前記対応するユーザが好むメディアアセットの特性と比較することと、
前記メディアアセットに関連付けられた前記メタデータを前記対応するユーザが好むメディアアセットの特性と比較することに基づいて、前記2人以上のユーザのうちの各ユーザのために、合致する特性の量を決定することと
を含む、項目42-46のいずれかに記載の方法。
(項目48)
前記2人以上のユーザから、合致するメタデータの最高量を伴う者を決定することは、
前記複数の特性のうちの各特性に関連付けられた重みを読み出すことと、
各特性のためのそれぞれの重みを使用して、前記2人以上のユーザのうちの各ユーザのために、合致する特性の量を計算することと、
合致する特性の最高量を伴う合致するユーザを選択することと
を含む、項目47に記載の方法。
(項目49)
前記ユーザが識別されたという前記指示を表示のために生成することは、
記憶装置から前記ユーザのプロファイルを読み出すことと、
前記ユーザの前記プロファイルに基づいて、前記ユーザがアバタを選択したことを決定することと、
前記メディアアセットの一部にオーバーレイされる前記アバタを表示のために生成することと
を含む、項目42-48のいずれかに記載の方法。
(項目50)
前記ユーザに関連付けられた全てのデバイスにおいて前記音声シグネチャを記憶することをさらに含む、項目42-49のいずれかに記載の方法。
(項目51)
前記ユーザの音声プロファイルに前記音声シグネチャおよび前記メディアアセットの指示を記憶することと、
後続の音声コマンドを検出することと、
前記後続の音声コマンドに関連付けられた後続の音声シグネチャが前記音声シグネチャに合致することを決定することと、
前記ユーザの前記音声プロファイルに前記後続の音声コマンドのコンテンツを記憶することと
をさらに含む、項目42-50のいずれかに記載の方法。
Claims (10)
- 音声データおよびメディア消費データに基づいてユーザを識別する方法であって、前記方法は、
ユーザから受信された音声コマンドから音声シグネチャを生成することと、
前記音声シグネチャから、前記ユーザに関連付けられた複数の音声特性を決定することであって、前記複数の音声特性は、複数の人口統計に対応する、ことと、
前記ユーザの家庭に関連付けられたユーザ情報のための要求を伝送することと、
前記ユーザ情報を受信することであって、前記ユーザ情報は、前記家庭内の各ユーザのそれぞれの人口統計情報を備えている、ことと、
前記複数の人口統計を前記ユーザ情報内の人口統計情報と比較することと、
前記比較することに基づいて、2人以上のユーザに関連付けられた人口統計情報が前記複数の人口統計に合致することを決定することと、
2人以上のユーザに関連付けられた前記人口統計情報が前記複数の人口統計に合致することを決定することに応答して、
前記音声コマンドがメディアアセットのための要求を備えていることを決定すること、
前記メディアアセットに関連付けられたメタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心があるメディアアセットに関連付けられたメタデータと比較すること、
前記メディアアセットに関連付けられた前記メタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心がある前記メディアアセットに関連付けられた前記メタデータと比較することに基づいて、前記2人以上のユーザのうちの第1のユーザが最良合致を構成することを決定すること、および
前記第1のユーザが前記最良合致であることを決定することに応答して、前記ユーザが識別されたという指示を出力のために生成すること
を行うことと、
を含む、方法。 - 前記ユーザの前記家庭に関連付けられたユーザ情報のための前記要求を伝送することは、
前記音声コマンドが受信されるユーザ機器デバイスに関連付けられた識別文字列を決定することと、
前記ユーザ情報のためのクエリを生成することであって、前記クエリは、前記識別文字列を備えている、ことと、
前記クエリを前記ユーザの前記家庭に関連付けられた前記ユーザ情報を記憶している遠隔サーバに伝送することと
を含む、請求項1に記載の方法。 - 前記ユーザ情報を受信することは、データ構造に前記ユーザ情報を記憶することをさらに含み、前記データ構造は、
複数のエントリであって、前記複数のエントリは、前記家庭内の各ユーザのためのエントリを備えている、複数のエントリと、
各エントリのための複数のフィールドであって、前記複数のフィールドは、それぞれのユーザに関連付けられた人口統計情報の各項目のためのフィールドを備えている、複数のフィールドと
を備えている、請求項2に記載の方法。 - 前記複数の人口統計を前記ユーザ情報内の前記人口統計情報と比較することは、
前記複数のエントリから第1のエントリを読み出すことと、
前記複数の人口統計のうちの各人口統計を前記2人以上のユーザのうちの第1のユーザの対応する人口統計に関連付けられたフィールドのコンテンツと比較することと、
前記複数の人口統計のうちの各人口統計を前記2人以上のユーザのうちの前記第1のユーザの対応する人口統計に関連付けられた前記フィールドのコンテンツと比較することに基づいて、前記第1のユーザに関連付けられた人口統計に合致する前記複数の人口統計からの人口統計情報の組を生成することと
を含む、請求項3に記載の方法。 - 前記2人以上のユーザに関連付けられた人口統計情報が前記複数の人口統計に合致することを決定することは、
前記複数の人口統計に合致する前記第1のユーザに関連付けられた人口統計情報の量を前記複数の人口統計に合致する他のユーザに関連付けられた人口統計情報の量と比較することと、
前記複数の人口統計に合致する前記第1のユーザに関連付けられた人口統計情報の量を前記複数の人口統計に合致する他のユーザに関連付けられた人口統計情報の量と比較することに基づいて、合致する人口統計情報の最高量を伴う2人以上のユーザを識別することと
を含む、請求項4に記載の方法。 - 前記メディアアセットに関連付けられたメタデータを前記複数の人口統計に合致する前記2人以上のユーザの各々にとって関心があるメディアアセットに関連付けられたメタデータと比較することは、
複数のユーザプロファイルを受信することであって、前記複数のユーザプロファイルにおける各ユーザプロファイルは、前記2人以上のユーザのうちのユーザに対応し、各ユーザプロファイルは、前記2人以上のユーザのうちのそれぞれのユーザが好むメディアアセットに対応する複数の特性を備えている、ことと、
前記メディアアセットに関連付けられた前記メタデータを前記対応するユーザが好むメディアアセットの特性と比較することと、
前記メディアアセットに関連付けられた前記メタデータを前記対応するユーザが好むメディアアセットの特性と比較することに基づいて、前記2人以上のユーザのうちの各ユーザのために、合致する特性の量を決定することと
を含む、請求項1に記載の方法。 - 前記2人以上のユーザから、合致するメタデータの最高量を伴う者を決定することは、
前記複数の特性のうちの各特性に関連付けられた重みを読み出すことと、
各特性のためのそれぞれの重みを使用して、前記2人以上のユーザのうちの各ユーザのために、合致する特性の量を計算することと、
合致する特性の最高量を伴う合致するユーザを選択することと
を含む、請求項6に記載の方法。 - 前記ユーザが識別されたという前記指示を表示のために生成することは、
記憶装置から前記ユーザのプロファイルを読み出すことと、
前記ユーザの前記プロファイルに基づいて、前記ユーザがアバタを選択したことを決定することと
を含む、請求項1に記載の方法。 - 音声データおよびメディア消費データに基づいてユーザを識別するためのシステムであって、前記システムは、
通信回路と、
請求項1~8のいずれかに記載の方法を実行するように構成された制御回路と
を備えている、システム。 - 音声データおよびメディア消費データに基づいてユーザを識別するためのエンコードされた非一過性のコンピュータ読み取り可能な命令を有している非一過性のコンピュータ読み取り可能な媒体であって、前記命令は、制御回路によって実行されると、前記制御回路に請求項1~8のいずれかに記載の方法を実施させる、非一過性のコンピュータ読み取り可能な媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2017/068581 WO2019132896A1 (en) | 2017-12-27 | 2017-12-27 | Systems and methods for identifying users based on voice data and media consumption data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021516356A JP2021516356A (ja) | 2021-07-01 |
JP7127131B2 true JP7127131B2 (ja) | 2022-08-29 |
Family
ID=61018017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020535629A Active JP7127131B2 (ja) | 2017-12-27 | 2017-12-27 | 音声データおよびメディア消費データに基づいてユーザを識別するためのシステムおよび方法 |
Country Status (9)
Country | Link |
---|---|
US (3) | US10937431B2 (ja) |
EP (2) | EP4246508A3 (ja) |
JP (1) | JP7127131B2 (ja) |
KR (1) | KR102451348B1 (ja) |
CN (1) | CN111527541A (ja) |
AR (1) | AR113680A1 (ja) |
AU (1) | AU2017444907B2 (ja) |
CA (1) | CA3083453A1 (ja) |
WO (1) | WO2019132896A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113785595B (zh) * | 2019-05-01 | 2024-07-23 | 尼尔森(美国)有限公司 | 对返回路径数据进行神经网络处理以估计住户成员和访问者人口统计 |
KR20210001529A (ko) * | 2019-06-28 | 2021-01-06 | 엘지전자 주식회사 | 로봇, 그와 연결되는 서버, 및 로봇을 이용한 음성 인식 방법 |
US20210304259A1 (en) * | 2020-03-31 | 2021-09-30 | Salesforce.Com, Inc. | Methods and systems for delivery of customized content via voice recognition |
KR20220021277A (ko) | 2020-08-13 | 2022-02-22 | 주식회사 엘지에너지솔루션 | 배터리 관리 시스템, 배터리 관리 방법, 배터리 팩 및 전기 차량 |
EP4057165B1 (de) * | 2021-03-11 | 2024-07-17 | Deutsche Telekom AG | Sprachassistenzsteuerung |
CN114121014A (zh) * | 2021-10-26 | 2022-03-01 | 云知声智能科技股份有限公司 | 多媒体数据的控制方法及设备 |
EP4202738A1 (de) * | 2021-12-22 | 2023-06-28 | Deutsche Telekom AG | Nutzeridentifikation anhand einer spracheingabe |
US11641505B1 (en) | 2022-06-13 | 2023-05-02 | Roku, Inc. | Speaker-identification model for controlling operation of a media player |
CN118447849A (zh) * | 2024-07-08 | 2024-08-06 | 无锡威达智能电子股份有限公司 | 一种基于语音识别的遥控交互方法、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000250593A (ja) | 1999-03-03 | 2000-09-14 | Fujitsu Ltd | 話者認識装置及び方法 |
JP2019514237A (ja) | 2016-02-22 | 2019-05-30 | ソノズ インコーポレイテッド | メディア再生システムの音声制御 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6239794B1 (en) | 1994-08-31 | 2001-05-29 | E Guide, Inc. | Method and system for simultaneously displaying a television program and information about the program |
US7613659B1 (en) * | 1994-11-28 | 2009-11-03 | Yt Acquisition Corporation | System and method for processing tokenless biometric electronic transmissions using an electronic rule module clearinghouse |
US6564378B1 (en) | 1997-12-08 | 2003-05-13 | United Video Properties, Inc. | Program guide system with browsing display |
CN1867068A (zh) | 1998-07-14 | 2006-11-22 | 联合视频制品公司 | 交互式电视节目导视系统及其方法 |
ATE460812T1 (de) | 1998-07-17 | 2010-03-15 | United Video Properties Inc | Interaktives fernsehprogrammführungssystem mit mehreren geräten in einem haus |
AR020608A1 (es) | 1998-07-17 | 2002-05-22 | United Video Properties Inc | Un metodo y una disposicion para suministrar a un usuario acceso remoto a una guia de programacion interactiva por un enlace de acceso remoto |
US7165098B1 (en) | 1998-11-10 | 2007-01-16 | United Video Properties, Inc. | On-line schedule system with personalization features |
WO2002069636A1 (en) | 2001-02-21 | 2002-09-06 | United Video Properties, Inc. | Systems and methods for interactive program guides with personal video recording features |
KR20040105999A (ko) * | 2003-06-10 | 2004-12-17 | 온오프코리아 주식회사 | 네트워크 기반 소리 아바타 생성 방법 및 시스템 |
US20100153885A1 (en) | 2005-12-29 | 2010-06-17 | Rovi Technologies Corporation | Systems and methods for interacting with advanced displays provided by an interactive media guidance application |
US7627641B2 (en) * | 2006-03-09 | 2009-12-01 | Watchguard Technologies, Inc. | Method and system for recognizing desired email |
US20080092156A1 (en) * | 2006-09-29 | 2008-04-17 | United Video Properties, Inc. | Systems and methods for automatically identifying a user profile |
US8442824B2 (en) * | 2008-11-26 | 2013-05-14 | Nuance Communications, Inc. | Device, system, and method of liveness detection utilizing voice biometrics |
US8340974B2 (en) * | 2008-12-30 | 2012-12-25 | Motorola Mobility Llc | Device, system and method for providing targeted advertisements and content based on user speech data |
US20100169809A1 (en) | 2008-12-31 | 2010-07-01 | Mccarthy Ann Lerene | Method And System For Managing Visually Related Multimedia Information By Means Of Dimensional Classification |
KR101420189B1 (ko) * | 2010-03-03 | 2014-07-17 | 한국전자통신연구원 | 연령 및 성별을 이용한 사용자 인식 장치 및 방법 |
CN102404287A (zh) * | 2010-09-14 | 2012-04-04 | 盛乐信息技术(上海)有限公司 | 用数据复用法确定声纹认证阈值的声纹认证系统及方法 |
US9031848B2 (en) * | 2012-08-16 | 2015-05-12 | Nuance Communications, Inc. | User interface for searching a bundled service content data source |
KR102102246B1 (ko) * | 2012-12-18 | 2020-04-22 | 삼성전자주식회사 | 홈 네트워크 시스템에서 홈 디바이스를 원격으로 제어하는 방법 및 장치 |
US9299350B1 (en) * | 2013-03-15 | 2016-03-29 | Amazon Technologies, Inc. | Systems and methods for identifying users of devices and customizing devices to users |
US9911421B2 (en) | 2013-06-10 | 2018-03-06 | Panasonic Intellectual Property Corporation Of America | Speaker identification method, speaker identification apparatus, and information management method |
US11170089B2 (en) * | 2013-08-22 | 2021-11-09 | Staton Techiya, Llc | Methods and systems for a voice ID verification database and service in social networking and commercial business transactions |
US9426525B2 (en) * | 2013-12-31 | 2016-08-23 | The Nielsen Company (Us), Llc. | Methods and apparatus to count people in an audience |
US10127911B2 (en) * | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10165322B2 (en) * | 2014-09-30 | 2018-12-25 | Rovi Guides, Inc. | Methods and systems for controlling user devices |
EP3257043B1 (en) * | 2015-02-11 | 2018-12-12 | Bang & Olufsen A/S | Speaker recognition in multimedia system |
US10067985B2 (en) * | 2015-03-05 | 2018-09-04 | Telenav, Inc. | Computing system with crowd-source mechanism and method of operation thereof |
WO2017106072A2 (en) * | 2015-12-17 | 2017-06-22 | Technicolor Usa, Inc. | Personalized presentation enhancement using augmented reality |
US10026403B2 (en) * | 2016-08-12 | 2018-07-17 | Paypal, Inc. | Location based voice association system |
WO2018106971A1 (en) * | 2016-12-07 | 2018-06-14 | Interactive Intelligence Group, Inc. | System and method for neural network based speaker classification |
KR20180074316A (ko) * | 2016-12-23 | 2018-07-03 | 삼성전자주식회사 | 장소 정보를 제공하기 위한 시스템 및 이를 지원하는 방법 및 전자 장치 |
WO2018125032A1 (en) * | 2016-12-27 | 2018-07-05 | Rovi Guides, Inc. | Systems and methods for dynamically adjusting media output based on presence detection of individuals |
US20180204133A1 (en) * | 2017-01-18 | 2018-07-19 | Facebook, Inc. | Demographic prediction for users in an online system with unidirectional connection |
US10522154B2 (en) * | 2017-02-13 | 2019-12-31 | Google Llc | Voice signature for user authentication to electronic device |
US10438594B2 (en) * | 2017-09-08 | 2019-10-08 | Amazon Technologies, Inc. | Administration of privileges by speech for voice assistant system |
-
2017
- 2017-12-27 KR KR1020207019382A patent/KR102451348B1/ko active IP Right Grant
- 2017-12-27 CA CA3083453A patent/CA3083453A1/en active Pending
- 2017-12-27 EP EP23170882.7A patent/EP4246508A3/en active Pending
- 2017-12-27 WO PCT/US2017/068581 patent/WO2019132896A1/en unknown
- 2017-12-27 EP EP17832867.0A patent/EP3732675B1/en active Active
- 2017-12-27 CN CN201780097947.0A patent/CN111527541A/zh active Pending
- 2017-12-27 JP JP2020535629A patent/JP7127131B2/ja active Active
- 2017-12-27 AU AU2017444907A patent/AU2017444907B2/en active Active
- 2017-12-27 US US16/308,620 patent/US10937431B2/en active Active
-
2018
- 2018-12-26 AR ARP180103853A patent/AR113680A1/es unknown
-
2021
- 2021-01-21 US US17/154,571 patent/US11798565B2/en active Active
-
2023
- 2023-08-29 US US18/239,619 patent/US20230402042A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000250593A (ja) | 1999-03-03 | 2000-09-14 | Fujitsu Ltd | 話者認識装置及び方法 |
JP2019514237A (ja) | 2016-02-22 | 2019-05-30 | ソノズ インコーポレイテッド | メディア再生システムの音声制御 |
Also Published As
Publication number | Publication date |
---|---|
EP4246508A2 (en) | 2023-09-20 |
AU2017444907A1 (en) | 2020-06-11 |
US20200395021A1 (en) | 2020-12-17 |
US20230402042A1 (en) | 2023-12-14 |
KR102451348B1 (ko) | 2022-10-06 |
AR113680A1 (es) | 2020-05-27 |
CN111527541A (zh) | 2020-08-11 |
WO2019132896A1 (en) | 2019-07-04 |
US20210233542A1 (en) | 2021-07-29 |
EP3732675A1 (en) | 2020-11-04 |
US11798565B2 (en) | 2023-10-24 |
US10937431B2 (en) | 2021-03-02 |
JP2021516356A (ja) | 2021-07-01 |
EP3732675B1 (en) | 2023-05-03 |
AU2017444907B2 (en) | 2023-08-17 |
KR20200101934A (ko) | 2020-08-28 |
EP4246508A3 (en) | 2023-11-15 |
CA3083453A1 (en) | 2019-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11934372B2 (en) | Systems and methods for updating a knowledge graph through user input | |
JP7288938B2 (ja) | 第2のユーザの視聴アクティビティに基づいて第2のユーザのための再生リストに含めるための第1のユーザのメディアアセットに対する推奨のための方法およびシステム | |
JP7127131B2 (ja) | 音声データおよびメディア消費データに基づいてユーザを識別するためのシステムおよび方法 | |
JP2023105206A (ja) | 会話におけるコンテキスト切替を決定するためのシステムおよび方法 | |
US20240107265A1 (en) | Systems and methods for intelligent audio output | |
US10893327B2 (en) | Methods and systems for recommending media assets based on the geographic location at which the media assets are frequently consumed | |
US20180367857A1 (en) | Systems and methods for ranking content sources based on a number of media assets identified to be interesting to a user | |
US11540006B2 (en) | System and method for classifying recorded content for deletion | |
US20190034525A1 (en) | Methods and systems for replying to queries based on indexed conversations and context | |
US20190034524A1 (en) | Methods and systems for playing back indexed conversations based on the presence of other people | |
US12149778B2 (en) | System and method for classifying recorded content for deletion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201222 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220810 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220817 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7127131 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |