[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2010244523A - 感情データを伴うタグを追加および処理するための方法および装置 - Google Patents

感情データを伴うタグを追加および処理するための方法および装置 Download PDF

Info

Publication number
JP2010244523A
JP2010244523A JP2010035591A JP2010035591A JP2010244523A JP 2010244523 A JP2010244523 A JP 2010244523A JP 2010035591 A JP2010035591 A JP 2010035591A JP 2010035591 A JP2010035591 A JP 2010035591A JP 2010244523 A JP2010244523 A JP 2010244523A
Authority
JP
Japan
Prior art keywords
emotion data
user
content
emotion
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010035591A
Other languages
English (en)
Inventor
fang rui Shu
シュウ・ファン・ルイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2010244523A publication Critical patent/JP2010244523A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising

Landscapes

  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】感情データを伴うタグを追加および処理するための方法および装置を提供する。
【解決手段】感情データを伴うタグを追加する方法は、コンテンツへのアクセス時に、ユーザの感情を反映する測定可能な生理学的パラメータに従って取得される感情データを受信するステップと、感情データを伴うタグを感情データに基づいてコンテンツに追加するステップとを、含む。感情データを伴うタグを処理する方法は、感情データを伴うタグから感情データを抽出するステップであって、このタグは1つのコンテンツに対応する、抽出ステップと、サービスを提供するために感情データを使用するステップとを、含む。本発明の方法および装置を使用することによって、感情データを伴うタグを、便利に、即時に、および効率的に、コンテンツに追加することが可能であり、ユーザの体験を向上させることが可能である。
【選択図】図1

Description

本発明はコンピュータの分野に関し、具体的に言えば、感情データを伴うタグを追加および処理するための方法および装置に関する。
インターネット技術が発達を続けるにつれて、写真、テキスト、ビデオ、オーディオなどの、様々なコンテンツへの人々のアクセスが増加し、アクセス先となる所望なコンテンツをどのようにして即時かつ正確に検索するかが、ますます人々の関心事になっている。
ある種のコンテンツを検索する機能は、自動コンテンツ分析によって実行可能である。しかしながら自動コンテンツ分析は、低水準機能と高水準概念との間に意味的ギャップが存在するため、コンテンツの十分なメタデータを生成するのには適していない。したがって、現在、比較的普及している技術は、コンテンツに関する意味タグを追加することである。この技術を使用することによって、ユーザは、より正確な方法でコンテンツを記述するタグを、事前対応的に(proactively)生成することができる。
2001年10月付けの、R.W.Picard、E.Vyzas、およびJ.Healeyによる論文、「Toward Machine Emotional Intelligence:Analysis of Affective Physiological State」、IEEE Trans.On Pattern Analysis and Machine Intelligence、Vol.23、No.10、1175〜1191ページ R.O.Duda、P.E.Hart、およびD.G.Storkによる、Pattern Classification(第2版)、第10章、517〜599ページ、ISBN:0−471−05669−3
しかしながら、現在のところ、様々なWeb 2.0サービスによってサポートされるすべてのタグは、テキスト特徴のキーワードを含むテキスト・タグのみであるが、こうしたテキスト・タグは、時折、特殊なコンテンツを適切に表現することができない場合がある。たとえば、ある雪山写真のテキスト・タグは、ヒマラヤ、旅行、山、雪、などのテキスト特徴のキーワードを含むが、これではユーザの感情を表現すること、および初めてヒマラヤを見たユーザの感情を表すことはできない。
上記の問題に鑑み、本発明は、感情データを伴うタグを追加および処理するための方法および装置を提供する。
本発明の第1の態様によれば、コンテンツへのアクセス時にユーザによって生成された感情データを受信するステップであって、この感情データは、ユーザの感情を反映する測定可能な生理学的パラメータに従って取得される、受信するステップと、感情データを伴うタグを感情データに基づいてコンテンツに追加するステップとを含む、感情データを伴うタグを追加するための方法が提供される。
本発明の第2の態様によれば、感情データを伴うタグから感情データを抽出するステップであって、このタグは1つのコンテンツに対応し、感情データは、ユーザの感情を反映する測定可能な生理学的パラメータに従って取得される、抽出するステップと、サービスを提供するために感情データを使用するステップとを含む、感情データを伴うタグを処理するための方法が提供される。
本発明の第3の態様によれば、コンテンツへのアクセス時にユーザによって生成された感情データを受信するための受信手段であって、この感情データは、ユーザの感情を反映する測定可能な生理学的パラメータに従って取得される、受信手段と、感情データを伴うタグを感情データに基づいてコンテンツに追加するための追加手段とを備える、感情データを伴うタグを追加するための装置が提供される。
本発明の第4の態様によれば、感情データを伴うタグから感情データを抽出するための抽出手段であって、このタグは1つのコンテンツに対応し、感情データは、ユーザの感情を反映する測定可能な生理学的パラメータに従って取得される、抽出手段と、サービスを提供するために感情データを使用するためのサービス提供手段とを備える、感情データを伴うタグを処理するための装置が提供される。
本発明の第5の態様によれば、感情データを伴うタグを処理するためのサーバを備え、このサーバは、コンテンツへのアクセス時にユーザによって生成された感情データを受信するための受信手段と、感情データを伴うタグを感情データに基づいてコンテンツに追加するための追加手段と、感情データを伴うタグから感情データを抽出するための抽出手段と、感情データを使用することによってサービスを提供するためのサービス提供手段とを備える、感情データを伴うタグを処理するためのシステムが提供される。
本発明の方法および装置を使用することによって、感情データを伴うタグを便利に、即時に、および効率的に、コンテンツに追加することが可能であり、感情データを伴うタグを処理することによってユーザにサービスを提供することが可能であり、それによって、コンテンツへのアクセスにおけるユーザの関心を高め、ユーザの体験を向上させる。
本発明の他の特徴および利点は、本発明の原理を示した好ましい諸実施形態の以下の説明によって、および添付の図面を参照することにより、明らかとなろう。
本発明の他の目的および効果は、添付の図面を参照しながら以下の説明を読むことによって、本発明がより完全に理解されるため、より明らかに、理解しやすくなるであろう。
本発明の一実施形態に従った、感情データを伴うタグを追加する方法を示す流れ図である。 本発明の一実施形態に従った、感情データを伴うタグを処理する方法を示す流れ図である。 本発明の他の実施形態に従った、感情データを伴うタグを処理する方法を示す流れ図である。 本発明の他の実施形態に従った、感情データを伴うタグを処理する方法を示す流れ図である。 本発明のさらに他の実施形態に従った、感情データを伴うタグを処理する方法を示す流れ図である。 本発明の一実施形態に従った、感情データを伴うタグを追加するための装置を示すブロック図である。 本発明の一実施形態に従った、感情データを伴うタグを処理するための装置を示すブロック図である。 本発明を実施するように適合されたコンピュータ・システムを示す構造的ブロック図である。
上記のすべての図面において、同一の記号は、同一、同様、または対応する特徴または機能を示す。
次に本発明について、添付の図面を参照しながらより詳細に説明および記述する。本発明の図面および実施形態は、本発明の保護範囲を制限するためではなく、例示的な説明のためにのみ使用されることを理解されたい。
明確にするために、本発明で使用される技術用語について説明する。
1.感情データ
ユーザがあるコンテンツにアクセスする場合、そのコンテンツに応じて対応する感情を発生させる可能性がある。感情データは、ユーザの感情を反映する1つまたは複数の測定可能な生理学的パラメータに従って取得される。
感情データは、生理学的パラメータとも呼ばれる、未処理の生理学的信号およびアクション信号(たとえば、心拍数、呼吸数、血圧、脳波図パラメータ、体温、皮膚電気反応(cutaneogalvanic reaction))を含む。様々な生理学的パラメータが、「好き」、「嫌い」、「怖い」、および「うれしい」などの、様々な感情カテゴリに関連付けられる。ユーザが様々なコンテンツにアクセスする場合、たとえば危険な事故または美しい風景イメージのビデオを見るか、または甲高い悲鳴を聞いた場合など、ユーザは様々な感情を発生させる可能性があるため、結果としてユーザの生理学的パラメータは適宜変更される。感情データは、これらの生理学的パラメータを使用することによってアルゴリズムを抽出する、ある種の関数によって計算された値を、さらに含むことが可能であり、このアルゴリズム抽出関数は、たとえば、連続する2分間の心拍数に関する差異を計算することに関するもの、すなわち一次導関数とすることができる。
ユーザの感情データは、要素が、心拍数、呼吸数、血圧、脳波図パラメータ、体温、皮膚電気反応を含む、生理学的パラメータのうちの1つまたは複数とすることができる、ベクトルとすることができる。複数のユーザの感情データは行列を構成することが可能であり、そのそれぞれの行または列がユーザの感情データに対応する。
2.共通感情データ
共通感情データとは、異なるユーザが同じコンテンツにアクセスした場合に生成するそれぞれの感情データの統計を計算または実施することによって取得された、総合的な結果である。共通感情データは、異なるユーザが同じコンテンツにアクセスした場合に生成する「平均的な」感情を反映することが可能であり、所定のストラテジに従って感情データを使用することによって取得可能である。
3.コンテンツ
コンテンツは、写真、テキスト、ビデオ、またはオーディオのすべてまたは一部とすることができる。
本発明は、感情タグを伴うタグを追加および処理するための方法を含む。図1は、感情タグを伴うタグを追加する方法を示し、図2から図5は、感情タグを伴うタグを処理するための方法のいくつかの例を示す。
本発明の一実施形態では、第1に基準感情データを獲得し、その後、基準感情データに基づいて、本発明の感情データを伴うタグを追加するための方法を実行することができる。
基準感情データは、獲得した生理学的パラメータが標準的か否かを判別するための感情データとすることができる。たとえば、生理学的パラメータが、タグに追加される感情データとしての機能を果たすかどうかを判別するために、ユーザの基準感情データと獲得されたユーザの生理学的パラメータとの差異を計算することによって、生理学的パラメータが正常範囲内にあるかどうかが判断される。
各感情に対応する値の範囲が事前に決定された場合、基準感情データを使用することによって、感情データに対応する感情を決定することができる。たとえば、基準感情データと1つの感情データとの差異が、「うれしい」という感情の所定の値の範囲内にある場合、その感情データに対応する感情は「うれしい」であり、基準感情データと1つの感情データとの差異が、「怖い」という感情の所定の値の範囲内にある場合、その感情データに対応する感情は「怖い」である。したがって、ユーザの基準感情データは、1つの感情データを生成した時点でユーザがどのような感情にあるかを決定するために使用される。
具体的に言えば、この実施形態では、第1にユーザの基準感情データを受信することが可能であり、基準感情データは平穏な状態でのユーザの生理学的パラメータに基づいて決定することが可能であって、基準感情データは、登録時に指定されたコンテンツに関してユーザによって生成された感情データ、またはユーザが様々な期間に一連の通常のコンテンツにアクセスした場合に生成される感情データの平均、または他のより複雑なアルゴリズム方法を使用して取得された結果、とすることが可能である。
次に、この実施形態では、現在受信されているユーザの感情データが正常範囲内にあるかどうかを、ユーザの基準感情データに基づいて判断することが可能であり、正常範囲内にある場合、感情データをタグに追加することが可能であり、正常範囲内にない場合、感情データはタグに追加されない。たとえば、現在獲得されているユーザの感情データとユーザの基準感情データとの差異が計算可能であり、その後、この差異から平均が計算可能であって、その後、この平均が正常範囲内にあるかどうかが判断可能であるか、または別の方法として、基準値に対する差異の割合が計算可能であり、その後、この割合から平均が計算可能であって、その後、この平均が正常範囲内にあるかどうかが判断可能である。正常範囲は、医学的な常識に従って決定可能であり、たとえば心拍数の正常範囲は、ゼロから医学的な最大値までの間とすることが可能であり、負の値や高すぎる値であるはずがない。
加えて、この実施形態では、各感情に対応する値の範囲が事前に設定された場合、現在受信されている感情データを生成するユーザが、現在どのような感情にあるかに関しての判断も、ユーザの基準感情データに基づいて実行可能である。
ユーザの基準感情データを感情データとしてタグに追加することが可能であり、それによって、提供されるサービスに対してある種の感情データとして処理されることに留意されたい。
図1は、本発明の一実施形態に従った、感情データを伴うタグを追加する方法を示す流れ図である。この方法によれば、コンテンツへのアクセス時にユーザによって生成された感情データが第1に受信され、次に、感情データを伴うタグがコンテンツに追加される。コンテンツに対応する共通感情データは、感情データを使用することにより、所定のストラテジに従って計算可能である。共通感情データはある種の感情データとみなすことができるため、結果として、感情データのような共通感情データがタグとしてコンテンツに追加される。さらに共通感情データは、共通感情データの使用が必要な場合にアクセスしやすいように、メモリに格納することができる。
ステップ101は、ユーザによってアクセスされているコンテンツを決定するステップである。
ユーザは、あるコンテンツへのアクセスを望む場合、一般に、感情データを伴うタグを追加するための本発明の装置またはサーバにアクセス要求を送信する。ユーザがアクセス権を有するものと装置が判断した場合、ユーザはコンテンツへのアクセスを許可される。したがって、様々な最先端技術を使用して、どのユーザがどのコンテンツにアクセスしているかが決定できる。
この実施形態では、ユーザが雪山の写真にリンクされたURLをクリックするという前提で、感情データを伴うタグを追加するための本発明の装置は、この時点で、ユーザがアクセスを望む対象が雪山の写真であることを決定することができる。この装置が、ユーザがアクセス権を有するものと判断した場合、装置自体の表示画面上でユーザがこの写真をブラウズすることを許可する。この時点で、感情データを伴うタグを追加するための本発明の装置は、ユーザが1つのコンテンツにアクセスしていることを特定できるだけでなく、ユーザがこのコンテンツにアクセスするという1つの記録を格納することもできる。
ステップ102は、コンテンツへのアクセス時にユーザによって生成された感情データを受信するステップである。
このステップでは、第1に、コンテンツにアクセスしているユーザによって生成された生理学的パラメータがクライアント(すなわちユーザ端末)側で感知され、その後、クライアントは感知された生理学的パラメータに従って感情データを取得し、取得された感情データは感情データを伴うタグを追加するための本発明の装置に提供される。別の方法として、第1に、コンテンツにアクセスしているユーザによって生成された生理学的パラメータがクライアント(すなわちユーザ端末)側で感知され、その後クライアントは、感情データを伴うタグを追加するための本発明の装置に、感知された生理学的パラメータを直接提供し、その後装置は、パラメータの受信後、生理学的パラメータに従って感情データを取得する。
一実施形態では、ステップ102が実行される前に、コンテンツへのユーザのアクセス時に生理学的パラメータを獲得し、この生理学的パラメータに基づいて、コンテンツへのユーザのアクセス時に生成された感情データを取得する手順を、実行可能であることに留意されたい。この手順では、生理学的パラメータ・センサまたは生物学的信号検出器をクライアント側に配置構成すること、たとえばこれをユーザ端末の近くに配置することが可能であるか、または、ステップ102でコンテンツへのユーザのアクセス時に生成された生理学的パラメータを感知するように、ユーザがセンサを身に付けることが可能である。他の実施形態では、事前に獲得されたユーザの基準感情データと感知されたユーザの生理学的パラメータとの差異が計算可能であり、その後、生理学的パラメータが正常範囲内にあるかどうかが判断され、正常範囲内にあるそれらの生理学的パラメータが感情データとみなされる。
この実施形態では、ステップ102の特定の手順は以下の通りである。
3人のユーザが雪山の写真にアクセスしており、これら3人のユーザがそれぞれ、生理学的パラメータを感知可能であり、ユーザの心拍数および血圧などの生理学的パラメータの信号を感知するために使用される、センサを身に付けているものと想定する。センサによって感知された信号はクライアント側で電気信号に変換可能であり、ユーザの感情データは電気信号の増幅およびA/D変換によって取得可能であり、その後、この感情データは、感情データを伴うタグを追加するための本発明の装置に提供される。代替の解決策では、クライアントは、センサによって感知された信号を、感情データを伴うタグを追加するための本発明の装置に直接提供可能であり、当該装置は、ユーザの感情データを取得するように、感知された信号を電気信号に変換し、電気信号を増幅して、A/D変換を実行する。
ステップ102から取得された第1のユーザの感情データが(70、110、85)であるものと想定し、それらは第1のユーザの心拍数が70拍/分、血圧が110/85ミリメートル水銀柱(mmHg)であることを示し、ここで収縮期圧は110 mmHg、拡張期圧は85mmHgであり、第2のユーザの感情データが(75、120、90)であるものと想定し、それらは第2のユーザの心拍数が75拍/分、血圧が120/90 mmHgであることを示し、第3のユーザの感情データが(80、100、70)であるものと想定し、それらは第3のユーザの心拍数が80拍/分、血圧が100/70 mmHgであることを示す。
一例では、感情カテゴリは、生理学的パラメータに従った統計パターン認識によって決定可能である。具体的に言えば、パターンは、統計的方法によるトレーニング・サンプルに従って、各感情についてトレーニングされ、その後、十分にトレーニングされたパターンを使用して、生理学的パラメータが分類される。詳細については、2001年10月付けの、R.W.Picard、E.Vyzas、およびJ.Healeyによる論文、「Toward Machine Emotional Intelligence:Analysis of Affective Physiological State」、IEEE Trans.On Pattern Analysis and Machine Intelligence、Vol.23、No.10、1175〜1191ページを参照されたい。したがって、統計パターン認識方法によって感情データを分類するための十分にトレーニングされたパターンを使用して、ユーザが、たとえば「うれしい」、「驚き」、または「怖い」などのどの感情カテゴリにあるかを、決定することができる。
他の例では、各感情カテゴリに対応する値の範囲が事前に決定されている場合、基準感情パラメータを使用して、生理学的パラメータに対応する感情カテゴリを決定することができる。たとえば、基準感情データと生理学的パラメータとの差異が、「うれしい」という感情の値の範囲内にある場合、生理学的パラメータに対応する感情は「うれしい」であり、すなわち、ユーザがその生理学的パラメータを生成している場合は、まさに「うれしい」という感情にあるものと決定される。
この実施形態では、第1のユーザの感情が「うれしい」であり、第2のユーザの感情が「驚き」、第3のユーザの感情が「怖い」であると決定されたものと想定される。
ステップ103は、感情データを伴うタグをコンテンツに追加するステップである。
最も簡単なケースでは、感情データを伴うタグを追加するための本発明の装置は、感情データ内に含められた要素を単にタグとして直接使用するのみとすることができる。別の方法として、この装置は、他の追加情報と感情データとを一緒にタグとして使用することが可能であり、ここで他の追加情報とは、たとえばユーザのIPアドレス、識別子、およびアクセス・タイムスタンプである。
ステップ104は、抽出された感情データに基づき、所定のストラテジに従って共通感情データを計算するステップである。
感情データを伴うタグを追加するための本発明の装置は、様々な所定のストラテジに従って共通感情データを計算することができる。たとえば、複数のユーザがコンテンツにアクセスする際に生成された感情データをタグが担持する場合、異なるユーザを平均化することによって共通感情データが計算されるか、または、複数ユーザの感情データからのガウス分布の平均値を計算し、この平均が共通感情データとして使用されるか、または、複数ユーザからの感情データを所定の重みを使用して重み付けし、重み付けされた感情データの合計が共通感情データとみなされる。共通感情データは、他の統計パターン認識を使用して計算することができる。感情データと同様に、計算によって取得される共通感情データはベクトルとすることができる。
この実施形態では、たとえば複数ユーザの感情データの平均(75、110、82)を、共通感情データとみなすことができる。
ステップ105では、感情データを伴うタグを追加するための本発明の装置は、共通感情データを処理することによってユーザにサービスを提供するために、共通感情データを伴うタグをコンテンツに追加する。
他の実施形態では、共通感情データを、磁気ディスク、フレキシブル・ディスク、コンパクト・ディスク(CD)、および磁気テープ、ならびに、当業者が想像する他の媒体などの、メモリまたはアクセスされるように適合された任意の媒体に格納することができる。
その後、手順は終了する。
ステップ104および105は選択的であることを理解されたい。共通感情データを計算しないケースでは、本発明に従って感情データを伴うタグを追加するための方法は、確実に達成可能である。ステップ104および105がない場合、共通感情データは、感情データを伴うタグの後続の処理で計算可能である。ステップ104および105がある場合、共通感情データはタグから直接抽出されるか、または、その後の感情データを伴うタグの処理時にメモリから読み取られる。
本発明の一実施形態では、ユーザがビデオを見る場合、様々な時点でのユーザの生理学的パラメータを獲得することによって、ユーザがビデオを見ている時の感情データを取得することができる。この時点で、ユーザがビデオを見ている際に取得された感情データは、複数の感情データのセットとすることが可能であり、セット内の各感情データは各時点でのユーザの感情に対応し、ここで時点間の時間間隔は事前設定可能であり、たとえばこの時間間隔は1分である。コンテンツにアクセスしているユーザによって生成された感情データを受信するステップでは、受信される対象を、感情データ・セット内の各感情データ、および各感情データに対応する時点とすることが可能である。感情データを伴うタグをコンテンツに追加するステップでは、各感情データと受信した各感情データに対応する時点との両方を、タグに含めることが可能であり、その後こうしたタグがコンテンツに追加される。したがって、その後こうしたタグが処理される場合、対応する処理をより便利かつ効率的に実行するために、ある時間間隔の様々な時点でユーザの感情データを抽出することができる。
図2から図5は、それぞれ、感情データを伴うタグの処理方法の例を示す。すべての例が、感情データを伴うタグを処理するための本発明の装置によって実現可能である。処理される感情データを伴うタグは、コンテンツへのユーザのアクセス時に生成された感情データを受信すること、および受信された感情データをタグとしてコンテンツに追加することによって、取得されることに留意されたい。加えて、処理される感情データを伴うタグは、当業者に公に知られた他の技術によっても取得可能である。
図2に示されたような例では、感情データを伴うタグを処理するための本発明の装置は、第1に、コンテンツへのアクセス時に1ユーザと同様の感情を生成する他のユーザに関する1ユーザの照会要求に応答し、コンテンツにアクセスしている1ユーザによって生成された感情データを獲得し、コンテンツのタグから他のユーザの感情データを抽出し、その後、1ユーザの感情データおよび他のユーザの感情データに従って、感情が1ユーザと同様の他のユーザを決定し、その後、決定された他のユーザの情報を1ユーザに提供する。
図3に示されたような例では、感情データを伴うタグを処理するための本発明の装置は、第1に、現在アクセスされているコンテンツに関して、ユーザによって生成された感情データを獲得し、一致するコンテンツのタグから感情データを抽出し、その後、ユーザの現在の感情データに従って一致するコンテンツを検索して、一致するコンテンツのタグから感情データを抽出し、ここで一致するコンテンツのタグはユーザの現在の感情データに一致する感情データを有し、その後、一致するコンテンツをユーザに提供する。
図4に示されたような例では、感情データを伴うタグを処理するための本発明の装置は、第1に、以前に1ユーザによってアクセスされたコンテンツのタグから感情データを抽出し、一致するコンテンツのタグから感情データを抽出し、1ユーザによって以前にアクセスされたコンテンツのタグから抽出された感情データの統計を実施することによって、1ユーザによって最も頻繁に生成された感情を決定し、1ユーザによって最も頻繁に生成された感情に対応する感情データと、一致するコンテンツのタグから抽出された感情データとに従って、一致するコンテンツを検索し、この一致するコンテンツを1ユーザに提供する。
図5に示されたような例では、感情データを伴うタグを処理するための本発明の装置は、第1に、1ユーザと同じコンテンツにアクセスしている他のユーザの感情を体験するための1ユーザの要求を受信し、次に、この要求に応答して同じコンテンツのタグから他のユーザの感情データを抽出し、その後、抽出された他のユーザの感情データに基づいて1ユーザを始動させる。
図2から図5に示されたような実施形態について、以下で詳細に説明する。
図2は、本発明の一実施形態に従った、感情データを伴うタグを処理する方法を示す流れ図である。この実施形態では、ユーザ1が雪山の写真をブラウズしているというシナリオが想定される。雪山の美しい景色を見た後、ユーザ1は雪山へ旅行することを非常に期待し、仲間として同じ興味を持つ人物を見つけることを期待する。したがって、ユーザ1は、どのユーザが、この写真にアクセスした際に同様の感情を持つかを調査すること、およびそれによって、さらにその人物またはそれらの人物と通信することを希望する可能性がある。
ステップ201は、同じコンテンツにアクセスした際に、どのユーザが自分と同様の感情を持つかについて調査するための、ユーザの要求を受信することに関する。
ステップ202は、コンテンツへのアクセス時にユーザによって生成された感情データを獲得することに関する。
図1に示されたような実施形態におけるステップ102と同様に、ステップ202では、感情データを伴うタグを処理するための本発明の装置は、第1に、コンテンツへのアクセス時にユーザによって生成された生理学的パラメータを感知し、その後、感知された生理学的パラメータを使用することによって、ユーザの感情を取得する。
この実施形態では、雪山を見た時のユーザ1の感情は「驚き」であり、感知によって取得されたユーザ1の感情データは(75、120、90)であると想定され、ここでその中の要素は、それぞれ、ユーザの心拍数、収縮期血圧、および拡張期血圧などの、生理学的パラメータに対応する。
ステップ203は、コンテンツのタグを読み取り、タグから他のユーザの感情データを抽出するステップである。
この実施形態では、3人のユーザ(ユーザ2、ユーザ3、およびユーザ4)が以前に雪山の写真にアクセスしており、ユーザ2の感情データは(70、110、85)であり、ユーザ3の感情データは(75、120、90)であり、ユーザ4の感情データは(80、100、70)であって、これらすべての感情データが、すでに写真に格納されていることが想定される。この場合、感情データを伴うタグを処理するための本発明の装置は、タグから3人のユーザの感情データをそれぞれ抽出することができる。
ステップ204は、ユーザの感情データと他のユーザの感情データとの間の距離を計算することに関する。
感情データ間の距離は、たとえばユークリッド距離、または当業者に公に知られた他の方法によって、計算することができる。
感情データを以下の式、Xj×n=<xj1,xj2,...,xjn>で表すために、n次元ベクトルが使用されるという前提では、上式で、nは感知された生理学的パラメータの数を表し、jはj番目のユーザを表し、i番目のユーザとj番目のユーザとの間の距離、すなわちベクトルXとXとの間の距離は、以下の通りである。
Figure 2010244523
これは、i番目のユーザとj番目のユーザの感情データ間の距離として使用することができる。
この実施形態では、感情データを伴うタグを処理するための本発明の装置は、上記のアルゴリズム方法によって、ユーザ1の感情データ(75、120、90)と、ユーザ2、ユーザ3、およびユーザ4の感情データ(70、110、85)、(75、120、90)、(80、100、70)との間の距離を計算することができる。計算された距離はd12=12.25、d13=0、およびd14=28.73であると想定される。
ステップ205は、距離の順に他のユーザをソートするステップである。
計算された距離は、他のユーザを適宜ソートするために、昇順または降順でソートすることができる。この実施形態では、d13<d12<d14であるため、3人の他のユーザは、ユーザ3、ユーザ2、およびユーザ4のように、距離の昇順で配置構成される。
ステップ206は、ユーザと同様の感情を有するユーザを決定するステップである。
感情データ間の距離は、ユーザの感情間の類似度を表す。距離が短いほど類似度は高く、距離が長いほど類似度は低い。この実施形態では、ユーザ3とユーザ1の感情データ間の距離が最短であるため、ユーザ1と同様の感情を有するユーザはユーザ3であることが決定される。
ステップ204からステップ206は、ユーザの感情データおよび他のユーザの感情データに従って、ユーザと同様の感情を有する他のユーザを決定する手順の、特定の実施様式を示す。この手順は、当分野で知られた他の手段を使用して実施可能であることを理解されよう。
ステップ207は、決定されたユーザ情報をユーザに提供するステップである。
ユーザのIPアドレス、識別子、およびアクセス・タイムスタンプなどの、ユーザ情報は、ある種のメモリに格納するか、または本発明の装置がアクセス可能な任意の他のストレージ媒体に格納することができる。この実施形態では、感情データを伴うタグを処理するための本発明の装置は、ユーザ3の様々なユーザ情報をユーザ1に提供することが可能であり、その結果ユーザ1は、友人を作るなどの活動のために、チャット情報または電子メールをユーザ3に送信することができる。
その後、手順は終了する。
図3は、本発明の他の実施形態に従った、感情データを伴うタグを処理する方法を示す流れ図である。図3に示されたような例では、感情データを伴うタグを処理するための本発明の装置は、ユーザの現在の感情データを獲得し、ユーザの現在の感情データに一致するタグ内の感情データのコンテンツを検索し、シークされたコンテンツをユーザに提供する。
この実施形態では、ユーザ1が雪山の写真をブラウズしているという前提で、ユーザは過去の野外での冒険体験から心理的に雪山が怖いため、雪の写真を見ると「怖い」という感情を生成する。本発明の方法によって、ユーザの体験を向上させるように、ユーザの現在の感情に反したコンテンツをユーザに提供することができる。
ステップ301は、ユーザによってアクセスされているコンテンツを決定するステップである。
ステップ301は、図1のステップ101に類似している。ユーザがあるコンテンツへのアクセスを希望する場合、通常はアクセス要求を送信し、このユーザがアクセス権を有するものと決定されると、コンテンツにアクセスすることができる。したがって、どのユーザが何のコンテンツにアクセスしているかを決定することができる。
ステップ301では、ユーザ(たとえばユーザ1)によってアクセスされているコンテンツが、たとえば雪山の写真であることが決定される。
ステップ302は、コンテンツへのアクセス時にユーザによって生成された感情データを獲得するステップである。
図1に示された実施形態におけるステップ102と同様に、ステップ302では、コンテンツへのアクセス時にユーザによって生成された生理学的パラメータが第1に感知され、その後、感知された生理学的パラメータを使用することによってユーザの感情データが取得される。
この実施形態では、雪山の写真を見ている際のユーザ1の感情は「怖い」であり、感知によって取得されたユーザ1の感情データは(80、100、70)であるものと仮定され、ここでその中の要素はそれぞれ、ユーザの心拍数、収縮期血圧、および拡張期血圧などの、生理学的パラメータに対応する。
ステップ303は、セット内の1つのコンテンツのタグを読み取り、タグから共通感情データを抽出するステップである。
この実施形態では、画像、ビデオ、文章、および音声などがセットCを構成し、ここで、セットCはn個のコンテンツを含み、セットCのi番目のコンテンツはCであると仮定される。
この実施形態では、ステップ303からステップ305までに、セットC内の各コンテンツのタグの感情データとユーザ1の感情データとが比較され、それらの間の距離が決定される。こうした判断は、セットC内のすべてのコンテンツが判断されるまで、N回実行される。
図1の実施形態によれば、共通感情データは事前に計算され、タグとしてコンテンツに追加されるか、または感情データを伴うタグの追加中にメモリ内に格納される。別の方法として、共通感情データはリアルタイムで計算され、タグとしてコンテンツに追加されるか、または感情タグを伴うタグの処理中にタグ内の感情データに従ってメモリに格納される。
この実施形態では、共通感情データが事前に計算され、タグとしてコンテンツに追加されるか、または感情データを伴うタグの追加中にメモリ内に格納されることが仮定される。したがって、ステップ303では、セットC内の各コンテンツのタグが読み取られ、共通感情データがタグから抽出される。セットCの第1のコンテンツCから抽出された共通感情データは(75、110、82)であると仮定される。
他の実施形態では、ステップ303で、セットの1つのコンテンツのタグが読み取られ、タグから感情データが抽出され、所定のストラテジに従って、抽出された感情データを使用することにより、セットC内の第1のコンテンツCに対応する共通感情データが取得される。
ステップ304は、ユーザの現在の感情データと抽出された共通感情データとの間の距離を計算するステップである。
このステップで計算されるものは、ユーザ1の現在の感情データ(75、120、90)と、コンテンツCのタグから抽出された共通感情データ(75、110、82)との間の距離dであり、ここでiは、セットC内のi番目のコンテンツを示す。
この距離は、たとえばユークリッド距離を使用することによって、または当業者に公に知られた他の方法によって、計算することができる。
前述のようなステップ303〜304は、本発明の特定の例に過ぎない。他の実施形態では、ステップ303で、感情データのうちの1つをコンテンツのタグから任意に抽出することが可能であり、必ずしも共通感情データに限定されず、この時点で、ステップ304で計算されるものは、ユーザの現在の感情データとコンテンツのタグから任意に抽出された感情データとの間の距離である。
ステップ305は、セット内にまだ判断されていないコンテンツがあるかどうかを判別するステップである。
第1に、現在距離を計算しているコンテンツがセット内のどのコンテンツ上にあるかが判断され、そのコンテンツがN番目のコンテンツである、すなわちi=Nである場合、手順はステップ306に進み、そうでない場合、ステップ303に戻り、セットC内の他のコンテンツのタグ内の感情データとユーザ1の感情データとの間の距離の計算を続行する。
ステップ306は、セット内のコンテンツを距離の順にソートするステップである。
ステップ303からステップ305に従い、セットC内のコンテンツのタグ内の感情データとユーザ1の感情データとの間でN個の距離、すなわち、d、d、...、dが計算される。計算される距離は昇順または降順にソートすることが可能であり、それによってセット内のコンテンツを適宜ソートすることができる。
ステップ307は、ユーザまでの最大距離に対応するコンテンツを提供するステップである。
最大距離がdであり、最大距離dが対応するコンテンツがCであると仮定される。コンテンツCはたとえばうれしい結婚式の一部であり、これが「うれしい」ユーザの心理的反応につながる。したがってユーザ1は、「怖い」感情から「うれしい」感情へ即時に変換し、それによってユーザの気分を適時に調節し、ユーザの体験を向上させることが可能である。
その後、手順は終了する。
好ましくは、図3に示されたような実施形態は、ユーザの気分を適時に安定させ、ユーザの体験を向上させるように、ユーザが現在、「怖い」および「嫌い」などの否定的な感情にある状況に適用される。
他の実施形態では、ステップ307において、最小距離に対応するコンテンツをユーザ1に提供できることに留意されたい。この時点で、ユーザ1に提供されるものは、災害に関する動画または他の同様なコンテンツとすることができるため、結果としてユーザは「怖い」という感情の体験が続行される。距離に応じたユーザへのコンテンツ提供は、クライアント自身がリアルタイムで定義するか、または固定的に事前設定することができる。
最大距離に対応するコンテンツのタグ内、および最小距離に対応するコンテンツのタグ内の、どちらの感情データも、ユーザの現在の感情データに一致する感情データとして使用可能である。したがって、一実施形態では、最大距離に対応するコンテンツを一致コンテンツとすることが可能であるのに対して、他の実施形態では、最小距離に対応するコンテンツを一致コンテンツとすることが可能である。
図4は、本発明の他の実施形態に従った、感情データを伴うタグを処理する方法を示す流れ図である。この実施形態では、ユーザ1は、雪山の美しい景色を示す写真、チャップリンのビデオ・クリップ、ビーチでの休暇に関するブログ、およびスリラー映画のビデオ・クリップを含む、4つのコンテンツにアクセスすると仮定される。本発明の方法を使用することによって、感情データを伴うタグを処理するための本発明の装置は、ユーザ1のアクセスの記録に従って、ユーザに一致コンテンツを提供することが可能であり、一致コンテンツの感情データは、ユーザ1の最も頻繁に生成された感情に対応する感情データに一致する。
ステップ401は、ユーザによって以前にアクセスされたコンテンツを決定するステップである。
ユーザは多くのコンテンツに事前にアクセスする可能性があり、たとえばユーザは、インターネットを通じて写真をブラウズする、ビデオ・クリップを見る、曲を聴く、またはブログを読む可能性がある。ユーザがこれらのコンテンツにアクセスする場合、ユーザのIPアドレス、ユーザによってアクセスされるコンテンツのURL、アクセスのタイムスタンプ、およびアクセス持続時間などの関連情報を、ウェブログに記録することができる。ユーザによって事前にアクセスされたコンテンツは、記録された情報を読み取ることによって決定可能である。加えて、ユーザによって事前にアクセスされたコンテンツは、当業者に公に知られた任意の他の技術を使用することによっても決定可能である。
好ましくは、ステップ401では、時間間隔を事前設定することが可能であり、その時間間隔中にユーザによってアクセスされたコンテンツを決定することができる。たとえば、最近1時間内にユーザによってアクセスされたコンテンツのみが決定される。この方法では、ユーザの最近の感情に、より好適なコンテンツを提供するために、ユーザの最近の感情状況をより正確に理解することができる。事前設定される時間間隔は、数分、数時間、数日、数週間などとすることが可能であり、ユーザが自ら設定するか、または設計時にシステム内に固定的に設定することが可能である。
ステップ402は、コンテンツのタグを読み取り、タグからユーザの感情データを抽出するステップである。
本発明に従った、感情データを伴うタグを追加するための方法によって、感情データを伴うタグを処理するための本発明の装置は、上記コンテンツへのアクセス時にユーザによって生成される感情データと、他の追加情報(たとえば、ユーザのIPアドレス、識別子、およびアクセス・タイムスタンプ)とを、それぞれタグとして、雪山の美しい景色を示す写真、チャップリンのビデオ・クリップ、ビーチでの休暇に関するブログ、およびスリラー映画のビデオ・クリップに、追加することができる。
したがってステップ402では、これらのコンテンツのタグを、そこからユーザの感情データを見つけるため、およびさらに感情データを抽出するために、読み取ることができる。
この例では、雪山の写真のブラウズ時にユーザによって生成された感情データは(70、112、85)であり、チャップリンのビデオ・クリップの視聴時に生成された感情データは(72、111、82)、ビーチでの休暇に関するブログの読み取り時に生成された感情データは(75、110、80)、スリラー映画のビデオ・クリップの視聴時に生成された感情データは(95、120、90)である。これらのすべての感情データは、対応するコンテンツのタグにすでに含まれている。この場合、ステップ402が実行されるごとに、ユーザの感情データをそれらのうちの1つのコンテンツのタグから抽出することができる。
ステップ403は、ユーザが他のコンテンツにもアクセスするかどうかを判断するステップである。
タグからすでに感情データが抽出されたコンテンツの数が、ユーザによって事前にアクセスされたコンテンツの数に達しているかどうか、すなわちこの実施形態では4に達しているかどうかが判断される。達している場合、手順はステップ404に進み、達していない場合、さらに処理するために手順はステップ401に戻ることになる。
ステップ404は、ユーザの感情データの統計を実施し、ユーザの最も頻繁に生成された感情を決定することに関する。
ユーザの最も頻繁に生成された感情は、統計パターン認識のクラスタ化方法によって決定することができる。たとえば前述の決定手順は、k平均クラスタ化方法によって実施可能である。具体的には、R.O.Duda、P.E.Hart、およびD.G.Storkによる、Pattern Classification(第2版)、第10章、517〜599ページ、ISBN:0−471−05669−3を参照されたい。ステップ401〜403から抽出された4つの感情データの分析から、最初の3つのコンテンツ(すなわち、雪山の写真、チャップリンのビデオ・クリップ、およびビーチでの休暇に関するブログ)のタグ内の感情データ(70、112、85)、(72、111、82)、および(75、110、80)は互いにより近く、4番目のコンテンツ(スリラー映画のビデオ・クリップ)のタグ内の感情データ(95、120、90)は、最初の3つのコンテンツのタグ内の感情データとはるかに異なると、結論付けることができる。したがって、最初の3つのコンテンツを第1のタイプとして分類し、4番目のコンテンツを第2のタイプと分類することができる。第1のタイプに含まれるコンテンツの数の方が第2のタイプに含まれるコンテンツの数よりも多いため、第1のタイプに含まれるコンテンツ(すなわち最初の3つのコンテンツ)へのアクセス時にユーザによって生成された感情が、ユーザによって最も頻繁に生成された感情であるものと決定することができる。
ステップ405は、ユーザによって最も頻繁に生成された感情に対応する感情データを取得するステップである。
第1のタイプのコンテンツのいずれか1つのタグ内のユーザの感情データを、ユーザによって最も頻繁に生成された感情に対応する感情データとみなすことができる。平均、すなわちガウス分布の平均値、または第1のタイプのすべてのコンテンツのタグ内のユーザの感情データの重み付け値が計算され、この計算結果が、ユーザによって最も頻繁に生成された感情に対応する感情データとみなされる。
ステップ406は、1つのコンテンツのタグを読み取り、タグから共通感情データを抽出するステップである。
この実施形態では、ステップ406から408で、ユーザの体験を向上させるために、ユーザの最も頻繁に生成された感情に対応するステップ405から取得された感情データと、ある種のコンテンツのタグ内の共通感情データとの間の距離を決定することによって、ユーザの最も頻繁に生成された感情をユーザに生成させる可能性のあるコンテンツが、このユーザに提供される。
ステップ407は、ユーザの最も頻繁に生成された感情に対応する感情データと、共通感情データとの間の距離を計算することに関する。
この距離は、たとえばユークリッド距離、または当業者に公に知られた他の方法によって、計算することができる。
前述のようなステップ406〜407は、本発明の単なる特定の例である。他の実施形態では、ステップ406で、1つの感情データを、共通感情データに必ずしも限定されることなく、コンテンツのタグから任意に抽出可能であり、この時点で、ステップ407で計算されるものは、ユーザの最も頻繁に生成された感情に対応する感情データと、コンテンツのタグから任意に抽出される1つの感情データとの間の距離である。
ステップ408は、計算された距離がしきい値より少ないかどうかを決定するステップである。
しきい値は、システムによって固定的に設定するか、またはユーザによって自ら設定することが可能であり、実際の状況に従って、ユーザによって自ら調整可能である。
ステップ407で計算された距離がしきい値より少ない場合、判断されているコンテンツの平均感情データは、ユーザの最も頻繁に生成された感情に対応する感情データに非常に近く、ここで一致コンテンツが見つかったものと判別され、手順はさらにステップ409に進み、そうでない場合、手順はステップ406に戻って一致コンテンツの検索が続行される。
他の実施形態では、すべてのコンテンツが判断された後に、一致コンテンツが見つからないようなケースが生じる可能性があることに留意されたい。この時点で、適切にしきい値を上げることによって、各コンテンツを再度判断することが可能であり、しきい値の上昇は、システムまたはユーザ自身によって完了可能である。
ステップ409は、一致コンテンツをユーザに提供するステップである。
一致コンテンツは、コンテンツのタグ内の感情データと、ユーザによって最も頻繁に生成された感情に対応する感情データとの間の距離が、しきい値よりも少ないようなコンテンツである。使用のために一致コンテンツを提供することによって、ユーザに自分の最も頻繁に生成された感情を生成させる可能性のあるコンテンツが、迅速かつ適時に提供され、それによってユーザの体験が著しく向上する。
この実施形態では、ユーザによって最も頻繁に生成された感情が「うれしい」であると判断され、「うれしい」感情を起こさせる可能性のあるコンテンツをユーザに提供することが可能であり、たとえばクロストークのオーディオ・クリップ、コメディ映画、または漫画をユーザに提供することができる。
注目すべきことに、他の実施形態では、「うれしい」という感情とは反対の感情を起こさせるコンテンツを一致コンテンツとみなすことが可能であり、たとえば、「悲しい」という感情を起こさせる可能性のあるコンテンツを、一致コンテンツとみなすことができる。この時点で、ステップ408で、計算された距離が所定のしきい値よりも大きいかどうかが判別可能であり、次に、所定のしきい値よりも大きい距離に対応するコンテンツを一致コンテンツとみなすことができる。
その後、手順は終了する。
図5は、本発明のさらに他の実施形態に従った、感情データを伴うタグを処理する方法を示す流れ図である。この実施形態では、ユーザ1が雪山の写真にアクセスしており、以前この雪山の写真にアクセスしたことのある他のユーザによって生成された感情を体験したい、というシナリオが仮定される。本発明の方法によって、感情データを伴うタグを処理するための本発明の装置は、ユーザ1が同じコンテンツにアクセスしている他のユーザによって生成された感情を体験できるようにすることが可能であり、それによって、ユーザの体験が著しく向上する。
ステップ501は、同じコンテンツにアクセスしている他のユーザの感情を体験するための、1ユーザの要求を受信するステップである。
ステップ502は、コンテンツのタグを読み取り、タグから、コンテンツへのアクセス時に他のユーザによって生成された感情データを抽出するステップである。
図2に示されたような実施形態でのステップ203と同様に、この実施形態では、3人のユーザ(ユーザ2、ユーザ3、ユーザ4)は以前同じ雪山の写真にアクセスしたことがあり、ユーザ2の感情データは(70、110、85)、ユーザ3の感情データは(75、120、90)、ユーザ4の感情データは(80、100、70)であり、これらすべての感情データはすでに写真のタグに格納されていると仮定される。ステップ502は、雪山の写真のタグを読み取ること、ならびに、それぞれユーザ2、ユーザ3、およびユーザ4の感情データをタグから抽出することに関する。
ステップ503は、抽出された感情データの平均を計算し、それによって共通感情データを取得するステップである。
図1に示されるような実施形態から、感情データを伴うタグの追加中に、共通感情データを事前に計算し、タグとしてコンテンツに追加するか、またはメモリ内に格納できることが知られている。別の方法として、感情タグを伴うタグの処理中に、共通感情データをリアルタイムで計算し、タグとしてコンテンツに追加するか、またはタグ内の感情データに従ってメモリ内に格納することができる。
この実施形態では、感情データを伴うタグの追加中に、共通感情データが事前に計算されないものと想定される。したがって、ステップ503では、ステップ502で抽出されたユーザ2、ユーザ3、およびユーザ4の感情データに従って、共通感情データが計算される。
共通感情データは、様々な所定のストラテジに従って計算可能である。たとえば、タグが、複数のユーザがコンテンツにアクセスしている場合に生成された感情データを担持している場合、共通感情データは異なるユーザを平均することによって計算可能であるか、または、複数のユーザの感情データからのガウス分布の平均値が計算可能であり、この平均が共通感情データとして使用されるか、または、複数のユーザからの感情データを所定の重みを使用して重み付けし、重み付けされた感情データの合計が共通感情データとみなされる。
この実施形態では、ユーザ2、ユーザ3、およびユーザ4の感情データは所定の重みを使用して重み付けされ、ここで重み付けは、たとえばユーザのレベル、重要性、または優先度に従って事前設定される。たとえばユーザ2は、重みの少ない0.2のジュニア・ユーザであり、ユーザ3は重みの大きい0.5のシニア・ユーザであり、ユーザ4は中間の重み0.3のメザニン(mezzanine)ユーザである。ユーザ2、ユーザ3、およびユーザ4の感情データ(70、110、85)、(75、120、90)、および(80、100、70)は、それぞれ上記重み付けを使用して重み付けされ、重み付けされた感情データは、共通感情データ(75.5、112、83)を取得するまで追加される。
ステップ504は、対応する動作をユーザに生成するために、ユーザの動作デバイスに共通感情データを提供するステップである。
この実施形態では、クライアント側で、たとえば本発明の装置からの共通感情データをユーザの動作に変換するための動作デバイスが提供可能であり、それによってユーザは、同じコンテンツにアクセスしている他のユーザの共通感情データに対応する感情を体験する。
ユーザは、様々な手法で動作可能であり、たとえば、共通感情データをオーディオ周波数信号に変換する手法では、その後この信号は、ノート型コンピュータ、携帯電話、またはPDAによって再生され、結果としてユーザは、音楽を聞くことによって共通感情データを体験することになり、あるいは、共通感情データを照明制御システムに提供することによって、共通感情データを光信号に変換する手法では、結果としてユーザは、ユーザ周囲の照明の変化を通じて共通感情データを体験することが可能であり、あるいは、マウス内に弱電流刺激手段を提供することによって、共通感情データを弱電流信号に変換する手法では、それによって、ユーザがマウスを握った際に、マウスによって送信される弱電流信号の刺激を通じて、ユーザに共通感情データを体験させることが可能である。
その後、手順は終了する。
注目すべきことに、図5に示されたような実施形態で説明されるように、同じコンテンツにアクセスしている複数ユーザの共通感情データを使用してユーザを刺激することに加えて、コンテンツのタグ内の任意のユーザの感情データを使用してユーザを動作させることが可能である。すなわちユーザは、同じコンテンツのタグから抽出された感情データに基づいて動作可能であり、ユーザを動作させるために共通感情データを使用する必要はない。
図6は、本発明の一実施形態に従った、感情データを伴うタグを追加するための装置のブロック図である。
図6に示されたような装置600は、コンテンツへのアクセス時に、ユーザによって生成された感情データを受信するための受信手段610であって、感情データは、ユーザの感情を反映する測定可能な生理学的パラメータに従って取得される、受信手段と、感情データを伴うタグを感情データに基づいてコンテンツに追加するための追加手段620とを、備えることができる。
注目すべきことに、生理学的パラメータ・センサまたは生物学的信号検出器がクライアント側(すなわちユーザ端末)に配置可能であり、たとえば、センサがユーザ端末近くに配置されるか、またはユーザがセンサを身に付けることが可能である。
この場合、コンテンツにアクセスしているユーザによって生成された生理学的パラメータがクライアント側(すなわちユーザ端末)で感知され、その後、クライアントは感知された生理学的パラメータに従って感情データを取得し、取得された感情データは装置600の受信手段610に提供される。別の方法として、コンテンツにアクセスしているユーザによって生成された生理学的パラメータがクライアント側(すなわちユーザ端末)で感知され、その後、クライアントは感知された生理学的パラメータを装置600の受信手段610に直接提供し、その後、受信手段610は生理学的パラメータに従って感情データを取得する。続いて、追加手段620は、受信手段610によって取得された感情データをタグとしてコンテンツに追加する。
装置600は、感情データを使用することにより、所定のストラテジに従ってコンテンツに対応する共通感情データを計算するための手段と、共通感情データを処理することによってユーザにサービスを提供するように、共通感情データを伴うタグをコンテンツに追加するための手段、または共通感情データをメモリ内に格納するための手段とを、さらに備える。2つの手段は光学式であることを理解されよう。共通感情データを計算しないケースでは、共通感情データは、その後、感情データを伴うタグが処理される時点で計算可能である。2つの手段が存在する場合、共通感情データは、その後感情データを伴うタグが処理される時点で、タグから直接抽出するか、またはメモリから読み取ることが可能である。
所定のストラテジは、複数のユーザから感情データを平均化し、この平均を共通感情データとして使用するストラテジ、複数ユーザからの感情データのガウス分布の平均値を計算し、この平均値を共通感情データとみなすストラテジ、または、所定の重みを使用して複数のユーザからの感情データを重み付けし、この重み付けされた感情データの合計を共通感情データとみなすストラテジのうちの、いずれか1つとすることができる。
図7は、本発明の一実施形態に従った、感情データを伴うタグを処理するための装置のブロック図である。
図7に示されるような装置700は、感情データを伴うタグから感情データを抽出するための抽出手段710であって、タグは1つのコンテンツに対応する、抽出手段と、感情データを使用することによってサービスを提供するためのサービス提供手段720とを、備えることができる。装置700は、コンテンツへのアクセス時にユーザによって生成された感情データを受信するための受信手段610と、感情データに基づいて、感情データを伴うタグをコンテンツに追加するための追加手段620とを、さらに備えることができる。
装置700のサービス提供手段720は、感情データを使用することによる所定のストラテジに従って、コンテンツに対応する共通感情データを計算するための手段と、共通感情データを伴うタグをコンテンツに追加する手段、または共通感情データをメモリ内に格納するための手段と、共通感情データを感情データとして処理するための手段とを、備えることができる。
所定のストラテジは、複数のユーザから感情データを平均化し、この平均を共通感情データとして使用するストラテジ、複数ユーザからの感情データのガウス分布の平均値を計算し、この平均値を共通感情データとみなすストラテジ、または、所定の重みを使用して複数のユーザからの感情データを重み付けし、この重み付けされた感情データの合計を共通感情データとみなすストラテジのうちの、いずれか1つとすることができる。
この実施形態では、装置700の抽出手段710は、コンテンツへのアクセス時に1ユーザと同様の感情を生成している他のユーザに対する1ユーザの照会要求を受信するための手段と、コンテンツへのアクセス時に当該1ユーザによって生成された感情データを獲得するための手段と、コンテンツのタグから他のユーザの感情データを抽出するための手段とを、備えることができる。装置700のサービス提供手段720は、当該1ユーザの感情データおよび他のユーザの感情データに従って、当該1ユーザと同様の感情を伴う他のユーザを決定するための手段と、決定された他のユーザの情報を当該1ユーザに提供するための手段とを、備えることができる。
他の実施形態では、装置700の抽出手段710は、一致することになるコンテンツのタグから感情データを抽出するための手段を備えることができる。装置700のサービス提供手段720は、現在アクセスされているコンテンツに関してユーザによって生成された感情データを獲得するための手段と、ユーザの現在の感情データおよび一致することになるコンテンツのタグから抽出された感情データに従って、一致コンテンツを検索するための手段と、一致コンテンツをユーザに提供するための手段とを、備えることができる。
さらに他の実施形態では、装置700の抽出手段710は、1ユーザによって以前にアクセスされたコンテンツのタグから感情データを抽出するための手段と、一致することになるコンテンツのタグから感情データを抽出するための手段とを、備えることができる。装置700のサービス提供手段720は、1ユーザによって以前にアクセスされたコンテンツのタグから抽出された感情データの統計を実施することにより、1ユーザによって最も頻繁に生成された感情を決定するための手段と、1ユーザによって最も頻繁に生成された感情に対応する感情データ、および一致することになるコンテンツのタグから抽出された感情データに従って、一致コンテンツを検索するための手段と、一致コンテンツを1ユーザに提供するための手段とを、備えることができる。
さらに他の実施形態では、装置700の抽出手段710は、1ユーザと同じコンテンツにアクセスしている他のユーザの感情を体験するための1ユーザの要求を受信するための手段と、同じコンテンツへのアクセス時に他のユーザによって生成された感情データを同じコンテンツのタグから抽出するための手段とを、備えることができる。装置700のサービス提供手段720は、抽出された他のユーザの感情データに基づいて1ユーザを動作させるための手段を備えることができる。
さらに本発明は、感情データを伴うタグを処理するためのシステムを提供する。システムは、コンテンツへのアクセス時にユーザによって生成された感情データを感知および提供するためのクライアントであって、感情データがユーザの感情を反映する測定可能な生理学的パラメータに従って取得される、クライアントと、感情データを伴うタグを処理するためのサーバとを、備えることができる。サーバは、コンテンツへのアクセス時にユーザによって生成された感情データを受信するための受信手段と、感情データを伴うタグを感情データに基づいてコンテンツに追加するための追加手段と、感情データを伴うタグから感情データを抽出するための抽出手段と、感情データを使用することによってサービスを提供するためのサービス提供手段とを、備えることができる。
図8は、本発明の一実施形態を実施するためのコンピューティング装置の構造的ブロック図である。
図8に示されたようなコンピュータ・システムは、CPU(中央処理ユニット)801、RAM(ランダム・アクセス・メモリ)802、ROM(読み取り専用メモリ)803、システム・バス804、ハード・ディスク・コントローラ805、キーボード・コントローラ806、シリアル・インターフェース・コントローラ807、パラレル・インターフェース・コントローラ808、ディスプレイ・コントローラ809、ハード・ディスク810、キーボード811、シリアル外部デバイス812、パラレル外部デバイス813、およびディスプレイ814を備える。これらのコンポーネントの中で、CPU 801、RAM 802、ROM 803、ハード・ディスク・コントローラ805、キーボード・コントローラ806、シリアル・インターフェース・コントローラ807、パラレル・インターフェース・コントローラ808、およびディスプレイ・コントローラ809は、システム・バス804に接続され、ハード・ディスク810はハード・ディスク・コントローラ805に接続され、キーボード811はキーボード・コントローラ806に接続され、シリアル外部デバイス812はシリアル・インターフェース・コントローラ807に接続され、パラレル外部デバイス813はパラレル・インターフェース・コントローラ808に接続され、ディスプレイ814はディスプレイ・コントローラ809に接続される。
図8の各コンポーネントの機能は本技術分野で公に知られており、図8に示されたような構造は従来型である。様々な適用分野では、図8に示された構造にいくつかのコンポーネントを追加可能であるか、または図8に示されたいくつかのコンポーネントを省略可能である。図8に示されたシステム全体が、通常はハード・ディスク810内にソフトウェアとして格納された、あるいはEPROMまたは他の不揮発性メモリに格納された、コンピュータ読み取り可能命令によって制御される。ソフトウェアは、ネットワーク(図示せず)からダウンロード可能である。ハード・ディスク810に格納されるかまたはネットワークからダウンロードされたソフトウェアは、RAM 802にアップロードし、ソフトウェアによって決定された機能を実行するためにCPU 801によって実行することが可能である。
図8に示されたようなコンピュータ・システムは、本発明に従った、感情データを伴うタグを追加するための装置、および感情データを伴うタグを処理するための装置をサポート可能であるが、これは、コンピュータ・システムの単なる一例である。当業者であれば、多くの他のコンピュータ・システム設計も本発明の実施形態を実現可能であることを理解されよう。
さらに本発明は、コンテンツへのアクセス時に、ユーザによって生成された感情データを受信することであって、感情データは、ユーザの感情を反映する測定可能な生理学的パラメータに従って取得される、受信すること、および、感情データを伴うタグを感情データに基づいてコンテンツに追加することを、実行するためのコードを含む、コンピュータ・プログラム製品に関する。本発明は、感情データを伴うタグから感情データを抽出することであって、タグは1コンテンツに対応し、感情データはユーザの感情を反映する測定可能な生理学的パラメータに従って取得される、抽出すること、および、サービスを提供するために感情データを使用することを、実行するためのコードを含む、コンピュータ・プログラム製品にも関する。コードは、使用前に、他のコンピュータ・システムのメモリに格納すること、たとえばハード・ディスクあるいはCDまたはフレキシブル・ディスクなどの可動メモリに格納するか、あるいは、インターネットまたは他のコンピュータ・ネットワークを介してダウンロードすることが可能である。
開示されたような本発明の方法は、ソフトウェア、ハードウェア、またはソフトウェアおよびハードウェアの組み合わせにおいて達成可能である。ハードウェア部分は特別な論理を使用することによって達成可能であり、ソフトウェア部分は、メモリに格納し、マイクロプロセッサ、パーソナル・コンピュータ(PC)、またはメインフレーム・コンピュータなどの適切な命令実行システムによって実行することによって実行可能である。
上記では、本発明をより容易に理解できるようにするために、当業者に公に知られており、本発明の実現に必要な、いくつかのさらに特定の技術的細部が省略されていることに留意されたい。
本発明の説明は、すべての実施形態を列挙するため、または本発明を開示された形に限定するためではなく、例示および記述のために提供されたものである。当業者であれば、多くの修正および変形が明白であることを理解されよう。
したがって前述の好ましい諸実施形態は、本発明の原理およびその実際の応用例をより良く例示するため、ならびに、本発明の本質から逸脱することなく、すべての修正および変形が添付の特許請求の範囲によって定義された本発明の保護の範囲内にあることを、当業者が理解できるように、選択および説明される。
610 受信手段
620 追加手段
710 抽出手段
720 サービス提供手段
801 CPU
802 RAM
803 ROM
804 バス
805 HDコントローラ
806 キーボード・コントローラ
807 シリアル・インターフェース・コントローラ
808 パラレル・インターフェース・コントローラ
809 ディスプレイ・コントローラ
810 ハード・ディスク
811 キーボード
812 シリアル外部デバイス
813 パラレル外部デバイス
814 ディスプレイ

Claims (27)

  1. コンテンツへのアクセス時にユーザによって生成された感情データを受信するステップであって、前記感情データは、前記ユーザの感情を反映する測定可能な生理学的パラメータに従って取得される、受信するステップと、
    前記感情データを伴うタグを前記感情データに基づいて前記コンテンツに追加するステップと、
    を含む、感情データを伴うタグを追加するための方法。
  2. 前記感情データを使用することにより、所定のストラテジに従って前記コンテンツに対応する共通感情データを計算するステップと、
    前記共通感情データを伴う前記タグを前記コンテンツに追加するステップ、または前記共通感情データをメモリ内に格納するステップと、
    をさらに含む、請求項1に記載の方法。
  3. 前記所定のストラテジが、
    複数のユーザから感情データを平均化し、前記平均を前記共通感情データとして使用するストラテジと、
    複数ユーザからの感情データのガウス分布の平均値を計算し、前記平均値を前記共通感情データとみなすストラテジと、
    所定の重みを使用して前記複数のユーザからの感情データを重み付けし、前記重み付けされた感情データの合計を前記共通感情データとみなすストラテジと、
    のうちの1つを含む、請求項2に記載の方法。
  4. 前記ユーザの前記コンテンツへのアクセス時に、生理学的パラメータを獲得するステップをさらに含む、請求項1に記載の方法。
  5. 前記ユーザの前記コンテンツへのアクセス時に、生理学的パラメータ・センサまたは生物学的信号検出器によって前記生理学的パラメータが獲得され、前記生理学的パラメータは、
    心拍数、呼吸数、血圧、脳波図パラメータ、体温、皮膚電気反応のうちの1つまたは複数を含む、請求項4に記載の方法。
  6. 感情データを伴うタグから感情データを抽出するステップであって、前記タグは1つのコンテンツに対応し、前記感情データは、ユーザの感情を反映する測定可能な生理学的パラメータに従って取得される、抽出するステップと、
    サービスを提供するために前記感情データを使用するステップと、
    を含む、感情データを伴うタグを処理するための方法。
  7. 前記感情データが、所定のストラテジに従って計算され、前記コンテンツに関連付けられた、共通感情データである、請求項6に記載の方法。
  8. 前記所定のストラテジが、
    複数のユーザから感情データを平均化し、前記平均を前記共通感情データとして使用するストラテジと、
    複数ユーザからの感情データのガウス分布の平均値を計算し、前記平均値を前記共通感情データとみなすストラテジと、
    所定の重みを使用して前記複数のユーザからの感情データを重み付けし、前記重み付けされた感情データの合計を前記共通感情データとみなすストラテジと、
    のうちの1つを含む、請求項7に記載の方法。
  9. 感情データを抽出する前記ステップが、
    前記コンテンツへのアクセス時に1ユーザと同様の感情を生成している他のユーザに対する1ユーザの照会要求を受信するステップと、
    前記コンテンツへのアクセス時に前記1ユーザによって生成された感情データを獲得するステップと、
    前記コンテンツの前記タグから他のユーザの感情データを抽出するステップと、
    を含み、
    サービスを提供するために前記感情データを使用する前記ステップが、
    前記1ユーザの感情データおよび他のユーザの感情データに従って、前記1ユーザと同様の前記感情を伴う他のユーザを決定するステップと、
    前記決定された他のユーザの情報を前記1ユーザに提供するステップと、
    を含む、請求項6から8のいずれか一項に記載の方法。
  10. 感情データを抽出する前記ステップが、
    一致することになる前記コンテンツの前記タグから感情データを抽出するステップを含み、
    サービスを提供するために前記感情データを使用する前記ステップが、
    現在アクセスされている前記コンテンツに関して前記ユーザによって生成された感情データを獲得するステップと、
    前記ユーザの現在の感情データおよび一致することになる前記コンテンツの前記タグから抽出された前記感情データに従って、一致コンテンツを検索するステップと、
    前記一致コンテンツを前記ユーザに提供するステップと、
    を含む、請求項6から8のいずれか一項に記載の方法。
  11. 感情データを抽出する前記ステップが、
    1ユーザによって以前にアクセスされたコンテンツのタグから感情データを抽出するステップと、
    一致することになるコンテンツの前記タグから感情データを抽出するステップと、
    を含み、
    サービスを提供するために前記感情データを使用する前記ステップが、
    前記1ユーザによって以前にアクセスされたコンテンツの前記タグから抽出された感情データの統計を実施することにより、1ユーザによって最も頻繁に生成された感情を決定するステップと、
    前記1ユーザによって最も頻繁に生成された前記感情に対応する感情データ、および一致することになるコンテンツの前記タグから抽出された前記感情データに従って、一致コンテンツを検索するステップと、
    前記一致コンテンツを前記1ユーザに提供するステップと、
    を含む、請求項6から8のいずれか一項に記載の方法。
  12. 感情データを抽出する前記ステップが、
    1ユーザと同じ前記コンテンツにアクセスしている他のユーザの感情を体験するための1ユーザの要求を受信するステップと、
    前記同じコンテンツの前記タグから他のユーザの感情データを抽出するステップと、
    を含み、
    1ユーザにサービスを提供するために前記感情データを使用する前記ステップが、
    前記抽出された他のユーザの感情データに基づいて前記1ユーザを動作させるステップを含む、請求項6から8のいずれか一項に記載の方法。
  13. 前記生理学的パラメータが、
    心拍数、呼吸数、血圧、脳波図パラメータ、体温、皮膚電気反応のうちの1つまたは複数を含む、請求項6から8のいずれか一項に記載の方法。
  14. 前記コンテンツへのアクセス時に、前記ユーザによって生成された感情データを獲得するステップと、
    前記感情データをタグとして前記コンテンツに追加するステップと、
    をさらに含む、請求項6から8のいずれか一項に記載の方法。
  15. コンテンツへのアクセス時にユーザによって生成された感情データを受信するための受信手段であって、前記感情データは、前記ユーザの感情を反映する測定可能な生理学的パラメータに従って取得される、受信手段と、
    前記感情データを伴うタグを前記感情データに基づいて前記コンテンツに追加するための追加手段と、
    を備える、感情データを伴うタグを追加するための装置。
  16. 前記感情データを使用することにより、所定のストラテジに従って前記コンテンツに対応する共通感情データを計算するための手段と、
    前記共通感情データを伴う前記タグを前記コンテンツに追加するため、または前記共通感情データをメモリ内に格納するための手段と、
    をさらに備える、請求項15に記載の装置。
  17. 前記所定のストラテジが、
    複数のユーザから感情データを平均化し、前記平均を前記共通感情データとして使用するストラテジと、
    複数ユーザからの感情データのガウス分布の平均値を計算し、前記平均値を前記共通感情データとみなすストラテジと、
    所定の重みを使用して前記複数のユーザからの感情データを重み付けし、前記重み付けされた感情データの合計を前記共通感情データとみなすストラテジと、
    のうちの1つを含む、請求項16に記載の装置。
  18. 前記ユーザの前記コンテンツへのアクセス時に、生理学的パラメータを獲得するための手段をさらに備える、請求項15に記載の装置。
  19. 前記ユーザの前記コンテンツへのアクセス時に生理学的パラメータを獲得するための手段が、前記ユーザの前記コンテンツへのアクセス時に、生理学的パラメータ・センサまたは生物学的信号検出器を介して前記生理学的パラメータを獲得する、請求項18に記載の装置。
  20. 感情データを伴うタグから感情データを抽出するための抽出手段であって、前記タグは1つのコンテンツに対応し、前記感情データは、ユーザの感情を反映する測定可能な生理学的パラメータに従って取得される、抽出手段と、
    サービスを提供するために前記感情データを使用するためのサービス提供手段と、
    を備える、感情データを伴うタグを処理するための装置。
  21. 前記感情データが、所定のストラテジに従って計算され、前記コンテンツに対応する、共通感情データである、請求項20に記載の装置。
  22. 前記所定のストラテジが、
    複数のユーザから感情データを平均化し、前記平均を前記共通感情データとして使用するストラテジと、
    複数ユーザからの感情データのガウス分布の平均値を計算し、前記平均値を前記共通感情データとみなすストラテジと、
    所定の重みを使用して前記複数のユーザからの感情データを重み付けし、前記重み付けされた感情データの合計を前記共通感情データとみなすストラテジと、
    のうちの1つを含む、請求項21に記載の装置。
  23. 前記抽出手段が、
    前記コンテンツへのアクセス時に1ユーザと同様の感情を生成している他のユーザに対する1ユーザの照会要求を受信するための手段と、
    前記コンテンツへのアクセス時に前記1ユーザによって生成された感情データを獲得するための手段と、
    前記コンテンツの前記タグから他のユーザの感情データを抽出するための手段と、
    を備え、
    前記サービス提供手段が、
    前記1ユーザの感情データおよび他のユーザの感情データに従って、前記1ユーザと同様の前記感情を伴う他のユーザを決定するための手段と、
    前記決定された他のユーザの情報を前記1ユーザに提供するための手段と、
    を備える、請求項20から22のいずれか一項に記載の装置。
  24. 前記抽出手段が、
    一致することになる前記コンテンツの前記タグから感情データを抽出するための手段を備え、
    前記サービス提供手段が、
    現在アクセスされている前記コンテンツに関して前記ユーザによって生成された感情データを獲得するための手段と、
    前記ユーザの現在の感情データおよび一致することになる前記コンテンツの前記タグから抽出された前記感情データに従って、一致コンテンツを検索するための手段と、
    前記一致コンテンツを前記ユーザに提供するための手段と、
    を備える、請求項20から22のいずれか一項に記載の装置。
  25. 前記抽出手段が、
    1ユーザによって以前にアクセスされたコンテンツのタグから感情データを抽出するための手段と、
    一致することになるコンテンツの前記タグから感情データを抽出するための手段と、
    を備え、
    前記サービス提供手段が、
    前記1ユーザによって以前にアクセスされたコンテンツの前記タグから抽出された感情データの統計を実施することにより、1ユーザによって最も頻繁に生成された感情を決定するための手段と、
    前記1ユーザによって最も頻繁に生成された前記感情に対応する感情データ、および一致することになるコンテンツの前記タグから抽出された前記感情データに従って、一致コンテンツを検索するための手段と、
    前記一致コンテンツを前記1ユーザに提供するための手段と、
    を備える、請求項20から22のいずれか一項に記載の装置。
  26. 前記抽出手段が、
    1ユーザと同じ前記コンテンツにアクセスしている他のユーザの感情を体験するための1ユーザの要求を受信するための手段と、
    前記同じコンテンツの前記タグから他のユーザの感情データを抽出するための手段と、
    を備え、
    前記サービス提供手段が、
    前記抽出された他のユーザの感情データに基づいて前記1ユーザを動作させるための手段を備える、請求項20から22のいずれか一項に記載の装置。
  27. 前記コンテンツへのアクセス時に、ユーザによって生成された感情データを受信するための受信手段と、
    前記感情データに基づいて、感情データを伴う前記タグを前記コンテンツに追加するための追加手段と、
    をさらに備える、請求項20から22のいずれか一項に記載の装置。
JP2010035591A 2009-03-31 2010-02-22 感情データを伴うタグを追加および処理するための方法および装置 Pending JP2010244523A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN200910133413A CN101853259A (zh) 2009-03-31 2009-03-31 添加和处理带有情感数据的标签的方法和设备

Publications (1)

Publication Number Publication Date
JP2010244523A true JP2010244523A (ja) 2010-10-28

Family

ID=42785510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010035591A Pending JP2010244523A (ja) 2009-03-31 2010-02-22 感情データを伴うタグを追加および処理するための方法および装置

Country Status (3)

Country Link
US (1) US8788495B2 (ja)
JP (1) JP2010244523A (ja)
CN (1) CN101853259A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015502624A (ja) * 2012-11-06 2015-01-22 インテル コーポレイション 生理データを利用した社会的感情の判定

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102479291A (zh) * 2010-11-30 2012-05-30 国际商业机器公司 情感描述生成与体验方法和设备以及情感交互系统
US8799300B2 (en) * 2011-02-10 2014-08-05 Microsoft Corporation Bookmarking segments of content
WO2012143069A1 (en) 2011-04-21 2012-10-26 Sony Corporation A method for determining a sentiment from a text
US8856061B2 (en) * 2011-10-27 2014-10-07 International Business Machines Corporation User experience adjustment in controllable events
US20130204535A1 (en) * 2012-02-03 2013-08-08 Microsoft Corporation Visualizing predicted affective states over time
US20130346920A1 (en) * 2012-06-20 2013-12-26 Margaret E. Morris Multi-sensorial emotional expression
US20140095149A1 (en) * 2012-10-03 2014-04-03 Kanjoya, Inc. Emotion identification system and method
US9104467B2 (en) 2012-10-14 2015-08-11 Ari M Frank Utilizing eye tracking to reduce power consumption involved in measuring affective response
US9477993B2 (en) 2012-10-14 2016-10-25 Ari M Frank Training a predictor of emotional response based on explicit voting on content and eye tracking to verify attention
KR102011495B1 (ko) 2012-11-09 2019-08-16 삼성전자 주식회사 사용자의 심리 상태 판단 장치 및 방법
US9721010B2 (en) * 2012-12-13 2017-08-01 Microsoft Technology Licensing, Llc Content reaction annotations
JP6191278B2 (ja) * 2013-06-26 2017-09-06 カシオ計算機株式会社 情報処理装置、コンテンツ課金システム及びプログラム
KR20150009032A (ko) * 2013-07-09 2015-01-26 엘지전자 주식회사 이동 단말기 및 이의 제어방법
CN103605513A (zh) * 2013-11-06 2014-02-26 小米科技有限责任公司 一种图标处理方法、装置及终端设备
CN104750380A (zh) * 2013-12-31 2015-07-01 中国移动通信集团公司 一种信息处理的方法及电子设备
CN104008764A (zh) * 2014-04-30 2014-08-27 小米科技有限责任公司 多媒体信息标记方法及相关装置
US9805381B2 (en) 2014-08-21 2017-10-31 Affectomatics Ltd. Crowd-based scores for food from measurements of affective response
US11494390B2 (en) 2014-08-21 2022-11-08 Affectomatics Ltd. Crowd-based scores for hotels from measurements of affective response
DE102015113929A1 (de) 2014-08-21 2016-02-25 Affectomatics Ltd. Bewertung und Benachrichtigungen auf der Grundlage affektiver Reaktionen der Crowd
US11269891B2 (en) 2014-08-21 2022-03-08 Affectomatics Ltd. Crowd-based scores for experiences from measurements of affective response
CN105610884B (zh) * 2014-11-21 2019-03-29 阿里巴巴集团控股有限公司 旅游信息的提供方法及装置
KR102247518B1 (ko) 2014-12-23 2021-05-03 삼성전자주식회사 웨어러블 장치, 관리 서버, 이들을 포함하는 제어 시스템 및 그의 제어 방법
US11232466B2 (en) 2015-01-29 2022-01-25 Affectomatics Ltd. Recommendation for experiences based on measurements of affective response that are backed by assurances
DE102016101650A1 (de) 2015-01-29 2016-08-04 Affectomatics Ltd. Korrektur von bias in messwerten der affektiven reaktion
CN106454060A (zh) * 2015-08-10 2017-02-22 宏达国际电子股份有限公司 影音管理方法及其系统
US10783431B2 (en) * 2015-11-11 2020-09-22 Adobe Inc. Image search using emotions
US9916866B2 (en) * 2015-12-22 2018-03-13 Intel Corporation Emotional timed media playback
CN105678325A (zh) * 2015-12-31 2016-06-15 哈尔滨工业大学深圳研究生院 一种文本情感标注方法、装置及系统
CN105975536A (zh) * 2016-04-29 2016-09-28 合网络技术(北京)有限公司 网络资源的推荐方法和装置
US11132709B2 (en) 2017-11-30 2021-09-28 International Business Machines Corporation Implementation of physical changes to devices for effective electronic content reception
CN108634969B (zh) * 2018-05-16 2021-03-12 京东方科技集团股份有限公司 情绪检测设备、情绪检测系统、情绪检测方法、存储介质
EP3854030A4 (en) * 2018-09-21 2022-06-22 Curtis, Steve SYSTEM AND METHOD FOR INTEGRATE EMOTION DATA INTO A SOCIAL NETWORK PLATFORM AND SHARING THE EMOTION DATA ON A SOCIAL NETWORK PLATFORM
US10681402B2 (en) 2018-10-09 2020-06-09 International Business Machines Corporation Providing relevant and authentic channel content to users based on user persona and interest
CN111209445B (zh) * 2018-11-21 2023-05-02 中国电信股份有限公司 识别终端用户情绪的方法和装置
JP7247544B2 (ja) * 2018-11-22 2023-03-29 富士フイルムビジネスイノベーション株式会社 情報処理システム
WO2020162486A1 (ja) * 2019-02-05 2020-08-13 ソニー株式会社 感性算出装置、感性算出方法、およびプログラム
US11553871B2 (en) 2019-06-04 2023-01-17 Lab NINE, Inc. System and apparatus for non-invasive measurement of transcranial electrical signals, and method of calibrating and/or using same for various applications
CN110377380A (zh) * 2019-06-21 2019-10-25 深圳壹账通智能科技有限公司 主题色调调整方法、装置、设备和计算机可读存储介质
CN110650364B (zh) * 2019-09-27 2022-04-01 北京达佳互联信息技术有限公司 视频态度标签提取方法及基于视频的交互方法
EP4182777B1 (en) 2020-07-15 2024-10-30 InterDigital VC Holdings, Inc. Closed-loop extended reality stimulus presentation and perception feedback using multi-channel physiological signals

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282847A (ja) * 2000-04-03 2001-10-12 Nec Corp 感性適応型情報提示装置及びプログラムを記録した機械読み取り可能な記録媒体
JP2003178078A (ja) * 2001-12-12 2003-06-27 Matsushita Electric Ind Co Ltd 画像、音声データへの付加用標識データとその付加方法
JP2003209523A (ja) * 2002-01-17 2003-07-25 Sharp Corp ユーザの動的状態変化に応じたコンテンツリスト表示システム
JP2008269065A (ja) * 2007-04-17 2008-11-06 Nippon Telegr & Teleph Corp <Ntt> ユーザ支援方法、ユーザ支援装置およびユーザ支援プログラム
JP2010520552A (ja) * 2007-03-08 2010-06-10 エムセンス コーポレイション 生理学的データに基づいてメディア及びメディアのイベントを評価する方法及びシステム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7233684B2 (en) * 2002-11-25 2007-06-19 Eastman Kodak Company Imaging method and system using affective information
US7509347B2 (en) * 2006-06-05 2009-03-24 Palm, Inc. Techniques to associate media information with related information
WO2008008281A2 (en) * 2006-07-07 2008-01-17 Proteus Biomedical, Inc. Smart parenteral administration system
US20080091515A1 (en) * 2006-10-17 2008-04-17 Patentvc Ltd. Methods for utilizing user emotional state in a business process
US8327395B2 (en) * 2007-10-02 2012-12-04 The Nielsen Company (Us), Llc System providing actionable insights based on physiological responses from viewers of media
US20090133047A1 (en) * 2007-10-31 2009-05-21 Lee Hans C Systems and Methods Providing Distributed Collection and Centralized Processing of Physiological Responses from Viewers
WO2009073634A1 (en) * 2007-11-30 2009-06-11 Emsense Corporation Correlating media instance information with physiological responses from participating subjects

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282847A (ja) * 2000-04-03 2001-10-12 Nec Corp 感性適応型情報提示装置及びプログラムを記録した機械読み取り可能な記録媒体
JP2003178078A (ja) * 2001-12-12 2003-06-27 Matsushita Electric Ind Co Ltd 画像、音声データへの付加用標識データとその付加方法
JP2003209523A (ja) * 2002-01-17 2003-07-25 Sharp Corp ユーザの動的状態変化に応じたコンテンツリスト表示システム
JP2010520552A (ja) * 2007-03-08 2010-06-10 エムセンス コーポレイション 生理学的データに基づいてメディア及びメディアのイベントを評価する方法及びシステム
JP2008269065A (ja) * 2007-04-17 2008-11-06 Nippon Telegr & Teleph Corp <Ntt> ユーザ支援方法、ユーザ支援装置およびユーザ支援プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015502624A (ja) * 2012-11-06 2015-01-22 インテル コーポレイション 生理データを利用した社会的感情の判定

Also Published As

Publication number Publication date
CN101853259A (zh) 2010-10-06
US20100250554A1 (en) 2010-09-30
US8788495B2 (en) 2014-07-22

Similar Documents

Publication Publication Date Title
JP2010244523A (ja) 感情データを伴うタグを追加および処理するための方法および装置
US11393209B2 (en) Generating a video segment of an action from a video
Schedl et al. Music recommender systems
US10339196B2 (en) Lifestream annotation method and system
US8918344B2 (en) Habituation-compensated library of affective response
JP2019212290A (ja) ビデオを処理する方法及び装置
US20130289991A1 (en) Application of Voice Tags in a Social Media Context
US20030156304A1 (en) Method for providing affective information in an imaging system
CN105615902A (zh) 情绪监控方法和装置
JP2007213401A (ja) ユーザ嗜好の音楽データに基づいてコミュニティを構成するコミュニティサイトサーバ及びプログラム
CN110442867B (zh) 图像处理方法、装置、终端及计算机存储介质
US11934445B2 (en) Automatic memory content item provisioning
JP2010224715A (ja) 画像表示システム、デジタルフォトフレーム、情報処理システム、プログラム及び情報記憶媒体
US20200143286A1 (en) Affective Response-based User Authentication
KR20220018464A (ko) 보이스 정보를 전처리하는 시스템의 운용방법
US20130325865A1 (en) Method and Server for Media Classification
Oh et al. Multimodal food journaling
JP2019036191A (ja) 判定装置、判定方法及び判定プログラム
Yang et al. Quantitative study of music listening behavior in a smartphone context
US10426410B2 (en) System and method to train system to alleviate pain
Ozkan et al. A large-scale database of images and captions for automatic face naming
Meyer et al. Intelligent video highlights generation with front-camera emotion sensing
JP2023145312A (ja) プログラム、情報処理装置、方法、及びシステム
JP7098553B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US11020560B2 (en) System and method to alleviate pain

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131022