JP6540224B2 - Processing program, processing method and processing apparatus - Google Patents
Processing program, processing method and processing apparatus Download PDFInfo
- Publication number
- JP6540224B2 JP6540224B2 JP2015102265A JP2015102265A JP6540224B2 JP 6540224 B2 JP6540224 B2 JP 6540224B2 JP 2015102265 A JP2015102265 A JP 2015102265A JP 2015102265 A JP2015102265 A JP 2015102265A JP 6540224 B2 JP6540224 B2 JP 6540224B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- feeling
- time zone
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 52
- 238000003672 processing method Methods 0.000 title claims description 11
- 230000004044 response Effects 0.000 claims description 18
- 238000003860 storage Methods 0.000 claims description 17
- 230000000694 effects Effects 0.000 description 195
- 230000009471 action Effects 0.000 description 118
- 238000004364 calculation method Methods 0.000 description 54
- 238000000034 method Methods 0.000 description 44
- 230000010365 information processing Effects 0.000 description 33
- 230000008569 process Effects 0.000 description 33
- 238000013523 data management Methods 0.000 description 28
- 230000006870 function Effects 0.000 description 13
- 238000004458 analytical method Methods 0.000 description 11
- 230000007935 neutral effect Effects 0.000 description 11
- 239000000284 extract Substances 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000035900 sweating Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 235000008534 Capsicum annuum var annuum Nutrition 0.000 description 3
- 240000008384 Capsicum annuum var. annuum Species 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000004886 process control Methods 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000010195 expression analysis Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003304 psychophysiological effect Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 235000013311 vegetables Nutrition 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Description
本発明は、処理プログラム、処理方法及び処理装置に関する。 The present invention relates to a processing program, a processing method, and a processing apparatus.
装置やサービスなどの継続利用は、あらゆるICT(Information and Communications Technology)にとって必要な要素といえる。例えば、ユーザに関する情報を基にした情報をユーザに示すアプリケーション(例えば、リコメンデーションアプリなど)においても、ユーザに継続的に利用してもらうことは非常に重要である。 The continuous use of devices and services can be said to be a necessary element for any information and communication technology (ICT). For example, even in an application (for example, a recommendation application or the like) that shows information to the user based on information on the user, it is very important to have the user continuously use it.
このようなアプリケーションを利用するユーザにとっては、サービスに対して親近だと感じる感覚(心の距離感)などを意味する「社会的距離」が遠いアプリケーションにおいて、過分な個人情報などに基づいて情報が提示されると、当該アプリケーションに嫌悪感をもち、利用を躊躇するおそれがある。 For users using such applications, information is based on excessive personal information etc. in applications where “social distance”, which means sense of feeling close to the service (sense of distance from the mind), etc. If it is presented, the application may be disgusted and may disappoint use.
このため、ユーザとアプリケーションとの社会的距離の遠近に合った情報を提供できるようにすれば、ユーザとアプリケーションとの友好な関係を構築及び維持することができる。従来においては、ユーザが感じている社会的距離を複数の質問項目によってユーザからヒアリングするアンケート等を実施することで、社会的距離を数値として示す技術が知られている(例えば、非特許文献1等参照)。 For this reason, if it is possible to provide information that matches the social distance between the user and the application, a friendly relationship between the user and the application can be established and maintained. In the related art, there is known a technique for showing social distance as a numerical value by executing a questionnaire or the like for hearing from the user the social distance felt by the user with a plurality of question items (for example, Non-Patent Document 1) Etc.).
しかしながら、アンケート等を実施してユーザとアプリケーションとの社会的距離の遠近を判断するのでは、アンケート作成や回答入力等に手間がかかる。 However, when a questionnaire or the like is performed to determine the perspective of the social distance between the user and the application, it takes time and effort to create a questionnaire, enter an answer, and the like.
1つの側面では、本発明は、ユーザがアプリケーションや装置などに対して感じる社会的距離の遠近を判断することが可能な処理プログラム、処理方法及び処理装置を提供することを目的とする。 In one aspect, the present invention aims to provide a processing program, a processing method, and a processing apparatus capable of determining the perspective of social distance felt by a user with respect to an application, a device, and the like.
一つの態様では、処理プログラムは、コンピュータに、第1の情報収集装置が収集したデータに基づいて判定された、ある時間帯における外部観察からでは明らかでない利用者の状態又は気持ちに関する第1の情報と、前記第1の情報収集装置と異なる第2の情報収集装置が収集したデータに基づいて判定された、前記ある時間帯における外部観察から明らかな前記利用者の状態又は気持ちに関する第2の情報と、を記憶する第1の記憶部を参照し、同時間帯において前記第1の情報が示す前記利用者の状態又は気持ちと前記第2の情報が示す前記利用者の状態又は気持ちとが異なる時間帯を特定する機能と、前記利用者に対して、特定された前記時間帯における前記利用者の状態又は気持ちをたずねる質問を提示する機能と、前記利用者が前記質問に回答している間に前記第1の情報収集装置により収集されたデータ及び前記第2の情報収集装置により収集されたデータの少なくとも1つに基づき、前記利用者が前記質問に回答したときの前記利用者の状態又は気持ちを判定する機能と、判定した前記利用者の状態又は気持ちが、特定された前記時間帯における前記第1の情報が示す前記利用者の状態又は気持ちと共通する場合に、共通しない場合よりも、該利用者と回答先との社会的距離が近いと判断する機能と、を実現させるためのプログラムである。 In one aspect, the processing program causes the computer to determine, based on the data collected by the first information collection device, the first information regarding the state or feeling of the user not apparent from the external observation in a certain time zone And second information related to the state or feeling of the user apparent from the external observation in the certain time zone, which is determined based on data collected by a second information collecting device different from the first information collecting device. And the first storage unit storing the first information and the second information indicates the state or the feeling of the user indicated by the second information in the same time zone. A function of specifying a time zone, a function of presenting to the user a question asking the condition or feeling of the user in the specified time zone, and the user Said user answered said question based on at least one of data collected by said first information collecting device and data collected by said second information collecting device while answering said question The function of determining the condition or feeling of the user at the same time as the determined condition or feeling of the user is common to the condition or feeling of the user indicated by the first information in the specified time zone In this case, it is a program for realizing a function of judging that the social distance between the user and the reply destination is closer than in the case where they are not common .
ユーザがアプリケーションや装置などに対して感じる社会的距離の遠近を判断することができる。 It is possible to determine the perspective of the social distance that the user feels to the application, device, etc.
《第1の実施形態》
以下、情報提供システムの第1の実施形態について、図1〜図14に基づいて詳細に説明する。図1には、第1の実施形態に係る情報提供システム100の構成が概略的に示されている。
First Embodiment
Hereinafter, a first embodiment of the information providing system will be described in detail based on FIGS. 1 to 14. FIG. 1 schematically shows the configuration of an
なお、本第1の実施形態では、人と、機械、サービス、アプリケーションなどとの間の心の距離を表す文言として、本来は人と他集団との心の距離を意味する文言である「社会的距離」を用いるものとする。この社会的距離は、人と人との間の距離感と同様、過去のやり取りの背景・経緯等を通じて醸成されるものである。本第1の実施形態の情報提供システム100は、ユーザの行動や状態等から生成した質問に対するユーザからの回答に基づいて、アプリケーションとの間の社会的距離の遠近を判断する。また、情報提供システム100は、判断した社会的距離の遠近に基づいて、アプリケーションからユーザに対して提供する情報を制御する。
In the first embodiment, “society, which is originally a word meaning the distance between the mind of a person and another group, is a word that represents the distance of the mind between a person and a machine, a service, an application, etc. Target distance shall be used. This social distance, like the sense of distance between people, is fostered through the background and process of past communication. The
なお、本第1の実施形態では、ユーザにまつわる情報の分類として図10に示す「個人情報レベル」(Not Observable/Observable)を用いる。「Not Observable」は、ユーザの表面からは観察できない部分の情報(外部観察では分からない情報)を意味し、例えば、皮膚電気活動量や視線の検出結果等が含まれる。「Observable」は、ユーザの表面の観察から誰でも知ることができる部分の情報(外部観察で分かる情報)を意味し、例えば、小型ビデオ録画器やマイクにより取得される動画像データや音声データが含まれる。 In the first embodiment, “personal information level” (Not Observable / Observable) shown in FIG. 10 is used as a classification of information related to the user. "Not observable" means information of a portion which can not be observed from the surface of the user (information which can not be recognized by external observation), and includes, for example, the amount of skin electrical activity, the detection result of the line of sight, "Observable" means information of a part that can be known by anyone from the observation of the surface of the user (information understood by external observation), for example, moving image data and audio data acquired by a small video recorder or microphone included.
また、本第1の実施形態では、各個人情報レベルによって分類される情報を用いてユーザアフェクト判定されたユーザの状態や気持ちの開示に関する分類として、図10に示す「自己開示レベル」(Not Superficial/Superficial)を用いる。「Not Superficial」は、本人の人格のコアに及んでいて表面からは観察できない部分の自己開示(他人に知られていない自分の状態/気持ちの開示)を意味する。また、「Superficial」は、本人の表面的な部分に関する自己開示(表面の観察から誰でも知ることができる自分の状態/気持ちの開示)を意味する。なお、図10に示すように、個人情報レベルの「Not Observable」、「Observable」と、自己開示レベルの「Not Superficial」、「Superficial」は対応している。なお、図10に示す、個人情報レベル「Observable(conv)」と自己開示レベル「Superficial(intimate)」についての説明は後述する。 Also, in the first embodiment, the “self-disclosure level” (Not Superficial level) shown in FIG. 10 is used as a classification related to the disclosure of the user's state or feeling determined to be a user effect using information classified by each personal information level. / Superficial) is used. "Not Superficial" means self-disclosure (disclosure of one's condition / feeling that is not known to others) that extends to the core of the person's personality and can not be observed from the surface. Also, "Superficial" means self-disclosure about the superficial part of the person (disclosure of one's own state / feeling that anyone can know from observation of the surface). As shown in FIG. 10, personal information levels "Not Observable" and "Observable" correspond to self-disclosure levels "Not Superficial" and "Superficial". A description of the personal information level "Observable (conv)" and the self-disclosure level "Superficial (intimate)" shown in FIG. 10 will be described later.
ここで、本第1の実施形態の情報提供システム100は、図2に示すような建屋内をユーザAが歩いていく中で、与えられるガイダンスを個人ごとに異ならせるシステムであるとする。情報提供システム100は、図1、図2に示すように、情報処理端末10と、情報収集装置20、120と、情報提示装置110と、処理装置としてのサーバ30と、を備える。情報提供システム100に含まれる各装置は、無線通信回線、インターネットなどのネットワーク80に接続されている。本第1の実施形態の情報提供システム100は、クライアントソフトウェアの配置された側(ユーザ側)の情報処理装置(情報処理端末10、情報収集装置20、120、情報提示装置110)と、サーバソフトウェアの配置された側の情報処理装置(サーバ30)とが、全体の処理を分割して実現するシステムである。
Here, it is assumed that the
なお、以下においては、クライアントソフトウェアが実現するユーザへの提示は、ユーザに応じた情報提示を意味するものとする。また、クライアントソフトウェアがユーザから収集する情報は、ユーザと紐づけてシステム上に保管される。つまり、クライアントソフトウェアを実装する装置は、クライアントソフトウェアもしくはサーバソフトウェアによって、アクセス制御されている。そのため、クライアントソフトウェアやサーバソフトウェアによってユーザAであることが確認されていることを前提に情報収集や情報提示は行われる。 In the following, presentation to the user realized by the client software means presentation of information according to the user. Also, information collected by the client software from the user is stored in the system in association with the user. That is, the device implementing the client software is access controlled by the client software or server software. Therefore, information collection and information presentation are performed on the assumption that the user A is confirmed by client software or server software.
情報処理端末10は、ユーザ向けに設計されたクライアントソフトウェアの配置された端末であり、例えば、図2に示すような案内ボード型情報端末であるものとする。なお、情報処理端末10は、例えば、携帯電話、スマートフォン、タブレット型端末、装着型モバイル端末、PC(Personal Computer)等であってもよい。
The
図3(a)には、情報処理端末10のハードウェア構成が示されている。図3(a)に示すように、情報処理端末10は、CPU(Central Processing Unit)90、ROM(Read Only Memory)92、RAM(Random Access Memory)94、記憶部(ここではHDD(Hard Disk Drive))96、ネットワークインタフェース97、表示部93、入力部95及び可搬型記憶媒体用ドライブ99等を備えている。表示部93は、液晶ディスプレイ等を含み、入力部95は、タッチパネルなどを含む。これら情報処理端末10の構成各部は、バス98に接続されている。CPU90は、ROM92あるいはHDD96に格納されているプログラム、或いは可搬型記憶媒体用ドライブ99が可搬型記憶媒体91から読み取ったプログラムを実行することにより、情報処理端末10を図4に示す情報提示部12として機能させる。
The hardware configuration of the
情報提示部12は、ユーザに対する情報提示を行う。なお、情報提示部12は、画像による情報提示(表示部93への表示)のほか、スピーカを介した音声による情報提示等を行ってもよい。なお、ユーザへの情報提示の種類は、情報提示部12のスペック(表示部93のサイズやスピーカの許容ファイル種類等)に依存する。つまり、情報処理端末10では、情報提示に用いるインタフェースが確認されていることを前提に情報収集や情報提示が実行される。なお、情報処理端末10の情報提示部12は、表示部93上にアプリケーションC2の情報を提示する。
The information presentation unit 12 presents information to the user. Note that the information presentation unit 12 may perform information presentation by voice or the like via a speaker in addition to information presentation by an image (display on the display unit 93). The type of information presentation to the user depends on the specifications of the information presentation unit 12 (such as the size of the
情報収集装置20は、一例として、図2に示すような腕に装着されるリストバンド型の装置であるものとする。なお、情報収集装置20としては、リストバンド型の装置に代えて、ヘアバンド型の装置などを採用してもよい。情報収集装置20は、皮膚導電データ(皮膚電気活動値)を収集する情報収集部22を有し、ネットワーク80を介して情報処理端末10に送信する。皮膚電気活動値に関する技術は、「affdex社, Qセンサ(皮膚電気活動(EDA)センサ),http://qsensor-support.affectiva.com/,http://assistly-production.s3.amazonaws.com/168567/kb_article_attachments/30856/Q_User_Manual_20130329_original.pdf?AWSAccessKeyId=AKIAJNSFWOZ6ZS23BMKQ&Expires=1406699351&Signature=4lXmsO4t6XH%2FKG345KDwuHAGoDc%3D&response-content-disposition=filename%3D%22Q_User_Manual_20130329.pdf%22&response-content-type=application%2Fpdf」等に記載されている。
The
情報収集装置120は、図2に示すように、建屋内に設置された小型ビデオ録画器である。情報収集装置120は、動画像データを取得する情報収集部122を有し、取得した動画像データをサーバ30に送信する。
The
なお、情報収集部22,122が収集するデータとしては、上記に限らず、ユーザ反応を導出するためのデータ、例えば音声、生体信号、脳波等を採用することができる。なお、データによっては、1種類のセンサのデータから、ユーザ反応を導出するための中間的な情報を複数抽出できる場合もある。例えば、ユーザ記録映像であれば、顔パーツに注目すれば表情の変化の大小の情報が抽出でき、顔サイズの変化に注目すれば情報収集装置120に対するユーザの姿勢変化の情報が抽出できる。
The data collected by the information collecting unit 22 122 is not limited to the above, and data for deriving a user reaction, such as voice, a biological signal, an electroencephalogram, etc., can be adopted. Depending on the data, a plurality of pieces of intermediate information for deriving a user reaction may be extracted from data of one type of sensor. For example, in the case of a user-recorded video, information on the change in facial expression can be extracted by focusing on the face part, and information on posture change of the user with respect to the
情報提示装置110は、例えば、プロジェクタやスピーカを含み、建屋内において、ユーザに対して情報提示を行う情報提示部112を有している。なお、情報提示部112は、情報提示インタフェースがスクリーンや、スピーカであることが確認されていることを前提に情報提示を行う。なお、情報提示装置110の情報提示部112は、スクリーン等にアプリケーションC1の情報を提示する。
The
サーバ30は、サーバソフトウェアの配置された情報処理装置であり、ユーザのデータを集約し、整理して保管・分別・各種演算を行う。また、サーバ30は、ユーザに配信するコンテンツの提示形態の制御を含め、コンテンツ配信を同時に管理する。
The
ここで、本第1の実施形態では、サーバ30は、ユーザが機械やサービスに対してどのくらいの社会的距離の遠近をもって接しているかを、機械やサービスからの質問に対するユーザからの短い発話(回答)においてユーザが“他人に知られていない自分の状態/気持ち”を教えるかどうかに基づいて判定する。
Here, in the first embodiment, the
図3(b)には、サーバ30のハードウェア構成が示されている。図3(b)に示すように、サーバ30は、CPU190、ROM192、RAM194、記憶部(HDD等)196、ネットワークインタフェース197、及び可搬型記憶媒体用ドライブ199等を備えている。これらサーバ30の構成各部は、バス198に接続されている。CPU190は、ROM192あるいはHDD196に格納されているプログラム(処理プログラムを含む)、或いは可搬型記憶媒体用ドライブ199が可搬型記憶媒体191から読み取ったプログラム(処理プログラムを含む)を実行することにより、サーバ30が図3の各部として機能する。具体的には、CPU190がプログラムを実行することで、処理部としての情報提示処理制御部34、データ管理部36、社会的距離算出部38として、サーバ30が機能する。なお、社会的距離算出部38を含んで、判定部、判断部取得部、生成部としての機能が実現されている。
The hardware configuration of the
情報提示処理制御部34は、情報提示部12、112による情報提示を制御する。具体的には、情報提示処理制御部34は、社会的距離算出部38の算出結果に基づいて、情報提示部12,112からユーザに対して提示する情報を制御する(異ならせる)。なお、コンテンツはサーバ30より情報処理端末10や情報提示装置110に配信されるものとする。ただし、これに限らず、情報処理端末10や情報提示装置110が外部のコンテンツを受信し、ユーザに提示してもよい。
The information presentation process control unit 34 controls the information presentation by the
データ管理部36は、情報収集装置20,120(情報収集部22,122)において収集された情報を受信し、皮膚導電データ記録DB40、動画像データ記録DB42、音声データ記録DB44において管理する。
The
社会的距離算出部38は、データ管理部36が管理する情報(DB40,42,44等に格納されている情報)に基づいて、ユーザとアプリケーション、装置、サービス等との社会的距離の遠近を算出する。社会的距離算出部38は、算出した社会的距離の遠近についての情報を情報提示処理制御部34に送信する。
The social
なお、サーバ30が有する各DBの詳細については後述する。
In addition, the detail of each DB which the
なお、情報処理端末10やサーバ30等においては、1つの装置上に複数のユーザ(0人のユーザでもよい)が割り当てられている場合があってもよいし、1つの装置上に複数のソフトウェアシステムが格納されていてもよい。つまり、サーバソフトウェアとクライアントソフトウェアが1台の装置上に実装されていてもよい。また、例えば、一部機能や、一部データを他の装置上に切り離して保持するなど、1つのソフトウェアシステムの機能が複数の装置に分散されていてもよい。逆に複数の装置として表現される機能を1つの装置で実現してもよい。
In the
また、本第1の実施形態では、ユーザと紐づけてシステム上で管理される表示履歴データや外部連携データは、複数の個別のサービスがユーザ情報の管理を行っている可能性がある。このため、システム上で管理されている1人のユーザに対応するデータが、異なるユーザIDと紐づいて保管されている場合がある。この場合には、ユーザID相互の関連付けを行っておくことで、異なるユーザIDに紐づくデータを1人のユーザのデータとして利用することが可能となる。 In the first embodiment, there is a possibility that a plurality of individual services manage user information in relation to display history data and external cooperation data managed on the system in association with the user. For this reason, data corresponding to one user managed on the system may be stored in association with different user IDs. In this case, by associating the user IDs with each other, data linked to different user IDs can be used as data of one user.
(サーバ30による処理)
サーバ30では、情報収集装置20,120の情報収集部22,122から送信された情報から、ユーザの状態や気持ちを判定する「ユーザアフェクト判定」を実行する(ユーザアフェクト判定・記録処理)。また、サーバ30は、ユーザアフェクト判定の結果に基づいてユーザに対する質問を生成し、質問に対するユーザからの回答に基づいて社会的距離の遠近を算出する(社会的距離算出処理)。また、サーバ30は、算出した社会的距離の遠近に応じた情報を情報処理端末10に提示する(情報提示処理)。以下、各処理について説明する。
(Processing by server 30)
The
(1)ユーザアフェクト判定・記録処理
以下、サーバ30によるユーザアフェクト判定・記録処理について、図5のフローチャートに沿って説明する。なお、本処理の前提として、情報処理端末10をユーザAが利用しているものとする。この場合、情報処理端末10、情報提示装置110の情報提示部12、112のユーザでもあるユーザAは、表示部93上に提示されるアプリケーションC2の情報、スクリーン等に提示されるアプリケーションC1の情報を利用しているものとする。また、情報収集装置20,120のユーザでもあるユーザAの皮膚導電データや動画像データが、ユーザが建屋内にいる間に、情報収集装置20、120(情報収集部22,122)によって収集されるものとする。
(1) User Effect Determination / Recording Process Hereinafter, the user effect determination / recording process by the
この場合、情報収集装置20、120の情報収集部22、122で収集された皮膚導電データ及び動画像データは、情報収集部22,122において一旦収集される。そして、一旦収集されたデータは、適当なタイミングで、情報収集部22,122からサーバ30の情報提示処理制御部34に送信される。
In this case, the skin conduction data and the moving image data collected by the
なお、図5の処理は、サーバ30が、情報収集装置20、120から一定量以上のデータを受信したタイミングで実施されるものとする。ただし、これに限らず、サーバ30は、図5の処理を所定時間間隔で定期的に行ってもよい。
In addition, the process of FIG. 5 shall be implemented at the timing in which the
図5の処理では、まず、ステップS10において、データ管理部36がセンサ入力情報(皮膚導電データと動画像データ)を受け取る。また、データ管理部36は、センサ入力情報を、タイムスタンプ情報とともに皮膚導電データ記録DB40(図6(a))及び動画像データ記録DB42(図6(b))に記録する。
In the process of FIG. 5, first, in step S10, the
ここで、図6(a)には、皮膚導電データ記録DB40のデータ構造が示され、図6(b)には、動画像データ記録DB42のデータ構造が示されている。皮膚導電データ記録DB40は、図6(a)に示すように、「DB記録時刻」、「センサ記録時刻」、「ユーザ名」、「情報収集装置ID」、「皮膚電気活動値」の各フィールドを有する。このうち、「DB記録時刻」のフィールドには、皮膚導電データ記録DB40にデータが記録された日時の情報(タイムスタンプ)が格納され、「センサ記録時刻」のフィールドには、情報収集装置20において付加された皮膚導電データ取得時点のタイムスタンプが格納される。また、「ユーザ名」のフィールドには、ユーザの識別情報(名称等)が格納され、「情報収集装置ID」のフィールドには、皮膚導電データの収集を行った情報収集装置の識別情報(図6(a)では、図4において用いられている符号)が格納される。「皮膚電気活動値」のフィールドには、皮膚導電データの具体的な数値が格納される。なお、本実施形態では、「情報収集装置ID」のフィールドには、図4において情報収集装置20に付与されている符号「20」が格納される。
Here, FIG. 6 (a) shows the data structure of the skin conduction data recording DB 40, and FIG. 6 (b) shows the data structure of the moving image
一方、動画像データ記録DB42は、図6(b)に示すように、「DB記録時刻」、「センサ記録開始時刻」、「センサ記録終了時刻」、「ユーザ名」、「情報収集装置ID」、「動画像データ記録ファイルURI」の各フィールドを有する。「センサ記録開始時刻」のフィールドには、音声データの記録開始日時の情報(タイムスタンプ)が格納され、「センサ記録終了時刻」のフィールドには、音声データの記録終了日時の情報(タイムスタンプ)が格納される。その他のフィールドについては、皮膚導電データ記録DB40が有する対応するフィールドと同様のデータが格納される。なお、図6(b)では、情報収集装置IDとして、図4において情報収集装置120に付与されている符号「120」が格納される。また、「動画像データ記録ファイルURI」のフィールドには、動画像データのファイルの記録場所を示すURI(Uniform Resource Identifier)が格納される。
On the other hand, as shown in FIG. 6B, the moving image
なお、センサ入力情報には、建屋内に設置されたマイクから得られる音声データが含まれる場合もある。データ管理部36が、音声データを取得した場合には、取得した音声データを図7(a)に示すような音声データ記録DB44に格納する。音声データ記録DB44は、「DB記録時刻」、「センサ記録開始時刻」、「センサ記録終了時刻」、「ユーザ名」、「情報収集装置ID」、「音声データ記録ファイルURI」の各フィールドを有する。これら各フィールドについては、動画像データ記録DB42と同様であるので説明は省略する。なお、図7(a)の「情報収集装置ID」のフィールドには、マイクのID(実際には数値や文字等)が格納される。
The sensor input information may include voice data obtained from a microphone installed in the building. When the
図5に戻り、次のステップS12では、データ管理部36が、各DBに記録されたセンサ入力情報に基づいて、ユーザの行動ログを作成し、行動ログDB46に格納する。より具体的には、データ管理部36は、センサ入力情報に基づいて、外部技術を用いて行動ログ(本第1の実施形態では、ユーザの歩行時の行動、手の動き、手の発汗)の作成を行う。ここで、行動ログは、センサ入力情報をベースに、ユーザの行動の履歴をログとして蓄積するものである。行動ログの作成方法は、既に多くの提案がなされているが、本第1の実施形態では、外部技術を呼び出して用いることとしている。なお、データ管理部36は、1つのセンサ入力情報から1つの行動ログを作成してもよいし、複数(複数個又は複数種類)のセンサ入力情報から1つの行動ログを算出してもよい。また、新しく取得したセンサ入力情報からのみ行動ログを算出してもよいし、過去に記録したセンサ入力情報を含めて行動ログを算出してもよい。
Returning to FIG. 5, in the next step S12, the
図7(b)には、行動ログDB46のデータ構造が示されている。行動ログDB46は、図7(b)に示すように、「DB記録時刻」、「ユーザ行動時刻」、「ユーザ名」、「情報収集装置ID」、「行動ログタイプラベル」、「行動ログデータ」の各フィールドを有する。「DB記録時刻」のフィールドには、行動ログが行動ログDB46に記録された日時の情報(タイムスタンプ)が格納される。「ユーザ行動時刻」のフィールドには、ユーザが行動を行った日時(例えば、行動ログの基になったセンサ入力情報がDB40、44等に格納された日時)の情報(タイムスタンプ)が格納される。なお、図7(b)では、「ユーザ行動時刻」として、動画像データの「センサ記録開始時刻」を流用しているが、動画像データが長い場合には、行動ログ算出に使用した動画像のタイムフレームからユーザ行動の行われた時刻を更に正確に特定して記録してもよい。「ユーザ名」のフィールドには、行動ログの行動を行ったユーザの識別情報(名称等)が格納され、「情報収集装置ID」のフィールドには、行動ログの基になったセンサ入力情報を収集した装置のIDが格納される。更に、「行動ログタイプラベル」及び「行動ログデータ」のフィールドには、行動ログのタイプ(種類)や行動ログのデータが格納される。例えば、「行動ログタイプラベル」のフィールドには、歩行時の行動、手の動き、発汗などの具体的な情報が格納され、「行動ログデータ」のフィールドには、行動に関する具体的な情報が格納される。 The data structure of action log DB46 is shown by FIG.7 (b). The action log DB 46, as shown in FIG. 7 (b), "DB recording time", "user action time", "user name", "information collection device ID", "action log type label", "action log data Each field of Information (time stamp) of the date and time when the action log was recorded in the action log DB 46 is stored in the field of “DB recording time”. Information (time stamp) of the date and time when the user performed an action (for example, the date and time when the sensor input information based on the action log is stored in the DB 40, 44, etc.) is stored in the field of "user action time". Ru. In addition, although "sensor recording start time" of moving image data is diverted as "user action time" in FIG.7 (b), when moving image data are long, the moving image used for action log calculation The time at which the user action was performed may be more accurately identified and recorded from the time frame of In the field of "user name", identification information (name, etc.) of the user who performed the action of the action log is stored, and in the field of "information collection device ID", sensor input information based on the action log is stored. The collected device ID is stored. Furthermore, the fields of “action log type label” and “action log data” store the type (type) of the action log and data of the action log. For example, in the field of “action log type label”, specific information such as action during walking, hand movement, sweating and the like is stored, and in the field of “action log data”, specific information on action is Stored.
ここで、データ管理部36は、行動ログを生成する際に、システムデータ50(図4参照)を参照する。なお、システムデータ50には、図8の行動ログの個人情報レベル定義、図11(a)のアフェクト判定APIの個人情報レベル定義、図11(b)のアフェクト判定に使用する行動ログタイプとアフェクト判定API定義、図13(a)の質問文生成雛形リスト、図13(b)の応答解析に使用するアフェクト判定API定義等が含まれる。ここでは、データ管理部36は、システムデータ50のうち行動ログの個人情報レベル定義(図8)を参照する。なお、行動ログの個人情報レベル定義は、システム中に大量の行動ログ作成方法が存在している場合に、各ユーザに対して管理しておくべき行動ログ作成方法をあらかじめ定義するものである。なお、図8の行動ログの個人情報レベル定義においては、各行動ログタイプの「個人情報レベル」についても定義されている。データ管理部36は、取得したセンサ入力情報を用いて行動ログが得られるかを、行動ログの個人情報レベル定義において確認し、例えば、動画像データから歩行時の行動ログを生成する。一例として、図6(a)、図6(b)において具体値が入力された各3行が新規に取得したセンサ入力情報であったとする。この場合、データ管理部36は、最終行のデータ(時刻txにセンサ記録が行われたデータ)より一定時間kだけ遡った時刻tx-kまでの時刻tx-k〜txのデータを用いて、時刻txの行動ログを求める。
Here, when generating the action log, the
すなわち、皮膚電位データでいえば、図6(a)のセンサ記録時刻が「2014/7/12 11:00:01.040」のデータより一定時間を遡ったデータまでのデータを用いて、「2014/7/12 11:00:01.040」の行動ログを求める。図7(b)の行動ログDB46の3行目がこの「2014/7/12 11:00:01.040」のユーザAの手の発汗を記録したもので、ここでは、値を0から1の間に正規化した手の発汗のレベルを行動ログデータとして記録している。 That is, in the case of skin potential data, using the data up to a certain time after the data of “2014/7/12 12 11: 00: 01. 40” in the sensor recording time of FIG. 7/12 11: 00: 01. 040 ”for the action log. The third line of the action log DB 46 in FIG. 7 (b) records the perspiration of the hand of the user A of “2014/7/12 11: 00: 01.040”, and the value is between 0 and 1 here. The level of hand sweating normalized to is recorded as action log data.
また、図7(b)の行動ログDB46の1行目、2行目は、情報収集装置120でユーザAの様子をとらえた動画像からユーザAの動きを解析し、1行目は歩行時の行動のログとして、どこで一定時間以上静止したかを記録している。1行目の行動ログデータである、Stay <where>vegetable_area</where>は、この時刻において一定時間以上静止があり、静止した場所が野菜売り場であったことを意味する。
Further, in the first and second lines of the action log DB 46 in FIG. 7B, the motion of the user A is analyzed from the moving image in which the
2行目は手の動きのログとして、物を掴んで持ち上げた動作を記録している。行動ログデータである、Pickup <what>green pepper</what>は、この時刻に物を掴んで持ち上げた動作があり、動作の対象物がピーマンであったことを意味する。 The second line is a log of the movement of the hand, recording the movement of holding and lifting an object. Pickup <what> green pepper </ what>, which is action log data, means that at this time there is an action in which an object is picked up and lifted, and the object of action is a green pepper.
図5に戻り、次のステップS14では、データ管理部36が、更新後の行動ログを用いて、ユーザアフェクト判定を実行する。また、ステップS16では、ユーザアフェクト判定に用いた行動ログデータの時刻情報を基に、アフェクト判定時刻を決定し、判定したユーザアフェクトをユーザアフェクトログDB48に記録する。ここで、ユーザアフェクトログDB48は、図9に示すように、「DB記録時刻」、「アフェクト判定時刻(開始)」、「アフェクト判定時刻(終了)」、「ユーザ名」、「行動ログタイプラベル/アフェクト判定タイプラベル」、「自己開示レベル」、「ユーザアフェクト種類ラベル」、「ユーザアフェクト」の各フィールドを有する。
Returning to FIG. 5, in the next step S14, the
例えば、時刻txのユーザ行動ログとして、図7(b)の3つの異なる行動ログタイプラベルを持つ行動ログが記録されたとする。なお、ユーザアフェクト判定は、1つの行動ログから、ユーザアフェクトを判定するものもあれば、複数の行動ログを元にユーザアフェクトを判定するものもあれば、センサ入力情報を直接用いるものもある。本第1の実施形態では、一例として、データ管理部36は、1つの行動ログのみからユーザアフェクト判定を行うものとしている。
For example, it is assumed that an action log having three different action log type labels in FIG. 7B is recorded as the user action log at time tx. Note that the user effect determination may be a method of determining a user effect from one action log, a method of determining a user effect based on a plurality of action logs, and a method of directly using sensor input information. In the first embodiment, as an example, the
図9の上から4行目(4つ目)のデータは、行動ログタイプレベル「歩行時の行動」の行動ログを用いて、前回のユーザアフェクト判定が行われた時間区間の終了時刻(アフェクト判定時刻(終了):2014/7/12 11:00:00.000)や、図7(b)の行動ログDB46の上から1行目(1つ目)のユーザ行動時刻2014/7/12 11:00:01.040のデータ(行動ログ)が抽出され、該行動ログを用いて、ユーザアフェクト判定が行われた結果を示している。 The data in the fourth row (fourth) from the top of FIG. 9 is the end time of the time section in which the previous user effect determination was performed using the action log of the action log type level “action during walking” (affect Judgment time (end): 2014/7/12 11: 00: 00.000) or user action time 2014/7/12 of the first line (first one) from the top of the action log DB 46 in FIG. 7 (b) Data (action log) of 00: 01.040 is extracted, and the result of user effect determination is shown using the action log.
データ管理部36は、前回のアフェクト判定時刻(終了)をユーザアフェクトログDB48の「アフェクト判定時刻(開始)」のフィールドに記録する。またデータ管理部36は、アフェクトログ判定に用いたデータの最後のユーザ行動時刻を「アフェクト判定時刻(終了)」のフィールドに記録する。
The
また、データ管理部36は、どの程度の個人情報レベルの情報を用いてアフェクト判定を行ったかに基づいて、自己開示レベルを決定し、ユーザアフェクトログDB48の「自己開示レベル」のフィールドに記録する。
Further, the
具体的には、行動ログタイプラベルが歩行時の行動である場合、データ管理部36は、システムデータ50に含まれる行動ログの個人情報レベル定義(図8)を参照し、当該行動ログタイプラベルの個人情報レベル(Observable)に対応する自己開示レベル(Superficial)を図10から特定し、特定した自己開示レベルをユーザアフェクトログDB48の「自己開示レベル」のフィールドへ記録する。
Specifically, when the action log type label is the action during walking, the
なお、ユーザアフェクトログ48の「ユーザアフェクト種類ラベル」のフィールドについては、どのような種類のユーザアフェクトが記録されるかが明示されている。ユーザアフェクト判定に用いた「行動ログタイプラベル/アフェクト判定タイプラベル」が異なる場合であっても、このユーザアフェクト種類ラベルが一致するユーザアフェクトログについては、ユーザアフェクトの一致/不一致の判定が容易なデータ群として取り扱うことができる。
In the field of “user effect type label” of the
ステップS14では、データ管理部36は、図11(a)のアフェクト判定APIの個人情報レベル定義や、図11(b)のアフェクト判定に使用する行動ログタイプとアフェクト判定API定義を用いて、外部のユーザ反応定量化技術を呼び出し、センサ入力情報に基づいてユーザアフェクト(興味・関心のPositive/Neutral/Negative等)の作成を行う。なお、図11(a)のアフェクト判定APIの個人情報レベル定義は、アフェクト判定APIの個人情報レベルや、センサ入力情報のデータ種別や情報収集装置IDを定義する。また、図11(b)のアフェクト判定に使用する行動ログタイプとアフェクト判定API定義は、各ユーザにおいてアフェクト判定にどの行動ログタイプを用い、どのアフェクト判定APIを用いるかが定義されている。ユーザ反応の定量化方法は、既に多くの提案がなされており、本第1の実施形態では、皮膚導電データや動画像データに基づいてユーザのPositiveな感情又はNegativeな感情の推定を行う。
In step S14, the
なお、本人の表面的な部分の観察から知ることができないデータを用いたアフェクト判定手法としては、「iMotions社,Attention Tool API, http://imotionsglobal.com/software/attention-tool-api/」や、「Thomas Fritz, Andrew Begel, Sebastian C. Muller, Serap Yigit-Elliott, Manuela Zuger, Using Psycho-Physiological Measures to Assess Task Difficulty in Software Development, ICSE’14, 2014.」、「Erin T. Solovey, Marin Zec, Enrique Abdon Garcia Perez, Bryan Reimer, Bruce Mehler, Classifying Driver Workload Using Physiological and Driving Performance Data: Two Field Studies, CHI2014, 2014.」などを用いることができる。また、本人の表面的な部分に関する自己開示、すなわち表面の観察から誰でも知ることができる自分の状態/気持ちの開示の判定手法としては、「Emotient社, Emotient API , http://www.emotient.com/products」や、「Mary Ellen Foster, Andre Gaschler and Manuel Giuliani, How Can I Help You? Comparing Engagement Classification Strategies for a Robot Bartender, ICMI2013, 2013.」、「Chiew Seng Sean Tan, Johannes Schoning, Kris Luyten, Karin Coninx, Informing Intelligent User Interfaces by Inferring Affective States from Body Postures in Ubiquitous Computing Environments, IUI’13, 2013.」
などを用いることができる。
In addition, as an effect judgment method using data that can not be known from observation of the superficial part of the person, "iMotions, Attention Tool API, http://imotionsglobal.com/software/attention-tool-api/" Eh T. Solovey, "Thomas Fritz, Andrew Begel, Sebastian C. Muller, Serap Yigit-Elliott, Manuela Zuger, Using Psycho-Physiological Measures to Assess Task Difficulty in Software Development, ICSE '14, 2014.", "Erin T. Solovey, Marin Zec, Enrique, Abdon Garcia Perez, Bryan Reimer, Bruce Mehler, Classifying Driver Workload Using Physiological and Driving Performance Data: Two Field Studies, CHI 2014, 2014. and the like can be used. In addition, “Emotient, Emotient API, http: //www.emotient API, http: //www.emotient” is a self-disclosure for the superficial part of the person, that is, a determination method of the disclosure of one's own state / feeling that anyone can know from the observation of the surface. .com / products "," Mary Ellen Foster, Andre Gaschler and Manuel Giuliani, How Can I Help You? Comparing Engagement Classification Strategies for a Robot Bartender, ICMI 2013, 2013. "," Chiew Seng Sean Tan, Johannes Schoning, Kris Luyten " Karin Coninx, Informing Intelligent User Interfaces by Inferring Affecting States from Body Postures in Ubiquitous Computing Environments, IUI '13, 2013. "
Etc. can be used.
なお、上記においては、行動ログを用いてユーザアフェクト判定を行う例を挙げたが、センサ入力情報から直接ユーザアフェクト判定を行う実装があっても良い。この場合、アフェクト判定に使用する行動ログタイプとアフェクト判定API定義(図11(b))中に、使用するアフェクト判定APIを記載しておく。ここでは、ユーザAは、表情解析APIを用いて、ユーザアフェクト判定をすることができる。このようなアフェクト判定APIにおいては、個々に個人情報レベルや、どのセンサ入力情報、どの収集装置のデータを用いるかを、アフェクト判定APIの個人情報レベル定義(図11(a))のように事前にシステム中で定義している。このため、行動ログを用いてユーザアフェクト判定を行った場合と同様、ユーザアフェクト判定APIを用いてユーザアフェクト判定を行った場合も、その結果は、ユーザアフェクトログDB48に記録することができる。
In addition, although the example which performs a user effect determination using an action log was given in the above, there may be an implementation which performs a user effect determination directly from sensor input information. In this case, the effect determination API to be used is described in the action log type used for the effect determination and the effect determination API definition (FIG. 11B). Here, the user A can perform the user effect determination using the expression analysis API. In such effect determination API, the personal information level individually, which sensor input information and which collecting device data are used, as in the personal information level definition of the effect determination API (FIG. 11A). Defined in the system. Therefore, as in the case where the user effect determination is performed using the action log, even when the user effect determination is performed using the user effect determination API, the result can be recorded in the user
(2)社会的距離算出処理
次に、図12のフローチャートに沿って、社会的距離算出処理について、詳細に説明する。なお、図12の処理は、所定時間間隔で定期的に行ってもよいし、サーバ30の情報提示処理制御部34が情報提示部12,112を介して情報提示を開始する直前において行うこととしてもよい。
(2) Social Distance Calculation Process Next, the social distance calculation process will be described in detail with reference to the flowchart of FIG. Note that the processing in FIG. 12 may be performed periodically at predetermined time intervals, or may be performed immediately before the information presentation processing control unit 34 of the
図12の処理では、まず、ステップS30において、社会的距離算出部38が、ユーザアフェクトログDB48を確認する。そして、社会的距離算出部38は、同時間帯のデータのうち、SuperficialとNot Superficialとで、異なる(別のクラスに分類される)ユーザアフェクトが記録されているデータ(時間帯も含む)を抽出する。
In the process of FIG. 12, first, in step S30, the social
本第1の実施形態では、ユーザアフェクトの値の種類がPositive/Neutral/Negativeであり、Neutralはどちらの値とも判定することができなかった場合を意味している。したがって、本第1の実施形態では、別のクラスに分類されるケースは、いずれかがPositive又はNegativeに分類されるケースとなる。 In the first embodiment, the type of the value of the user effect is Positive / Neutral / Negative, and Neutral means a case where it can not be determined with either value. Therefore, in the first embodiment, cases classified into another class are cases classified into either Positive or Negative.
ステップS30では、具体的には、社会的距離算出部38は、図9のユーザアフェクトログDB48の上から5、6番目(5,6行目)のデータのように、SuperficialなデータとNot Superficialなデータとで、Positive/Negativeいずれかの別々のクラスに分類される時間帯を抽出する。抽出した時間帯は、Observableなデータを基に判定したユーザアフェクトと、Not Observableなデータを基に判定したユーザアフェクトとが異なる時間帯であり、“表面の観察から誰でも知ることができる自分の状態/気持ち”と“他人に知られていない自分の状態/気持ち”とが異なっていた可能性のある時間帯である。
In step S30, specifically, the social
次いで、ステップS32では、抽出した時間帯に関するデータを行動ログDB46等から抽出し、当該時間帯のアフェクトをたずねる質問文を生成する。具体的には、社会的距離算出部38は、抽出した時間帯について持っている情報を、図7に示した行動ログDB46から抽出するとともに、図6(a)や図6(b)に示したような各センサから記録されたセンサ入力情報を抽出する。
Next, in step S32, data relating to the extracted time zone is extracted from the action log DB 46 or the like, and a question sentence asking for an effect in the time zone is generated. Specifically, the social
例えば、時間帯として2014/7/12 11:00:00.000から2014/7/12 11:00:01.040までが抽出されたとする。この場合、社会的距離算出部38は、抽出された時間帯の行動ログDB46を参照し、歩行時の行動が「Stay <where>vegetable_area</where>」であったことや、手の動きが「Pickup <what>green pepper</what>」であったことを抽出する。
For example, it is assumed that a period of 2014/7/12 11: 00: 00.000 to 2014/7/12 11: 00: 01.040 is extracted as a time zone. In this case, the social
そして、社会的距離算出部38は、システムデータ50に含まれる図13(a)に示す質問文生成雛形リストにあらかじめ準備されている雛形の中から、抽出した情報を利用できるものを選択する。この場合、社会的距離算出部38は、質問文生成雛形リストに登録されている雛形を上から順番に選択してもよいし、ランダムに選択してもよい。ここでは、一例として、[where]の情報を抽出したため、社会的距離算出部38は、図13(a)1つ目の雛形を選択したものとする。その後、社会的距離算出部38は、行動ログデータとして記録されている<where>と</where>でタグ付けされた場所の記録を使用して、雛形にあてはめ、「<where>vegetable_area</where>にいた時、何かありましたか?」のような質問文を生成する。なお、場所については、英単語そのまま用いてもよいし、より自然な発話になるように、対訳語をリスト化しておき、ユーザに合わせて言語翻訳を行った後に発話をしてもよい。
Then, the social
次いで、ステップS34では、社会的距離算出部38は、情報処理端末10等を介して、生成した質問文を用いてユーザに対する質問を行い、ユーザからの回答をセンサ入力情報として記録する。また、ステップS36では、社会的距離算出部38は、ユーザアフェクト判定を行う。
Next, in step S34, the social
ここで、センサ入力情報は、図6(a)や図6(b)、あるいは図7(a)で示したようにセンサで常時取得され、情報収集装置20,120からサーバ30に集約されて記録されているデータである。また、システム中で用いることができるアフェクト判定は複数あり、また、応答時ユーザアフェクト判定に用いることができるアフェクト判定は、ユーザが対話相手に対して提示している情報を用いて精度よく相手のアフェクト判定を行う特徴を有している必要がある。このため、本実施形態では、あらかじめ用いるアフェクト判定APIを評価し、システムデータ50において定義付けしておく必要がある。
Here, sensor input information is constantly acquired by the sensor as shown in FIG. 6A, FIG. 6B, or FIG. 7A, and is collected from the
ここでは、応答解析において使用可能なアフェクト判定APIは、図13(b)の応答解析に使用するアフェクト判定API定義のような形で定義づけされる。なお、図13(b)の定義には、「高精度順位」と、「アフェクト判定API」と、「センサ入力情報」と、「情報収集装置ID」のフィールドが設けられている。「高精度順位」のフィールドには、応答解析の精度が高いAPIほど小さい数字が入力される。その他のフィールドについては、図11(a)の定義が有するフィールドと同様である。社会的距離算出部38は、持っているセンサ入力情報をもとに、高精度順位の高いアフェクト判定APIを使用可能であるかを確認する。例えば、情報収集装置120から得た動画像データ、音声データがシステム中に記録されている場合には、詳細顔画像・音声解析APIを用いて、応答時のユーザアフェクト判定を行う、という風に使用可能なアフェクト判定APIを決定する。
Here, the effect determination API usable in the response analysis is defined in the form of the effect determination API definition used for the response analysis in FIG. 13 (b). In the definition of FIG. 13B, fields of “high accuracy order”, “effect determination API”, “sensor input information”, and “information collection device ID” are provided. In the field of "high precision order", the smaller the API with the higher precision of response analysis, the smaller the number is input. The other fields are the same as the fields included in the definition of FIG. The social
次いで、ステップS38では、社会的距離算出部38は、社会的距離の遠近判定を行う。
Next, in step S38, the social
この場合、社会的距離算出部38は、ステップS36で判定した応答時ユーザアフェクトが、ステップS30で抽出された時間帯における、“他人に知られていない自分の状態/気持ち”と一致している場合には、社会的距離が近いと判定する。一方、一致しなかった場合には、社会的距離が近いとは言えないので、社会的距離算出部38は社会的距離が遠いと判定する。
In this case, the social
図9のユーザアフェクトログDB48から抽出した時間帯では、Superficialな自己開示レベルのデータがPositiveで、Not Superficialな自己開示レベルのデータがNegativeという風に、“表面の観察から誰でも知ることができる自分の状態/気持ち”と、“他人に知られていない自分の状態/気持ち”とで、状態/気持ちが異なっていた可能性があり、ユーザに質問文によって、その時間帯の気持ちを尋ねた場合に、ユーザが“他人に知られていない自分の状態/気持ち”を自己開示する場合には、社会的距離が近いと判定をするものである。
In the time zone extracted from the user
ステップS38では、社会的距離算出部38は、図14に示すように、判定した社会的距離の遠近を記録する。なお、図14の社会的距離DB52は、「DB記録時刻」、「社会的距離計算区間始点時刻」、「ユーザ名」、「アプリID」、「社会的距離の遠近」の各フィールドを有する。例えば社会的距離が近い場合には「社会的距離の遠近」のフィールドに“SD”が入力され、遠い場合には“LD”が入力される。この際、社会的距離算出部38は、社会的距離の遠近を、質問文を投げかけたアプリケーションに対するもの(本実施形態ではアプリケーションC2に対するもの)として記録する。また、社会的距離算出部38は、上記においてユーザアフェクトログの使用したデータのうち最も古いタイムスタンプを、社会的距離計算区間始点時刻として記録する。また、社会的距離DB52にこの記録処理を行った時刻をDB記録時刻として記録する。
In step S38, as shown in FIG. 14, the social
(3)サーバ30による情報提示処理
次に、サーバ30(情報提示処理制御部34)による情報提示処理について説明する。情報提示処理制御部34は、社会的距離の遠近に応じた利用範囲で、利用する情報制限を行い、情報提示を行う。
(3) Information Presentation Process by
本実施形態では、上記(2)の処理において、ユーザAと建屋内で提供するサービスとの社会的距離の遠近が明確になったため、情報提示処理制御部34は、社会的距離の遠近に基づいてユーザAに提供する情報を制御する(異ならせる)。 In the present embodiment, since the perspective of the social distance between the user A and the service provided in the building is clarified in the process of (2), the information presentation processing control unit 34 determines the social distance based on the perspective. Control the information provided to user A (different).
例えば、図14の上から5つ目の社会的距離の遠近(SD)が求められた場合には、社会的距離が近いので、情報提示処理制御部34は、ユーザAのプライバシに関連する情報を提供することができ、よりユーザAに適した情報の提供をすることができる。これにより、ユーザとアプリケーションやサービス、装置との社会的距離の遠近に応じた情報をユーザに対して提供することができる。 For example, when the fifth social distance distance (SD) from the top of FIG. 14 is determined, the information presentation processing control unit 34 determines information related to the privacy of the user A because the social distance is short. Can be provided, and more appropriate information can be provided to the user A. In this way, it is possible to provide the user with information according to the distance between the user and the social distance between the application, the service, and the device.
以上、詳細に説明したように、本第1の実施形態によると、社会的距離算出部38が、生成した質問に対して、ユーザがユーザ以外に知られていない情報を含む内容の回答を行ったか否かを判定し、ユーザが該ユーザ以外に知られていない情報を含む内容の回答を行った場合に、該ユーザ以外に知られていない情報を含まない内容の回答を行った場合よりも、ユーザと回答先(アプリケーションやサービス)との社会的距離が近いと判断する(S38)。これにより、ユーザの回答に基づいて、社会的距離の遠近を自動的に精度よく判断することが可能となる。
As described above in detail, according to the first embodiment, the social
また、本第1の実施形態では、情報提示処理制御部34は、社会的距離の遠近に基づいて、ユーザに提供する情報の内容を異ならせるので、ユーザに対して社会的距離にそぐわない情報を提示するのを抑制することができる。これにより、ユーザには適切な情報が提示されるため、アプリケーションやサービスに対してユーザが悪い印象を抱くのを防止することができる。また、アプリケーションやサービスは、ユーザと良好な関係を維持しながら継続的に情報提供することができる。 Further, in the first embodiment, the information presentation processing control unit 34 changes the content of the information to be provided to the user based on the perspective of the social distance, so information not corresponding to the social distance with respect to the user is It is possible to suppress presentation. As a result, appropriate information is presented to the user, so that it is possible to prevent the user from having a bad impression on the application or service. In addition, applications and services can continuously provide information while maintaining a good relationship with the user.
また、本第1の実施形態では、ユーザの行動ログを取得し、取得した情報に基づいて質問を生成するので、社会的距離を判断するために必要な質問を自動的に生成することができる。 Further, in the first embodiment, since the action log of the user is acquired and the question is generated based on the acquired information, the question necessary to determine the social distance can be automatically generated. .
また、本第1の実施形態では、社会的距離算出部38は、ユーザの行動ログのうち、外部観察からは明らかでないユーザの状態又は気持ちに関する情報(ユーザアフェクト)と、外部観察から明らかなユーザの状態又は気持ちに関する情報とが異なる種類である時間帯におけるユーザの行動ログに基づいて質問を生成する。これにより、ユーザからの質問に対する回答に基づいて、ユーザとアプリケーション等との社会的距離の遠近を精度良く判断することができる。
Further, in the first embodiment, the social
また、本第1の実施形態では、ユーザが回答を行ったときのユーザの状態又は気持ちに関する情報が、外部観察からは明らかでないユーザの状態又は気持ちに関する情報と、外部観察から明らかなユーザの状態又は気持ちに関する情報のいずれと一致するかに基づいて、ユーザがユーザ以外に知られていない情報を含む内容の回答を行ったか否かを判定する。これにより、判定結果に基づいて、社会的距離の遠近を精度良く判断することができる。 In the first embodiment, information on the user's state or feeling when the user gives an answer is information on the user's state or feeling not apparent from the external observation and the user's state apparent from the external observation Alternatively, based on which of the information related to the feeling is matched, it is determined whether or not the user has made a content response including information that is unknown only to the user. Thereby, the perspective of the social distance can be accurately determined based on the determination result.
なお、上記第1の実施形態では、ユーザが該ユーザ以外に知られていない情報が、自己開示レベルが「Not Superficial」な行動ログである場合について説明したが、これに限られるものではない。例えば、ユーザが他者に対して開示していないと認識している情報(趣味、嗜好などの情報)であってもよい。すなわち、社会的距離算出部38は、ユーザが他者に対して開示していないことを認識している情報に関連する質問を行い、ユーザが質問に対して回答した内容が、他者に対して開示していないと認識している情報を含んでいた場合には、社会的距離が近いと判断することとしてもよい。
In the first embodiment described above, the case where the information that the user is not known other than the user is the action log whose self-disclosure level is "Not Superficial" is not limited to this. For example, it may be information (information such as hobbies and preferences) that the user recognizes as not being disclosed to others. That is, the social
《第2の実施形態》
次に、第2の実施形態について、図15〜図17に基づいて説明する。本第2の実施形態では、自己開示レベルを本人の人格のコアに及んでいて表面からは観察できない部分の自己開示に類するものか/そうでないかという分類以外の分類も用いて、ユーザアフェクトログを生成する点が、上述した第1の実施形態と異なる。
Second Embodiment
Next, a second embodiment will be described based on FIG. 15 to FIG. In the second embodiment, the user effect log is used with classification other than the classification of whether the self-disclosure level extends to the core of the person's personality and is similar to self-disclosure of a portion that can not be observed from the surface. Is different from the first embodiment described above in that
本第2の実施形態では、図15に示すように、情報提供システム100’は、情報処理端末10’と、情報処理端末10’に接続された情報収集装置20と、を備える。情報処理端末10’は、図16に示すように、ユーザ(ユーザBとする)が常時携帯する端末(例えばスマートフォンや携帯電話など)である。また、情報収集装置20は、第1の実施形態と同様、ユーザBの腕等に装着される装置である。情報処理端末10’と情報収集装置20との間は、Bluetooth(登録商標)等により通信可能に接続されている。その他の構成等については、第1の実施形態と同様である。
In the second embodiment, as shown in FIG. 15, the information providing system 100 'includes an information processing terminal 10' and an
本実施形態では、ユーザBが常時携帯する情報処理端末10’において使用しているアプリケーションC0が存在しており、また、ユーザBが1つの建屋を歩いていく中で情報提示装置110によって提示される空間が個人によって異なる。なお、本実施形態では、情報収集装置120が動画像データの他、音声データを収集する(図7(a)参照)。
In the present embodiment, there is an application C0 used by the
ここで、サーバ30のデータ管理部36は、図11(b)に示すアフェクト判定に使用する行動ログタイプとアフェクト判定API定義DBに基づいて、ユーザアフェクトログの生成を行う。
Here, the
この場合、データ管理部36は、図8の行動ログの個人情報レベル定義DBと、図11(a)のアフェクト判定APIの個人情報レベル定義DBに示すように、個人情報レベルがそれぞれ、歩行時の行動がObservable、手の発汗がNot Observable、音声解析APIがObservable(conv)である情報を行動ログ生成時やアフェクト解析時において用いる。なお、Observable(conv)は、図10に示すように、(対話相手であれば)表面の観察から誰でも知ることができる部分の情報を意味する。また、個人情報レベル(Observable(conv))は、自己開示レベル(Superficial(intimate))に対応する。Superficial(intimate)は、(対話相手に対する)本人の表面的な部分に関する自己開示、すなわち(対話相手であれば)表面の観察から誰でも知ることができる自分の状態/気持ちの開示を意味する。 In this case, as shown in the personal information level definition DB of the action log of FIG. 8 and the personal information level definition DB of the effect determination API of FIG. The information that the behavior of is Observable, the hand sweating is Not Observable, and the speech analysis API is Observable (conv) is used at the time of action log generation or effect analysis. Note that, as shown in FIG. 10, Observable (conv) means information of a part that anyone can know from observation of the surface (if it is a dialogue partner). The personal information level (Observable (conv)) corresponds to the self disclosure level (Superficial (intimate)). Superficial (intimate) means self-disclosure about the surface part of the person (with respect to the conversation partner), that is, disclosure of one's own state / feeling that anyone can know from the observation of the surface (if it is the conversation partner).
これら個人情報レベルは、どのセンサから収集され、どのような人の行動を取り扱うかという点からシステム毎に管理者の判断で定義される。本実施形態では、歩行時の行動は、情報収集装置120がユーザを遠隔から撮影した動画像データを用いて収集する。また、音声解析APIは、携帯型の端末(情報処理端末10’)で採取された音声データを用い、手の発汗は、情報収集装置20で採取された生体電位データ(皮膚電気活動量)を用いて収集する。
These personal information levels are defined at the discretion of the administrator for each system in terms of which sensor is collected and what kind of person's action is handled. In the present embodiment, the action at the time of walking is collected using moving image data obtained by photographing the user remotely by the
本実施形態においては、データ管理部36は、図17の処理を実行する。具体的には、データ管理部36は、ステップS10、S12を上記第1の実施形態と同様に実行した後、ステップS114において、以下のようにしてユーザアフェクト判定処理を実行する。
In the present embodiment, the
すなわち、ステップS114では、データ管理部36は、最もPositiveな状態を1、最もNegativeを0とした正規化したスコアによりユーザアフェクトを求める。なお、ユーザアフェクト判定技術については、第1の実施形態と同様、既存の技術を用いる。なお、対話相手には知られているデータを用いたアフェクト判定としては、「M. E. Hoque et. al, Robust Recognition of Emotion from Speech, 6th International Conference on Intelligent Virtual Agents (IVA), 2006.」や、「Chiew Seng Sean Tan, Johannes Schoning, Kris Luyten, Karin Coninx, Informing Intelligent User Interfaces by Inferring Affective States from Body Postures in Ubiquitous Computing Environments, IUI’13, 2013.」や、「Yale Song, Louis-Philippe Morency, Randall Davis, Learning a Sparse Codebook of Facial and Body Microexpressions for Emotion Recognition, ICMI2013, 2013.」を採用することができる。
That is, in step S114, the
次いで、ステップS116では、データ管理部36は、行動ログ生成時やアフェクト解析時に用いた個人情報レベルObservable/ Observable(conv)/Not Observableを参照し、ユーザアフェクトログの自己開示レベルに対してもSuperficial/ Superficial(Intimate)/ Not Superficialの対応する分類のいずれかを記録する。ユーザアフェクトの種類は、ここではNormScore(Positive-Negative)という、正規化したスコアが記録されていることを示すラベルを用いる。ユーザアフェクトの値としては、外部のユーザアフェクト判定技術を用いて、0から1の間の数値を使用する。そして、データ管理部36は、複数の自己開示レベルのユーザアフェクトログをタイムスタンプ情報とともに図18に示すように蓄積する。
Next, in step S116, the
また、本第2の実施形態では、社会的距離算出部38は、社会的距離の遠近判定を、図19のフローチャートに沿って実行する。図19のステップS130では、社会的距離算出部38が、用いる自己開示レベルにおいて全ての分類でユーザアフェクトが不一致となる時間帯を抽出する。なお、正規化されたスコアであるユーザアフェクトのどこからどこまでを一致又は不一致と判定するかについては、事前にシステムで定義しておけばよい。例えば、0から1の間を3分割し、Class1=0〜0.3、Class2=0.4〜0.6、Class3=0.7〜1、のようにクラス分けし、抽出した時間帯のデータによって、Not SuperficialはClass1、Superficial(Intimate)はClass2、Not SuperficialはClass3といった形で、スコアを各クラスに割り当てて用いても良い。あるいは、(スコアの最大値(=1)−スコアの最小値(=0))/分割クラス数(=3)/2で、各クラスの幅を先に決定し、抽出した時間帯のユーザアフェクト値を各クラスの中央値としてクラスを定義してもよい。本実施形態では、クラスの幅を0.16とすると、各クラスの中央値が0.1、0.4、0.9であるとき、各クラスはClass1=0〜0.26、Class2=0.24〜0.56、Class3=0.74〜1となる。この場合、Class1とClass2の間に重複する範囲がある。したがって、重複する範囲はユーザアフェクト解析の結果の切り分けが困難な領域であるとして、用いないこととし、Class1=0〜0.23、Class2=0.27〜0.56、Class3=0.74〜1のように調整を行ってもよい。
Also, in the second embodiment, the social
社会的距離算出部38は、図19のステップS32、ステップS34、ステップS36を上記第1の実施形態と同様に実行する。そして、社会的距離算出部38は、ステップS38において、質問への応答時のユーザアフェクトが、抽出した時間帯のNot Superficialなデータを用いて判定したユーザアフェクトと一致するか(ユーザアフェクトの値がClass3内の値か)を判定する。ユーザアフェクトの値がClass3内の値であった場合には、社会的距離算出部38は、社会的距離が近いと判定する。それ以外のケースでは、Class2に一致していた場合には、社会的距離の遠近が中程度とし、Class1に一致していた場合には、社会的距離が遠いとする。このように社会的距離の遠近を遠い/近いのみでなく複数レベルに分けて評価することで、情報提示のレベルをこの社会的距離の遠近のレベルに合わせて行うことが可能となる。
The social
《第3の実施形態》
次に、第3の実施形態について、図20,図21に基づいて説明する。本第3の実施形態では、ユーザアフェクトログDB48中の複数時間帯の中から、異なる自己開示レベル毎に異なるユーザアフェクトとなっている複数の時間帯を抽出する点が、上記第1の実施形態と異なる。
Third Embodiment
Next, a third embodiment will be described based on FIG. 20 and FIG. In the third embodiment, among the plurality of time zones in the user
具体的には、社会的距離算出部38が、ユーザアフェクトログDB48に蓄積されているユーザアフェクトに基づいて社会的距離の遠近の判定を行う場合(図20)、ステップS230において、質問文を生成する対象となる時間帯を複数抽出する。この場合の抽出の条件は、抽出した時間帯全体において、「Not Superficial」なデータと、「Superficial」なデータとから判定されるユーザアフェクト(Positive/Neutral/Negative)が一致しないことである。このような時間帯であれば、複数の時間帯を抽出した場合であっても、ユーザが回答した内容によって、ユーザ応答時のアフェクトと、記録されているNot Superficialな自己開示レベルのユーザアフェクトとが一致するかどうかによって、社会的距離の遠近を判定することが可能である。
Specifically, when the social
図21には、本実施形態のユーザアフェクトログDB48の一例が示されている。上述した抽出の条件として挙げた、複数時間帯において、Not Superficialなデータと、Superficialなデータであるユーザアフェクトが一致しない時間帯としては、図21の上から1つ目及び2つ目の時間帯(t1とする)、及び上から3つ目及び4つ目の時間帯(t2とする)が挙げられる。この場合、時間帯t1では、Superficialな自己開示レベルのユーザアフェクトがPositiveであり、時間帯t2では、Not Superficialな自己開示レベルのデータから推測されたユーザアフェクトがNegativeであり、それ以外は明確でなくneutralとして記録されている。したがって、t1とt2においては、Not Superficialなデータと、Superficialなデータとでユーザアフェクトが一致していないため、ステップS230では、これらの時間帯が抽出されることになる。
An example of the user
図20の以降の処理(S32〜S38)は、第1の実施形態(図12)と同様である。なお、質問文生成(S32)においては、社会的距離算出部38は、複数の時間帯それぞれについて生成される複数の質問をより自然にユーザへ尋ねるために、複数の質問文を1つの質問文へ変換してもよい。また、上記においては、自己開示レベルがSuperficialとNot Superficialとの2つのレベルのいずれかである場合について説明したが、これに限られるものではない。第2の実施形態のように自己開示レベルが3つ以上の場合であっても、同様の処理を行うことができる。
The subsequent processes (S32 to S38) of FIG. 20 are the same as those of the first embodiment (FIG. 12). In addition, in question sentence generation (S32), in order to ask the user more naturally the plurality of questions generated for each of the plurality of time zones, the social
《第4の実施形態》
次に、第4の実施形態について、図22に基づいて説明する。本第4の実施形態では、ユーザアフェクトログDB48中の複数時間帯の中から、異なる自己開示レベル毎に一定時間以上継続しているユーザアフェクトを持つ(単一もしくは複数の)時間帯を抽出する点が、上記第1の実施形態と異なる。
Fourth Embodiment
Next, a fourth embodiment will be described based on FIG. In the fourth embodiment, among a plurality of time zones in the user
この場合、社会的距離算出部38は、図22のステップS330において、質問文を生成する対象となる時間帯をユーザアフェクトの持続時間が長いことを条件に抽出する。
In this case, in step S330 in FIG. 22, the social
具体的には、社会的距離算出部38は、ユーザアフェクトログDB48を参照し、Superficialで同じユーザアフェクトが連続して記録されている時間帯と、Not Superficialで同じユーザアフェクトが連続して記録されている時間帯とを検索する。そして、検索されたSuperficialとNot Superficialとで、ユーザアフェクトが一致しないケースの中で最も長く時間帯が重複している時間帯を抽出する。
Specifically, the social
最も長く時間帯が重複している時間帯を抽出する場合、各時間帯のSuperficial/Not Superficialなデータのユーザアフェクトが完全に不一致でなくてもよい。上記第3の実施形態のように、抽出した時間帯全体において、Not Superficialなデータと、Superficialなデータとでユーザアフェクトが一致しない場合も含めることとしてもよい。 When extracting a time zone that has the longest overlap of time zones, it is not necessary for the user effects of Superficial / Not Superficial data in each time zone to be completely unmatched. As in the third embodiment, it is also possible to include the case where the user effect does not match between the Not Superficial data and the Superficial data in the entire extracted time zone.
なお、ユーザアフェクトの持続時間が長いことを条件に時間帯を抽出すると、質問文生成において、毎回同じような時間帯が選ばれる可能性がある。この場合、毎回同じ質問を行ってしまうことで、ユーザを飽き飽きさせてしまう場合がある。このような場合には、質問文生成に一度使用した時間帯のデータは、ある一定時間質問文生成に用いることを停止するなどしてもよい。その他の処理は、第1の実施形態と同様である。 If a time zone is extracted on the condition that the duration of the user effect is long, a similar time zone may be selected each time in the question sentence generation. In this case, the user may get bored by asking the same question each time. In such a case, data of a time zone used once for generating a question sentence may be stopped from being used for generating a question sentence for a certain period of time. The other processes are the same as in the first embodiment.
以上のように、本第4の実施形態では、社会的距離の遠近を判定するために用いる時間帯として極端に短い時間が抽出されない。これにより、ユーザアフェクトの持続時間が短いことにより、ユーザに記憶が残っておらず、社会的距離の遠近を判断するための質問に対するユーザの応答が曖昧なものとなってしまう可能性を低減することが可能となる。 As described above, in the fourth embodiment, an extremely short time is not extracted as a time zone used to determine the perspective of the social distance. This reduces the possibility of the user's response to a question for determining the perspective of the social distance becoming vague due to the fact that the duration of the user effect is short and the user has no memory left. It becomes possible.
《第5の実施形態》
次に、第5の実施形態について、図23〜図26に基づいて説明する。本第5の実施形態では、社会的距離算出部38は、自己開示レベルの共通する時間帯における複数のユーザアフェクトログを用いてユーザアフェクト確信度を算出し、質問文生成においてユーザアフェクト確信度の高い時間帯を抽出する点が、上記第1の実施形態とは異なる。
Fifth Embodiment
Next, a fifth embodiment will be described based on FIG. 23 to FIG. In the fifth embodiment, the social
なお、本第5の実施形態では、一例として、Not Superficialなデータとして視線データが含まれるものとし、図24に示すような視線データ記録DB(サーバ30が保持)にデータが蓄積されるものとする。視線データは、図23に示すようなユーザAが装着する装着型の情報処理端末210が有する視線追跡部により収集される。なお、ユーザAは、情報処理端末210においてアプリケーションC0を利用しているものとする。アプリケーションC0は、ユーザにパーソナライズされた3D空間を提示するアプリケーションであり、空間内を帯同して歩くコンパニオン型のソフトウェアエージェントとの対話の提示・処理も行う。また、アプリケーションC0は、小型ビデオ録画機器である情報収集装置120を通じて音声と動画像データを収集し、情報処理端末210の視線追跡部を通じて視線データを収集する。なお、情報提示や情報収集にあたっては、サーバ30と情報処理端末210及び情報収集装置120との間の通信が成立している。また、ユーザAが建屋内のサービスを利用し始めた段階で、情報処理端末210や情報収集装置120で取得されたデータが、サーバ30に送付され、サーバ30にて保管される。
In the fifth embodiment, as an example, it is assumed that line-of-sight data is included as Not Superficial data, and data is accumulated in a line-of-sight data recording DB (held by server 30) as shown in FIG. Do. The line-of-sight data is collected by the line-of-sight tracking unit of the wearable
更に、ユーザAは、建屋内において、複数ユーザが同じ空間に共存するための最適提示を行うアプリケーションC1を利用している。アプリケーションC1は情報提示装置110を介して、建屋の壁や床や中空(空中)への情報のプロジェクションを通じた情報提示を行うことができる。
Furthermore, the user A uses the application C1 that performs optimal presentation for coexistence of multiple users in the same space in the building. The application C1 can perform information presentation through projection of information on a wall, floor or hollow (air) of a building through the
本第5の実施形態において、社会的距離算出部38は、蓄積されたユーザアフェクトログDB48に基づいて、社会的距離の遠近の判定を行う(図25参照)。図25の処理では、ステップS430においては、社会的距離算出部38は、質問文を生成する対象となる時間帯を、ユーザアフェクト確信度が高いことを条件として抽出する。
In the fifth embodiment, the social
ここで、ユーザアフェクト確信度とは、同一時間帯に自己開示レベルにおいて複数のユーザアフェクトログがある場合に、どのくらい高い割合で、ユーザアフェクトが一致しているかを示す指標である。 Here, the user effect certainty factor is an index indicating how high a user effect matches when there are a plurality of user effect logs at the self-disclosure level in the same time zone.
図26には、本第5の実施形態におけるユーザアフェクトログDB48の一例が示されている。図26に示すユーザアフェクトログDB48においては、SuperficialとNot Superficialな自己開示レベルとで、それぞれ2つずつのデータが記録されており、SuperficialではNeutralとPositive、Not SuperficialではNegativeが記録されている。これより、ユーザアフェクト確信度は、SuperficialではPositiveが1/2(又はNeutralが1/2)、Not SuperficialではNegativeが2/2と算出できる。なお、別の時間帯において、この時間帯よりもユーザアフェクト確信度が高くなる時間帯がある場合には、そのユーザアフェクト確信度が高い時間帯を質問文生成用の時間帯として抽出する。なお、ユーザアフェクト確信度の時間帯間における比較は、SuperficialとNot Superficialにおける平均値を用いてもよいし、優先する個人情報レベルだけのユーザアフェクト確信度を用いてもよい。
FIG. 26 shows an example of the user
《第6の実施形態》
次に、第6の実施形態について説明する。本第6の実施形態では、ユーザアフェクトが起こったと予想される時刻へ補正したタイムスタンプ情報とともにユーザアフェクトを記録する点が、上記第1の実施形態とは異なる。
Sixth Embodiment
Next, a sixth embodiment will be described. The sixth embodiment is different from the first embodiment in that a user effect is recorded together with time stamp information corrected to a time when a user effect is expected to occur.
アフェクト判定に用いるデータ次第では、行動が観察された時刻と、ユーザアフェクトが起こった時刻との間にずれが生じる場合がある。ここでは、図7(b)の行動ログDB46に記録されている手の発汗を例に説明する。図7(b)では、ユーザ行動時刻がt_act1=2014/7/12 11:00:01.040であるときに手の発汗のレベルが記録されており、対応するユーザアフェクトログは、アフェクト判定時刻(開始)がt_affs=2014/7/12 11:00:00.000、アフェクト判定時刻(終了)がt_affe=2014/7/12 11:00:01.040であるデータとして記録されている。上記第1の実施形態においては、どの時間範囲の行動ログを用いて判定したかをベースにt_affsとt_affeを決定していたが、ユーザが何かストレスを感じた時に手の発汗がセンシングされるまでにはタイムラグがある。こういったタイムラグは脳波等にも存在する。したがって、データ管理部36は、行動ログの種類毎にタイムラグが既知である場合には、タイムラグをtlとしたとき、t_affs+tlとt_affe+tlをそれぞれアフェクト判定時刻(開始)とアフェクト判定時刻(終了)にして、ユーザアフェクトログDB48に記録するようにすればよい。このようにすることで、ユーザが実際にアフェクトを感じた時間帯に基づいて時間帯の抽出を行うことができるので(図12のS30)、より正確に社会的距離の判定を行う質問を作成することが可能となる(図12のS32)。
Depending on the data used for the effect determination, there may be a gap between the time when the action was observed and the time when the user effect occurred. Here, hand sweating recorded in the action log DB 46 of FIG. 7B will be described as an example. In FIG. 7B, the perspiration level of the hand is recorded when the user action time is t_act1 = 2014/7/12 11: 00: 01.040, and the corresponding user effect log is the effect determination time (start ) Is recorded as t_affs = 2014/7/12 11: 00: 00.000, and the effect determination time (end) is t_affe = 2014/7/12 11: 00: 01.040. In the first embodiment described above, t_affs and t_affe are determined based on which time range of action log is used to determine, but when the user feels stressed, hand sweating is sensed There is a time lag before. Such time lag also exists in brain waves and the like. Therefore, when a time lag is known for each type of action log, the
《第7の実施形態》
次に、第7の実施形態について図27に基づいて説明する。本第7の実施形態では、ユーザアフェクトがその前後の時間帯と比べてどの程度安定していたのか、変化が大きかったのかに基づいて、ユーザアフェクトの安定度を算出し、質問文生成においてユーザアフェクト安定度の高い時間帯を抽出する点が、上記第1の実施形態とは異なる。
Seventh Embodiment
Next, a seventh embodiment will be described based on FIG. In the seventh embodiment, the degree of stability of the user effect is calculated based on how stable the user effect was in comparison with the time zones before and after that and the change in the user effect, and the user sentence generation in the question sentence generation The point of extracting a time zone having a high degree of effect stability is different from that of the first embodiment.
具体的には、社会的距離算出部38は、質問文を生成する対象となる時間帯をユーザアフェクト安定度が高いことを条件に抽出する。ここで、ユーザアフェクト安定度とは、自己開示レベルの共通する同時間帯における複数のユーザアフェクトログを用いてユーザアフェクトがその前後の時間帯と比べてどの程度安定していたのか、変化が大きかったのかを示す指標である。本第7の実施形態では、上記第5の実施形態で説明した確信度がどのくらい安定しているかによって、評価値を算出する。
Specifically, the social
図27には、本第7の実施形態を説明するためのユーザアフェクトログDB48のデータ例が示されている。例えば、図27に示すアフェクト判定時刻(開始)=2014/7/16 11:00:00.000、アフェクト判定時刻(終了)=2014/7/16 11:05:00.000であるデータ(上から5〜8つ目のデータ)の時間帯が、質問文生成用に抽出する時間帯の候補となっている時間帯であるとする。この場合、ユーザアフェクト確信度を算出すると、SuperficialはNeutralが1/2でPositiveが1/2、Not SuperficialはNeutralが1/2でNegativeが1/2である。この前の時間帯の確信度は、SuperficialはNeutralが1/2でPositiveが1/2、Not SuperficialはNegativeが2/2である。前の時間帯からの変化分を算出すると、Not SuperficialはNeutralが1/2-1/2=0、Positiveが1/2-1/2=0、SuperficialはNeutral=0-1/2=-1/2、Negativeは2/2-1/2=1/2である。この変化分の値が小さい程、その時間帯ではユーザアフェクトが安定して記録されているということを意味する。したがって、社会的距離算出部38は、図12のステップS30において、複数の時間帯が質問文生成用の時間帯として候補に挙がった場合に、それぞれの時間帯の安定度を算出して比較し、安定度の高い時間帯を質問文生成用の時間帯として抽出する。
FIG. 27 shows an example of data of the user
なお、安定度の比較を行う場合には、変化分の絶対値をトータルで比較することとしてもよいし、着目する自己開示レベルのデータだけを用いて比較(例えば、Not Superficialの安定度だけを用いて比較)してもよい。これにより、偶然1つの時間帯のみで質問文生成に適したようなユーザアフェクトログが記録されたような時間帯のデータを質問文生成に使用することを回避することができる。したがって、社会的距離の遠近判定に用いる時間帯として適切なユーザアフェクトを記録している時間帯を抽出することが可能となる。 In addition, when comparing the degree of stability, the absolute value of the change may be totally compared, or only the data of the self-disclosure level of interest is used for comparison (for example, only the degree of stability of Not Superficial You may compare and use. As a result, it is possible to avoid using data for a time zone in which a user effect log suitable for question sentence generation is accidentally recorded only in one time zone for question sentence generation. Therefore, it is possible to extract a time zone in which a user effect suitable as a time zone used for social distance perspective determination is recorded.
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。 The above processing functions can be realized by a computer. In that case, a program is provided which describes the processing content of the function that the processing device should have. The above processing functions are realized on the computer by executing the program on the computer. The program in which the processing content is described can be recorded on a computer readable recording medium (except for the carrier wave).
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 In the case of distributing the program, for example, the program is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc), a CD-ROM (Compact Disc Read Only Memory) or the like in which the program is recorded. Alternatively, the program may be stored in the storage device of the server computer, and the program may be transferred from the server computer to another computer via a network.
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。 The computer executing the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing in accordance with the program. The computer can also execute processing in accordance with the received program each time the program is transferred from the server computer.
上述した各実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。例えば、上記第1、第2の実施形態で説明したユーザの情報を取得するセンサの種別、システムデータ50の各種定義などについては、一例であるため、上記実施形態に限定されるものではない。
Each embodiment mentioned above is an example of a preferred implementation of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention. For example, the types of sensors for acquiring user information described in the first and second embodiments, various definitions of the
なお、以上の第1〜第7の実施形態の説明に関して、更に以下の付記を開示する。
(付記1) 質問に対して、利用者が該利用者以外に知られていない情報を含む内容の回答を行ったか否かを判定し、
前記利用者が該利用者以外に知られていない情報を含む内容の回答を行った場合に、該利用者以外に知られていない情報を含まない内容の回答を行った場合よりも、該利用者と回答先との社会的距離が近いと判断する、
処理をコンピュータに実行させることを特徴とする処理プログラム。
(付記2) 前記利用者以外に知られていない情報は、前記利用者の外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報であることを特徴とする付記1に記載の処理プログラム。
(付記3) 前記判断する処理の判断結果に基づいて、前記利用者に提供する情報の内容を異ならせる、処理を前記コンピュータに更に実行させることを特徴とする付記1又は2に記載の処理プログラム。
(付記4) 前記利用者の行動履歴に関する情報を取得し、
前記取得する処理で取得した情報に基づいて前記質問を生成する、処理を前記コンピュータに更に実行させることを特徴とする付記1〜3のいずれかに記載の処理プログラム。
(付記5) 前記質問を生成する処理では、前記利用者の行動履歴に関する情報のうち、外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報と、外部観察から明らかな前記利用者の状態又は気持ちに関する情報と、が異なる種類である時刻における前記利用者の行動履歴に関する情報に基づいて、前記質問を生成することを特徴とする付記4に記載の処理プログラム。
(付記6) 前記判定する処理では、
前記回答を行ったときの前記利用者の状態又は気持ちに関する情報が、外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報と、外部観察から明らかな前記利用者の状態又は気持ちに関する情報のいずれと共通するかに基づいて、前記利用者が該利用者以外に知られていない情報を含む内容の回答を行ったか否かを判定する、ことを特徴とする付記5に記載の処理プログラム。
(付記7) 前記質問を生成する処理では、複数の時刻における前記利用者の行動履歴に関する情報に基づいて、前記質問を生成することを特徴とする付記5又は6に記載の処理プログラム。
(付記8) 質問に対して、利用者が該利用者以外に知られていない情報を含む内容の回答を行ったか否かを判定し、
前記利用者が該利用者以外に知られていない情報を含む内容の回答を行った場合に、該利用者以外に知られていない情報を含まない内容の回答を行った場合よりも、該利用者と回答先との社会的距離が近いと判断する、
処理をコンピュータが実行することを特徴とする処理方法。
(付記9) 前記利用者以外に知られていない情報は、前記利用者の外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報であることを特徴とする付記8に記載の処理方法。
(付記10) 前記判断する処理の判断結果に基づいて、前記利用者に提供する情報の内容を異ならせる、処理を前記コンピュータに更に実行させることを特徴とする付記8又は9に記載の処理方法。
(付記11) 前記利用者の行動履歴に関する情報を取得し、
前記取得する処理で取得した情報に基づいて前記質問を生成する、処理を前記コンピュータが更に実行することを特徴とする付記8〜10のいずれかに記載の処理方法。
(付記12) 前記質問を生成する処理では、前記利用者の行動履歴に関する情報のうち、外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報と、外部観察から明らかな前記利用者の状態又は気持ちに関する情報と、が異なる種類である時刻における前記利用者の行動履歴に関する情報に基づいて、前記質問を生成することを特徴とする付記11に記載の処理方法。
(付記13) 前記判定する処理では、
前記回答を行ったときの前記利用者の状態又は気持ちに関する情報が、外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報と、外部観察から明らかな前記利用者の状態又は気持ちに関する情報のいずれと共通するかに基づいて、前記利用者が該利用者以外に知られていない情報を含む内容の回答を行ったか否かを判定する、ことを特徴とする付記12に記載の処理方法。
(付記14) 前記質問を生成する処理では、複数の時刻における前記利用者の行動履歴に関する情報に基づいて、前記質問を生成することを特徴とする付記12又は13に記載の処理方法。
(付記15) 質問に対して、利用者が該利用者以外に知られていない情報を含む内容の回答を行ったか否かを判定する判定部と、
前記利用者が該利用者以外に知られていない情報を含む内容の回答を行った場合に、該利用者以外に知られていない情報を含まない内容の回答を行った場合よりも、該利用者と回答先との社会的距離が近いと判断する判断部と、
を備える処理装置。
(付記16) 前記利用者以外に知られていない情報は、前記利用者の外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報であることを特徴とする付記15に記載の処理装置。
(付記17) 前記判断部の判断結果に基づいて、前記利用者に提供する情報の内容を異ならせる処理部を更に備える付記15又は16に記載の処理装置。
(付記18) 前記利用者の行動履歴に関する情報を取得する取得部と、
前記取得部が取得した情報に基づいて前記質問を生成する生成部と、を更に備える付記15〜17のいずれかに記載の処理装置。
(付記19) 前記生成部は、前記利用者の行動履歴に関する情報のうち、外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報と、外部観察から明らかな前記利用者の状態又は気持ちに関する情報と、が異なる種類である時刻における前記利用者の行動履歴に関する情報に基づいて、前記質問を生成することを特徴とする付記18に記載の処理装置。
(付記20) 前記判定部は、
前記回答を行ったときの前記利用者の状態又は気持ちに関する情報が、外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報と、外部観察から明らかな前記利用者の状態又は気持ちに関する情報のいずれと共通するかに基づいて、前記利用者が該利用者以外に知られていない情報を含む内容の回答を行ったか否かを判定する、ことを特徴とする付記19に記載の処理装置。
(付記21) 前記生成部は、複数の時刻における前記利用者の行動履歴に関する情報に基づいて、前記質問を生成することを特徴とする付記19又は20に記載の処理装置。
In addition, the following additional remarks are further disclosed regarding the description of the above 1st-7th embodiment.
(Supplementary Note 1) It is determined whether or not the user has responded to the question including the content including information unknown to the user.
When the user answers a content including information that is not known other than the user, the use is more than when a response that does not include information that is not known other than the user is reported Judged that the social distance between the person and the answeree is short,
A processing program causing a computer to execute processing.
(Supplementary Note 2) The processing program according to
(Supplementary Note 3) The processing program according to
(Supplementary Note 4) Information on the user's action history is acquired,
The processing program according to any one of
(Supplementary Note 5) In the process of generating the question, among the information on the user's action history, the information on the state or feeling of the user not apparent from the external observation and the state of the user apparent from the external observation The processing program according to claim 4, wherein the question is generated based on information on the user's action history at a time when the information on feeling is different from the information on the feeling.
(Supplementary Note 6)
Information on the condition or feeling of the user when the answer is made is information on the condition or feeling of the user not apparent from external observation, and information on the condition or feeling of the user apparent from external observation The processing program according to Supplementary Note 5, wherein it is determined whether or not the user has made a response including content that is not known to the other than the user based on which of the two is common.
(Supplementary Note 7) The processing program according to Supplementary note 5 or 6, wherein, in the process of generating the question, the question is generated based on information on the action history of the user at a plurality of times.
(Supplementary Note 8) In response to a question, it is determined whether or not the user has made an answer containing content that is not known to anyone other than the user.
When the user answers a content including information that is not known other than the user, the use is more than when a response that does not include information that is not known other than the user is reported Judged that the social distance between the person and the answeree is short,
A processing method characterized in that a computer executes processing.
(Supplementary Note 9) The processing method according to Supplementary note 8, wherein the information not known to persons other than the user is information relating to the state or feeling of the user that is not clear from the external observation of the user.
(Supplementary Note 10) The processing method according to Supplementary Note 8 or 9, further causing the computer to execute a process of making the content of the information to be provided to the user different based on the determination result of the determination process. .
(Supplementary note 11) The information on the action history of the user is acquired,
10. The processing method according to any one of appendices 8 to 10, wherein the computer further executes a process of generating the question based on the information acquired in the process of acquiring.
(Supplementary Note 12) In the process of generating the question, information on the state or feeling of the user which is not clear from external observation and information on the user's state apparent from external observation among the information on the action history of the user The processing method according to
(Supplementary Note 13)
Information on the condition or feeling of the user when the answer is made is information on the condition or feeling of the user not apparent from external observation, and information on the condition or feeling of the user apparent from external observation It is determined whether the said user gave the reply of the content containing the information which is not known other than the said user based on which is common, The processing method of Additional remark 12 characterized by the above-mentioned.
(Supplementary Note 14) The processing method according to
(Supplementary Note 15) A determination unit that determines whether or not a user has made an answer to a question including content that is unknown to the user.
When the user answers a content including information that is not known other than the user, the use is more than when a response that does not include information that is not known other than the user is reported Judgment unit that judges that the social distance between the person and the answeree is short,
Processing device comprising:
(Supplementary Note 16) The processing device according to Supplementary Note 15, wherein the information not known to persons other than the user is information regarding the state or feeling of the user that is not clear from the external observation of the user.
(Supplementary Note 17) The processing device according to Supplementary Note 15 or 16, further comprising: a processing unit that makes the content of the information provided to the user different based on the determination result of the determination unit.
(Additional remark 18) The acquisition part which acquires the information about the user's action history,
15. The processing apparatus according to any one of the above 15 to 17, further comprising: a generation unit that generates the question based on the information acquired by the acquisition unit.
(Supplementary Note 19) The generation unit relates to information on the state or feeling of the user that is not clear from external observation among information on the action history of the user, and relates to the state or feeling of the user apparent from external observation The processing device according to appendix 18, wherein the question is generated based on information on the action history of the user at a time when the information is a different type.
(Supplementary Note 20) The determination unit
Information on the condition or feeling of the user when the answer is made is information on the condition or feeling of the user not apparent from external observation, and information on the condition or feeling of the user apparent from external observation It is determined whether the said user gave the reply of the content containing the information which is not known other than the said user based on which is common, The processing apparatus of Additional remark 19 characterized by the above-mentioned.
(Supplementary Note 21) The processing device according to
30 サーバ(処理装置)
34 情報提示処理制御部(処理部)
38 社会的距離算出部(判定部、判断部、取得部、生成部)
30 server (processing unit)
34 Information presentation processing control unit (processing unit)
38 Social distance calculation unit (judgment unit, judgment unit, acquisition unit, generation unit)
Claims (6)
第1の情報収集装置が収集したデータに基づいて判定された、ある時間帯における外部観察からでは明らかでない利用者の状態又は気持ちに関する第1の情報と、前記第1の情報収集装置と異なる第2の情報収集装置が収集したデータに基づいて判定された、前記ある時間帯における外部観察から明らかな前記利用者の状態又は気持ちに関する第2の情報と、を記憶する第1の記憶部を参照し、同時間帯において前記第1の情報が示す前記利用者の状態又は気持ちと前記第2の情報が示す前記利用者の状態又は気持ちとが異なる時間帯を特定する機能と、
前記利用者に対して、特定された前記時間帯における前記利用者の状態又は気持ちをたずねる質問を提示する機能と、
前記利用者が前記質問に回答している間に前記第1の情報収集装置により収集されたデータ及び前記第2の情報収集装置により収集されたデータの少なくとも1つに基づき、前記利用者が前記質問に回答したときの前記利用者の状態又は気持ちを判定する機能と、
判定した前記利用者の状態又は気持ちが、特定された前記時間帯における前記第1の情報が示す前記利用者の状態又は気持ちと共通する場合に、共通しない場合よりも、該利用者と回答先との社会的距離が近いと判断する機能と、
を実現させるための処理プログラム。 On the computer
First information on a user's state or feeling that is not apparent from external observation in a certain time zone, which is determined based on data collected by the first information collection device, and first information different from the first information collection device Refer to a first storage unit that stores second information related to the user's state or feeling apparent from external observation in the certain time zone, which is determined based on data collected by the second information collection device A function of specifying a time zone in which the state or feeling of the user indicated by the first information and the state or feeling of the user indicated by the second information in the same time zone are different;
A function of presenting, to the user, a question that asks the user's state or feeling during the specified time zone;
The user is said based on at least one of data collected by the first information collecting device while the user answers the question and data collected by the second information collecting device. A function of determining the state or feeling of the user when answering a question;
When the determined state or feeling of the user is in common with the state or feeling of the user indicated by the first information in the specified time zone , the user and the answer destination are better than in the case where they are not common Function to judge that the social distance between
Processing program for realizing .
前記コンピュータが備える質問部が、前記利用者に対して、特定された前記時間帯における前記利用者の状態又は気持ちをたずねる質問を提示し、
前記コンピュータが備える判断部が、前記利用者が前記質問に回答している間に前記第1の情報収集装置により収集されたデータ及び前記第2の情報収集装置により収集されたデータの少なくとも1つに基づき、前記利用者が前記質問に回答したときの前記利用者の状態又は気持ちを判定し、判定した前記利用者の状態又は気持ちが、特定された前記時間帯における前記第1の情報が示す前記利用者の状態又は気持ちと共通する場合に、共通しない場合よりも、該利用者と回答先との社会的距離が近いと判断する、
ことを特徴とする処理方法。 First information on a user's condition or feeling that is not apparent from external observation in a certain time zone, which is determined based on data collected by the first information collection device, and a specific unit included in the computer; Storing, based on data collected by a second information collecting device different from the information collecting device of the second information, the second information on the state or feeling of the user apparent from the external observation in the certain time zone Specify a time zone in which the state or feeling of the user indicated by the first information and the state or feeling of the user indicated by the second information are different in the same time zone with reference to the first storage unit ,
A query unit included in the computer presents, to the user, a question inquiring a state or feeling of the user in the specified time zone;
The determination unit included in the computer is at least one of data collected by the first information collection device and data collected by the second information collection device while the user answers the question. Based on the condition or feeling of the user when the user answers the question, the first information in the specified time zone indicates the determined condition or feeling of the user When it is in common with the state or feeling of the user, it is judged that the social distance between the user and the reply destination is closer than in the case where they are not common .
A processing method characterized by
前記利用者に対して、特定された前記時間帯における前記利用者の状態又は気持ちをたずねる質問を提示する質問部と、
前記利用者が前記質問に回答している間に前記第1の情報収集装置により収集されたデータ及び前記第2の情報収集装置により収集されたデータの少なくとも1つに基づき、前記利用者が前記質問に回答したときの前記利用者の状態又は気持ちを判定し、判定した前記利用者の状態又は気持ちが、特定された前記時間帯における前記第1の情報が示す前記利用者の状態又は気持ちと共通する場合に、共通しない場合よりも、該利用者と回答先との社会的距離が近いと判断する判断部と、
を備える処理装置。
First information on a user's state or feeling that is not apparent from external observation in a certain time zone, which is determined based on data collected by the first information collection device, and first information different from the first information collection device Refer to a first storage unit that stores second information related to the user's state or feeling apparent from external observation in the certain time zone, which is determined based on data collected by the second information collection device A specifying unit that specifies a time zone in which the state or feeling of the user indicated by the first information and the state or feeling of the user indicated by the second information in the same time zone;
A question unit for presenting, to the user, a question for asking the user's state or feeling in the specified time zone;
The user is said based on at least one of data collected by the first information collecting device while the user answers the question and data collected by the second information collecting device. The condition or feeling of the user determined when the user answered the question, the condition or feeling of the determined user is indicated by the condition or feeling of the user indicated by the first information in the specified time zone If the common, than without common, a determination unit for social distance between the user and the response destination is determined to close,
Processing device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015102265A JP6540224B2 (en) | 2015-05-19 | 2015-05-19 | Processing program, processing method and processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015102265A JP6540224B2 (en) | 2015-05-19 | 2015-05-19 | Processing program, processing method and processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016218692A JP2016218692A (en) | 2016-12-22 |
JP6540224B2 true JP6540224B2 (en) | 2019-07-10 |
Family
ID=57582009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015102265A Active JP6540224B2 (en) | 2015-05-19 | 2015-05-19 | Processing program, processing method and processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6540224B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7503901B2 (en) | 2019-12-27 | 2024-06-21 | ユニ・チャーム株式会社 | Provision program, provision device, provision method, and provision system |
WO2024231989A1 (en) * | 2023-05-08 | 2024-11-14 | コニカミノルタ株式会社 | Information analysis system, information analysis method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001134642A (en) * | 1999-11-02 | 2001-05-18 | Atr Media Integration & Communications Res Lab | Agent system utilizing social response characteristic |
US7836151B2 (en) * | 2007-05-16 | 2010-11-16 | Palo Alto Research Center Incorporated | Method and apparatus for filtering virtual content |
US8539161B2 (en) * | 2009-10-12 | 2013-09-17 | Microsoft Corporation | Pre-fetching content items based on social distance |
-
2015
- 2015-05-19 JP JP2015102265A patent/JP6540224B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016218692A (en) | 2016-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10146882B1 (en) | Systems and methods for online matching using non-self-identified data | |
US9513699B2 (en) | Method of selecting a second content based on a user's reaction to a first content | |
EP2950551B1 (en) | Method for recommending multimedia resource and apparatus thereof | |
US10579866B2 (en) | Method and system for enhancing user engagement during wellness program interaction | |
US20170095192A1 (en) | Mental state analysis using web servers | |
US20160063874A1 (en) | Emotionally intelligent systems | |
JP6952257B2 (en) | Information processing device for content presentation, control method of information processing device, and control program | |
Soleymani et al. | Human-centered implicit tagging: Overview and perspectives | |
JP6365915B2 (en) | Response device, response system, response method, and recording medium | |
US20190008466A1 (en) | Life log utilization system, life log utilization method, and recording medium | |
JP2012113589A (en) | Action motivating device, action motivating method and program | |
EP3270263A1 (en) | Information processing apparatus for presenting content, method for controlling the same, and control program | |
TWI691929B (en) | Interactive service platform and operating method thereof | |
JP2020004410A (en) | Method for facilitating media-based content share, computer program and computing device | |
WO2016194621A1 (en) | Information processing device, information processing method, and program | |
JP6540224B2 (en) | Processing program, processing method and processing apparatus | |
JP2019020882A (en) | Life log utilization system, method and program | |
US20220188363A1 (en) | Information processing apparatus, information processing method, and program | |
KR20130053448A (en) | Search device, search method, search program, and computer-readable memory medium for recording search program | |
US20210295186A1 (en) | Computer-implemented system and method for collecting feedback | |
JP2014016916A (en) | Social graph expanding method, program and system | |
JP2011002872A (en) | Question sentence candidate presentation device | |
Shank et al. | Software program, bot, or artificial intelligence? Affective sentiments across general technology labels | |
WO2021053964A1 (en) | Information processing device and information processing program | |
JP6432298B2 (en) | Social distance determination device, social distance determination program, and social distance determination method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190412 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190514 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190527 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6540224 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |