[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6574937B2 - 通信システム、制御方法、および記憶媒体 - Google Patents

通信システム、制御方法、および記憶媒体 Download PDF

Info

Publication number
JP6574937B2
JP6574937B2 JP2016514736A JP2016514736A JP6574937B2 JP 6574937 B2 JP6574937 B2 JP 6574937B2 JP 2016514736 A JP2016514736 A JP 2016514736A JP 2016514736 A JP2016514736 A JP 2016514736A JP 6574937 B2 JP6574937 B2 JP 6574937B2
Authority
JP
Japan
Prior art keywords
emotion
information
user
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016514736A
Other languages
English (en)
Other versions
JPWO2015162949A1 (ja
Inventor
隆俊 中村
隆俊 中村
丹下 明
明 丹下
矢島 正一
正一 矢島
竹原 充
充 竹原
鎌田 恭則
恭則 鎌田
荒谷 勝久
勝久 荒谷
林 和則
和則 林
今 孝安
孝安 今
宏平 浅田
宏平 浅田
一弘 渡邊
一弘 渡邊
剛志 安彦
剛志 安彦
有希 甲賀
有希 甲賀
智也 大沼
智也 大沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015162949A1 publication Critical patent/JPWO2015162949A1/ja
Application granted granted Critical
Publication of JP6574937B2 publication Critical patent/JP6574937B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3484Personalized, e.g. from learned user behaviour or user-defined profiles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/265Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network constructional aspects of navigation devices, e.g. housings, mountings, displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3617Destination input or retrieval using user history, behaviour, conditions or preferences, e.g. predicted or inferred from previous use or current movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3641Personalized guidance, e.g. limited guidance on previously travelled routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3682Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities output of POI information on a road map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/80Information retrieval; Database structures therefor; File system structures therefor of semi-structured data, e.g. markup language structured data such as SGML, XML or HTML
    • G06F16/84Mapping; Conversion
    • G06F16/86Mapping to a database
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Surgery (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Educational Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)

Description

本開示は、通信システム、制御方法、および記憶媒体に関する。
近年、カメラ機能を有するスマートフォンや携帯電話端末、タブレット端末、デジタルカメラ等が普及し、これらで撮影した写真が大量にサーバにアップロードされている。また、アップロードされる写真データには、一般的に位置情報(撮影場所情報)を含むメタデータが付加されている。また、時計型端末やリストバンド型端末、メガネ型HMD等のウェアラブル装置も普及し始め、日常的に行動ログ(ライフログとも称す)を取得することが容易になり、取得された大量の行動ログが様々に活用されている。
また、近年、身体に直接触れる機器で感情データ(心理状態の情報)をセンシングできる状況が整いつつある。具体的には、発汗量や心拍数等の生体情報から感情(不快、緊張、喜び、興奮等の心理状態)を概ね推定することが行われている。
このような感情推定技術と、大量に取得されるユーザの写真や行動ログ等に関する技術を活用する技術として、例えば下記特許文献1が提案されている。下記特許文献1では、撮影者の撮影時における生体情報および行動情報を、撮影した画像に関連付けて保存する技術が開示されている。これにより、膨大な数の画像から重要な画像(特別な心理状態で撮影した画像)を検索することが可能となる。
特開2009−188899号公報
ここで、昨今、所謂ディープラーニング(深層学習;Deep Learning)と称される技術のように、一見無機的な大量データからその相関関係(構造)を導き出す仕組みや、これを支える演算能力が現実のものとなってきている。したがって、大量の写真や行動ログに関するデータ群と、その時の感情に関するデータ群とを解析し、行動と感情の相関関係を算出することも実現し得る。
そして、クラウドデバイス(ネットワークに接続可能なイメージングデバイス等)がクラウド上で無数のネットワークを組むようになった時代において、各クラウドデバイスからアップロードされた大量の行動ログと感情データをマッピングすることができれば、地球環境全体の感情マップの作成や感情分析が可能となる。この場合、所定の感情に導くための行動をユーザに案内することが実現できる。
しかしながら、従来の技術では、感情マップに応じたユーザ案内に関しては何ら考慮されていなかった。
そこで、本開示では、感情マップに応じて所定の感情になるための行動をユーザに案内することが可能な通信システム、制御方法、および記憶媒体を提案する。
本開示によれば、ユーザの現在位置情報を取得する取得部と、前記現在位置情報と、感情データがマッピングされた地図情報とに応じて、案内情報を生成する案内情報生成部と、前記案内情報をユーザに提供する提供部と、を備える、通信システムを提案する。
本開示によれば、ユーザの現在位置情報をクライアントから取得することと、前記現在位置情報と、感情データがマッピングされた地図情報とに応じて、案内情報を生成することと、前記案内情報をユーザに提供するよう制御することと、を含む、制御方法を提案する。
本開示によれば、コンピュータを、ユーザの現在位置情報を取得する取得部と、前記現在位置情報と、感情データがマッピングされた地図情報とに応じて、案内情報を生成する案内情報生成部と、前記案内情報をユーザに提供する提供部と、として機能させるためのプログラムが記憶された、記憶媒体を提案する。
以上説明したように本開示によれば、感情マップに応じて所定の感情になるための行動をユーザに案内することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による通信システムの概要を説明する図である。 本実施形態によるサーバの基本構成の一例を示すブロック図である。 本実施形態によるデータ収集を行うクライアントの内部構成の一例を示すブロック図である。 本実施形態による案内情報の提示を行うクライアントの内部構成の一例を示すブロック図である。 感情マップ生成時の動作処理を示すシーケンス図である。 感情マップに応じたナビゲーションの動作処理を示すシーケンス図である。 感情マップに応じた他のナビゲーション例の動作処理を示すシーケンス図である。 現在地周辺の各経路における幸福度の表示方法例を示す図である。 現在地周辺の各経路における幸福度の表示方法例を示す図である。 コンテンツ−感情DBのデータ作成時の動作処理を示すシーケンス図である。 コンテンツナビゲーションの動作処理を示すシーケンス図である。 コンテンツ推薦の表示例を示す図である。 環境−感情DBのデータ作成時の動作処理を示すシーケンス図である。 環境情報ナビゲーションの動作処理を示すシーケンス図である。 環境改善情報の表示例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による通信システムの概要
2.基本構成
2−1.サーバ2の構成例
2−2.クライアント3(データ収集用)の構成例
2−3.クライアント1(案内情報提示用)の構成例
3.各ナビゲーション
3−1.感情マップに応じたナビゲーション
3−2.コンテンツナビゲーション
3−3.環境情報ナビゲーション
4.まとめ
<<1.本開示の一実施形態による通信システムの概要>>
まず、本開示の一実施形態による通信システムの概要について図1を参照して説明する。図1は、本開示の一実施形態による通信システムの概要を説明する図である。図1に示すように、本実施形態による通信システムは、データ収集用のクライアント3と、サーバ2と、案内情報提示用のクライアント1と、を含む。
データ収集用のクライアント3は、図1に示すように、例えばカメラ装置により実現されるクライアント3a、スマートフォンにより実現されるクライアント3b、メガネ型HMD(Head Mounted Display)により実現されるクライアント3c等の情報処理端末である。クライアント3a〜3cは、各々所有ユーザの感情を推定するためのデータ(例えば生体情報、顔画像、音声等)と、現在位置情報/視聴中のコンテンツデータ/周囲の環境情報等を取得し、ネットワーク5を介してサーバ2にアップロードする。
サーバ2は、各クライアント3から収集した感情を推定するためのデータに基づいて所有ユーザの感情を推定し、推定した感情と、併せて収集した位置情報/コンテンツデータ/環境情報との相関関係を示すデータを生成する。例えば、サーバ2は、位置情報に基づいて、推定した感情を地図上にマッピングした感情マップを生成する。また、サーバ2は、推定した感情とコンテンツデータの相関関係を示すデータベース(DB)、推定した感情と環境情報との相関関係を示すデータベースも生成し得る。なお、図1では、データ収集用のクライアント3の一例としてクライアント3a〜3cの3つのみを図示したが、データ収集用のクライアント3はネットワーク上に多数存在し、サーバ2は、多数のクライアント3から大量のデータを収集し、地域規模、国規模、または地球全体規模での感情マップ、コンテンツ−感情DB、環境−感情DBを生成することができる。
また、サーバ2は、案内情報提示用のクライアント1からの要求に応じて、感情マップ、コンテンツ−感情DB、または環境−感情DBに基づき所定の感情にユーザを導くための行動(例えば進行方向、所定コンテンツの視聴推薦、環境改善の提案)を案内する案内情報を生成し、クライアント1に返信する。
案内情報提示用のクライアント1は、サーバ2に対して、所定の感情にユーザを導くための行動を案内する案内情報の送信を要求し、要求に応じてサーバ2から返信された案内情報を表示出力/音声出力してユーザに提示する。例えば、クライアント1は、現在位置情報/視聴中のコンテンツデータ/周囲の環境情報を取得し、サーバ2に送信すると共に、案内情報の送信要求を行う。また、案内情報提示用のクライアント1は、図1に示すメガネ型HMDで実現される他、スマートフォン、タブレット端末、携帯電話端末、カメラ装置、ゲーム機、または音楽プレーヤー等のネットワークに接続可能な出力端末により実現され得る。
以上、本開示の一実施形態による通信システムの概要について説明した。これにより、本実施形態では、所定の感情になるための行動をユーザに提示することができる。例えば、幸福な感情と位置情報との相関関係に基づいて幸福度マップを生成し、当該幸福度マップを用いて、幸福な感情になる経路にユーザを案内することができる。なお、図1に示す例では、データ収集用のクライアント3と案内情報提示用のクライアント1とを別装置で示したが、同一の装置であってもよい。
<<2.基本構成>>
次に、本実施形態による通信システムに含まれるサーバ2、クライアント3、クライアント1の各構成例について、図2〜図4を参照して順次説明する。
<2−1.サーバ2の構成例>
図2は、本実施形態によるサーバ2の基本構成の一例を示すブロック図である。図2に示すように、サーバ2は、制御部20、通信部21、環境−感情DB22、コンテンツ−感情DB23、および感情マップDB24を有する。
(制御部)
制御部20は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ、インターフェース部を備えたマイクロコンピュータにより構成され、サーバ2の各構成を制御する。
また、本実施形態による制御部20は、図2に示すように、地図情報生成部20a、案内情報生成部20b、感情推定部20c、および提供部20dとして機能する。地図情報生成部20aは、感情データをマッピングした地図情報を生成し、生成した地図情報(感情マップとも称す)を感情マップDB24に格納する。より具体的には、地図情報生成部20aは、データ収集を行うクライアント3から送信されたユーザの感情を推定するためのデータに基づいて推定した感情データを、併せて送信された位置情報に基づいて、地図上に配置する。また、地図情報生成部20aは、多数のクライアント3から送信される大量の感情データと位置情報の対応関係を統計解析した上で、地図情報を生成してもよい。
本明細書において、ユーザの感情を推定するためのデータとは、例えば発汗、脈拍、心拍、身体の振動、脳波、筋電、血流変化等の生体情報、ユーザの顔(表情)を撮像した撮像画像、音声等である。地図情報生成部20aは、生体情報の値または撮像画像の解析結果等に基づいてユーザの感情を推定する。感情は、一般的に、喜び(joy)、悲しみ(sadness)、受容(trust)、嫌悪(disgust)、恐れ(fear)、怒り(anger)、驚き(surprise)、期待(anticipation)といった8つの基本感情のいずれか、または組み合わせにより定義される。このような様々な感情のうち、地図情報生成部20aは、例えば幸福度(ユーザが幸せと感じている度合い)を推定する。より具体的には、例えば地図情報生成部20aは、ユーザの顔画像から笑顔が検出された場合、笑顔度に応じて幸福度を推定することが可能である。また、地図情報生成部20aは、ユーザの音声を解析して会話内容や声の高さ、抑揚、笑い声等に基づいて幸福度を推定することも可能である。
さらに、地図情報生成部20aは、ユーザの属性別に感情マップを生成してもよい。ユーザの属性とは、例えば年齢、年代、性別、趣味・嗜好、出身地等である。
以上説明した地図情報生成部20aによるユーザの感情の推定は、クライアント3側で予め行われてもよい。この場合、クライアント3からは推定済みのユーザの感情データが送信される。
案内情報生成部20bは、案内情報の提示を行うクライアント1からの要求に応じて、所定の感情にユーザを導くための行動を案内する案内情報を生成する。より具体的には、例えば案内情報生成部20bは、クライアント1から送信された現在位置情報と、感情マップDB24に格納された感情マップとに応じて、所定の感情が紐付けられた場所(または経路)にユーザを案内するための案内情報を生成する。案内情報には、所定の感情が紐付けられた場所(または経路)に向かう進行方向をユーザに指示する情報が含まれる。
また、案内情報生成部20bは、次に説明する感情推定部20cによりユーザが現在視聴中のコンテンツデータまたはユーザの周囲の環境情報に基づいて推定されたユーザの現在の感情に応じて、ユーザを所定の感情に導くためのコンテンツデータの推薦情報または環境情報の改善案等を生成する。例えば、案内情報生成部20bは、コンテンツ−感情DB23に格納されたデータを用いて、所定の感情が紐付けられたコンテンツをユーザに案内(推薦)するための案内情報を生成する。具体的には、例えばユーザが現在視聴している音楽が悲しい感情になるものである場合、案内情報生成部20bは、悲しい感情とは反対の楽しく幸せな感情になるためのコンテンツデータ(写真、映像、音楽等)を案内する案内情報を生成する。または、案内情報生成部20bは、環境−感情DB22に格納されたデータを用いて、所定の感情が紐付けられた環境情報への改善をユーザに案内するための案内情報を生成する。具体的には、例えばユーザの現在の周囲の環境情報が憂鬱な感情になるものである場合、提供部20dは、憂鬱な感情とは反対の爽快に幸せな感情になるための環境改善策(窓を開ける、音楽をかける、室内の灯りをつける等)を案内する案内情報を生成する。
案内情報生成部20bは、生成した案内情報を提供部20dに出力する。
感情推定部20cは、案内情報の提示を行うクライアント1から送信されたユーザが視聴中のコンテンツデータまたはユーザ周辺の環境情報に基づいて、ユーザの現在の感情を推定する機能を有する(第1、第2の感情推定部)。ここで、ユーザが視聴中のコンテンツデータとは、例えば写真、映像、音楽等の識別情報や特徴量等である。また、ユーザ周辺の環境情報とは、例えば時間、位置、気圧、気温、湿度、周囲に存在する物体、物体の状態等である。
感情推定部20cは、コンテンツ−感情DB23に格納されている、コンテンツデータと感情データとの相関関係を示すデータ(学習結果)に基づいて、ユーザが現在視聴中のコンテンツデータと同じ/類似するコンテンツデータに紐付けられた感情データを抽出し、ユーザの現在の感情として推定する。また、感情推定部20cは、環境−感情DB22に格納されている、環境情報と感情データとの相関関係を示すデータ(学習結果)に基づいて、ユーザの現在の周囲の環境情報と同じ/類似する環境情報に紐付けられた感情データを抽出し、ユーザの現在の感情として推定する。
感情推定部20cは、コンテンツデータまたは環境情報に基づいて推定したユーザの現在の感情データを、案内情報生成部20bに出力する。
提供部20dは、案内情報生成部20bにより生成された所定の感情になるための行動をユーザに案内する案内情報を、ユーザに提供するよう制御する。すなわち、提供部20dは、案内情報生成部20bにより生成された案内情報を、通信部21からクライアント1に送信するよう制御し、クライアント1においてユーザに提示(表示出力/音声出力)させる。
例えば提供部20dは、所定の感情が紐付けられた場所または経路への進行方向を指示する案内情報、ユーザの現在地周辺における地域の所定の感情度合いの分布を示す地図画像等をユーザに提供するよう制御する。
また、提供部20dは、所定の感情が紐付けられたコンテンツデータの推薦情報をユーザに提供するよう制御してもよい。
また、提供部20dは、所定の感情が紐付けられた環境への改善を提案する情報をユーザに提供するよう制御してもよい。
(通信部)
通信部21は、ネットワーク5に接続し、クライアント1、3とデータの送受信を行う。例えば通信部21は、データ収集を行うクライアント3から、ユーザの感情を推定するためのデータと、位置情報/コンテンツデータ/環境情報を受信(取得)する。また、通信部21は、案内情報の提示を行うクライアント1から現在位置情報を受信(取得)し、これに対して、提供部20dによる制御に従って案内情報を返信する。
(環境−感情DB)
環境−感情DB22は、環境情報(時間、位置、気圧、気温、湿度、位置、物体、物体の状態等)と感情データとの相関関係を示すデータを格納する。例えば、環境−感情DB22には、データ収集用の多数のクライアント3から大量に送信された環境情報と感情データの相関関係を統計解析して学習した学習結果が格納される。
(コンテンツ−感情DB)
コンテンツ−感情DB23は、コンテンツデータと感情データとの相関関係を示すデータを格納する。例えば、コンテンツ−感情DB23には、データ収集用の多数のクライアント3から大量に送信されたコンテンツデータと感情データの相関関係を統計解析して学習した学習結果が格納される。
(感情マップDB)
感情マップDB24は、地図情報生成部20aにより生成された感情マップを格納する。
<2−2.クライアント3(データ収集用)の構成例>
次に、データ収集用のクライアント3の構成について図3を参照して説明する。図3は、本実施形態によるクライアント3a(カメラ装置)の内部構成例を示すブロック図である。図3では、クライアント3の一例として、カメラ装置により実現されるクライアント3aの構成を示す。
図3に示すように、クライアント3a(カメラ装置)は、制御部30、通信部31、表示部32、操作部33、画像DB34、撮像部35、インカメラ36、感情センサ部37、および位置情報取得部38を有する。
(制御部)
制御部30は、例えばCPU、ROM、RAM、不揮発性メモリ、インターフェース部を備えたマイクロコンピュータにより構成され、クライアント3aの各構成を制御する。具体的には、例えば制御部30は、操作部33によりシャッターボタンの押下が検出された際に撮像部35に対して撮像実行を指示するよう制御する。また、制御部30は、撮像部35で撮像を実行した際に、インカメラ36でユーザ(撮影者)の顔(表情)を撮像するよう制御し、インカメラ36で撮像した顔画像を、ユーザの感情を推定するためのデータとして通信部31からサーバ2に送信するよう制御する。若しくは、制御部30は、撮像部35で撮像を実行した際に、例えばシャッターボタン等に設けられた感情センサ部37により検知したセンサ値(発汗、脈拍、または体温等の生体情報)を、ユーザの感情を推定するためのデータとして通信部31からサーバ2に送信するよう制御する。さらに、制御部30は、顔画像、生体情報等のユーザの感情を推定するためのデータをサーバ2に送信する際に、併せて位置情報取得部38により取得した現在位置情報、または撮像部35で撮像された撮像画像(被写体画像)も送信するよう制御する。
このように、本実施形態では、データ収集用のクライアント3が、ユーザの感情を推定するためのデータ(顔画像、生体情報等)を、現在位置情報と共にサーバ2に送信することで、サーバ2側において、ユーザの感情推定と、推定した感情と位置情報との対応付け(感情マップの生成)が行われる。また、データ収集用のクライアント3が、ユーザの感情を推定するためのデータ(顔画像、生体情報等)を、撮像画像(被写体画像)と共にサーバ2に送信することで、サーバ2側において、ユーザの感情推定と、推定した感情と撮像画像との対応付け(コンテンツ−感情DBの生成、学習)が行われる。
(通信部)
通信部31は、ネットワーク5に接続し、サーバ2とデータの送受信を行う。
(表示部)
表示部32は、制御部30の制御に従って、表示画面に文字、画像その他の情報を表示する機能を有する。表示部32は、例えば液晶ディスプレイや有機ELディスプレイ等により実現される。
(操作部)
操作部33は、ユーザによる操作を検出し、検出したユーザ操作を制御部30に出力する機能を有する。操作部33は、例えばシャッターボタン、電源ボタン、ズームボタン等の物理的な構造により実現される他、表示画面に重畳され表示画面に対するユーザの接触位置を検知する操作面(例えばタッチパネル)により実現されてもよい。
(画像DB)
画像DB34は、撮像部35により撮像された撮像画像や、インカメラ36により撮像された顔画像を格納する。
(撮像部)
撮像部35は、撮像レンズ、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。
撮像部35は、制御部30による撮像実行指示に従って、撮像を実行する。撮像部35により撮像された画像は、画像DB34に格納される。
(インカメラ)
インカメラ36は、撮影者(操作者)であるユーザを撮像するよう、ユーザ側に向けて設けられた撮像部である。具体的には、例えばインカメラ36は、カメラ装置(クライアント3a)の外側を撮像方向とする撮像部35の撮像レンズが設けられている面と反対側の面に、内側を撮像方向として設けられる。
インカメラ36は、制御部30による制御に従って、撮影を行っているユーザの顔を撮像する。インカメラ36により撮像された顔画像は、制御部30に出力され、制御部30の制御に従って、ユーザの感情を推定するためのデータとしてサーバ2に送信される。
(感情センサ部)
感情センサ部37は、カメラ装置(クライアント3a)の操作者であるユーザの感情を推定するためのデータとして、ユーザの脈拍、発汗、または体温等の生体情報を検知する各種センサである。感情センサ部37は、例えばシャッターボタンや操作面に設けられ、ユーザがシャッターボタンの押下または操作面をタッチして撮像操作を行った際の生体情報を検知することができる。感情センサ部37は、検知した生体情報を制御部30に出力し、制御部30によりユーザの感情を推定するためのデータとしてサーバ2に送信される。
(位置情報取得部)
位置情報取得部38は、外部からの取得信号に基づいてクライアント3aの現在位置を検知する機能を有する。具体的には、例えば位置情報取得部38は、GPS(Global Positioning System)測位部により実現され、GPS衛星からの電波を受信して、クライアント3aが存在している位置を検知し、検知した位置情報を制御部30に出力する。また、位置情報取得部38は、GPSの他、例えばWi−Fi(登録商標)、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。
以上、データ収集用のクライアント3の構成例として、カメラ装置により実現されるクライアント3aの構成を説明した。しかし、本実施形態によるクライアント3の構成は図3に示す例に限定されず、例えば、クライアント3は、さらに周囲の環境情報を取得する環境情報取得部を有していてもよい。
環境情報取得部は、周囲の環境情報(場情報)として、例えば気温、湿度、照度、気象情報、周囲に存在する物体、物体の状態等をセンシングする機能を有する。例えば、環境情報取得部は、湿度センサ、照度センサ、温度センサ等により実現される。また、環境情報取得部は、撮像部35により取得された被写体画像に基づいて、周囲に存在する物体や、物体の状態等を環境情報として抽出してもよい。
環境情報取得部により取得された環境情報は、ユーザの感情を推定するためのデータ(顔画像、生体情報等)と共に、サーバ2に送信される。このように、本実施形態では、データ収集用のクライアント3が、環境情報を、ユーザの感情を推定するためのデータ(顔画像、生体情報等)と共にサーバ2に送信することで、サーバ2側において、ユーザの感情推定と、推定した感情と環境情報との対応付け(環境−感情DBの生成、学習)が行われる。
<2−3.クライアント1(案内情報提示用)の構成例>
次に、案内情報提示用のクライアント1の構成について説明する。クライアント1は、図1に示したように、例えばメガネ型HMDにより実現される。メガネ型HMDは、ユーザに装着される眼鏡型のウェアラブル装置であって、装着状態において、ユーザの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の表示部が配置される構成となっている。表示部は透過型であって、表示部がスルー状態、即ち透明または半透明の状態とされることで、当該メガネ型HMDを常時装着していてもユーザの通常の生活には支障が出ないようになっている。
ここで、メガネ型HMDにより実現された場合におけるクライアント1の内部構成の一例を図4に示す。クライアント1は、図4に示すように、制御部10、通信部11、表示部12、操作部13、記憶部14、および位置情報取得部15を有する。
(制御部)
制御部10は、例えばCPU、ROM、RAM、不揮発性メモリ、インターフェース部を備えたマイクロコンピュータにより構成され、クライアント1の各構成を制御する。また、本実施形態による制御部10は、図4に示すように、表示制御部10a、および通信制御部10bとして機能する。
表示制御部10aは、表示部12に表示する画面の生成、および表示制御を行う。例えば、表示制御部10aは、通信部11によりサーバ2から受信した案内情報を表示部12に表示するよう制御する。また、表示制御部10aは、表示部12の透過度を制御することも可能である。
通信制御部10bは、通信部11からのデータ送信を制御する。例えば通信制御部10bは、位置情報取得部15が取得した現在位置情報を通信部11からサーバ2に送信すると共に、サーバ2に対してユーザを所定の感情に導く感情ナビゲーションの要求を行う。かかる要求に対し、サーバ2側において、ユーザの現在位置情報と感情マップに基づいてユーザを所定の感情が対応付けられた場所や経路に案内するための案内情報が生成され、クライアント1に返信される。
(通信部)
通信部11は、ネットワーク5に接続し、サーバ2と通信を行う機能を有する。例えば通信部11は、通信制御部10bの制御にしたがって、現在位置情報と感情ナビゲーションの要求をサーバ2に送信する。また、通信部11は、感情ナビゲーションの要求に応じてサーバ2から返信される案内情報を受信する。
(表示部)
表示部12は、上述したように、クライアント1(メガネ型HMD)をユーザが装着した状態において、ユーザの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に配置される。この表示部12には、例えば液晶パネルが用いられ、表示制御部10aにより液晶パネルの透過率が制御されることで、スルー状態、即ち透明または半透明の状態になる。
また、本実施形態による表示部12は、表示制御部10aによる制御にしたがって、サーバ2から送信された案内情報を表示する。案内情報の具体的な表示例については、図8、図9を参照して後述する。また、表示部12は、表示制御部10aによる制御にしたがって、写真や映像等のコンテンツを再生することも可能である。
(操作部)
操作部13は、ユーザ操作を検出する機能を有し、検出したユーザ操作を制御部10に出力する。操作部13は、電源スイッチ等の物理的構造によるものの他、クライアント1(メガネ型HMD)本体へのタップ操作(または振動)を検知する検知部によって実現されてもよい。また、操作部13は、外側に向けて設けられたカメラによりユーザのジェスチャーを撮像してジェスチャー入力を認識してもよいし、内側に向けて設けられたカメラによりユーザの眼を撮像して視線入力を認識してもよい。若しくは、操作部13は、周囲の音を集音するマイクロホンによりユーザの音声を取得して音声入力を認識してもよい。
(記憶部)
記憶部14は、制御部10による各種処理を実行するためのプログラムを格納する。
(位置情報取得部)
位置情報取得部15は、外部からの取得信号に基づいてクライアント1の現在位置を検知する機能を有する。位置情報取得部15は、取得した現在位置情報を制御部10に出力する。
以上、案内情報提示用のクライアント1の構成例として、メガネ型HMDにより実現されるクライアント1の構成について説明した。しかし、本実施形態によるクライアント1の構成は図4に示す例に限定されず、例えば、クライアント1は、さらに音声再生部(スピーカ)を有していてもよい。
音声再生部は、例えばクライアント1(メガネ型HMD)の装着状態において、ユーザの右耳孔および左耳孔に挿入できる一対の(またはいずれか一方の耳にのみ挿入できる一つの)イヤホンスピーカにより実現される。また、音声再生部は、制御部10の制御に従って、サーバ2から送信された案内情報を音声出力したり、音楽等のコンテンツデータを再生したりする。
また、クライアント1は、さらに環境情報取得部を有していてもよい。環境情報取得部は、周囲の環境情報(場情報)として、例えば気温、湿度、照度、現在地の気象情報、周囲に存在する物体、物体の状態等をセンシングする機能を有する。
また、本実施形態による通信制御部10bは、現在ユーザが視聴しているコンテンツ(写真、映像、音楽等)のコンテンツデータまたは現在の周囲の環境情報をサーバ2に送信し、ユーザを所定の感情に導くための案内情報の送信を要求してもよい。例えば、コンテンツデータを送信した場合、サーバ2側において、コンテンツデータに基づいて推定したユーザの現在の感情に応じて、ユーザを所定の感情に導く他のコンテンツを推薦する案内情報が生成され、クライアント1に返信される。また、環境情報を送信した場合、サーバ2側において、環境情報に基づいて推定したユーザの現在の感情に応じて、ユーザを所定の感情に導く他の環境情報に改善することを提案する案内情報が生成され、クライアント1に返信される。
以上、本実施形態による通信システムに含まれるサーバ2、データ収集用のクライアント3、および案内情報提示用のクライアント1の各構成について具体的に説明した。なお、上述したように、データ収集用のクライアント3、と案内情報提示用のクライアント1は同一装置であってもよい。
続いて、本開示の一実施形態による通信システムにより実行される各ナビゲーションについて複数例挙げて具体的に説明する。
<<3.各ナビゲーション>>
<3−1.感情マップに応じたナビゲーション>
まず、感情マップに応じたナビゲーションについて、図5〜図9を参照して説明する。
(3−1−1.データ収集)
図5は、感情マップ生成時の動作処理を示すシーケンス図である。図5に示すように、まず、ステップS103において、クライアント3は、ユーザの感情を推定するためのデータを取得する。具体的には、例えばクライアント3a(図3参照)の場合、インカメラ36による顔画像の撮像、または感情センサ部37による生体情報の検知により取得する。
次に、ステップS106において、クライアント3は、現在位置情報を取得する。
次いで、ステップS109において、クライアント3は、感情を推定するためのデータと、現在位置情報とをサーバ2に送信する。
続いて、ステップS110において、サーバ2の地図情報生成部20aは、受信した感情を推定するためのデータ(顔画像や生体情報)に基づいて、ユーザの感情を推定する。なお、クライアント3側でユーザの感情推定が行われてもよく、この場合既に推定された感情がサーバ2に送信されるので、当該S110は省略される。
次に、ステップS112において、地図情報生成部20aは、位置と感情の相関を示す感情マップを作成する。すなわち、地図情報生成部20aは、現在位置情報が示す地図上の位置に、推定した感情を対応付ける(マッピングする)。
次いで、ステップS115において、地図情報生成部20aは、生成した感情マップを感情マップDB24に格納し、感情マップのデータベースを更新する。以上説明したステップS103〜S115は繰り返し行われ、地図情報生成部20aは、継続的に各クライアント3から送信される位置情報と感情データとに基づいて、感情マップのデータベースを更新し続ける。本実施形態では、ネットワーク5を介して接続する無数のクライアント3から継続的に収集する大量の位置情報と感情データを統計解析することで、どの場所や地域でどのような感情になるかを示す感情マップをより精度よく生成することができる。
(3−1−2.ナビゲーション)
続いて、生成した感情マップに応じたナビゲーションについて、図6〜図9を参照して説明する。ナビゲーションの種類は様々あるが、ここでは、例えば現在地から目的地までの経路誘導や現在地周辺の経路誘導を、感情マップに応じて行う場合について説明する。また、ナビゲーションに用いる感情マップは、一例として幸福度と位置の相関関係を示す感情マップ(幸福マップとも称す)を用いる。これにより、本実施形態では、幸福ナビゲーションが実現する。
(ナビゲーション1)
まず、ナビゲーション1として、現在地から目的地までの経路誘導を感情マップに応じて行う場合について図6を参照して説明する。図6は、感情マップに応じたナビゲーションの動作処理を示すシーケンス図である。図6に示すように、まず、ステップS203において、クライアント1は、現在地および目的地の情報を取得する。例えばクライアント1は、位置情報取得部38により現在位置情報を取得し、ジェスチャー入力/音声入力/タップ操作により目的地を取得する。
次いで、ステップS206において、クライアント1は、経路検索実行指示を認識する。経路検索実行指示は、例えばユーザによるジェスチャー入力/音声入力/タップ操作により行われる。
次に、ステップS209において、クライアント1は、サーバ2に対して、現在地および目的地の情報を送信すると共に、目的地までの経路検索依頼を行う。
続いて、ステップS212において、サーバ2の案内情報生成部20bは、受信した現在地および目的地の情報に基づいて、目的地までの経路を複数検索する。
次いで、ステップS215において、案内情報生成部20bは、検索した複数の経路と、感情マップDB24に格納されている幸福マップとを参照し、検索した複数の経路のうち、幸福度が高い場所や地域を経由する経路に決定し、目的地までの案内情報を生成する。
次に、ステップS218において、提供部20dは、案内情報生成部20bにより生成された案内情報を通信部21からクライアント1に送信するよう制御する。
そして、ステップS221において、クライアント1は、受信した案内情報を提示し、経路案内を開始する。具体的には、例えばクライアント1は、案内情報に基づく進行方向を示す矢印画像を、表示部12において現実空間の風景と重畳表示することで経路案内を行ってもよい。
これにより、本実施形態では、幸福度の高い場所を経由したナビゲーションを行うことができる。具体的には、例えば景色が綺麗な場所、安全な道、坂道を回避する道、観光名所等を経由するナビゲーションが行われ、ユーザは幸福な(楽しい、嬉しい)気持ちになる。また、ユーザ属性に応じた幸福マップに応じたナビゲーションを行った場合、例えば子供連れ属性であれば、公園や図書館、児童会館等の子供が遊べる施設等を経由して目的地まで案内することもできる。
また、ここでは一例として幸福マップのみを用いたが、本実施形態はこれに限定されず、複数の感情マップ、例えば幸福マップと怒りマップを用いて、怒りの経路を避けて幸福な経路を案内する案内情報を生成することも可能である。
(ナビゲーション2)
続いて、ナビゲーション2として、現在地周辺の経路誘導を感情マップに応じて行う場合について図7を参照して説明する。図7は、感情マップに応じた他のナビゲーション例の動作処理を示すシーケンス図である。図7に示すように、まず、ステップS233において、クライアント1は、現在地の情報を取得する。例えばクライアント1は、位置情報取得部38により現在位置情報を取得する。
次いで、ステップS236において、クライアント1は、感情ナビゲーション実行指示を認識する。感情ナビゲーション実行指示は、例えばユーザによるジェスチャー入力/音声入力/タップ操作により行われる。
次に、ステップS239において、クライアント1は、サーバ2に対して、現在地の情報を送信すると共に、感情ナビゲーションの依頼を行う。
続いて、ステップS242において、サーバ2の案内情報生成部20bは、受信した現在地周辺の感情データを感情マップから抽出する。ここでは、一例として幸福マップから現在地周辺の幸福度の高さを抽出する。
次いで、ステップS245において、案内情報生成部20bは、現在地周辺の幸福度の高さを示す案内情報を生成する。
次に、ステップS248において、提供部20dは、案内情報生成部20bにより生成された案内情報を通信部21からクライアント1に送信するよう制御する。
そして、ステップS251において、クライアント1は、受信した案内情報を提示し、現在地周辺の各経路における幸福度を表示する。ここで、現在地周辺の各経路における幸福度の表示方法の一例について図8および図9を参照して説明する。
図8、図9は、現在地周辺の各経路における幸福度の表示方法例を示す図である。図8左に示す表示例1では、現在地周辺の地図画像40に、現在地を示すマークPと、現在地周辺の経路における幸福度を示す色画像401、402が重畳表示されている。一例として、濃い方の色画像401は幸福度が高いことを示し、薄い方の色画像402は幸福度が低いことを示すことで、ユーザは幸福度が高い道を直感的に把握することができる。
また、図8右に示す表示例2では、現在地周辺の地図画像42に、現在地を示すマークPと、現在周辺の場所や地域における幸福度を示す分布画像421a〜421cが重畳表示されている。一例として、各分布画像中の濃い色の領域程幸福度が高いことを示すことで、ユーザは幸福度が高い場所を直感的に把握することができる。
上述した図8に示す表示例1、表示例2の画像は、例えばクライアント1がメガネ型HMDの場合において、透過制御された表示部12の一部に表示される。
また、図9左に示す表示例3では、現実空間の映像50に、進行方向を示す矢印画像501、503と、進行方向先の感情データに応じた表情画像502、504が重畳表示されている。これにより、ユーザは、笑顔の表情画像502が対応付けられた矢印画像501に沿って左の道を進むと、幸福な感情になる場所や地域に行けることを直感的に把握し、泣き顔の表情画像504が対応付けられた矢印画像503に沿って右の道を進むと、悲しい感情になる場所や地域に行くことを直感的に把握することができる。
また、図9右に示す表示例4では、現実空間の映像50において、幸福度が低い方向521を暗い表示に加工し、幸福度が高い方向522を明るい表示に加工することで、明るい方の道に自然とユーザが進むよう誘導する。
上述した図9に示す表示例3、4の画像は、例えばクライアント1がメガネ型HMDの場合において、透過制御された表示部12の一部に表示されてもよいし、透過制御された表示部12を介して視認できる現実空間の風景(現実空間の映像50、52に相当)に矢印画像501等が重畳表示されてもよい。
<3−2.コンテンツナビゲーション>
次に、コンテンツのナビゲーション(提案)について、図10〜図12を参照して説明する。
(3−2−1.データ収集)
図10は、コンテンツ−感情DB23のデータ作成時の動作処理を示すシーケンス図である。図10に示すように、まず、ステップS303において、データ収集用のクライアント3は、写真、映像、音楽等のコンテンツデータの再生を行う。コンテンツデータの再生はユーザ操作に応じて実行してもよい。ここで、クライアント3は、図1に示すようなスマートフォンで実現されるクライアント3bとしてもよい。クライアント3bは、表示部および音声出力部を用いてコンテンツデータの再生を行う。
次に、ステップS306において、クライアント3は、ユーザの感情を推定するためのデータを取得する。具体的には、例えばクライアント3bの場合、クライアント3bを把持するユーザの手に接触してユーザの発汗、温度、または脈拍等を検知する感情センサ部、また、写真や映像を閲覧するユーザの顔を撮像するよう内側に向けて設けられたインカメラにより取得する。
次いで、ステップS309において、クライアント3は、感情を推定するためのデータと、再生しているコンテンツ情報(コンテンツデータ、メタデータ等)とをサーバ2に送信する。
続いて、ステップS310において、サーバ2の制御部20は、受信した感情を推定するためのデータ(顔画像や生体情報)に基づいて、ユーザの感情を推定する。なお、クライアント3側でユーザの感情推定が行われてもよく、この場合既に推定された感情がサーバ2に送信されるので、当該S310は省略される。
次に、ステップS312において、制御部20は、コンテンツと感情の相関を示すデータを作成する。すなわち、制御部20は、どのようなコンテンツを視聴している際にユーザがどのような感情になっているかを学習する。
次いで、ステップS315において、制御部20は、生成したデータ(学習結果)をコンテンツ−感情DB23に格納し、データベースを更新する。以上説明したステップS303〜S315は繰り返し行われ、制御部20は、継続的に各クライアント3から送信されるコンテンツ情報と感情データとに基づいて、コンテンツ−感情DB23を更新し続ける。本実施形態では、ネットワーク5を介して接続する無数のクライアント3から継続的に収集する大量のコンテンツ情報と感情データを統計解析することで、どのようなコンテンツを視聴するとどのような感情になるかを示すデータをより精度よく生成することができる。
(3−2−2.ナビゲーション)
続いて、生成したコンテンツ−感情DB23のデータを用いたナビゲーションについて、図11〜図12を参照して説明する。本実施形態によるコンテンツナビゲーションでは、所定の感情にユーザを導くためのコンテンツをユーザに提供(案内)する。
図11は、コンテンツナビゲーションの動作処理を示すシーケンス図である。図11に示すように、まず、ステップS403において、クライアント1は、コンテンツを再生する。コンテンツデータの再生はユーザ操作に応じて実行してもよい。ここで、クライアント1は、図1に示すようなスマートフォンにより実現され、表示部12および音声出力部を用いてコンテンツデータの再生を行う。
次いで、ステップS406において、クライアント1は、再生中のコンテンツの情報(コンテンツデータ、メタデータ等)をサーバ2に送信する。なお、コンテンツ情報の送信は自動的に行ってもよいし、ユーザによるナビゲーション実行指示を認識した場合に行ってもよい。
次に、ステップS409において、サーバ2の感情推定部20cは、受信したコンテンツ情報に基づいて、ユーザの現在の感情を推定する。具体的には、感情推定部20cは、コンテンツ−感情DB23に格納されているデータを用いてマッチングを行い、現在ユーザが視聴しているコンテンツと同じまたは特徴量やメタデータが類似するコンテンツに紐付けられた感情を抽出する。感情推定部20cは、推定した感情データを案内情報生成部20bに出力する。
次いで、ステップS415において、案内情報生成部20bは、感情推定部20cにより推定された感情データに応じて、推薦(案内)する所定のコンテンツデータを決定する。例えば、案内情報生成部20bは、ユーザが現在聞いている音楽が悲しい感情になるものである場合、反対の楽しく幸せな感情になるためのコンテンツデータ(写真、映像、音楽等)を推薦(案内)する。また、クライアント1からユーザの現在位置情報も送信される場合、サーバ2側でユーザの現在位置を把握できるので、案内情報生成部20bは、ユーザの現在地近辺の映画館で上映中の映画を推薦することも可能である。案内情報生成部20bは、決定した推薦(案内)コンテンツの情報を含むコンテンツ案内情報を生成し、生成したコンテンツ案内情報を提供部20dに出力する。
次に、ステップS418において、提供部20dは、案内情報生成部20bにより生成されたコンテンツ案内情報を通信部21からクライアント1に送信するよう制御する。
そして、ステップS421において、クライアント1は、受信したコンテンツ案内情報を提示し、コンテンツの案内(推薦)を行う。具体的には、例えばクライアント1は、クライアント1がメガネ型HMDの場合において、案内情報に基づいてユーザに推薦するコンテンツ情報を、透過制御された表示部12の一部に表示する。例えばコンテンツ自体の提示や、コンテンツの広告画面、購買画面等の提示が行われ得る。または、例えばクライアント1がメガネ型HMDの場合において、透過制御された表示部12を介して視認できる現実空間の風景に案内情報画像を重畳表示してもよい。以下、図12を参照して説明する。
図12は、コンテンツ推薦の表示例を示す図である。図12に示す例では、ユーザが映画館の前を通った際に、透過制御された表示部12を介して視認できる現実空間の風景54に含まれる映画館の付近に、当該映画館で上映中の映画のうち、その時のユーザの感情に応じた映画を案内する案内情報画像541が重畳表示される。具体的には、例えばクライアント1は、付近の映画館で上映中の映画情報を取得し、サーバ2から送信された案内情報とマッチングを行い、該当する映画が上映中の場合に、図12に示すような案内情報画像541を表示してもよい。また、クライアント1が現在位置情報をサーバ2に送信し、サーバ2側においてユーザの周辺に存在する映画館を認識して当該映画館で上映中の映画情報を取得し、推薦対象の映画が上映中の場合に案内情報がクライアント1に送信されてもよい。
また、コンテンツの推薦は、コンテンツ自体の提示の他、対象コンテンツの広告画面や、購買画面の提示であってもよい。
<3−3.環境情報ナビゲーション>
次に、環境情報のナビゲーション(提案)について図13〜図15を参照して説明する。
(3−3−1.データ収集)
図13は、環境−感情DB22のデータ作成時の動作処理を示すシーケンス図である。図13に示すように、まず、ステップS503において、データ収集用のクライアント3は、周囲の環境情報を収集する。環境情報の収集は、定期的/継続的に行ってもよいし、位置移動等の環境変化をトリガとして行ってもよいし、ユーザ操作に応じて行ってもよい。クライアント3は、ユーザを取り巻く環境の情報(場情報)として、例えば時間、位置、気圧、気温、湿度、位置、周囲に存在する物体、物体の状態等の情報を収集する。
次に、ステップS506において、クライアント3は、ユーザの感情を推定するためのデータを取得する。具体的には、例えば図1に示すようなスマートフォンにより実現されるクライアント3bの場合、クライアント3bを把持するユーザの手に接触してユーザの発汗、温度、または脈拍等を検知する感情センサ部、また、写真や映像を閲覧するユーザの顔を撮像するよう内側に向けて設けられたインカメラにより取得する。
次いで、ステップS509において、クライアント3は、感情を推定するためのデータと、環境情報とをサーバ2に送信する。
続いて、ステップS510において、サーバ2の制御部20は、受信した感情を推定するためのデータ(顔画像や生体情報)に基づいて、ユーザの感情を推定する。なお、クライアント3側でユーザの感情推定が行われてもよく、この場合既に推定された感情がサーバ2に送信されるので、当該S510は省略される。
次に、ステップS512において、制御部20は、環境情報と感情の相関を示すデータを作成する。すなわち、制御部20は、どのような環境情報の場合にユーザがどのような感情になっているかを学習する。
次いで、ステップS515において、制御部20は、生成したデータ(学習結果)を環境−感情DB22に格納し、データベースを更新する。以上説明したステップS503〜S515は繰り返し行われ、制御部20は、継続的に各クライアント3から送信される環境情報と感情データとに基づいて、環境−感情DB22を更新し続ける。本実施形態では、ネットワーク5を介して接続する無数のクライアント3から継続的に収集する大量の環境情報と感情データを統計解析することで、どのような環境情報の場合にどのような感情になるかを示すデータをより精度よく生成することができる。
(3−3−2.ナビゲーション)
続いて、生成した環境−感情DB22のデータを用いたナビゲーションについて、図14〜図15を参照して説明する。本実施形態による環境情報ナビゲーションでは、環境情報の改善通知、または所定の感情にユーザを導くための環境情報の改善案をユーザに提供(案内)する。
図14は、環境情報ナビゲーションの動作処理を示すシーケンス図である。図14に示すように、まず、ステップS603において、クライアント1は、周囲の環境情報を収集する。環境情報の収集は、定期的/継続的に行ってもよいし、位置移動等の環境変化をトリガとして行ってもよいし、ユーザ操作(ユーザによるナビゲーション実行指示)に応じて行ってもよい。
次いで、ステップS606において、クライアント1は、環境情報をサーバ2に送信する。
次に、ステップS609において、サーバ2の感情推定部20cは、受信した環境情報に基づいて、ユーザの現在の感情を推定する。具体的には、感情推定部20cは、環境−感情DB22に格納されているデータを用いてマッチングを行い、現在のユーザの周囲の環境と同じまたは類似する環境情報に紐付けられた感情を抽出する。感情推定部20cは、推定した感情データを案内情報生成部20bに出力する。
次いで、ステップS612において、案内情報生成部20bは、感情推定部20cにより推定された感情データの幸福度が閾値より低いか否かを判断する。ここで、本実施形態では、一例として幸福な感情になるためのナビゲーションを行うため、感情データの幸福度を判断する。幸福度が閾値を上回る場合(S612/No)、既にユーザは幸福な感情であるためナビゲーションは不要と判断される。
一方、幸福度が閾値より低い場合(S612/Yes)、ステップS615において、案内情報生成部20bは、環境改善の必要性があること、または具体的な環境改善案を示す環境改善情報を生成し、提供部20dに出力する。
具体的な環境改善案は、例えば現在のユーザの周辺の環境情報と、目標とする幸福度が紐付けられた(相関を持つ)環境情報との差分を検出することで生成される。例えば、ユーザが滞在先のホテルの部屋に入ったときの環境情報により憂鬱な感情が推定された場合(幸福度が閾値以下の場合)、案内情報生成部20bは、当該環境情報と、幸福な感情と相関を持つ環境情報との差分を検出する。この場合、例えば部屋の明るさ、気温、湿度、窓の開閉、カーテンの開閉、音楽の有無等が差分として検出され得る。案内情報生成部20bは、このような差分に基づいて、例えば部屋を明るくすること、気温・湿度の設定値、窓を開けること、カーテンを開けること、音楽をかけること等を環境改善案として示す環境改善情報を生成する。
次に、ステップS618において、提供部20dは、案内情報生成部20bにより生成された環境改善情報を通信部21からクライアント1に送信するよう制御する。
そして、ステップ621において、クライアント1は、受信した環境改善情報に基づいて、環境改善の必要がある旨の通知(警告)、または/および環境改善案の提示を行う。これにより、幸福な感情になるための環境をユーザに案内することができる。環境改善の通知/環境改善案の提示は、例えばクライアント1がメガネ型HMDにより実現されている場合、透過制御された表示部12の一部に表示されてもよいし、表示部12を介して視認できる現実空間の風景に重畳表示されてもよい。以下、図15を参照して説明する。
図15は、環境改善情報の表示例を示す図である。図15に示す例では、ユーザがホテルの部屋に入った際に、透過制御された表示部12を介して視認できる現実空間の風景56において、環境改善情報が重畳表示されている。例えば、電気スタンド付近には「電気を付けましょう」といった環境改善情報561が表示され、窓/カーテン付近には「窓を開けて空気を入れ替えましょう」といった環境改善情報562が表示される。また、テーブルの上に灰皿が置かれていることから喫煙室という環境が推定され、灰皿付近には「空気清浄機を付けましょう」といった環境改善情報563が表示される。また、エアコンディショナーの推奨設定情報を示す環境改善情報564も表示される。
さらに、図15に示すように、本実施形態によるナビゲーションが起動中であることを示すアイコン画像566を表示してもよい。
<<5.まとめ>>
上述したように、本開示の実施形態による通信システムでは、感情マップに応じて所定の感情になるための行動をユーザに案内することができる。すなわち、本実施形態による通信システムは、クライアント1から受信した現在位置情報と感情マップを参照し、ユーザの周囲、または目的地までの複数の経路のうち、所定の感情が紐付けられた場所や地域に案内する案内情報をユーザに提示する。
また、本実施形態では、コンテンツと感情の相関を示すデータベースに応じて、所定の感情になるために所定のコンテンツを視聴することをユーザに案内することができる。すなわち、本実施形態による通信システムは、クライアント1から受信した、ユーザが現在視聴しているコンテンツ情報とコンテンツ−感情DB23を参照してユーザの現在の感情を推定し、例えば幸福度が低い場合は幸福感情になるコンテンツをユーザに推薦する。
また、本実施形態では、環境情報と感情の相関を示すデータベースに応じて、所定の感情になるために環境の改善をユーザに提案することができる。すなわち、本実施形態による通信システムは、クライアント1から受信した、ユーザの現在の周囲の環境情報と環境−感情DB22を参照してユーザの現在の感情を推定し、例えば幸福度が低い場合は幸福感情になるための環境情報をユーザに提示する。

また、本実施形態では、環境−感情DB22、コンテンツ−感情DB23を利用して、コンテンツデータまたは環境情報に基づいてユーザの現在の感情を推定することが可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述したクライアント1、3、サーバ2に内蔵されるCPU、ROM、およびRAM等のハードウェアに、クライアント1、3、サーバ2の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、本実施形態では、感情データを地図上にマッピングして感情マップを生成することを記載したが、本開示はこれに限定されず、例えば予め収集された各地域の平均寿命情報を地図上にマッピングして寿命マップを生成することも可能である。これにより、例えば平均寿命が長い地域や場所にユーザを案内することができる。
また、本実施形態では、「3−2.コンテンツナビゲーション」において、ユーザが視聴するコンテンツデータ(写真、映像、音楽等)に応じてユーザの感情を推定しているが、本実施形態はこれに限定されず、例えばユーザが撮影を行っている際に取得される被写体画像や音声に応じてユーザ(撮影者)の感情を推定することも可能である。具体的には、例えば子供や動物の写真を撮影している際は撮影者が幸福な感情になっているといった相関関係のデータがコンテンツ−感情DB23に予め学習結果として格納されている場合、感情推定部20cは、被写体に応じてユーザ(撮影者)の感情を推定することができる。また、例えば被写体の音声から笑い声等が検出された場合、感情推定部20cは、被写体が幸福な感情になっているため、一緒に居るユーザ(撮影者)も同様に幸福な感情になっていると推定することができる。
また、図2〜図4を参照して、本実施形態による通信システムに含まれるクライアント1、3およびサーバ2の各構成について説明したが、本開示はこれに限定されず、各構成の機能はどのように分散されていてもよい。具体的には、例えばサーバ2の制御部20の各機能が全てクライアント1側に設けられていてもよいし、環境−感情DB22、コンテンツ−感情DB23、および感情マップDB24がそれぞれ別サーバに設けられていてもよい。
また、上述した「3−1.感情マップに応じたナビゲーション」では、ユーザの現在位置情報に応じて所定の感情に紐付けられた場所や経路に案内する感情ナビゲーションについて説明したが、本実施形態はこれに限定されない。例えば、現在位置情報と感情マップを参照してユーザの現在の感情を推定し、推定した感情に応じたナビゲーションを行うことも可能である。具体的には、現在位置が感情マップ上の幸福度が低い場所に位置する場合、現在のユーザの感情が幸福度の低いものと推定し、幸福度が高い場所へのナビゲーションを行う。
また、上述したコンテンツナビゲーション、環境情報ナビゲーションでは、それぞれ視聴コンテンツや周囲の環境情報に基づいてユーザの現在の感情を推定しているが、本実施形態はこれに限定されない。例えばユーザの現在地と感情マップを参照してユーザの現在の感情を推定し、より幸福になるためのコンテンツナビゲーションまたは環境改善ナビゲーションを行ってもよい。
また、サーバ2は、環境情報と感情データの相関を示すデータ(環境−感情DB22)、コンテンツデータと感情データの相関を示すデータ(コンテンツ−感情DB23)を、ユーザの属性別(年齢、年代、性別、趣味・嗜好、出身地等別)に生成してもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
ユーザの現在位置情報を取得する取得部と、
前記現在位置情報と、感情データがマッピングされた地図情報とに応じて、案内情報を生成する案内情報生成部と、
前記案内情報をユーザに提供する提供部と、
を備える、通信システム。
(2)
前記案内情報は、前記地図情報にマッピングされた感情データに応じた進行方向をユーザに指示する情報を含む、前記(1)に記載の通信システム。
(3)
前記取得部は、前記ユーザの感情を推定するためのデータを取得する、前記(1)または(2)に記載の通信システム。
(4)
前記通信システムは、前記感情データがマッピングされた地図情報を生成する地図情報生成部をさらに備える、前記(1)〜(3)のいずれか1項に記載の通信システム。
(5)
前記地図情報生成部は、クライアントからアップロードされる前記ユーザの感情を推定するためのデータ/推定済みの感情データと、位置情報に応じて、前記地図情報を生成する、前記(4)に記載の通信システム。
(6)
前記地図情報生成部は、各地域の平均寿命情報もマッピングする、前記(4)または(5)に記載の通信システム。
(7)
前記通信システムは、クライアントからアップロードされたコンテンツデータに基づいて感情データを推定する第1の感情推定部をさらに備える、前記(1)〜(6)のいずれか1項に記載の通信システム。
(8)
前記第1の感情推定部は、前記コンテンツデータの特徴量と感情データとの関係を学習した学習結果に基づいて、前記コンテンツデータに応じた感情データを推定する、前記(7)に記載の通信システム。
(9)
前記案内情報生成部は、現在ユーザが視聴しているコンテンツデータに基づいて推定される感情データに応じた所定のコンテンツデータをユーザに推薦するための案内情報を生成する、前記(7)または(8)に記載の通信システム。
(10)
前記通信システムは、クライアントからアップロードされるユーザ周辺の環境情報に基づいて感情データを推定する第2の感情推定部をさらに備える、前記(1)〜(9)のいずれか1項に記載の通信システム。
(11)
前記第2の感情推定部は、前記環境情報と感情データとの関係を学習した学習結果に基づいて、前記環境情報に応じた感情データを推定する、前記(10)に記載の通信システム。
(12)
前記案内情報生成部は、現在のユーザ周辺の環境情報に基づいて推定される感情データに基づいて、環境情報の改善をユーザに提案する案内情報を生成する、前記(10)または(11)に記載の通信システム。
(13)
ユーザの現在位置情報をクライアントから取得することと、
前記現在位置情報と、感情データがマッピングされた地図情報とに応じて、案内情報を生成することと、
前記案内情報をユーザに提供するよう制御することと、
を含む、制御方法。
(14)
コンピュータを、
ユーザの現在位置情報を取得する取得部と、
前記現在位置情報と、感情データがマッピングされた地図情報とに応じて、案内情報を生成する案内情報生成部と、
前記案内情報をユーザに提供する提供部と、
として機能させるためのプログラムが記憶された、記憶媒体。
1 クライアント(案内情報提示用)
10 制御部
11 通信部
12 表示部
13 操作部
14 記憶部
2 サーバ
20 制御部
20a 地図情報生成部
20b 案内情報生成部
20c 感情推定部
20d 提供部
21 通信部
22 環境−感情DB
23 コンテンツ−感情DB
24 感情マップDB
3、3a〜3c クライアント(データ収集用)
30 制御部
31 通信部
32 表示部
33 操作部
34 画像DB
35 撮像部
36 インカメラ
37 感情センサ部
38 位置情報取得部
5 ネットワーク

Claims (13)

  1. ユーザの現在位置情報を取得する取得部と、
    前記現在位置情報と、感情データがマッピングされた地図情報とに応じて、案内情報を生成する案内情報生成部と、
    前記案内情報をユーザに提供する提供部と、
    前記感情データがマッピングされた地図情報を生成する地図情報生成部と、
    を備え、
    前記地図情報生成部は、各地域の平均寿命情報もマッピングする、通信システム。
  2. 前記案内情報は、前記地図情報にマッピングされた感情データに応じた進行方向をユーザに指示する情報を含む、請求項1に記載の通信システム。
  3. 前記取得部は、前記ユーザの感情を推定するためのデータを取得する、請求項1または2に記載の通信システム。
  4. 前記地図情報生成部は、クライアントからアップロードされる前記ユーザの感情を推定するためのデータ/推定済みの感情データと、位置情報に応じて、前記地図情報を生成する、請求項1〜3のいずれか1項に記載の通信システム。
  5. 前記通信システムは、クライアントからアップロードされたコンテンツデータに基づいて感情データを推定する第1の感情推定部をさらに備える、請求項1〜4のいずれか1項に記載の通信システム。
  6. 前記第1の感情推定部は、前記コンテンツデータの特徴量と感情データとの関係を学習した学習結果に基づいて、前記コンテンツデータに応じた感情データを推定する、請求項に記載の通信システム。
  7. 前記案内情報生成部は、現在ユーザが視聴しているコンテンツデータに基づいて推定される感情データに応じた所定のコンテンツデータをユーザに推薦するための案内情報を生成する、請求項に記載の通信システム。
  8. 前記通信システムは、クライアントからアップロードされるユーザ周辺の環境情報に基づいて感情データを推定する第2の感情推定部をさらに備える、請求項1〜4のいずれか1項に記載の通信システム。
  9. クライアントからアップロードされるユーザ周辺の環境情報に基づいてユーザの感情データを推定する感情推定部と、
    前記推定したユーザの感情データと、目標とする感情データがマッピングされた環境情報とに応じて、案内情報を生成する案内情報生成部と、
    前記案内情報をユーザに提供する提供部と、
    を備える、通信システム。
  10. 前記情推定部は、前記環境情報と感情データとの関係を学習した学習結果に基づいて、前記環境情報に応じた感情データを推定する、請求項に記載の通信システム。
  11. 前記案内情報生成部は、現在のユーザ周辺の環境情報に基づいて推定される感情データに基づいて、環境情報の改善をユーザに提案する案内情報を生成する、請求項9または10に記載の通信システム。
  12. プロセッサが、
    クライアントからアップロードされるユーザ周辺の環境情報に基づいてユーザの感情データを推定することと、
    前記推定したユーザの感情データと、目標とする感情データがマッピングされた環境情報とに応じて、案内情報を生成することと、
    前記案内情報をユーザに提供するよう制御することと、
    を含む、制御方法。
  13. コンピュータを、
    クライアントからアップロードされるユーザ周辺の環境情報に基づいてユーザの感情データを推定する感情推定部と、
    前記推定したユーザの感情データと、目標とする感情データがマッピングされた環境情報とに応じて、案内情報を生成する案内情報生成部と、
    前記案内情報をユーザに提供する提供部と、
    として機能させるためのプログラムが記憶された、記憶媒体。
JP2016514736A 2014-04-21 2015-01-20 通信システム、制御方法、および記憶媒体 Active JP6574937B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014087608 2014-04-21
JP2014087608 2014-04-21
PCT/JP2015/051411 WO2015162949A1 (ja) 2014-04-21 2015-01-20 通信システム、制御方法、および記憶媒体

Publications (2)

Publication Number Publication Date
JPWO2015162949A1 JPWO2015162949A1 (ja) 2017-04-13
JP6574937B2 true JP6574937B2 (ja) 2019-09-18

Family

ID=54332123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016514736A Active JP6574937B2 (ja) 2014-04-21 2015-01-20 通信システム、制御方法、および記憶媒体

Country Status (6)

Country Link
US (1) US10488208B2 (ja)
EP (1) EP3136055A4 (ja)
JP (1) JP6574937B2 (ja)
CN (1) CN106255866B (ja)
BR (1) BR112016023982A2 (ja)
WO (1) WO2015162949A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017181449A (ja) * 2016-03-31 2017-10-05 カシオ計算機株式会社 電子機器、経路検索方法及びプログラム
WO2017217038A1 (ja) * 2016-06-14 2017-12-21 ソニー株式会社 情報処理装置および記憶媒体
JP6952257B2 (ja) * 2016-07-15 2021-10-20 パナソニックIpマネジメント株式会社 コンテンツ提示のための情報処理装置、情報処理装置の制御方法、及び制御プログラム
CN106534320A (zh) * 2016-11-17 2017-03-22 包磊 一种用户状态地图生成方法和装置
JP2018100936A (ja) * 2016-12-21 2018-06-28 トヨタ自動車株式会社 車載装置及び経路情報提示システム
JP7030062B2 (ja) * 2016-12-28 2022-03-04 本田技研工業株式会社 情報処理システム、及び情報処理装置
WO2018123055A1 (ja) * 2016-12-28 2018-07-05 本田技研工業株式会社 情報提供システム
JP6855825B2 (ja) * 2017-02-13 2021-04-07 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム
US11413519B2 (en) 2017-02-20 2022-08-16 Sony Corporation Information processing system and information processing method
US11563340B2 (en) 2017-03-30 2023-01-24 Gs Yuasa International Ltd. Power supply device, server, and power supply device management system
JP6552548B2 (ja) * 2017-05-25 2019-07-31 本田技研工業株式会社 地点提案装置及び地点提案方法
JP6897377B2 (ja) * 2017-07-11 2021-06-30 トヨタ自動車株式会社 情報提供装置
JP6767322B2 (ja) * 2017-08-18 2020-10-14 ヤフー株式会社 出力制御装置、出力制御方法及び出力制御プログラム
US11418467B2 (en) * 2017-09-12 2022-08-16 Get Together, Inc. Method for delivery of an encoded EMS profile to a user device
CN109077741A (zh) * 2018-08-21 2018-12-25 华南师范大学 心理状态识别方法及系统
JP7090573B2 (ja) * 2019-03-15 2022-06-24 ヤフー株式会社 提供装置、提供方法及び提供プログラム
JP7175810B2 (ja) * 2019-03-20 2022-11-21 ヤフー株式会社 選択装置、選択方法及び選択プログラム
JP7160757B2 (ja) * 2019-05-17 2022-10-25 ヤフー株式会社 判定装置、判定方法及び判定プログラム
US11460314B1 (en) * 2019-06-28 2022-10-04 GM Cruise Holdings LLC. Sentiment-based autonomous vehicle user interaction and routing recommendations
CN110826436A (zh) * 2019-10-23 2020-02-21 上海能塔智能科技有限公司 情绪数据传输及处理方法、装置、终端设备、云平台
JP2021124922A (ja) * 2020-02-04 2021-08-30 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP2021189471A (ja) * 2020-05-25 2021-12-13 パナソニックIpマネジメント株式会社 イベント情報評価装置、生体情報抽出システム、イベント情報評価システムおよび生体情報抽出装置
JP7044925B1 (ja) 2020-12-04 2022-03-30 株式会社メタリアル メガネ型ウェアラブル端末、広告表示制御方法、広告表示制御プログラム、広告提供装置、広告提供方法、広告提供プログラムおよび広告提供システム
WO2022118455A1 (ja) * 2020-12-04 2022-06-09 株式会社ロゼッタ メガネ型ウェアラブル端末、広告表示制御方法、広告表示制御プログラム、広告提供装置、広告提供方法、広告提供プログラムおよび広告提供システム
WO2022180770A1 (ja) * 2021-02-26 2022-09-01 享 山中 プログラム、情報処理装置、及び情報処理方法
US12055404B2 (en) * 2021-05-04 2024-08-06 At&T Intellectual Property I, L.P. Sentiment-based navigation

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4707877B2 (ja) * 2001-06-11 2011-06-22 パイオニア株式会社 ドライブ候補地提示装置及び方法、ナビゲーション装置及びコンピュータプログラム
JP2003329477A (ja) * 2002-05-15 2003-11-19 Pioneer Electronic Corp ナビゲーション装置及び対話型情報提供プログラム
JP2005189667A (ja) * 2003-12-26 2005-07-14 Mitsubishi Electric Corp 車載機器、音声対話ドキュメント作成サーバ及びこれらを用いたナビゲーションシステム
JP2006170769A (ja) * 2004-12-15 2006-06-29 Aisin Aw Co Ltd 案内情報提供方法、案内情報提供システム、ナビゲーション装置及び入出力装置
JP2007034664A (ja) * 2005-07-27 2007-02-08 Sony Corp 感情推定装置および方法、記録媒体、および、プログラム
JP4858400B2 (ja) * 2007-10-17 2012-01-18 ソニー株式会社 情報提供システム、情報提供装置、情報提供方法
CN101382936A (zh) * 2007-12-25 2009-03-11 苏州中茵泰格科技有限公司 一种主动式互动导航的方法和系统
JP5024093B2 (ja) 2008-02-08 2012-09-12 ソニー株式会社 画像の撮影装置、その表示装置および画像データの管理システム
FR2938672A1 (fr) * 2008-11-19 2010-05-21 Alcatel Lucent Procede et dispositif d'enregistrement de donnees representatives de sentiments ressentis par des personnes dans des lieux localisables, et serveur associe
US9417084B2 (en) * 2010-03-26 2016-08-16 Koninklijke Philips N.V. Method and navigation device for providing at least one route
US8364395B2 (en) * 2010-12-14 2013-01-29 International Business Machines Corporation Human emotion metrics for navigation plans and maps
CN103917993B (zh) * 2011-11-09 2018-05-15 皇家飞利浦有限公司 使用生物传感器来经由数据网络服务分享情绪
US9389091B2 (en) * 2011-12-20 2016-07-12 Safe Path Technologies, LLC Methods and apparatus for attribute-based navigation
WO2013190689A1 (ja) * 2012-06-21 2013-12-27 トヨタ自動車 株式会社 ルートの検索装置及びルートの検索方法

Also Published As

Publication number Publication date
JPWO2015162949A1 (ja) 2017-04-13
BR112016023982A2 (pt) 2017-08-15
US10488208B2 (en) 2019-11-26
EP3136055A4 (en) 2018-04-11
CN106255866A (zh) 2016-12-21
CN106255866B (zh) 2019-09-13
EP3136055A1 (en) 2017-03-01
US20170205240A1 (en) 2017-07-20
WO2015162949A1 (ja) 2015-10-29

Similar Documents

Publication Publication Date Title
JP6574937B2 (ja) 通信システム、制御方法、および記憶媒体
JP7077376B2 (ja) 撮像装置およびその制御方法
CN110506249B (zh) 信息处理设备、信息处理方法和记录介质
JP5829244B2 (ja) 撮像装置及び撮像装置のガイド表示方法
JP6094190B2 (ja) 情報処理装置および記録媒体
KR102184272B1 (ko) 글래스 타입 단말기 및 이의 제어방법
CN108700982B (zh) 信息处理设备、信息处理方法以及程序
WO2022227393A1 (zh) 图像拍摄方法及装置、电子设备和计算机可读存储介质
TWI681363B (zh) 用於基於關聯性之視覺媒體項目修改之裝置及方法、與相關行動通訊設備、伺服器及電腦可讀媒體
CN108848313B (zh) 一种多人拍照方法、终端和存储介质
JP2014090386A (ja) 情報処理システム、情報処理装置、およびプログラム
JP6402718B2 (ja) 情報処理装置、制御方法およびプログラム
KR20090098505A (ko) 상태 정보를 이용하여 미디어 신호를 생성하는 방법 및장치
JP2023515988A (ja) 拡張現実ゲスト認識システム及び方法
WO2019044135A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2018045558A (ja) 制御装置、制御システム及び制御方法
EP3087727A1 (en) An emotion based self-portrait mechanism
CN104486548A (zh) 一种信息处理方法及电子设备
CN114079730B (zh) 一种拍摄方法和拍摄系统
KR20150042886A (ko) 감성 컨텐츠 운용 시스템, 그의 감성 컨텐츠 서비스 운용 방법, 이를 지원하는 서비스 제공 장치 및 단말기
JP7199808B2 (ja) 撮像装置およびその制御方法
CN117061849A (zh) 捕获和存储物理环境的图像
KR102457953B1 (ko) 인터랙티브 사진 서비스 방법
WO2017169499A1 (ja) 制御装置、制御方法及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181228

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190527

R151 Written notification of patent or utility model registration

Ref document number: 6574937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151