[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2008198135A - 情報配信システム、情報配信装置および情報配信方法 - Google Patents

情報配信システム、情報配信装置および情報配信方法 Download PDF

Info

Publication number
JP2008198135A
JP2008198135A JP2007035476A JP2007035476A JP2008198135A JP 2008198135 A JP2008198135 A JP 2008198135A JP 2007035476 A JP2007035476 A JP 2007035476A JP 2007035476 A JP2007035476 A JP 2007035476A JP 2008198135 A JP2008198135 A JP 2008198135A
Authority
JP
Japan
Prior art keywords
information
user
data
unit
distribution system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007035476A
Other languages
English (en)
Other versions
JP2008198135A5 (ja
Inventor
Masataka Shinoda
昌孝 篠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007035476A priority Critical patent/JP2008198135A/ja
Publication of JP2008198135A publication Critical patent/JP2008198135A/ja
Publication of JP2008198135A5 publication Critical patent/JP2008198135A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】任意に取得された写真や映像といった情報を、関連するユーザそれぞれに対して共通的に、且つ、効率的に提供する。
【解決手段】所定に配置されたセンサ装置10A、10B、・・・から出力された情報を、システム11により収集する。また、システム11は、ユーザに対して各ユーザを識別するためのユーザIDを付与する。さらに、ユーザは、自身と他のユーザとを関連付けるための情報をシステム11に登録すると共に、本人を識別可能な本人識別情報をシステム11に登録する。センサ装置10A、10B、・・・の出力から本人識別情報に対応する情報が検出された場合、システム11は、当該本人識別情報に対応するユーザIDに基づき、センサ装置10A、10B、・・・の出力から当該本人識別情報が検出された情報を、当該ユーザIDに関連付けられたユーザに配信する。
【選択図】図1

Description

この発明は、登録されたユーザに関して取得された情報を、当該ユーザや当該ユーザに関連する他のユーザに提供する情報配信システム、情報配信装置および情報配信方法に関する。
例えばテーマパークやアトラクション施設などの大規模な娯楽施設では、アトラクション中におけるユーザ自身の写真や映像を購入できるようにしたサービス業務が従来から存在する。このようなサービスでは、アトラクション中のユーザがカメラにより撮影できない状況での写真や映像を提供することができるため、記念写真や記念映像として有効である。
このようなサービスでは、ユーザは、写真や映像の購入を例えばアトラクション毎に行うことになる。一例として、ユーザは、あるアトラクションが終了した際に、そのアトラクションにおいて撮影された写真や映像を注文する。ユーザは、写真の現像や映像の編集を待って、注文した写真や映像を入手することができる。したがって、ユーザは、この写真や映像の購入のために多大な時間と手間を要してしまい、ひいては、ユーザのアトラクションへの参加も制限されてしまうことになる。これは、ユーザのみならず、施設側にとっても不利益となりうる。
このような、当該サービスにおけるユーザおよび施設側の不都合を解消すべく、ユーザが写真や映像を購入する際に要する時間や手間を低減するようにしたシステムも提案されている。例えば、特許文献1は、ユーザは自分の位置情報や時刻情報を記憶するようにされた利用者メディアを持ち歩き、施設側ではアトラクション施設内にネットワーク接続された撮影装置を複数台設置して常時撮影を行うようにしたシステムが提案されている。
特開2004−336089
この特許文献1によるシステムでは、ユーザは、自分が撮影されている写真や映像の提供を受けたいと考えたときに、利用者メディアに記憶されている情報をシステムに読み取らせる。システム側では、利用者メディアから読み取った位置および時刻情報に基づき当該ユーザが撮影されている写真や映像を抽出し、例えばディスク、メモリカードといった可搬性の記録媒体に記録したり、ネットワークによる通信を利用してユーザに提供する。
ところで、上述したテーマパークやアトラクション施設は、ユーザが単独で利用するよりも、友人同士や所定の団体といった、関連する複数のユーザで利用することが多いと考えられる。そこで、例えば関連する複数のユーザがテーマパークやアトラクション施設内で任意に行動した場合に、撮影された写真や映像を、関連するユーザのそれぞれに対して、効率的に提供することができるようなシステムが求められている。
一例として、互いに友人同士のユーザA、B、C、DおよびEが連れ立って、複数のアトラクション施設を有するテーマパークを利用した場合を考える。ここで、ユーザAおよびBがアトラクション施設Pを利用し、ユーザC、DおよびEがアトラクション施設Qを利用したものとする。このような場合に、アトラクション施設PおよびQでそれぞれ撮影された写真や映像を、関連するユーザA、B、C、DおよびEに対して共通に、効率的に提供できるようなシステムが求められている。
したがって、この発明の目的は、任意に取得された写真や映像といった情報を、関連するユーザそれぞれに対して共通的に、且つ、効率的に提供できるような情報配信システム、情報配信装置および情報配信方法を提供することにある。
この発明は、上述した課題を解決するために、情報を1または複数の配信先に配信するようにした情報配信システムにおいて、対象から遠隔的に情報の取得が可能な、所定のエリアに複数が配置された情報取得部と、情報取得部で取得された情報を解析して所定の特徴を示す情報を抽出する情報解析部と、情報解析部で抽出された所定の特徴を示す情報に関連付けられた関連情報を検索する検索部と、少なくとも、検索部で検索された関連情報に対応する配信先に、情報取得部で取得された情報のうち関連情報に対応する情報を配信する配信部とを有することを特徴とする情報配信システムである。
また、この発明は、情報を1または複数の配信先に配信するようにした情報配信装置において、対象から遠隔的に情報の取得が可能な、所定のエリアに複数が配置された情報取得部で取得された情報を解析して、所定の特徴を示す情報を抽出する情報解析部と、情報解析部で抽出された所定の特徴を示す情報に関連付けられた関連情報を検索する検索部と、少なくとも、検索部で検索された関連情報に対応する配信先に、情報取得部で取得された情報のうち関連情報に対応する情報を配信する配信部とを有することを特徴とする情報配信装置である。
また、この発明は、情報を1または複数の配信先に配信するようにした情報配信方法において、所定のエリアに複数が配置された、対象から遠隔的に情報の取得が可能な情報取得部により情報を取得する情報取得のステップと、情報取得のステップにより取得された情報を解析して所定の特徴を示す情報を抽出する情報解析のステップと、情報解析のステップにより抽出された所定の特徴を示す情報に関連付けられた関連情報を検索する検索のステップと、少なくとも、検索のステップにより検索された関連情報に対応する配信先に、情報取得のステップにより取得された情報のうち関連情報に対応する情報を配信する配信のステップとを有することを特徴とする情報配信方法である。
上述したように、この発明は、所定のエリアに複数が配置された、対象から遠隔的に情報の取得が可能な情報取得部により取得された情報を解析して所定の特徴を示す情報を抽出し、抽出された所定の特徴を示す情報に関連付けられた関連情報を検索し、少なくとも、検索された関連情報に対応する配信先に、取得された情報のうち関連情報に対応する情報を配信するようにしている。
この発明は、上述したように、所定のエリアに複数が配置された、対象から遠隔的に情報の取得が可能な情報取得部により取得された情報を解析して所定の特徴を示す情報を抽出し、抽出された所定の特徴を示す情報に関連付けられた関連情報を検索し、少なくとも、検索された関連情報に対応する配信先に、取得された情報のうち関連情報に対応する情報を配信するようにしているため、取得された情報に関連する配信先に対し、当該関連する配信先にとって適切な情報を配信できるという効果がある。
以下、この発明の実施の形態について、下記の順序に従って説明する。
1.発明の概念
2.発明の実施の第1の形態
2−1−1.システムについて
2−1−2.実施の第1の形態に適用可能なサーバシステムについて
2−1−3.実施の第1の形態による概略的な処理の流れについて
2−1−4.データのパッケージングについて
2−2.実施の第1の形態の第1の応用例について(大規模遊戯施設への適用例)
2−2−1.第1の応用例に適用可能なシステム構成について
2−2−2.第1の応用例に適用可能なデータベースの構成例について
2−2−3.第1の応用例による一例の処理の流れについて
2−2−4.パッケージデータの内容を閲覧させる一例の方法について
2−2−5.第1の応用例による他の例の処理の流れについて
2−3.実施の第1の形態の第2の応用例について(セキュリティシステムへの適用例)
2−3−1.第2の応用例に適用可能なシステム構成について
2−3−3.第2の応用例による一例の処理の流れについて
2−4.実施の第1の形態の第3の応用例について(ラーニングシステムへの適用例)
2−4−1.第3の応用例に適用可能なシステム構成について
2−4−2.第3の応用例による一例の処理の流れについて
3.発明の実施の第2の形態
3−1−1.システムについて
3−1−2.実施の第2の形態に適用可能なサーバシステムについて
3−1−3.実施の第2の形態による概略的な処理の流れについて
3−2.実施の第2の形態の第1の応用例について(大規模遊戯施設への適用例)
3−2−1.第1の応用例に適用可能なシステム構成について
3−2−3.第1の応用例による一例の処理の流れについて
3−3.実施の第2の形態の第2の応用例について(ラーニングシステムへの適用例)
3−3−1.第2の応用例に適用可能なシステム構成について
3−3−3.第2の応用例による一例の処理の流れについて
4.発明の実施の第3の形態
4−1−1.システムについて
4−1−2.実施の第3の形態に適用可能なサーバシステムについて
4−1−3.実施の第3の形態による概略的な処理の流れについて
4−2.実施の第3の形態の第1の応用例について(大規模遊戯施設への適用例)
4−2−1.第1の応用例に適用可能なシステム構成について
4−2−2.第1の応用例による一例の処理の流れについて
4−2−3.第1の応用例による他の例の処理の流れについて
4−3.実施の第3の形態の第2の応用例について(ラーニングシステムへの適用例)
4−3−1.第2の応用例に適用可能なシステム構成について
4−3−2.第2の応用例による一例の処理の流れについて
5.発明の実施の第4の形態
5−1.システムの概要
5−2.データ管理画面の例について
5−3.データ管理画面の他の例
なお、以下の記載は、この発明を実施可能な程度に開示するものであり、この発明は、下記の各実施形態および各応用例に限定されるものではなく、この発明の主旨を逸脱しない限り、様々な変形、応用が可能である。
1.発明の概念
先ず、この発明の概念について説明する。この発明の実施の形態では、所定に配置された1または複数のセンサ装置から出力された情報を、システムにより収集する。また、システムは、ユーザに対して各ユーザを識別するための識別情報であるユーザIDを付与する。さらに、ユーザは、自身と他のユーザとを関連付けるための情報をシステムに登録する。センサ装置の出力からユーザIDに対応する情報が検出された場合、システムは、ユーザIDに基づき、センサ装置の出力から検出された当該情報を当該ユーザIDに関連付けられたユーザに送信する。
2.発明の実施の第1の形態
2−1−1.システムについて
この発明の実施の第1の形態について説明する。図1は、この発明の第1の形態による一例のシステム構成を概略的に示す。このシステムによるサービスの対象となる地域において、位置A、位置B、位置C、・・・にセンサ装置10A、10B、10C、・・・がそれぞれ配置される。同様に、センサ装置10A、10B、10C、・・・それぞれに対応する位置に、リーダ14A、14B、14C、・・・が各々配置される。これらセンサ装置10A、10B、10C、・・・、ならびに、リーダ14A、14B、14C、・・・は、ネットワーク12にそれぞれ接続される。ネットワーク12には、さらに、サーバシステム部11が接続される。
ネットワーク12は、このシステムで閉じたネットワークとしてもよいし、インターネットのようなオープンなネットワークであってもよい。ネットワーク12としてオープンなネットワークを用いる場合には、各センサ装置10A、10B、10C、・・・、各リーダ14A、14B、14C、・・・、ならびに、サーバシステム部11との間でやりとりされるデータは、所定の暗号化方式で以て暗号化すると好ましい。
以下では、センサ装置10A、10B、10C、・・・のそれぞれを、適宜、センサ装置10として代表させて記述する。同様に、リーダ14A、14B、14C、・・・のそれぞれを、適宜、リーダ14として代表させて記述する。
センサ装置10は、ユーザの情報を遠隔的に取得可能であれば、様々な種類の装置を適用することができる。例えば、センサ装置10として、撮像素子を有し撮像素子で撮像された静止画像を出力するカメラ装置を適用することができる。これに限らず、撮像素子を有し撮像素子で撮像された動画像を出力するビデオカメラ装置を適用することもできる。また、これら静止画像を出力するカメラ装置や、動画像を出力するビデオカメラ装置は、可視光領域の光を撮像対象とするものに限られず、赤外線領域や紫外線領域、X線領域の光を撮像対象とするような装置でもよい。
センサ装置10は、カメラ装置やビデオカメラ装置のような画像を出力する装置に限られない。例えば、マイクロフォンを用いて収音された音声を出力するようなオーディオ装置をセンサ装置10として用いることも可能である。
さらに例えば、所定のコードを含むディジタル信号が変調された電波を受信して復調するようにした受信装置を、センサ装置10として用いることも考えられる。この場合、サービスを受けるユーザに対して、ユーザ毎にユニークなコードを変調して送信する送信機を所持させるようにする。
リーダ14は、ユーザ媒体15からのデータの読み出しを行う。例えば、ユーザ媒体15は、メモリとデータの送受信部とを有し、ユーザ媒体15をリーダ14に近付けることで、ユーザ媒体15とリーダ14との間で所定のプロトコルを用いて通信がなされ、データやコマンドがやりとりされる。これにより、ユーザ媒体15のメモリからのデータの読み出しが行われる。リーダ14によってユーザ媒体15から読み出されたデータは、ネットワーク12を介してサーバシステム部11に送信される。
このようなユーザ媒体15としては、例えば合成樹脂製のカード内にIC(Integrated Circuit)チップ、不揮発性メモリおよびアンテナを内蔵させ、リーダ14から発せられる電波により自己発電を行い作動するようにされたカード型記憶媒体を適用することができる。また、ユーザが所持する携帯およびデータの送受信が可能な情報機器を、ユーザ媒体15として適用することができる。このような情報機器としては、データの送受信が可能とされた携帯電話端末やPDA(Personal Digital Assistant)などが考えられる。
さらに、近年では、携帯電話端末に対して、電話通信機能とは別途にICチップやアンテナ機構、不揮発性メモリを内蔵させ、カード型記憶媒体と同等の機能を持たせた製品も出現している。このような携帯電話端末の、カード型記憶媒体対応機能部分をユーザ媒体15として用いることも可能である。
さらに、リーダ14とユーザ媒体15との間のデータ通信は、無線によるものに限られず、有線、例えばコネクタを介した電気的接触を用いて行うようにしてもよい。この場合、ユーザ媒体15は、不揮発性メモリとインターフェイスとで構成することができ、所謂USB(Universal Serial Bus)メモリ、コンパクトフラッシュメモリ(コンパクトフラッシュは登録商標)、スマートメディアなどを適用することができる。
さらにまた、ユーザ媒体15は、磁気ディスクや磁気カード、光磁気ディスク、光ディスクといった、書き換え可能な記録媒体としてもよい。この場合、リーダ14は、対応するドライブ装置を備える。
さらに、ユーザ媒体15は、物理的な変形を以てデータを記録するようなものでもよい。例えば、紙やプラスチック板などに穴を穿ち、データを記録することが考えられる。ユーザIDや日時の情報を記録するのみであれば、このような記録方法でも十分対応可能である。この場合、リーダ14は、光学的手法や、電気的な接触を以てデータの読み取りを行う。
また、ユーザ媒体15として、印刷媒体を用いることができる。例えば、データをバーコードやQRコード(Quick Response Code)といった所定のコードに変換し、紙やその他の所定の印刷媒体に印刷することで、データの記録を行う。リーダ14は、例えば印刷された情報を光を用いて読み取る読み取り装置を備える。
サーバシステム部11は、概略的には、情報処理部20、ユーザデータベース部21、センサ情報データベース部22およびユーザ登録部23を有する。情報処理部20は、このシステム全体の制御や管理を行う。例えば情報処理部20は、ネットワーク12を介して各センサ装置10A、10B、10C、・・・や各リーダ14A、14B、14C、・・・と通信を行い、これら各センサ装置10A、10B、10C、・・・や各リーダ14A、14B、14C、・・・の動作を制御すると共に、各センサ装置10A、10B、10C、・・・から出力されたデータや各リーダ14A、14B、14C、・・・で読み出されたデータの受信を行う。また例えば、情報処理部20は、各センサ装置10A、10B、10C、・・・から出力されたデータを必要に応じて加工する処理を行うと共に、加工されたデータを登録ユーザに配信する処理も行う。
ユーザ登録部23は、このシステムを利用するユーザの情報を登録する。例えば、ユーザは、システム利用時またはシステムの利用に当たって予め、自身の情報をユーザ登録部23に対して入力する。ユーザ登録部23は、ユーザにより情報が入力されると、当該ユーザを識別するためのユーザIDを生成し、入力されたユーザの情報をこのユーザIDと関連付けて、ユーザ情報を形成する。
図2Aは、ユーザ情報が格納されるユーザ情報テーブルの一例の構成を示す。ユーザIDに対して、当該ユーザの属性情報が関連付けられる。属性情報は、例えば当該ユーザの名前、連絡先などからなる。ユーザの連絡先を示す連絡先情報は、後述するようにこのシステムがインターネットを介してデータを配信するようにされている場合、電子メールアドレスが含まれる。それぞれのユーザ情報は、ユーザIDによって互いに識別可能とされる。
また、ユーザ登録部23は、ユーザ本人を識別するための情報(本人識別情報と呼ぶ)を生成する。本人識別情報は、センサ装置10から出力されたデータに基づきユーザ本人を識別するための情報であって、ユーザIDと関連付けて本人識別情報テーブルに格納する。本人識別情報テーブルは、概略的には、図2Bに一例が示されるように、ユーザIDと本人識別情報とが対応付けられた構成とすることが考えられる。ユーザIDと本人識別情報との対応関係は、1対1対応に限られず、本人識別情報として用いる情報の種類によっては、例えば1のユーザIDに対して複数の本人識別情報を対応付けることも可能である。
本人識別情報としてどのような種類の情報を用いるかは、システムの目的などに応じて決められる。また、本人識別情報として用いる情報の種類が決まれば、センサ装置10の種類が決まることになる。ここでは、センサ装置10の種類という観点から、本人識別情報の種類について説明する。
一例として、センサ装置10が静止画像若しくは動画像を出力するカメラ装置である場合には、ユーザの顔を識別するための情報を本人識別情報として用いることができる。例えば、ユーザ登録時にユーザの顔を撮影し、得られた顔画像を解析して顔としての特徴点を抽出して数値化する。この特徴点を数値化した情報(特徴点情報と呼ぶ)を、本人識別情報として登録することが考えられる。複数の異なる方法で特徴点を抽出し、抽出された特徴点に基づく特徴点情報のそれぞれを、1のユーザIDに対応付けることも考えられる。
顔の撮影は、ユーザ登録部23に撮像装置を設けてユーザ登録部23において行ってもよいし、ユーザ側で撮像され得られた顔画像をユーザ登録部23から入力することもできる。また、撮像された顔画像そのものを、本人識別情報として用いることも可能である。
別の例として、センサ装置10が収音した音声を音声信号として出力する装置である場合には、ユーザの声音を識別するための情報を本人識別情報として用いることができる。例えば、ユーザ登録時にユーザの声を録音し、得られた音声情報を解析した解析結果を本人識別情報として用いることが考えられる。一例として、ユーザの声音による音声情報を時間、周波数および強度で解析して声紋パターンを得て、この声紋パターンを数値化した情報を本人識別情報とする。
これに限らず、任意の発音に基づき話者を特定するテキスト独立型話者認識の手法を用いて得られた情報を、ユーザの声音による本人識別情報としてもよい。テキスト独立型話者認識の方法としては、ベクトル量子化歪みによる方法や、HMM(Hidden Markov Model)およびGMM(Gaussian Mixture Model)による方法などが提案されている。
声の録音は、上述と同様に、ユーザ登録部23に録音装置を設けてユーザ登録部23において行ってもよいし、ユーザ側で録音され得られた音声情報をユーザ登録部23から入力することもできる。また、録音された音声情報そのものを、本人識別情報として用いることも可能である。
さらに別の例として、センサ装置10が所定のコードが変調された電波を受信して復調して出力するようにした受信装置である場合には、当該所定のコードが本人識別情報として登録される。この場合、例えばシステムは、ユーザに対してユニークなコードを生成し、生成されたコードを本人識別情報として登録すると共に、システム側で予め送信機を用意し、当該コードを変調して送信するように当該送信機を設定してユーザに渡す。
ユーザ登録部23は、さらに、登録されたユーザに対して他のユーザを関連付けることができる。例えばユーザは、ユーザとその友人、ユーザとその家族など、複数のメンバによってユーザ登録部23でユーザ情報の登録を行い、登録されたメンバそれぞれを互いに関連付ける。ユーザの関連付けを、既にユーザデータベース21にユーザ情報が登録されている他のユーザに対して行うことも可能である。
例えば、ユーザデータベース21に登録されるユーザ情報に対して、当該ユーザに関連する他のユーザのユーザIDを含めるようにすることが考えられる。図3Aは、関連するユーザIDの情報を含むユーザ情報テーブルの一例の構成を示す。この図3Aの例では、ユーザIDに対して、他のユーザIDが関連付けられる。この場合、ユーザIDに対して属性情報が関連付けられるテーブルと、ユーザIDに対して関連するユーザのユーザIDとが関連付けられるテーブルとをそれぞれ設けることも考えられる。
ユーザの関連付けは、これに限らず、例えばユーザIDをグループ化して行うようにしてもよい。例えば、ユーザは、他のユーザとの関連付けを新規に行う際に、グループを設定する。他のユーザをこのグループに所属させることで、他のユーザとの関連付けを行うことができる。或いは、ユーザは、既に登録されているグループに対して所属することで、当該ユーザが当該グループに既に所属する他のユーザと関連付けられる。
図3Bは、ユーザIDをグループ化してユーザ同士の関連付けを行う場合のユーザ関連情報テーブルの一例の構成を示す。このユーザ関連情報テーブルがユーザデータベース21に登録される。例えば、ユーザ登録部23は、グループの設定時に、設定されるグループに対してグループを識別するためのグループID(図3BではGpIDと表記)を生成する。当該グループに所属するユーザのユーザIDを、このグループIDに対して関連付ける。また、グループIDに対して、当該グループの属性情報を関連付けることができる。グループの属性情報としては、グループ名、グループを説明するための情報などが考えられる。なお、ユーザ関連情報テーブルに登録されるデータは、実データの格納位置を示す対するポインタでもよい。
ユーザは、同時に複数のグループの所属することができる。図3Bの例では、ユーザID2で示されるユーザが、グループID1で示されるグループと、グループID2で示されるグループとに所属している。以下では、ユーザと他のユーザの関連付けを、図3Bの例のように、グループを用いて行うものとして説明する。
なお、ユーザに対して関連付けを行う相手は、当該ユーザの関係者に限られない。例えば、当該ユーザとは直接的な関わりがない著名人などに対して、関連付けを行うことができる。この場合、当該著名人を予めユーザとして登録する。さらに、当該著名人を含むグループを予め設定しておくこともできる。
ユーザと関連付け可能な対象は、人間に限られない。例えば、サーバシステム部11がインターネットに接続されているとするとき、所定のWebサイトやURL(Uniform Resource Locator)をユーザに対して関連付けることができる。また、所定の団体や、放送媒体、紙媒体などで伝播されるキャラクタなどを予め登録し、ユーザをこれらに関連付けることも可能である。
一例として、これらWebサイトや所定の団体、キャラクタなどに対してユーザIDを設定し、ユーザ情報テーブルに登録する。Webサイトの場合であれば、本人識別情報を当該WebサイトのURLとし、当該Webサイトの名前や説明を属性情報として登録することが考えられる。ユーザは、ユーザ関連情報テーブルにおいて、このWebサイトを示すIDを自身のユーザIDに対して関連付ける。これに限らず、このWebサイトが所属するグループを設定することができる。ユーザは、ユーザ関連情報テーブルにおいて、このWebサイトが所属するグループに自身のユーザIDを登録することで、当該Webサイトに関連付けられることになる。
図1において、センサ情報データベース22は、各センサ装置10A、10B、10C、・・・から出力されたセンサ出力データを、各センサ装置10A、10B、10C、・・・毎に蓄積する。このとき、センサ出力データは、当該データのセンサ装置10A、10B、10C、・・・における取得時刻と対応付けられて、センサ情報データベース22に蓄積される。
図4は、センサ情報データベース22に蓄積される一例のデータを示す。各センサ装置10A、10B、10C、・・・毎にユニークなセンサID(SnID)が与えられ、センサID毎に、時刻情報(TC:Time Code)とセンサ出力データとが関連付けられて格納される。時刻情報は、例えば、日付情報と時間情報とからなり、時間情報は、例えば時、分、秒で表現される。センサ装置10の出力が動画像データである場合には、時間情報は、時、分、秒、フレームで表現される。静止画像データや動画像データなどのように、時間に関して不連続的なデータの場合、この図4に示されるように、センサ出力データ毎に時刻情報を関連付けることができる。音声データのように、時間に関して連続的なデータの場合には、例えばサンプル単位で並べられたデータ列に対して所定間隔で時刻情報を関連付けることが考えられる。なお、センサ情報データベース22に登録されるデータは、実データの格納位置を示すポインタであってもよい。
なお、図4では、各センサ装置10A、10B、10C、・・・のデータが1のテーブルにまとめて格納されているが、これはこの例に限らず、各センサ装置10A、10B、10C、・・・毎にファイルを作成することも考えられる。
2−1−2.実施の第1の形態に適用可能なサーバシステムについて
図5は、サーバシステム部11の一例の構成をより具体的に示す。なお、図5において、上述した図1と共通する部分には同一の符号を付し、詳細な説明を省略する。サーバシステム部11の各部(図5の例では、センサ情報データベース22、ユーザ情報処理部31、センサ管理部32、センサ情報抽出部33、センサ情報編集部34、記録管理部35、配信管理部37、課金管理部39およびリーダ/ライタ部40)は、例えばネットワーク12を介して互いに通信可能に接続される。これに限らず、サーバシステム部11の各部を例えばLAN(Local Area Network)といった他のネットワークで接続し、この他のネットワークをネットワーク12に接続するようにしてもよい。また、サーバシステム部11を1台乃至複数台のコンピュータ装置と周辺機器とで構成することもできる。
サーバシステム部11において、ユーザ情報登録部30およびユーザ情報処理部31で、上述したユーザ登録部23が構成される。ユーザ情報登録部30は、ユーザによる情報の入力が行われる。ユーザ情報登録部30で入力されたデータは、ユーザ情報処理部31に供給される。
ユーザ情報処理部31は、ユーザ情報登録部30から供給されたデータを所定に処理してユーザデータベース21に登録する。また、ユーザ情報処理部31は、ユーザ情報登録部30から供給されたデータを、ネットワーク12を介してサーバシステム部11を構成する他の部分に供給することも行う。さらに、ユーザ情報処理部31は、ネットワーク12を介して供給されるユーザIDと、ユーザデータベース21に登録されるユーザ情報との照合も行う。
センサ管理部32は、センサ装置10A、10B、10C、・・・の管理を行う。例えばセンサ管理部32は、各センサ装置10A、10B、10C、・・・をネットワーク12を介して制御して、各センサ装置10A、10B、10C、・・・に対してデータ取得動作を行わせると共に、各センサ装置10A、10B、10C、・・・から出力されたセンサ出力データを収集する。収集されたセンサ出力データは、図4を用いて説明したように、各センサ装置10A、10B、10C、・・・毎に時刻情報と関連付けられてセンサ情報データベース22に蓄積される。
センサ情報抽出部33は、センサ情報データベース22に蓄積されたセンサ出力データを読み出し、読み出されたセンサ出力データを所定に解析し特定の情報を抽出する。この実施の第1の形態においては、センサ情報抽出部33は、指定されたユーザに対応する情報をセンサ出力データから抽出する。例えば、センサ情報抽出部33は、情報を抽出すべきユーザを指定されると、ネットワーク12を介してユーザ情報処理部31と通信を行い、指定されたユーザのユーザ情報をユーザデータベース21から読み出す。そして、センサ情報抽出部33は、読み出したユーザ情報における本人識別情報に基づきセンサ出力データを解析し、当該本人識別情報に対応するセンサ出力データを抽出する。
センサ情報編集部34は、センサ情報抽出部33で抽出されたセンサ出力データおよび/またはセンサ出力データに基づくデータに対する加工処理や、パッケージング処理を施す。例えば、センサ情報編集部34は、センサ出力データに対して、所定に供給される命令に従い加工処理を施す。また例えば、センサ情報編集部34は、指定されたユーザに対応するセンサ出力データやセンサ出力データが加工処理されたデータを1乃至複数集めてパッケージングし、1まとまりのデータとする。パッケージングの際に、所定の付加情報を加えてもよい。
図6Aは、1のユーザ(ユーザAとする)に対応するセンサ出力データに基づきパッケージングされたパッケージデータ50の一例の構造を示す。メタデータ51は、パッケージングされたパッケージデータ50自体の属性であって、パッケージされたデータの内容を統括的に示す情報からなる。例えば、このシステムが実施されている施設などを識別するためのID情報をメタデータとして格納することが考えられる。ユーザ個別データ52A、52B、52C、・・・は、ユーザAに対応するセンサ出力データに基づくユーザAの個別データである。
センサ装置10が静止画像データを出力するカメラ装置であって、センサ出力データがユーザAの画像が含まれる静止画像データであれば、例えば当該静止画像データをユーザ個別データ52A、52B、52C、・・・とすることができる。ユーザ個別データ52A、52B、52C、・・・としては、センサ出力データをそのまま用いてもよいし、センサ出力データに対して所定に加工処理を施したデータを用いてもよい。また、センサ出力データを所定に解析した解析結果をユーザ個別データとして用いることもできる。さらに、パッケージデータ50に対して所定の付加情報53を付加することができる。
また、図6Bに一例が示されるように、1のパッケージデータ50に対して、指定されたユーザに対応するセンサ出力データと、当該ユーザ(ユーザAとする)に関連する他のユーザ(ユーザB、ユーザCとする)に対応するセンサ出力データとを含めることができる。例えば、センサ情報編集部34は、ユーザデータベース21に格納されるユーザ関連情報テーブルに基づき、指定されたユーザAに対応するセンサ出力データと、当該ユーザAに関連するユーザB、ユーザCに対応するセンサ出力データとをパッケージングし、一纏まりのパッケージデータ50とする。
記録管理部35は、記録装置36を制御し、センサ情報編集部34でパッケージングされたパッケージデータ50をユーザの記録媒体に記録する。記録媒体は、パッケージデータ50を記録するに十分な記録容量を有していれば、特に限定されない。例えば、記録可能なタイプのDVD(Digital Versatile Disc)やCD(Compact Disc)といった光ディスクをパッケージデータ50を記録する記録媒体として用いることができる。また、光磁気ディスク、携帯可能なハードディスクといった磁気ディスク、不揮発性の半導体メモリをパッケージデータ50を記録する記録媒体として用いることもできる。
さらに、記録媒体は、これらのように電気的、光学的、磁気的にデータを記録するものに限られない。例えばセンサ装置10が静止画像データを出力するカメラ装置であって、センサ出力データが静止画像データであれば、当該センサ出力データを紙などの印刷媒体に印刷することも考えられる。
配信装置38は、例えばインターネットといったユーザ間とデータ通信が可能な所定のネットワークに接続されている。ここでは、配信装置38がインターネットに接続されているものとして説明する。配信管理部37は、配信装置38を制御してインターネットを介した通信を行うようにされている。例えば、配信管理部37は、配信装置38を制御して、センサ情報編集部34でパッケージングされたパッケージデータ50を、指定されたユーザに対して配信することができる。
一例として、配信管理部37は、センサ情報編集部34において作成されたパッケージデータ50の配信が要求されると、ユーザデータベース21を検索して、要求された配信先の例えば電子メールアドレスを取得する。配信先として取得する電子メールアドレスは、1のユーザに対するものでもよいし、互いに関連する複数のユーザに対するものでもよい。配信管理部37は、配信先の電子メールアドレスが取得されると、取得された電子メールアドレスを宛先として、パッケージデータ50を配信する。
別の例として、配信管理部37は、センサ情報編集部34において作成されたパッケージデータ50をインターネット上のWebサーバに送信すると共に、当該パッケージデータ50を閲覧するためのレイアウト情報やリンク情報が記述されたファイルを生成し、当該Webサーバに送信することもできる。
課金管理部39は、このシステムを利用したユーザに対して、システムの利用に応じた課金処理を行う。例えば、課金管理部39は、記録管理部35や配信管理部37とやりとりを行い、ユーザの記録媒体に対するパッケージデータ50の記録や、パッケージデータ50のユーザに対する配信などといったシステムの利用に応じて、当該ユーザに対して課金処理を行う。課金管理部39は、例えば銀行引き落としやクレジットカード決済、或いは振り込み請求通知などの処理のためのデータ蓄積/管理や、データ通信を行うことで、課金処理を行う。
リーダ/ライタ部40は、ユーザ媒体15からのデータの読み出しや、ユーザ媒体15に対するデータの書き込みを行うことができるようにされている。リーダ/ライタ部40で読み出されたデータは、例えばユーザ情報処理部31に供給される。
上述では、ユーザ情報を登録するユーザ情報登録部30がサーバシステム部11内にあり、ユーザは、サーバシステム部11のある所定の場所でユーザ情報の登録を行うように説明したが、これはこの例に限られない。例えば、ユーザ情報登録部30をサーバシステム部11に対して遠隔的に配置し、ユーザ情報登録部30とサーバシステム部11とを所定のネットワークで接続するようにしてもよい。さらに、ユーザ情報登録部30は、インターネットなどのネットワークを介した通信によりユーザ登録を行うようにできる。この場合、例えばユーザ宅にある、インターネットに対して接続されたパーソナルコンピュータを用いてユーザ登録を行うことができる。インターネット接続が可能な携帯電話端末などからユーザ登録を行うこともできる。
なお、図5におけるユーザ情報登録部30およびリーダ/ライタ部40が図1におけるユーザ登録部23に対応すると考えることができる。また、図5におけるユーザ情報処理部31、センサ管理部32、センサ情報抽出部33、センサ情報編集部34、記録管理部35、記録装置36、配信管理部37、配信装置38および課金管理部39で、図1における情報処理部20が構成されると考えることができる。
上述したサーバシステム部11は、例えば、それぞれ所定のプログラムに従い各部が互いに協働的に動作される。これに限らず、サーバシステム部11の全体を管理および制御するシステム制御部を設け、このシステム制御部により所定のプログラムに従いサーバシステム部11を構成する各部の動作を統合的に制御することもできる。
2−1−3.実施の第1の形態による概略的な処理の流れについて
図7を用いて、この実施の第1の形態による処理の流れを概略的に説明する。先ず、ステップS10で、システムを利用するユーザ(便宜上、当人ユーザと呼ぶ)の情報と、本人識別情報とがユーザ登録部23から入力される。例えばユーザ登録部23は、当人ユーザによる情報の入力に応じてユニークなユーザIDを発行し、入力された情報にユーザIDを関連付けてユーザ情報を生成してユーザ情報テーブルに格納すると共に、本人識別情報にユーザIDを関連付けて本人識別情報テーブルに格納し、ユーザ情報テーブルおよび本人識別情報テーブルをユーザデータベース21に登録する。
ステップS10では、さらに、当人ユーザに関連する他のユーザ(便宜上、関連ユーザと呼ぶ)の情報を登録することができる。ユーザ同士の関連を示す情報は、ユーザデータベース21内のユーザ関連情報テーブルに登録される。例えば、関連する複数のメンバから構成されるグループのうち一人がグループを設定し、他のメンバが当該グループにメンバそれぞれのユーザIDを登録することが考えられる。これに限らず、予め存在するグループにユーザIDを登録するようにしてもよい。
さらにまた、ステップS10において、当人ユーザのユーザ媒体15に対して、ユーザIDが書き込まれる。ユーザ媒体15へのユーザIDの書き込みは、例えばユーザ情報登録時や当人ユーザのシステム利用時などに、ユーザ登録部23において行われる。なお、このステップS10におけるユーザ情報および本人識別情報の登録、ならびに、ユーザ媒体15に対するユーザIDの書き込みは、システムの利用以前に予め行っておいてもよいし、システム利用時に行ってもよい。
当人ユーザは、利用したいセンサ装置10の位置に対応するリーダ14に、ユーザ媒体15に記憶されるユーザIDを読み込ませる(ステップS11)。リーダ14によりユーザ媒体15から読み出されたユーザIDは、リーダ14に対応するセンサ装置10を識別するためのセンサIDと共に情報処理部20に送信される。また、これらセンサIDおよびユーザIDと共に、時刻情報が情報処理部20に送信される。時刻情報は、例えばリーダ14でユーザIDの読み出しが行われた時刻を示す。
次のステップS12において、情報処理部20は、このセンサIDと時刻情報とに基づき、センサ情報データベース22に格納されるセンサ出力データのうち、処理の対象とするデータを選択する。すなわち、センサIDに対応するセンサ出力データから、時刻情報で示される時刻を基準として処理対象のデータが選択される。例えば、センサ出力データのうち、少なくとも時刻情報で示される時刻以降のセンサ出力データを処理の対象とすることが考えられる。
例えば、図8Aに一例が示されるように、連続的に取得されるセンサ出力データから、時刻情報で示される時刻t1以降のデータが処理対象データとして選択される。この図8Aの例では、時刻t1から所定時間後の時刻t2までが処理対象データとして選択されている。
なお、センサ装置10は、この図8Aのようにセンサ出力データを連続的に出力するのに限らず、例えばユーザがユーザ媒体15を対応するリーダ14に読み込ませた時点や、リーダ14にユーザ媒体15を読み込ませた後にセンサ装置10などに対して所定の操作を行ったタイミングでセンサ装置10からデータを出力するようにもできる。
次のステップS13では、処理対象とされたセンサ出力データから、ステップS11でリーダ14から読み出されたユーザIDに関するデータが抽出される。例えば、情報処理部20は、当該ユーザIDに基づきユーザデータベース21を検索し、当該ユーザIDに対応する本人識別情報を取得する。また、情報処理部20は、センサ情報データベース22から、処理対象とされたセンサ出力データを読み出す。
情報処理部20は、読み出されたセンサ出力データを解析して所定の特徴データを抽出し、ユーザデータベース21で検索された本人識別情報に対応する特徴データが存在するデータを選択する。例えば、図8Bに一例が示されるように、上述の図8Aで選択された処理対象データのうち、検索された本人識別情報に対応する特徴データが含まれる部分が選択される。
また、ステップS14で、情報処理部20は、ユーザデータベース21内のユーザ関連情報テーブルからステップS11でリーダ14から読み出されたユーザIDに関連付けられたユーザIDが検索され、次のステップS15で、検索されたユーザIDに対応するユーザが特定される。関連ユーザのユーザIDが特定されると、ステップS16で、特定されたユーザIDに基づき、関連ユーザに対して、ステップS13で取得されたセンサ出力データまたは当該センサ出力データが所定に加工されたデータが配信される。このデータは、関連ユーザと共に当人ユーザにも配信される。
2−1−4.データのパッケージングについて
ここで、情報処理部20でセンサ情報データベース22から複数のセンサ出力データを抽出し、抽出された複数のセンサ出力データをパッケージングして1のパッケージデータ50として、関連ユーザおよび当人ユーザに対して配信することができる。
例えば、情報処理部20は、センサ情報データベース22から複数のセンサ出力データを抽出し、これら複数のセンサ出力データなどに基づきメタデータ51を生成すると共に、必要に応じて付加情報53を生成する。複数のセンサ出力データは、それぞれ当人ユーザに関するユーザ個別データ52A、52B、・・・として、メタデータ51および付加情報53と共にパッケージングされる(図6A参照)。パッケージングされたパッケージデータ50は、例えばインターネットを介して関連ユーザおよび当人ユーザに対して配信される。
上述では、1のユーザに関するデータをパッケージデータ50としてパッケージングして配信する例について説明したが、複数のユーザに関するデータを1のパッケージデータ50にパッケージングして配信する場合も、同様の処理とすることができる。この場合、例えば、複数のユーザそれぞれについて、ユーザの情報と本人識別情報とがユーザデータベース21に登録される。また、登録された当該複数ユーザが互いに関連するようにグループが作成され、ユーザデータベース21内のユーザ関連情報テーブルに登録される。また、複数ユーザのそれぞれに対し、自身のユーザIDが書き込まれたユーザ媒体15を用意する。
複数のユーザは、それぞれ異なるリーダ14A、14B、・・・に、任意の時刻にユーザ媒体15のデータを読み込ませることができる。すなわち、複数のユーザのそれぞれは、任意のセンサ装置10A、10B、・・・に情報を取得されるようにできる。例えば、ユーザAがリーダ14Aに対し、時刻AにユーザAが有するユーザ媒体15のデータを読み込ませ、ユーザBがリーダ14Bに対し、時刻BにユーザBが有するユーザ媒体15のデータを読み込ませる。また、ユーザCは、リーダ14Aに対し、時刻CにユーザCが有するユーザ媒体15のデータを読み込ませる。
情報処理部20は、各リーダ14から送られたユーザID、時刻情報およびセンサIDに基づき、各センサ装置10から出力されセンサ情報データベース22に蓄積されたセンサ出力データを解析し、複数のユーザそれぞれの本人識別情報に対応する特徴データが存在するデータを選択する。そして、選択されたデータに基づき複数のユーザそれぞれに関するユーザ個別データ52A、52B、52C、・・・を生成する。この場合、ユーザ個別データ52A、52B、52C、・・・は、複数のユーザに関するデータをそれぞれ含むデータとなる。上述の例では、例えばユーザ個別データ52AがユーザAのデータを含み、ユーザ個別データ52BがユーザBのデータを含み、ユーザ個別データ52CがユーザCのデータを含むといったことが可能である(図6B参照)。
これら複数のユーザのデータをそれぞれ含むユーザ個別データ52A、52B、52C、・・・は、メタデータ51および付加データ53と共にパッケージングされ、パッケージデータ50とされる。このパッケージデータ50は、例えばインターネットを介してこれら複数ユーザのそれぞれに対して配信される。
2−2.実施の第1の形態の第1の応用例について
次に、この実施の第1の形態の第1の応用例について説明する。第1の応用例は、この実施の第1の形態を、遊園地やテーマパークといった大規模な遊戯施設(以下、大規模遊戯施設と呼ぶ)に応用した例である。この第1の応用例によるシステムでは、大規模遊戯施設内に所定に配置されたカメラ装置で自動撮影を行い、得られた静止画像データを解析して登録されたユーザが映っている静止画像データを抽出する。そして、この登録ユーザが映っている静止画像データを、当該ユーザと、当該登録ユーザに関連付けられた他のユーザとに対して配信するようにしている。
2−2−1.第1の応用例に適用可能なシステム構成について
図9は、この第1の応用例による一例のシステム構成を概略的に示す。なお、図9において、上述した図1と共通する部分には同一の符号を付し、詳細な説明を省略する。大規模遊戯施設100は、複数のアトラクション施設101A、101B、101C、101D、・・・が設けられ、客(ユーザ)は、例えば入口で入場料を支払って大規模遊戯施設100に入場し、出口から出場する。入口と出口は、共通とされていてもよい。
アトラクション施設101A、101B、・・・は、例えば、ステージ、単独乃至複数の客が乗り込むようにされた動力付きの遊戯装置、仕掛けで客を楽しませたり、展示などが行われる建物などである。勿論アトラクション施設101A、101B、・・・は、これらの例に限られない。大規模遊戯施設100内の広場など、範囲が限定されない施設を含むこともできる。
アトラクション施設101A、101B、・・・に対してカメラ装置102A、102B、・・・が設けられると共に、これらカメラ装置102A、102B、・・・にそれぞれ対応してリーダ103A、103B、・・・が各アトラクション施設101A、101B、・・・に設けられる。カメラ装置102A、102B、・・・は、それぞれ図1におけるセンサ装置10A、10B、・・・に対応する。同様に、リーダ103A、103B、・・・は、図1におけるリーダ14A、14B、・・・にそれぞれ対応する。
カメラ装置102A、102B、・・・は、例えば後述する情報処理部20の命令に基づき自動的に撮影を行うようにされている。カメラ装置102A、102B、・・・の設置位置および方向は、様々に考えられる。カメラ装置102A、102B、・・・は、アトラクション施設101A、101B、・・・を利用する客や、アトラクション施設101A、101B、・・・で演技などを行うキャラクタを明確に捉えられるように設置すると、より好ましい。
大規模遊戯施設100の入口には、入場登録部104が設けられる。入場登録部104は、所定の表示部や入力操作部を備え、客は、この大規模遊戯施設100に入場する際に、この入場登録部104に対して客自身の情報を入力する。また、入場登録部104に対して、ユーザ媒体15の作成および排出を行う機能を持たせることもできる。例えばユーザ媒体15がカード型記憶媒体や、紙製または合成樹脂製のカードにバーコードやQRコードを印刷した印刷カードである場合、入力登録部104でカード型記憶媒体に対するデータの書き込みや、印刷カードに対するデータの印刷を行うようにできる。
さらに、大規模遊戯施設100の出口側には、出場登録部105が設けられる。出場登録部105は、例えばユーザ媒体15のデータを読み取り可能なリーダ装置を備える。ユーザは、この大規模遊戯施設100を出場する際に、この出場登録部105のリーダ装置に対して自身のユーザ媒体15に記憶されたデータを読み取らせることで、出場登録を行う。
アトラクション施設101A、101B、・・・にそれぞれ設けられるカメラ装置102A、102B、・・・およびリーダ103A、103B、・・・、ならびに、入場登録部104および出場登録部105は、それぞれ所定のネットワーク106に接続される。
さらに、ネットワーク106に対してサーバシステム部120が接続される。サーバシステム部120は、図1のサーバシステム部11に対応し、情報処理部20、ユーザデータベース21およびセンサ情報データベース22を有する。この第1の応用例では、サーバシステム部120は、さらに、コンテンツデータベース107を有する。
情報処理部20は、上述と同様に、入場登録部104で入力された客自身の情報のユーザデータベース21への登録や、各カメラ装置102A、102B、・・・から出力された画像データのセンサ情報データベース22に対する蓄積、各リーダ103A、103B、・・・で読み取られたデータの処理などを行う。また、情報処理部20は、センサ情報データベース22に蓄積された画像データの解析やユーザ情報との照合や、データのパッケージング処理なども行う。コンテンツデータベース107は、例えば、情報処理部20によりパッケージングされたデータを蓄積する。
サーバシステム部120は、インターネット110と接続され、インターネット11を介しての通信が可能なようにされている。例えば、サーバシステム部120は、インターネット110に接続されるユーザ端末111A、111B、111C、・・・と、インターネット110を介して互いに通信を行うことができる。同様に、サーバシステム部120は、インターネット110に接続されるWebサーバ112との間で、インターネット110を介して互いに通信を行うことができる。Webサーバ112は、インターネット110に向けてWebページ公開などWebサービスを提供するサーバである。
このようなシステムにおいて、ユーザである利用客は、大規模遊戯施設100の利用時などの際に、システムに対してユーザ情報をユーザデータベース21に登録すると共に、本人識別情報として当該ユーザの顔の特徴情報をユーザデータベース21に登録する。各アトラクション施設101A、101B、・・・にそれぞれ設けられたカメラ装置102A、102B、・・・は、例えば所定の時間間隔で自動的に撮影を行い、撮影によって得られた静止画像データをネットワーク106を介して情報処理部20に送る。この静止画像データは、撮影が行われた時刻を示す時刻情報およびカメラ装置102A、102B、・・・を識別するセンサIDと共に、センサ情報データベース22に蓄積される。
情報処理部20は、センサ情報データベース22に蓄積された静止画像データを解析して、静止画像中に写っている顔を検出する。そして、抽出された顔の情報に基づき、ユーザデータベース21の本人識別情報テーブルに対し、抽出された顔の情報に対応する本人識別情報が検索され、対応するユーザが特定される。さらに、ユーザデータベース21のユーザ関連情報テーブルが検索され、特定されたユーザに関連付けられた他のユーザの情報が特定される。
情報処理部20は、センサ情報データベース22に蓄積された静止画像データを解析し、特定されたユーザおよび特定された関連ユーザが映っている静止画像データを所定に抽出し、一纏めにしてパッケージデータ50を作成する。このパッケージデータ50は、特定されたユーザおよび特定された関連ユーザに対して配信される。例えば、情報処理部20は、ユーザデータベース21のユーザ情報テーブルに登録されている各ユーザの連絡先情報に基づき、パッケージデータ50を電子メールに添付して、インターネット110を介して送信する。特定されたユーザおよび特定された関連ユーザは、インターネット110に接続された例えば端末装置111A、111B、・・・を用いてこの電子メールを受信し、添付されたパッケージデータ50を取り出す。
また、情報処理部20は、インターネット110に接続されるWebサーバ112を介して、パッケージデータ50をインターネット110に向けて公開することができる。パッケージデータ50は、Webサーバ112によりインターネット110に対してオープンに公開してもよいし、特定されたユーザおよび特定された関連ユーザにのみ、公開するようにもできる。この場合、特定されたユーザおよび特定された関連ユーザに対してのみ、当該パッケージデータ50を閲覧するためのURLを通知することが考えられる。特定されたユーザおよび特定された関連ユーザは、それぞれ、インターネット110に接続された端末装置111A、111B、・・・を用いてWebサーバ112にアクセスし、このパッケージデータ50の内容を閲覧することができる。
2−2−2.第1の応用例に適用可能なデータベースの構成例について
この実施の第1の形態の第1の応用例に適用可能な、ユーザデータベース21およびセンサ情報データベース22に格納される各テーブルの構成の例について、図10〜図13を用いて説明する。図10は、ユーザデータベース21に格納されるユーザ情報テーブルの一例の構成を示す。ユーザを識別するためのユーザIDに対して、当該ユーザの連絡先としての電子メールアドレスが対応付けられる。さらに、ユーザ情報テーブルにおいて、ユーザIDに対して、その他の属性情報として、当該ユーザの名前、住所、生年月日などの情報を対応付けることもできる。ユーザIDに関連付けられる情報は、後に変更することが可能である。
図11は、本人識別情報を登録する本人識別情報テーブルの一例の構成を示す。この第1の応用例では、上述したように、ユーザの顔の特徴を示す情報を、本人識別情報として用いる。例えば、ユーザは、この大規模遊戯施設100を利用する際に、入場登録部104において顔を撮影され、得られた顔画像データが情報処理部20に送信される。情報処理部20は、この顔画像データを解析し、写っている顔の特徴を数値化する。この数値化された顔の特徴値が顔情報として当該ユーザのユーザIDと対応付けられる。なお、図11では、顔情報として図形が記載されているが、実際には、この部分には顔の特徴値を示す何らかの数値が格納される。
画像データから顔部分を特定し、特定された顔部分の特徴を抽出する技術は、様々に提案されされており、また、既に実用化されている技術も多い。例えば、非特許文献「K.C.Yow and R.Cipolla,"Feature-based human face detection,"Image and Vision Computing,Vol.15,No.9, pp 713-735(1997)」には、目、鼻、口を検出してその位置から顔を検出する手法が記載されている。目、鼻、口の検出は、一例として、画像データに対して所定のフィルタ処理を施して輪郭線を抽出し、瞳や唇、鼻孔の輪郭モデルと比較してそれぞれの位置を特定する方法が考えられる。
また、顔情報の数値化は、例えば、様々な顔パターンを登録した顔情報辞書を予め用意し、この顔情報辞書に登録された顔パターンと、ユーザが顔を撮影した顔画像データから目、鼻、口の位置情報とを比較して行うことが考えられる。一例として、顔情報辞書に登録された顔パターンと、ユーザの顔画像データから抽出された目、鼻、口の位置情報とを比較して類似度を求め、顔情報辞書に登録される顔パターンのうち最も類似度の大きい顔パターンを抽出し、当該顔パターンを示す情報と類似度情報とを、当該ユーザの顔の特徴データとして用いる。類似度は、例えば顔情報辞書に基づく情報とユーザの顔画像データに基づく情報との差分を用いることができる。
なお、上述の顔の特徴抽出方法は一例であって、この方法に限られるものではない。また、本人識別情報テーブルの情報に対して変更を加えたい場合には、既存の情報を削除して新たな情報を作成するのが好ましい。
図12は、ユーザ同士を関連付けるユーザ関連情報テーブルの一例の構成を示す。この図12の例では、図3Bを用いて上述したのと同様に、グループに対してユーザを対応付けることで、当該グループに対応付けられるユーザ同士を関連付けるようにしている。グループのそれぞれは、グループIDにより識別される。グループIDに対して1または複数のユーザIDが対応付けられ、ユーザIDで示されるユーザ同士の関連付けがなされる。
グループIDに対して、さらに他の属性を対応付けることができる。この図12の例では、グループIDに対して、そのグループの種類を示す情報と、グループ名を示す情報とが対応付けられている。これらは、例えばユーザが最初にグループの設定を行う際に、入力する。勿論、グループIDに対応付けられる情報は、後に変更可能である。
図13は、センサ情報データベース22に格納されるセンサ情報データの一例の構成を示す。この第1の応用例では、センサ装置は静止画像データを出力するカメラ装置102A、102B、・・・であるので、センサ情報データは、静止画像データが格納される画像ファイルの情報に対して、当該静止画像データがカメラ装置102A、102B、・・・において取得された日時を示す情報と、当該静止画像データが出力されたカメラ装置102A、102B、・・・を特定するための情報(センサID)が対応付けられた構造となる。画像ファイルの情報は、例えば当該画像ファイルのファイル名と、当該画像ファイルの格納場所を示すパス情報とからなる。また、日時は、この図13の例では、日付と時刻情報とからなり、時刻情報は、時間、分、秒からなっている。
2−2−3.第1の応用例による一例の処理の流れについて
図14は、この実施の第1の形態の第1の応用例による一例の処理の流れを示すフローチャートである。システムの利用に当たって、ユーザである利用客は、システムに対してユーザ情報の登録を行う(ステップS20)。ユーザ情報の登録は、例えば、ユーザが有するインターネット接続が可能とされた情報機器、例えばパーソナルコンピュータやインターネットによる通信機能を有する携帯電話端末などにより、大規模遊戯施設100外で予め行ってもよいし、大規模遊戯施設100に入場する際に、入場登録部104にて行ってもよい。以下では、ユーザ情報などの登録を、入場登録部104で行うものとして説明する。
例えば、ユーザは、大規模遊戯施設100を利用するに当たってこの第1の応用例によるシステムを利用したい場合、大規模遊戯施設100に入場した際に、入場登録部104に対し、所定の項目のユーザ情報を入力する。入力されたユーザ情報は、ネットワーク106を介して情報処理部20に送信される。情報処理部20は、供給されたユーザ情報に応じてユーザIDを生成し、ユーザ情報と対応付けてユーザ情報テーブルに格納し、ユーザデータベース21に登録する。
また、入場登録部104は、ユーザの顔写真を撮像し静止画像データとして出力可能なように構成されており、ユーザ情報入力の際に当該ユーザの顔写真を撮像する。ユーザの顔が撮像された静止画データは、ネットワーク106を介して情報処理部20に送信される。情報処理部20は、供給された、ユーザの顔が撮像された静止画データを解析して顔領域を検出し、さらに、抽出した顔領域に基づき顔の特徴情報を抽出する。情報処理部20は、抽出された顔の特徴情報をユーザIDと対応付けて本人情報識別テーブルに格納し、ユーザデータベース21に登録する。
次のステップS21で、システムにより、ステップS20でユーザ情報を登録したユーザのためのユーザ媒体15を作成する。ユーザ媒体15には、ユーザ情報の登録に応じて生成されたユーザIDが書き込まれる。ユーザ媒体15は、既に述べたように様々な種類のものを適用可能であるが、この第1の応用例では、ユーザ媒体15は、上述した、合成樹脂製のカード内に不揮発性メモリ、送受信部および発電部を有するカード型記憶媒体であるものとする。例えば入場処理部104にカード型記憶媒体に対するデータの書き込みを行う機能を設け、このカード型記憶媒体に対してユーザIDを書き込み、ユーザに渡すようにすることが考えられる。
なお、ユーザ媒体15は、カード型記憶媒体に限られず、様々な種類の記憶媒体を適用することができる。さらに、ユーザ媒体15として、ユーザIDを示すバーコードやQRコードを印刷した紙製または合成樹脂製のカードを用いることもできる。
また、ユーザ媒体15として、電波を用いて電話通信を行うようにされた携帯電話端末を用いることもできる。この場合、当該携帯電話端末に割り当てられた電話番号をユーザIDとして用いることが考えられる。一例として、入場登録部104に電話通信機能を持たせ、ユーザは、入場登録部104に対して当該携帯電話端末を用いて発呼を行い、入場登録部104は、ユーザからのこの発呼による着信があると、発呼元の電話番号を取得し、ユーザIDとしてユーザデータベース21に登録する。
次のステップS22において、登録されたーユーザに関連する他のユーザの情報が登録される。一例として、あるユーザAに同行しているユーザB、ユーザCおよびユーザDを互いに関連付けたい場合、これらユーザA、ユーザB、ユーザCおよびユーザDそれぞれのユーザ情報登録が終了した後に、入場登録部104において、ユーザA、ユーザB、ユーザCおよびユーザDを所属させたいグループを設定する。入力登録部104は、この設定に応じてグループを識別するためのグループIDを生成する。ユーザA、ユーザB、ユーザCおよびユーザDは、設定されたグループに対して自身を所属させるような所定の操作を、入力登録部104に対して行う。
入力登録部104は、この操作に応じて、ユーザA、ユーザB、ユーザCおよびユーザDそれぞれのユーザIDと、グループを示すグループIDとを情報処理部20に送信する。情報送信部20は、供給されたこれらの情報に基づき、ユーザ関連情報テーブルに対してグループ情報を格納し、ユーザデータベース21に登録する。
なお、ユーザは、その場にいない他のユーザを、関連ユーザとして登録することができる。また、利用する大規模遊戯施設100のマスコットキャラクタのような、ユーザと直接的な関わりがない対象を関連ユーザとして登録することも可能である。さらに、団体など非人格的な対象を関連ユーザとして登録することもできる。
ユーザ情報、ユーザ同士の関連付け情報がシステムに登録されると、ユーザにより、各アトラクション施設101A、101B、・・・の利用が開始される(ステップS23)。ここで、各アトラクション施設101A、101B、・・・に備えられたカメラ装置102A、102B、・・・は、所定の時間間隔で常時、撮像を行い、撮像して得られた静止画像データを情報処理部20に対して送信しているものとする(ステップS23B)。
例えば、ユーザAは、アトラクション施設101Aを利用する際に、ユーザ媒体15に記憶されているユーザIDを、アトラクション施設101A内に設けられるリーダ103Aに読み取らせる(ステップS23A)。読み取られたユーザIDは、ユーザIDが読み取られた時刻を示す時刻情報と、当該リーダ103Aに対応するカメラ装置102Aを示すセンサIDと共に、ネットワーク106を介して情報処理部20に供給される。情報処理部20は、供給されたこれらユーザID、時刻情報およびセンサIDを互いに関連付け、データ特定情報として所定に保持する。
なお、アトラクション施設101Aに複数のカメラ装置が設けられている場合には、センサIDの代わりに、当該リーダ103Aが設けられるアトラクション施設101Aを示す情報を情報処理部20に供給してもよい。
このステップS23の処理は、例えば各ユーザA、ユーザB、ユーザCおよびユーザDにより、また、各アトラクション施設101A、101B、101Cおよび101Dにおいて、それぞれ任意のタイミングで行われる。上述のユーザID、時刻情報およびセンサIDも、それぞれのユーザA、ユーザB、ユーザCのユーザ媒体15がリーダ103A、103B、・・・に読み出されたタイミングに応じて、情報処理部20に供給される。
ユーザA、ユーザB、ユーザCおよびユーザDは、各アトラクション施設101A、101B、・・・などを適宜、利用し終えると、出場登録部105で自身のユーザ媒体15を出場登録部105に設けられたリーダ装置に読み取らせて出場登録を行い、大規模遊戯施設100から出ることになる(ステップS24)。出場登録部105でユーザ媒体15から読み出された情報は、ネットワーク106を介して情報処理部20に供給される。
ユーザA、ユーザB、ユーザCおよびユーザDがグループを形成しているこの例では、情報処理部20は、ユーザデータベース21内のユーザ関連情報テーブルを参照し、例えばこれらユーザA、ユーザB、ユーザCおよびユーザDの全てについて、出場登録が終えた、すなわち、出場登録部105からこれらユーザA、ユーザB、ユーザCおよびユーザDのユーザIDが全て供給された時点で、当該グループの大規模遊戯施設100の利用が終了したと判断することができる。これに限らず、グループ全員が出場登録を行わなくとも、例えば出場登録部105に対する所定の操作により、出場登録を行うようにできる。
なお、出場登録は、大規模遊戯施設100内の出場登録部105で行うのに限られない。例えば、ユーザが有する、パーソナルコンピュータやインターネットによる通信機能を有する携帯電話端末といった、インターネット接続が可能とされた情報機器により、大規模遊戯施設100外から出場登録を行うこともできる。一例として、ユーザが大規模遊戯施設100の利用後、帰宅して自宅のパーソナルコンピュータからインターネットを介して出場登録を行うようにできる。大規模遊戯施設100外から出場登録を行う場合、グループに属するユーザのうち一人が出場登録を行うことで、グループに属するユーザ全員が出場登録を行ったと見なすことが考えられる。
ステップS25では、ステップS24における出場登録に応じて、情報処理部20により、センサ情報データベース22に蓄積された、各カメラ装置102A、102B、・・・で撮像され得られた静止画像データに対して、処理対象とするデータを特定する。
一例として、情報処理部20は、ステップS24において出場登録を行ったグループのグループIDに基づきデータベース21内のユーザ関連情報テーブルを参照し、当該グループIDに関連付けられた全てのユーザIDを取得する。そして、各カメラ装置102A、102B、・・・および各リーダ103A、103B、・・・から出力され情報処理部20において所定に保持されるデータ特定情報のうち、取得されたユーザIDに対応する情報を抽出する。情報処理部20は、抽出されたデータ特定情報に基づき、センサ情報データベース22に蓄積された静止画像データに対して、図8を用いて説明したようにして、処理対象とされるデータを特定する。
より具体的には、センサ情報データベース22に蓄積されるデータのうち、先ずデータ特定情報のセンサIDが対応するデータを選択し、選択されたデータのうちデータ特定情報の時刻情報で示される時刻以降のデータが処理対象のデータとして選択される。このとき、当該グループIDのグループが出場登録を行った時刻を取得し、データ特定情報の時刻情報で示される時刻から、出場登録を行った時刻までを処理対象のデータとすることができる。
ステップS25で処理対象のデータが特定されたら、次のステップS26で、情報処理部20によるデータの解析がなされ、処理対象とされたデータから出場登録を行ったユーザの本人識別情報に対応するデータが抽出される。
図15を用いて、処理対象とされた静止画像データから、あるユーザの本人識別情報に対応するデータを抽出する一例の処理について説明する。なお、図15において、顔が図形化された表示は、実際には、顔情報を数値化した値を示している。
ここでは、ユーザA、ユーザB、ユーザCおよびユーザDでグループが構成されているものとする。例えばユーザAについて本人識別情報テーブルが参照され(図11参照)、当該ユーザAのユーザIDに対応する本人識別情報すなわち顔情報130が取得される(図15A参照)。
一方、センサ情報データベース22に蓄積される静止画像データのうち、図15Bに例示されるように、静止画像データ131、132、133および134がステップS25で処理対象とされた静止画像データであるものとする。この処理対象とされた静止画像データ131、132、133および134のそれぞれについて顔検出がなされ、顔の特徴値が求められる。図15Bの例では、静止画像データ131から顔情報131A、131Bおよび131Cの3の顔情報が取得され、静止画像データ132から顔情報132A、132Bおよび132Cの3の顔情報が取得され、静止画像データ133から顔情報133A、133Bおよび133Cの3の顔情報が取得され、静止画像データ134から顔情報134A、134B、134Cおよび134Dの4の顔情報が取得されている。
そして、処理対象とされた静止画像データから検出された顔の特徴値と、ユーザAの顔情報とが比較され、処理対象とされた静止画像データからユーザAの顔情報に対して類似度が高い顔画像が含まれるデータが選択される。図15Bの例では、静止画像データ131に含まれる顔情報131Cと、静止画像データ133に含まれる顔情報133Aとが、図15Aに示される顔情報130に対して類似度が高い顔画像として選択されている(それぞれ図中に「★(星印)」を付して示す)。これら静止画像データ131および133を、当該ユーザAが写っている画像であるとして選択する。選択された静止画像データは、所定に保持される。この場合、当該静止画像データの格納場所を示すパス情報のみを、当該ユーザIDに対応付けて保持しておけばよい。
このような処理を、ユーザAと同一グループに対応付けられた他のユーザB、ユーザCおよびユーザDに対しても、それぞれ行う。
次のステップS27で、出場登録がなされたユーザに関連付けられた他のユーザが特定される。この例では、ユーザA、ユーザB、ユーザCおよびユーザDが同一のグループに対応付けられているので、例えばユーザAに対して他のユーザB、ユーザCおよびユーザDが関連付けられているとして特定される。同一グループの他のユーザB、ユーザCおよびユーザDについても、それぞれ同様である。すなわち、同一のグループに対応付けられているユーザは、互いに他のユーザに関連付けられている。
次のステップS28で、上述のステップS26でユーザが写っているとして選択され保持されている静止画像データが一纏めにパッケージングされ、パッケージデータ50が生成される。このユーザA、ユーザB、ユーザCおよびユーザDが同一グループに対応付けられているこの例では、これらユーザA、ユーザB、ユーザCおよびユーザDのうち少なくとも1名が写っていれば、当該静止画像データをパッケージングの対象とすることが考えられる。パッケージングの対象とされた静止画像データを全て含んだパッケージデータ50を制作してもよいし、所定の条件に基づきパッケージングするデータを選択することも可能である。静止画像データの選択は、例えば出場登録部105において行うようにできる。パッケージングされたパッケージデータ50は、例えばコンテンツデータベース107に格納される。
ステップS28でパッケージングされたパッケージデータ50は、次のステップS29で、インターネット110上で閲覧可能なようにされる。例えば、情報処理部20は、例えばHTML(Hyper Text Markup Language)やXML(Extensible Markup Language)など、インターネット110上のWebページとして提示可能な書式を用いて、コンテンツデータベース107に格納されたパッケージデータ50に含まれる静止画像データのリンク情報やレイアウト情報を記述したファイル(以降、Webページ閲覧ファイルと呼ぶ)を作成する。このWebページ閲覧ファイルを、インターネット110上のWebサーバ112に転送する。Webサーバ112は、所定のURLによりこのWebページ閲覧ファイルをインターネット110に対して公開する。ユーザA、ユーザB、・・・は、インターネット110に接続されたユーザ端末111A、111B、・・・を用いて当該URLにアクセスすることで、パッケージデータ50に含まれる静止画像データを閲覧可能とされる。
一例として、情報処理部20は、Webサーバ112に対してWebページ閲覧ファイルを転送すると共に、当該Webページ閲覧ファイルにより閲覧されるパッケージデータ50に対応するユーザA、ユーザB、・・・に対して、当該Webページ閲覧ファイルがインターネット110に対して公開されることを通知する。より具体的には、情報処理部20は、ユーザデータベース21内のユーザ情報テーブルを検索し、当該Webページ閲覧ファイルにより閲覧されるパッケージデータ50に対応するユーザA、ユーザB、・・・それぞれの電子メールアドレスを取得する。そして、情報処理部20は、当該Webページ閲覧ファイルのURLを所定に記述した電子メールを作成し、取得されたそれぞれの電子メールアドレスに宛てて送信する。この電子メールを受信したユーザA、ユーザB、・・・は、電子メールの記述に基づき当該URLにアクセスする。
なお、パッケージデータ50は、当該パッケージデータ50に関連するユーザに配信するのに限られない。例えば、当該パッケージデータ50に関連する施設などが持つWebサイトにおいて公開されるようにしてもよい。実施の第1の形態を大規模遊戯施設100に適用したこの例では、例えば大規模遊戯施設100の運営者などにより管理される、当該大規模遊戯施設100を紹介するためのWebページに対して、パッケージデータ50を表示させることも考えられる。この場合には、パッケージデータ50に関連するユーザの承認を事前に取っておくことが好ましい。
2−2−4.パッケージデータの内容を閲覧させる一例の方法について
図16は、パッケージデータ50に含まれる静止画像データを閲覧させるWebページの一例の画面構成を示す。Webページは、一般的には、ユーザ端末111A、111B、・・・に搭載されるブラウザと呼ばれるソフトウェアで表示などがなされる。ブラウザは、例えば入力されたURLに従いインターネット110上のファイルにアクセスする。アクセスしたファイルが例えばHTML形式といった所定の所定の形式で記述されていれば、ファイルの記述に従い、テキストデータの表示、画像データへのリンクや、各表示のレイアウトなどを行う。また、ブラウザは、読み込んだファイルに指定された手段で、Webサーバ112に対してデータを送信することができる。
このようなブラウザソフトウェアは、パーソナルコンピュータなどの他に、インターネット接続が可能な携帯電話端末や家庭用ゲーム機器などにも搭載されるのが一般的となってきている。以下では、ブラウザがパーソナルコンピュータに搭載されているものとして説明する。ブラウザの各機能は、マウスといったポインティングデバイスと、キーボードなどのキャラクタ入力デバイスとにより制御するできるようにされている。
図16Aを参照し、ブラウザによる表示画面140において、ブラウザ自身のコントロールやOS(Operating System)によるコントロールを行うための表示部141の下部に、Webページの表示を行うためのWebページ表示部142が設けられる。このWebページ表示部142に対して、Webページ閲覧ファイルに基づく表示が行われる。Webページ表示部142において、最上部左側のタイトル表示部143は、このWebページのタイトルが表示される。タイトル表示部143の右隣に表示される日付情報は、例えばこのWebページにより閲覧されるパッケージデータ50の作成日時を示す。
Webページ表示部142の最上部右端側のユーザ情報表示部144は、このWebページにより閲覧されるパッケージデータ50に関連するユーザの情報が表示される。すなわち、大規模遊戯施設100を利用する際に互いに関連付けられたユーザA、ユーザB、ユーザCおよびユーザDに関する情報が、ユーザ情報表示部144に表示される。例えば、ユーザ情報表示部144には、これらユーザA、ユーザB、ユーザCおよびユーザDについて、それぞれの連絡先(電子メールアドレス)や、グループ名などが表示される。
検索表示部145には、パッケージデータ50に含まれる静止画像データを検索するための検索条件を入力する検索窓145B、145Cおよび145Dと、検索の実行を指示するための検索実行ボタン145Aとが表示される。検索窓145B、145Cおよび145Dは、予め設定された複数のキーワードから1のキーワードを選択するようになっており、例えば、各検索窓145B、145Cおよび145Dの右端に表示される「▼(下向き三角印)」をマウスなどのポインティングデバイスを用いて選択することで、キーワードのリストが表示されるようになっている。
検索窓145Bは、大規模遊戯施設100内のアトラクション施設101A、101B、・・・のキーワードを選択する。検索窓145Cは、グループに関連付けられたユーザを選択する。また、検索窓145Dは、静止画像データが撮影された時間帯を選択する。これら検索窓145B、145Cおよび/または145Dにおいてキーワードが選択された状態で検索実行ボタン145Aを操作すると、選択されたキーワードに合致する静止画像データが選択される。
検索表示部145の下側に、1または複数のサムネイル表示部146A、146B、・・・が配される。これらサムネイル表示部146A、146B、・・・は、それぞれ、パッケージデータ50に含まれる静止画像データのそれぞれに対応するサムネイル画像147A、147B、・・・が表示される。 サムネイル画像147A、147B、・・・は、例えば図14のフローチャートにおけるステップS28で、情報処理部20により静止画像データを一纏めにしてパッケージングする際に、パッケージングに用いる静止画像データのそれぞれについて、サイズを縮小して作成する。
また、サムネイル表示部146A、146B、・・・に対し、表示されるサムネイル画像147、147B、・・・の元となる静止画像データに対応する属性情報が表示される。属性情報は、例えば当該静止画像データが撮像されたアトラクション施設101A、101B、・・・の名前や撮像時刻などが考えられる。ファイル名やファイルサイズといった、静止画像データそのものの属性情報を表示するようにしてもよい。
パッケージデータ50に含まれる静止画像データの数が多いときは、図16Aに例示されるように、全ての静止画像データに対応するサムネイル画像147A、147B、・・・を、Webページ表示部142に対して表示しきれない可能性がある。この場合、スクロールバー148を所定に操作することで、Webページ表示部142に表示しきれないサムネイル画像を、順次、スクロールさせてWebページ表示部142に表示させるようにできる。
また、検索表示部145において各検索窓145B、145Cおよび145Dに所定にキーワードを設定して検索ボタン145Aを操作し、検索を実行することで、Webページ表示部142に表示されるサムネイル画像147の数をより絞り込むことができる。
この図16の例では、サムネイル表示部146A、146B、・・・若しくはサムネイル画像147A、147B、・・・を、例えばマウスといったポインティングデバイスを用いて選択および決定することで、選択および決定されたサムネイル表示部またはサムネイル画像に対応する静止画像データを、より大きなサイズで表示させることができるようにされる。図16Bは、静止画像データをより大きなサイズで表示するための画像表示部150の例を示す。このように、所望のサムネイル表示部またはサムネイル画像を選択および決定することで、Webページ表示部142とは別のウィンドウ表示により、より大きなサイズの静止画像データ151を表示させるようにできる。この画像表示部150は、下部に設けられたクローズボタンを操作することで閉じられる。
図17は、図16に例示したWebページを表示するためのパッケージデータ50の一例の構成を示す。メタデータ51は、上述したように、このパッケージデータ50自体の属性が格納され、例えば、このパッケージデータ50に含まれる静止画像データの数や付加情報の種類といった、パッケージデータ50のデータ構造を示す情報や、このパッケージデータ50が作成された日付および時刻を示す情報、タイトル表示部143に表示させるタイトル情報などを格納することが考えられる。また、このシステムが実施される大規模遊戯施設100自身を識別するための施設IDを、メタデータに含める。
ユーザ個別データ52A、52B、・・・としては、静止画像データがそれぞれ格納される。
付加情報53は、例えば、サムネイル画像部53A、検索用データ部53Bおよびグループ情報部53Cからなる。サムネイル画像部53Aは、サムネイル画像147A、147B、・・・そのものが、ユーザ個別データ52A、52B、・・・にそれぞれ格納される静止画像データと所定に関連付けられて格納される。サムネイル画像と元の静止画像データの関連付けは、例えば互いのファイル名の一部を一致させてなすことが考えられる。
検索用データ部53Bは、当該パッケージデータ50に含まれる静止画像データの検索を行うために用いるデータが格納され、例えば、検索窓145B、145Cおよび145Dに対して表示するためのデータが格納される。一例として、このパッケージデータ50を作成する際に、静止画像データをセンサ情報データベース22から検索する際に用いた検索条件などを、検索用データ部53に格納するデータとして用いることが考えられる。
グループ情報部53Cは、当該パッケージデータ50に関連するグループの情報が格納される。すなわち、このグループ情報部53Cに格納される情報に基づき、Webページ表示部142におけるユーザ情報表示部144に表示するための情報が格納される。
情報処理部20は、このように構成されたパッケージデータ50に基づき、図16を用いて説明したようなWebページを表示するためのリンク情報やレイアウト情報、制御情報を生成し、これらの情報が記述されたファイルを作成する。リンク情報、レイアウト情報、制御情報などは、HTMLやXMLのみならず、Javaアプレット(Javaは登録商標)やJavaスクリプトといった、インターネット上で利用可能な様々記述言語を用いて記述することができる。また、上述したWebページにおける機能をブラウザ側で実現するのに限らず、Webサーバ112側でその一部または全部を実行するようにしてもよい。また、HTMLファイルをWebサーバ112側で動的に生成することも考えられる。
上述のように、この実施の第1の形態の第1の応用例では、大規模遊戯施設100に複数のカメラ装置102A、102B、・・・を設置して利用客であるユーザを撮像し、撮像された画像から予め登録されたユーザの顔情報に対応する顔画像含む画像を抽出する。また、ユーザと他のユーザとを関連付けるようにされ、抽出された画像が、当該画像に写っているユーザと、このユーザに関連付けられた他のユーザに配信されるようにしている。そのため、数人のメンバで大規模遊戯施設100を利用した際に撮像された各メンバが写っている画像を、メンバ全員に配信するような処理を容易に行うことができる。
なお、上述では、パッケージデータ50がWebサーバ112によりインターネット110上のWebページとして配信されるように説明したが、これはこの例に限定されない。例えば、パッケージデータ50を電子メールに添付させて、各ユーザに配信する方法も考えられる。また、パッケージデータ50をインターネット110上の所定のストレージに格納し、各ユーザがインターネット110を介して当該ストレージにアクセスして当該パッケージデータ50をダウンロードするようにもできる。さらに、パッケージデータ50をDVD(Digital Versatile Disc)やCD(Compacr Disc)といった記録媒体に記録して、各ユーザに配布することも考えられる。なお、これらの場合、パッケージデータ50に含まれる静止画像データを閲覧するためのソフトウェアなどを、パッケージデータ50に同梱または添付すると、好ましい。
また、上述では、各アトラクション施設101A、101B、・・・に設置されるカメラ装置102A、102B、・・・が静止画像データを出力するように説明したが、これはこの例に限定されない。すなわち、カメラ装置102A、102B、・・・は、動画像データを出力するビデオカメラ装置でもよい。この場合、得られた動画像データをフレーム単位で解析して顔検出を行い、出場登録を行ったユーザの顔情報に対応する顔が検出されたフレームを選択することが考えられる。選択されたフレームを静止画像データとしてパッケージデータ50に用いてもよいし、連続した複数のフレームが選択された場合には、当該複数のフレームに基づき所定時間の動画像データを、パッケージデータ50のユーザ個別データ52として用いることも可能である。サムネイル画像としては、当該動画像データの所定のフレームの画像を用いることが考えられる。
さらに、上述では、パッケージデータ50を閲覧するためのWebページにおいて、画像のみが表示されるように説明したが、これはこの例に限定されず、バックグラウンドミュージックなどのサウンドを再生させるようにもできる。例えば、パッケージデータ50に、ユーザが所定に選択したサウンドデータをさらに格納し、Webページ閲覧ファイルにおいて、このサウンドデータを再生可能にリンクする記述を追加することが考えられる。
さらにまた、上述では、ユーザと当該ユーザに関連する他のユーザ、すなわち、同一のグループに対応付けられたユーザの全員に対し、同一の方法でパッケージデータ50の配信を行うように説明したが、これはこの例に限定されない。すなわち、ユーザ毎に、パッケージデータ50の配信方法を設定することも可能である。例えば、パッケージデータ50の配信を、ユーザAには上述のようにWebページによって行い、ユーザBには電子メールに添付して行い、ユーザCにはDVDなどの記録媒体に記録して配布する、といった設定も可能である。
また、上述では、第1の応用例によるシステムの対象を、大規模遊戯施設100といった、比較的広い空間に、多くは互いに関連のないと考えられる多数のユーザが利用するような施設であるとして説明したが、これはこの例に限定されない。例えば、結婚式場や宴会場などにこの第1の応用例によるシステムを適用することができる。一例として結婚式場の場合、テーブル毎にグループを設定することが考えられる。会議場やコンベンション会場、学校行事などにこの第1の応用例によるシステムを適用することもできる。また、カラオケボックスなどのような、それぞれ独立的な複数の部屋を持つような施設に対してこの第1の応用例を適用することも考えられる。この場合、複数の部屋それぞれについて、利用客に対してグループを設定することが考えられる。
さらに、図16Aに例示されるWebページ表示部142に対して広告表示を行うようにできる。一例として、例えばこのシステムが適用される施設などに関連する広告をWebページ表示部142に表示させることが考えられる。他の例として、ユーザ情報テーブルに登録されている情報に基づき、情報処理部20において適当な広告を選択して表示させることもできる。また、ユーザが事前に広告のジャンルなどを指定するようにしてもよい。例えば、ユーザは、Webページ表示部142に対する広告表示の有無をパッケージデータ50の作成以前に指定し、システム側は、広告表示有りと指定された場合には、課金額を低く、または無料に設定し、広告表示無しと指定された場合には、課金額を高く、または課金を行うように設定する。
さらにまた、上述では、各アトラクション施設101A、101B、・・・に設置されたカメラ装置102A、102B、・・・で撮像された静止画像データに基づきパッケージデータ50を作成するように説明したが、これはこの例に限定されない。例えば、ユーザが所持するカメラ装置で撮像した静止画像データをシステムに所定に登録し、顔検出などの解析処理を行い、パッケージデータ50に対してユーザ個別データ52として格納してもよい。
2−2−5.第1の応用例による他の例の処理の流れについて
上述では、カメラ装置102A、102B、・・・で撮像された静止画像データに対する顔検出を、ユーザが出場して出場登録を行った後に実行するように説明したが、これはこの例に限定されない。例えば、カメラ装置102A、102B、・・・で撮像される毎に、若しくは、カメラ装置102A、102B、・・・による撮像の所定間隔毎に、得られた1または複数の静止画像データを解析することも考えられる。
図18のフローチャートおよび図19を用いて、静止画像データの撮像タイミングに応じて解析を行う場合の一例の処理について説明する。ステップS30〜ステップS32までの処理は、図14を用いて説明した処理と同一である。すなわち、システムの利用に当たって、ユーザは、システムに対してユーザ情報を登録し(ステップS30)、システムは、登録を行ったユーザに対してユーザIDを発行すると共に、当該ユーザの情報をユーザIDに関連付けてユーザデータベース21に登録する。また、ユーザは、顔写真を撮像してシステムに登録する。システムは、この顔写真に基づき当該ユーザに対応する本人識別情報を生成し、当該ユーザのユーザIDに関連付けてユーザデータベース21に登録する。
次のステップS31では、システムにより、登録を行ったユーザに対して当該ユーザのユーザIDが記憶されたユーザ媒体15を作成する。作成されたユーザ媒体15は、当該ユーザが保持することになる。さらに、ステップS32で、登録されたユーザに関連する他のユーザの情報がユーザデータベース21に登録される。
なお、ユーザは、その場にいない他のユーザを、関連ユーザとして登録することができる。また、利用する大規模遊戯施設100のマスコットキャラクタのような、ユーザと直接的な関わりがない対象を関連ユーザとして登録することも可能である。さらに、団体など非人格的な対象を関連ユーザとして登録することもできる。
ユーザ情報、ユーザ同士の関連付け情報がシステムに登録されると、ユーザにより、各アトラクション施設101A、101B、・・・の利用が開始される(ステップS33)。
ユーザは、ユーザ媒体15に記憶されているユーザIDを、アトラクション施設101A、101B、・・・を利用する際に、利用するアトラクション施設101A、101B、・・・内に備えられたリーダ103A、103B、・・・に読み取らせる(ステップS33A)。リーダ103A、103B、・・・に読み取られたユーザIDは、ユーザIDが読み取られた時刻を示す時刻情報と、読み取りを行ったリーダ103A、103B、・・・に対応するカメラ装置101A、101B、・・・を識別するセンサIDと共に、ネットワーク106を介して情報処理部20に送信される。情報処理部20は、供給されたこれらユーザID、時刻情報およびセンサIDを互いに関連付け、データ特定情報として所定に保持する。
一方、各アトラクション施設101A、101B、・・・に備えられたカメラ装置102A、102B、・・・は、例えば所定の時間間隔で常時、撮像を行い、撮像して得られた静止画像データをその都度、情報処理部20に対して送信する(ステップS33B)。情報処理部20は、静止画像データを受け取ると、受け取った静止画像データを解析して顔検出を行う(ステップS33C)。そして、静止画像データから検出された顔の特徴情報と、ユーザデータベース21内の本人識別情報テーブルから、静止画像データから検出された顔の特徴情報と略一致する特徴情報を有するユーザIDを抽出する(ステップS33D)。
例えば、図19Aに例示されるように、静止画像データ150から顔151、152および153が検出された場合、検出された顔151、152および153のそれぞれについて特徴情報を求め、本人識別情報テーブルに登録されている顔の特徴情報とそれぞれ比較する。比較の結果、例えば顔151の特徴情報が本人識別情報テーブルに登録されているユーザAの顔の特徴情報と略一致していれば、顔151がユーザAの顔であると判断する(ステップS33D)。顔152および153についても同様に処理を行い、この図19Aの例では、顔152がユーザH、顔153がユーザPの顔であるとそれぞれ判断する。
さらに、ステップS33Eでユーザ関連情報テーブルが参照され、ステップS33Dで抽出されたユーザIDに関連付けられたユーザIDが特定される。
例えば、図19Aに例示されるように、静止画像データ150から顔151、152および153が検出され、それぞれユーザA、ユーザHおよびユーザPが特定された場合、ユーザ関連情報テーブルに基づき、これらユーザA、ユーザHおよびユーザPのそれぞれについて、ユーザIDに関連付けられたユーザIDが特定される。例えば、図19Bに例示されるように、ユーザAに対してユーザB、ユーザDおよびユーザEが関連付けられ、ユーザHに対してユーザI、ユーザJ、ユーザKおよびユーザLが関連付けられ、ユーザPに対してユーザQおよびユーザRが関連付けられていることがそれぞれ特定される(ステップS33E)。
換言すれば、この静止画像データ150には、実際に写っているユーザを含め、ユーザA、ユーザB、ユーザCおよびユーザD、ユーザH、ユーザI、ユーザJ、ユーザKおよびユーザL、ならびに、ユーザP、ユーザQおよびユーザRの12ユーザが関連していることになる。
これらステップS33C〜ステップS33Eの処理は、ステップS33Bでカメラ装置により撮像が行われる毎になされる。これに限らず、所定枚数の撮像毎に纏めて処理を行うようにしてもよい。情報処理部20は、1の静止画像データに関連するユーザの情報を、当該静止画像データと対応付けて、画像内ユーザ情報として所定に保持する。この画像内ユーザ情報は、例えば、センサ情報データベース22に格納することが考えられる。
各ユーザは、各アトラクション施設101A、101B、・・・などを適宜、利用し終えると、それぞれ出場登録部105で自身のユーザ媒体15を出場登録部105に設けられたリーダ装置に読み取らせて出場登録を行い、大規模遊戯施設100から出ることになる(ステップS34)。出場登録部105でユーザ媒体15から読み出された情報は、それぞれネットワーク106を介して情報処理部20に供給される。上述の図14のフローチャートでの説明と同様に、情報処理部20は、例えばユーザデータベース21内のユーザ関連情報テーブルを参照し、グループ単位でユーザの大規模遊戯施設100の利用終了を判断する。
ステップS35では、上述した図14のステップS25と同様にして、ステップS34における出場登録に応じて、情報処理部20により、センサ情報データベース22に蓄積された各カメラ装置102A、102B、・・・で撮像され得られた静止画像データに対して、処理対象とするデータを特定する。
処理対象とするデータが特定されると、次のステップS36で、特定された静止画像データの中から、出場登録を行ったグループに属するユーザIDに対応する顔の特徴情報を有する顔が検出されたデータが抽出される。この場合、上述のステップS33C〜ステップS33Eにおいて、既に、静止画像データに含まれる顔が検出され、検出された顔それぞれの特徴情報が求められ、関連するユーザIDが抽出されている。そして、静止画像データと当該静止画像データに含まれるユーザIDとの対応関係が画像内ユーザ情報として保持されている。情報処理部20は、この画像内ユーザ情報を参照し、ステップS33C〜ステップS33Eの処理により抽出されたユーザIDに基づき、出場登録を行ったグループに属するユーザIDが含まれる静止画像データを抽出する。
ステップS36で静止画像データの抽出が行われると、次のステップS37で、抽出された静止画像データのパッケージング処理が行われ、その次のステップS38で、パッケージングされたパッケージングデータ50のWebサーバ112への転送処理が行われる。これらステップS37およびステップS38の処理は、上述した図14のステップS28およびステップS29の処理と同様であるので、詳細な説明を省略する。
2−3.実施の第1の形態の第2の応用例について
次に、この実施の第1の形態の第2の応用例について説明する。第2の応用例は、この実施の第1の形態を、セキュリティシステムに応用した例である。この第2の応用例によるセキュリティシステムは、ある場所を出発したユーザが目的地に無事に到着したことを、当該ユーザに関連する他のユーザが確認できるようにするものである。セキュリティ対象のユーザ本人であるか否かの判断は、例えばユーザの顔の特徴情報と、ユーザIDとを用いて行う。
2−3−1.第2の応用例に適用可能なシステム構成について
図20は、この実施の第1の形態の第2の応用例による一例のシステムを概略的に示す。なお、図20において、上述の図1と共通する部分には同一の符号を付し、詳細な説明を省略する。リーダ付きカメラ装置162A、162Bおよび162Cは、ユーザ媒体15のデータを読み出すリーダと、被写体を撮像して静止画像データを出力するカメラ装置とが一体的に構成された装置である。なお、リーダとカメラ装置とは、一体的構成に限定されず、それぞれ独立した装置であってもよい。
リーダ付きカメラ装置162Aおよび162Bは、例えば、セキュリティの対象となるユーザが定常的に行動する際の、出発地および目的地にそれぞれ設けられる。ここでは、セキュリティ対象のユーザ(以下、対象ユーザと略称する)を児童とし、出発地および/または目的地は、当該ユーザの自宅160および/または当該ユーザが通学する学校161であるものとする。そこで、図20の例では、リーダ付きカメラ装置162Aおよび162Bは、それぞれ対象ユーザの自宅160および学校161に所定に設置される。また、図20中に点線のブロックで示されるように、出発地から目的地への経路の所定の位置に、リーダ付きカメラ装置162Cをさらに設けてもよい。
なお、これらリーダ付きカメラ装置162A、162Bおよび162Cは、対象ユーザの手が容易に届き、且つ、一体的に構成されるカメラ装置が当該対象ユーザの顔を的確に撮像可能なように設置される。
リーダ付きカメラ装置162Aおよび162Bは、所定のネットワーク163に接続される。また、このセキュリティシステムのサービスを提供するためのサーバシステム部170がネットワーク163に接続される。ネットワーク163は、インターネットのようなオープンなネットワークでもよいし、このシステム内で閉じたネットワークでもよい。
サーバシステム部170は、さらに、インターネット110に接続される。サーバシステム部170は、インターネット110を介して、インターネットと通信可能に接続された他の情報機器と通信を行うことができる。この図20の例では、サーバシステム部170は、対象ユーザの自宅に備えられたパーソナルコンピュータ164A、対象ユーザが通学する学校に備えられたパーソナルコンピュータ164B、対象ユーザの両親や教諭など、対象ユーザを保護する立場にある関係者が有する、インターネット接続可能な携帯電話端末165Aおよび165Bと、インターネット110を介して通信を行うことができるようにされている。
サーバシステム部170は、情報処理部20、ユーザデータベース21およびセンサ情報データベース22を有する。ユーザデータベース21は、このシステムを利用するユーザのユーザ情報が登録される。すなわち、ユーザデータベース21は、既に説明したように、ユーザ情報テーブル、ユーザ関連情報テーブルおよび本人識別情報テーブルが格納される。
ユーザ情報テーブルは、図10を用いて既に説明したのと同様に、ユーザを識別するユーザIDに対して、ユーザの名前、住所、連絡先(電子メールアドレス)などのユーザの属性が対応付けられる。また、本人識別情報テーブルも、図11を用いて既に説明したのと同様に、ユーザIDに対してユーザの顔の特徴を示す情報を対応付ける。なお、この第2の応用例においては、本人識別情報は、対象ユーザのみが登録されていればよい。
図21は、この実施の第1の形態の第2の応用例におけるユーザ関連情報テーブルの一例の構成を示す。このように、この第2の応用例においては、1の対象ユーザに対してグループが形成され、ユーザ関連情報テーブルに対し、対象ユーザに関連するユーザの対象ユーザに対する関係が登録されると共に、正常時および異常時の際の通知の有無が登録される。対象ユーザに対する関係は、対象ユーザが児童である場合、父親、母親、担当教諭、通報機関などが考えられる。通報機関は、警察や、地域で児童の保護を行うための設立された機関などが考えられる。正常時および異常時の通知に関しては、後述する。
センサ情報データベース22は、図13を用いて既に説明したのと同様に、リーダ付きカメラ装置162A、162B、・・・において、カメラ装置で撮像されて出力された静止画像データが、リーダ付きカメラ装置162A、162B、・・・を識別するセンサIDと、撮像時刻とに対応付けられて蓄積される。
情報処理部20は、上述と同様に、ユーザ情報のユーザデータベース21への登録や、各リーダ付きカメラ装置162A、162B、・・・から出力された静止画像データや、ユーザ媒体15から読み出されたユーザ情報の処理を行う。また、情報処理部20は、センサ情報データベース22に蓄積された静止画像データの解析やユーザ情報との照合、データの配信処理なども行う。
なお、この実施の第1の形態の第2の応用例による情報処理部20は、図5を用いて説明したサーバシステム部11における情報処理部20の構成に対し、リーダ部40、記録管理部35および記録装置36を省略することができる。
2−3−3.第2の応用例による一例の処理の流れについて
図22は、この実施の第1の形態の第2の応用例による一例の処理を示すフローチャートである。このフローチャートの実行に先立って、セキュリティの対象となる対象ユーザの情報と、当該ユーザに関連する他のユーザの情報のシステムへの登録が行われる。これらの情報は、システムに所定に入力され、ユーザデータベース21に登録される。すなわち、対象ユーザおよび対象ユーザに関するユーザそれぞれについて、ユーザIDが発行されると共に、ユーザの属性情報がユーザIDと対応付けられてユーザ情報テーブルに登録される。また、対象ユーザおよび対象ユーザに関連する各ユーザの情報がユーザ関連情報テーブルに登録される。さらに、少なくとも対象ユーザについて、顔が撮像され、撮像された顔画像が解析されて顔の特徴情報が抽出され、当該顔の特徴情報と対象ユーザのユーザIDとが対応付けられて本人識別情報テーブルに登録される。
なお、これら対象ユーザの情報や、対象ユーザに関連する他のユーザの情報のユーザデータベース21の登録を行う方法は、特に限定されない。例えば、サーバシステム部170に対して直接的に入力してもよいし、インターネット110を介してサーバシステム部170に接続される各端末装置(図20の例では、パーソナルコンピュータ164Aおよび164B、ならびに、携帯電話端末165Aおよび165B)から、各情報の入力を行うこともできる。さらに、各情報を書面で提供し、サーバシステム部170側の担当者などが手動で入力することも考えられる。
ユーザデータベース21に対するユーザ情報などの登録が完了すると、対象ユーザに対して、対象ユーザIDが記憶されたユーザ媒体15が発行される。ユーザ媒体15は、このセキュリティサービスの提供側で所定に作成し、郵送などの手段で直接的に対象ユーザに提供することが考えられる。
これに限らず、ユーザ媒体15に記憶されるユーザIDなどの情報を、サーバシステム部170からインターネットを介して、対象ユーザの自宅160にあるパーソナルコンピュータ164Aに送信することが考えられる。この場合、対象ユーザ側では、送信されたユーザIDなどの情報を、パーソナルコンピュータ164Aからシステムが対応可能な所定の記憶媒体に対して転送する。対象ユーザが携行可能な携帯電話端末165Aをユーザ媒体15として用いる場合には、ユーザIDなどの情報を、当該携帯電話端末165Aにインターネット110を介して直接的に転送することも考えられる。
以下では、対象ユーザが学校から自宅に帰宅する場合を例にとって説明する。図22において、最初のステップS40で、対象ユーザは、学校161に所定に設置されたリーダ付きカメラ装置162Bに、ユーザ媒体15のデータを読み取らせる。ユーザ媒体15から読み取られたユーザIDは、ネットワーク163を介してサーバシステム部170に送信され、情報処理部20に供給される。
次のステップS41では、リーダ付きカメラ装置162Bにより、対象ユーザの顔が撮像される。例えば、ユーザ媒体15のデータをリーダ付きカメラ装置162Bに読み取らせることを顔撮像のトリガとすることが考えられる。これに限らず、リーダ付きカメラ装置162Bによるユーザ媒体15の読み取りに伴い、自動的に撮像を行うようにしてもよい。勿論、リーダ付きカメラ装置162Bに対して所定の操作を行うことで、撮像を行うようにしてもよい。
リーダ付きカメラ装置162Bは、ユーザ媒体15から読み取ったユーザIDをネットワーク163を介してサーバシステム部170に対して送信し、情報処理部20に供給する。またリーダ付きカメラ装置162Bは、撮像された静止画像データを、リーダ付きカメラ装置162Bを識別するセンサIDと、撮像が行われた時刻を示す時刻情報と共にサーバシステム部170に対して送信し、情報処理部20に供給する。
情報処理部20は、リーダ付きカメラ装置162Bから供給されたユーザIDと静止画像データとを照合し(ステップS42)、照合結果に基づき、システムを利用しようとしている人物が対象ユーザ本人であるか否かを判断する(ステップS43)。
すなわち、情報処理部20は、リーダ付きカメラ装置162Bから供給された静止画像データに対し、上述したようにして解析して顔検出を行い、検出された顔の特徴情報を抽出する。一方、情報処理部20は、ユーザデータベース21の本人識別情報テーブルを参照し、リーダ付きカメラ装置162Bから供給されたユーザIDに対応する顔の特徴情報を抽出する。そして、静止画像データから抽出された顔の特徴情報と、本人識別情報テーブルから抽出された顔の特徴情報とが略一致するか否かを判断する(ステップS43)。
若し、静止画像データから抽出された顔の特徴情報と、本人識別情報テーブルから抽出された顔の特徴情報とが一致しないと判断されれば、処理はステップS52に移行され、対象ユーザのユーザ媒体15を用いて対象ユーザ以外の人物がシステムを利用しようとしていることになり、異常を示す通知がなされる。
一方、ステップS43で、静止画像データから抽出された顔の特徴情報と、本人識別情報テーブルから抽出された顔の特徴情報とが略一致すると判断されれば、処理はステップS44に移行され、対象ユーザが目的地に向けて出発した旨が通知される。このとき、出発を示すメッセージと、ステップS41で撮像され顔検出に用いた静止画像データとをパッケージングして送信することが考えられる。
出発通知がなされると、処理はステップS45に移行され、ユーザ媒体15の次の位置での読み取りが待機される。ユーザ媒体15の次の位置での読み取りが行われれば、読み取られたユーザIDは、ネットワーク163を介してサーバシステム部170に送信され、情報処理部20に供給される。
一例として、学校161と自宅160とにそれぞれリーダ付きカメラ装置162Bおよび162Aが設置されているこの例では、学校161に設置されたリーダ付きカメラ装置162Bでユーザ媒体15の読み取りがなされたら、次は、自宅160に設置されたリーダ付きカメラ装置162Aで読み取りがなされることになる。別の例として、学校161と自宅160とにそれぞれリーダ付きカメラ装置162Aおよび162Bが設置され、さらに、学校161から自宅160へ向かう途中にリーダ付きカメラ装置162Cが設置されている場合には、学校161に設置されたリーダ付きカメラ装置162Bでユーザ媒体15の読み取りがなされたら、次は、途中のリーダ付きカメラ装置162Cで読み取りがなされることになる。ここでは、リーダ付きカメラ装置162Bでユーザ媒体15の読み取りがなされたら、次はリーダ付きカメラ装置162Aで読み取りがなされるものとする。
若し、直前のユーザ媒体15の読み取りから所定時間(30分、1時間など)が経過しても次の読み取りが行われないと判断されれば(ステップS46)、処理はステップS47に移行され、異常を示す通知がなされる。この場合には、対象ユーザに対して事故などの異常が生じたことが考えられる。
一方、直前のユーザ媒体15の読み取りから所定時間内に、次の読み取りが行われたと判断されれば、処理はステップS48に移行され、読み取りが行われたリーダ付きカメラ装置162Aで対象ユーザの顔が撮像される。撮像して得られた静止画像データは、リーダ付きカメラ装置162Aを識別するセンタIDとと、撮像が行われた時刻を示す時刻情報と共に、ネットワーク163を介してサーバシステム部170に送信され、情報処理部20に供給される。
情報処理部20では、次のステップS49で、上述したステップS42の処理と同様にして、リーダ付きカメラ装置162Aから供給されたユーザIDと静止画像データとを照合し、照合結果に基づき、システムを利用しようとしている人物が対象ユーザ本人であるか否かを判断する(ステップS50)。若し、静止画像データから抽出された顔の特徴情報と、本人識別情報テーブルから抽出された顔の特徴情報とが一致しないと判断されれば、処理はステップS53に移行され、異常を示す通知がなされる。
一方、ステップS50で、静止画像データから抽出された顔の特徴情報と、本人識別情報テーブルから抽出された顔の特徴情報とが略一致すると判断されれば、処理はステップS51に移行される。ステップS51では、ユーザ媒体15の目的地での読み取りが行われたか否かが判断される。例えば、情報処理部20は、静止画像データと共に供給されたセンサIDに基づき、どの位置に設置されたリーダ付きカメラ装置で撮像がなされたかを判断することができる。若し、目的地での読み取りが行われてないと判断されれば、処理はステップS45に戻され、次の読み取りが待機される。
一方、ステップS51で、目的地での読み込みがなされたと判断されれば、処理は次のステップS52に移行され、正常を示す通知がなされる。このとき、正常を示すメッセージと、ステップS48で撮像され顔検出に用いられた静止画像データとをパッケージングして送信することが考えられる。
ここで、上述したステップS47およびステップS51による異常を示す通知と、ステップS44による出発通知およびステップS52による正常を示す通知について説明する。これら異常通知、出発通知および正常通知は、ユーザ関連情報テーブルにおいて、対象ユーザに対して関連付けられた他のユーザに対して通知される。
通知は、例えば情報処理部20から、これら対象ユーザに対して関連付けられた他のユーザが、ユーザ情報テーブルに登録した連絡先に対してなされる。例えば、連絡先として電子メールアドレスが登録されていれば、当該電子メールアドレス宛に通知が送信される。携帯電話端末165Aや携帯電話端末165Bに設定された電子メールアドレスを連絡先として登録しておけば、対象ユーザに対して関連付けられた他のユーザは、通知を迅速に知ることができる。この場合、通知内容を概略的に示すメッセージが情報処理部20において自動的に生成され、電子メール本文とされて通知される。正常通知の場合は、撮像された静止画像データを当該電子メールに添付するようにしてもよい。
これに限らず、連絡先を電話番号としてもよい。このときも、携帯電話端末165Aや携帯電話端末165Bの電話番号を連絡先として登録しておくことで、通知を迅速に知ることができる。この場合、電話の応答メッセージが情報処理部20において自動的に生成される。
また、出発通知、正常通知および異常通知の全てを、対象ユーザに対して関連付けられた他のユーザの全てに対して、必ずしも通知する必要が無いことが想定される。一例として、対象ユーザが目的地に向けて出発したことを示す出発通知や、対象ユーザが目的地に正常に到着したことを示し正常通知は、通報機関に対して通知する必要が無いと思われる。そこで、図21を用いて説明したように、対象ユーザに関連する他のユーザ毎に、通知を行う内容を設定することが考えられる。図21の例では、ステップS44による出発通知およびステップS52による正常通知は、対象ユーザの両親のみに送信され、ステップS47およびステップS53による異常通知は、対象ユーザに関連する他のユーザ全てに送信されるように設定されている。
勿論、これは一例であって、さらに細かい条件に基づき、通知先を設定することも可能である。また、通知内容も、通知先に応じて設定することができる。このような条件別、通知先別の設定は、上述のようにユーザ関連情報テーブルに対して所定に項目を設けて行ってもよいし、例えば条件に対してユーザを対応付けるようなテーブルや、通知内容に対して通知先(ユーザ)を対応付けるようなテーブルを別途、設けてもよい。
上述では、この実施の第1の形態の第2の応用例によるセキュリティシステムとして、通学におけるセキュリティに関するシステムを例にとって説明したが、これはこの例に限定されない。例えば、この第2の応用例を、医療や介護のシステムに適用させることが考えられる。一例として、医療システムに適用させる場合、ユーザ関連情報テーブルは、対象ユーザに対して、当該対象ユーザが通院する医療施設そのものや、当該対象ユーザの掛かり付けの医者や看護師を対応付けることが考えられる。
2−4.実施の第1の形態の第3の応用例について
次に、この発明の実施の第1の形態の第3の応用例について説明する。第3の応用例は、この実施の第1の形態を、ラーニングシステムに応用した例である。この第3の応用例によるラーニングシステムは、所定の施設や会場で行われる講義やトレーニング、エクササイズの様子を動画像で撮影し、映像に映っている登録ユーザおよび当該登録ユーザに関連する他のユーザに対し、撮影された動画像を配信するようにしたものである。
例えば関連ユーザとして担当の講師などを設定することで、登録ユーザは、個別に適切なアドバイスを受けることができる。また、関連ユーザとして、登録ユーザと同じ講義やトレーニングなどを受講している他のユーザを設定することで、当該他のユーザがその講義やトレーニングなどに参加できなかった場合でも、その講義やトレーニングの様子を知ることができる。また、当該他のユーザと、講義やトレーニングの内容を検討することもできる。
2−4−1.第3の応用例に適用可能なシステム構成について
図23は、この実施の第1の形態の第3の応用例による一例のシステム構成を示す。なお、図23において、上述した図1と共通する部分には同一の符号を付し、詳細な説明を省略する。以下では、ラーニングシステムとして、外国語による会話を指導する外国語会話教室を例にとって説明する。外国語会話教室は、例えば1または複数の生徒が1または複数の講師と互いに外国語で会話を行い、外国語会話を学習するようになっている。一般的には、外国語会話教室の1の講座は、1名の講師と1名の生徒からなる構成を最小とし、最大でも数名で構成される。
外国語会話教室において、講座は、例えば所定に設けられた教室190A、190B、・・・で行われる。教室190A、190B、・・・には、ビデオカメラ装置192A、192B、・・・と、リーダ193A、193B、・・・がそれぞれ設けられる。ビデオカメラ装置192A、192B、・・・は、動画を撮影して動画像データとして出力すると共に、図示されないマイクロフォンにより音声を収音し、音声データとして出力する。なお、動画を撮影する撮影部と、音声を収音する収音部とは、ビデオカメラ装置に一体的に構成されるのに限らず、それぞれ別個に構成されていてもよい。リーダ193A、193B、・・・は、ユーザ媒体15のデータを読み出す。
一方、外国語会話教室の生徒(以下、ユーザ)の自宅191にも、ビデオカメラ装置194およびリーダ195を設けることができる。ビデオカメラ装置194は、上述と同様に、撮影された動画像データと収音された音声に基づく音声データを出力する。
ビデオカメラ装置192A、192B、・・・およびリーダ193A、193B、・・・、ならびに、ユーザの自宅191に設けられたビデオカメラ装置194およびリーダ195は、それぞれ所定のネットワーク199に接続される。また、このラーニングシステムのサービスをユーザに提供するためのサーバシステム部180がネットワーク199に接続される。ネットワーク199は、インターネットのようなオープンなネットワークでもよいし、このシステム内で閉じたネットワークでもよい。
サーバシステム部180は、さらに、インターネット110に接続される。サーバシステム部180は、インターネットを介して、インターネットと通信可能に接続された他の情報機器と通信を行うことができる。この図23の例では、サーバシステム部180は、ユーザの自宅191に備えられたパーソナルコンピュータ194、外国語会話教室の講師が用いるパーソナルコンピュータ195、ユーザに関連する他のユーザが用いるパーソナルコンピュータ196A、196B、・・・などと、インターネット110を介して通信を行うことができるようにされている。
サーバシステム部180は、情報処理部20、ユーザデータベース21、センサ情報データベース22およびコンテンツデータベース107を有する。ユーザデータベース21は、ユーザ情報テーブル、ユーザ関連情報テーブルおよび本人識別情報テーブルが格納され、このシステムを利用するユーザの情報が登録される。この場合、ユーザは、外国語会話教室の講師と生徒とを含む。外国語会話教室そのものを、ユーザとして登録することも考えられる。
情報処理部20は、インターネット110に接続されるWebサーバ112を介してインターネット110に向けてデータを公開することができる。例えば、情報処理部20は、コンテンツデータベース107に格納されるデータに対するリンク情報が記述されたWebページ閲覧ファイルを作成し、Webサーバ112に転送する。インターネット110に接続されたパーソナルコンピュータなどから、このWebサーバ112に転送されたWebページ閲覧ファイルにアクセスすることで、当該Webページ閲覧ファイルに記述されたリンク先のデータを閲覧することができる。
ユーザ情報テーブルは、図10を用いて説明したのと同様に、ユーザを識別するユーザIDに対して、ユーザの名前、住所、連絡先(電子メールアドレス)などのユーザの属性が対応付けられる。外国語会話教室におけるシステムに適用したこの例では、学校における当該ユーザのIDを、ユーザIDとして用いることができる。ユーザ関連情報テーブルは、少なくとも、ユーザと、当該ユーザを担当する講師とが対応付けられる。ユーザ関連情報テーブルにおいて、さらに、当該ユーザと、当該ユーザに関連する他のユーザとを対応付けることもできる。また、図12を用いて説明したように、ユーザおよび講師、或いは、ユーザ、講師および当該ユーザに関連する他のユーザとからなるグループに対し、名前や属性を設定することも可能である。
本人識別情報テーブルも、図11を用いて既に説明したのと同様に、ユーザIDに対してユーザの顔の特徴を示す情報を対応付ける。なお、この第3の応用例においては、ユーザや当該ユーザに関連する他のユーザの本人識別情報が登録されていればよく、講師の情報は省略することができる。
また、この第3の応用例では、ユーザの声の特徴を示す情報を、本人識別情報として用いることができる。例えば、予め録音されたユーザの声を、上述したテキスト独立型話者認識の手法により解析してユーザの声を示す値を求め、この値をユーザIDと対応付けて本人識別情報として用いることが考えられる。
センサ情報データベース22は、教室190A、190B、・・・にそれぞれ設けられた各ビデオカメラ装置192A、192B、・・・や、ユーザの自宅191に設けられたビデオカメラ装置194から出力された動画像データおよび音声データを蓄積する。図24は、センサ情報データベースに格納されるセンサ情報データの一例の構成を示す。動画像データは、例えばフレーム単位にタイムコード(TC)と対応付けられて蓄積される。タイムコードは、各フレームを特定するためのフレーム番号を含む。音声データは、動画像データのフレーム単位に区切って蓄積することが考えられる。一例として、フレーム周波数が30Hz、音声データのサンプリング周波数が48000Hzである場合、1フレーム毎にモノラル音声データの1600サンプルが対応付けられる。
2−4−2.第3の応用例による一例の処理の流れについて
図25は、この実施の第1の形態の第3の応用例による一例の処理を示すフローチャートである。なお、このフローチャートによる処理に先立って、外国語会話教室の生徒であるユーザの情報は、ユーザデータベース21に予め登録されているものとし、ユーザIDが記憶されたユーザ媒体15がシステムによって既に発行され、ユーザに渡されているものとする。また、ユーザの本人識別情報も、予め本人識別情報テーブルに登録されているものとする。同様に、当該ユーザに関連する他のユーザの情報も、予めユーザ関連情報テーブルに登録されているものとする。これらの処理は、例えばユーザの外国語教室に対する契約時に行うことが考えられる。
一例として、外国語会話教室に契約しているユーザAが教室190Aで学習を行う場合を例にとって説明する。このユーザAに対して、講師Pが予め割り振られているものとする。ユーザ関連情報テーブルには、少なくとも、ユーザAと講師Pとが互いに関連するとして対応付けられて登録されている。
ユーザAは、例えば受講の開始時に、自身のユーザ媒体15を教室190Aに設けられたリーダ193Aに読み取らせる。ユーザ媒体15から読み取られたユーザIDは、読み取りが行われた時刻を示す時刻情報と、リーダ193Aに対応するビデオカメラ装置192Aを識別するセンサIDと共にネットワーク199を介してサーバシステム部180に送信され、情報処理部20に供給される。情報処理部20は、供給されたユーザID、時刻情報およびセンサIDとを対応付けて、データ特定情報として所定に保持する。
一方、教室190Aにおいて、ビデオカメラ装置194による撮影と、ビデオカメラ装置194に設けられたマイクロフォンによる音声の収音が行われる(ステップS61)。例えば、これら撮影および収音は、所定の時間帯内で常時、行われる。これに限らず、撮影および収音の開始および終了は、手動の操作により行うようにしてもよい。また、リーダ193Aによりユーザ媒体15が読み取られたことをトリガとして、撮影および収音を開始することも考えられる。
なお、繁雑さを避けるために、以下では、「ビデオカメラ装置194による撮影と、ビデオカメラ装置194に設けられたマイクロフォンによる音声の収音」を、単に「ビデオカメラ装置194による撮影」と記述する。
受講が終了すると、ユーザAは、ユーザ媒体15を教室190Aに設けられたリーダ193Aに対して再び読み取らせる(ステップS62)。読み取られたユーザIDは、読み取りが行われた時刻を示す時刻情報と、リーダ193Aに対応するビデオカメラ装置102Aを識別するセンサIDと共にサーバシステム部180に送信され、情報処理部20に供給される。情報処理部20は、供給されたユーザID、時刻情報およびセンサIDとを対応付けて、データ特定情報として所定に保持する。
次のステップS63で、情報処理部20は、センサ情報データベース22に蓄積された動画像データおよび音声データに対して、図8を用いて説明したようにして、処理の対象とされるデータを特定する。より具体的には、センサ情報データベース22に蓄積されるデータのうち、先ずデータ特定情報のセンサIDが対応するデータを選択し、選択されたデータのうちデータ特定情報の時刻情報に基づき、処理対象のデータを特定する。
例えば、同一のユーザIDについて、同一のセンサIDが2度連続して対応付けられていれば、当該ユーザIDに対応するユーザが受講を開始し終了したと判断することができ、それぞれの時刻を求めることができる。この場合、開始時刻から終了時刻までを処理対象のデータとすることが考えられる。これに限らず、例えば開始時刻および/または終了時刻を含む受講の単位時間範囲に対応するデータを、処理対象のデータとすることが考えられる。
処理対象のデータが特定されると、次のステップS64およびステップS65で、情報処理部20によるデータの解析がなされ、処理対象とされたデータから、ステップS60またはステップS62でユーザ媒体15からリーダ193Aに読み取られたユーザIDに対応する本人識別情報に対応するデータが抽出される。
例えば、処理対象とされたデータのうち動画像データを、フレーム単位で解析し、顔検出を行い、検出された顔画像から顔の特徴情報を抽出する(ステップS64)。抽出された顔の特徴情報と、本人識別情報テーブルに登録された顔情報との照合を行い、抽出された顔の特徴情報に対して類似度の高い顔情報を、本人識別情報テーブルから検索する。そして、検索して得られた顔情報に対応するユーザIDを取得する(ステップS65)。フレーム画像から複数の顔画像が検出された場合、当該複数の顔画像のそれぞれについて、同様にして本人識別情報テーブルに登録される顔情報との照合を行い、顔情報のそれぞれに対応するユーザIDを取得する。
なお、この解析処理は、処理対象とされた範囲に含まれる全てのフレームを用いて行ってもよいし、数フレームおきにフレームを抽出して行ってもよい。さらには、処理対象範囲に含まれるフレームから1または複数フレームを任意に抽出して行うこともできる。
ステップS65で、処理対象データに対応するユーザIDが取得されると、処理は次のステップS66に移行される。ステップS66では、ユーザ関連情報テーブルが参照され、取得されたユーザIDに関連付けられたユーザIDが検索される。これにより、処理対象の動画像データに映っているユーザに関連する他のユーザが特定される。第3の応用例を外国語会話教室に適用させたこの例では、関連ユーザとして、少なくとも当該ユーザを担当する講師が設定されている。
次のステップS67で、上述のステップS65で取得された、処理対象データに対応するユーザIDのユーザと、ステップS66で特定された当該ユーザに関連する他のユーザに対するデータの配信がなされる。例えば、センサ情報データベース22から処理対象とされたデータを抽出し、所定のメタデータ51および付加情報と共にパッケージングし、パッケージデータ50を作成する。より具体的な例としては、処理対象範囲の動画像データおよび音声データをユーザ個別データ52とし、付加情報53として、例えば受講日時、講師名、関連ユーザの情報などを格納することが考えられる。勿論、これは一例であって、パッケージデータ50の構成はこの例に限られない。
こうして作成されたパッケージデータ50は、例えばコンテンツデータベース107に格納される。そして、例えばWebサーバ112を介してインターネット110に向けて公開される。すなわち、情報処理部20は、コンテンツデータベース107内の当該パッケージデータ50に対するリンク情報やレイアウト情報が記述されたWebページ閲覧ファイルを所定に生成し、Webサーバ112に転送する。配信先のユーザには、当該Webページ閲覧ファイルのURLが記述された電子メールを送信する。
配信先のユーザは、この電子メールに記述されたURLに基づき当該Webページ閲覧ファイルにアクセスし、このファイルに記述されるリンク情報に基づきパッケージデータ50を閲覧することができる。このとき、パッケージデータ50にユーザ個別データ52として含まれる動画像データや音声データは、所謂ストリーミング配信を行うと、配信先における閲覧時の負担が減り、好ましい。ストリーミング配信は、圧縮された動画像データおよび音声データを所定単位毎に配信し、受信側でバッファに溜め込み伸長しながら続きのデータを受信してバッファに蓄えるようにして、動画像データや音声データなどのストリームデータをダウンロードしながら再生できるようにしたものである。
なお、上述では、パッケージデータ50を、ユーザおよび当該ユーザに関連する他のユーザがそれぞれ閲覧可能なように説明したが、これはこの例に限定されない。例えば第3の応用例を外国語会話教室に適用させたこの例では、パッケージデータ50の閲覧を、当該ユーザに関連する他のユーザとしての、当該ユーザの担当講師のみに限定することも考えられる。
また、上述では、動画像データを解析してユーザの特定を行っているが、これはこの例に限定されず、ユーザの特定は、音声データを解析することで行ってもよい。このとき、ステレオで音声の収音を行っておくことで、各ユーザの概略的な位置も特定可能である。
ところで、図25のフローチャートの処理において、ステップS60やステップS62でユーザ媒体15からユーザIDを読み出しているので、動画像データの解析を行わなくても、教室内で受講しているユーザ(生徒)を特定することが可能である。一方、動画像データに映っているユーザを特定することで、例えばユーザを指定してそのユーザの顔画像のみに選択的に処理を加えることが可能となる。指定したユーザの顔画像に対する処理としては、当該顔画像の拡大処理や、顔画像に対してさらに解析を行う処理などが考えられる。
図26を用いて、指定したユーザの顔画像を拡大処理する例について、概略的に説明する。処理対象の動画像データに対して顔検出を行った結果、図26Aに一例が示されるように、ユーザA、ユーザBおよびユーザCの顔が検出されたものとする。情報処理部20は、顔検出により検出された顔の特徴情報に対応するユーザIDを取得すると共に、検出された顔画像の座標情報を保持する。
例えば、ユーザA、ユーザBおよびユーザCを担当する講師が、ユーザAの発声中の口の動きを見たいと考え、ユーザAを所定の方法で指定する。一例として、ユーザA、ユーザBおよびユーザCの顔検出の結果に基づきそれぞれの顔画像の範囲に対応してそれぞれのユーザIDを関連付け、ブラウザの表示画面上でポインティングデバイスなどを用いて所望の顔画像を指定することで、対応するユーザのユーザIDが出力されるようにすることが考えられる。
ユーザAが指定されると、指定されたユーザAの顔画像が選択された状態とされ(図25B参照)、さらに所定の操作を行うことで、ユーザAの顔画像を含む所定範囲が切り取られると共に、切り取られた部分が拡大表示される(図25C参照)。以降、フレーム毎にユーザAの顔画像を含む所定範囲の切り取りおよび拡大表示を行う。このような処理は、Webページ閲覧ファイルにJavaなどの言語を用いて記述され埋め込まれたプログラムに従い行ってもよいし、情報処理部20において行いWebページに反映させてもよい。
ラーニングシステムの場合、講義や実習、トレーニング、エクササイズなどの結果をユーザに返すことで、より学習効果が上がることが考えられる。一例として、講師が、受講中の生徒の様子を配信データに基づき確認し、生徒に対してアドバイスなどのコメントを返す場合について説明する。勿論これは一例であって、各生徒から他の生徒や講師に対してコメントを送ることもできる。
図27のフローチャートに例示されるように、講師は、配信データを受信して(ステップS70)、受信した配信データに記述されるURLに基づきWebページ閲覧ファイルにアクセスし、当該ファイルの記述に従い動画像データおよび音声データを視聴する。このとき、上述したように、動画像データに映る所望のユーザの顔画像の拡大表示などが可能となっていると、好ましい。視聴の結果に応じ、講師によりコメントが所定に作成される(ステップS71)。
例えば、当該動画像データおよび音声データの試聴を行うWebページに、ユーザのそれぞれに対応するコメント記入欄を設けることが考えられる。これに限らず、例えば動画像データに対して直接的にマーカ表示を書き込むなど所定に編集を加えることも考えられる。
コメントの記入が終了すると、Webページに対する所定の操作により、コメントデータが動画像データに映っているユーザに対して配信される(ステップS72)。配信先の情報は、先に受信された元の配信データに対応するパッケージデータ50中の付加情報53として含まれている。
コメントデータの配信は、一般的な電子メールとして各ユーザに送信されてもよいし、サーバシステム部180を介して各ユーザに配信されるようにもできる。サーバシステム部180を介してコメントデータが配信される場合、コメントデータと、動画像データおよび音声データとをパッケージングし、上述と同様にして、コメントと動画像データおよび音声データとを閲覧可能なWebページとして配信することが考えられる。
上述では、講師および各生徒(ユーザ)に対して一旦データの配信を行い、その後、講師或いは各生徒からのコメントの配信を行うように説明したが、これはこの例に限定されない。例えば、先ず講師に対してデータの配信を行い、講師がコメントを付加した後に、各生徒にコメントを含めたデータの配信を行うようにしてもよい。
なお、上述では、この実施の第1の形態の第3の応用例によるラーニングシステムとして、外国語会話教室を例にとって説明したが、これはこの例に限定されない。すなわち、この第3の応用例は、比較的小規模な空間に特定数のユーザが集まり学習やそれに類する行為を行うシステムであれば、他の例にも適用可能である。
例えば、ゴルフなどのスポーツの個人レッスンのシステムにこの第3の応用例を適用することができる。ゴルフの個人レッスンの例では、ゴルフ練習場施設において、レーンのそれぞれにビデオカメラ装置およびリーダ装置を設けることが考えられる。これに限らず、このシステムによるビデオカメラ装置およびリーダ装置をユーザの自宅に設け、素振りやパット練習機による練習、さらには、自宅に設置可能な練習装置による練習を撮影してサーバシステム部180に送信することが考えられる。ユーザに対して少なくとも担当の講師が関連付けられ、練習時に撮影された動画像データが、講師およびユーザに配信される。このときも、講師からコメントを付加してさらにユーザに対して配信することができる。また、ユーザは、関連する他のユーザをさらに設定することができ、データの配信をこの関連する他のユーザに対しても行うようにできる。
また例えば、ジムなどで行われるエクササイズやトレーニングのシステムに、この第3の応用例を適用することができる。例えば、ジムにビデオカメラ装置とリーダ装置を設け、エクササイズやトレーニングの様子を撮影し、サーバシステム部180に送信する。ユーザに対して少なくとも担当のインストラクタが関連付けられ、エクササイズやトレーニング時に撮影された動画像データが、講師およびユーザに配信される。このときも、上述と同様に、インストラクタからコメントを付加してさらにユーザに対して配信することができる。また、上述と同様に、このシステムによるビデオカメラ装置やリーダ装置をユーザの自宅に設け、個人で行うエクササイズやトレーニングの様子を撮影し、サーバシステム部180に送信することが考えられる。
3.発明の実施の第2の形態
3−1−1.システムについて
次に、この発明の実施の第2の形態について説明する。図28は、この実施の第2の形態による一例のシステム構成を概略的に示す。なお、図28において、上述した図1と共通する部分には同一の符号を付し、詳細な説明を省略する。この図28に例示される実施の第2の形態によるシステムは、上述の図1と比較して明らかなように、図1の構成からユーザ媒体15のデータを読み取るためのリーダ装置を省略したものとなっている。すなわち、この実施の第2の形態では、ユーザの識別を、センサ装置10A、10B、・・・の出力データのみに基づき、行うようにしている。
図28において、このシステムによるサービスの対象となる地域において、位置A、位置B、位置C、・・・にセンサ装置10A、10B、10C、・・・がそれぞれ配置される。これらセンサ装置10A、10B、10C、・・・は、それぞれネットワーク12に接続される。ネットワーク12には、さらに、サーバシステム部11’が接続される。センサ装置10A、10B、10C、・・・は、上述の実施の第1の形態と同様に、ユーザの情報を遠隔的に取得可能であれば、特に種類を問わない。
すなわち、センサ装置10A、10B、10C、・・・として、静止画像データを出力するカメラ装置、動画像データを出力するビデオカメラ装置、音声を収音して音声データを出力するオーディオ装置などを用いることができる。さらに、サービスを受けるユーザに、ユーザ毎にユニークなコードを変調して送信する送信機を所持させれば、所定のコードを含むディジタル信号が変調された電波を受信して復調するような受信装置を、センサ装置10A、10B、10C、・・・として用いることができる。
3−1−2.実施の第2の形態に適用可能なサーバシステムについて
サーバシステム部11’は、概略的には、上述の実施の第1の形態と同様に、情報処理部20’、ユーザデータベース21、センサ情報データベース22およびユーザ登録部23を有する。ユーザデータベース21およびセンサ情報データベース22は、上述と同様である。すなわち、ユーザデータベース21は、ユーザ情報テーブル、本人識別情報テーブルおよびユーザ関連情報テーブルが格納される。それぞれのテーブルの概略的な内容は、上述の実施の第1の形態と略、同一である。センサ情報データベース22も同様に、センサ装置10A、10B、10C、・・・から出力されたデータを、センサを識別するセンサIDと対応付けて格納する。
ユーザ登録部23は、上述と同様、このシステムを利用するユーザの情報を登録するもので、ユーザにより情報が入力されると、当該ユーザを識別するためのユーザIDを生成し、入力されたデータをこのユーザIDに対応付けて、ユーザ情報テーブルに登録する。また、ユーザ登録部23は、ユーザ本人を識別するための本人識別情報を生成し、ユーザIDと対応付けて本人識別情報テーブルに登録する。本人識別情報としてどのような種類のデータを用いるかは、システムの目的およびセンサ装置10A、10B、10C、・・・の種類により決められる。ユーザ情報テーブルおよび本人識別情報テーブルの構成は、それぞれ図2Aおよび図2Bを用いて説明した構成と同一なので、詳細な説明を省略する。
ユーザ登録部23は、さらに、登録されたユーザに対して他のユーザを関連付け、ユーザ関連情報テーブルに登録する。この登録されたユーザに対する他のユーザの関連付けについては、上述の実施の第1の形態と同様であり、また、ユーザ関連情報テーブルの構成については、図3Aおよび図3Bを用いて説明した構成と略同一なので、詳細な説明を省略する。
図29は、サーバシステム部11’の一例の構成を示す。なお、図29において、上述した図5および図28と共通する部分には同一の符号を付し、詳細な説明を省略する。この図29に例示される実施の第2の形態に適用可能なサーバシステム部11’の構成は、上述の図5と比較して明らかなように、図5の構成からリーダ/ライタ部40を省略した以外は、同一の構成とされる。
すなわち、図29において、ユーザ情報処理部31、センサ管理部32、センサ情報抽出部33、センサ情報編集部34、記録管理部35、記録装置36、配信管理部37、配信装置38および課金管理部39で、図28における情報処理部20’が構成されると考えることができる。
3−1−3.実施の第2の形態による概略的な処理の流れについて
図30を用いて、この実施の第2の形態による処理の流れを概略的に説明する。この実施の第2の形態による処理は、基本的には、図7を用いて説明した実施の第1の形態による処理に対して、ユーザ媒体15に関する処理が省略されたものとなっている。
先ず、ステップS80で、システムを利用するユーザ(便宜上、当人ユーザと呼ぶ)の情報と、本人識別情報とがユーザ登録部23に対して入力される。ユーザ登録部23は、この入力に応じてユニークなユーザIDを発行し、入力された情報にユーザIDを関連付けてユーザ情報を生成してユーザ情報テーブルに格納すると共に、本人識別情報にユーザIDを関連付けて本人識別情報テーブルに格納し、ユーザ情報テーブルおよび本人識別情報テーブルをユーザデータベース21に登録する。
ステップS80では、さらに、当人ユーザに関連する他のユーザ(便宜上、関連ユーザと呼ぶ)の情報を登録することができる。これは、例えば関連する複数のメンバから構成されるグループのうち一人がグループを設定し、他のメンバが当該グループに所属するようにしてもよいし、予め存在するグループに所属するようにしてもよい。ユーザ同士の関連を示す情報は、ユーザデータベース21内のユーザ関連情報テーブルに登録される。
ユーザ情報がシステムに登録され、ユーザIDが発行されると、当該ユーザのシステム利用が可能とされる。システムにおいて、センサ装置10A、10B、10C、・・・は、例えば常時、データの収集を行い、各センサ装置10A、10B、10C、・・・から出力されたセンサ出力データは、サーバシステム部11’に送信されセンサ情報データベース22に蓄積される。
ステップS81で、情報処理部20’により、センサ情報データベース22に蓄積されたデータから、ユーザデータベース21に登録されたユーザIDに関するデータが抽出される。例えば、情報処理部20’は、センサ情報データベース22に蓄積されたデータを解析して、当該データ中に含まれる、ユーザデータベース21内の本人識別情報テーブルに登録されている本人識別情報に対応する情報を検出し、対応するユーザIDを取得する。そして、次のステップS82で、情報処理部20’により、ユーザデータベース21内のユーザ関連情報テーブルに対して、ステップS81で取得されたユーザIDに関連付けられたユーザIDの検索が行われ、検索されたユーザIDに対応するユーザが特定される(ステップS83)。
関連ユーザのユーザIDが特定されると、ステップS84で、特定されたユーザIDに基づき、関連ユーザに対して、ステップS81で取得されたセンサ出力データまたは当該センサ出力データが所定に加工されたデータが配信される。このデータは、例えば実施の第1の形態で図6を用いて説明したのと同様にしてパッケージングされ、パッケージデータ50として、関連ユーザと共に当人ユーザにも配信される。
このように、この実施の第2の形態では、センサ装置10A、10B、10C、・・・から出力されたセンサ出力データに基づき、システムを利用したユーザのユーザIDを特定するようにしている。また、特定されたユーザIDに関連する他のユーザIDに対してデータが配信される。そのため、ユーザおよび当該ユーザに関連する他のユーザは、システムを意識せずに所定のデータを受け取ることができる。
3−2.実施の第2の形態の第1の応用例について
次に、この発明の実施の第2の形態の第1の応用例について説明する。この第1の応用例は、上述した実施の第1の形態の第1の応用例に対応するもので、この実施の第2の形態を大規模遊戯施設に適用した例である。すなわち、この第2の応用例によるシステムでは、大規模遊戯施設内に所定に配置されたカメラ装置で自動撮影を行い、得られた静止画像データを解析して登録されたユーザが映っている静止画像データを抽出する。そして、この登録ユーザが映っている静止画像データを、当該ユーザと、当該登録ユーザに関連付けられた他のユーザとに対して配信するようにしている。
3−2−1.第1の応用例に適用可能なシステム構成について
図31は、この実施の第2の形態の第1の応用例による一例のシステム構成を概略的に示す。なお、図31において、上述した図9と共通する部分には同一の符号を付し、詳細な説明を省略する。図31と上述の図9とを比較して明らかなように、この実施の第2の形態の第1の応用例によるシステムは、上述した実施の第1の形態の第1の応用例によるシステムから各アトラクション施設101A、101B、・・・におけるリーダ103A、103B、・・・が省略されている以外は、図9で示した実施の第1の形態の第1の応用例によるシステム構成と同一構成となっている。
なお、この実施の第2の形態の第1の応用例によるシステムでは、各アトラクション施設101A、101B、・・・を利用するに当たり、ユーザIDをシステムに読み取らせる必要がない。一方、大規模遊戯施設100におけるユーザの入出場を管理する用途などで、ユーザIDが記憶されたユーザ媒体15を利用することができる。この場合、入場登録部104においてユーザ入場時にユーザ媒体15を発行し、出場時に出場登録部105においてユーザ媒体15の読み取りが行われる。
3−2−3.第1の応用例による一例の処理の流れについて
図32のフローチャートおよび上述した図19を用いて、この実施の第2の形態の第1の応用例による一例の処理について説明する。先ず、システムの利用に当たって、ユーザは、入場登録部104において所定にユーザ情報を入力してユーザ情報を登録し(ステップS90)、システムは、登録を行ったユーザに対してユーザIDを発行すると共に、当該ユーザの情報をユーザIDに関連付けてユーザ情報テーブルに登録し、ユーザデータベース21に格納する。また、ユーザは、顔写真を撮像してシステムに登録する。システムは、この顔写真に基づき当該ユーザに対応する本人識別情報を生成し、当該ユーザのユーザIDに関連付けて本人識別情報テーブルに登録し、ユーザデータベース21に格納する。
さらに、ステップS91で、登録されたユーザに関連する他のユーザの情報がユーザ関連情報テーブルに登録され、ユーザデータベース21に格納される。このとき、ユーザは、その場にいない他のユーザを、関連ユーザとして登録することができる。また、利用する大規模遊戯施設100のマスコットキャラクタのような、ユーザと直接的な関わりがない対象を関連ユーザとして登録することも可能である。さらに、団体など非人格的な対象を関連ユーザとして登録することもできる。
なお、これらユーザ情報テーブル、本人識別情報テーブルおよびユーザ関連情報テーブルの構成は、上述の実施の第1の形態の第1の応用例において図10、図11および図12を用いて説明したものと同一の構成を適用することができる。
ユーザ登録に伴い、システムにより、登録を行ったユーザに対して当該ユーザのユーザIDが記憶されたユーザ媒体15が作成される。作成されたユーザ媒体15は、当該ユーザが保持することになる。
ユーザ情報、ユーザ同士の関連付け情報がシステムに登録されると、ユーザにより、各アトラクション施設101A、101B、・・・の利用が開始される(ステップS92)。各アトラクション施設101A、101B、・・・に備えられたカメラ装置102A、102B、・・・は、例えば所定の時間間隔で常時、撮像を行い、撮像して得られた静止画像データをその都度、または所定に溜め込んで、情報処理部20’に対して送信する(ステップS92A)。情報処理部20は、静止画像データを受け取ると、受け取った静止画像データを解析して顔検出を行う(ステップS92B)。そして、静止画像データから検出された顔の特徴情報と、ユーザデータベース21内の本人識別情報テーブルから、静止画像データから検出された顔の特徴情報と略一致する特徴情報を有するユーザIDを抽出する(ステップS92C)。
すなわち、図19Aを用いて既に説明したように、静止画像データ150から検出された顔151、152および153のそれぞれについて特徴情報を求め、本人識別情報テーブルに登録されている顔の特徴情報とそれぞれ比較し、対応するユーザIDを求める。さらに、ステップS92Dでユーザ関連情報テーブルが参照され、ステップS92Cで抽出されたユーザIDに関連付けられたユーザIDが特定される。例えば、図19Bに例示されるように、ユーザAに対してユーザB、ユーザDおよびユーザEが関連付けられ、ユーザHに対してユーザI、ユーザJ、ユーザKおよびユーザLが関連付けられ、ユーザPに対してユーザQおよびユーザRが関連付けられていることがそれぞれ特定される。
これらステップS92B〜ステップS92Dの処理を、ステップS92Aでカメラ装置により撮像が行われ静止画像データが出力される毎に行うようにしてもよいし、所定枚数の撮像毎に纏めて行ってもよい。情報処理部20は、1の静止画像データに関連するユーザの情報を、当該静止画像データと対応付けて、画像内ユーザ情報として、例えばセンサ情報データベース22に格納する。センサ情報データベース22の構成は、上述の実施の第1の形態の第1の応用例において図13を用いて説明したものと同一の構成を適用することができる。
各ユーザは、各アトラクション施設101A、101B、・・・などを適宜、利用し終えると、それぞれ出場登録部105で自身のユーザ媒体15を出場登録部105に設けられたリーダ装置に読み取らせて出場登録を行い、大規模遊戯施設100から出ることになる(ステップS93)。出場登録部105でユーザ媒体15から読み出された情報は、それぞれネットワーク106を介して情報処理部20に供給される。情報処理部20は、例えばユーザデータベース21内のユーザ関連情報テーブルを参照し、グループ単位でユーザの大規模遊戯施設100の利用終了を判断する。
次のステップS94で、センサ情報データベース22に蓄積された静止画像データの中から、出場登録を行ったグループに属するユーザIDに対応する顔の特徴情報を有する顔が検出されたデータが抽出される。すなわち、上述のステップS92B〜ステップS92Dにおいて、既に、静止画像データに対する顔検出がなされ検出された顔それぞれの特徴情報が求められ、関連するユーザIDが抽出されて、静止画像データと当該静止画像データに含まれるユーザIDとの対応関係が画像内ユーザ情報として保持されている。情報処理部20は、この画像内ユーザ情報を参照し、ステップS92B〜ステップS92Dの処理により抽出されたユーザIDに基づき、出場登録を行ったグループに属するユーザIDが含まれる静止画像データを抽出する。
ステップS94で静止画像データの抽出が行われると、次のステップS95で、抽出された静止画像データのパッケージング処理が行われ、その次のステップS96で、パッケージングされたパッケージングデータ50のWebサーバ112への転送処理が行われる。これらステップS95およびステップS96によるデータパッケージングおよびWebサーバ112への転送処理は、実施第1の形態の第1の応用例において、図14を用いて既に説明したステップS28およびステップS29の処理と同様であるので、詳細な説明を省略する。また、Webサーバ112においてインターネット110に向けて公開されるWebページの構成も、図16を用いて説明した構成を同様に適用できる。
なお、上述では、ユーザは、ユーザ情報のユーザデータベース21への登録を、大規模遊戯施設100の利用開始時または利用開始に先立って予め行うように説明したが、これはこの例に限定されない。すなわち、この実施の第2の形態の第1の応用例においては、ユーザ情報のユーザデータベース21への登録を、大規模遊戯施設100の利用後に行うようにしてもよい。例えば、大規模遊戯施設100からの出場時に、出場登録部105においてユーザ情報の登録を行うことができる。また例えば、ユーザが大規模遊戯施設100の出場後、例えば帰宅後に自宅に設けられたユーザ端末111Aなどからサーバシステム部11’にアクセスし、ユーザ情報の登録を行ってもよい。
3−3.実施の第2の形態の第2の応用例について
次に、この発明の実施の第2の形態の第2の応用例について説明する。この第2の応用例は、上述した実施の第1の形態の第3の応用例に対応するもので、この実施の第2の形態をラーニングシステムに適用した例である。すなわち、所定の施設や会場で行われる講義やトレーニング、エクササイズの様子を動画像で撮影し、映像に映っている登録ユーザおよび当該登録ユーザに関連する他のユーザに対し、撮影された動画像を配信するようにしたものである。
3−3−1.第2の応用例に適用可能なシステム構成について
図33は、この実施の第2の形態の第2の応用例による一例のシステム構成を概略的に示す。以下では、ラーニングシステムとして、外国語による会話を指導する外国語会話教室を例にとって説明する。なお、図33において、上述した図23と共通する部分には同一の符号を付し、詳細な説明を省略する。図33と上述の図23とを比較して明らかなように、この実施の第2の形態の第2の応用例によるシステムは、上述した実施の第1の形態の第3の応用例によるシステムから各教室190A、190B、・・・におけるリーダ193A、193B、・・・、ならびに、生徒(ユーザ)の自宅191におけるリーダ192Cが省略されている以外は、図23で示した実施の第1の形態の第3の応用例によるシステム構成と同一構成となっている。
3−3−3.第2の応用例による一例の処理の流れについて
図34のフローチャートを用いて、この実施の第2の形態の第2の応用例による一例の処理について説明する。なお、このフローチャートによる処理に先立って、外国語会話教室の生徒であるユーザの情報は、ユーザデータベース21に予め登録されているものとする。すなわち、ユーザ情報テーブル、本人識別情報テーブルおよびユーザ関連情報テーブルに対する情報の登録が予め行われ、ユーザデータベース21に格納されている。
一例として、外国語会話教室に契約しているユーザAに対して講師Pが予め割り振られ、教室190Aで学習を行う場合を例にとって説明する。ユーザ関連情報テーブルには、少なくとも、ユーザAと講師Pとが互いに関連するとして対応付けられて登録されている。
受講が開始されると(ステップS100)、教室190Aにおいて、ビデオカメラ装置194による撮影が行われる(ステップS101)。例えば、撮影は、所定の時間帯内で常時、行われる。これに限らず、撮影および収音の開始および終了は、手動の操作により行うようにしてもよい。ビデオカメラ装置194から出力された動画像データおよび音声データは、ネットワーク199を介してサーバシステム部180に送信され、情報処理部20’に供給される。情報処理部20’は、供給された動画像データおよび音声データをセンサ情報データベース22に蓄積する。センサ情報データベース22に格納されるセンサ情報データの構成は、図24を用いて説明した構成と同様とされる。
受講が終了すると(ステップS102)、ステップS103およびステップS204で、情報処理部20’によりセンサ情報データベース22に蓄積されたデータが解析され、解析結果に基づき、当該データに含まれるユーザのユーザIDが抽出される。
例えば、図25のステップS64〜ステップS66で説明したのと同様にして、センサ情報データベース22に蓄積されたデータのうち動画像データをフレーム単位で解析して顔検出を行い、検出された顔画像から顔の特徴情報を抽出する(ステップS103)。抽出された顔の特徴情報と、本人識別情報テーブルに登録された顔情報との照合を行い、抽出された顔の特徴情報に対して類似度の高い顔情報を、本人識別情報テーブルから検索する。そして、検索して得られた顔情報に対応するユーザIDを取得する(ステップS104)。解析は、動画像データの全てのフレームを用いて解析を行ってもよいし、数フレームおきにフレームを抽出して行ってもよい。
ステップS104でユーザIDが取得されると、次のステップS105でユーザ関連情報テーブルが参照され、取得されたユーザIDに関連付けられたユーザIDが検索される。これにより、処理対象の動画像データに映っているユーザに関連する他のユーザが特定される。第2の応用例を外国語会話教室に適用させたこの例では、関連ユーザとして、少なくとも当該ユーザを担当する講師が設定されている。
次のステップS106で、上述のステップS104で取得されたユーザIDのユーザと、ステップS105で特定された当該ユーザに関連する他のユーザに対するデータの配信がなされる。このステップS106によるデータ配信処理は、図25のフローチャートを用いて説明したステップS67におけるデータ配信処理と何ら変わるところがないため、詳細な説明を省略する。
なお、この実施の第2の形態の第2の応用例においても、図26を用いて説明したのと同様にして、例えば動画像データが表示される画面において、ユーザの顔画像を指定してその顔画像のみに選択的に処理を加えることが可能である。また、図27を用いて説明したのと同様にして、講師が、受講中の生徒の様子を配信データに基づき確認し、生徒に対してアドバイスなどのコメントを返すことなどが可能である。これらの処理は、上述した実施の第1の形態の第3の応用例による処理と同一であるので、ここでの説明を省略する。
4.発明の実施の第3の形態
4−1−1.システムについて
次に、この発明の実施の第2の形態について説明する。図35は、この実施の第3の形態による一例のシステム構成を概略的に示す。なお、図35において、上述した図1と共通する部分には同一の符号を付し、詳細な説明を省略する。この図35に例示される実施の第2の形態によるシステムは、上述の図1と比較して明らかなように、図1の構成からユーザ媒体15のデータを読み取るためのリーダ装置を省略すると共に、所定の記憶媒体にデータを書き込むためのライタ装置13A、13B、13C、・・・が追加されたものとなっている。
すなわち、図35において、このシステムによるサービスの対象となる地域において、位置A、位置B、位置C、・・・にセンサ装置10A、10B、10C、・・・がそれぞれ配置される。ライタ装置13A、13B、13C、・・・は、センサ装置10A、10B、10C、・・・にそれぞれ対応する位置に配置される。また、サーバシステム部11”に対し、ユーザ媒体15’に書き込まれたデータを読み出すためのリーダ部24が追加される。
ライタ装置13A、13B、13C、・・・は、ユーザが保持する記憶媒体であるユーザ媒体15’に対して、システムの利用履歴を書き込む。このとき、ライタ装置13A、13B、13C、・・・は、例えば対応するセンサ10A、10B、10C、・・・を識別するためのセンサIDと、当該施設の利用日時を示す情報とを書き込むだけでよいので、サーバシステム部11”と接続する必要が無く、独立的な装置として構成可能である。
なお、この実施の第3の形態においても、センサ装置10A、10B、10C、・・・は、上述の実施の第1の形態と同様に、ユーザの情報を遠隔的に取得可能であれば、特に種類を問わない。すなわち、センサ装置10A、10B、10C、・・・として、静止画像データを出力するカメラ装置、動画像データを出力するビデオカメラ装置、音声を収音して音声データを出力するオーディオ装置などを用いることができる。さらに、サービスを受けるユーザに、ユーザ毎にユニークなコードを変調して送信する送信機を所持させれば、所定のコードを含むディジタル信号が変調された電波を受信して復調するような受信装置を、センサ装置10A、10B、10C、・・・として用いることができる。
なお、以下では適宜、センサ装置10A、10B、10C、・・・をセンサ装置10で代表して記述すると共に、ライタ装置13A、13B、13C、・・・をライタ装置13で代表して記述する。
このようなシステムにおいて、ユーザは、例えばセンサ装置10A、10B、10C、・・・が設置された施設を利用する際に、例えばセンサ10Aで情報を収集されるような場合、ユーザが保持するユーザ媒体15’に対して、対応するライタ13AによりセンサIDと時刻情報とを書き込む。このユーザ媒体15’に対するセンサIDおよび時刻情報の書き込みを、各センサ装置10A、10B、10C、・・・での情報収集毎に行うことで、ユーザ媒体15’に対して、センサ装置での情報収集の履歴が記憶される。ユーザは、ユーザ媒体15’に記憶された履歴情報を、当該施設の利用終了時など所定のタイミングで、サーバシステム部11”のリーダ部24に読み出させる。
サーバシステム部11”は、ユーザ媒体15’から読み出された履歴情報に基づき、センサ情報データベース22から蓄積されたセンサ出力データを選択して読み出し、読み出されたセンサ出力データを所定に解析する。センサ出力データの解析結果に基づき、ユーザIDや当該ユーザIDに関連する他のユーザIDを特定する。そして、ユーザIDや関連ユーザのユーザIDに対応する配信先に、例えばセンサ出力データに基づき作成されたパッケージデータ50を配信する。
なお、上述では、ライタ装置13のそれぞれが独立的な装置であるとして説明したが、これはこの例に限定されない。例えば、ライタ装置13を対応するセンサ装置10と所定に接続し、ライタ装置13によるユーザ媒体15’の読み出しを行ったことをトリガとして、センサ装置10によるセンサ出力データの出力を行うようにしてもよい。
ユーザ媒体15’としては、例えば合成樹脂製のカード内にICチップ、不揮発性メモリおよびアンテナを内蔵させ、ライタ装置13から発せられる電波により自己発電を行い作動するようにされたカード型記憶媒体を適用することができる。また、ユーザが所持する携帯およびデータの送受信が可能な情報機器を、ユーザ媒体15’として適用することができる。このような情報機器としては、データの送受信が可能とされた携帯電話端末やPDAなどが考えられる。
さらに、近年では、携帯電話端末に対して、電話通信機能とは別途、ICチップやアンテナ機構、不揮発性メモリを内蔵させ、カード型記憶媒体と同等の機能を持たせた製品も出現している。このような携帯電話端末の、カード型記憶媒体対応機能部分をユーザ媒体15と’して用いることも可能である。
さらに、ライタ13装置とユーザ媒体15’との間のデータ通信は、無線によるものに限られず、有線、例えばコネクタを介した電気的接触を用いて行うようにしてもよい。この場合、ユーザ媒体15’は、不揮発性メモリとインターフェイスとで構成することができ、所謂USB(Universal Serial Bus)メモリ、コンパクトフラッシュメモリ、スマートメディアなどを適用することができる。
さらにまた、ユーザ媒体15’は、磁気ディスクや磁気カード、光磁気ディスク、光ディスクといった、書き換え可能な記録媒体としてもよい。この場合、ライタ装置13は、対応するドライブ装置を備える。
さらに、ユーザ媒体15は、物理的な変形を以てデータを記録するようなものでもよい。例えば、紙やプラスチック板などに穴を穿ち、データを記録することが考えられる。ユーザIDやセンサID、日時の情報を記録するのみであれば、このような記録方法でも対応可能であると考えられる。この場合、ライタ装置13は、例えば機械的手法で以てデータの書き込みを行う。
また、ユーザ媒体15、として、印刷媒体を用いることができる。例えば、データをバーコードやQRコード(Quick Response Code)といった所定のコードに変換し、紙やその他の所定の印刷媒体に印刷することで、データの記録を行う。ライタ装置13は、印刷機能を備える必要がある。
図36は、ユーザ媒体15’に記憶される履歴情報の一例の構成を示す。履歴情報は、センサ装置10A、10B、10C、・・・を識別するためのセンサIDと、センサIDで示されるセンサ装置10に対応するライタ装置13によりユーザ媒体15’に対するデータの書き込みが行われる時刻を示す時刻情報とが対応付けられて記憶される。この図36の例では、時刻情報は日付情報を含む。
4−1−2.実施の第3の形態に適用可能なサーバシステムについて
上述したように、サーバシステム部11”は、概略的には、情報処理部20”、ユーザデータベース21、センサ情報データベース22、ユーザ登録部23およびリーダ部24を有する。ユーザデータベース21およびセンサ情報データベース22は、上述と同様である。すなわち、ユーザデータベース21は、ユーザ情報テーブル、本人識別情報テーブルおよびユーザ関連情報テーブルが格納される。それぞれのテーブルの概略的な内容は、上述の実施の第1の形態と略、同一である。センサ情報データベース22も同様に、センサ装置10A、10B、10C、・・・から出力されたデータを、センサを識別するセンサIDと対応付けて格納する。
ユーザ登録部23は、上述と同様、このシステムを利用するユーザの情報を登録するもので、ユーザにより情報が入力されると、当該ユーザを識別するためのユーザIDを生成し、入力されたデータをこのユーザIDに対応付けて、ユーザ情報テーブルに登録する。また、ユーザ登録部23は、ユーザ本人を識別するための本人識別情報を生成し、ユーザIDと対応付けて本人識別情報テーブルに登録する。本人識別情報としてどのような種類のデータを用いるかは、システムの目的およびセンサ装置10A、10B、10C、・・・の種類により決められる。ユーザ情報テーブルおよび本人識別情報テーブルの構成は、それぞれ図2Aおよび図2Bを用いて説明した構成と同一なので、詳細な説明を省略する。
ユーザ登録部23は、さらに、登録されたユーザに対して他のユーザを関連付け、ユーザ関連情報テーブルに登録する。この登録されたユーザに対する他のユーザの関連付けについては、上述の実施の第1の形態と同様であり、また、ユーザ関連情報テーブルの構成については、図3Aおよび図3Bを用いて説明した構成と略同一なので、詳細な説明を省略する。
図37は、この実施の第3の形態に適用可能なサーバシステム部11”の一例の構成を示す。なお、図37において、上述した図5と共通する部分には同一の符号を付し、詳細な説明を省略する。この図37に例示される実施の第2の形態によるサーバシステム部11”は、上述の図5と比較して明らかなように、履歴情報処理部41が追加されている。リーダ/ライタ部40は、読み出し機能において図35におけるリーダ部24に対応する。履歴情報処理部41は、ネットワーク12に接続され、例えばリーダ/ライタ部40によりユーザ媒体15’から読み出された履歴情報を図示されない保持部に保持可能とされていると共に、当該履歴情報に基づく情報を、サーバシステム部11”内の各部に所定に供給する。
なお、図37におけるユーザ情報登録部30およびリーダ/ライタ部40が図35におけるユーザ登録部23に対応すると考えることができる。また、図37におけるリーダ/ライタ部40は、図35におけるリーダ部24を兼ねることができる。勿論、図37の構成に対してリーダ部24に相当する構成を追加することも可能である。また、図37におけるユーザ情報処理部31、センサ管理部32、センサ情報抽出部33、センサ情報編集部34、記録管理部35、記録装置36、配信管理部37、配信装置38、課金管理部39および履歴情報処理部41で、図35における情報処理部20”が構成されると考えることができる。
4−1−3.実施の第3の形態による概略的な処理の流れについて
図38は、この実施の第3の形態による一例の処理の流れを概略的に示す。先ず、ステップS110で、システムを利用するユーザ(当人ユーザ)の情報と、当人ユーザを識別するための本人識別情報とがユーザ登録部23から入力される。ユーザ登録部23は、当人ユーザによる情報の入力に応じてユニークなユーザIDを発行し、入力された情報にユーザIDを対応付けてユーザ情報を生成しユーザ情報テーブルに登録すると共に、本人識別情報にユーザIDを関連付けて本人識別情報テーブルに登録し、ユーザ情報テーブルおよび本人識別情報テーブルをユーザデータベース21に格納する。また、発行されたユーザIDが当人ユーザのユーザ媒体15’に書き込まれる。
ステップS110では、さらに、当人ユーザに関連する他のユーザ(関連ユーザ)の情報を登録することができる。当人ユーザおよび対応する関連ユーザの情報は、互いに対応付けられてユーザ関連情報テーブルに登録され、ユーザデータベース21に格納される。
次のステップS111で、当人ユーザは、例えばセンサ装置10Aが設けられた施設において、センサ装置10Aに対応するライタ装置13Aにより、ユーザ媒体15’に対してセンサ装置10Aに対応するセンサIDと、現在の時刻を示す時刻情報とを書き込む。一方、センサ装置10Aは、例えば常時稼働され、センサ出力データを出力する。このセンサ出力データは、ネットワーク12を介してサーバシステム部11”に送信され、情報処理部20”に供給される。情報処理部20”は、供給されたセンサ出力データを、センサ情報データベース22に蓄積する。
例えば当人ユーザは、異なるセンサ装置10毎に、ライタ装置13によるユーザ媒体15’に対する書き込みを行うようにする。また、同一のセンサ装置10であっても、利用時刻がある程度異なっていれば、その都度、ライタ装置13によるユーザ媒体15’の書き込みを行うようにする。ユーザ媒体15’には、ライタ装置13によるデータの書き込み毎に、互いに対応付けられたセンサIDと時刻情報とが履歴情報として蓄積的に記憶される。
次のステップS112では、ユーザ媒体15’に記憶された履歴情報のリーダ部24による読み込みが行われる。例えば、当人ユーザは、このシステムによる施設を利用し終わると、ユーザ媒体15’に記憶された履歴情報を、リーダ部24に読み込ませる。このとき、ユーザ媒体15’に記憶されたユーザIDも読み込まれる。読み出された履歴情報およびユーザIDは、情報処理部20”に供給され、所定に保持される。より詳細には、履歴情報は、情報処理部20”に送信されて履歴情報処理部41に供給される。また、ユーザIDは、例えばユーザ情報処理部31に供給される。一方リーダ部24は、ユーザ媒体15’から履歴情報を読み出すと、ユーザ媒体15’に記憶される当該履歴情報を消去する。
情報処理部20”は、次のステップS113で、ユーザ媒体15’から読み込まれた履歴情報に基づき、センサ情報データベース22に蓄積されたセンサ出力データのうち、処理の対象とするデータを選択する。すなわち、履歴情報のセンサIDおよび時刻情報に基づき、センサIDに対応するセンサ出力データから、時刻情報で示される時刻を基準として処理対象のデータが選択される。例えば、図8Aを用いて既に説明したように、センサIDが対応するセンサ出力データのうち、当該センサIDに対応する時刻情報で示される時刻以降の出力データを処理の対象とすることが考えられる。これに限らず、例えば、当該時刻情報で示される時刻より所定時間遡った時刻から以降の出力データを処理の対象とすることも考えられる。
次のステップS114では、ステップS113で処理対象とされたセンサ出力データのうち、ユーザ媒体15’から読み出されたユーザIDに関するデータが抽出される。例えば、当該ユーザIDに基づきユーザデータベース21を検索し、当該ユーザIDに対応する本人識別情報を取得する。また、センサ情報データベース22から、処理対象とされたセンサ出力データを読み出す。そして、読み出されたセンサ出力データを解析して所定の特徴データを抽出し、図8Bを用いて既に説明したように、ユーザデータベース21で検索された本人識別情報に対応する特徴データが存在するデータを選択する。
また、ステップS115で、ユーザデータベース21内のユーザ関連情報テーブルに対して、ステップS112でユーザ媒体15’から読み出されたユーザIDに関連付けられたユーザIDの検索が行われ、検索されたユーザIDに対応するユーザが特定される(ステップS116)。そして、ステップS117で、特定されたユーザIDに基づき、関連ユーザに対して、ステップS114で取得されたセンサ出力データまたは当該センサ出力データが所定に加工されたデータが配信される。このデータは、例えば実施の第1の形態で図6を用いて説明したのと同様にしてパッケージングされ、パッケージデータ50として、関連ユーザと共に当人ユーザにも配信される。
なお、上述では、当人ユーザに関し、ユーザ情報テーブル、本人識別情報テーブルおよびユーザ関連情報テーブルへの登録を、最初のステップS110で行うように説明したが、これはこの例に限定されない。すなわち、この実施の第3の形態においては、最初は、少なくともユーザIDが発行され当該ユーザIDが記憶されたユーザ媒体15’が作成されていればよく、ユーザ情報テーブル、本人識別情報テーブルおよびユーザ関連情報テーブルへの登録は、ユーザ媒体15’をリーダ部24に読み込ませる時点で行うようにできる。
4−2.実施の第3の形態の第1の応用例について
次に、この発明の実施の第3の形態の第1の応用例について説明する。この第1の応用例は、上述の実施の第1の形態の第1の応用例や、実施の第2の形態の第1に応用例に対応するもので、この実施の第3の形態を大規模遊戯施設に適用した例である。すなわち、この第3の応用例によるシステムでは、大規模遊戯施設内に所定に配置されたカメラ装置で自動撮影を行い、得られた静止画像データを解析して登録されたユーザが映っている静止画像データを抽出する。そして、この登録ユーザが映っている静止画像データを、当該ユーザと、当該登録ユーザに関連付けられた他のユーザとに対して配信するようにしている。
4−2−1.第1の応用例に適用可能なシステム構成について
図39は、この実施の第3の形態の第1の応用例による一例のシステム構成を概略的に示す。なお、図39において、上述した図9と共通する部分には同一の符号を付し、詳細な説明を省略する。図39と上述の図9とを比較して明らかなように、この実施の第3の形態の第1の応用例によるシステムは、上述した実施の第1の形態の第1の応用例によるシステムに対し、各アトラクション施設101A、101B、・・・におけるリーダ103A、103B、・・・が省略され、一方で、ネットワーク199に接続されずそれぞれ独立的に構成されるライタ200A、200B、・・・が追加されている。その他の構成は、図9による構成と略同一である。
4−2−2.第1の応用例による一例の処理の流れについて
図40は、この実施の第3の形態の第1の応用例による一例の処理の流れを示すフローチャートである。システムの利用に当たって、ユーザである利用客は、最初のステップS120で、例えば入場登録部104においてシステムに対してユーザ情報の登録を行う。ユーザ登録は、入場登録部104で行うのに限らず、例えばユーザが利用可能なインターネット接続が可能とされた情報機器を用いて大規模遊戯施設100外からインターネット110などを介して行うこともできる。ステップS120では、既に説明したようにしてユーザ情報テーブルおよび本人識別情報テーブルへのユーザ情報の登録が行われると共に、ユーザIDの発行が行われる。
次のステップS121で、ステップS120でユーザ情報を登録したユーザのためのユーザ媒体15’が作成される。ユーザ媒体15’には、ステップS120で発行されたユーザIDが書き込まれる。ユーザ媒体15’は、既に述べたように様々な種類のものを適用可能であるが、この第1の応用例では、ユーザ媒体15’は、上述した、合成樹脂製のカード内に不揮発性メモリ、送受信部および発電部を有するカード型記憶媒体であるものとする。ユーザ媒体15’として、電波を用いて電話通信を行うようにされた携帯電話端末を用いることもできる。この場合、当該携帯電話端末に割り当てられた電話番号をユーザIDとして用いることが考えられる。
次のステップS22において、登録されたーユーザに関連する他のユーザの情報が設定され、ユーザ関連情報テーブルに登録される。ここで、上述したように、その場にいない他のユーザを、関連ユーザとして登録することができる。また、利用する大規模遊戯施設100のマスコットキャラクタのような、ユーザと直接的な関わりがない対象を関連ユーザとして登録することも可能である。さらに、団体など非人格的な対象を関連ユーザとして登録することもできる。ユーザ関連情報テーブルは、ユーザデータベース21に格納される。
ステップS122までの処理によりユーザの入場時の手続が所定に終了すると、ユーザにより、各アトラクション施設101A、101B、・・・の利用が開始される(ステップS123)。ここで、各アトラクション施設101A、101B、・・・のカメラ装置102A、102B、・・・は、所定の時間間隔で常時、撮像を行い、撮像して得られた静止画像データを情報処理部20”に対して送信しているものとする(ステップS123B)。一方、ユーザは、例えばアトラクション施設101Aを利用する際に、アトラクション施設101A内に設けられたライタ装置200Aにより、当該ライタ装置200Aに対応するカメラ装置(図39の例ではカメラ装置102A)のセンサIDと、現在の時刻を示す時刻情報とを、ユーザ媒体15’に対して書き込む(ステップS123A)。
ユーザは、例えば各アトラクション施設101A、101B、・・・などを適宜、利用し終えると、出場登録部105でユーザ媒体15’を出場登録部105に設けられたリーダ装置に読み取らせて出場登録を行い、大規模遊戯施設100から出ることになる(ステップS124)。出場登録部105では、ユーザ媒体15’からユーザIDと履歴情報とが読み込まれ、読み込まれたこれらのデータがネットワーク106を介して情報処理部20”に供給される。
次のステップS125では、ステップS124でユーザ媒体15’から読み出されたユーザIDおよび履歴情報に基づき、センサ情報データベース22に登録された各カメラ装置102、102B、・・・で撮像され得られた静止画像データに対して、処理対象とするデータが特定される。例えば、情報処理部20”は、ステップS124でユーザ媒体15’から読み込まれた履歴情報に基づき、センサ情報データベース22に蓄積された静止画像データに対して、図8を用いて説明したようにして、処理対象とされるデータを特定する。
より具体的には、センサ情報データベース22に蓄積されるデータのうち、先ず履歴情報のセンサIDが対応するデータを選択し、選択されたデータのうち履歴情報の時刻情報で示される時刻に基づき処理対象のデータが選択される。履歴情報として、センサIDおよび時刻情報の組が複数、記憶されている場合には、複数のセンサIDおよび時刻情報の組のそれぞれについて、処理対象のデータの選択を行う。
ステップS125で処理対象のデータが特定されたら、次のステップS126で、情報処理部20”によるデータの解析がなされ、図15を用いて説明したようにして、処理対象とされたデータから出場登録を行ったユーザの本人識別情報に対応するデータが抽出される。このステップS126の処理は、特定された処理対象のデータのそれぞれについて行われる。
すなわち、ステップS126では、上述のステップS124でユーザ媒体15’から読み出されたユーザIDに基づき本人識別情報テーブルが参照され、当該ユーザIDに対応する顔の特徴情報が検索される。また、処理対象として選択された静止画像データを解析して顔検出を行い、検出された顔画像について、特徴情報を抽出する。処理対象の静止画像データから抽出された顔の特徴情報の中に、本人識別情報テーブルから検索された顔の特徴情報に対応するものがあれば、その静止画像データには、本人識別情報テーブルから検索された顔の特徴情報に対応するユーザIDのユーザが写っていると判断できる。この当該ユーザが写っていると判断された静止画像データを所定に保持する。
次のステップS127では、ユーザ関連情報テーブルが参照され、ユーザ媒体15’から読み出されたユーザIDに関連付けられた他のユーザIDが特定される。そして、次のステップS128で、上述のステップS126で、ユーザ媒体15’から読み出されたユーザIDに対応するユーザが写っているとして選択され保持されている静止画像データが一纏めにパッケージングされ、パッケージデータ50が作成される。パッケージングされたパッケージデータ50は、例えばコンテンツデータベース107に格納され、次のステップS129でWebサイトにアップされる。
これらステップS128によるパッケージデータ50の作成処理、ならびに、ステップS129によるパッケージデータ50のWebサーバ112への転送処理は、図14を用いて説明したステップS28およびステップS29の処理と何ら変わるところがないため、ここでの説明を省略する。
なお、上述では、ユーザは、ユーザ情報テーブル、本人識別情報テーブルおよびユーザ関連情報テーブルへの登録を、当該ユーザが大規模遊戯施設100を利用する前のステップS120およびステップS122で行うように説明したが、これはこの例に限定されない。すなわち、この実施の第3の形態においては、最初は、少なくともユーザIDが発行され当該ユーザIDが記憶されたユーザ媒体15’が作成されていればよく、ユーザ情報テーブル、本人識別情報テーブルおよびユーザ関連情報テーブルへの登録は、ユーザ媒体15’をリーダ部24に読み込ませる時点で行うようにできる。図40の例では、ステップS124で出場登録を行いユーザ媒体15’に記憶されている履歴情報をリーダ部24に読み込ませる時点で、ユーザ情報テーブル、本人識別情報テーブルおよびユーザ関連情報テーブルへの登録を行ってもよい。
また、上述では、リーダ部24がサーバシステム部11”に含まれるように説明した。すなわち、上述の例では、リーダ部24は、例えば大規模遊戯施設100内に設置される。これはこの例に限られず、リーダ部24は、例えばインターネット110でサーバシステム部11”と接続されるようにしてもよい。これによれば、リーダ部24を大規模遊戯施設100に対して遠隔地に設けることも可能となる。
一例として、インターネット110に接続されるユーザ端末111A、111B、・・・をリーダ部24として用いることも考えられる。例えばリーダ部24として使用可能な外部装置をユーザ端末111A、111B、・・・に接続してもよいし、ユーザ端末111A、111B、・・・が外部装置を用いることなく直接的に読み取り可能な記憶媒体を、ユーザ媒体15’として用いることも考えられる。このような記憶媒体としては、フレキシブルディスクや記録可能なタイプの光ディスク、光磁気ディスクといった記録媒体や、書き換え可能な不揮発性メモリを用いた記憶デバイスなどが考えられる。
4−2−3.第1の応用例による他の例の処理の流れについて
上述では、カメラ装置102A、102B、・・・で撮像された静止画像データに対する顔検出を、ユーザが出場して出場登録を行った後に、実行するように説明したが、これはこの例に限定されない。例えば、カメラ装置102A、102B、・・・で撮像される毎に、若しくは、カメラ装置102A、102B、・・・による撮像の所定間隔毎に、得られた1または複数の静止画像データを解析することも考えられる。
図41のフローチャートを用いて、静止画像データの撮像タイミングに応じて解析を行う場合の一例の処理について説明する。ステップS130〜ステップS132までの処理は、図40を用いて説明したステップS120〜ステップS122の処理と同一である。
すなわち、システムの利用に当たって、ユーザは、システムに対してユーザ情報を登録し(ステップS130)、システムは、登録を行ったユーザに対してユーザIDを発行すると共に、当該ユーザの情報をユーザIDに関連付けてユーザデータベース21に登録する。また、ユーザは、顔写真を撮像してシステムに登録する。システムは、この顔写真に基づき当該ユーザに対応する本人識別情報を生成し、当該ユーザのユーザIDに関連付けてユーザデータベース21に登録する。次のステップS131では、システムにより、登録を行ったユーザに対して当該ユーザのユーザIDが記憶されたユーザ媒体15’を作成する。作成されたユーザ媒体15’は、当該ユーザが保持することになる。さらに、ステップS132で、登録されたユーザに関連する他のユーザの情報がユーザデータベース21に登録される。
なお、ユーザは、その場にいない他のユーザを、関連ユーザとして登録することができる。また、利用する大規模遊戯施設100のマスコットキャラクタのような、ユーザと直接的な関わりがない対象を関連ユーザとして登録することも可能である。さらに、団体など非人格的な対象を関連ユーザとして登録することもできる。
ステップS132までの処理によりユーザの入場時の手続が所定に終了すると、ユーザにより、各アトラクション施設101A、101B、・・・の利用が開始される(ステップS133)。
ここで、各アトラクション施設101A、101B、・・・のカメラ装置102A、102B、・・・は、所定の時間間隔で常時、撮像を行い、撮像して得られた静止画像データを情報処理部20”に対して送信している(ステップS133B)。情報処理部20”は、静止画像データを受け取ると、受け取った静止画像データを解析して顔検出を行う(ステップS133C)。そして、静止画像データから検出された顔の特徴情報と、ユーザデータベース21内の本人識別情報テーブルから、静止画像データから検出された顔の特徴情報と略一致する特徴情報を有するユーザIDを抽出する(ステップS133D)。さらに、ステップS133Eでユーザ関連情報テーブルが参照され、ステップS133Dで抽出されたユーザIDに関連付けられたユーザIDが特定される。
これらステップS133C〜ステップS133Eの処理は、ステップS133Bでカメラ装置により撮像が行われる毎になされる。これに限らず、所定枚数の撮像毎に纏めて処理を行うようにしてもよい。情報処理部20は、1の静止画像データに関連するユーザの情報を、当該静止画像データと対応付けて、画像内ユーザ情報として所定に保持する。この画像内ユーザ情報は、例えば、センサ情報データベース22に格納することが考えられる。
一方、ユーザは、例えばアトラクション施設101Aを利用する際に、アトラクション施設101A内に設けられたライタ装置200Aにより、当該ライタ装置200Aに対応するカメラ装置(図39の例ではカメラ装置102A)のセンサIDと、現在の時刻を示す時刻情報とを、ユーザ媒体15’に対して書き込む(ステップS133A)。
ユーザは、例えば各アトラクション施設101A、101B、・・・などを適宜、利用し終えると、出場登録部105でユーザ媒体15’を出場登録部105に設けられたリーダ装置に読み取らせて出場登録を行い、大規模遊戯施設100から出ることになる(ステップS134)。出場登録部105では、ユーザ媒体15’からユーザIDと履歴情報とが読み込まれ、読み込まれたこれらのデータがネットワーク106を介して情報処理部20”に供給される。
次のステップS135では、ステップS134でユーザ媒体15’から読み出されたユーザIDおよび履歴情報に基づき、センサ情報データベース22に登録された各カメラ装置102、102B、・・・で撮像され得られた静止画像データに対して、処理対象とするデータが特定される。例えば、情報処理部20”は、ステップS134でユーザ媒体15’から読み込まれた履歴情報に基づき、センサ情報データベース22に蓄積された静止画像データに対して、図8を用いて説明したようにして、処理対象とされるデータを特定する。
処理対象とするデータが特定されると、次のステップS136で、ユーザ関連情報テーブルが参照され、特定された静止画像データの中から、ステップS134でユーザ媒体15’から読み出されたユーザIDに関連するユーザIDに対応する顔の特徴情報を有する顔が検出されたデータが抽出される。この場合、上述のステップS133C〜ステップS133Eにおいて、既に、静止画像データに含まれる顔が検出され、検出された顔それぞれの特徴情報が求められ、関連するユーザIDが抽出されている。そして、静止画像データと当該静止画像データに含まれるユーザIDとの対応関係が画像内ユーザ情報として保持されている。情報処理部20”は、この画像内ユーザ情報を参照し、ステップS133C〜ステップS133Eの処理により抽出されたユーザIDに基づき、ステップS134でユーザ媒体15’から読み出されたユーザIDに関連するユーザIDの顔画像が含まれる静止画像データを抽出する。
ステップS36で静止画像データの抽出が行われると、次のステップS137で、抽出された静止画像データのパッケージング処理が行われ、その次のステップS138で、パッケージングされたパッケージングデータ50のWebサーバ112への転送処理が行われる。これらステップS137によるパッケージデータ50の作成処理、ならびに、ステップS138によるパッケージデータ50のWebサーバ112への転送処理は、図14を用いて説明したステップS28およびステップS29の処理と何ら変わるところがないため、ここでの説明を省略する。
なお、上述では、ユーザは、ユーザ情報テーブル、本人識別情報テーブルおよびユーザ関連情報テーブルへの登録を、当該ユーザが大規模遊戯施設100を利用する前のステップS130およびステップS132で行うように説明したが、これはこの例に限定されない。すなわち、この実施の第3の形態においては、最初は、少なくともユーザIDが発行され当該ユーザIDが記憶されたユーザ媒体15’が作成されていればよく、ユーザ情報テーブル、本人識別情報テーブルおよびユーザ関連情報テーブルへの登録は、ユーザ媒体15’をリーダ部24に読み込ませる時点で行うようにできる。図40の例では、ステップS134で出場登録を行いユーザ媒体15’に記憶されている履歴情報をリーダ部24に読み込ませる時点で、ユーザ情報テーブル、本人識別情報テーブルおよびユーザ関連情報テーブルへの登録を行ってもよい。
この場合、ステップS133CおよびステップS133Dの静止画像データに対する顔検出および顔の特徴情報抽出処理は、任意の顔情報に対して行われることになる。すなわち、ステップS133CおよびステップS133Dでは、顔検出結果に基づき特定のユーザIDが抽出されず、検出された顔画像について顔の特徴情報を求めるのみとされる。ステップS133Eによる関連ユーザの検出は、ステップS134でユーザ媒体15’からユーザIDが読み出された後の処理とされる。
また、上述では、リーダ部24がサーバシステム部11”に含まれるように説明した。すなわち、上述の例では、リーダ部24は、例えば大規模遊戯施設100内に設置される。これはこの例に限られず、リーダ部24は、例えばインターネット110でサーバシステム部11”と接続されるようにしてもよい。これによれば、リーダ部24を大規模遊戯施設100に対して遠隔地に設けることも可能となる。
4−3.実施の第3の形態の第2の応用例について
次に、この発明の実施の第3の形態の第2の応用例について説明する。この第2の応用例は、上述した実施の第1の形態の第3の応用例に対応するもので、この実施の第3の形態をラーニングシステムに適用した例である。すなわち、所定の施設や会場で行われる講義やトレーニング、エクササイズの様子を動画像で撮影し、映像に映っている登録ユーザおよび当該登録ユーザに関連する他のユーザに対し、撮影された動画像を配信するようにしたものである。
4−3−1.第2の応用例に適用可能なシステム構成について
図42は、この実施の第3の形態の第2の応用例による一例のシステム構成を概略的に示す。以下では、ラーニングシステムとして、外国語による会話を指導する外国語会話教室を例にとって説明する。なお、図42において、上述した図23と共通する部分には同一の符号を付し、詳細な説明を省略する。図42と上述の図23とを比較して明らかなように、この実施の第3の形態の第2の応用例によるシステムは、上述した実施の第1の形態の第3の応用例によるシステムから各教室190A、190B、・・・におけるリーダ193A、193B、・・・、ならびに、生徒(ユーザ)の自宅191におけるリーダ193Cが省略されている。一方で、ネットワーク199に接続されずそれぞれ独立的に構成されるライタ210A、210B、210C、・・・が追加されている。その他の構成は、図23による構成と略同一である。
4−3−2.第2の応用例による一例の処理の流れについて
図43は、この実施の第3の形態の第2の応用例による一例の処理を示すフローチャートである。なお、このフローチャートによる処理に先立って、外国語会話教室の生徒であるユーザの情報は、ユーザデータベース21に予め登録されているものとし、ユーザIDが記憶されたユーザ媒体15’がシステムによって既に発行され、ユーザに渡されているものとする。また、ユーザの本人識別情報も、予め本人識別情報テーブルに登録されているものとする。同様に、当該ユーザに関連する他のユーザの情報も、予めユーザ関連情報テーブルに登録されているものとする。
一例として、外国語会話教室に契約しているユーザAが教室190Aで学習を行う場合を例にとって説明する。このユーザAに対して、講師Pが予め割り振られているものとする。ユーザ関連情報テーブルには、少なくとも、ユーザAと講師Pとが互いに関連するとして対応付けられて登録されている。
ユーザAは、例えば受講の開始時に、教室190Aに備えられたビデオカメラ装置192AのセンサIDと、現在の時刻情報とを、ライタ210Aにより自身のユーザ媒体15’に対して書き込む(ステップS140)。一方、教室190Aにおいて、ビデオカメラ装置192Aによる撮影と、ビデオカメラ装置192Aに設けられたマイクロフォンによる音声の収音が行われる(ステップS141)。例えば、これら撮影および収音は、所定の時間帯内で常時、行われる。これに限らず、撮影および収音の開始および終了は、手動の操作により行うようにしてもよい。受講が終了すると、ユーザAは、教室190Aに設けられたライタ210Aにより、ユーザ媒体15’に対するセンサIDおよび現在の時刻を示す時刻情報との書き込みを行う(ステップS142)。
次のステップS143で、ユーザは、ユーザ媒体15’を、例えば所定に設けられたリーダ部24に読み込ませる。ユーザ媒体15’から読み出されたユーザIDおよび履歴情報は、情報処理部20”に供給される。
リーダ部24は、例えば教室190Aや、教室190A、190B、・・・からなるこの外国語会話教室の共用部などに設置することが考えられる。これに限らず、リーダ部24が例えばインターネット110を介してサーバシステム部11”と接続されるようにしてもよい。この場合には、ユーザの自宅191のパーソナルコンピュータ194に外部装置としてリーダ部24を接続して用いてもよいし、ユーザ媒体15’の種類によっては、パーソナルコンピュータ194そのものをリーダ部24として用いることもできる。
次のステップS144で、情報処理部20”は、センサ情報データベース22に蓄積された動画像データおよび音声データに対して、図8を用いて説明したようにして、処理の対象とされるデータを特定する。より具体的には、センサ情報データベース22に蓄積されるデータのうち、先ずユーザ媒体15’から読み出された履歴情報のセンサIDが対応するデータを選択し、履歴情報の時刻情報に基づき、選択されたデータから処理対象のデータを特定する。
例えば、同一のユーザIDについて、同一のセンサIDが2度連続して対応付けられていれば、当該ユーザIDに対応するユーザが受講を開始し終了したと判断することができ、それぞれの時刻を求めることができる。この場合、開始時刻から終了時刻までを処理対象のデータとすることが考えられる。これに限らず、例えば開始時刻および/または終了時刻を含む受講の単位時間範囲に対応するデータを、処理対象のデータとすることが考えられる。
ステップS144で処理対象のデータが特定されると、次のステップS145およびステップS146で情報処理部20”によるデータの解析がなされ、処理対象とされたデータから、ステップS143でユーザ媒体15’から読み出されたユーザIDに対応する本人識別情報に対応するデータが抽出される。ステップS147で、ユーザ関連情報テーブルが参照され、取得されたユーザIDに関連付けられたユーザIDが検索される。そして、次のステップS148で、上述のステップS146で取得された、処理対象データに対応するユーザIDのユーザと、ステップS147で特定された当該ユーザに関連する他のユーザに対するデータの配信がなされる。
なお、これらステップS145〜ステップS148の処理は、図25のフローチャートを用いて説明したステップS64〜ステップS67の処理や、図34のステップS103〜ステップS106の処理と何ら変わるところがないため、詳細な説明を省略する。
なお、この実施の第3の形態の第2の応用例においても、図26を用いて説明したのと同様にして、例えば動画像データが表示される画面において、ユーザの顔画像を指定してその顔画像のみに選択的に処理を加えることが可能である。また、図27を用いて説明したのと同様にして、講師が、受講中の生徒の様子を配信データに基づき確認し、生徒に対してアドバイスなどのコメントを返すことなどが可能である。これらの処理は、上述した実施の第1の形態の第3の応用例による処理と同一であるので、ここでの説明を省略する。
5.発明の実施の第4の形態
次に、この発明の実施の第4の形態について説明する。上述では、実施の第1の形態およびその第1〜第3の応用例、実施の第2の形態およびその第1、第2の応用例、実施の第3の形態およびその第1、第2の応用例が、それぞれ独立的なシステムであるかのように説明したが、これはこの例に限定されない。すなわち、実施形態のそれぞれおよび応用例のそれぞれが混在したシステムを構成することが可能である。この実施の第4の形態では、上述した実施の第1の形態およびその第1〜第3の応用例、実施の第2の形態およびその第1、第2の応用例、実施の第3の形態およびその第1、第2の応用例が任意に混在されたシステムを提供し、また、その場合のユーザによるデータの管理方法を提案するものである。
5−1.システムの概要
この実施の第4の形態によるシステム構成は、様々に考えられるが、ここでは図44に例示されるような、大規模遊戯施設300、セキュリティシステム301およびラーニングシステム302が混在したシステムを考える。なお、図44において、上述の実施の第1〜第3の形態による各システム構成図(図9、図20、図23など)と共通する部分には同一の符号を付し、詳細な説明を省略する。
この図44の例では、大規模遊戯施設300は、実施の第2の形態による、ユーザ媒体を用いないシステムが適用されている。セキュリティシステム301は、実施の第1の形態による、ユーザ媒体からデータを読み出すライタ装置を用いるシステムが適用されている。また、ラーニングシステム302は、実施の第3の形態による、ユーザ媒体にデータを書き込むライタ装置を用いるシステムが適用されている。
なお、図44において、カメラ装置は「C」、入場部は「ENT」、出場部は「WO」、ライタは「W」、リーダ付きカメラ装置は「R+C」と、それぞれ省略して記述している。
大規模遊戯施設300、セキュリティシステム301およびラーニングシステム302は、それぞれネットワーク303に接続される。ネットワーク303には、さらに、システムサーバ部304が接続される。ネットワーク303は、このシステムに独自の閉じたネットワークでもよいし、インターネットのようにオープンなネットワークでもよい。システムサーバ部304は、情報処理部304と、ユーザデータベース21、センサ情報データベース22およびコンテンツデータベース107とを有する。
情報処理部304は、例えば上述の実施の第1の形態による情報処理部20と、実施の第2の形態による情報処理部20’と、実施の第3の形態による情報処理部20”とを含めた構成とすることが考えられる。すなわち、情報処理部304は、ユーザ情報登録部30、ユーザ情報処理部31、センサ管理部32、センサ情報抽出部33、センサ情報編集部34、記録管理部35、記録装置36、配信管理部37、配信装置38および課金管理部39を有すると共に、リーダ/ライタ部30と、履歴情報処理部41とを有する。
ユーザデータベース21は、ユーザ情報テーブル、本人識別情報テーブルおよびユーザ関連情報テーブルが格納され、大規模遊戯施設300、セキュリティシステム301およびラーニングシステム302を利用するユーザの情報が統合的に管理される。センサ情報データベース22は、大規模遊戯施設300、セキュリティシステム301およびラーニングシステム302にそれぞれ設けられた各センサ装置から出力されたセンサ出力データが蓄積される。各センサ装置には、システム全体を通してユニークなセンサIDが付される。
コンテンツデータベース107は、大規模遊戯施設300、セキュリティシステム301およびラーニングシステム302のそれぞれで作成されたパッケージデータ50が格納される。すなわち、大規模遊戯施設300、セキュリティシステム301およびラーニングシステム302のそれぞれは、既に説明したような手順によりユーザの利用に応じて情報処理部305によりパッケージデータ50を作成する。情報処理部305は、作成されたパッケージデータ50をコンテンツデータベース107に格納する。
なお、コンテンツデータベース107において、格納されるパッケージデータ50の情報をインデックス化して管理すると、後にデータの検索が容易となり、好ましい。一例として、パッケージデータ50に含まれるユーザ個別情報52のそれぞれに対してインデックスを作成する。
インデックスの項目は、パッケージデータ50に含まれるメタデータ51、各ユーザ個別情報52の属性情報および付加情報53の内容と、当該パッケージデータ50に関連するユーザ情報とに基づき構成することが考えられる。インデックスの項目としては、例えば、大規模遊戯施設300、セキュリティシステム301およびラーニングシステム302のうちどのシステムによるデータかを示す情報、静止画データであるか、動画像データであるかなど、データの種類を示す情報、データの取得日時を示す情報、データに関連するユーザのユーザIDなどを用いることが考えられる。
作成されたインデックスは、例えばインデックステーブルに登録される。インデックステーブルに対してインデックス項目に基づき検索を行うことで、目的のデータを容易に見つけ出すことができる。インデックステーブルは、例えばコンテンツデータベース107に格納される。
サーバシステム部304は、インターネット110に接続され、インターネット110を介して他の情報機器と通信を行うことができる。例えばサーバシステム部304は、インターネット110に接続されたパーソナルコンピュータなどによるユーザ端末310A、310B、・・・や、電話通信用の電波を介してインターネット110に接続される携帯電話端末装置311A、311B、・・・とインターネット110を介して通信することができる。また、サーバシステム部304は、インターネット110に接続されるWebサーバ112に対して、コンテンツデータベース107に格納されるデータへのリンク情報やレイアウト情報などを記述したファイルや、その他のデータをアップロードすることができる。
5−2.データ管理画面の例について
システム側がユーザに提供するデータ管理画面について説明する。図45は、データ管理画面を汎用のブラウザ上の表示で実現した場合の例である。例えば、ユーザは、自身のユーザ端末(ユーザ端末310Aとする)を用いて、インターネット110を介してWebサーバ112に所定にアクセスすることで、ユーザ端末310Aに搭載されたブラウザ上で、このデータ管理画面を表示させることができる。
図45において、ブラウザ自身のコントロールやOSによるコントロールを行うための表示部320の下部に設けられる、Webページによる画面を表示するWebページ表示部に対して、ユーザによるデータ管理を行うための管理画面表示部321が表示される。一例として、管理画面表示部321は、ユーザIDに基づきユーザ毎に構成され、コンテンツデータベース107に格納されるパッケージデータ50のうち、ユーザIDが関連するパッケージデータ50を管理するための情報やツール類が表示される。なお、管理画面表示部321の上部に設けられる表示部330は、所定のタイトルが表示される。
管理画面表示部321において、中央に配置されるインデックス表示部336は、パッケージデータ50に格納されるユーザ個別データ52のインデックスが表示がなされる。
インデックス表示としては、例えば、ユーザ個別データ52が静止画像データであれば、所定のサイズに縮小されたサムネイル画像を用いることができる。サムネイル画像に対してオリジナルの静止画像データに対するリンク情報を関連付け、サムネイル画像を所定の方法で指定することで、オリジナルの静止画像データを別ウィンドウなどに表示させるようにすると好ましい。また例えば、ユーザ個別データ52が動画像データであれば、所定のフレーム画像を所定のサイズに縮小したサムネイル画像をインデックス表示として用いることができる。この場合には、サムネイル画像に対してオリジナルの動画像データを関連付け、サムネイル画像を所定の方法で指定することで、オリジナルの動画像データを別ウィンドウなどで再生することができるようにすると、好ましい。ユーザ個別データ52が音声データであれば、当該音声データに対するリンクを示すボタンなどをインデックス表示として用いることができる。このボタンを所定に操作することで、例えばストリーミング配信により音声データの再生が開始される。
インデックス表示部336において、図45に例示されるように、さらに、ユーザ個別データ52の属性情報をインデックス表示に対応付けてそれぞれ表示させることができる。属性情報は、ユーザ個別データ52そのものや、当該ユーザ個別データ52が格納されるパッケージデータ50におけるメタデータ51、付加情報53などから取得することができる。
また、図45の例では、各インデックス表示に対して選択および非選択を設定するチェックボックスが設けられる。チェックボックスに対する所定の操作によりチェック状態とされると、対応するインデックス表示に示されるオリジナルのデータが選択状態とされ、後述する編集処理や転送、保存などの処理対象とされる。
表示部336に表示されるインデックス表示の数が多いときは、全てのデータに対応するインデックス表示を、インデックス表示部336に対して表示しきれない可能性がある。この場合、スクロールバー337を所定に操作することで、インデックス表示部336に表示しきれないインデックス表示を、順次、スクロールさせてインデックス表示部336に表示させるようにできる。
表示部332は、コンタクトリストであって、ユーザが利用するアクセス先のリストアップされる。表示部332にリストアップされるアクセス先の情報は、例えばユーザ関連情報テーブルから取得することができる。図45の例では、この管理画面表示部321の表示に対応するユーザIDについて、他のユーザ(友人、ラーニングシステムの講師など)の電子メールアドレス、当該ユーザIDに関連する施設のBBS(Bulletin Board System:電子掲示板)、当該ユーザIDのユーザが参加しているSNS(Social Networking Service)の当該ユーザのページ、当該ユーザIDのユーザが開設しているブログなどが、表示部332にコンタクトリストとしてリストアップされている。表示部332にリストアップされるアクセス先のうち所望のアクセス先に対応するチェックボックスをチェックすることで、チェックされたアクセス先にアクセスできるようにされている。
これに限らず、チェックされたアクセス先にデータを送信するようにもできる。一例として、インデックス表示部336において所望のインデックス表示に対応するチェックボックスをチェック状態とした状態で、表示部332にリストアップされる送信先のうち所望の送信先に対応するチェックボックスをチェックすることで、チェック状態とされたインデックス表示に対応するオリジナルデータまたはオリジナルデータへのリンク情報が、表示部332においてチェックされた送信先に対して送信される。これに限らず、オリジナルデータまたはオリジナルデータへのリンク先情報を送信先に送信するための送信画面を表示するようにしてもよい。
表示部333は、編集ツールが表示される。この図45の例では、「編集」、「符号方式変換」および「解像度変換」の3種類のツールが表示される。「編集」は、対象が静止画像データや動画像データであれば、拡大縮小、範囲を指定しての切り取り、色調調整、コントラストや明度の調整、効果の付加などを行うことが考えられる。対象が動画像データの場合、さらに時間軸方向での切り取りが考えられる。対象が音声データであれば、時間軸方向での切り取り、フェードイン、フェードアウト、レベル調整、効果の付加などを行うことが考えられる。
「符号方式変換」は、データの符号方式を変換する。対象が静止画像データであれば、JPEG(Joint Photographic Experts Group)方式で圧縮符号化されたデータを、PNG(Portable Network Graphics)方式に変換するなどが考えられる。対象が動画像データであれば、MPEG2(Moving Pictures Experts Group 2)方式で圧縮符号化されたデータを、H.264|AVC(ITU−T(International Telecommunication Union-Telecommunication Standarization Sector)勧告H.264あるいはISO(International Organization for Standarization)/IEC(International Electrotechnical Commission)国際標準14496−10(MPEG−4パート10)Advanced Video Coding)方式に変換するなどが考えられる。対象が音声データであれば、mp3(Moving Pictures Experts Group 1 Audio Layer 3)方式で圧縮符号化されたデータをAAC(Advanced Audio Coding)方式に変換することなどが考えられる。
「解像度変換」は、対象が静止画像データや動画像データであれば、水平方向および垂直方向の画素数の変換や、画素毎の量子化ビット数の変換が考えられる。動画像データであれば、フレーム周波数の変換といった時間軸方向の解像度変換も考えられる。また、対象が音声データであれば、サンプリング周波数の変換や、量子化ビット数の変換が考えられる。
例えば、インデックス表示部336において所望のインデックス表示をチェック状態とし、表示部333において所望のツールをチェックすることで、チェックされたツールによる、チェック状態とされたインデックス表示に対応するオリジナルデータに対する処理を行う処理画面が別ウィンドウなどで表示される。ブラウザを用いて管理画面表示部321を表示しているこの例では、処理コマンドがユーザ端末310Aからインターネット110を介して情報処理部305に送信され、実際の処理は情報処理部305において行われる。
表示部334は、データの転送先として選択可能な機器のリストが表示される。表示部334にリストアップされる機器の情報は、ユーザ情報テーブルにユーザIDに対応付けて予め格納しておき、ユーザ情報テーブルからユーザIDに基づき検索して得てもよいし、別途設定してもよい。この図45の例では、ユーザが所持する携帯電話端末、ユーザの自宅にあるパーソナルコンピュータ、ユーザの友人の所持する携帯電話端末、グループ共有フォルダ、自宅パーソナルコンピュータの共有フォルダ、事業者ストレージが機器リストにリストアップされている。
例えば、インデックス表示部336において所望のインデックス表示をチェック状態とし、表示部334にリストアップされる転送先のうち所望の転送先に対応するチェックボックスをチェックする。さらに、後述する表示部335に表示される「転送」をチェックすることで、チェック状態とされたインデックス表示に対応するオリジナルデータまたはオリジナルデータへのリンク情報が、表示部334においてチェックされた転送先に対して転送される。転送は、例えばFTP(File Transfer Protocol)を用い、転送先との認証が自動的に行われてなされる。
表示部335は、インデックス表示部336に表示されるインデックス表示に対応するオリジナルデータに対するファイル操作が表示される。この図45の例では、「転送」、「保存」、「削除」、「共有」、「ネットワーク共有」が実行可能とされている。それぞれの操作は、インデックス表示部336においてチェック状態とされているインデックス表示に対応するオリジナルデータが対象とされる。
「転送」は、上述のように、表示部334に表示される機器リストのうちチェック状態となっている機器に、対象とされるデータが転送される。「保存」は、例えば、対象とされるデータがダウンロードされ、このブラウザが起動されているユーザ端末310A上の所定のフォルダなどに保存される。「削除」は、例えば、対象とされるデータがコンテンツデータベース107上から削除される。なお、1のデータに複数のユーザが関連していることが考えられるので、「削除」は、インデックス表示部336に表示されるインデックス表示の削除でもよい。「共有」は、例えば、対象とされるデータを、このブラウザが起動されているユーザ端末310Aにおいて複数のユーザで共有可能とする。「ネットワーク共有」は、例えば、対象とされるデータを、インターネット110に接続されている他のユーザ端末310B、310C、・・・や携帯電話端末311A、311B、・・・などで共有可能とする。
ところで、この管理画面表示部321には、広告表示331Aおよび331Bなどのように、広告表示を行うことができるようにされている。これら広告表示331Aおよび331Bは、広告主などのWebサイトに対するリンク情報が関連付けられている。広告の種類としては、広告表示331Aのようにこのサービスを提供する事業者に関連する広告や、広告表示331Bのようにユーザ個別の広告が考えられる。情報処理部305は、ユーザ個別の広告表示331Bとして、例えばユーザデータベース21のユーザ情報テーブルに登録された情報や、予めユーザにより登録された広告ジャンルに関する情報などに基づき、ユーザに適していると考えられる広告を自動的に選択して表示させるようにできる。
広告表示331Aや広告表示331Bは、表示部338のチェックボックスにより、表示および非表示を選択することができる。事業者広告および個別広告それぞれについて、個々に表示および非表示を設定可能とすることも可能である。また、広告を非表示とする場合には、所定の課金を行うことが考えられる。
5−3.データ管理画面の他の例
上述では、データ管理画面を汎用のブラウザを用いて実現しているが、これはこの例に限定されない。データ管理画面を、ユーザ端末310A、310B、・・・といったパーソナルコンピュータなどに搭載して動作させる、専用のアプリケーションソフトウェアで実現することもできる。
この場合には、データ管理を行うアプリケーションソフトウェア(以下、データ管理ソフトと呼ぶ)は、当該データ管理ソフトが搭載されるパーソナルコンピュータに内蔵のハードウェアや、当該パーソナルコンピュータに外部接続されるハードウェアの制御を行うことができる。この場合のハードウェアの制御としては、例えばプリンタ制御や、記録可能なタイプのDVDやCDにデータを書き込むドライブ装置の制御などが考えられる。また、パーソナルコンピュータに接続可能とされたテレビジョン受像機の制御なども考えられる。
図46は、専用のデータ管理ソフトによる一例の管理画面340を示す。この図46の例では、管理画面340を構成する各要素は、図45を用いて上述した管理画面表示部321を構成する各要素と、それぞれ対応する。例えば、インデックス表示部341は、図45におけるインデックス表示部336に対応し、ユーザ個別データ52のインデックス表示がなされる。表示部343は、図45における表示部332に対応し、ユーザ関連情報テーブルに基づくコンタクトリストが表示される。
表示部344は、図45における表示部334に対応し、データの転送先として選択可能な機器のリストが表示される。このデータ管理ソフトによる管理画面340の例では、データの転送先としてユーザの自宅にあるテレビジョン受像機を選択することができるようになっている。この例では、従来の例えばNTSC(National Television System Committee)に準ずる解像度のテレビジョン受像機と、HD(High Definition)TVに準ずる解像度のテレビジョン受像機とが選択可能となっている。
表示部345は、図45における表示部335に対応し、インデックス表示部341に表示されるインデックス表示に対応するオリジナルデータに対するファイル操作が表示される。この図46の例では、上述の「転送」、「保存」、「削除」、「共有」、「ネットワーク共有」に加え、「DVD保存」および「写真プリント」が実行可能とされている。
「DVD保存」は、インデックス表示部341においてチェック状態となっているインデックス表示に対応するオリジナルのデータをコンテンツデータベース107からダウンロードし、記録可能なタイプのDVDに記録するように制御する。このとき、所定のメニュー画面を生成して当該DVDに共に記録するようにもできる。同様に、「写真プリント」は、インデックス表示部341においてチェック状態となっているインデックス表示に対応するオリジナルのデータをコンテンツデータベース107からダウンロードし、このデータ管理ソフトが動作するパーソナルコンピュータに接続されるプリンタ装置で印刷するように制御する。
表示部346は、図45における表示部333および表示部338に対応し、編集ツールが表示されると共に、表示部342における広告表示の有無の設定がなされる。
コンテンツデータベース107に格納されるデータが膨大になると、インデックス表示部336やインデックス表示部341に表示されるインデックス表示の数も多数となり、ユーザは、インデックス表示部336やインデックス表示部341のインデックス表示から所望のデータを選択することが困難になることが予想される。そこで、所定の条件に基づきデータを絞り込み、最終的に絞り込まれたデータのみをインデックス表示部336やインデックス表示部341に表示させることが考えられる。
図47は、日付情報に基づき絞り込みを行う例である。先ず年単位で絞り込みを行い(図47A)、次に絞り込まれた年度内において月単位で絞り込みを行う(図47B)。最終的に、日単位で絞り込みを行うことで、データの特定が行われる(図47C)。また、図48に例示されるように、データのカテゴリに基づき絞り込みを行うことも考えられる。例えば、先ず大分類のカテゴリで絞り込みを行い(図48A)、次に絞り込まれたカテゴリ内において中分類のカテゴリで絞り込みを行う(図48B)。この例では、中分類の次の段階で、具体的なデータにアクセス可能なように絞り込まれている(図48C)。
このように、段階的に条件を設定してデータの絞り込みを行うことで、ユーザは、膨大なデータの中から所望のデータに迅速にアクセスすることができる。絞り込みは、コンテンツデータベース107に格納されるインデックステーブルに基づき行うことができる。
発明の第1の形態による一例のシステム構成を概略的に示す略線図である。 ユーザの情報を登録するための一例の構成を示す略線図である。 ユーザに関連する他のユーザを登録するための一例の構成を示す略線図である。 センサ情報データベースに蓄積される一例のデータを示す略線図である。 サーバシステム部の一例の構成をより具体的に示すブロック図である。 パッケージデータの構造例を示す略線図である。 実施の第1の形態による処理の流れを概略的に説明するためのフローチャートである。 センサ情報データベースから処理対象のデータを選択する方法を説明するための略線図である。 実施の第1の形態の第1の応用例による一例のシステム構成を概略的に示す略線図である。 ユーザデータベースに格納されるユーザ情報テーブルの一例の構成を示す略線図である。 本人識別情報を登録する本人識別情報テーブルの一例の構成を示す略線図である。 ユーザ同士を関連付けるユーザ関連情報テーブルの一例の構成を示す略線図である。 センサ情報データベースに格納されるセンサ情報データの一例の構成を示す略線図である。 実施の第1の形態の第1の応用例による一例の処理の流れを示すフローチャートである。 処理対象とされた静止画像データからあるユーザの本人識別情報に対応するデータを抽出する一例の処理について説明するための略線図である。 パッケージデータに含まれる静止画像データを閲覧させるWebページの一例の画面構成を示す略線図である。 Webページを表示するためのパッケージデータの一例の構成を示す略線図である。 静止画像データの撮像タイミングに応じて解析を行う場合の一例の処理を示すフローチャートである。 静止画像データの撮像タイミングに応じて解析を行う場合の一例の処理を説明するための略線図である。 実施の第1の形態の第2の応用例による一例のシステムを概略的に示す略線図である。 実施の第1の形態の第2の応用例におけるユーザ関連情報テーブルの一例の構成を示す略線図である。 実施の第1の形態の第2の応用例による一例の処理を示すフローチャートである。 実施の第1の形態の第3の応用例による一例のシステム構成を示す略線図である。 センサ情報データベースに格納されるセンサ情報データの一例の構成を示す略線図である。 実施の第1の形態の第3の応用例による一例の処理を示すフローチャートである。 指定したユーザの顔画像を拡大処理する例について概略的に説明するための略線図である。 講師が、受講中の生徒の様子を配信データに基づき確認し、生徒に対してアドバイスなどのコメントを返す場合の一例の処理を示すフローチャートである。 実施の第2の形態による一例のシステム構成を概略的に示す略線図である。 実施の第2の形態によるサーバシステム部の一例の構成を示すブロック図である。 実施の第2の形態による処理の流れを概略的に説明するためのフローチャートである。 実施の第2の形態の第1の応用例による一例のシステム構成を概略的に示す略線図である。 実施の第2の形態の第1の応用例による一例の処理について説明するためのフローチャートである。 実施の第2の形態の第2の応用例による一例のシステム構成を概略的に示す略線図である。 実施の第2の形態の第2の応用例による一例の処理について説明するためのフローチャートです。 実施の第3の形態による一例のシステム構成を概略的に示す略線図である。 ユーザ媒体に記憶される履歴情報の一例の構成を示す略線図である。 実施の第3の形態に適用可能なサーバシステム部の一例の構成を示すブロック図である。 実施の第3の形態による一例の処理の流れを概略的に示すフローチャートである。 実施の第3の形態の第1の応用例による一例のシステム構成を概略的に示す略線図である。 実施の第3の形態の第1の応用例による一例の処理の流れを示すフローチャートである。 静止画像データの撮像タイミングに応じて解析を行う場合の一例の処理について説明する。 実施の第3の形態の第2の応用例による一例のシステム構成を概略的に示す略線図である。 実施の第3の形態の第2の応用例による一例の処理を示すフローチャートである。 実施の第4の形態による一例のシステム構成を概略的に示す略線図である。 データ管理画面を汎用のブラウザ上の表示で実現した場合の例でを示す略線図である。 専用のデータ管理ソフトによる一例の管理画面を示す略線図である。 日付情報に基づき絞り込みを行う例を説明するための略線図である。 データのカテゴリに基づき絞り込みを行う例を説明するための略線図である。
符号の説明
10A、10B、・・・ センサ装置
11,11’,11” サーバシステム部
12 ネットワーク
13A,13B,・・・ ライタ
14A,14B,・・・ リーダ
15 ユーザ媒体
20,20’,20” 情報処理部
21 ユーザデータベース
22 センサ情報データベース
23 ユーザ登録部
30 ユーザ情報登録部
31 ユーザ情報処理部
32 センサ管理部
33 センサ情報抽出部
34 センサ情報編集部
37 配信管理部
38 配信装置
40 リーダ/ライタ
41 履歴情報処理部
50 パッケージデータ
100 大規模遊戯施設
101A,101B,・・・ アトラクション施設
102A,102B,・・・ カメラ装置
103A,103B,・・・ リーダ
107 コンテンツデータベース
110 インターネット
112 Webサーバ
120,170 サーバシステム部
142 Webページ表示部
162A,162B、・・・ リーダ付きカメラ装置
163 ネットワーク
165A,165B 携帯電話端末
190A,190B、・・・ 教室
192A,192B、・・・ カメラ装置
193A,193B、・・・ リーダ
198A,198B,・・・ ライタ
304 サーバシステム部
305 情報処理部
321 管理画面表示部
336 インデックス表示部

Claims (28)

  1. 情報を1または複数の配信先に配信するようにした情報配信システムにおいて、
    対象から遠隔的に情報の取得が可能な、所定のエリアに複数が配置された情報取得部と、
    上記情報取得部で取得された上記情報を解析して所定の特徴を示す情報を抽出する情報解析部と、
    上記情報解析部で抽出された上記所定の特徴を示す情報に関連付けられた関連情報を検索する検索部と、
    少なくとも、上記検索部で検索された上記関連情報に対応する配信先に、上記情報取得部で取得された上記情報のうち上記関連情報に対応する情報を配信する配信部と
    を有する
    ことを特徴とする情報配信システム。
  2. 請求項1に記載の情報配信システムにおいて、
    個別情報を該個別情報を識別する識別情報に対応付けて管理する個別情報管理部をさらに有し、
    上記所定の特徴を示す情報は、上記個別情報管理部に管理される上記個別情報に対応する情報である
    ことを特徴とする情報配信システム。
  3. 請求項2に記載の情報配信システムにおいて、
    上記個別情報と他の個別情報とを上記識別情報に基づき関連付けて管理する関連情報管理部をさらに有し、
    上記関連情報は、上記関連情報管理部に管理される上記個別情報および上記他の個別情報である
    ことを特徴とする情報配信システム。
  4. 請求項2に記載の情報配信システムにおいて、
    上記個別情報が示す実体の特徴を表す特徴情報を該個別情報に対応する上記識別情報に関連付けて管理する特徴情報管理部をさらに有し、
    上記情報解析部は、上記所定の特徴を示す情報として、上記情報取得部で取得された上記情報から上記特徴情報に対応する情報を抽出する
    ことを特徴とする情報配信システム。
  5. 請求項2に記載の情報配信システムにおいて、
    上記情報取得部に対応して配置される、上記識別情報が記憶される携帯可能な記憶媒体からデータを読み出すデータ読出部をさらに有し、
    上記データ読出部は、上記記憶媒体から読み出された上記識別情報と、該記憶媒体からデータの読み出しを行った時刻を示す時刻情報と、該データ読出部を識別するためのデータ読出部識別情報とを出力する
    ことを特徴とする情報配信システム。
  6. 請求項5に記載の情報配信システムにおいて、
    上記データ読出部から出力された上記時刻情報と上記データ読出部識別情報とに基づき、上記情報取得部で取得された上記情報のうち処理対象とする情報を特定する
    ことを特徴とする情報配信システム。
  7. 請求項5に記載の情報配信システムにおいて、
    上記データ読出部が上記記憶媒体から読み出した上記識別情報と、上記情報解析部で解析された上記所定の特徴を示す情報とに基づき上記個別情報に関する認証を行う
    ことを特徴とする情報配信システム。
  8. 請求項2に記載の情報配信システムにおいて、
    上記情報取得部に対応して配置される、データの書き込みが可能な記憶媒体に対してデータを書き込むデータ書込部と、
    上記記憶媒体からデータを読み出すデータ読出部と
    をさらに有し、
    上記データ書込部は、データを書き込む時刻を示す時刻情報と、該データ書込部を識別するためのデータ書込部識別情報とを上記記憶媒体に対して蓄積的に書き込む
    ことを特徴とする情報配信システム。
  9. 請求項8に記載の情報配信システムにおいて、
    上記データ読出部により上記記憶媒体から読み出された上記時刻情報と上記データ書込部識別情報とに基づき、上記情報取得部で取得された上記情報のうち処理対象とする情報を特定する
    ことを特徴とする情報配信システム。
  10. 請求項1に記載の情報配信システムにおいて、
    上記配信部は、上記情報取得部で取得された上記情報のうち、上記情報解析部で上記所定の特徴を示す情報が抽出された上記情報を配信する
    ことを特徴とする情報配信システム。
  11. 請求項1に記載の情報配信システムにおいて、
    上記配信部は、上記情報取得部で取得された上記情報のうち、上記情報解析部で上記関連情報に対応する上記所定の特徴を示す情報が抽出された上記情報を配信する
    ことを特徴とする情報配信システム。
  12. 請求項1に記載の情報配信システムにおいて、
    上記配信部は、上記情報取得部で取得された複数の上記情報を一纏めにパッケージングして上記配信を行う
    ことを特徴とする情報配信システム。
  13. 請求項1に記載の情報配信システムにおいて、
    上記配信部は、上記所定の特徴を示す情報をインターネットに向けて公開することで上記配信を行う
    ことを特徴とする情報配信システム。
  14. 請求項13に記載の情報配信システムにおいて、
    上記配信部は、上記インターネット上のWebサイトを介して上記配信を行う
    ことを特徴とする情報配信システム。
  15. 請求項14に記載の情報配信システムにおいて、
    上記Webサイトは、上記所定のエリアに関連するWebサイトである
    ことを特徴とする情報配信システム。
  16. 請求項14に記載の情報配信システムにおいて、
    上記配信部は、上記配信先に対して、上記所定の情報と共に所定の広告情報を配信する
    ことを特徴とする情報配信システム。
  17. 請求項16に記載の情報配信システムにおいて、
    上記広告情報は、上記所定のエリアに関連する広告情報である
    ことを特徴とする情報配信システム。
  18. 請求項16に記載の情報配信システムにおいて、
    上記広告情報は、それぞれの上記配信先に応じて選択される
    ことを特徴とする情報配信システム。
  19. 請求項1に記載の情報配信システムにおいて、
    上記情報取得部で取得される上記情報は、画像情報である
    ことを特徴とする情報配信システム。
  20. 請求項19に記載の情報配信システムにおいて、
    上記情報解析部は、上記画像情報を解析して顔を検出し、検出された顔の特徴を示す情報を抽出する
    ことを特徴とする情報配信システム。
  21. 請求項20に記載の情報配信システムにおいて、
    ユーザ情報を該ユーザを識別するユーザIDに対応付けて管理するユーザ情報管理部と、
    上記ユーザの顔の特徴を示す顔特徴情報を該ユーザに対応する上記ユーザIDに関連付けて管理する顔特徴情報管理部と
    をさらに有する
    ことを特徴とする情報配信システム。
  22. 請求項21に記載の情報配信システムにおいて、
    上記情報解析部により上記画像情報から抽出された、上記検出された顔の特徴を示す情報と、上記顔特徴情報管理部に管理される上記顔特徴情報とを比較する特徴情報比較部をさらに有し、
    上記特徴情報比較部による比較結果に基づき、上記情報取得部に取得された上記画像情報に上記ユーザ情報管理部に管理される上記ユーザに対応する情報が含まれているか否かを判断する
    ことを特徴とする情報配信システム。
  23. 請求項21に記載の情報配信システムにおいて、
    上記ユーザと他のユーザとを関連付けて管理する関連情報管理部をさらに有し、
    上記関連情報は、上記関連情報管理部に管理される上記他のユーザの情報である
    ことを特徴とする情報配信システム。
  24. 請求項19に記載の情報配信システムにおいて、
    上記画像は、静止画像である
    ことを特徴とする情報配信システム。
  25. 請求項19に記載の情報配信システムにおいて、
    上記画像は、動画像データである
    ことを特徴とする情報配信システム。
  26. 請求項1に記載の情報配信システムにおいて、
    上記情報取得部で取得される上記情報は、音声情報である
    ことを特徴とする情報配信システム。
  27. 情報を1または複数の配信先に配信するようにした情報配信装置において、
    対象から遠隔的に情報の取得が可能な、所定のエリアに複数が配置された情報取得部で取得された上記情報を解析して、所定の特徴を示す情報を抽出する情報解析部と、
    上記情報解析部で抽出された上記所定の特徴を示す情報に関連付けられた関連情報を検索する検索部と、
    少なくとも、上記検索部で検索された上記関連情報に対応する配信先に、上記情報取得部で取得された上記情報のうち上記関連情報に対応する情報を配信する配信部と
    を有する
    ことを特徴とする情報配信装置。
  28. 情報を1または複数の配信先に配信するようにした情報配信方法において、
    所定のエリアに複数が配置された、対象から遠隔的に情報の取得が可能な情報取得部により情報を取得する情報取得のステップと、
    上記情報取得のステップにより取得された上記情報を解析して所定の特徴を示す情報を抽出する情報解析のステップと、
    上記情報解析のステップにより抽出された上記所定の特徴を示す情報に関連付けられた関連情報を検索する検索のステップと、
    少なくとも、上記検索のステップにより検索された上記関連情報に対応する配信先に、上記情報取得のステップにより取得された上記情報のうち上記関連情報に対応する情報を配信する配信のステップと
    を有する
    ことを特徴とする情報配信方法。
JP2007035476A 2007-02-15 2007-02-15 情報配信システム、情報配信装置および情報配信方法 Pending JP2008198135A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007035476A JP2008198135A (ja) 2007-02-15 2007-02-15 情報配信システム、情報配信装置および情報配信方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007035476A JP2008198135A (ja) 2007-02-15 2007-02-15 情報配信システム、情報配信装置および情報配信方法

Publications (2)

Publication Number Publication Date
JP2008198135A true JP2008198135A (ja) 2008-08-28
JP2008198135A5 JP2008198135A5 (ja) 2010-03-11

Family

ID=39756985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007035476A Pending JP2008198135A (ja) 2007-02-15 2007-02-15 情報配信システム、情報配信装置および情報配信方法

Country Status (1)

Country Link
JP (1) JP2008198135A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010206600A (ja) * 2009-03-04 2010-09-16 Kddi Corp 映像コンテンツへの位置情報付与システムおよび方法
JP2011004128A (ja) * 2009-06-18 2011-01-06 Aki Enterprise:Kk 再生映像コントロールシステムおよび再生映像コントロール方法
JP2013051534A (ja) * 2011-08-31 2013-03-14 Nexpoint Co Ltd 監視カメラシステム及び監視方法
WO2014087555A1 (en) * 2012-12-06 2014-06-12 Nec Corporation Communication system
JP2015173506A (ja) * 2015-06-05 2015-10-01 株式会社Nexpoint 監視カメラシステム及び監視方法
JP2019021225A (ja) * 2017-07-20 2019-02-07 京セラドキュメントソリューションズ株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JPWO2018235318A1 (ja) * 2017-06-22 2020-03-19 日本電気株式会社 情報処理装置、情報処理方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024229A (ja) * 2000-07-03 2002-01-25 Fuji Photo Film Co Ltd 本人画像提供システム
JP2004222056A (ja) * 2003-01-16 2004-08-05 Fuji Photo Film Co Ltd 画像保管方法および装置並びにプログラム
JP2004336089A (ja) * 2002-11-20 2004-11-25 Sony Corp 映像制作システム、映像制作装置、映像制作方法
JP2006523334A (ja) * 2003-02-06 2006-10-12 センターフレーム・リミテッド・ライアビリティ・カンパニー 特定の電子画像をユーザに配布する方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024229A (ja) * 2000-07-03 2002-01-25 Fuji Photo Film Co Ltd 本人画像提供システム
JP2004336089A (ja) * 2002-11-20 2004-11-25 Sony Corp 映像制作システム、映像制作装置、映像制作方法
JP2004222056A (ja) * 2003-01-16 2004-08-05 Fuji Photo Film Co Ltd 画像保管方法および装置並びにプログラム
JP2006523334A (ja) * 2003-02-06 2006-10-12 センターフレーム・リミテッド・ライアビリティ・カンパニー 特定の電子画像をユーザに配布する方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010206600A (ja) * 2009-03-04 2010-09-16 Kddi Corp 映像コンテンツへの位置情報付与システムおよび方法
JP2011004128A (ja) * 2009-06-18 2011-01-06 Aki Enterprise:Kk 再生映像コントロールシステムおよび再生映像コントロール方法
JP2013051534A (ja) * 2011-08-31 2013-03-14 Nexpoint Co Ltd 監視カメラシステム及び監視方法
WO2014087555A1 (en) * 2012-12-06 2014-06-12 Nec Corporation Communication system
JP2015173506A (ja) * 2015-06-05 2015-10-01 株式会社Nexpoint 監視カメラシステム及び監視方法
JPWO2018235318A1 (ja) * 2017-06-22 2020-03-19 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
JP7007022B2 (ja) 2017-06-22 2022-01-24 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
US11659273B2 (en) 2017-06-22 2023-05-23 Nec Corporation Information processing apparatus, information processing method, and non-transitory storage medium
JP2019021225A (ja) * 2017-07-20 2019-02-07 京セラドキュメントソリューションズ株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Similar Documents

Publication Publication Date Title
KR101680044B1 (ko) 콘텐트 처리를 위한 방법들 및 시스템들
JP5385598B2 (ja) 画像処理装置及び画像管理サーバ装置及びそれらの制御方法及びプログラム
CN102594857B (zh) 移动设备上的图像识别和共享
US20140289323A1 (en) Knowledge-information-processing server system having image recognition system
US20040003411A1 (en) Image service system
EP2549390A1 (en) Data processing device and data processing method
CN102598055A (zh) 视频会话的自动标记
JP2008198135A (ja) 情報配信システム、情報配信装置および情報配信方法
CN102369724A (zh) 自动捕获信息,例如使用文档感知设备捕获信息
US20050169558A1 (en) Method and apparatus for automatically combining a digital image with text data
US7921074B2 (en) Information processing system and information processing method
US9973649B2 (en) Photographing apparatus, photographing system, photographing method, and recording medium recording photographing control program
JP2010218373A (ja) サーバシステム、端末装置、プログラム、情報記憶媒体及び画像検索方法
JP2006024060A (ja) 情報取得利用管理装置および情報取得利用管理方法
US9607094B2 (en) Information communication method and information communication apparatus
CN110431524A (zh) 信息处理系统、信息处理装置、信息处理程序和信息处理方法
JP2007052565A (ja) 情報処理システム及び情報処理方法
JP2020087105A (ja) 情報処理方法、情報処理装置及びコンピュータプログラム
JP4268667B2 (ja) 音声情報記録装置
KR102538155B1 (ko) 시나리오를 창작, 공유 및 활용하는 플랫폼 서비스를 제공하기 위한 방법 및 그 장치
JP2010218227A (ja) 電子アルバム作成装置、方法、プログラム、システム、サーバー、情報処理装置、端末装置、及び撮像装置
JP6958795B1 (ja) 情報処理方法、コンピュータプログラム及び情報処理装置
KR20020012699A (ko) 놀이시설/교육시설의 모니터링 시스템과 이를 이용한모니터링 서비스 제공방법
CN104978389A (zh) 方法、系统、服务器和客户端
JP2005124176A (ja) 自動撮影システム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120327