本発明は、ユーザが経験した事象に関連する情報と、ユーザが必要とする情報とを後から利用できるように蓄積する仕組みを提案したものである。本発明の具体例として示す情報蓄積装置は、ユーザの周囲の情報を記録できるようになっており、例えば、周囲の情報のうちユーザが個人的に必要とする情報や特徴的な情報等があった場合に、この情報に対する注釈(アノテーション;annotation)を付加できるようにした。
本具体例で示す注釈とは、ユーザにとって特徴的な情報であることを指し示す目印(以下、ポインタと記す。)であって、このポインタを“カテゴリ”として使用して、取得した情報を分類したり、ポインタを“検索条件”の1つとして使用して情報を検索することができる。
本発明の具体例では、ユーザがある「経験」をした日時や場所、またそのときの映像や音声といった情報は、ユーザが経験した事象に関連する経験情報と記し、経験した情報に対してユーザが付加する情報を注釈(アノテーション;annotation)と記す。以下では、経験情報に対してユーザが付加した注釈をアノテーションと記す。
本発明の一例として示す情報蓄積装置は、上述したアノテーションが付加された情報をユーザに提示することもできる。例えば、ユーザは、情報提示を望む場合にアノテーションを抽出するためのボタンとして設けるアノテーション入力ボタンを押せば、過去にアノテーションが付加されたコンテンツの一部分を取り出すことができる。以前に同じアノテーションを付加したことがある情報は、その日時、その場所等の情報が提示される。また、ユーザによって入力されたアノテーションに基づいて、アノテーションが付加された情報を優先的に提示することもできる。
以下、本発明の具体例として示す情報蓄積装置1の概略を図1に示す。情報蓄積装置1は、情報を入力する情報登録フェーズのための情報登録部10と、これらの情報を蓄積する手段と、取得した情報を後に利用する情報利用フェーズのための情報利用部30とを備えている。
情報蓄積装置1は、情報登録部10として、経験した事象に関連する経験情報を取得するための情報取得部11と、ユーザが取得された経験情報に対して目印になるアノテーションを付加するとき入力に使用するアノテーション入力部12と、取得した情報を認識するデータ認識処理部13と、認識したデータを予め決められた定義にしたがって分類するデータ定義処理部14と、定義にしたがって分類されたデータを格納するデータ蓄積部15とを備えている。
情報取得部11は、ユーザ周囲の情報を取得する機能を備え、カメラ、マイク、GPS(Global Positioning System)用ユニット等、画像情報、音声情報、位置情報、日時等を取得できる取得部が含まれる。
データ認識処理部13は、カメラ、マイク、GPS等にて取得した画像情報、音声情報、位置情報、日時等から特定の情報を抽出する処理を行っている。データ認識処理部13は、画像認識部16とテキスト処理部17と音声処理部18とを有しており、カメラから取得した画像データを画像認識部16及びテキスト処理部17にて画像認識処理及びテキスト認識処理し、特定の画像データ及びテキストデータを抽出する。マイクから取得した音声データであれば、音声認識部19にて音声を認識し、言語処理部20にて音声情報をテキストデータに変換し、キーワード抽出部21では変換されたテキストデータからキーワードを抽出する。
データ認識処理部13にて抽出されたデータは、データ定義処理部14において、予め決められた定義にしたがって分類される。例えば、定義には、人物画像、この人物画像に関する家族、兄弟、配偶者、職場関係、友人、年齢層、居住域、国籍等の識別情報、画像データから判別される密集度(高い・低い)、画像データから判別される建物の種類(看板等によるサービス業の種別)、建物の名称(文字列)、日時、天候(晴、雨、曇り等)、気温(高・低)、湿度(高・低)、風(強・弱)、位置情報(緯度、経度、高度)、最寄駅、またユーザのみ理解できる通称名等があり、これら定義に基づいて、取得したデータが分類される。データ蓄積部15は、上述の定義に基づいて分類されたデータを格納している。
また、情報登録部10は、情報取得部11で取得されデータ蓄積部15に蓄積される情報に対して、ユーザの入力操作によってアノテーションが付加されたとき、記録される情報から提示用コンテンツを生成し、提示用コンテンツとアノテーションとを対応付けてアノテーションリストを作成するデータ処理部22と、データ処理部22で作成された提示用コンテンツ及びアノテーションリストが記憶されるリスト記憶部23とを備えている。
続いて、上述の情報登録部10にて登録されたユーザによるアノテーションを情報利用部30において利用する場合について説明する。
情報蓄積装置1は、情報利用部30として、現在の状態を取得する情報取得部31と、検索条件が入力される検索入力部32と、取得した情報を認識するデータ認識処理部33と、データ蓄積部15から検索条件に適合した情報又は類似した情報を抽出する検索部34と、抽出された情報をユーザに提示する情報提示部35とを備えている。
情報取得部31及びデータ認識処理部33は、情報登録フェーズと同様の方法で現在地の位置情報やそのほかの情報を取得して認識する。検索入力部32には、ユーザによって検索条件が入力される。入力方法としては、音声入力、テキスト入力、画像入力等があげられる。検索入力部32にて音声として入力されれば、データ認識処理部33は、音声から時間、場所、人に関するキーワードを抽出し、検索入力部32にテキストデータが入力されれば、データ認識処理部33は、テキストからキーワードを抽出し、検索入力部32に画像データが入力されれば、データ認識処理部33は、画像からキーワードを抽出する。また、スケジュール管理ソフトに記録されたデータを使用することもできる。
検索部34は、データ蓄積部15から検索条件に類似した情報を抽出する提示データ推論部37と、データ蓄積部15から検索条件に適合した情報を抽出する提示データ検索部38とを備えている。データ蓄積部15から情報を検索する際には、リスト記憶部23に記憶されたアノテーションリストを参照して提示するコンテンツの優先度を決めている。検索部34によって抽出された、テキストデータ、音声案内、画像表示、またこれらの組み合わせからなる提示用コンテンツが情報提示部35によってユーザに提示される。
この情報蓄積装置1によれば、ユーザが経験した事象に対して、その経験の特徴に応じてユーザがアノテーションを付加して蓄積することができる。また、この装置のデータ蓄積部15を検索して得られる情報は、ユーザが一旦経験した情報であるため、インターネットのようなネットワークにてキーワード検索する手法に比べ効率的でかつ実益の高い情報を取り出すことができる。
本発明の特徴は、この情報蓄積装置1にて管理された情報を利用するのが登録した本人である点である。そのため、上述した情報蓄積装置1を使用したシステムでは、ユーザが経験によって得た情報、またこの経験情報のポインタとなるアノテーションは、例えば、食事をしたときに付けられるアノテーション、タバコを吸ったときに付けられるアノテーション、といったように明確に決める必要はない。単に経験情報に付加されるフラグでよい。例えば、このフラグによって抽出された情報のもつ意味や情報のカテゴリは、ユーザがみれば容易に判るからである。
経験した事象に関連する情報の取得は、上述した例のように、カメラ、マイク、GPS等によって可能な限り自動的に取得されることが好ましい。本発明に係る情報蓄積装置1が必要とされるのは、ユーザが経験したあらゆる事象に対して意識的に「メモ書き」、「覚え書き」を残すことが現実的には困難であって、重要な情報を記録する機会を逃してしまうことがあり再び同様の状況になっても前回の経験を想起し、これを今回の経験に生かすことが難しいことがある、という実情があるからである。
アノテーションリストの作成処理又は更新処理が行われる局面としては、次の場合があげられる。例えば、(1)情報登録フェーズにて取得した経験情報としてのコンテンツに対してアノテーションが付加されたとき提示用コンテンツを作成する処理と、(2)アノテーションリストにあげられた提示用コンテンツをユーザに提示する処理とがあげられる。ここでは、特にデータベース53に格納された情報のうち、“時刻情報”と、“位置情報”に対してアノテーションリストを作成する場合について示す。
(1)情報登録フェーズにて取得した経験情報としてのコンテンツに対してアノテーションが付加されたとき提示用コンテンツを作成する処理
以下、本発明の具体例として示す情報蓄積装置1について図2及び図3を用いて詳細に説明する。
図2は、情報蓄積装置1を用いて行われる情報登録フェーズと情報利用フェーズとを分けて表した図であり、図3は、情報蓄積装置1の具体的な構成を示したものである。図2は、“ユーザがレストラン(店舗)で食事をする”という経験情報を記録する場合について説明している。図2において、情報登録フェーズは、レストランで食事をしたときの周囲の情報及びこのときユーザが特徴付けて記録したい情報があって、ここで経験した事象に対する情報の特徴部分に目印としてのアノテーションを付加する場面である。また、情報利用フェーズは、別の機会に過去の経験にアノテーションを付加した情報を検索する場面である。
ユーザがある事象を経験するとき、常に情報蓄積装置1を所持していることが重要である。そのため、本具体例では情報蓄積装置1は、携帯可能なタイプになっている。また、情報蓄積装置自体は携帯型であっても、例えば、家庭用の据置型PC100又はサーバ装置に相当する機器と接続可能になっていて、取得した情報を据置型PC100又はサーバ装置に蓄積できる構成になっていれば好ましい。この場合、情報蓄積装置1のデータ蓄積部15として機能することができるデータ蓄積部を据置型PC100又はサーバ装置側に用意し、情報蓄積装置1との間で無線或いは有線通信インターフェイスを介して情報を送受信できるようにする。
情報蓄積装置1は、図3に示すように、位置情報を取得するGPSユニット41、ユーザの周囲の情報を取得するCCD(Charge Coupled Device)42及びマイク43を備えている。これらは、図1に示した情報登録フェーズのための情報取得部11と情報利用フェーズのための情報取得部31とを兼ねている。情報蓄積装置1は、ユーザによる操作なくして自動的に画像データ、音声データを取得することができる、CCD42及びマイク43は、所定間隔若しくはユーザ周囲の環境の変化等をトリガとしてデータを取得し、データモデルに基づいて格納形式データを生成し、このデータを後述するデータベース53に格納している。例えば、突然大きな音を検出したとき、後述のキーワード抽出部51にて指定されたキーワードが検出されたときなどをデータベース作成のためのトリガとする。本具体例の説明では、このように情報取得部11にて取得されるユーザの経験に関するユーザ周囲の情報を必要に応じて経験情報と記す。
また、情報蓄積装置1は、蓄積した情報に対してユーザがアノテーションを付加するための入力操作が行われるアノテーション入力部12としてのアノテーションボタン44と、情報利用フェーズにおける検索入力やこの装置の操作入力を行う操作入力部45とを備えている。アノテーションが付加される対象となるコンテンツは、情報取得部11で取得されるコンテンツである。図3で示すマイク43で取得された音声データ、CCD42で取得した画像データ等があげられる。また、アノテーションボタン44が押されたときのGPS情報も同時に付加する。
操作入力部45は、検索モードか記録モードかの選択、更に自動検索モードか手動検索モードかの選択が行われる。操作入力部45は、表示部としてのLCD54と組み合わせたタッチパネル方式の入力部であってもよいし、LCD54に表示されるGUIを選択する方式であってもよい。
なお、情報蓄積装置1は、情報取得部11に対応する構成として上述した構成のほかに気温、湿度、天気等の天候情報を取得する構成を備えていてもよい。これら位置情報や天候情報を取得する手法としては、例えば、既に携帯電話にて実現されているような、基地局から定期的に送信される基地局情報に加えて位置情報や天候情報等を定期配信する手法があげられる。また、情報蓄積装置1に簡易的な温度センサ、湿度センサを設けてもよい。
情報蓄積装置1は、取得した画像データ、文章データ、音声データを認識する画像認識部46と文章認識部47と音声認識部48とを備える。画像認識部46は、CCD42から取得した画像データに対して画像認識処理を実行し、例えば、人物の顔部分を認識して抽出する処理を行う。また、文章認識部47は、CCD42から取得した画像データに対してテキスト認識処理を実行し、例えば、看板等の文字のように画像のなかにある文字列や記号を認識して建物や標識の名称をテキストデータとして抽出する処理を行う。音声認識部48は、音声認識処理部49と言語処理部50とキーワード抽出部51とを有し、マイク43から取得した音声データを音声認識処理部40にて音声認識処理し、言語処理部50にて音声情報をテキストデータに変換し、キーワード抽出部51では、変換されたテキストデータからキーワードを抽出する。
また、情報蓄積装置1は、画像認識部46、文章認識部47、音声認識部48から抽出されたデータを定義付けするデータ定義処理部52を備えている。データ定義処理部52は、情報登録フェーズのためのデータ定義処理部14及び情報利用フェーズのための検索部34に相当し、抽出されたデータを予め決められた定義にしたがって分類する或いは検索条件に応じてデータベース53から情報を検索する。
例えば、情報蓄積装置1には、画像データとこの画像データに対する情報が記述されたテキストデータがデータベース53に登録されている。例えば、人物の顔の画像データに対して友人の名前、住所、連絡先、年齢等が対応付けて記憶されている。また、更にこの人物に関連した家族、兄弟、配偶者、職場関係者、友人等の情報があればあわせ記憶されている。画像認識部46、文章認識部47、音声認識部48にて抽出された画像データ、テキストデータ、及び音声データから判別される人物、建物の種類、建物の名称(文字列)等がデータベース53に格納されたデータと比較して分類され新規データとして蓄積される。また、定義には、上述した位置情報(緯度、経度、高度)、日時データ、天候情報(晴、雨、曇り等)、気温(高・低)、湿度(高・低)、風(強・弱)、最寄駅、またユーザのみ理解できる通称名、評価値、評価の対象(立地条件、店員の評価、商品の評価、店の雰囲気、値段設定、料理の提供時間、その他の条件等)等があり、取得された情報は、これら定義に基づいて分類される。
取得後、定義付けされたデータは、データモデルに応じてモデル変換され、データベース管理システム(DBMS)を用いてデータベース53に格納される。モデル変換の例としては、例えば、表形式で各データを定義しDBMSとしてリレーショナルデータベース(RDB)を用いて管理する手法や、各データをRDFs・OWLを用いて分類しDBMSとしてRDFDB或いはXMLDBを用いて管理する手法がある。データベース53に格納されたユーザが経験した事象に関する情報及びアノテーションが付加されて生成された提示用コンテンツは、後々ユーザの意図で編集できてもよい。
このほかに情報蓄積装置1は、ユーザに対して情報を提示するための構成として、表示部としてのLCD54、表示用デバイス55、スピーカ56、音声出力デバイス57とを備えている。
情報蓄積装置1は、アノテーションリスト及び提示用コンテンツを作成するためのデータ処理部59を備えている。データ処理部59は、ユーザによって入力されたアノテーションで指定された情報の一部を抽出し提示用コンテンツを作成し、作成した提示用コンテンツとアノテーションとを関連づけしてアノテーションリストを作成する。また、データ処理部59は、検索部34として機能している。データ処理部59は、取得される位置情報及び時刻情報からアノテーションが付加された提示用コンテンツを自動的に抽出する処理、ユーザが検索を希望するアノテーションが入力された場合に検索条件に適合した類似した提示用コンテンツを抽出する処理、アノテーションリスト及び提示用コンテンツを編集する処理等を実行する。
データ処理部59は、ユーザに対して“発生した経験”に伴って取得され、データベース53に記録される経験情報としてのコンテンツのうち、アノテーションが入力された時刻の前後の情報を含めてユーザに対して提示するための提示用コンテンツを作成する。そして、アノテーションと提示用コンテンツとを関連付けたアノテーションリストを作成する。データ処理部59にて作成されたアノテーションリストは、アノテーションリスト記憶部60に格納される。また、データ処理部59によって作成された提示用コンテンツは、提示用コンテンツリスト61に登録される。
以上説明した各構成は、CPU、処理プログラム等が格納されたROM及びCPUの作業領域としてのRAMを備える制御部58によって統括制御されている。
続いて、図4乃至図6を用いてアノテーションボタン44について説明する。図4に示すように、情報蓄積装置1は、側面若しくは正面にアノテーションボタン44を備えている。アノテーションボタン44は、複数のアノテーションを区別して指定できるよう複数個設けられていてもよい。また、ユーザの操作性を考慮して、同一のアノテーションを入力するためのボタンが複数箇所に設けられてもよい。アノテーションボタン44の設置位置は、図4に示したタイプに限定されることはなく、例えば、情報蓄積装置1の背面などでもよい。情報蓄積装置1のサイズがある程度大きくなる場合には、アノテーション入力部を情報蓄積装置1の本体部から分離し、ボタンと表示部とを備えた独立した入力装置として提供することもできる。この場合、本体装置との間は無線通信等により通信可能とする。
アノテーション入力部を独立させたタイプの入力装置を図5に示す。図5(a)〜図5(d)に示す独立型のアノテーション入力装置440は、アノテーションボタン44と簡単なテキストデータ等を表示可能な表示パネル441とを備えている。図5(a)、(b)に示すアノテーション入力装置440は、アノテーションボタン44を1つ備えたタイプである。アノテーションボタン44は、図5(a)のように表示パネル441と同一面に設けられていても、図5(b)のように表示パネル441に対して側面に設けられていてもよい。また、図5(c)、(d)に示すアノテーション入力装置440は、アノテーションボタン44を複数備えたタイプである。図5(c)のように表示パネル441と同一面に複数のアノテーションボタン44が設けられたタイプと、図5(d)のように表示パネル441に対して側面に設けられたタイプが示されている。
独立型のアノテーション入力装置440においてもアノテーションボタン44の設置位置は、図示したタイプに限定されることはない。ユーザの操作性を考慮した箇所に設ければよい。
図6に、アノテーション入力部を情報蓄積装置から独立させた独立タイプのアノテーション入力装置440の構成を示す。アノテーション入力装置440は、表示部としての液晶表示パネル(LCD;Liquid Crystal Display)441と、表示用デバイス442と、本体装置との間で通信するための通信インターフェイス443と、アノテーションボタン44と入力検出部444とからなるアノテーション入力部12とを備えている。アノテーションボタン44に対する入力の検出と本体装置との間の通信は、制御部445によって制御されている。
ユーザは、上述したアノテーションボタン44を押下することによって、情報取得部11、31としての構成にて取得中のコンテンツのうち、ユーザにとって特に有益な情報に対してアノテーションを付加することができる。GPS41、CCD42、マイク43から取得された経験情報が後述するデータベース53に蓄積されるときにユーザによって付加されるアノテーションについて、図7を用いて説明する。
アノテーションボタン44が1つ設けられ、アノテーションボタン44に1つのアノテーションが割り当てられた場合、このアノテーションボタン44によって付加されるアノテーションが図7(a)に示されている。図7(b)には、アノテーションボタン44が複数設けられ、個々のアノテーションボタン44に別々のアノテーションが割り当てられた場合、複数のアノテーションボタン44によって付加されるアノテーションが示されている。ユーザにとって特徴的な情報であること示すポインタとなるアノテーションには、時刻情報及び位置情報を使用する。すなわち、アノテーションが付加されると、取得中のコンテンツに、ユーザがアノテーションボタン44を操作した時刻情報とその位置情報が付加される。時刻情報は、例えば、2004年1月1日午前1時23分45秒であれば、“20040101012345”のように表される。位置情報及び時刻情報は、GPS衛星から送られる緯度及び経度が使用される。図における横軸は、取得したコンテンツの時間軸の正方向を表している。
図7(a)に示すように、例えば、Aという経験に対して、ユーザがアノテーションボタン44を押したときには、そのとき取得中のコンテンツの一部に時刻情報及びGPS情報がアノテーションAとして付加される。アノテーションボタン44が複数個用意されている場合、図7(b)に示すように、アノテーションボタンが経験A、経験B、経験Cに対して割り当てられていて、ユーザがAという経験に対してアノテーションボタンAを押したときには、そのとき取得中のコンテンツの一部に時刻情報及びGPS情報がアノテーションAとして付加される。Bという経験に対しては、アノテーションBとしてそのときの時刻情報及びGPS情報が、またCという経験に対しては、アノテーションCとしてそのときの時刻情報及びGPS情報が付加される。
データ処理部59がアノテーションが付加された情報を位置情報又は時刻情報に応じて統計的に自動的に整理してアノテーションの傾向を算出するようにしてもよい。これによりアノテーションを統計的にある集団で分類することができる。こうすると、1つのアノテーションボタンによって複数のアノテーションを入力することもできる。この手法では、入力されたアノテーションの数に応じて分類の精度が向上する。
記録したコンテンツにアノテーションを付加する処理の詳細は、後述する。このように、記録しているコンテンツにアノテーションを付加できるようにすれば、検索の際、アノテーションが付けられた情報は検索が容易になる。
ここでの説明に使用した経験とは、ユーザがアノテーションとして決めた行為、ユーザがアノテーションとして決めた情報などが含まれる。例えば、「気になっている音楽を聴いた」、「喫煙した」、「○○さんに会った」、「○○さんから電話がきた」、「食事をした」などがあげられる。アノテーションAが「喫煙した」であるならば、ユーザは記録されたコンテンツに付加されたアノテーションを検索すれば、喫煙した場所と時刻において取得したコンテンツを知ることができる。
アノテーションボタン44によって入力される情報は、記録されているコンテンツに対する単なる目印であればよいため、アノテーションボタン44によって入力されるアノテーションの意味を情報蓄積装置上で設定する必要はない。したがって、例えば、アノテーション入力装置440が複数ボタンを備える場合、ユーザは、ボタンAに“喫煙”というアノテーションを割り当て、ボタンBに“食事”というアノテーションを割り当て、ボタンCに“買物”というアノテーションを割り当てるという設定操作を事前に情報蓄積装置1若しくはアノテーション入力装置440に対して行う必要はない。どの状況で若しくはどの経験情報に対して、どのボタンを使用するかは、ユーザが使い分ければよい。勿論、情報蓄積装置1或いはアノテーション入力装置440に対してアノテーションボタン44によって付加されるアノテーションが何を示すかを機器に対して設定することができてもよい。この場合、アノテーションボタン44に何が割り当てられているかをLCD441に表示する。
次に、データ処理部59にて作成される提示用コンテンツ及びアノテーションリストの一例を図8乃至図10を用いて説明する。
アノテーションリストについて図8を用いて説明する。アノテーションリストは、アノテーションリスト記憶部60に格納される。アノテーションリスト記憶部60のメモリ領域は、要素数M×N個の配列(以下、大領域と記す。)に区分され、M×N個の要素の1つが更にm×n個の配列に区分されている(以下、中領域と記す。)。そして提示用コンテンツの有無を表すビットを設ける。提示用コンテンツが用意されていれば、すなわちアノテーションが付加されていれば1を、アノテーションが付加されていなければ0とする。更に、中領域の1要素に対して時刻情報を記述する配列を定める。大領域又は中領域には、国、県、市町村等の行政区分、特定の地域内における領域区分、会社の支店、学校キャンパス等を割り当てることができる。例えば、東京23区を大領域とし、区内を緯度経度から分割される所定数の領域を中領域とすることができる。図8に示すように、アノテーションリストは、位置情報と時刻情報に関連付けられて、この順番に配列されている。また、中領域の要素に対応して回数を記述できるようにしてもよい。
図9を用いて提示用コンテンツについて説明する。図9には、データベース53に記録される一連の経験情報としてのコンテンツ530が時系列に沿って表されている。また、記録されたコンテンツ530に対してアノテーションが付加される。ここでは、情報蓄積装置1は、アノテーションボタン44は複数設けられたタイプであってボタンAによってアノテーションAが入力され、ボタンBによってアノテーションBが入力されるものとする。アノテーションの入力には、複数のアノテーションボタン44が設けられたアノテーション入力装置440を使用してもよい。
データ処理部59は、ユーザによってアノテーションが入力されると、GPS41、CCD42、マイク43等の情報取得部12によって随時取得している日時、位置、画像データ、音声データの一部から提示用コンテンツを生成する。以下、この提示用コンテンツをオブジェクトと記す。データ処理部59は、アノテーションボタン44でアノテーションが付加されると、上述した図8にて説明したメモリ構造内に記述された時刻情報の前後の所定期間のコンテンツを抽出し、適切な圧縮処理等を施して提示用コンテンツとしてのオブジェクトを生成する。また、データ処理部59は、アノテーションBに対しても同様にオブジェクトを生成する。
本具体例では、データ処理部59は、アノテーションAが入力された時刻から前後5秒の所定期間分のコンテンツを抽出し、アノテーションAが付加された時刻前後10秒間分の音声データ或いは映像データを提示用コンテンツとして用意する。画像データの場合、例えば10秒間分の動画像データであってもよいし、1秒間に1枚分の静止画像データを生成し10枚分を一纏まりとしてオブジェクトを作成してもよい。
データ処理部59は、生成されたオブジェクトをオブジェクトリスト記憶部61に格納するとともに、格納場所を示すアドレス情報等がアノテーションと対応付けたアノテーションリストとしてアノテーションリスト記憶部60に格納される。アノテーションリストの一例を図10(a)及び図10(b)に示す。図10(a)には、データ処理部59において作成されるアノテーションボタン44のボタンAで付加されたアノテーションに対するアノテーションリストの一例が示されており、図10(b)には、アノテーションボタン44のボタンBで付加されたアノテーションに対するアノテーションリストの一例が示されている。アノテーションリストによって、アノテーションは、対応するオブジェクトにリンクされる構造になっている。アノテーションリストには、図8で示したビット配列が位置情報、時刻情報の順番に記述され、更にデータベース53内においてオブジェクトを特定するためのオブジェクトナンバ、オブジェクトが記録されたアドレス情報等が記述されている。
続いて、上述した情報蓄積装置1を用いて、ユーザが経験した事象に関連する情報(経験情報)とアノテーションとを登録する処理について説明する。ユーザがレストラン(店舗)で食事をするとき、この経験に関連するコンテンツが記録されるとともにアノテーションが付加され、付加されたアノテーションに基づいてオブジェクト及びアノテーションリストが生成される処理を図11に示す。
ユーザが情報蓄積装置1を携帯した状態でレストラン200にて食事をする場合(経験事象:図2矢印A)、レストランで食事をするという経験に関連して情報蓄積装置1において、音声データ、映像データ、位置情報等のコンテンツが取得される(図2矢印B)。経験情報は、このとき情報蓄積装置1によって、主に自動的に取得される。アノテーションは、ユーザによって入力される(図2矢印C)。但し、アノテーションの入力は、経験した事象に関する情報の取得と同時でない場合もある。
経験情報としてのコンテンツが取得されるタイミングは、レストラン200に入る前にユーザが所定間隔で自動取得するモードに切り換えてもよいが、常時、記録動作を行っていてもよい。また、通常、ユーザはこのモード設定操作自体を意識的に行えない場合が多い。経験した事象に関連するコンテンツは、ユーザに意識されないように取得されていることが望ましいため、本具体例では、できる限り周囲の状況変化等をトリガとして自動的に経験情報を取得できるようにする。例えば、“いらっしゃいませ”という単語を記録開始のトリガとしてのキーワードとして予め定義したとすると、ユーザがレストラン200に入り、情報蓄積装置1が“いらっしゃいませ”という単語を検出したとき、これをトリガとしてコンテンツを記録する情報取得モードに入る(図11に示すステップS1及びステップS2)。
アノテーションは、取得された経験情報に付加されて記憶される。ユーザがアノテーションを付加するタイミング(図2矢印C)は、経験情報の取得中であるが、取得した情報に対して時間的に後から付加することもできる。
情報蓄積装置1は、ステップS1としてCCD、GPS等を起動し待機しているときにトリガが検出されると、ステップS2において、データ作成モードに移り経験情報を取得する。ステップS2にて取得された経験情報は、ステップS3以降において、それぞれ認識処理される。画像データであれば、ステップS3においてCCD42から取得した画像データに対して画像認識処理を実行する。このとき、画像データであって画像中に文字情報が含まれている場合、ステップS4において文章認識部47は、CCD42から取得した画像データに対してテキスト認識処理を実行し、例えば、看板等の文字のように画像のなかにある文字列や記号を認識して建物や標識の名称をテキストデータとして抽出する。また、音声データの場合、ステップS5において、取得した音声データを音声認識処理部40にて音声認識処理し、ステップS6において言語処理部50にて音声情報をテキストデータに変換し、ステップS7においてキーワード抽出部51にてテキストデータからキーワードを抽出する。GPS41によって取得された位置情報、日時データ等のGPSデータ及び操作部35から入力されたテキストデータ等はそのまま使用できるため、次のステップに進む。取得されたコンテンツは、ステップS8において定義に基づいて分類され、ステップS9においてデータベース53に登録される。
情報蓄積装置1は、ステップS10においてアノテーションが入力されたか否か判別し、ユーザによってアノテーションが入力された場合には、ステップS11において、アノテーションリストの登録とオブジェクトの作成を行う。ステップS12においてアノテーションとオブジェクトとが関連づけされる。
ステップS12におけるアノテーションリストの登録処理について図12を用いて更に詳しく説明する。アノテーションリスト記憶部60のメモリ領域は、位置情報に対応付けられているので、データ処理部59は、図12に示すように、ステップS111において、位置情報を取得する。ステップS112においてデータ処理部59は、取得した位置情報とアノテーションリスト記憶部60に記憶したM×N配列の大領域のビット列Aとを比較し、現在の位置情報に対応する所定ビットが1の場合、ステップS113において、引き続きm×n配列の中領域のビット列Bをチェックする。ステップS113において0の場合、ステップS10に戻る。また、ステップS113において、m×n配列の中領域の配列において現在の位置情報に対応する所定ビットが1の場合、ステップS114において、データ処理部59は、この要素に対して現在の時刻情報を記述し、作成したオブジェクトをオブジェクトリストの最後に加えてステップS12に進む。m×n配列の中領域の配列において現在の位置情報に対応する所定ビットが0の場合、ステップS115において、中領域リストの対応するビットに1を立て、作成したオブジェクトをオブジェクトリストの最後に加えてステップS13に進む。
アノテーションとオブジェクトは、ステップS12において互いに関連づけられて、ステップS13においてアノテーションリスト記憶部60に格納される。このようにして、情報蓄積装置1は、ユーザの経験情報のなかで特にユーザの興味があった状況に関連するコンテンツを容易に検索できるように整理してデータベース53に登録することができる。
図11の処理で取得される経験情報の一例を図13に示す。以下の図では、便宜上、説明にかかる部分のみデータを記入しているが空欄の箇所にも別のデータが含まれているものとする。図13では、取得した情報の番号に対応付けられて、取得された時刻情報は、2003年7月22日17時30分であれば、“200307221730”のように表され、位置情報は、“605958,1354536,546”(緯度60°59′58″,経度135°45′36″,高度546m)のように登録される。またこのほか、例えば基地局から送信された天候情報等の付帯状況の情報が付加される。更に、この経験情報の取得よりも以前に取得した情報から明らかになっている事実があれば、その情報も付加される。なお、ここで取得される時刻情報は、GPSデータに含まれる正確な時刻情報でもよいし、例えば、“2003/07/22 夜 ”、単に“昼”、“夜”、“休日”、“平日”のように抽象的な表現も含まれる。また、位置情報も同様に緯度経度に代わって駅名、建物名、施設名、ユーザに馴染みのある通称名等で表してもよい。このほうが、ユーザが情報利用フェーズにて検索したときに、より分かり易く使い易い情報として取り出すことができるからである。これらの経験情報は、CCD42、マイク43にて取得した映像や音声といったコンテンツとともに記録される。
一例として、ユーザが喫煙の度にアノテーションボタン44を押すように決めた場合には、アノテーションボタンAが押されると、記録されているコンテンツに対するアノテーションとして喫煙をした時間及び喫煙した場所を示す情報が記録される。このとき、喫煙中に情報蓄積装置1のCCD42から取得される画像データやマイクから取得される音声データからオブジェクトが作成される。作成されたオブジェクトは、ユーザにとって喫煙というアノテーションによって関連付けられるコンテンツである。アノテーションの位置情報及び時刻情報の傾向を統計的に処理して自動的に分類する手法を取り入れれば、1つのアノテーションボタン44に対して複数種類のアノテーションを入力することもできる。この手法ではオブジェクトの特徴は、オブジェクトが増えるほどに統計的に分類されたアノテーションのグループの傾向が現れ、グループを纏めるキーワードの精度が向上する。
上述のようにデータベース53に登録されたコンテンツのうちアノテーションが付加されたコンテンツ毎にアノテーションリストを作成することによって、ユーザの経験情報及びこの経験情報のなかで特徴的な経験に対するコンテンツを抽出し易くすることができる。オブジェクトの入力からアノテーションリストの作成までの処理に関する詳細は後述する。
最も原理的なアノテーションの付加方法は、上述したように、経験情報の自動検出とアノテーションボタン44のオンオフによる単純なアノテーションの入力によって実現できるが、例えば、表示部としてのLCD54、操作入力部45等を併用することでより複雑な情報の入力及び提示が可能になる。この場合、次の登録処理があげられる。
図14及び図15に示す登録処理では、アノテーションボタン44及び操作入力部45からのユーザによる操作とその操作に基づくデータ処理部59の動作が示されている。
ステップS21においてユーザによってアノテーションボタン44が押下されると、データ処理部59は、押下を検出した検出信号を受け取り、ステップS22において表示部としてのLCD54に、場所、日時等の選択メニューを提示する。ステップS23において、提示した選択メニューを表したGUI(Graphical User Interface)を介して、ユーザから場所を指定するGUIボタンが選択されると、ステップS24において場所が指定され、データ処理部59は、ステップS25において、現位置か任意の場所かを選択する選択メニューを表示する。
この選択メニューに対して、ステップS26において、提示した選択メニューを表したGUIを介して場所が選択されるがステップS27において更に詳しい場所の情報が選択されない場合、図15Aに続くステップS31のステップS311において現在場所を検索キーとしてアノテーションリストが検索される。
また、ステップS26で提示した選択メニューを表したGUIを介して場所が選択された後、ステップS27において、更に詳しく任意の場所が指定された場合、データ処理部59は、ステップS28において地図ソフトを起動する。ステップS29においてLCD54上に地図とともに表示されたGUIによってユーザが所望とする場所が指定されると、データ処理部59は、指定された場所情報をステップS30にて受け取る。データ処理部59は、図15Cに続くステップS31のステップS313において指定された場所情報及び時刻を現在の時刻を検索キーとしてアノテーションリストを検索する。
一方、ステップS24においてユーザによって場所が指定されなかった場合、ステップS32において、データ処理部59は、任意の時刻(未来)、翌日以降の同一時間、翌週以降の同一曜日、翌月以降の同一日、翌年以降の同一月、翌年以降の同一月日を選択するための選択メニューを表示する。
データ処理部59は、ステップS33において任意の時刻を入力するメニューが選択されると、ステップS34において任意時刻を入力するための時刻入力用GUIをLCD54に表示する。この入力インターフェイスを介してユーザから時刻が指定されると時刻を認識し、データ処理部59は、図15Cに続くステップS31のステップS313において指定された場所情報及び時刻を現在の時刻を検索キーとしてアノテーションリストを検索する。ステップS33において任意の時刻を入力するメニューが選択されない場合には、データ処理部59は、図15Bに続くステップS31のステップS312において、指定された日時を検索キーとしてアノテーションリストを検索する。
ステップS31以降は、図12に示したアノテーションリストの作成処理に準ずる。すなわち、ステップS35において、データ処理部59では、該当する時刻情報又は位置情報に対応するビットが1であるか否か判別が行われる。所定ビットが0の場合、ステップS36においてオブジェクトを作成し、オブジェクトリストの最後にここで作成したオブジェクトを登録するとともにアノテーションリストと関連づけしてアノテーションリストに加えて処理を終了する。一方、所定ビットが1の場合、データ処理部59は、ステップS37において、必要に応じてオブジェクトを更新しアノテーションリストを登録し直す。
なお、上述した登録処理では、ユーザによって選択された場所の情報は、ネットワークを介して受信されてもよい。
以上説明したように、情報蓄積装置1は、取得した情報に対する意味づけをユーザが自由に行うことができるインターフェイスとしてアノテーションボタン44を備えることにより、取得した情報を個人に依存したデータとして管理することが可能になる。ユーザは、情報蓄積装置1を携帯することによって自分の経験から得たコンテンツを収集することができ、経験に基づくデータベースが作成されるため、いわゆるインターネットに検索語を入力して情報検索する場合と比べ、蓄積される情報及びコンテンツは、ユーザにとって有益度が高く、ユーザが希望する情報に近い情報になる。情報蓄積装置1は、自動的に取得され、大量に蓄積されるコンテンツを、ユーザによって付加されたアノテーションに基づいて分類することができる。
また、情報蓄積装置1は、アノテーションを検索キーとする串刺し検索を行うこともできる。検索キーワードが入力されなくとも、検索モード時にアノテーションボタン44が選択されると、このアノテーションボタン44を使用して付加されたアノテーションで纏められたコンテンツを抽出することができる。
(2)アノテーションリストに基づいてオブジェクトをユーザに提示する処理
続いて、アノテーションリストに基づいてオブジェクトを検索する処理について、図16乃至図22を用いて説明する。この処理は、本発明の具体例として示す情報蓄積装置1における情報利用フェーズに対応する。
情報蓄積装置1は、検索モードが用意されており、通常は、検索モードが選択されているときには、常に位置情報(場所)と時刻情報(時間)とを検索キーとした検索結果が提示されるようになっている。また、検索モード時にアノテーションボタン44が押下されると、そのアノテーションボタンに割り当てられたアノテーションを検索キーとする検索が実行されるようにしてもよい。本具体例の情報蓄積装置1では、情報検索モードと情報登録モードとが設けられ、ユーザによって検索モードが明示的に選択された場合にのみ検索するようになっている。
オブジェクト及びアノテーションを検索する検索モードの例として、ユーザが検索したいアノテーション条件を指定できる手動検索モードと、時刻情報又は位置情報に基づいてアノテーションリストから共通するアノテーションが付加されたオブジェクトを自動的に抽出する自動検索モードとがある。
自動検索モードについて図16を用いて説明する。情報蓄積装置1における制御部58は、ステップS41としてCCD、GPS等を起動し、ステップS42として現在の位置情報及び時刻情報を取得する。また制御部58は、ステップS43で、操作入力部45においてユーザによって検索モードが選択されたか判別する。検索モードが選択された場合、ステップS44で更に選択されたモードが自動検索モードが否か判別される。手動検索モードが選択された場合の処理は、図19にて説明する。制御部58は、ユーザによって自動選択モードが選択されたことを検出すると、データ処理部59に指示し、データ処理部59は、ステップS42で取得した現在の位置情報及び時刻情報とアノテーションリストの位置情報及び時刻情報とを、ステップS45とステップS46において比較する。
データ処理部59がステップS45において位置情報を比較する処理を図17に示す。データ処理部59は、ステップS451として、ステップS42で取得した現在の位置情報とアノテーションリスト記憶部60に記憶されたアノテーションリストに記述された位置情報とを比較する。ここで、データ処理部59は、場所に対するマッチングは必ずしも現在の位置情報として取得されるGPSデータの緯度経度(x,y)に完全に一致しなくとも、例えば、ある程度の精度範囲、(x+α、y+α)で略一致していれば一致と判断してもよい。
これにより、全く同一の場所でなくとも、アノテーションリストに登録された付近の情報を併せて提示することができる。ステップS452において、データ処理部59は、取得した現在の位置情報に適合する位置情報をもつアノテーションがあると判別した場合、ステップS453として提示用の結果リストを作成し、条件に適合するアノテーションを結果リストに加えてステップS46に移る。ステップS452において適合するアノテーションがない場合にもステップS46に移る。
続いて、データ処理部59がステップS46において位置情報を比較する処理を図18に示す。データ処理部59は、ステップS461として、ステップS42で取得した現在の時刻情報とアノテーションリスト記憶部60に記憶されたアノテーションリストに記述された時刻情報とを比較する。データ処理部59は、時刻で適合データが得られないときには、日、曜日、月で適合する時刻情報を検索する。
また、データ処理部59は、取得した時刻情報に対して、例えば、ある程度の範囲を持たせた値を検索値として、アノテーションリストの時刻情報と比較してもよい。これにより、全く同一時刻でなくとも、アノテーションリストに登録された付近の情報を併せて提示することができる。ステップS462においてデータ処理部59は、適合するアノテーションがないと判別した場合、ステップS463として条件に適合するアノテーションがアノテーションリストに登録されていない旨を返し、ステップS47に移る。一方、データ処理部59は、取得した現在の時刻情報に適合する時刻情報をもつアノテーションがあると判別した場合、ステップS464として提示用の結果リストに適合するアノテーションを加えてステップS47に移る。なお、ここで、ステップS45とステップS46の処理の順序は図16に示す順序に限定されない。
アノテーションリストが複数ある場合、制御部58はステップS47の判別処理を行って、データ処理部59に対して、ステップS45及びステップS46の処理を各アノテーションリストについて繰り返し実行させる。また、検索モード時にユーザに選択されたアノテーションボタンに対するアノテーションリストを検索するようにもできる。制御部58は、全てのアノテーションリストに関して検索が終了すると、ステップS48でユーザに対して結果リストを提示する。
最も原理的なオブジェクトの提示方法は、上述したように、現在情報とアノテーションリストの位置情報及び時刻情報とを比較することによるアノテーションの検索によって実現できるが、例えば、表示部としてのLCD54、操作入力部45等を併用することでより複雑な情報の入力及び提示が可能になる。手動による検索処理について、図19及び図20を用いて説明する。
情報蓄積装置1における制御部58は、図16に示すステップS44において手動検索モードが選択されたことを検出すると、データ処理部59に手動検索モードを実行するよう指示する。図19及び図20に示す検索処理では、アノテーションボタン44及び操作入力部45からのユーザによる操作とその操作に基づくデータ処理部59の動作が示されている。
ステップS51においてユーザによって手動検索モードが選択されると、データ処理部59は、選択による検出信号を受け取り、ステップS52において表示部としてのLCD54に、場所、日時等の選択メニューを提示する。ステップS53において、提示した選択メニューを表したGUIを介して、ユーザから場所を指定するGUIボタンが選択されると、ステップS54において場所が指定される。データ処理部59は、ステップS55において現位置か任意の場所かを選択する選択メニューを表示する。この選択メニューに対して、ステップS56において、提示した選択メニューを表したGUIを介してユーザから場所が選択されるがステップS57において更に詳しい場所の情報が選択されない場合には、図20Aに続くステップS61のステップS611において現在場所を検索キーとしてアノテーションリストが検索される。
また、ステップS56で提示した選択メニューを表したGUIを介してユーザが場所を選択した後、ステップS57において、更に詳しく任意の場所が指定された場合には、データ処理部59は、ステップS58において地図ソフトを起動する。ステップS59においてLCD54上に地図とともに表示されたGUIによってユーザが所望とする場所が指定されると、データ処理部59は、指定された場所情報をステップS60にて受け取る。データ処理部59は、図20Cに続くステップS61のステップS612において指定された場所情報及び時刻を現在の時刻を検索キーとしてアノテーションリストを検索する。
一方、ステップS54においてユーザによって場所が指定されなかった場合、ステップS62において、データ処理部59は、任意の時刻(未来)、翌日以降の同一時間、翌週以降の同一曜日、翌月以降の同一日、翌年以降の同一月、翌年以降の同一月日を選択するための選択メニューを表示する。
データ処理部59は、ステップS63において任意の時刻を入力するメニューを選択すると、ステップS64において任意時刻を入力するための時刻入力用GUIをLCD54に表示する。この入力インターフェイスを介してユーザから時刻が指定されると時刻を認識し、データ処理部59は、図20Cに続くステップS61のステップS612において指定された場所情報及び時刻を現在の時刻を検索キーとしてアノテーションリストを検索する。ステップS63において任意の時刻を入力するメニューが選択されない場合には、データ処理部59は、図20Bに続くステップS61のステップS612において、指定された日時を検索キーとしてアノテーションリストを検索する。
データ処理部59は、ステップS65において検索条件に適合するアノテーションがある場合、ステップS66として結果リストを作成する。結果リストは、ユーザに提示される。適合するアノテーションがない場合には、ステップS67において、データ処理部59は、該当するアノテーションが見つからない旨を表示してステップS52に戻る。
上述したステップS453及びS464で作成される結果リストについて説明する。
図21(a)には位置情報に基づく結果リストが、図21(b)には時刻情報に基づく結果リストが示されている。情報蓄積装置1がアノテーションボタン44を複数備えるタイプであれば、結果リストがアノテーションボタン44に割り当てられたアノテーションの数だけ用意される。ユーザは、操作入力部45によって結果リストに提示されたオブジェクトを選択すると対応するオブジェクトにリンクされ、オブジェクトが再生される。
情報蓄積装置1では、ユーザは、結果リストからアノテーションリスト及びオブジェクトの編集、削除等を行うこともできる。また、情報提供装置1は、オブジェクトが参照された回数をカウントする機能を有する。これにより、情報提供装置1は、結果リストを通じてオブジェクトが利用された際、ユーザによるアノテーションリストの使用状況をリスト内に“利用度”として登録しておくようにしてもよい。
情報蓄積装置1が結果リストを介したユーザから操作入力によりオブジェクトの参照ポインタを付加する処理を図22に示す。
データ処理部59は、ステップS71において、結果リストからオブジェクトが選択されたことを検出すると、ステップS72として、データ処理部59は、確認ボタンが選択されたか否か判別する。確認ボタンが選択された場合、ステップS73において、選択されたオブジェクトを再生するとともに、ステップS74で結果リスト及びこのオブジェクトに対応付けられるアノテーションリストの参照カウンタを+1する。
一方、ステップS72及びステップS75において、データ処理部59は、確認ボタンではなく削除ボタンが選択されたことを検出すると、ステップS76において、ユーザに対して削除を確認するメッセージを提示し、ステップS77において、確認ボタンが選択されたことを検出すると、データ処理部59は、ステップS78において選択されたオブジェクトをオブジェクトリストから削除する。また、オブジェクトに関連付けられたアノテーションリストにおけるアノテーションも削除する。このとき、データベース53に格納された元のコンテンツまで削除される必要はない。
データ処理部59は、ステップS79において、結果リストに他のオブジェクトがある場合には、ステップS71より処理を繰り返す。
このように、検索結果のオブジェクトが表示されたときに、例えば、“参照した(利用した)”ことをカウントできるようにすると、ユーザは、情報処理装置1によって作成されたオブジェクトがどの程度有効活用されていることを知ることができる。
上述した検索処理によれば、情報蓄積装置1は、アノテーションを検索キーとする串刺し検索を行うことができる。また、情報蓄積装置1は、アノテーションボタン44によってアノテーションを付加して管理されているコンテンツがデータベースとなるため、ユーザにとって有益度が高く、ユーザが希望する情報に近い情報を検索することができる。
以上説明したように、情報蓄積装置1によるアノテーションの登録処理とアノテーションの検索処理によれば、例えば、実際には次のことが可能になる。例えば、ユーザがアノテーションボタンを友人の一人に割り当て、この友人に会ったとき、この友人に電話したとき、この友人の話題が出たときなどにアノテーションボタンを押して情報蓄積装置1が取得するコンテンツにアノテーションを付加しておけば、取得されたコンテンツをこの友人で分類しておくことができる。
また、アノテーションボタンは、取得されるコンテンツに対するユーザ独自の目印であるため、例えば、ユーザが過去、12日の17時に取得されるコンテンツにアノテーションを付加しているとき、翌月の12日の17時がくる(又は近づくと)とオブジェクトを再生してユーザの注意を促すようにすることもできる。アノテーションボタンがユーザによって、ユーザの“自分の好きなもの”に対して割り当てられたとすれば、取得されたコンテンツを自動的にこのアノテーションで分類することができる。次回、このアノテーションによって検索される検索結果は、位置情報であれば、これがユーザの“気に入った場所”であるし、検索されたオブジェクトが音楽コンテンツであれば、これがユーザの“気に入った音楽”であるし、検索されたオブジェクトに人が写っていれば、これがユーザの“好きな人物”ということになる。
また、アノテーションボタンがユーザの“失敗”に対して割り当てられたとすれば、取得されたコンテンツを自動的にこのアノテーションで分類することができる。次回、このアノテーションによって検索される検索結果は、位置情報であれば、ユーザが“迷った場所”であるし、検索されたオブジェクトが音楽コンテンツであれば、ユーザが“気に入らなかった音楽”であるし、検索されたオブジェクトに人が写っていれば、ユーザが“失態をしてしまった人物”ということになる。このように、情報蓄積装置1は、取得されるコンテンツをアノテーションによって自動的に分類できる。
1 情報蓄積装置、 10 情報登録部、 11 情報取得部、 12 アノテーション付加部、 13 データ認識処理部、 14 データ定義処理部、 15 データ蓄積部、 16 画像認識部、 17 テキスト処理部、 18 音声処理部、 19 音声認識部、 20 言語処理部、 30 情報利用部、 31 情報取得部、 32 検索入力部、 33 データ認識処理部、 34 検索部、 35 情報提示部 41 GPS、 42 CCDカメラ、 43 マイク、 44 アノテーションボタン、 45 操作入力部、 46 画像認識部、 47 文章認識部、 48 音声認識部、 49 音声認識処理部、 50 言語処理部、 51 キーワード抽出部、 52 データ定義処理部、 53 データベース、 54 LCD、 55 表示用デバイス、 56 スピーカ、 57 音声出力デバイス、 58 制御部、 60 アノテーションリスト記憶部、 61 オブジェクトリスト記憶部