JP2011227710A - Data processor, data processing system, and program - Google Patents
Data processor, data processing system, and program Download PDFInfo
- Publication number
- JP2011227710A JP2011227710A JP2010096980A JP2010096980A JP2011227710A JP 2011227710 A JP2011227710 A JP 2011227710A JP 2010096980 A JP2010096980 A JP 2010096980A JP 2010096980 A JP2010096980 A JP 2010096980A JP 2011227710 A JP2011227710 A JP 2011227710A
- Authority
- JP
- Japan
- Prior art keywords
- facial expression
- image data
- specific person
- image
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、データ処理装置、データ処理システム、及びプログラムに関し、特に、コホーネン型のニューラルネットワークによる自己組織化マップを用いた、データ処理装置、データ処理システム、及びプログラムに関する。 The present invention relates to a data processing device, a data processing system, and a program, and more particularly, to a data processing device, a data processing system, and a program using a self-organizing map by a Kohonen type neural network.
例えば下記特許文献1には、コホーネン型のニューラルネットワークによる自己組織化マップを用いた感情推定装置が開示されている。当該感情推定装置は、表情マップ生成手段、領域区分手段、及び感情推定手段を備えて構成されている。表情マップ生成手段は、「怒り」、「喜び」、「驚き」等の所定の感情に関連付けられた特定人物の表情画像を学習することにより、ニューラルネットワークによる表情マップを生成する。領域区分手段は、表情マップ生成手段が生成した表情マップを、上記所定の感情に基づいて複数の領域に区分する。感情推定手段は、不特定人物の表情画像と、上記複数の領域に区分された表情マップとに基づいて、不特定人物の感情を推定する。
For example,
しかし、上記特許文献1に開示された感情推定装置によると、表情マップ生成手段が表情マップを生成するにあたって、「怒り」、「喜び」、「驚き」等の各々の感情に対応した特定人物の表情画像を予め準備する必要がある。従って、表情画像の撮影時における当該特定人物の精神的負担が大きく、また、撮影時の緊張により表情が不自然となって、正確な表情画像が取得されない可能性もある。
However, according to the emotion estimation apparatus disclosed in
本発明はかかる事情に鑑みて成されたものであり、特定人物の様々な表情画像を当該特定人物に精神的負担をかけることなく取得することにより、自然な表情画像を用いた正確な表情マップを生成することが可能な、データ処理装置、データ処理システム、及びプログラムを得ることを目的とする。 The present invention has been made in view of such circumstances, and an accurate facial expression map using a natural facial expression image is obtained by acquiring various facial expression images of a specific person without placing a mental burden on the specific person. An object of the present invention is to obtain a data processing device, a data processing system, and a program that can generate a program.
本発明の第1の態様に係るデータ処理装置は、人物の表情を撮影した画像データを取得する取得手段と、前記取得手段が取得した画像データに基づいて、特定人物の表情の画像に関するデータを含む表情マップを生成する生成手段と、前記取得手段が取得した画像データが、前記表情マップに既に登録されている前記特定人物の表情の画像に関するデータとは異なる、前記特定人物の新たな表情の画像データであるか否かを判定する判定手段と、前記判定手段が、前記取得手段が取得した画像データが前記特定人物の新たな表情の画像データであると判定した場合に、当該新たな表情の画像に関するデータを前記表情マップに追加登録することにより、前記表情マップを更新する更新手段と、を備えることを特徴とするものである。 According to a first aspect of the present invention, there is provided a data processing apparatus for acquiring image data obtained by photographing a facial expression of a person, and data relating to an image of a specific person's facial expression based on the image data acquired by the acquisition means. A generating means for generating a facial expression map including the image data acquired by the acquiring means is different from data relating to the facial expression image of the specific person already registered in the facial expression map. A determination unit that determines whether the image data is the image data; and the determination unit determines that the image data acquired by the acquisition unit is image data of a new facial expression of the specific person. Update means for updating the facial expression map by additionally registering data relating to the facial image in the facial expression map.
第1の態様に係るデータ処理装置によれば、判定手段は、取得手段が取得した画像データが、表情マップに既に登録されている特定人物の表情の画像に関するデータとは異なる、特定人物の新たな表情の画像データであるか否かを判定する。そして、判定手段が、取得手段が取得した画像データが特定人物の新たな表情の画像データであると判定した場合に、更新手段は、当該新たな表情の画像に関するデータを表情マップに追加登録することにより、表情マップを更新する。従って、特定人物を連続的に撮影しておき、当該特定人物が、表情マップに既に登録されている表情画像とは異なる新たな表情をしたときに、その新たな表情画像を表情マップに追加することができる。その結果、特定人物の様々な表情画像を当該特定人物に精神的負担をかけることなく取得できるため、自然な表情画像を用いた正確な表情マップを生成することが可能となる。 According to the data processing device according to the first aspect, the determination unit is configured to determine whether the image data acquired by the acquisition unit is different from the data related to the facial expression image of the specific person already registered in the facial expression map. It is determined whether or not the image data is a simple expression. When the determination unit determines that the image data acquired by the acquisition unit is image data of a new facial expression of the specific person, the update unit additionally registers data related to the new facial expression image in the facial expression map. As a result, the facial expression map is updated. Therefore, the specific person is continuously photographed, and when the specific person has a new facial expression different from the facial expression image already registered in the facial expression map, the new facial expression image is added to the facial expression map. be able to. As a result, since various facial expression images of a specific person can be acquired without applying a mental burden to the specific person, an accurate facial expression map using a natural facial expression image can be generated.
本発明の第2の態様に係るデータ処理装置は、第1の態様に係るデータ処理装置において特に、前記更新手段は、前記新たな表情の画像に関するデータを前記表情マップに追加登録する場合に、前記表情マップに既に登録されている前記特定人物の表情と、当該新たな表情との中間の表情の画像に関するデータを、さらに前記表情マップに追加登録することを特徴とするものである。 In the data processing device according to the second aspect of the present invention, in particular, in the data processing device according to the first aspect, the update unit adds the data related to the new facial expression image to the facial expression map. Data relating to an image of a facial expression intermediate between the facial expression of the specific person already registered in the facial expression map and the new facial expression is additionally registered in the facial expression map.
第2の態様に係るデータ処理装置によれば、更新手段は、新たな表情の画像に関するデータを表情マップに追加登録する場合に、表情マップに既に登録されている特定人物の表情と、当該新たな表情との中間の表情の画像に関するデータを、さらに表情マップに追加登録する。従って、表情マップに登録される特定人物の表情画像が充実するため、表情マップを用いて人物の認証を行う場合に、認証の精度を向上することが可能となる。 According to the data processing device of the second aspect, when the data relating to the new facial expression image is additionally registered in the facial expression map, the updating means adds the facial expression of the specific person already registered in the facial expression map and the new facial expression. Data related to images of facial expressions in the middle of facial expressions are additionally registered in the facial expression map. Therefore, since the facial expression images of a specific person registered in the facial expression map are enriched, it is possible to improve the accuracy of authentication when performing personal authentication using the facial expression map.
本発明の第3の態様に係るデータ処理装置は、第1又は第2の態様に係るデータ処理装置において特に、前記更新手段が更新した前記表情マップに基づいて、前記取得手段が画像データを取得した人物が前記特定人物に一致するか否かを決定する決定手段をさらに備えることを特徴とするものである。 In the data processing device according to the third aspect of the present invention, in particular, in the data processing device according to the first or second aspect, the acquisition unit acquires image data based on the facial expression map updated by the update unit. It is further characterized by further comprising a determining means for determining whether or not the selected person matches the specific person.
第3の態様に係るデータ処理装置によれば、決定手段は、更新手段が更新した表情マップに基づいて、取得手段が画像データを取得した人物が特定人物に一致するか否かを決定する。更新手段による更新後の表情マップには、既登録の表情画像と新たな表情画像との中間の表情の画像も登録されており、特定人物の表情画像が充実している。そのため、更新後の表情マップを参照することにより、決定手段が人物の一致/不一致を決定する際の決定の精度を向上することが可能となる。 According to the data processing apparatus according to the third aspect, the determining means determines whether or not the person whose image data has been acquired by the acquiring means matches the specific person based on the facial expression map updated by the updating means. In the facial expression map updated by the updating means, an intermediate facial expression image between the registered facial expression image and the new facial expression image is registered, and the facial expression image of the specific person is enriched. Therefore, by referring to the updated facial expression map, it is possible to improve the accuracy of determination when the determination unit determines match / mismatch of a person.
本発明の第4の態様に係るデータ処理装置は、第1〜第3のいずれか一つの態様に係るデータ処理装置において特に、前記特定人物を撮影した際の当該特定人物の感情を推定する推定手段と、前記表情マップに登録されている前記特定人物の複数の表情の画像に関するデータを、前記推定手段が推定した感情ごとに分類する分類手段と、をさらに備えることを特徴とするものである。 In the data processing device according to the fourth aspect of the present invention, in the data processing device according to any one of the first to third aspects, in particular, the estimation for estimating the emotion of the specific person when the specific person is photographed. And classification means for classifying data relating to images of a plurality of facial expressions of the specific person registered in the facial expression map for each emotion estimated by the estimation means. .
第4の態様に係るデータ処理装置によれば、分類手段は、表情マップに登録されている特定人物の複数の表情の画像に関するデータを、推定手段が推定した感情ごとに分類する。従って、取得手段が取得した画像データにおける特定人物の表情が、表情マップ内のどの感情領域の表情画像に一致又は最も類似しているかによって、特定人物の感情を特定することが可能となる。 According to the data processing device of the fourth aspect, the classifying unit classifies the data related to the plurality of facial expression images of the specific person registered in the facial expression map for each emotion estimated by the estimating unit. Therefore, it is possible to specify the emotion of the specific person depending on which emotional area in the facial expression map the facial expression of the specific person in the image data acquired by the acquisition means matches or is most similar.
本発明の第5の態様に係るデータ処理装置は、第4の態様に係るデータ処理装置において特に、前記特定人物は、テレビゲームのプレーヤーであり、前記推定手段は、前記特定人物を撮影した時点における前記テレビゲームの進行又は結果の状況に基づいて、前記特定人物の感情を推定することを特徴とするものである。 A data processing device according to a fifth aspect of the present invention is the data processing device according to the fourth aspect, in particular, the specific person is a video game player, and the estimating means captures the specific person at a time The emotion of the specific person is estimated based on the progress or result of the video game.
第5の態様に係るデータ処理装置によれば、推定手段は、特定人物を撮影した時点におけるテレビゲームの進行又は結果の状況に基づいて、特定人物の感情を推定する。従って、テレビゲームの進行又は結果の状況を参照するという簡易な手法によって、特定人物の感情を容易に推定することが可能となる。 According to the data processing device of the fifth aspect, the estimating means estimates the emotion of the specific person based on the progress or result of the video game at the time when the specific person was photographed. Therefore, the emotion of a specific person can be easily estimated by a simple method of referring to the progress of the video game or the result situation.
本発明の第6の態様に係るデータ処理装置は、第5の態様に係るデータ処理装置において特に、前記特定人物を撮影した時点における前記テレビゲームの進行又は結果の状況と、当該時点に対応して前記推定手段が推定した前記特定人物の感情と、前記表情マップに基づいて特定された当該時点における前記特定人物の感情とに基づいて、前記テレビゲームの進行の条件を設定する設定手段をさらに備えることを特徴とするものである。 The data processing device according to the sixth aspect of the present invention, in the data processing device according to the fifth aspect, particularly corresponds to the progress or result of the video game at the time of shooting the specific person and the time. Setting means for setting conditions for the progress of the video game based on the emotion of the specific person estimated by the estimation means and the emotion of the specific person at the time specified based on the facial expression map It is characterized by comprising.
第6の態様に係るデータ処理装置によれば、設定手段は、特定人物を撮影した時点におけるテレビゲームの進行又は結果の状況と、当該時点に対応して推定手段が推定した特定人物の感情と、表情マップに基づいて特定された当該時点における特定人物の感情とに基づいて、テレビゲームの進行の条件を設定する。従って、プレーヤーの感情を考慮することによって、テレビゲームのその後のシナリオ展開や難易度レベルを設定することができる。その結果、プレーヤーの技量等に応じてシナリオ展開や難易度レベルを自動設定することが可能なテレビゲームを得ることができる。 According to the data processing device of the sixth aspect, the setting means includes the progress or result of the video game at the time when the specific person was photographed, and the emotion of the specific person estimated by the estimating means corresponding to the time. Based on the emotion of the specific person at the time specified based on the facial expression map, a condition for progressing the video game is set. Therefore, the scenario development and difficulty level of the video game can be set by considering the player's emotion. As a result, it is possible to obtain a video game in which scenario development and difficulty level can be automatically set according to the skill of the player.
本発明の第7の態様に係るデータ処理システムは、撮影装置と、データ処理装置と、を備え、前記データ処理装置は、人物の表情を撮影した画像データを前記撮影装置から取得する取得手段と、前記取得手段が取得した画像データに基づいて、特定人物の表情の画像に関するデータを含む表情マップを生成する生成手段と、前記取得手段が取得した画像データが、前記表情マップに既に登録されている前記特定人物の表情の画像に関するデータとは異なる、前記特定人物の新たな表情の画像データであるか否かを判定する判定手段と、前記判定手段が、前記取得手段が取得した画像データが前記特定人物の新たな表情の画像データであると判定した場合に、当該新たな表情の画像に関するデータを前記表情マップに追加登録することにより、前記表情マップを更新する更新手段と、を有することを特徴とするものである。 A data processing system according to a seventh aspect of the present invention includes a photographing device and a data processing device, and the data processing device obtains image data obtained by photographing a facial expression of a person from the photographing device; Generating means for generating an expression map including data relating to an expression image of a specific person based on the image data acquired by the acquiring means; and the image data acquired by the acquiring means is already registered in the expression map. Determining means for determining whether or not the image data of a new facial expression of the specific person is different from data relating to the facial expression image of the specific person, and the image data acquired by the acquisition means is determined by the determining means. When it is determined that it is image data of a new facial expression of the specific person, by additionally registering data related to the image of the new facial expression in the facial expression map, And updating means for updating the serial expression maps, it is characterized in that it has a.
第7の態様に係るデータ処理システムによれば、判定手段は、取得手段が取得した画像データが、表情マップに既に登録されている特定人物の表情の画像に関するデータとは異なる、特定人物の新たな表情の画像データであるか否かを判定する。そして、判定手段が、取得手段が取得した画像データが特定人物の新たな表情の画像データであると判定した場合に、更新手段は、当該新たな表情の画像に関するデータを表情マップに追加登録することにより、表情マップを更新する。従って、特定人物を連続的に撮影しておき、当該特定人物が、表情マップに既に登録されている表情画像とは異なる新たな表情をしたときに、その新たな表情画像を表情マップに追加することができる。その結果、特定人物の様々な表情画像を当該特定人物に精神的負担をかけることなく取得できるため、自然な表情画像を用いた正確な表情マップを生成することが可能となる。 According to the data processing system of the seventh aspect, the determining unit is configured to determine whether the image data acquired by the acquiring unit is different from the data related to the facial expression image of the specific person already registered in the facial expression map. It is determined whether or not the image data is a simple expression. When the determination unit determines that the image data acquired by the acquisition unit is image data of a new facial expression of the specific person, the update unit additionally registers data related to the new facial expression image in the facial expression map. As a result, the facial expression map is updated. Therefore, the specific person is continuously photographed, and when the specific person has a new facial expression different from the facial expression image already registered in the facial expression map, the new facial expression image is added to the facial expression map. be able to. As a result, since various facial expression images of a specific person can be acquired without applying a mental burden to the specific person, an accurate facial expression map using a natural facial expression image can be generated.
本発明の第8の態様に係るプログラムは、データ処理装置に搭載されるコンピュータを、人物の表情を撮影した画像データを取得する取得手段と、前記取得手段が取得した画像データに基づいて、特定人物の表情の画像に関するデータを含む表情マップを生成する生成手段と、前記取得手段が取得した画像データが、前記表情マップに既に登録されている前記特定人物の表情の画像に関するデータとは異なる、前記特定人物の新たな表情の画像データであるか否かを判定する判定手段と、前記判定手段が、前記取得手段が取得した画像データが前記特定人物の新たな表情の画像データであると判定した場合に、当該新たな表情の画像に関するデータを前記表情マップに追加登録することにより、前記表情マップを更新する更新手段と、として機能させることを特徴とするものである。 A program according to an eighth aspect of the present invention specifies a computer mounted on a data processing device based on acquisition means for acquiring image data obtained by photographing a facial expression of a person, and image data acquired by the acquisition means. Generating means for generating a facial expression map including data relating to a facial expression image of a person, and image data acquired by the acquiring means is different from data relating to the facial expression image of the specific person already registered in the facial expression map; A determination unit that determines whether or not the image data is a new facial expression of the specific person, and the determination unit determines that the image data acquired by the acquisition unit is image data of a new facial expression of the specific person And updating means for updating the facial expression map by additionally registering data related to the new facial expression image in the facial expression map. It is characterized in that to ability.
第8の態様に係るプログラムによれば、判定手段は、取得手段が取得した画像データが、表情マップに既に登録されている特定人物の表情の画像に関するデータとは異なる、特定人物の新たな表情の画像データであるか否かを判定する。そして、判定手段が、取得手段が取得した画像データが特定人物の新たな表情の画像データであると判定した場合に、更新手段は、当該新たな表情の画像に関するデータを表情マップに追加登録することにより、表情マップを更新する。従って、特定人物を連続的に撮影しておき、当該特定人物が、表情マップに既に登録されている表情画像とは異なる新たな表情をしたときに、その新たな表情画像を表情マップに追加することができる。その結果、特定人物の様々な表情画像を当該特定人物に精神的負担をかけることなく取得できるため、自然な表情画像を用いた正確な表情マップを生成することが可能となる。 According to the program according to the eighth aspect, the determining means has the new facial expression of the specific person whose image data acquired by the acquiring means is different from the data related to the facial expression image of the specific person already registered in the facial expression map. It is determined whether or not the image data. When the determination unit determines that the image data acquired by the acquisition unit is image data of a new facial expression of the specific person, the update unit additionally registers data related to the new facial expression image in the facial expression map. As a result, the facial expression map is updated. Therefore, the specific person is continuously photographed, and when the specific person has a new facial expression different from the facial expression image already registered in the facial expression map, the new facial expression image is added to the facial expression map. be able to. As a result, since various facial expression images of a specific person can be acquired without applying a mental burden to the specific person, an accurate facial expression map using a natural facial expression image can be generated.
本発明によれば、特定人物の様々な表情画像を当該特定人物に精神的負担をかけることなく取得することにより、自然な表情画像を用いた正確な表情マップを生成することが可能な、データ処理装置、データ処理システム、及びプログラムを得ることができる。 According to the present invention, it is possible to generate an accurate facial expression map using a natural facial expression image by acquiring various facial expression images of the specific person without placing a mental burden on the specific person. A processing device, a data processing system, and a program can be obtained.
以下、本発明の実施の形態について、図面を用いて詳細に説明する。なお、異なる図面において同一の符号を付した要素は、同一又は相応する要素を示すものとする。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, the element which attached | subjected the same code | symbol in different drawing shall show the same or corresponding element.
図1は、本発明の実施の形態に係るデータ処理システム1の全体構成を模式的に示す図である。データ処理システム1は、CCDカメラ等の撮影装置2と、テレビゲーム機の本体等のデータ処理装置3とを備えて構成されている。撮影装置2は、液晶テレビ等のモニタ4上に取り付けられており、テレビゲームのプレーヤー100を連続的に撮影する。データ処理装置3は、有線又は無線によって、撮影装置2、モニタ4、及びテレビゲーム機のコントローラ5との間でデータ通信を行うことが可能である。
FIG. 1 is a diagram schematically showing an overall configuration of a
図2は、データ処理装置3の構成を示すブロック図である。データ処理装置3は、通信部10と、CPU等の処理部11と、半導体メモリ又はハードディスク等の任意の記憶媒体を有する記憶部12とを備えて構成されている。通信部10は、撮影装置2、モニタ4、及びコントローラ5との間でデータ通信を行う。処理部11は、テレビゲームの進行に関わる処理等を行うゲーム処理部20と、人物の認証に関わる処理等を行う認証処理部21とを有している。記憶部12には、ゲームプログラム22と認証プログラム23とが記憶されている。処理部11が記憶部12からゲームプログラム22を読み出して実行することにより、処理部11はゲーム処理部20として機能する。また、処理部11が記憶部12から認証プログラム23を読み出して実行することにより、処理部11は認証処理部21として機能する。
FIG. 2 is a block diagram showing the configuration of the
図3は、認証処理部21の機能構成を示すブロック図である。図3の接続関係で示すように、認証処理部21は、取得部30、加工部31、表情マップ処理部32、判定部33、決定部34、推定部35、及び設定部36を備えて構成されている。表情マップ処理部32は、生成部37、更新部38、及び分類部39を有している。記憶部12には、表情マップ40が記憶されている。
FIG. 3 is a block diagram illustrating a functional configuration of the
図4は、認証処理部21が行う処理の概要を示す図である。図3,4を参照して、取得部30は、撮影装置2が撮影したプレーヤー100を含む画像データ50を、通信部10から取得する。撮影装置2はプレーヤー100を連続的に撮影しているため、取得部30は、画像データ50を通信部10から連続的に取得する。画像データ50は、信号S1として取得部30から加工部31に入力される。
FIG. 4 is a diagram showing an outline of the processing performed by the
加工部31は、二値化、エッジ抽出、及びアフィン変換等の周知の手法を用いることにより、画像データ50の中から人物の顔部分を抽出する。また、加工部31は、抽出した顔部分の画像をニューラルネットワークに対する入力画像として使用できるように、当該顔部分の画像を所定サイズに圧縮することにより、人物の表情画像に関する画像データ51を生成する。画像データ51は、信号S2として加工部31から表情マップ処理部32、判定部33、及び決定部34に入力される。
The
表情マップ処理部32は、コホーネン型のニューラルネットワークを用いて構成されており、ニューラルネットワークの入力ユニットに入力された画像データ51に基づいて、自己組織化マップである表情マップ40の生成、更新、及び分類を含む処理を実行する。表情マップ処理部32が実行する処理内容の詳細については後述する。表情マップ40は、ニューラルネットワークの複数の出力ユニット62の集合として構成されており、各出力ユニット62に、プレーヤー100の表情画像が一つ表れる。図4では図面の簡略化のためプレーヤー100の表情を統一して図示しているが、実際には、表情マップ40には、プレーヤー100の様々な表情画像に対応する画像データ52が含まれることとなる。
The expression
図5は、コホーネン型のニューラルネットワークの構成を示す図である。コホーネン型のニューラルネットワークは、複数の入力ユニット60を含む入力層と、複数の出力ユニット62を含む出力層とを備えている。図5では、入力ユニット60の横方向及び縦方向の座標をそれぞれ「k」,「l」で表し、出力ユニット62の横方向及び縦方向の座標をそれぞれ「i」,「j」で表している。コホーネン型のニューラルネットワークでは、初めに、各入力ユニット−各出力ユニット間の重み付け値Wijklとして、小さなランダム値が与えられている。入力画像xklが入力されると、その画像データ51の各画素値(例えば輝度値)は、対応する入力ユニット60にそれぞれ入力される。下記式(1)に基づいて入力画像との類似度uijが全ての出力ユニットに関して求められ、類似度uijが最も高い出力ユニットが類似度最大ユニットとされる。そして、類似度最大ユニットを中心とした所定の学習半径ds内に含まれる複数の出力ユニットの各画素値が、入力画像xklに近づくように、下記式(2)に基づいて関連箇所の重み付け値Wijklが修正される。ここで、重み付け値Wijklの更新には下記式(3)が用いられ、学習係数α(t)の更新には下記式(4)が用いられる。なお、di及びdjはそれぞれ、類似度最大ユニットから更新する重みまでのi方向及びj方向の距離(ds>di,ds>dj)であり、Tは総学習回数であり、tは現在の学習回数であり、Xは任意の変数である。
FIG. 5 is a diagram illustrating a configuration of a Kohonen type neural network. The Kohonen type neural network includes an input layer including a plurality of
図6は、図3に示した生成部37による表情マップ40の生成処理を示す図である。プレーヤー100が登録されていない初期段階においては、表情マップ40の各ノード(つまり各出力ユニット62)は乱数を用いて初期化されている。プレーヤー100の登録が指示されると、生成部37には、撮影装置2によって撮影された画像データ50に基づいて生成された画像データ51が、加工部31から入力される。この画像データ51には、プレーヤー100の任意の表情画像(例えば無表情の画像)が含まれている。生成部37は、入力された画像データ51と同一の画像データ52Aを、表情マップ40の所定のノードに登録する。その際、予め設定された学習半径に応じて、その周囲のノードにおいても同じ画像データ52Aが登録される。図6に示した例では、表情マップ40の領域A1内に含まれるノードに画像データ52Aが登録される。換言すれば、領域A1内に含まれるノードに画像データ51と同一の画像データ52Aが表れるように、ニューラルネットワークの関連箇所の重み付け値Wが設定される。
FIG. 6 is a diagram showing a generation process of the
プレーヤー100がテレビゲームを続けている間、撮影装置2はプレーヤー100を連続的に撮影している。従って、加工部31はプレーヤー100の様々な表情画像を含む画像データ51を連続的に出力し、これらの画像データ51は加工部31から判定部33に入力される。
While the
図7は、図3に示した判定部33による判定処理を示す図である。判定部33には、画像データ51が信号S2として加工部31から入力されるともに、表情マップ40が信号S4として記憶部12から入力される。判定部33は、表情マップ40に既に登録されている画像データ52のうち、加工部31から入力された画像データ51に最も類似度の高い画像データ52Mを特定する。そして、判定部33は、画像データ51と画像データ52Mとの類似度Nが閾値Th1以上である場合には、画像データ51と画像データ52Mとは実質的に同一であるとみなして、表情マップ40の更新(詳細は後述する)を行わない。また、判定部33は、類似度Nが閾値Th2以上かつ閾値Th1未満である場合には、画像データ51にはプレーヤー100の新たな表情画像が含まれているとみなして、表情マップ40の更新を指示する更新命令信号S5を更新部38に入力する。また、判定部33は、類似度Nが閾値Th2未満である場合には、画像データ51にはプレーヤー100とは別人の表情画像が含まれているとみなして、表情マップ40の更新を行わない。
FIG. 7 is a diagram illustrating a determination process performed by the
図8は、図3に示した更新部38による表情マップ40の更新処理を示す図である。更新命令信号S5が判定部33から入力されると、更新部38は、加工部31から入力された画像データ51と同一の画像データ52Bを、表情マップ40に追加登録する。その際、上記と同様に、予め設定された学習半径に応じて、その周囲のノードにおいても同じ画像データ52Bが登録される。図8に示した例では、表情マップ40の領域A2内に含まれるノードに画像データ52Bが登録される。また、領域A1と領域A2とが重複する重複エリアにおいては、画像データ52Aと画像データ52Bとが互いに融合した(混ざり合った)画像データが登録される。例えば、画像データ52Aにおけるプレーヤー100の表情が無表情であり、画像データ52Bにおけるプレーヤー100の表情が笑顔であった場合には、無表情と笑顔との中間の表情の画像データが、当該重複エリアに登録される。
FIG. 8 is a diagram showing an update process of the
プレーヤー100の新たな表情画像を含む画像データ51が入力される度に、判定部33は、更新命令信号S5を更新部38に入力し、更新部38は、新たな表情の画像データ、及び、新たな表情と既登録の表情との中間の表情の画像データを、表情マップ40に追加登録する。これにより、プレーヤー100がテレビゲームの続行中に新たな表情を見せる度に、プレーヤー100の様々な表情画像を含む画像データ52が表情マップ40に自動的に蓄積され、表情マップ40が充実化する。
Each
次回以降のテレビゲームの起動時には、記憶部12に記憶されているその時点での最新の表情マップ40を用いて、プレーヤー100の認証等が行われる。図3を参照して、起動時に撮影装置2によって撮影されたプレーヤー100の画像データ50が、信号S1として取得部30から加工部31に入力される。決定部34には、画像データ50に基づいて生成された画像データ51が、信号S2として加工部31から入力される。また、決定部34には、表情マップ40が信号S4として記憶部12から入力される。決定部34は、表情マップ40に登録されている様々な表情画像の画像データ52のうち、加工部31から入力された画像データ51に最も類似度の高い画像データ52Mを特定する。そして、決定部34は、画像データ51と画像データ52Mとの類似度が所定の閾値以上である場合には、撮影装置2によって撮影された人物は、表情マップ40に登録されているプレーヤー100と同一人物であるとみなして、認証結果を「成功」とする。この場合、テレビゲームの進行に関する得点履歴や進行状況等の種々のパラメータ値が、記憶部12に保存されているプレーヤー100の設定値に自動的に設定される。一方、決定部34は、画像データ51と画像データ52Mとの類似度が当該閾値未満である場合には、撮影装置2によって撮影された人物は、表情マップ40に登録されているプレーヤー100とは別人であるとみなして、認証結果を「失敗」とする。
When the video game is started after the next time, the
図3を参照して、推定部35には、テレビゲームの進行又は結果の状況を示す信号S6が、図2に示したゲーム処理部20から入力される。推定部35は、信号S6に基づいて、テレビゲームの進行又は結果の状況に応じたプレーヤー100の感情を推定する。例えば、ハイスコアを更新した場合や、対戦型ゲームにおいて対戦相手に勝利した場合等には、プレーヤー100の感情は「喜び」であると推定する。また、ホラーゲーム等においてプレーヤーを驚かせる演出を行った場合には、プレーヤー100の感情は「驚き」であると推定する。推定部35は、推定したプレーヤー100の感情を示す信号S7を表情マップ処理部32に入力する。
Referring to FIG. 3, a signal S <b> 6 indicating the progress or result of the video game is input to the
分類部39は、生成部37又は更新部38が画像データ52を表情マップ40に登録する際に、プレーヤー100を撮影した瞬間におけるプレーヤー100の感情の推定結果に基づいて、画像データ52に含まれるプレーヤー100の表情画像と、プレーヤー100の感情とを関連付ける。これにより、表情マップ40における複数の画像データ52を、プレーヤー100の感情ごとに分類する。図9は、感情ごとに分類された表情マップ40を示す図である。例えば、領域B1には「喜び」の感情に関連付けられた複数の表情画像の画像データが登録されており、領域B2には「悲しみ」の感情に関連付けられた複数の表情画像の画像データが登録されている。領域B3〜B6についても同様に、プレーヤー100の表情画像の画像データが、プレーヤー100の感情ごとに分類されて各領域に登録されている。
The
図3を参照して、設定部36には、テレビゲームの進行又は結果の状況を示す信号S6がゲーム処理部20から入力されるとともに、プレーヤー100の感情の推定結果を示す信号S7が推定部35から入力される。また、設定部36には、図9に示した表情マップ40に基づいて特定されたプレーヤー100の感情を示す信号S8が、表情マップ処理部32から入力される。ここで、表情マップ処理部32は、表情マップ40に登録されている様々な表情画像の画像データ52のうち、加工部31から入力された画像データ51に最も類似度の高い画像データ52Mを特定し、その画像データ52Mがどの領域B1〜B6に属しているかによって、プレーヤー100の感情を特定する。例えば、画像データ52Mが領域B1に属している場合には、プレーヤー100の感情は「喜び」であると特定する。
Referring to FIG. 3, a signal S6 indicating the progress or result of the video game is input from the
設定部36は、入力されたこれらの信号S6〜S8に基づいて、テレビゲームの進行の条件を可変に設定する。例えば、対戦型ゲームでプレーヤー100がコンピュータとの対戦に敗れた状況において、その際に特定したプレーヤー100の感情が極度の「悲しみ」である場合には、次回の対戦においてはコンピュータの戦力レベルを今回より低く設定する。また、ホラーゲーム等においてプレーヤーを驚かせる演出を行ったにも拘わらず、特定したプレーヤー100の感情が「驚き」でなかった場合には、プレーヤーが次に進むシーンのシナリオを、プレーヤーを驚かせる演出が今回のものよりも過激なシナリオに設定する。同一のシーンに対して複数のシナリオを準備しておき、設定部36が複数のシナリオの中から一のシナリオを選択することにより、これを実現することができる。
The setting
なお、以上の説明では、モニタ4上にゲーム映像を表示させるテレビゲームを例にとって本発明の内容を述べたが、この例に限らず、カメラ機能を備える携帯電話等の携帯端末を用いて、携帯端末の画面上にゲーム映像を表示させる場合にも、テレビゲームと同様に本発明を適用可能である。
In the above description, the content of the present invention has been described by taking a video game for displaying a game video on the
また、以上の説明では、表情マップ40に画像データを登録する例について述べたが、記憶データ量を削減すべく、画像データの代わりに、両目間の間隔や両目と鼻との位置関係等の人物の顔の特徴を数値化したデータを、表情マップ40に登録してもよい。あるいは、認証の精度を向上すべく、画像データを用いた表情マップと、数値化データを用いた表情マップとを併用してもよい。
In the above description, the example in which image data is registered in the
本実施の形態に係るデータ処理装置3によれば、判定部33は、取得部30が取得した画像データが、表情マップ40に既に登録されているプレーヤー100の表情画像とは異なる、プレーヤー100の新たな表情画像であるか否かを判定する。そして、判定部33が、取得部30が取得した画像データがプレーヤー100の新たな表情画像であると判定した場合に、更新部38は、当該新たな表情画像を表情マップ40に追加登録することにより、表情マップ40を更新する。従って、プレーヤー100を連続的に撮影しておき、プレーヤー100が、表情マップ40に既に登録されている表情画像とは異なる新たな表情をしたときに、その新たな表情画像を表情マップ40に追加することができる。その結果、プレーヤー100の様々な表情画像を、プレーヤー100に精神的負担をかけることなく取得できるため、自然な表情画像を用いた正確な表情マップ40を生成することが可能となる。
According to the
また、本実施の形態に係るデータ処理装置3によれば、更新部38は、新たな表情画像を表情マップ40に追加登録する場合に、表情マップ40に既に登録されているプレーヤー100の表情と、当該新たな表情との中間の表情画像を、表情マップ40に追加登録する。従って、表情マップ40に登録されるプレーヤー100の表情画像が充実するため、表情マップ40を用いて人物の認証を行う場合に、認証の精度を向上することが可能となる。
In addition, according to the
また、本実施の形態に係るデータ処理装置3によれば、決定部34は、更新部38が更新した表情マップ40に基づいて、取得部30が画像データを取得した人物がプレーヤー100に一致するか否かを決定する。更新部38による更新後の表情マップ40には、既登録の表情画像と新たな表情画像との中間の表情画像も登録されており、プレーヤー100の表情画像が充実している。そのため、更新後の表情マップ40を参照することにより、決定部34が人物の一致/不一致を決定する際の決定の精度を向上することが可能となる。
Further, according to the
また、本実施の形態に係るデータ処理装置3によれば、分類部39は、表情マップ40に登録されているプレーヤー100の複数の表情画像を、推定部35が推定した感情ごとに分類する。従って、取得部30が取得した画像データにおけるプレーヤー100の表情が、表情マップ40内のどの感情領域の表情画像に一致又は最も類似しているかによって、プレーヤー100の感情を特定することが可能となる。
Further, according to the
また、本実施の形態に係るデータ処理装置3によれば、推定部35は、プレーヤー100を撮影した時点におけるテレビゲームの進行又は結果の状況に基づいて、プレーヤー100の感情を推定する。従って、テレビゲームの進行又は結果の状況を参照するという簡易な手法によって、プレーヤー100の感情を容易に推定することが可能となる。
Further, according to the
また、本実施の形態に係るデータ処理装置3によれば、設定部36は、プレーヤー100を撮影した時点におけるテレビゲームの進行又は結果の状況と、当該時点に対応して推定部35が推定したプレーヤー100の感情と、表情マップ40に基づいて表情マップ処理部32によって特定された当該時点におけるプレーヤー100の感情とに基づいて、テレビゲームの進行の条件を設定する。従って、プレーヤー100の感情を考慮することによって、テレビゲームのその後のシナリオ展開や難易度レベルを設定することができる。その結果、プレーヤーの技量等に応じてシナリオ展開や難易度レベルを自動設定することが可能なテレビゲームを得ることができる。
Further, according to the
1 データ処理システム
2 撮影装置
3 データ処理装置
11 処理部
12 記憶部
20 ゲーム処理部
21 認証処理部
22 ゲームプログラム
23 認証プログラム
30 取得部
31 加工部
32 表情マップ処理部
33 判定部
34 決定部
35 推定部
36 設定部
37 生成部
38 更新部
39 分類部
40 表情マップ
51,52 画像データ
DESCRIPTION OF
Claims (8)
前記取得手段が取得した画像データに基づいて、特定人物の表情の画像に関するデータを含む表情マップを生成する生成手段と、
前記取得手段が取得した画像データが、前記表情マップに既に登録されている前記特定人物の表情の画像に関するデータとは異なる、前記特定人物の新たな表情の画像データであるか否かを判定する判定手段と、
前記判定手段が、前記取得手段が取得した画像データが前記特定人物の新たな表情の画像データであると判定した場合に、当該新たな表情の画像に関するデータを前記表情マップに追加登録することにより、前記表情マップを更新する更新手段と、
を備える、データ処理装置。 An acquisition means for acquiring image data obtained by photographing a facial expression of a person;
Generating means for generating a facial expression map including data relating to the facial expression image of the specific person based on the image data acquired by the acquiring means;
It is determined whether the image data acquired by the acquisition unit is image data of a new facial expression of the specific person that is different from data related to the facial expression image of the specific person already registered in the facial expression map. A determination means;
When the determination unit determines that the image data acquired by the acquisition unit is image data of a new facial expression of the specific person, by additionally registering data related to the new facial expression image in the facial expression map Updating means for updating the facial expression map;
A data processing apparatus.
をさらに備える、請求項1又は2に記載のデータ処理装置。 The determination unit according to claim 1, further comprising: a determination unit that determines whether or not a person whose image data has been acquired by the acquisition unit matches the specific person based on the facial expression map updated by the update unit. Data processing device.
前記表情マップに登録されている前記特定人物の複数の表情の画像に関するデータを、前記推定手段が推定した感情ごとに分類する分類手段と、
をさらに備える、請求項1〜3のいずれか一つに記載のデータ処理装置。 Estimating means for estimating an emotion of the specific person when the specific person is photographed;
Classification means for classifying data relating to images of a plurality of facial expressions of the specific person registered in the facial expression map for each emotion estimated by the estimation means;
The data processing device according to claim 1, further comprising:
前記推定手段は、前記特定人物を撮影した時点における前記テレビゲームの進行又は結果の状況に基づいて、前記特定人物の感情を推定する、請求項4に記載のデータ処理装置。 The specific person is a video game player,
The data processing apparatus according to claim 4, wherein the estimation unit estimates an emotion of the specific person based on a progress or result of the video game at the time when the specific person is photographed.
をさらに備える、請求項5に記載のデータ処理装置。 The progress or result of the video game at the time of shooting the specific person, the emotion of the specific person estimated by the estimating means corresponding to the time, and the time specified based on the facial expression map The data processing apparatus according to claim 5, further comprising setting means for setting a condition for progress of the video game based on the emotion of the specific person.
データ処理装置と、
を備え、
前記データ処理装置は、
人物の表情を撮影した画像データを前記撮影装置から取得する取得手段と、
前記取得手段が取得した画像データに基づいて、特定人物の表情の画像に関するデータを含む表情マップを生成する生成手段と、
前記取得手段が取得した画像データが、前記表情マップに既に登録されている前記特定人物の表情の画像に関するデータとは異なる、前記特定人物の新たな表情の画像データであるか否かを判定する判定手段と、
前記判定手段が、前記取得手段が取得した画像データが前記特定人物の新たな表情の画像データであると判定した場合に、当該新たな表情の画像に関するデータを前記表情マップに追加登録することにより、前記表情マップを更新する更新手段と、
を有する、データ処理システム。 A photographing device;
A data processing device;
With
The data processing device includes:
Obtaining means for obtaining image data obtained by photographing a facial expression of a person from the photographing device;
Generating means for generating a facial expression map including data relating to the facial expression image of the specific person based on the image data acquired by the acquiring means;
It is determined whether the image data acquired by the acquisition unit is image data of a new facial expression of the specific person that is different from data related to the facial expression image of the specific person already registered in the facial expression map. A determination means;
When the determination unit determines that the image data acquired by the acquisition unit is image data of a new facial expression of the specific person, by additionally registering data related to the new facial expression image in the facial expression map Updating means for updating the facial expression map;
A data processing system.
人物の表情を撮影した画像データを取得する取得手段と、
前記取得手段が取得した画像データに基づいて、特定人物の表情の画像に関するデータを含む表情マップを生成する生成手段と、
前記取得手段が取得した画像データが、前記表情マップに既に登録されている前記特定人物の表情の画像に関するデータとは異なる、前記特定人物の新たな表情の画像データであるか否かを判定する判定手段と、
前記判定手段が、前記取得手段が取得した画像データが前記特定人物の新たな表情の画像データであると判定した場合に、当該新たな表情の画像に関するデータを前記表情マップに追加登録することにより、前記表情マップを更新する更新手段と、
として機能させる、プログラム。
A computer installed in a data processing device
An acquisition means for acquiring image data obtained by photographing a facial expression of a person;
Generating means for generating a facial expression map including data relating to the facial expression image of the specific person based on the image data acquired by the acquiring means;
It is determined whether the image data acquired by the acquisition unit is image data of a new facial expression of the specific person that is different from data related to the facial expression image of the specific person already registered in the facial expression map. A determination means;
When the determination unit determines that the image data acquired by the acquisition unit is image data of a new facial expression of the specific person, by additionally registering data related to the new facial expression image in the facial expression map Updating means for updating the facial expression map;
A program that functions as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010096980A JP2011227710A (en) | 2010-04-20 | 2010-04-20 | Data processor, data processing system, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010096980A JP2011227710A (en) | 2010-04-20 | 2010-04-20 | Data processor, data processing system, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011227710A true JP2011227710A (en) | 2011-11-10 |
Family
ID=45042979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010096980A Pending JP2011227710A (en) | 2010-04-20 | 2010-04-20 | Data processor, data processing system, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011227710A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08191955A (en) * | 1994-11-18 | 1996-07-30 | Amtex:Kk | Game or game facility controlled by living body information |
JP2005346471A (en) * | 2004-06-03 | 2005-12-15 | Canon Inc | Information processing method and apparatus |
JP2008146318A (en) * | 2006-12-08 | 2008-06-26 | Toyota Infotechnology Center Co Ltd | Emotion estimation apparatus |
JP2010055594A (en) * | 2008-07-31 | 2010-03-11 | Nec Software Kyushu Ltd | Traffic line management system and program |
-
2010
- 2010-04-20 JP JP2010096980A patent/JP2011227710A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08191955A (en) * | 1994-11-18 | 1996-07-30 | Amtex:Kk | Game or game facility controlled by living body information |
JP2005346471A (en) * | 2004-06-03 | 2005-12-15 | Canon Inc | Information processing method and apparatus |
JP2008146318A (en) * | 2006-12-08 | 2008-06-26 | Toyota Infotechnology Center Co Ltd | Emotion estimation apparatus |
JP2010055594A (en) * | 2008-07-31 | 2010-03-11 | Nec Software Kyushu Ltd | Traffic line management system and program |
Non-Patent Citations (1)
Title |
---|
道端 正裕: "SOMとその応用", 日本ファジィ学会誌, vol. 第14巻 第2号, JPN6013060805, 15 April 2002 (2002-04-15), JP, pages 147 - 156, ISSN: 0002701005 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6961797B2 (en) | Methods and devices for blurring preview photos and storage media | |
US9858680B2 (en) | Image processing device and imaging apparatus | |
JP2019028843A (en) | Information processing apparatus for estimating person's line of sight and estimation method, and learning device and learning method | |
CN109299658B (en) | Face detection method, face image rendering device and storage medium | |
JP6822482B2 (en) | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium | |
JPWO2019003973A1 (en) | Face authentication device, face authentication method and program | |
JP2019023785A (en) | Person identification device and program | |
JP6969878B2 (en) | Discriminator learning device and discriminator learning method | |
JP5937823B2 (en) | Image collation processing apparatus, image collation processing method, and image collation processing program | |
JP2005149370A (en) | Imaging device, personal authentication device and imaging method | |
JP2013200735A (en) | Image generation device, image generation method, and program | |
JP2009054052A (en) | Face authentication device | |
US9323981B2 (en) | Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored | |
JP2019046239A (en) | Image processing apparatus, image processing method, program, and image data for synthesis | |
JP2003132339A (en) | Face image recognition device and method | |
KR101121712B1 (en) | Providing device of eye scan path | |
JP2020052788A (en) | Image processing system and method therefor, and program | |
JP6544970B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM | |
CN112287792A (en) | Method and device for collecting face image and electronic equipment | |
CN110766631A (en) | Face image modification method and device, electronic equipment and computer readable medium | |
JP2011227710A (en) | Data processor, data processing system, and program | |
WO2018128138A1 (en) | Image processing device, video monitoring system, image processing method, and recording medium storing program | |
CN118648294A (en) | Image processing apparatus, image processing method, and program | |
JP2018049566A (en) | Image processing apparatus, image processing method, and program | |
JP6896467B2 (en) | Identity verification system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130329 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140129 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140707 |