JP4232486B2 - Image data processing apparatus and program - Google Patents
Image data processing apparatus and program Download PDFInfo
- Publication number
- JP4232486B2 JP4232486B2 JP2003061441A JP2003061441A JP4232486B2 JP 4232486 B2 JP4232486 B2 JP 4232486B2 JP 2003061441 A JP2003061441 A JP 2003061441A JP 2003061441 A JP2003061441 A JP 2003061441A JP 4232486 B2 JP4232486 B2 JP 4232486B2
- Authority
- JP
- Japan
- Prior art keywords
- attendee
- evaluation
- level
- information
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 37
- 230000033001 locomotion Effects 0.000 claims description 21
- 230000009471 action Effects 0.000 claims description 15
- 210000005252 bulbus oculi Anatomy 0.000 claims description 10
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 230000004424 eye movement Effects 0.000 claims description 2
- 230000002776 aggregation Effects 0.000 claims 4
- 238000004220 aggregation Methods 0.000 claims 4
- 238000011156 evaluation Methods 0.000 description 110
- 238000000034 method Methods 0.000 description 34
- 230000001815 facial effect Effects 0.000 description 29
- 230000008569 process Effects 0.000 description 22
- 230000008921 facial expression Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 238000012854 evaluation process Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 8
- 230000010365 information processing Effects 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000012925 reference material Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、催しに出席した出席者の様子を撮影した画像データに基づいて、出席者の参加状態や催しに対する評価を行う画像データ処理装置及びプログラムに関する。
【0002】
【従来の技術】
従来、特定の場所や区域の様子を監視するため、監視区域の様子をカメラで撮影し、管理室のモニタに表示する監視システムが利用されている。例えば、特許文献1には、人のいる部分を目立たせ、更に人のいる部分でも人の動きのない部分の色を落とし、色の濃さという相対的な識別によって監視しなければならない部分を一目で把握することができるようにする監視システムが開示されている。
【0003】
【特許文献1】
特開平10−136343号公報
【0004】
【発明が解決しようとする課題】
監視システムは、特許文献1のように、監視区域内の事象の発生等を知らせる目的の他、例えば進学塾等において、経営者が講師の授業内容や教室内の雰囲気を把握する目的としても利用されている。
【0005】
しかしながら、従来の監視システムは監視場所の様子を表示するのみであるので、例えば、進学塾における授業内容等、その場所で行われている催しの有効性を客観的に評価して分析することは困難であった。また、表示された画像から催しの各出席者の参加意欲や集中度を評価して分析することは困難であった。
【0006】
本発明の課題は、催しの有効性や出席者の参加状態の評価、分析を容易に行うことができるようにすることである。
【0007】
【課題を解決するための手段】
上記課題を解決するため、請求項1に記載の発明は、出席者が撮像された画像データから、前記出席者の眼球の動きが予め設定された基準レベル以上か否かを判定することにより出席者の意識レベルを判定する意識レベル判定手段と、この意識レベル判定手段により意識レベルが判定できなかった場合に、前記画像データから出席者の動作の動作レベルを判定する動作レベル判定手段と、前記意識レベル判定手段或いは前記動作レベル判定手段による判定を複数の出席者に対して行い、前記複数の出席者の判定結果を記憶する記憶手段と、この記憶手段に記憶される前記複数の出席者の判定結果を集計して、集計された集計結果を出力する集計結果出力手段と、を備えることを特徴とする。
更に、コンピュータに対して、上述した請求項1記載の発明に示した各手段を実現させるためのプログラムを提供する(請求項3記載の発明)。
【0008】
請求項2に記載の発明は、請求項1に記載の画像データ処理装置において、前記集計結果出力手段は、所定の時間帯別に変更される前記複数の出席者の判定結果を集計して、集計された集計結果を出力することを特徴とする。
【0010】
【発明の実施の形態】
以下、図を参照して本発明の実施の形態を詳細に説明する。
まず、構成を説明する。
図1に、本発明に係る画像データ処理装置100の構成を示す。この画像データ処理装置100は、ある会場において行われる催しに出席した出席者の様子を撮影し、撮影した画像から出席者の参加状態の評価を行って、各出席者の参加状態(参加意欲の有無又は強さ、集中度等)、催しの有効性、その実行者のパフォーマンス等を評価する装置である。催しは、ある場所に人を集めて、集まった出席者が見たり聞いたりするものであればよく、例えば、講演会、学校・塾・予備校等の授業、プレゼンテーション、舞台、発表会、映画、コンサート、セミナー、会議等が含まれる。
【0011】
図1に示すように、画像データ処理装置100は、会場全体を撮影する画像撮影装置2と、画像撮影装置2により撮影された画像データを取り込んで各出席者や催しの評価を行う本体1とが画像撮影装置接続部14を介して接続されて構成されている。画像撮影装置2は会場の各出席者の動作を撮影できればよく、1つの会場に複数設置する構成としてもよいし、画像撮影装置2として球面体カメラ等を利用して、1つの会場に1つ設置する構成としてもよい。画像撮影装置2は、動画を撮影するものとして説明するが、静止画を撮影するものであってもよい。
【0012】
図2は、本体1の機能的構成を示すブロック図である。図2に示すように、本体1は、CPU11、入力部12、表示部13、画像撮影装置接続部14、RAM15、記録部16、印刷部17、通信部18等により構成され、各部はバス19により接続されている。
【0013】
CPU(Central Processing Unit)11は、記録部16に記憶されているシステムプログラムを読み出し、RAM15内に形成されたワークエリアに展開し、該システムプログラムに従って各部を制御する。また、CPU11は、記録部16に記憶されている各種処理プログラムを読み出してワークエリアに展開し、後述する出席者情報生成処理、表情評価処理、動作評価処理、進学塾講師評価表出力処理を始めとする各種処理を実行し、それらの処理結果をRAM15のワークメモリに記憶する。そして、ワークエリアに格納した処理結果を記録部16内の指定の保存先に保存させる。
【0014】
入力部12は、文字/英数字入力キー、カーソルキー、及び各種機能キー等を備えたキーボードと、ポインティングデバイスであるマウスと、を備えて構成され、キーボードで押下操作されたキーの押下信号とマウスによる操作信号とを、入力信号としてCPU11に出力する。
【0015】
表示部13は、出力手段であり、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)等により構成され、CPU11から入力される表示信号の指示に従って、表示画面上に、画像撮影装置2から入力される画像データ、出席者別の参加度評価情報、会場全体の参加度評価情報、進学塾講師評価表等を表示する。
【0016】
画像撮影装置接続部14は、本体1に画像撮影装置2を接続するためのインターフェースである。
【0017】
RAM(Random Access Memory)15は、CPU11により実行されるシステムプログラム、各種処理プログラム、各処理において処理中のデータ、処理結果などを一時的に記憶するワークエリアを形成する。
【0018】
記録部16は、本体1に対応するシステムプログラム、各種処理プログラム、各種データ等が予め記憶されており、この記録部16は、磁気的、光学的記録媒体、若しくは半導体メモリなどCPU11で読取り可能な記録媒体を含んだ構成である。この記録媒体はCD-ROM(Compact Disc Read Only Memory)、メモリカード等の可搬型の媒体やハードディスク等の固定的な媒体を含む。また、記録媒体に格納するプログラム、データ等の一部若しくは全部をサーバやクライアントからWAN、LANなどの通信ネットワークを介して受信する構成にしてもよく、更に、記録媒体は通信ネットワーク上に構築されたサーバやクライアントの記録媒体であってもよい。
【0019】
本実施の形態において、記録部16は、図2に示すように、事前登録情報F20、位置定義情報F21を格納している。
事前登録情報F20は、評価対象となる催しの出席者集団が予め決まっている場合、その集団に属する各会員(集団が会社であれば社員、学校であれば生徒等)の情報が格納されているファイルである。図3(a)に、事前登録情報F20に格納される事前登録情報レコードR20の構造を示す。図3(a)に示すように、事前登録情報レコードR20は、個人を特定するために一意的に割り当てられた識別コードである登録NO.と、顔貌画像データ、氏名、性別、年齢等により構成されている。
【0020】
位置定義情報F21は、会場において出席者が存在する可能性がある位置(例えば、教室が会場の場合は座席位置)の定義情報が格納されているファイルである。図3(b)に、位置定義情報F21に格納される位置定義レコードR21の構造を示す。図3(b)に示すように、位置定義情報レコードR21は、位置管理名称(位置X、位置Y)及び予め定められた原点からの距離(X距離、Y距離;物理位置)により構成されている。例えば、図3(c)において、会場平面図における原点にあたる位置からたて4m、よこ2.5m毎に座席が配置されているとすると、位置Aを定義するレコードR21は、図3(d)に示すように、(位置X、位置Y、X距離、Y距離=2、3、5、12)となる。なお、出席者が存在する位置が自由の場合、例えば、座席が移動可能な会場や座席なしの会場の場合は、想定される出席者存在密度(混雑度)に併せて位置定義を行う。
【0021】
また、記録部16は、後述する講師評価テーブルT1(図13参照)を記憶する。
【0022】
印刷部17は、出力手段として、ドットインパクト方式、熱転写方式、レーザ方式、インクジェット方式等の各種印刷方式により紙等の印刷記録媒体に印刷を行う。
【0023】
通信部18は、ネットワークインターフェースカード、モデム、TA(Terminal Adapter)等により構成され、通信ネットワークワーク上の外部機器と各種情報の送受信を行う。例えば、通信部18は、CPU11からの指示に応じて、生成された出席者別参加度評価情報F5、会場全体参加度評価情報F6等を通信ネットワークに接続されたPC(Personal Computer)やプリンタ等へ送信する。
【0024】
次に、画像データ処理装置100の動作について説明する。
図4に、画像データ処理装置100における参加度評価データ作成手順を示す。
【0025】
まず、撮影手段としての画像撮影装置2により会場全体が撮影され、本体1に入力される。本体1においては、CPU11と記録部16に記憶されているプログラムの協働によるソフトウエア処理により、出席者評価手段、催し評価手段、位置情報取得手段として、以下の処理が実行される。
【0026】
まず、会場画像取込処理により、画像撮影装置2より入力された会場画像データから所定時間毎に画像データが取り込まれ、撮影された日時が付加され、図5のR1に示す構造のレコードR1が生成され(M1)、記録部16に会場画像トランザクションF1として順次格納される。
【0027】
次に、出席者情報生成処理が実行される(M2)。図6に、CPU11により実行される出席者情報生成処理を示す。
会場画像トランザクションF1に格納された先頭のレコードR1が読み込まれ(ステップS1)、RAM15の位置ポインタが初期化され、X=1、Y=1が格納される(ステップS2)。次いで、位置ポインタの顔貌抽出処理が実行される(ステップS3)。
【0028】
図7に、位置ポインタの顔貌抽出処理を示す。まず、記録部16に記憶されている位置定義情報F21を参照することにより、位置ポインタに相当する物理位置(X距離、Y距離)が確定される(ステップS101)。次いで、物理位置(X距離、Y距離)に対応する画像が、レコードR1の会場画像から抽出される(ステップS102)。そして、抽出された画像に含まれる出席者の顔貌画像が抽出され(ステップS103)、図6のステップS4に移行する。確定された物理位置に人が存在しない場合は、抽出結果は空となる。
【0029】
図6のステップS4においては、出席者情報処理が実行される。
図8に、出席者情報処理を示す。位置ポインタの顔貌抽出処理において顔貌画像が抽出されず、空の場合(ステップS110;YES)、本処理は終了し、図6のステップS5に移行する。顔貌画像が空でなく(ステップS110;NO)、今回の出席者情報生成処理において初めて出席者情報処理が行われ、まだ記録部16に出席者顔貌情報F22が生成されていない場合(ステップS111;NO)、処理はステップS114に移行し、出席者顔貌情報F22が生成され、当該顔貌画像のシリアルNO.が決定されて顔貌画像とともにR22として登録される。出席者顔貌情報F22が既存の場合(ステップS111;YES)、出席者顔貌情報F22に当該抽出された顔貌画像と近似した顔貌画像が存在するかの照合が行われる(ステップS112)。出席者顔貌情報F22に当該顔貌画像と近似した顔貌画像が存在しない場合(ステップS113;NO)、当該顔貌画像のシリアルNO.が決定され、顔貌画像と対応付けてR22が生成され、出席者顔貌情報F22に新規のレコードとして追加登録される(ステップS114)。図9(a)にレコードR22の構造を示す。
【0030】
次いで、事前登録情報F20に当該顔貌画像と近似する顔貌画像が存在するかの照合が行われ、存在した場合は、該当する登録NO.が読み出される(ステップS115)。そして、出席者情報F23に新規のR23が追加され、シリアルNO.、登録NO.、位置X、Y(=位置ポインタ)、開始日時(=R1の日時)が登録される(ステップS116)。なお、今回の出席者情報生成処理において初めて出席者情報処理が行われ、まだ記録部16に出席者情報F23が生成されていない場合、出席者情報F23が生成され、シリアルNO.、登録NO.、位置X、Y(=位置ポインタ)、開始日時(=R1の日時)からなるR23が登録され記録部16に保存される。図9(b)にレコードR23の構造を示す。
【0031】
一方、ステップS113において、位置ポインタの顔貌抽出処理で抽出された顔貌画像と近似した画像が出席者顔貌情報F22に存在した場合、近似した画像の画像のシリアルNO.が取得され(ステップS117)、出席者情報F23において、取得されたシリアルNO.を含むレコードR23が選択される(ステップS118)。複数のR23が存在する場合は、シリアルNO.の新しいレコードR23が選択される。次いで、選択されたレコードR23の位置X,Yと位置ポインタとの比較が行われ(ステップS119)、比較の結果、一致しない場合、即ち、その顔貌の人物の位置が移動していた場合(ステップS120;YES)、出席者情報F23に新規のR23が追加され、シリアルNO.、登録NO.、位置X、Y(=位置ポインタ)、開始日時(=R1の日時)が登録され(ステップS122)、処理は図6のステップS5に移行する。比較の結果、一致した場合、即ち、その顔貌の人物の位置が移動していない場合(ステップS120;NO)、レコードR23の終了日時がレコードR1の日時で更新され(ステップS121)、処理は図6のステップS5に移行する。
【0032】
図6のステップS5においては、上述した位置ポインタの顔貌抽出処理、出席者情報処理の終了後、位置ポインタがX=n、Y=m、即ち最終ポインタか否かが判断され、最終ポインタでない場合(ステップS5;NO)、位置ポインタが次ポインタに進められ(ステップS6)、そのポインタについて上述した位置ポインタの顔貌抽出処理、出席者情報処理が実行される。最終ポインタである場合は、会場画像トランザクションF1に処理していないレコードR1が残っているか否かが判断され、残っている場合は(ステップS7;YES)、処理はステップS1に戻り、ステップS1〜S7が繰り返し実行される。会場画像トランザクションF1に処理していないレコードR1が残っていない場合は(ステップS7;NO)、本処理は終了する。
【0033】
上記出席者情報生成処理により、出席者情報F23が生成される。なお、座席の移動などで出席者の存在位置に変化が生じた場合、出席者が途中退席した後、再度出席した場合は、一人の出席者(一つのシリアルNO.)に対して複数のレコードR23が生成される。
【0034】
図4の出席者情報生成処理(M2)で出席者情報F23が生成された後、会場画像トランザクションF1と出席者情報F23を入力として表情評価処理(M3)、動作評価処理(M4)が実行される。
【0035】
図10に、CPU11により実行される表情評価処理の一例を示す。なお、当該表情評価処理は、シリアルNO.、即ち出席者毎に実行される処理であり、結果として生成される出席者別表情評価情報F3は、出席者数分生成される。
まず、評価対象の時間帯が所定の単位時間の時間帯に区切られ、各時間帯にシリアルの時間帯NO.が設定される(ステップS10)。次いで、出席者情報F23から、シリアルNO.順に、シリアルNO.毎のレコードR23が読み出され(ステップS11)、時間帯NO.毎にステップS12〜15の処理が実行される。
【0036】
ステップS12において、読み出されたレコードR23の開始日時と終了日時に基づいて時間帯NO.に対応するレコードR23が選択され、出席者の位置が抽出される。続いて会場画像トランザクションF1から日時に基づいて時間帯NO.に対応するレコードR1が読み出され、ステップS12で抽出された出席者の位置に該当する画像データが抽出される(ステップS13)。抽出された画像データから、出席者の顔貌データが抽出され、抽出された顔貌データから眼球の動きが予め設定された基準レベル以上か否かが判定されることにより意識レベルが決定され(ステップS14)、これを評価1とする。そして、時間帯NO.と評価1がレコードR3に登録され、シリアルNO.毎に出席者別表情評価情報F3が生成されてレコードR3が格納される(ステップS15)。時間帯NO.が最終でない場合は(ステップS16;NO)、次の時間帯NO.に移行し(ステップS17)、ステップS12〜S17が繰り返し実行される。時間帯NO.が最終である場合は、最終のシリアルNO.であるかが判断され、最終のシリアルNO.でなければ次のシリアルNO.に移行してステップS11〜18が繰り返し実行される。最終のシリアルNO.の処理が終了すると、本処理は終了する。
【0037】
図11(a)に、出席者別表情評価レコードR3のレコード構造を示す。ステップS14における意識レベルの判定は、図11(a)に示すように、本実施の形態においては、意識レベルは良好(眼球に適切な動きがある、即ち眼球の動きが予め設定された基準レベル以上である)と不良(眼球に動きが少ない、即ち眼球の動きが予め設定された基準レベルに満たない)の2段階で評価される。結果(評価1)は、意識レベル良好の場合は0、意識レベル不良の場合は1が格納される。また、出席者の姿勢により眼球の画像が得られない場合は、意識レベルは不明と判定され、結果(評価1)は2が格納される。なお、眼球の動きの判定は、2段階に限らず、より細分化するようにしてもよい。
【0038】
次に、CPU11により実行される動作評価処理について説明する。なお、動作評価処理の処理手順は、図10で説明した表情評価処理とほぼ同じであり、図14で判定する評価と出力レコードが異なるのみであるので、相違点のみ説明する。
【0039】
動作評価処理においては、図10のステップS13で抽出された画像データからまず顔貌データが抽出され、眼球測定が不可能である場合に、画像データから予め設定された基準に基づいて動作を判定することにより動作レベルが決定される。この結果を評価2とする。そして、時間帯NO.と評価2がレコードR4に登録され、シリアルNO.毎に出席者別動作評価情報F4が生成されてレコードR4が格納される。
【0040】
図11(b)に、出席者別動作評価レコードR4のレコード構造を示す。動作レベルの判定は、図11(b)に示すように、本実施の形態においては、動作レベルは良好(許容される動作:筆記動作、キーボード動作等)と不良(うつむく、横を向く等、許容される動作以外の動作)の2段階で評価される。例えば、許容される動作の画像データを記録部16に記憶しておき、抽出された画像データが近似しているか否かにより動作レベルが良好か不良かが判断される。結果(評価2)は、意識レベル良好の場合は1、意識レベル不良の場合は2が格納される。また、意識レベルが測定可能である場合は、結果(評価2)に0が優先して格納される。このように意識レベルが測定可能である場合に動作レベルの結果を格納しないのは、後述する参加度評価処理1、2等において、動作レベルに対して意識レベル優先を優先するためである。なお、動作レベルの判定は2段階に限らず、より細分化するようにしてもよい。
【0041】
出席者別表情評価情報F3と出席者別動作評価情報F4が作成されると、この2つの情報を入力として参加度評価1処理(図4のM5)が実行され、出席者毎に各時間帯の参加度評価が行われて出席者別参加度評価情報F5が生成される。参加度評価により、各出席者の出席者別表情評価情報F3と出席者別動作評価情報F4から時間帯NO.が同一のレコードR23とレコードR24が読み出され、評価1、評価2に格納されている数値から、図11(c)に示す表のルールに基づいて、出席者がその時間帯に実質的に催しに参加していたか、参加していなかったかが評価され、結果は評価3として、時間帯NO.と対応付けられレコードR5に登録され、出席者別参加度評価情報F5に格納される。即ち、参加度評価は、各出席者の時間帯別の参加状態を評価するものである。表の0は参加、1は不参加である。表の黒塗り部分の組み合わせは存在しない。例えば、評価2が「0」、即ち意識レベルが測定可能であるときは、評価1が「2」、即ち意識レベル不明となることはない。また、評価2が「1」又は「2」、即ち動作レベルの良好、不良が判定されている場合は、評価1が「0」又は「1」、即ち意識レベルが測定されている、ということはない。図11(d)に出席者別参加度評価情報F5に格納されるレコードR5の構成を示す。なお、出席者別参加度評価情報F5には、ヘッダ情報として、出席者のシリアルNO.、登録NO.及び氏名、性別、年齢等の個人情報が格納される。
【0042】
出席者別参加度評価情報F5が生成されると、各出席者の出席者別参加度評価情報F5を入力として、参加度評価2処理(図4のM6)が実行され、会場全体の参加度評価が行われて会場別参加度評価情報F6が生成される。会場全体の参加度評価の結果は、催しに対する出席者の実質的な参加率を示すものであり、催しに対する評価である。具体的には、時間帯毎に各出席者の評価3が集計され、参加率が計算され、時間帯NO.とともにレコードR6に登録され、会場者別参加度評価情報F6に格納される。図11(e)に会場全体参加度評価情報F6に格納される会場全体参加度評価レコードR6の構成を示す。会場全体参加度評価情報F6には、ヘッダ情報として、日付と評価対象時間が格納される。
【0043】
以上説明した手順により、出席者別参加度評価情報F5、会場全体参加度評価情報F6が生成される。出席者別参加度評価情報F5は、出席者の参加状態を個別に評価するために利用することができ、会場全体参加度評価情報F6は、催しや催しの実行者を評価するために利用することができる。
【0044】
以下、会場全体参加度評価情報F6を活用する例として、塾講師の授業評価について説明する。
図12に、CPU11により実行される進学塾講師評価表出力処理を示す。
【0045】
入力部12からの指示により進学塾講師評価表の出力が指示されると、表示部13に進学塾講師評価表のタイトル行(講師名、授業(科目、月日、時限)、参加率%(平均、最高、最低)からなるフィールド)が出力される(ステップS20)。次に、講師名、授業(科目、月日、時限)が出力される(ステップS21)。続いて、月日、時限に対応する会場全体参加度評価情報F6の全てのレコード(レコード1からn)が読み込まれ、各レコードの参加率が比較されて参加率の最高及び最低が決定され、参加率%の最高、最低フィールドに出力される(ステップS22)。また、レコード1からnの参加率の平均が、下記の式により計算されて参加率%の平均フィールドに出力される(ステップS23)。
【0046】
次いで、出力された平均、最高、最低の参加率が、記録部16に記憶されている講師評価テーブルT1を参照することにより評価され、ランクが決定され、ランク記号(◎、○、△、×)が評価フィールドに出力される(ステップS24)。図13に、講師評価テーブルT1の一例を示す。評価は、講師評価テーブルT1のランクNO.1から順にAND条件で行われ、ランクNO.3までに該当しない場合にランクNO.4とされる。評価が出力された後、他の講師や時間について評価を行う場合は(ステップS25;NO)、ステップS21〜S25が繰り返し実行される。評価を終了する場合は(ステップS25;YES)、本処理は終了する。
【0047】
なお、T1は変更可能であり、評価基準値の変更、ランクの追加・削除、評価項目の追加・削除、評価記号の変更等は随時可能である。また、評価結果は、表示部13に出力するだけでなく、印刷部17から出力することが望ましい。また、通信ネットワークを介してプリンタやPC等の外部機器に出力し、印刷したり加工したりすることができる。
【0048】
図14に、上述した進学塾講師評価表出力処理により出力される進学塾講師評価表の一例を示す。このように、講師の各時間帯の授業に対する生徒の実質的な参加率及びその評価が表として出力されることにより、塾経営者の塾講師の評価や、生徒及び父兄の講師選択の参考資料として活用することができる。
【0049】
塾講師の授業において生成される会場全体参加度評価情報F6は、その他、下記のようにして利用することもできる。
・画像撮影装置2から本体1に会場画像データが入力されたらただちに上述した手順で会場全体参加度評価情報F6を生成し、リアルタイムで講師に伝達する。即ち、画像データ処理装置100は、伝達手段として、参加率の値、参加率を評価した記号、参加率を示す色等を表示する表示装置(モニタ、ランプ等)備えるようにし、講師の見えるところに設置する。これにより、講師はリアルタイムに参加率を把握可能となり、参加率アップを目的とした授業内容の調整等が可能となる。
【0050】
・F6を利用し、時間帯による参加率の変化を表やグラフにして授業を行った講師に提供する。他の講師の時間帯による参加率の変化との比較や、同一講師による他の複数授業の時間帯による参加率の変化との比較を表、グラフ等にして提供すると、より効果的な情報となる。このようにして講師が授業内容と参加率の関係を知ることにより、授業の改善に役立てることができる。
【0051】
また、塾講師の授業において生成される出席者別参加度評価情報F5を活用することもできる。例えば、ある生徒の時間帯ごとの実質的な参加/不参加を表やグラフにして表示部13に出力して、ある生徒の授業参加状態を講師が把握したり、印刷部17により出力して生徒の父兄に提供したりすることができる。その授業における生徒全体の参加率変化と比較して表やグラフにし、その授業の時間帯ごとの授業評価も併せて提供するようにすると、より効果的な情報とすることができる。このように、出席者別参加度評価情報F5により、生徒の参加度を把握して、以降の生徒の指導に活用することができる。更に、出席者別参加度評価情報F5の位置情報の変化から、生徒の入退室、移動等についても時系列で分析することができる。
【0052】
以上説明したように、画像データ処理装置100によれば、画像撮影装置2により入力される会場画像データから、時間帯毎に各出席者の顔貌データ、画像データを抽出して表情評価、動作評価を行って、これらの評価に基づいて出席者別に時間帯毎の参加度評価を行い、出席者別参加度情報F5を生成する。また、各出席者の出席者別参加度評価情報F5から会場全体の時間帯毎の参加率評価を計算し、会場全体参加度評価情報F6を生成する。生成された各出席者の出席者別参加度評価情報F5、会場全体参加度評価情報F6は、加工して表示したり印刷物として出力したりすることで、催しの実行者や各出席者の評価情報を提供することができる。
【0053】
従って、従来の出席者数や出席率による評価と比べて、催しの内容に立脚してその有効性の評価を行うことができる。また、時間帯毎に評価を分析することができるので、パフォーマンスの手法等の研究に役立てることができる。また、催しの実行者のみならず、各出席者を特定して参加状態、集中度を評価することができる。出席者の入退室、移動等についても時系列で分析することができる。
【0054】
なお、上記実施の形態における記述内容は、本実施の形態における好適な一例であり、これに限定されるものではない。また、画像データ処理装置100の細部構成及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。
【0055】
【発明の効果】
本発明によれば、出席者が撮像された画像データから、出席者の眼球の動きを判定することにより出席者の意識レベルを判定し、意識レベルが判定できなかった場合に、前記画像データから出席者の動作の動作レベルを判定し、これらの判定を複数の出席者に対して行い、この判定結果を集計したものを出力したので、より精度が高い催しの有効性や出席者の参加状態の評価、分析を容易に行うことができる。
【図面の簡単な説明】
【図1】本発明の一実施の形態における画像データ処理装置100の全体構成を示す図である。
【図2】図1の本体1の機能的構成を示すブロック図である。
【図3】(a)は、図2の事前登録情報F20に格納されるレコードR20のレコード構造を示す図、(b)は、図2の位置定義情報F21に格納されるレコードR21のレコード構造を示す図、(c)は会場平面図における位置Aの位置定義方法の一例を説明する図、(d)はR21の一例として、(c)の位置Aの定義情報を登録したR21を示す図である。
【図4】図1の画像データ処理装置100の参加度評価データ作成手順を模式的に示す図である。
【図5】図4の会場画像トランザクションF1に格納されるレコードR1の構造を示す図である。
【図6】図2のCPU11により実行される出席者情報生成処理を示すフローチャートである。
【図7】図2のCPU11により実行される位置ポインタの顔貌抽出処理を示すフローチャートである。
【図8】図2のCPU11により実行される出席者情報処理を示すフローチャートである。
【図9】(a)は、図4の出席者顔貌情報F22に格納されるレコードR22の構造を示す図、(b)は、図4の出席者情報F23に格納されるレコードR23の構造を示す図である。
【図10】図2のCPU11により実行される表情評価処理を示すフローチャートである。
【図11】(a)は、図4の出席者別表情評価情報F3に格納されるレコードR3の構造を示す図、(b)は、図4の出席者別動作評価情報F4に格納されるレコードR4の構造を示す図、(c)は出席者別参加度評価の評価テーブル、(d)は図4の出席者別参加度評価情報F5に格納されるレコードR5の構造を示す図、(e)は図4の会場全体参加度評価情報F6に格納されるレコードR6の構造を示す図である。
【図12】図2のCPU11により実行される進学塾講師評価表出力処理を示すフローチャートである。
【図13】図2の記録部16に格納される講師評価テーブルT1の一例を示す図である。
【図14】図12の進学塾講師評価表出力処理により出力される進学塾講師評価表の一例を示す図である。
【符号の説明】
100 画像データ処理装置
1 本体
11 CPU
12 入力部
13 表示部
14 画像撮影装置接続部
15 RAM
16 記録部
17 印刷部
18 通信部
19 バス
2 画像撮影装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image data processing apparatus and a program for evaluating an attendee's participation state and an event based on image data obtained by photographing attendees attending the event.
[0002]
[Prior art]
Conventionally, in order to monitor the state of a specific place or area, a monitoring system that captures the state of the monitoring area with a camera and displays it on a monitor in a management room has been used. For example, in
[0003]
[Patent Document 1]
JP-A-10-136343
[0004]
[Problems to be solved by the invention]
The monitoring system is used not only for the purpose of notifying the occurrence of an event in the monitoring area, as in
[0005]
However, since the conventional monitoring system only displays the state of the monitoring place, for example, it is not possible to objectively evaluate and analyze the effectiveness of the events being held at that place, such as the content of classes at a preparatory school. It was difficult. In addition, it is difficult to evaluate and analyze the participation intention and the degree of concentration of each attendee of the event from the displayed image.
[0006]
An object of the present invention is to make it possible to easily evaluate and analyze the effectiveness of an event and the participation status of attendees.
[0007]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the invention described in claim 1Consciousness level determination means for determining the attendee's consciousness level by determining whether the eyeball movement of the attendee is equal to or higher than a preset reference level from image data obtained by capturing the attendee, and this consciousness level When the consciousness level cannot be determined by the determining means, the behavior level determining means for determining the motion level of the attendee's motion from the image data, and the determination by the consciousness level determining means or the motion level determining means are performed in a plurality of attendances. A storage means for storing the determination results of the plurality of attendees, and aggregating the determination results of the plurality of attendees stored in the storage means and outputting the totaled result And a result output means.
Further, a program for realizing the respective means shown in the above-described invention according to
[0008]
According to a second aspect of the present invention, in the image data processing device according to the first aspect, the totaling result output means totals the determination results of the plurality of attendees changed for each predetermined time period, and totalizes The totaled result is output.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
First, the configuration will be described.
FIG. 1 shows a configuration of an image
[0011]
As shown in FIG. 1, an image
[0012]
FIG. 2 is a block diagram showing a functional configuration of the
[0013]
A CPU (Central Processing Unit) 11 reads a system program stored in the
[0014]
The
[0015]
The
[0016]
The image capturing
[0017]
A RAM (Random Access Memory) 15 forms a work area for temporarily storing a system program executed by the
[0018]
The
[0019]
In the present embodiment, the
The pre-registration information F20 stores information of each member (employee if the group is a company, student if it is a school, etc.) belonging to the group when the attendee group of the event to be evaluated is determined in advance. Is a file. FIG. 3A shows the structure of the pre-registration information record R20 stored in the pre-registration information F20. As shown in FIG. 3A, the pre-registration information record R20 includes a registration NO. ID that is an identification code uniquely assigned to identify an individual. And facial image data, name, gender, age, and the like.
[0020]
The position definition information F21 is a file that stores definition information of positions where attendees may exist at the venue (for example, seat positions when the classroom is the venue). FIG. 3B shows the structure of the position definition record R21 stored in the position definition information F21. As shown in FIG. 3B, the position definition information record R21 includes a position management name (position X, position Y) and a distance from a predetermined origin (X distance, Y distance; physical position). Yes. For example, in FIG. 3C, if seats are arranged every 4 m from the position corresponding to the origin in the venue plan view and every 2.5 m, the record R21 defining the position A is as shown in FIG. As shown in (3), (position X, position Y, X distance, Y distance = 2, 3, 5, 12). In the case where the position where the attendee exists is free, for example, in the case of a venue where the seat is movable or a venue where there is no seat, the location is defined in accordance with the expected attendance density (congestion degree).
[0021]
Moreover, the
[0022]
The
[0023]
The
[0024]
Next, the operation of the image
FIG. 4 shows a procedure for creating participation degree evaluation data in the image
[0025]
First, the entire venue is photographed by an
[0026]
First, image data is captured every predetermined time from the venue image data input from the
[0027]
Next, attendee information generation processing is executed (M2). FIG. 6 shows attendee information generation processing executed by the
The first record R1 stored in the venue image transaction F1 is read (step S1), the position pointer of the
[0028]
FIG. 7 shows the face pointer face extraction process. First, the physical position (X distance, Y distance) corresponding to the position pointer is determined by referring to the position definition information F21 stored in the recording unit 16 (step S101). Next, an image corresponding to the physical position (X distance, Y distance) is extracted from the venue image of the record R1 (step S102). Then, the facial image of the attendee included in the extracted image is extracted (step S103), and the process proceeds to step S4 in FIG. If no person is present at the determined physical position, the extraction result is empty.
[0029]
In step S4 of FIG. 6, attendee information processing is executed.
FIG. 8 shows attendee information processing. If no facial image is extracted in the position pointer facial extraction process and is empty (step S110; YES), this process ends, and the process proceeds to step S5 in FIG. When the facial image is not empty (step S110; NO), the attendee information processing is performed for the first time in the present attendee information generation process, and the attendee facial information F22 is not yet generated in the recording unit 16 (step S111; NO), the process proceeds to step S114, the attendee's facial information F22 is generated, and the serial NO. Is registered as R22 together with the facial image. If the attendee facial information F22 already exists (step S111; YES), it is checked whether or not there is a facial image approximate to the extracted facial image in the attendee facial information F22 (step S112). If there is no facial image approximate to the facial image in the attendee facial information F22 (step S113; NO), the serial NO. R22 is generated in association with the facial image, and is additionally registered as a new record in the attendee facial information F22 (step S114). FIG. 9A shows the structure of the record R22.
[0030]
Next, the pre-registration information F20 is checked to see if there is a facial image that is similar to the facial image. Is read (step S115). Then, a new R23 is added to the attendee information F23, and the serial no. Registration NO. , Position X, Y (= position pointer), start date and time (= date and time of R1) are registered (step S116). If attendee information processing is performed for the first time in the present attendee information generation process and the attendee information F23 has not yet been generated in the
[0031]
On the other hand, when an image approximated to the facial image extracted by the facial pointer extraction process of the position pointer is present in the attendee facial information F22 in step S113, the serial number of the approximated image is displayed. Is acquired (step S117), and in the attendee information F23, the acquired serial No. Is selected (step S118). When there are a plurality of R23, the serial No. New record R23 is selected. Next, the positions X and Y of the selected record R23 are compared with the position pointer (step S119). If the comparison results in a mismatch, that is, the position of the person on the face has moved (step S119). S120; YES), a new R23 is added to the attendee information F23, and the serial No. Registration NO. , Position X, Y (= position pointer), start date and time (= date and time of R1) are registered (step S122), and the process proceeds to step S5 in FIG. As a result of comparison, if they match, that is, if the position of the person of the face has not moved (step S120; NO), the end date and time of record R23 is updated with the date and time of record R1 (step S121), and the processing is as shown in FIG. The process proceeds to step S5 in FIG.
[0032]
In step S5 of FIG. 6, after the position pointer facial face extraction process and attendee information processing described above are completed, it is determined whether or not the position pointer is X = n, Y = m, that is, the final pointer. (Step S5; NO), the position pointer is advanced to the next pointer (Step S6), and the position pointer face extraction processing and attendee information processing described above are executed for the pointer. If it is the final pointer, it is determined whether or not there is an unprocessed record R1 in the venue image transaction F1, and if it remains (step S7; YES), the process returns to step S1, and steps S1 to S1 are performed. S7 is repeatedly executed. If there is no record R1 that has not been processed in the venue image transaction F1 (step S7; NO), this process ends.
[0033]
Attendee information F23 is generated by the attendee information generation process. If there is a change in the location of the attendee due to the movement of the seat, etc., if the attendee leaves and then attends again, multiple records are recorded for one attendee (one serial number). R23 is generated.
[0034]
After the attendee information F23 is generated in the attendee information generation process (M2) of FIG. 4, the facial expression evaluation process (M3) and the action evaluation process (M4) are executed with the venue image transaction F1 and the attendee information F23 as inputs. The
[0035]
FIG. 10 shows an example of facial expression evaluation processing executed by the
First, the time zone to be evaluated is divided into time zones of a predetermined unit time, and serial time zones NO. Is set (step S10). Next, from the attendee information F23, the serial number. Serial NO. Each record R23 is read (step S11), and the time zone NO. The processing of steps S12 to 15 is executed every time.
[0036]
In step S12, based on the start date and time and end date and time of the read record R23, the time zone NO. The record R23 corresponding to is selected, and the attendees' positions are extracted. Subsequently, the time zone NO. Is read, and image data corresponding to the attendee's position extracted in step S12 is extracted (step S13). The facial image data of the attendee is extracted from the extracted image data, and the consciousness level is determined by determining whether or not the eye movement is equal to or higher than a preset reference level from the extracted facial data (step S14). ), This is evaluated as 1. And time zone NO. And
[0037]
FIG. 11A shows the record structure of the attendee-specific facial expression evaluation record R3. As shown in FIG. 11A, the determination of the consciousness level in step S14 has a good consciousness level (the eyeball has an appropriate movement, that is, a reference level in which the movement of the eyeball is set in advance). It is evaluated in two stages, that is, the above) and defective (the eyeball has little movement, that is, the movement of the eyeball does not satisfy the preset reference level). As the result (evaluation 1), 0 is stored when the consciousness level is good, and 1 is stored when the consciousness level is poor. When the eyeball image cannot be obtained due to the posture of the attendee, the consciousness level is determined to be unknown, and 2 is stored as the result (evaluation 1). The determination of the movement of the eyeball is not limited to two stages, and may be further subdivided.
[0038]
Next, the operation evaluation process executed by the
[0039]
In the motion evaluation process, facial image data is first extracted from the image data extracted in step S13 of FIG. 10, and when the eyeball measurement is impossible, the motion is determined based on a preset criterion from the image data. As a result, the operation level is determined. This result is set as
[0040]
FIG. 11B shows the record structure of the attendee-specific action evaluation record R4. As shown in FIG. 11B, the operation level is determined as follows. In this embodiment, the operation level is good (permitted operation: writing operation, keyboard operation, etc.) and poor (depressed, facing sideways, etc.) It is evaluated in two stages (operation other than the allowable operation). For example, image data of an allowable operation is stored in the
[0041]
When the facial expression evaluation information F3 by attendee and the motion evaluation information F4 by attendee are created, the
[0042]
When the participation degree evaluation information F5 for each attendee is generated, the
[0043]
By the procedure described above, attendance-by-participant participation evaluation information F5 and overall venue participation evaluation information F6 are generated. Participant participation degree evaluation information F5 can be used to individually evaluate the participation status of attendees, and the entire venue participation degree evaluation information F6 is used to evaluate an event or event performer. be able to.
[0044]
Hereinafter, as an example of utilizing the entire venue participation degree evaluation information F6, a class evaluation of a cram school lecturer will be described.
FIG. 12 shows the preparatory school lecturer evaluation table output process executed by the
[0045]
When the instruction from the
[0046]
Next, the output average, highest, and lowest participation rates are evaluated by referring to the lecturer evaluation table T1 stored in the
[0047]
Note that T1 can be changed, and the evaluation reference value can be changed, the rank can be added / deleted, the evaluation item can be added / deleted, and the evaluation symbol can be changed at any time. The evaluation result is desirably output not only from the
[0048]
FIG. 14 shows an example of the preparatory school lecturer evaluation table output by the above-described preparatory school lecturer evaluation table output process. In this way, the actual participation rate and evaluation of students in each lecturer's class for each class are output as a table, so that the evaluation of the cram school teacher by the cram school manager and the reference materials for selecting the teachers of the students and parents Can be used as
[0049]
In addition, the entire venue participation degree evaluation information F6 generated in the class of the cram school lecturer can be used as follows.
As soon as the venue image data is input from the
[0050]
・ Using F6, provide changes in participation rate over time to tables and graphs for teachers who conducted classes. Providing a comparison with changes in the participation rate due to the time of other teachers and changes in the participation rate due to the time of other classes by the same instructor in a table, graph, etc. Become. In this way, the instructor knows the relationship between the lesson content and the participation rate, which can be used to improve the lesson.
[0051]
In addition, participation degree evaluation information F5 by attendee generated in the class of the cram school teacher can be used. For example, the actual participation / non-participation of a certain student for each time zone is output to the
[0052]
As described above, according to the image
[0053]
Therefore, compared with the conventional evaluation based on the number of attendees and the attendance rate, the effectiveness can be evaluated based on the content of the event. In addition, since the evaluation can be analyzed for each time zone, it can be used for research on performance methods and the like. Moreover, not only the person who performs the event but also each attendee can be specified to evaluate the participation state and the degree of concentration. It is possible to analyze attendees' entry / exit, movement, etc. in chronological order.
[0054]
Note that the description content in the above embodiment is a preferred example in the present embodiment, and the present invention is not limited to this. Further, the detailed configuration and detailed operation of the image
[0055]
【The invention's effect】
According to the present invention,The attendee's consciousness level is determined by judging the movement of the attendee's eyeball from the image data of the attendee, and when the consciousness level cannot be determined, the behavior of the attendee's action is determined from the image data. The level is judged, these judgments are made for multiple attendees, and the results of the judgment are aggregated and output, so the accuracy is higherEvaluate and analyze the effectiveness of events and attendance status of attendees.
[Brief description of the drawings]
FIG. 1 is a diagram showing an overall configuration of an image
2 is a block diagram showing a functional configuration of a
3A is a diagram showing a record structure of a record R20 stored in the pre-registration information F20 in FIG. 2, and FIG. 3B is a record structure of a record R21 stored in the position definition information F21 in FIG. (C) is a figure explaining an example of the position definition method of the position A in a meeting place top view, (d) is a figure which shows R21 which registered the definition information of the position A of (c) as an example of R21 It is.
4 is a diagram schematically showing a participation degree evaluation data creation procedure of the image
FIG. 5 is a diagram showing a structure of a record R1 stored in a venue image transaction F1 in FIG.
6 is a flowchart showing attendee information generation processing executed by
7 is a flowchart showing a face pointer face extraction process executed by the
FIG. 8 is a flowchart showing attendee information processing executed by the
9A is a diagram showing a structure of a record R22 stored in the attendee facial information F22 in FIG. 4, and FIG. 9B is a diagram showing a structure of the record R23 stored in the attendee information F23 in FIG. FIG.
10 is a flowchart showing facial expression evaluation processing executed by
11A is a diagram showing a structure of a record R3 stored in the facial expression evaluation information F3 by attendee in FIG. 4, and FIG. 11B is stored in action evaluation information F4 by attendee in FIG. 4; The figure which shows the structure of record R4, (c) is the evaluation table of participation degree evaluation according to attendee, (d) is the figure which shows the structure of record R5 stored in participation degree evaluation information F5 according to attendee of FIG. e) is a diagram showing the structure of a record R6 stored in the overall venue participation evaluation information F6 in FIG.
12 is a flowchart showing a preparatory school lecturer evaluation table output process executed by the
13 is a diagram showing an example of a lecturer evaluation table T1 stored in the
14 is a diagram showing an example of a preparatory school lecturer evaluation table output by the preparatory school lecturer evaluation table output process of FIG. 12; FIG.
[Explanation of symbols]
100 Image data processing apparatus
1 Body
11 CPU
12 Input section
13 Display section
14 Image capture device connection
15 RAM
16 Recording section
17 Printing department
18 Communication Department
19 Bus
2 Image shooting device
Claims (3)
この意識レベル判定手段により意識レベルが判定できなかった場合に、前記画像データから出席者の動作の動作レベルを判定する動作レベル判定手段と、When the consciousness level cannot be determined by the consciousness level determining means, the action level determining means for determining the action level of the attendee's action from the image data;
前記意識レベル判定手段或いは前記動作レベル判定手段による判定を複数の出席者に対して行い、前記複数の出席者の判定結果を記憶する記憶手段と、Storage means for performing determination by the consciousness level determination means or the action level determination means for a plurality of attendees, and storing determination results of the plurality of attendees;
この記憶手段に記憶される前記複数の出席者の判定結果を集計して、集計された集計結果を出力する集計結果出力手段と、Aggregation result output means for aggregating the determination results of the plurality of attendees stored in the storage means and outputting the aggregated aggregation results;
を備えることを特徴とする画像データ処理装置。An image data processing apparatus comprising:
所定の時間帯別に変更される前記複数の出席者の判定結果を集計して、集計された集計結果を出力することを特徴とする請求項1に記載の画像データ処理装置。The image data processing apparatus according to claim 1, wherein the determination results of the plurality of attendees changed for each predetermined time period are totaled, and the totaled results are output.
出席者が撮像された画像データから前記出席者の眼球の動きが予め設定された基準レベル以上か否かを判定することにより出席者の意識レベルを判定する意識レベル判定手段、Consciousness level determination means for determining an attendee's consciousness level by determining whether or not the attendee's eye movement is equal to or higher than a preset reference level from image data obtained by capturing the attendee;
この意識レベル判定手段により意識レベルが判定できなかった場合に、前記画像データから出席者の動作の動作レベルを判定する動作レベル判定手段、An action level determination means for determining an action level of an attendee's action from the image data when the awareness level cannot be determined by the awareness level determination means;
前記意識レベル判定手段或いは前記動作レベル判定手段による判定を複数の出席者に対して行い、前記複数の出席者の判定結果を記憶する記憶手段、Storage means for performing determination by the consciousness level determination means or the action level determination means for a plurality of attendees, and storing the determination results of the plurality of attendees;
この記憶手段に記憶される前記複数の出席者の判定結果を集計して、集計された集計結果を出力する集計結果出力手段、Aggregation result output means for aggregating the determination results of the plurality of attendees stored in the storage means and outputting the aggregated aggregation results;
として機能させるプログラム。Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003061441A JP4232486B2 (en) | 2003-03-07 | 2003-03-07 | Image data processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003061441A JP4232486B2 (en) | 2003-03-07 | 2003-03-07 | Image data processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004272529A JP2004272529A (en) | 2004-09-30 |
JP4232486B2 true JP4232486B2 (en) | 2009-03-04 |
Family
ID=33123662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003061441A Expired - Fee Related JP4232486B2 (en) | 2003-03-07 | 2003-03-07 | Image data processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4232486B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4988241B2 (en) * | 2006-04-24 | 2012-08-01 | 株式会社春光社 | Marketing support device and marketing support method |
JP5370380B2 (en) * | 2011-01-25 | 2013-12-18 | ソニー株式会社 | Video display method and video display device |
JP6094131B2 (en) * | 2012-10-05 | 2017-03-15 | 日本電気株式会社 | Education site improvement support system, education site improvement support method, information processing device, communication terminal, control method and control program thereof |
JP6576181B2 (en) * | 2015-09-17 | 2019-09-18 | 貴倫 古澤 | Event support system |
JP2018049173A (en) * | 2016-09-21 | 2018-03-29 | 富士ゼロックス株式会社 | Information processing apparatus, evaluation system, and program |
JP7056339B2 (en) | 2018-04-12 | 2022-04-19 | 富士通株式会社 | User support programs, user support devices and user support methods |
-
2003
- 2003-03-07 JP JP2003061441A patent/JP4232486B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004272529A (en) | 2004-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
McGivney | Staying or Leaving the Course: Non-Completion and Retention of Mature Students in Further and Higher Education. | |
US20220319181A1 (en) | Artificial intelligence (ai)-based system and method for managing education of students in real-time | |
Mukala et al. | Exploring students’ learning behaviour in moocs using process mining techniques | |
CN109657529A (en) | Classroom teaching effect evaluation system based on human facial expression recognition | |
WO2001009867A1 (en) | Education/training management system, training management computer, class attendee terminal device, manager terminal device, education/training management method | |
JP6520361B2 (en) | Content utilization support method, content utilization support program, and content utilization support device | |
CN114841589A (en) | Potential safety hazard information code generation method for electric power member violation portrait and safety portrait | |
US20030236796A1 (en) | Method and system for online analytical processing for educational and other outcomes | |
Subramaniam et al. | Bar code scanner based student attendance system (sas) | |
CN117745494A (en) | Multi-terminal-fusion 3D video digital OSCE examination station system | |
JP4232486B2 (en) | Image data processing apparatus and program | |
JP2007102344A (en) | Automatic evaluation device, program, and method | |
Mukala et al. | Uncovering learning patterns in a MOOC through conformance alignments | |
JP6485764B1 (en) | Classroom management server, classroom management system, classroom management method and program | |
WO2022168180A1 (en) | Video session evaluation terminal, video session evaluation system, and video session evaluation program | |
McCarter et al. | Audience response systems as a data collection method in organizational research | |
JP6860182B1 (en) | Management system, information processing device, management method, and program | |
Weinauer | Be a detective for a day: how to detect falsified interviews with statistics | |
JPH1074275A (en) | Attendance/absence management system | |
JP5071208B2 (en) | Course support device | |
JP7001429B2 (en) | Interest measurement system and method | |
KR20210099990A (en) | System and Method for Managing Information with the Attendance Check linked Photographing | |
US20130332371A1 (en) | Systems and methods for jury selection and consulting | |
JP5304007B2 (en) | Course support device and course support system | |
CN112235546B (en) | Population monitoring alarm method based on big data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080812 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081009 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081118 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081201 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111219 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111219 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121219 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121219 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131219 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |