JPWO2016088369A1 - 情報処理装置、言動評価方法およびプログラム記憶媒体 - Google Patents
情報処理装置、言動評価方法およびプログラム記憶媒体 Download PDFInfo
- Publication number
- JPWO2016088369A1 JPWO2016088369A1 JP2016562305A JP2016562305A JPWO2016088369A1 JP WO2016088369 A1 JPWO2016088369 A1 JP WO2016088369A1 JP 2016562305 A JP2016562305 A JP 2016562305A JP 2016562305 A JP2016562305 A JP 2016562305A JP WO2016088369 A1 JPWO2016088369 A1 JP WO2016088369A1
- Authority
- JP
- Japan
- Prior art keywords
- behavior
- person
- information
- evaluated
- evaluation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 383
- 230000010365 information processing Effects 0.000 title claims abstract description 76
- 238000001514 detection method Methods 0.000 claims abstract description 105
- 238000000034 method Methods 0.000 claims description 94
- 230000008569 process Effects 0.000 claims description 50
- 238000012545 processing Methods 0.000 claims description 34
- 230000009471 action Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 abstract description 9
- 230000006399 behavior Effects 0.000 description 534
- 239000000047 product Substances 0.000 description 131
- 238000010586 diagram Methods 0.000 description 29
- 238000012986 modification Methods 0.000 description 20
- 230000004048 modification Effects 0.000 description 20
- 230000008451 emotion Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000013475 authorization Methods 0.000 description 5
- 239000003814 drug Substances 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 235000013618 yogurt Nutrition 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 230000008909 emotion recognition Effects 0.000 description 2
- 235000015243 ice cream Nutrition 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 206010010305 Confusional state Diseases 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000008267 milk Substances 0.000 description 1
- 235000013336 milk Nutrition 0.000 description 1
- 210000004080 milk Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000010902 straw Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06398—Performance of employee with respect to a job function
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/01—Customer relationship services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/01—Customer relationship services
- G06Q30/015—Providing customer assistance, e.g. assisting a customer within a business location or via helpdesk
- G06Q30/016—After-sales
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Entrepreneurship & Innovation (AREA)
- Educational Administration (AREA)
- Game Theory and Decision Science (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Operations Research (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
他者に対する人の言動を適切に評価できる技術を提供する。情報処理装置は、認識部11と、検知部12と、評価部13とを備える。認識部11は、被評価者の言動を認識する。検知部12は、被評価者の言動の切っ掛けとなる被評価者以外の者の状態である契機状態を検知する。評価部13は、検知された契機状態と、認識部13による被評価者の言動に関わる認識結果とを利用して、被評価者の言動を評価する。
Description
本発明は、他者に対する人の言動を評価する技術に関する。
特許文献1は、コールセンタ等でのオペレータの応対を自動的に評点する手法を提案する。この提案手法では、受信した顧客の音声信号から検知される音声特徴量、および、予め与えられている感情モデルを用いて、1コールごとの感情系列が生成される。そして、この感情系列は感情点数の系列に変換され、この感情点数の系列に基づいて、オペレータの応対に関する評点が算出される。
特許文献2は、会話比率と顧客満足度の関連性を把握するために接客データを記録する手法を提案する。この提案手法では、店員と顧客の会話から、店員が話し掛けた区間(時間区分)と顧客が話し掛けた区間(時間区分)とが抽出される。そして、抽出された各区間の時間の長さに基づいて、店員と顧客との会話の時間比率(会話比率)が算出される。また、顧客が話し掛けた区間の音声から認識される顧客の感情に基づいて顧客満足度が算出される。そして、算出された会話比率と顧客満足度が、関連付けられた状態で記録される。
特許文献3には、商品の売上登録の熟練度を識別するための画像として、店員が被る帽子の画像、店員の顔画像、制服の画像を用いることが記載されている(特許文献3の段落0025を参照)。特許文献4には、制御ユニットに搭載される顔認識チップが、個人認証や顔表情認識に必要な顔の特徴値を撮影画像から取得することや、特徴値から客層を判定することが記載されている(特許文献4の段落0034および段落0050を参照)。特許文献5には、音声情報のフレーム番号と映像信号のフレーム番号とそれらの再生時間情報とが紐付けられた状態で格納されることが記載されている(特許文献5の段落0045を参照)。特許文献6には、店員および顧客の会話音声に基づいて店員および顧客の感情が認識され、その認識結果に基づいて店員満足度および顧客満足度が算出される手法が記載されている。特許文献7には、各POS(Point Of Sale)端末における売上データを格納するテーブル(表)が、日付、時間帯等のデータを含むレコードを有して構成されることが記載されている(特許文献7の段落0025を参照)。特許文献8には、異種分類体系間のカテゴリを関連付けることが記載されている(特許文献8の段落0033を参照)。特許文献9には、背景の前で動作する人物等の被写体を撮影し、撮影画像(動画データ)からの人物等の被写体の動作を認識することが記載されている(特許文献9の段落0032を参照)。
特許文献1や特許文献2で提案されている手法では、被評価者の発話又は被評価者と相手との会話の適切性が評価される。しかしながら、顧客に対する被評価者(店員)の言動は、発話内容あるいは会話音声から得られる感情情報のみで評価できるものではない。店員による顧客を満足させる発話内容は状況に応じて異なる。例えば、日本では、顧客が来店した際には、「いらっしゃいませ」と発話することが店員に望まれる。顧客が店から出る際には、「ありがとうございました」と発話することが店員に望まれる。また、顧客の年齢層や状態に応じて、店員に要求される発話内容や声の大きさ等が異なる場合もある。さらに、会話内容等の状況に応じて、歩み寄る、屈む、お辞儀する等のように、発言だけでなく、会話に応じた行動が店員に要求される場合もある。
上記したように、顧客に対する店員の言動は、発話内容あるいは会話音声から得られる感情情報のみで評価できるものではないので、特許文献1,2に記載されている手法では、顧客に対する店員の言動を適切に評価できない場合がある。
本発明は上記したような課題を解決するために考え出された。すなわち、本発明の主な目的は、他者に対する人の言動を適切に評価できる技術を提供することにある。
上記目的を達成するために、本発明の情報処理装置は、様相の一つとして、
被評価者の言動を認識する認識部と、
前記被評価者の言動の切っ掛けとなる前記被評価者以外の者の状態である契機状態を検知する検知部と、
前記検知部により検知された前記契機状態と、前記認識部による前記被評価者の言動に関わる認識結果とを利用して、前記被評価者の言動を評価する評価部と、
を備える。
被評価者の言動を認識する認識部と、
前記被評価者の言動の切っ掛けとなる前記被評価者以外の者の状態である契機状態を検知する検知部と、
前記検知部により検知された前記契機状態と、前記認識部による前記被評価者の言動に関わる認識結果とを利用して、前記被評価者の言動を評価する評価部と、
を備える。
また、本発明の情報処理装置は、別の様相の一つとして、
被評価者の言動を認識する認識部と、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者の属性情報を取得する属性取得部と、
前記属性取得部により取得された前記属性情報に応じた前記被評価者の予め定められた指定言動と、前記認識部により認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価する評価部と、
を備える。
被評価者の言動を認識する認識部と、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者の属性情報を取得する属性取得部と、
前記属性取得部により取得された前記属性情報に応じた前記被評価者の予め定められた指定言動と、前記認識部により認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価する評価部と、
を備える。
さらに、本発明の情報処理装置は、別の様相の一つとして、
被評価者の言動を認識する認識部と、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者が購入しようとしている対象商品の情報を取得する情報取得部と、
前記情報取得部により取得された対象商品情報に応じた前記被評価者の予め定められた指定言動と、前記認識部により認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価する評価部と、
を備える。
被評価者の言動を認識する認識部と、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者が購入しようとしている対象商品の情報を取得する情報取得部と、
前記情報取得部により取得された対象商品情報に応じた前記被評価者の予め定められた指定言動と、前記認識部により認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価する評価部と、
を備える。
本発明の言動評価方法は、様相の一つとして、
コンピュータによって、
被評価者の言動を認識し、
前記被評価者の言動の切っ掛けとなる前記被評価者以外の者の状態である契機状態を検知し、
前記検知された前記契機状態と、前記認識手段による前記被評価者の言動に関わる認識結果とを利用して、前記被評価者の言動を評価する。
コンピュータによって、
被評価者の言動を認識し、
前記被評価者の言動の切っ掛けとなる前記被評価者以外の者の状態である契機状態を検知し、
前記検知された前記契機状態と、前記認識手段による前記被評価者の言動に関わる認識結果とを利用して、前記被評価者の言動を評価する。
また、本発明の言動評価方法は、別の様相の一つとして、
コンピュータによって、
被評価者の言動を認識し、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者の属性情報を取得し、
前記取得された前記属性情報に応じた前記被評価者の予め定められた指定言動と、前記認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価する。
コンピュータによって、
被評価者の言動を認識し、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者の属性情報を取得し、
前記取得された前記属性情報に応じた前記被評価者の予め定められた指定言動と、前記認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価する。
さらに、本発明の言動評価方法は、別の様相の一つとして、
コンピュータによって、
被評価者の言動を認識し、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者が購入しようとしている対象商品の情報を取得し、
前記取得された対象商品情報に応じた前記被評価者の予め定められた指定言動と、前記認識手段により認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価する。
コンピュータによって、
被評価者の言動を認識し、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者が購入しようとしている対象商品の情報を取得し、
前記取得された対象商品情報に応じた前記被評価者の予め定められた指定言動と、前記認識手段により認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価する。
本発明のプログラム記憶媒体は、様相の一つとして、
被評価者の言動を認識する処理と、
前記被評価者の言動の切っ掛けとなる前記被評価者以外の者の状態である契機状態を検知する処理と、
前記検知された前記契機状態と、前記認識手段による前記被評価者の言動に関わる認識結果とを利用して、前記被評価者の言動を評価する処理と
をコンピュータに実行させる処理手順が記憶されている。
被評価者の言動を認識する処理と、
前記被評価者の言動の切っ掛けとなる前記被評価者以外の者の状態である契機状態を検知する処理と、
前記検知された前記契機状態と、前記認識手段による前記被評価者の言動に関わる認識結果とを利用して、前記被評価者の言動を評価する処理と
をコンピュータに実行させる処理手順が記憶されている。
また、本発明のプログラム記憶媒体は、別の様相の一つとして、
被評価者の言動を認識する処理と、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者の属性情報を取得する処理と、
前記取得された前記属性情報に応じた前記被評価者の予め定められた指定言動と、前記認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価するする処理と
をコンピュータに実行させる処理手順が記憶されている。
被評価者の言動を認識する処理と、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者の属性情報を取得する処理と、
前記取得された前記属性情報に応じた前記被評価者の予め定められた指定言動と、前記認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価するする処理と
をコンピュータに実行させる処理手順が記憶されている。
さらに、本発明のプログラム記憶媒体は、別の様相の一つとして、
被評価者の言動を認識する処理と、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者が購入しようとしている対象商品の情報を取得する処理と、
前記取得された対象商品情報に応じた前記被評価者の予め定められた指定言動と、前記認識手段により認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価する処理と
をコンピュータに実行させる処理手順が記憶されている。
被評価者の言動を認識する処理と、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者が購入しようとしている対象商品の情報を取得する処理と、
前記取得された対象商品情報に応じた前記被評価者の予め定められた指定言動と、前記認識手段により認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価する処理と
をコンピュータに実行させる処理手順が記憶されている。
なお、本発明の前述した主な目的は、本発明の情報処理装置に対応する本発明の言動評価方法によっても達成される。さらに、本発明の前述した主な目的は、本発明の情報処理装置、本発明の言動評価方法に対応するコンピュータプログラムおよびそれを記憶するプログラム記憶媒体によっても達成される。
本発明によれば、他者に対する人の言動を適切に評価できる。
以下に、本発明に係る実施形態を図面を参照しながら説明する。
<第1実施形態>
本発明に係る第1実施形態の情報処理装置は、他者に対する人の言動を評価する機能を備えている。ここで、被評価者は、他者に対する言動が評価される人である。なお、被評価者と他者の関係は限定されないが、以下では、説明を分かり易くするために、被評価者が店員であり、他者が顧客であるとする。すなわち、以下に説明する情報処理装置は、顧客に対する店員の言動を評価する機能を備えている。
本発明に係る第1実施形態の情報処理装置は、他者に対する人の言動を評価する機能を備えている。ここで、被評価者は、他者に対する言動が評価される人である。なお、被評価者と他者の関係は限定されないが、以下では、説明を分かり易くするために、被評価者が店員であり、他者が顧客であるとする。すなわち、以下に説明する情報処理装置は、顧客に対する店員の言動を評価する機能を備えている。
〔装置構成〕
図1は、第1実施形態における情報処理装置のハードウェア構成を概念的に表すブロック図である。第1実施形態における情報処理装置(以下、評価装置と記す場合もある)1は、いわゆるコンピュータであり、CPU(Central Processing Unit)2と、メモリ3と、入出力インタフェース(I/F(InterFace))4と、通信ユニット5とを有する。これらCPU2とメモリ3と入出力I/F4と通信ユニット5は、バスにより相互に接続されている。
図1は、第1実施形態における情報処理装置のハードウェア構成を概念的に表すブロック図である。第1実施形態における情報処理装置(以下、評価装置と記す場合もある)1は、いわゆるコンピュータであり、CPU(Central Processing Unit)2と、メモリ3と、入出力インタフェース(I/F(InterFace))4と、通信ユニット5とを有する。これらCPU2とメモリ3と入出力I/F4と通信ユニット5は、バスにより相互に接続されている。
メモリ3は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)を含む記憶装置である。
通信ユニット5は、他のコンピュータ等の機器との信号のやりとりを可能にする機能を備えている。通信ユニット5には、可搬型記憶媒体6も接続され得る。
入出力I/F4は、表示装置、入力装置等のユーザインタフェース装置、カメラ、マイクを含む周辺機器(図示せず)と接続する機能を備えている。なお、入出力I/F4に接続され得る表示装置は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイのような画面を有する装置である。表示装置は、CPU2やGPU(Graphics Processing Unit)(図示せず)等により処理された描画データを画面に表表する。入出力I/F4に接続され得る入力装置は、例えばキーボードやマウスであり、ユーザ操作の入力を受け付ける装置である。
評価装置1は、図1に図示されていないハードウェアを含んでもよく、評価装置1のハードウェア構成は図1に表されている構成に限定されない。また、評価装置1は複数のCPU2を有していてもよい。このように、評価装置1における各ハードウェア要素の数も図1に表されている例に限定されない。
〔制御構成〕
図2は、第1実施形態における評価装置1の制御構成(機能構成)を概念的に表す図である。評価装置1は、機能部として、認識部11と、検知部12と、評価部13と、特定部14とを有する。これら各機能部11〜14は、例えば、CPU2がメモリ3に格納されているコンピュータプログラム(プログラム)を実行することにより実現される。そのプログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記憶媒体6から評価装置1に取得される。また、プログラムは、ネットワークを通し他のコンピュータから通信ユニット5を介して評価装置1に取得されることもある。取得されたプログラムは、メモリ3に格納される。なお、機能部11〜14の少なくとも1つは、CPU以外の半導体チップを利用した回路により実現されてもよい。このように、機能部11〜14を実現するハードウェア構成は限定されない。
図2は、第1実施形態における評価装置1の制御構成(機能構成)を概念的に表す図である。評価装置1は、機能部として、認識部11と、検知部12と、評価部13と、特定部14とを有する。これら各機能部11〜14は、例えば、CPU2がメモリ3に格納されているコンピュータプログラム(プログラム)を実行することにより実現される。そのプログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記憶媒体6から評価装置1に取得される。また、プログラムは、ネットワークを通し他のコンピュータから通信ユニット5を介して評価装置1に取得されることもある。取得されたプログラムは、メモリ3に格納される。なお、機能部11〜14の少なくとも1つは、CPU以外の半導体チップを利用した回路により実現されてもよい。このように、機能部11〜14を実現するハードウェア構成は限定されない。
検知部12は、顧客による所定の契機状態を検知する機能を備えている。契機状態とは、店員が何かしらの言動を取ることが要求される顧客の1つ又は複数の状態(換言すれば、店員が或る動作(言動)を実行する切っ掛けとなる顧客の状態)である。検知対象の契機状態は予め定められている。ここでは、契機状態は、外見から見分けられる人の状態であり、動作や、心理状態を表す顔の表情やしぐさを含む。具体的には、契機状態としては、例えば、入店した、レジを待っている、カードを取り出した、何かを探している、困惑している、挙動不審、嬉しそうにしている、焦っている等の状態がある。
検知部12による検知手法は限定されないが、その一例として次のような手法がある。例えば、検知部12は、顧客を撮影した画像を取得し、取得した画像から人およびその人の状態を、画像認識技術を用いて認識(検知)する。また、メモリ3には、検知すべき契機状態毎に、人の特徴的な状態に関する参考データが保持される。検知部12は、それら保持している参考データと、取得した画像から検知した人の状態とに基づいて、顧客の検知対象の契機状態を検知する。例えば、検知部12は、ドアが開く状態およびその状態から3秒以内に人がドアを通って店内に移動する状態を認識した場合に、検知対象の契機状態である顧客の「入店」状態を検知する。また、検知部12は、複数の人が10秒以上レジの前で動かない状態を認識した場合に、検知対象の契機状態である顧客の「レジ待ちの列ができている」状態を検知する。さらに、検知部12は、同一人物が15秒以上同じ場所で立ち止まっている状態を認識した場合に、検知対象の契機状態である顧客の「困惑」状態を検知する。
他の例として、検知部12は、撮影画像を利用せずに、例えば人感センサから得られる情報を用いて、検知対象の契機状態を検知することもできる。なお、人感センサには、赤外線や超音波や可視光などを利用して人の所在を検知するセンサや、微弱電流が通電しているシートにおける通電状態の変化に基づいて人の行動を検知するセンサというような様々な種類が有る。ここでは、何れの種類の人感センサが採用されてもよい。
具体的には、検知部12は、店舗に設けられた人感センサの情報に基づいて、「入店」、「退店」、「レジ待ち」のような契機状態を検知できる。検知部12は、契機状態が検知された場合に、その検知された契機状態を表す情報およびその検知時間の情報を認識部11と特定部14に出力する。
認識部11は、店員の言動を認識する。認識される言動は、店員の発言(発話)と行動との両方又は一方である。店員の発言としては、発話の有無、発話内容および発話特性のうちの少なくとも一つが認識される。発話特性とは、音量、ピッチ(音の高さ)、トーン(音色)、速度、感情(嬉しそう、悲しそうなど)、印象(声の調子が明るい、暗いなど)というような発話音声から得られる特性である。なお、発話特性が認識される場合には、1つの特性だけでなく、複数の特性が発話特性として認識されてもよい。
すなわち、認識部11は、店員の行動のみ、店員の発話の有無のみ、店員の発話内容のみ、店員の発話特性のみ、又は、それら何れか複数の組み合わせを認識する。例えば、認識部11は、店員の発話音声を取得し、取得した発話音声から発話内容を、音声認識技術や自然言語処理技術を用いて認識する。さらに、認識部11は、発話内容と共に、あるいは発話内容の代わりに、取得した発話音声から発話特性を認識してもよい。例えば、認識部11は、発話の非言語特徴量を用いた感情認識技術により、元気よい、明るい、暗い、優しい等の発話の印象、又は、嬉しそう、困っている、悲しそうというような発話の感情を取得することができる。また、認識部11は、店員を撮影した画像を取得し、取得した画像を画像認識技術を用いて処理することにより、取得した画像に基づき、歩み寄る、屈む、お辞儀するというような店員の行動を認識してもよい。なお、認識部11により認識される店員の行動はそのような例に限定されない。
認識部11は、認識された店員の言動を表す情報(発話に関する情報や行動に関する情報)およびその言動の認識時間(検知時間)の情報を評価部13と特定部14に出力する。
店員と顧客とは、様々な方法で区別することができる。例えば、認識部11および検知部12は、それぞれ異なるデータ媒体を処理することによって、店員と顧客とを区別する。具体的には、検知部12は、顧客を撮影した画像データを用い、認識部11は店員に装着したマイクロフォンから得られる音声データを用いる。また、認識部11および検知部12は、異なるカメラにより撮影された画像を各々用いてもよい。同じ画像データを用いる場合には、認識部11と検知部12は、画像認識技術により、予め与えられている店員の特徴情報に基づいて店員の顔や服装や装飾品(名札も含む)を認識することにより、店員を認識し、それ以外の人は顧客と認識する。このように、認識部11と検知部12は、顧客と店員とを区別してもよい。
被評価者となる店員は、複数人存在し得る。認識部11は、撮影画像から、画像認識技術を利用して店員の顔や服装や装飾品(名札も含む)等を認識し、認識した情報と、予め与えられている店員毎の特徴情報とに基づいて、1つの画像データから個々の店員を識別できる。また、各店員をそれぞれ撮影する複数のカメラが設けられる場合には、各カメラから出力される撮影画像によって、認識部11は、個々の店員を識別できる。各店員にマイクロフォンが装着される場合には、認識部11は、音声データを出力したマイクロフォンを識別することにより個々の店員を識別できる。また、POS(Point Of Sale)端末又はPOSシステム(以降、POS装置と総称する)からの情報が用いられる場合には、認識部11は、そのPOS装置から、ログインしている店員のID(IDentification)が取得可能である。
なお、認識部11は、店員により行われる全ての言動を逐次認識してもよいが、検知部12により検知された顧客の契機状態に基づいて特定される店員の予め定められた評価対象の言動(以下、指定言動とも記す)のみを認識するようにしてもよい。この場合には、例えば、顧客の契機状態に関連付けられる店員の指定言動を表す参考情報がメモリ3に保持される。そして、認識部11は、検知部12により顧客の契機状態が検知された後に、店員の指定言動を表す参考情報の中から、検知された顧客の契機状態に関連付けられている指定言動を特定(認識)する。さらに、認識部11は、特定した指定言動を店員が実行したか否かを判断することにより、店員の指定言動を認識する。このように、認識部11が店員の指定言動を認識する場合には、次に述べる特定部14は省略することができる。
特定部14は、時間情報と位置情報とのうちの一方又は両方を用いて、認識部11により認識された店員の言動の中から、検知部12により検知された顧客の契機状態に応じた店員の言動(つまり、評価対象の言動)を特定する。特定される言動は1つであってもよいし、複数であってもよい。例えば、特定部14は、検知部12により検知された顧客の契機状態の時間情報と認識部11により認識された店員の言動の時間情報とに基づいて、認識された店員の言動の中から、検知された顧客の契機状態に応対した店員の言動を特定する。例えば、特定部14は、顧客の契機状態が検知された時間の前後における所定時間の範囲内で行われた店員の言動を評価対象の言動に決定する。
また、特定部14は、検知部12により契機状態が検知された顧客の位置情報および認識部11により言動が認識された店員の位置情報を用いて、評価される店員の言動を特定することもできる。この場合には、特定部14は、契機状態が検知された顧客に近い店員の言動が評価対象の言動として特定する。
なお、店員と顧客との位置関係を検知(把握)する手法には様々な手法があり、ここでは何れの手法を採用してもよい。例えば、契機状態が検知された顧客と、店員とが1つの画像内に写っている場合には、特定部14は、その画像内の位置に基づいて、画像に写っている店員と顧客との位置関係を把握できる。そして、特定部14は、契機状態が検知された顧客に画像内で最も近くに存在する店員を被評価者として特定する。あるいは、特定部14は、店員又は顧客を撮影したカメラの設置位置により、店員又は顧客の位置を把握することもできる。また、センサを利用して顧客又は店員が認識される場合には、特定部14は、そのセンサの設置位置の情報に基づいて、顧客又は店員の位置を把握することもできる。さらにまた、各店員にGPS(Global Positioning System)受信機を装着し、特定部14は、そのGPS受信機からの位置情報に基づいて、店員の位置を把握してもよい。GPSによる位置情報を用いる手法では、店員の位置を高精度に検知できるので、被評価者となり得る複数の店員が存在する場合にも、特定部14は、検知された顧客の契機状態に対して評価される少なくとも一人の店員の言動を特定できる。
評価部13は、店員の言動を評価する。例えば、評価部13は、検知部12により検知された顧客の契機状態に応じて定まる店員の指定行動と、特定部14により特定される店員の評価対象の言動とを照合することによって、店員の言動を評価する。評価部13は、評価結果として2値(例えば「良い」と「悪い」)の評価結果を決定してもよいし、3値以上の多値(例えば「良い」と「悪い」と「ふつう」)の評価点を決定してもよい。なお、評価部13による店員の評価対象の言動と指定言動との照合は、テキストデータ間の比較によって行われてもよいし、行動IDのようなIDデータ間の比較によって行われてもよいし、音素データ間の比較によって行われてもよい。
ところで、語尾や言い回しの違いのように、店員の言動は、予め決められた指定言動と完全に一致しなくても適切な場合がある。そこで、評価部13は、認識された評価対象の言動と指定言動との照合によって照合度(類似度)を算出し、この照合度が許容範囲であるか否かによって、店員が指定言動を行ったか否かを判断することができる。
店員の指定言動は、顧客の状態によって店員に期待される推奨言動であり、検知部12により検知される顧客の状態に応じて設定される。すなわち、認識部11により店員の発話内容又は発話特性が認識される場合には、指定言動として、所定の発話内容又は所定の発話特性が設定される。この場合には、評価部13は、検知部12により検知された顧客の契機状態に応じた店員の指定言動である発話内容又は発話特性と、特定部14により特定される店員の評価対象の言動とに基づいて、店員の言動を評価する。
評価部13は、複数の言動(発話内容や発話特性や行動)が指定言動として特定された場合には、それら特定された複数の指定言動のうち、店員が実行した言動の数に応じて、3値以上の評価点を決定してもよい。さらに、評価部13は、次のようにして評価点を決定してもよい。例えば、指定言動としての発話内容と発話特性と行動には、それぞれ、顧客に対する影響度の大きさに応じて評価点又は優先度が与えられているとする。この場合には、店員の評価対象の言動に対応する指定言動に付与されている評価点又は優先度を用いて、評価部13は、最終的な評価点を決定する。
なお、認識部11が、店員により指定言動が実行されたか否かを認識する場合には、評価部13は、特定部14からの情報ではなく、認識部11による認識(判断)結果を利用して、店員の言動を評価する。
評価部13による評価手法の具体例を述べる。例えば、評価部13は、ルールテーブル15に基づいて指定言動を特定する。図3は、第1実施形態におけるルールテーブル15の例を表す図である。図3に表されるルールテーブル15は、顧客の状態(契機状態)と当該顧客の状態が生じた場合に店員に期待される指定言動(推奨言動)とが関連付けられている表データである。図3の例では、店員の指定言動として発話内容および発話特性が設定されている。つまり、顧客の状態「入店」に対しては、指定言動である発話内容として「いらっしゃいませ」が、また、指定言動である発話特性として「明るく元気に」が、それぞれ、関連付けられてルールテーブル15に格納されている。また、顧客の状態「レジ待ちの列」には、指定言動である発話内容「お待ちの方、こちらのレジへどうぞ」のみが関連付けられてルールテーブル15に格納されている。
なお、図3では、説明を分かり易くするために、便宜上、顧客の状態および店員の指定言動を表すデータが文字列で表されているが、それらデータは数値で表すこともできる。また、図3には図示されていないが、ルールテーブル15には、顧客の状態と店員の指定言動とが関連付けられているデータにさらに関連付けられた評価値が含まれていてもよい。また、1つの顧客の状態に複数の指定言動が関連付けられている場合に、各指定言動に評価点が関連付けられていてもよい。例えば、指定言動として発話内容と発話特性が設定されている場合に、発話内容「いらっしゃいませ」の評価点が60点、発話特性「明るく元気に」の評価点が40点と設定されてもよい。なお、図3の例では、指定言動として、発話内容と発話特性が表されているが、指定言動は、それらに限定されない。
評価部13は、ルールテーブル15に格納されている情報に基づいて、検知された顧客の契機状態に応じた店員の指定言動を特定する。特定される店員の指定言動は、例えば、任意の発話と発話内容と発話特性と行動のうちの少なくとも一つである。評価部13は、特定部14により特定された店員の評価対象の言動と、認識部11により特定された店員の指定言動とを照合することによって、店員の言動を評価する。
なお、認識部11が、検知部12により検知される顧客の契機状態に基づいて特定される店員の指定言動を実行したか否かを認識(判断)する場合には、認識部11は、ルールテーブル15を参照する。例えば、認識部11は、検知部12により顧客の契機状態が検知された場合に、ルールテーブル15を参照することによって、その検知された契機状態に応じた店員の指定言動を特定する。認識部11は、その特定された指定言動を店員(特定部14により特定される店員)が実行したか否かを判断し、評価部13は、その結果に基づいて店員の言動を評価する。
〔動作例(言動評価方法)〕
図4および図5は、第1実施形態における評価装置1の動作例(処理手順)を表すフローチャートである。
図4および図5は、第1実施形態における評価装置1の動作例(処理手順)を表すフローチャートである。
図4に表されている処理手順では、まず、評価装置1の検知部12が顧客の契機状態を検知する(S41)。また、認識部11が店員の言動を認識する(S42)。例えば、検知部12が顧客に関し予め定められた契機状態(入店、退店等)を検知しつつ(S41)、認識部11が店員の発話内容と発話特性の少なくとも一方を随時認識する(S42)。
特定部14は、顧客の契機状態が検知された場合には、検知された顧客の契機状態に応じた店員の評価対象の言動を特定する(S43)。この特定する処理は、例えば、検知部12により検知された顧客の契機状態の時間情報および認識部11により認識された店員の言動の時間情報を用いて行われる。なお、この特定の処理は、契機状態が検知された顧客の位置情報および言動が認識された店員の位置情報をさらに用いて行われてもよい。
その後、評価部13が、例えば、ルールテーブル15を参照することによって、検知された顧客の契機状態に応じた店員の指定言動を特定する(S44)。
そして、評価部13が、その特定した指定言動と、評価対象の店員の言動とを照合し、その照合により得られる適合性により、その店員の言動を評価する(S45)。
図5には、図4に表されている処理手順とは異なる処理手順の一例が表されている。すなわち、図5における処理手順は、特定部14に係る処理を必要としない処理手順である。図5における処理手順では、評価装置1の検知部12が顧客の契機状態を検知し(S51)、その後に、認識部11が、ルールテーブル15を参照することにより、その検知された契機状態に応じた店員の指定言動を特定する(S52)。
その後、認識部11が、店員の言動として認識した言動が指定言動であるか否かを判断する(S53)。そして、評価部13は、その判断結果(認識結果)に基づいて、店員の言動を評価する(S54)。
なお、被評価者となり得る店員が複数人存在する場合には、例えば、認識部11は、契機状態が検知された顧客の位置情報を取得し、この位置情報に基づき評価対象となる店員を特定する。そして、評価部13は、特定した評価対象の店員について、上記同様に言動を評価する。
なお、第1実施形態の評価装置1が実行する処理手順は、図4と図5の例に限定されない。例えば、評価対象の言動を特定する処理(図4におけるS43)と、指定言動を特定する処理(S44)とは並列的に実行されてもよい。あるいは、評価対象の言動を特定する処理(S43)よりも先に指定言動を特定する処理(S44)が実行されてもよい。
〔第1実施形態における効果〕
上記したように第1実施形態では、顧客の契機状態が検知され、店員の言動が認識される。そして、検知された顧客の契機状態に応じて店員に期待される指定言動(推奨言動)を店員が実行したか否かの結果に基づいて、店員の言動が評価される。このように、第1実施形態によれば、店員および顧客の発話内容のみではなく、顧客の契機状態に応じて店員の言動が評価されるため、顧客に対する店員の言動を適切に評価できる。
上記したように第1実施形態では、顧客の契機状態が検知され、店員の言動が認識される。そして、検知された顧客の契機状態に応じて店員に期待される指定言動(推奨言動)を店員が実行したか否かの結果に基づいて、店員の言動が評価される。このように、第1実施形態によれば、店員および顧客の発話内容のみではなく、顧客の契機状態に応じて店員の言動が評価されるため、顧客に対する店員の言動を適切に評価できる。
また、第1実施形態の評価装置1は、検知された顧客の契機状態に応じた指定言動である発話特性を考慮して店員の言動を評価する構成を採り得る。この場合には、例えば、評価装置1は、明るく元気な声で何らかの発話を行う、又は、明るく元気な声で「いらっしゃいませ」と発話するというような指標(指定言動)に基づいて、店員の言動を評価できる。つまり、評価装置1は、発話内容に基づいて店員の言動を評価する場合とは異なる指標に基づいた評価を行うことができる。
また、第1実施形態の評価装置1は、時間情報と位置情報の一方又は両方を用いて、店員の評価対象の言動を特定できる構成(特定部14)を備えている。これにより、評価装置1は、被評価者となり得る店員が複数存在する場合や、店員の言動が連続的に認識される場合においても、適切に店員の言動を評価できる。
ここで、第1実施形態の評価装置1が評価できる店員の言動(指標(指定言動))の具体例を述べる。なお、指定言動は、次の具体例に限定されない。
指標(指定言動(推奨言動)):
- 顧客が入店した際に、店員が「明るく元気に」(発話特性)「いらっしゃいませ」(発話内容)と言っている
- レジ待ちの列が出来ている場合に、店員が「お待たせしました」(発話内容)と言っている
- 顧客がレジでカードを取り出した場合に、店員が「電子マネーのお支払で宜しいですか?」(発話内容)と言っている
- 顧客が精算のためにレジ前に立った際に、店員が笑顔でお辞儀している
- 顧客が困惑している場合に、店員がその顧客に近付き(行動)、「何かお探しですか?」(発話内容)と言っている
- 顧客が入店した際に、店員が「明るく元気に」(発話特性)「いらっしゃいませ」(発話内容)と言っている
- レジ待ちの列が出来ている場合に、店員が「お待たせしました」(発話内容)と言っている
- 顧客がレジでカードを取り出した場合に、店員が「電子マネーのお支払で宜しいですか?」(発話内容)と言っている
- 顧客が精算のためにレジ前に立った際に、店員が笑顔でお辞儀している
- 顧客が困惑している場合に、店員がその顧客に近付き(行動)、「何かお探しですか?」(発話内容)と言っている
なお、検知部12は、顧客がレジでカードを取り出した(手にカードを持っている)状態を次のように検知することができる。すなわち、検知部12は、レジとその周辺が写されている撮影画像を画像処理することにより、顧客の手を認識し、かつ、その手の周辺に方形の物体を認識することにより、顧客がレジでカードを取り出した状態を検知できる。
また、検知部12は、顧客がレジ前に立った状態を、撮影画像や人感センサから出力されるセンサ出力に基づいて検知できる。さらに、検知部12は、店員が撮影されている撮影画像を画像処理することによって顔(輪郭)と表情を認識し、この認識結果に基づいて、店員の笑顔を検知できる。さらにまた、検知部12は、店員が撮影されている撮影画像を画像処理することによって人および人の形の変化(動き)を認識し、認識結果に基づいて店員の行動(例えばお辞儀や顧客に近付く行動)を検知できる。
<第2実施形態>
以下に、本発明に係る第2実施形態を説明する。
以下に、本発明に係る第2実施形態を説明する。
第2実施形態の評価装置1は、店員の言動の評価に、第1実施形態で利用した情報に加えて、さらに、顧客の属性情報をも利用する。なお、第2実施形態の説明において、第1実施形態の評価装置1を構成する構成要素と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
〔制御構成〕
図6は、第2実施形態の評価装置1における制御構成を概念的に表すブロック図である。第2実施形態の評価装置1は、第1実施形態の制御構成に加えて、属性取得部17をさらに有する。属性取得部17は例えばCPUにより実現される。
図6は、第2実施形態の評価装置1における制御構成を概念的に表すブロック図である。第2実施形態の評価装置1は、第1実施形態の制御構成に加えて、属性取得部17をさらに有する。属性取得部17は例えばCPUにより実現される。
属性取得部17は、検知部12により契機状態が検知された顧客の属性情報を取得する。属性情報は、顧客の特徴を表す情報であり、例えば、年齢層と性別と国籍のうちの少なくとも1つを含む情報である。例えば、属性取得部17は、検知部12により顧客の契機状態が検知された撮影画像を取得し、取得した撮影画像から顧客の顔の特徴を、画像認識技術を用いて抽出する。そして、属性取得部17は、抽出した顔の特徴を利用して顧客の属性情報を取得する。なお、属性取得部17は、画像から顧客の属性情報を高精度に抽出するために、画像の特徴量データの学習を行ってもよい。また、顧客の年齢に関する情報は、10歳未満、10代、20代、30代、40代というような年齢層(年代)の情報であってもよい。
また、例えば、POS装置には、精算時に、オペレータにより年齢層や性別等の顧客の特徴情報を入力させる機能を持つ種類がある。このような種類のPOS装置が利用されている場合には、属性取得部17は、POS装置から、顧客の属性情報を取得することができる。このように、属性情報を取得する手法には様々な手法があり、評価装置1が利用される店舗の状況等を考慮した適宜な手法が採用される。
検知部12により検知された顧客の契機状態と、属性取得部17により取得される顧客の属性情報とは、例えば特定部14により関連付けられる。関連付ける手法は様々な手法により実現可能である。例えば、顧客の契機状態と属性情報との取得元となるデータが同じ画像データであるというように同一データである場合には、その取得された契機状態と属性情報とが関連付けられる。
また、顧客の契機状態と属性情報とのうちの一方の取得元となるデータが画像データであり、他方の取得元となるデータがセンサの出力であるというように、取得元のデータが異なる場合がある。この場合には、特定部14が、各データの時間情報、又は、時間情報および位置情報を用いて、同一顧客に関する契機状態と属性情報とを関連付ける。この場合には、属性取得部17は、顧客の属性情報を取得すると共に、取得した属性情報の時間情報を取得する。属性情報の時間情報とは、属性情報が取得された時間を表す情報であってもよいし、属性情報の取得元のデータが撮像装置やPOS装置により取得された時間を表す情報であってもよい。また、検知部12は、顧客の契機状態を検知すると共に、契機状態の時間情報を取得する。契機状態の時間情報とは、契機状態が検知された時間を表す情報であってもよいし、契機状態の検知にあたり利用されたデータが撮像装置等により取得された時間を表す情報であってもよい。
図7は、第2実施形態におけるルールテーブル15の例を表す図である。第2実施形態におけるルールテーブル15は、顧客の状態と顧客の属性情報と店員の指定言動(発話内容と発話特性)とが関連付けられている関係データを格納している。なお、図7では、顧客の属性情報が設定されない部分と、指定言動である店員の発話特性が設定されない部分とには、記号「−」が記されている。
図7の例では、顧客の状態(契機状態)が「困惑」であり、かつ、顧客の属性情報が「幼児」である場合には、顧客が迷子になっていると考えられることから、店員の指定言動(推奨言動)として発話内容「ママかパパと一緒?」が設定されている。さらに、この場合には、店員の指定言動(推奨言動)として発話特性「ゆっくりと優しく」も設定されている。また、顧客の状態が「困惑」であり、かつ、顧客の属性情報が「幼児以外の年齢層」である場合には、店員の指定言動として発話内容「何かお探しですか?」が設定され、店員の発話特性は設定されていない。
評価部13は、検知部12により契機状態が検知された顧客に関する属性情報をさらに用いて、ルールテーブル15から店員の指定言動を特定する。評価部13は、特定した指定言動と、特定部14により認識された店員の評価対象の言動とに基づいて、店員の言動を評価する。
なお、指定言動を特定する処理は、第1実施形態で述べたように、認識部11により実行されてもよい。この場合には、評価部13は、認識部11が指定言動を特定し当該特定した指定言動に基づいた認識処理を実行したか否かを判断する。そして、認識部11が指定言動を利用した認識処理を実行した場合には、評価部13は、認識部11による認識結果を利用して、店員の言動を評価する。
〔動作例(言動評価方法)〕
以下に、第2実施形態における評価装置1の動作例(処理手順)を、図8および図9を用いて説明する。
以下に、第2実施形態における評価装置1の動作例(処理手順)を、図8および図9を用いて説明する。
図8では、図4におけるフローチャートの処理と同じ処理には、図4と同じ符号を付してある。図8の例では、評価装置1の検知部12が顧客の契機状態を検知すると(S41)、属性取得部17が、契機状態を検知された顧客の属性情報を取得する(S81)。また、認識部11が店員の言動を認識する(S42)。
その後、特定部14が、検知された顧客の契機状態に応じた店員の評価対象の言動を特定する(S43)。そして、評価部13が、検知された顧客の契機状態と、取得された顧客の属性情報とに基づき、ルールテーブル15から店員の指定言動を特定する(S82)。然る後に、評価部13が、特定した指定言動と、店員の評価対象の言動とを照合し、当該照合により得られた適合性に基づいて、その店員の言動を評価する(S45)。
図9では、図5におけるフローチャートの処理と同じ処理には、図5と同じ符号を付してある。図9の例では、評価装置1の検知部12が顧客の契機状態を検知すると(S51)、属性取得部17が、契機状態を検知された顧客の属性情報を取得する(S91)。その後、認識部11が、検知された顧客の契機状態および顧客の属性情報に基づき、顧客の検知された契機状態に応じた店員の指定言動をルールテーブル15から特定する(S92)。そして、認識部11が、その特定した言動を店員が行ったか否かを判断(検知)する(S53)。この判断結果に基づいて、評価部13が店員の言動を評価する(S54)。
〔第2実施形態における効果〕
第2実施形態の評価装置1は、契機状態を検知した顧客の属性情報をさらに取得し、顧客の検知した契機状態および顧客の属性情報に基づいて、店員の指定言動を特定する。そして、第2実施形態の評価装置1は、その特定した指定言動を利用して、店員の言動を評価する。すなわち、第2実施形態の評価装置1は、顧客の契機状態および属性情報に適合する指定言動を店員が実行するか否かという指標で店員の言動を評価する。つまり、より顧客に適した指定言動が設定できるので、第2実施形態の評価装置1は、顧客に対する店員の言動をより細かく評価できる。
第2実施形態の評価装置1は、契機状態を検知した顧客の属性情報をさらに取得し、顧客の検知した契機状態および顧客の属性情報に基づいて、店員の指定言動を特定する。そして、第2実施形態の評価装置1は、その特定した指定言動を利用して、店員の言動を評価する。すなわち、第2実施形態の評価装置1は、顧客の契機状態および属性情報に適合する指定言動を店員が実行するか否かという指標で店員の言動を評価する。つまり、より顧客に適した指定言動が設定できるので、第2実施形態の評価装置1は、顧客に対する店員の言動をより細かく評価できる。
ここで、第2実施形態の評価装置1が評価できる店員の言動(指標(指定言動))の具体例を述べる。なお、指定言動は、次の具体例に限定されない。
指標(指定言動):
- 迷子の顧客がいる場合に(顧客の状態「困惑」および顧客の属性情報「幼児」)、店員が「ゆっくりと優しく」(発話特性)「ママかパパと一緒?」(発話内容)と言っている
- 迷子の顧客がいる場合に(顧客の状態「困惑」および顧客の属性情報「幼児」)、店員がその顧客に近付き屈んだ状態で話しかけている
-幼児以外の顧客が困惑している場合に(顧客の属性情報「幼児以外」および顧客の状態「困惑」)、店員がその顧客に近付き(行動)、「何かお探しですか?」(発話内容)と言っている
- 迷子の顧客がいる場合に(顧客の状態「困惑」および顧客の属性情報「幼児」)、店員が「ゆっくりと優しく」(発話特性)「ママかパパと一緒?」(発話内容)と言っている
- 迷子の顧客がいる場合に(顧客の状態「困惑」および顧客の属性情報「幼児」)、店員がその顧客に近付き屈んだ状態で話しかけている
-幼児以外の顧客が困惑している場合に(顧客の属性情報「幼児以外」および顧客の状態「困惑」)、店員がその顧客に近付き(行動)、「何かお探しですか?」(発話内容)と言っている
なお、検知部12は、発話のピッチ(早さ)を測定することによって発話特性「ゆっくり」を検知可能である。また、検知部12は、顧客の困惑状態を、顧客が映し出されている撮影画像の画像処理を利用する表情認識技術によって検知することができる。また、検知部12は、店内をウロウロしているというような人の動きに基づいて顧客の困惑状態を検知することもできる。さらに、検知部12は、店員が屈んだ状態を、店員が写し出されている撮影画像の画像処理を利用した人の形の認識技術によって、検知できる。さらにまた、検知部12は、店員が話しかけている動作を、音声の有無ではなく、画像処理により検知することができる。
<第3実施形態>
以下に、本発明に係る第3実施形態を説明する。なお、第3実施形態の説明において、第1と第2の実施形態の評価装置1を構成する構成部分と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
以下に、本発明に係る第3実施形態を説明する。なお、第3実施形態の説明において、第1と第2の実施形態の評価装置1を構成する構成部分と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
〔制御構成〕
図10は、第3実施形態の評価装置1における制御構成を概念的に表すブロック図である。第3実施形態の評価装置1は、店員の言動を評価する際に、顧客の契機状態および顧客の属性情報に加えて、顧客が購入しようとしている対象商品の情報をも利用して、店員の言動を評価する。すなわち、第3実施形態の評価装置1は、第2実施形態の構成に加えて、情報取得部18をさらに有する。情報取得部18は、CPUにより実現される。
図10は、第3実施形態の評価装置1における制御構成を概念的に表すブロック図である。第3実施形態の評価装置1は、店員の言動を評価する際に、顧客の契機状態および顧客の属性情報に加えて、顧客が購入しようとしている対象商品の情報をも利用して、店員の言動を評価する。すなわち、第3実施形態の評価装置1は、第2実施形態の構成に加えて、情報取得部18をさらに有する。情報取得部18は、CPUにより実現される。
情報取得部18は、顧客が購入する対象商品の情報を取得する。例えば、情報取得部18は、購入対象の商品の情報を取得するために、POS装置の情報を利用する。この場合には、情報取得部18は、POS装置によって商品のバーコードから読み取られた商品識別コードを取得してもよいし、その商品識別コードにより特定される商品名称等の情報を取得してもよい。また、情報取得部18は、POS装置によって商品識別コードが読み取られる毎に、その情報をPOS装置から取得してもよいし、複数の対象商品の情報をまとめてPOS装置から取得してもよい。さらに、情報取得部18は、対象商品の情報に加えて、POS装置にログインしている店員のIDデータなどの情報をもPOS装置から取得してもよい。また、情報取得部18は、POS装置からの情報ではなく、顧客が映し出されている撮影画像を画像処理することにより撮影画像から商品を検知することによって、対象商品の情報を取得してもよい。
第3実施形態では、情報取得部18により取得された対象商品情報と、検知部12により検知された顧客の契機状態の情報と、属性取得部17により取得された属性情報とが関連付けられる必要がある。それら情報を関連付ける手法には様々な手法がある。例えば、それら情報の基となるデータが同じデータ(例えば、同じ画像データや、同じPOS装置から得られるデータ)である場合には、同じデータから取得された顧客の契機状態の情報と属性情報と対象商品情報とが関連付けられる。
また、顧客の契機状態の情報と属性情報と対象商品情報の基となるデータが異なる場合には、例えば、特定部14が、各データの取得された時間情報や位置情報等を利用して、それら情報を関連付ける。この場合には、情報取得部18は、対象商品の情報と共に、その対象商品の時間情報を取得する。対象商品の時間情報とは、対象商品が認識された時間を表す。
図11は、第3実施形態におけるルールテーブル15の例を表す図である。第3実施形態におけるルールテーブル15は、顧客の状態と顧客の属性情報と対象商品情報と店員の指定言動とが関連付けられた関係データを格納する。なお、図11では、情報が設定されない部分には、記号「−」が表されている。
図11の例では、顧客の状態(契機状態)が「レジで精算する」であり、顧客の属性情報が「高齢者」であり、かつ、対象商品情報が「薬」の場合には、店員の指定言動として、発話内容「4時間以上の間隔をあけて飲んでください」が設定されている。また、この場合には、店員の指定言動として、発話特性「大きな声で」が設定されている。なお、顧客がレジで精算している状態(契機状態)と、顧客が高齢者(属性情報)であることと、購入する商品が薬(対象商品)であることとは、それぞれ、顧客が写し出されている撮影画像を画像処理することにより当該撮影画像から検知できる。
評価部13は、検知部12により検知された契機状態の情報に加えて、契機状態が検知された顧客に関する属性情報および購入対象の商品情報をさらに用いて、ルールテーブル15から店員の指定言動(推奨言動)を特定する。なお、この処理は、認識部11により実行されてもよい。この場合には、評価部13は、認識部11が指定言動を特定したか否かを判断し、認識部11が指定言動に基づいた認定処理を実行している場合には、認識部11による認定処理の結果を利用して店員の言動を評価する。
〔動作例〕
以下に、第3実施形態の評価装置1の動作例を図12および図13を用いて説明する。図12および図13は、第3実施形態における評価装置1の動作例(処理手順)を表すフローチャートである。なお、図12では、図8におけるフローチャートの処理と同じ処理には、図8と同じ符号が付されている。また、図13では、図9におけるフローチャートの処理と同じ処理には、図9と同じ符号が付されている。
以下に、第3実施形態の評価装置1の動作例を図12および図13を用いて説明する。図12および図13は、第3実施形態における評価装置1の動作例(処理手順)を表すフローチャートである。なお、図12では、図8におけるフローチャートの処理と同じ処理には、図8と同じ符号が付されている。また、図13では、図9におけるフローチャートの処理と同じ処理には、図9と同じ符号が付されている。
図12の例では、評価装置1の検知部12が顧客の契機状態を検知すると(S41)、属性取得部17が、契機状態を検知された顧客の属性情報を取得する(S81)。また、認識部11が店員の言動を認識する(S42)。さらに、情報取得部18が、顧客が購入する対象の商品の情報を取得する(S121)。そして、特定部14が、同じ顧客に関する契機状態の情報と属性情報と購入対象の商品情報とを関連付ける。
その後、特定部14が、検知された顧客の契機状態に応じた店員の評価対象の言動を特定する(S43)。そして、評価部13が、検知された顧客の契機状態と、取得された顧客の属性情報と、取得された購入対象の商品情報とに基づき、ルールテーブル15から店員の指定言動を特定する(S122)。然る後に、評価部13が、特定した指定言動と、評価対象の店員の言動とを照合し当該照合による適合性の判断結果を利用して、店員の言動を評価する(S45)。
図13の例では、評価装置1の検知部12が顧客の契機状態を検知すると(S51)、属性取得部17が、契機状態を検知された顧客の属性情報を取得する(S91)。また、情報取得部18が顧客の購入対象の商品情報を取得する(S131)。その後、認識部11が、検知された顧客の契機状態と、顧客の属性情報と、購入対象の商品情報とに基づき、顧客の契機状態に応じた店員の指定言動をルールテーブル15から特定する(S132)。そして、認識部11が、特定した指定言動を店員が行ったか否かを判断(検知)し(S53)、この判断結果に基づいて、評価部13が店員の言動を評価する(S54)。
〔第3実施形態における効果〕
第3実施形態の評価装置1は、契機状態を検知した顧客が購入しようとしている対象商品の情報をも取得し、得られた顧客の契機状態と属性情報と購入対象の商品情報に基づいて、店員の指定言動を特定する。そして、この特定した指定言動を利用して、評価装置1は、店員の言動を評価する。すなわち、第3実施形態の評価装置1は、顧客の契機状態と属性情報と購入対象の商品情報に適合する指定言動を店員が実行するか否かというような指標で店員の言動を評価する。よって、第3実施形態の評価装置1は、顧客の購入対象の商品をも考慮されて設定された指定言動(推奨言動)に基づいて、顧客に対する店員の言動を評価できる。
第3実施形態の評価装置1は、契機状態を検知した顧客が購入しようとしている対象商品の情報をも取得し、得られた顧客の契機状態と属性情報と購入対象の商品情報に基づいて、店員の指定言動を特定する。そして、この特定した指定言動を利用して、評価装置1は、店員の言動を評価する。すなわち、第3実施形態の評価装置1は、顧客の契機状態と属性情報と購入対象の商品情報に適合する指定言動を店員が実行するか否かというような指標で店員の言動を評価する。よって、第3実施形態の評価装置1は、顧客の購入対象の商品をも考慮されて設定された指定言動(推奨言動)に基づいて、顧客に対する店員の言動を評価できる。
ここで、第3実施形態の評価装置1が評価できる店員の言動(指標(指定言動))の具体例を述べる。なお、指定言動は、次の具体例に限定されない。
指標(指定言動):
−高齢者の顧客がレジで精算しており、購入対象商品に薬が含まれる場合(顧客の状態「レジで精算」であり、顧客の属性情報「高齢者」であり、対象商品情報「薬」である場合)がある。この場合に、店員が「大きな声で」(発話特性)、「4時間以上あけて飲んでください」(発話内容)と言っている
−高齢者の顧客がレジで精算しており、購入対象商品に薬が含まれる場合(顧客の状態「レジで精算」であり、顧客の属性情報「高齢者」であり、対象商品情報「薬」である場合)がある。この場合に、店員が「大きな声で」(発話特性)、「4時間以上あけて飲んでください」(発話内容)と言っている
<第4実施形態>
以下に、本発明に係る第4実施形態を説明する。なお、第4実施形態の説明において、第1〜第3の実施形態の評価装置を構成する構成部分と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
以下に、本発明に係る第4実施形態を説明する。なお、第4実施形態の説明において、第1〜第3の実施形態の評価装置を構成する構成部分と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
〔制御構成〕
図14は、第4実施形態における評価装置1の制御構成を概念的に表すブロック図である。第4実施形態の評価装置1は、顧客の契機状態や購入対象の商品情報を利用せずに、顧客の属性情報に基づいて、店員の言動を評価する。すなわち、第4実施形態の評価装置1は、第1実施形態における検知部12に代えて、属性取得部17を有する。
図14は、第4実施形態における評価装置1の制御構成を概念的に表すブロック図である。第4実施形態の評価装置1は、顧客の契機状態や購入対象の商品情報を利用せずに、顧客の属性情報に基づいて、店員の言動を評価する。すなわち、第4実施形態の評価装置1は、第1実施形態における検知部12に代えて、属性取得部17を有する。
属性取得部17は、第2実施形態で述べたように、顧客の属性情報を取得する。
特定部14は、属性取得部17により取得された顧客の属性情報とその時間情報および認識部11により認識された店員の言動とその時間情報を取得する。そして、特定部14は、取得した時間情報に基づいて、認識部11により認識された店員の言動の中から、顧客の属性情報に応じた店員の評価対象の言動を特定する。あるいは、特定部14は、時間情報に加えて、属性取得部17により属性情報が取得された顧客の位置情報および認識部11により言動が認識された店員の位置情報をも取得する。そして、特定部14は、時間情報と位置情報に基づいて、認識された店員の言動の中から、顧客の属性情報に応じた店員の評価対象の言動を特定してもよい。あるいは、特定部14は、顧客の属性情報の位置情報と店員の位置情報を取得し、当該取得した位置情報を利用して、店員の評価対象の言動を特定してもよい。
このように、特定部14は、時間情報と位置情報の一方又は両方を用いて、認識された店員の言動の中から、顧客の属性情報に応じた店員の評価対象の言動を特定する。
図15は、第4実施形態におけるルールテーブル15の例を表す図である。第4実施形態におけるルールテーブル15は、顧客の属性情報と店員の指定言動とが関連付けられている関係データを格納する。なお、図15では、店員の指定言動として、発話内容と行動とが設定されている。店員の行動が設定されない部分には、記号「−」が記されている。
図15の例では、顧客の属性情報が「高齢者」である場合には、店員の指定言動として発話内容「椅子をどうぞ」が設定されている。また、顧客の属性情報が「幼児」である場合には、店員の指定言動として、発話内容「気を付けて持って帰ってね」および行動「顧客の手の近くに袋を持っていく」が設定されている。
評価部13は、ルールテーブル15を参照することによって、属性取得部17により取得された顧客の属性情報に応じた店員の指定言動(推奨言動)を特定する。そして、評価部13は、その指定言動を利用して、第1〜第3の実施形態と同様に、店員の言動を評価する。なお、指定言動を特定する処理は、認識部11により実行されてもよい。この場合には、評価部13は、認識部11が指定言動を特定し当該特定した指定言動を利用した認定処理を実行したか否かを判断し、認識部11が指定言動に基づいた認定処理を実行した場合には、その認定処理の結果を利用して店員の言動を評価する。
第4実施形態の評価装置1における上記以外の構成は、第1実施形態と同様である。
〔動作例(言動評価方法)〕
以下に、第4実施形態の評価装置1の動作例を図16および図17を用いて説明する。図16および図17は、第4実施形態における評価装置1の動作例(制御手順)を表すフローチャートである。
以下に、第4実施形態の評価装置1の動作例を図16および図17を用いて説明する。図16および図17は、第4実施形態における評価装置1の動作例(制御手順)を表すフローチャートである。
図16の例では、評価装置1の属性取得部17が、顧客の属性情報を取得する(S161)。また、認識部11が店員の言動を認識する(S162)。
そして、特定部14が、認識された店員の言動の中で、取得された属性情報を持つ顧客に対する店員の評価対象の言動を特定する(S163)。この特定処理は、取得された顧客の属性情報および認識された店員の言動に関連付けられている時間情報と位置情報の一方又は両方を利用する。
また、評価部13が、取得された顧客の属性情報に応じた店員の指定言動を、ルールテーブル15を参照することによって特定する(S164)。然る後に、評価部13が、特定された指定言動と店員の評価対象の言動とに基づいて、店員の言動を評価する(S165)。
図17の例では、評価装置1の属性取得部17が顧客の属性情報を取得すると(S171)、認識部11が、取得された顧客の属性情報に応じた店員の指定言動を特定する(S172)。
その後、認識部11が、特定した店員の指定言動が実行されたか否か(認識されたか否か)を判断する(S173)。そして、評価部13が、その判断結果に基づいて、店員の言動を評価する(S174)。
図17の例では、属性情報に基づいて特定された指定言動を店員が実行したか否かを判断し、この判断結果に基づいて店員の言動を評価しているために、店員の言動の中から評価対象の言動を特定するという処理が不要である。
〔第4実施形態における効果〕
第4実施形態の評価装置1は、取得した顧客の属性情報に応じた店員の指定言動(推奨言動)を特定し、特定した言動を店員が実行したか否かの判断結果に基づいて、店員の言動を評価する。つまり、第4実施形態の評価装置1は、顧客の属性情報が考慮された店員の指定言動に基づいて店員の言動を評価するので、顧客の属性に応じて店員の言動を適切に評価できる。
第4実施形態の評価装置1は、取得した顧客の属性情報に応じた店員の指定言動(推奨言動)を特定し、特定した言動を店員が実行したか否かの判断結果に基づいて、店員の言動を評価する。つまり、第4実施形態の評価装置1は、顧客の属性情報が考慮された店員の指定言動に基づいて店員の言動を評価するので、顧客の属性に応じて店員の言動を適切に評価できる。
ここで、第2実施形態の評価装置1が評価できる店員の言動(指標(指定言動))の具体例を述べる。なお、指定言動は、次の具体例に限定されない。
指標(指定言動):
− 高齢者の顧客が存在する場合に(顧客の属性情報「高齢者」)、店員が「大きな声で」(発話特性)「椅子をどうぞ」(発話内容)と言っている
− 幼児が存在する場合に(顧客の属性情報「幼児」)、店員が「気を付けて持って帰ってね」(発話内容)と言って「顧客の手の近くに袋を持っていっている」(行動)という動作を実行している
− 高齢者の顧客が存在する場合に(顧客の属性情報「高齢者」)、店員が「大きな声で」(発話特性)「椅子をどうぞ」(発話内容)と言っている
− 幼児が存在する場合に(顧客の属性情報「幼児」)、店員が「気を付けて持って帰ってね」(発話内容)と言って「顧客の手の近くに袋を持っていっている」(行動)という動作を実行している
<第5実施形態>
以下、本発明に係る第5実施形態を説明する。なお、第5実施形態の説明において、第1〜第4の実施形態の評価装置1を構成する構成部分と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
以下、本発明に係る第5実施形態を説明する。なお、第5実施形態の説明において、第1〜第4の実施形態の評価装置1を構成する構成部分と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
〔処理構成〕
図18は、第5実施形態の評価装置1における制御構成を概念的に表すブロック図である。第5実施形態の評価装置1は、顧客が購入しようとしている対象商品の情報を主に用いて、店員の言動を評価する。すなわち、第5実施形態の評価装置1は、第1実施形態における検知部12に代えて、情報取得部18を有する。情報取得部18は、第3実施形態で述べた構成と同様の構成を備え、顧客の購入対象の商品の情報(対象商品情報)を取得する。
図18は、第5実施形態の評価装置1における制御構成を概念的に表すブロック図である。第5実施形態の評価装置1は、顧客が購入しようとしている対象商品の情報を主に用いて、店員の言動を評価する。すなわち、第5実施形態の評価装置1は、第1実施形態における検知部12に代えて、情報取得部18を有する。情報取得部18は、第3実施形態で述べた構成と同様の構成を備え、顧客の購入対象の商品の情報(対象商品情報)を取得する。
特定部14は、情報取得部18により取得された対象商品情報とその時間情報および認識部11により認識された店員の言動とその時間情報を取得する。そして、特定部14は、取得した時間情報に基づいて、認識部11により認識された店員の言動の中から、対象商品情報に応じた店員の評価対象の言動を特定する。また、特定部14は、商品を購入しようとしている顧客の位置情報および認識部11により言動が認識された店員の位置情報に基づいて、認識された店員の言動の中から、評価対象の言動を特定してもよい。このように、特定部14は、時間情報と位置情報の一方又は両方を用いて、認識された店員の言動の中から、対象商品情報に応じた店員の評価対象の言動を特定する。
図19は、第5実施形態におけるルールテーブル15の例を表す図である。第5実施形態におけるルールテーブル15は、対象商品情報と店員の指定言動とが関連付けられている関係データを格納する。図19の例では、店員の指定言動として発話内容が設定されている。具体的には、例えば、対象商品情報が「アイスクリーム」には、店員の指定言動として、発話内容「スプーンをお付けしますか?」が設定されている。
評価部13は、ルールテーブル15を参照することによって、情報取得部18により取得された対象商品情報に応じた店員の指定言動を特定し、特定した指定言動と、店員の評価対象の言動とに基づいて、店員の言動を評価する。なお、指定言動を特定する処理は、認識部11により実行されてもよい。この場合には、評価部13は、認識部11が指定言動を特定したか否かを判断し、認識部11が指定言動に基づいた認定処理を実行している場合には、認識部11による認定処理の結果を利用して店員の言動を評価する。
第5実施形態の評価装置1の上記以外の構成は、第1実施形態と同様である。
〔動作例(言動評価方法)〕
以下に、第5実施形態の評価装置1の動作例を図20および図21を用いて説明する。図20および図21は、第5実施形態における評価装置1の動作例(処理手順)を表すフローチャートである。
以下に、第5実施形態の評価装置1の動作例を図20および図21を用いて説明する。図20および図21は、第5実施形態における評価装置1の動作例(処理手順)を表すフローチャートである。
図20の例では、評価装置1の情報取得部18が、顧客が購入しようとしている対象商品の情報を取得する(S201)。また、認識部11が店員の言動を認識する(S202)。
その後、特定部14が、認識された店員の言動の中から、取得された対象商品の情報に基づいて店員の評価対象の言動を特定する(S203)。この特定処理は、例えば、取得した対象商品情報および認識された店員の言動にそれぞれ関連付けられている時間情報と位置情報の一方又は両方を用いて行われる。
そして、評価部13が、取得された対象商品情報に応じた店員の指定言動を、ルールテーブル15を参照することによって特定する(S204)。
図21の例では、情報取得部18が、顧客が購入しようとしている対象商品の情報を取得すると(S211)、認識部11が、取得された対象商品情報に応じた店員の指定言動を、ルールテーブル15を参照することによって特定する(S212)。
そして、認識部11が、特定した指定言動を店員が実行したか否かを判断(検知)する(S213)。評価部13が、その判断結果に基づいて、店員の言動を評価する(S214)。
このように、図21における動作例では、評価装置1は、特定した店員の指定言動が実行されたか否かの判断結果に基づいて店員の言動を評価するので、店員の評価対象の言動を特定しなくて済む。
〔第5実施形態における効果〕
第5実施形態の評価装置1は、顧客が購入しようとしている対象商品の情報を取得し、取得した対象商品情報に応じた店員の指定言動を認識する。そして、評価装置1は、取得した対象商品情報に応じた店員に指定言動(推奨言動)の認識結果に基づいて、店員の言動を評価する。このため、第5実施形態の評価装置1は、顧客が購入しようとしている商品に応じた店員の言動が評価されるため、商品を購入しようとしている顧客に応対する店員の言動を適切に評価できる。
第5実施形態の評価装置1は、顧客が購入しようとしている対象商品の情報を取得し、取得した対象商品情報に応じた店員の指定言動を認識する。そして、評価装置1は、取得した対象商品情報に応じた店員に指定言動(推奨言動)の認識結果に基づいて、店員の言動を評価する。このため、第5実施形態の評価装置1は、顧客が購入しようとしている商品に応じた店員の言動が評価されるため、商品を購入しようとしている顧客に応対する店員の言動を適切に評価できる。
ここで、第5実施形態の評価装置1が評価できる店員の言動(指標(指定言動))の具体例を述べる。なお、指定言動は、次の具体例に限定されない。
指標(指定言動(推奨言動)):
− 薬がPOS装置でスキャンされた場合に、店員が「4時間以上間隔をあけて飲んでくださいね」(発話内容)と言っている
− アイスクリームがPOS装置でスキャンされた場合に、店員が「スプーンをお付けしますか?」(発話内容)と言っている
− カップラーメンがPOS装置でスキャンされた場合に、店員が「箸をお付けしますか?」(発話内容)と言っている
− 弁当がPOS装置でスキャンされた場合に、店員が「温めますか?」(発話内容)と言っている
− 薬がPOS装置でスキャンされた場合に、店員が「4時間以上間隔をあけて飲んでくださいね」(発話内容)と言っている
− アイスクリームがPOS装置でスキャンされた場合に、店員が「スプーンをお付けしますか?」(発話内容)と言っている
− カップラーメンがPOS装置でスキャンされた場合に、店員が「箸をお付けしますか?」(発話内容)と言っている
− 弁当がPOS装置でスキャンされた場合に、店員が「温めますか?」(発話内容)と言っている
<第6実施形態>
以下、本発明に係る第6実施形態を説明する。なお、第6実施形態の説明において、第1〜第5の実施形態の評価装置を構成する構成要素と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
以下、本発明に係る第6実施形態を説明する。なお、第6実施形態の説明において、第1〜第5の実施形態の評価装置を構成する構成要素と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
〔処理構成〕
図22は、第6実施形態における評価装置の制御構成を概念的に表すブロック図である。第6実施形態の評価装置1は、顧客が購入しようとしている対象商品の情報およびその顧客の購入商品の履歴を用いて、店員の言動を評価する。すなわち、第6実施形態の評価装置1は、第5実施形態の構成に加えて、履歴取得部19およびID取得部20をさらに有する。履歴取得部19およびID取得部20は、例えば、CPU2により実現される。
図22は、第6実施形態における評価装置の制御構成を概念的に表すブロック図である。第6実施形態の評価装置1は、顧客が購入しようとしている対象商品の情報およびその顧客の購入商品の履歴を用いて、店員の言動を評価する。すなわち、第6実施形態の評価装置1は、第5実施形態の構成に加えて、履歴取得部19およびID取得部20をさらに有する。履歴取得部19およびID取得部20は、例えば、CPU2により実現される。
ID取得部20は、顧客を個々に識別する顧客IDを取得する。顧客IDは個人IDとも表記できる。顧客IDは、例えば、顧客により提示されたポイントカードや電子マネーカードからPOS装置により取得される。この場合、ID取得部20は、POS装置から顧客IDを取得する。あるいは、ID取得部20は、顔認証システム(図示せず)から顧客IDを取得してもよい。この場合、顔認証システムは、顔認識技術を用いて、顧客が撮像された画像を処理することによって顧客を識別し、識別した顧客のIDを特定する。なお、ID取得部20が、顔認証システムの機能を有していてもよい。
履歴取得部19は、履歴データベース(DB)(図示せず)に接続可能である。履歴データベースは、顧客毎に購入商品の履歴情報を格納している。履歴取得部19は、ID取得部20により取得された顧客IDを用いて、履歴データベースから顧客の購入商品の履歴を抽出する。さらに、履歴取得部19は、抽出した購入商品の履歴情報を利用して、履歴データベースから次のような情報を抽出してもよい。その抽出する情報とは、情報取得部18により取得された対象商品情報に基づいて特定される商品と同系統の商品情報、その同系統の商品の購入回数、過去の購入回数のランキング情報等である。商品の系統は、例えば、日本の経済産業省の商品分類表で定められている分類により定義され得る。なお、購入商品の履歴およびその履歴から得られる情報を、購入履歴情報とも総称する。また、履歴データベースは、評価装置1により備えられてもよいし、外部の装置により備えられてもよい。
図23は、第6実施形態におけるルールテーブル15の例を表す図である。第6実施形態におけるルールテーブル15は、対象商品と購入履歴との関係と、店員の指定言動とが関連付けられている関係データを格納する。図23の例では、店員の指定言動として、発話内容が設定されている。
評価部13は、ルールテーブル15を参照することによって、情報取得部18により取得された対象商品情報および履歴取得部19により取得された商品履歴情報に応じた店員の指定言動を特定する。例えば、評価部13は、情報取得部18により取得された少なくとも一つの対象商品情報と履歴取得部19により取得された購入履歴情報とを比較する。評価部13は、その比較により、ルールテーブル15において設定されている対象商品と購入履歴との関係を満たさない条件で対象商品情報が取得されているか否かを判断する。評価部13は、取得されていると判断した場合には、ルールテーブル15に設定されている店員の指定言動を特定する。そして、評価部13は、特定された指定言動と、店員の評価対象の言動とに基づいて、店員の言動を評価する。なお、指定言動を特定する処理は、認識部11により実行されてもよい。この場合には、評価部13は、認識部11が指定言動を特定し当該特定した指定言動に基づいた認識処理を実行したか否かを判断する。そして、認識部11が指定言動を利用した認識処理を実行した場合には、評価部13は、認識部11による認識結果を利用して、店員の言動を評価する。
第6実施形態の評価装置1における上記以外の構成は、第5実施形態の評価装置1と同様である。
〔動作例(言動評価方法)〕
以下に、第6実施形態の評価装置1の動作例を図24および図25を用いて説明する。図24および図25は、第6実施形態の評価装置1の動作例(処理手順)を表すフローチャートである。なお、図24において、図20におけるフローチャートの処理と同じ処理には、図20と同じ符号を付してある。また、図25において、図21におけるフローチャートの処理と同じ処理には、図21と同じ符号を付してある。
以下に、第6実施形態の評価装置1の動作例を図24および図25を用いて説明する。図24および図25は、第6実施形態の評価装置1の動作例(処理手順)を表すフローチャートである。なお、図24において、図20におけるフローチャートの処理と同じ処理には、図20と同じ符号を付してある。また、図25において、図21におけるフローチャートの処理と同じ処理には、図21と同じ符号を付してある。
図24の例では、評価装置1のID取得部20が顧客IDを取得する(S241)。そして、情報取得部18が、顧客が購入しようとしている対象商品の情報を取得すると(S201)、履歴取得部19が、取得された顧客IDを用いて、履歴データベース(図示せず)から、その顧客の購入履歴情報を取得する(S242)。また、認識部11が店員の言動を認識する(S202)。
その後、特定部14が、認識された店員の言動の中から、評価対象の言動を特定する(S203)。そして、評価部13が、取得された対象商品情報および購入履歴情報に応じた店員の指定言動を、ルールテーブル15を参照することによって特定する(S243)。評価部13は、特定した店員の指定言動と評価対象の言動とに基づいて、店員の言動を評価する(S205)。
図25の例では、ID取得部20が顧客IDを取得する(S251)。そして、情報取得部18が、顧客が購入しようとしている対象商品の情報を取得すると(S211)、履歴取得部19が、取得された顧客IDを用いて、履歴データベース(図示せず)から、その顧客の購入履歴情報を取得する(S252)。
さらに、認識部11が、取得された対象商品情報および購入履歴情報に応じた店員の指定言動を、ルールテーブル15を参照することによって特定する(S253)。そして、認識部11が、店員が指定言動を実行したか否かを判断(検知)する(S213)。これにより、評価部13が、その判断結果を利用して、店員の言動を評価する(S214)。
〔第6実施形態における効果〕
第6実施形態の評価装置1は、顧客が購入しようとしている対象商品の情報を取得し、また、その顧客の購入履歴情報を取得する。そして、第6実施形態の評価装置1は、取得した対象商品情報および購入履歴情報に応じた店員の指定言動(推奨言動)が特定され、当該指定言動を利用して、店員の言動を評価する。このように、第6実施形態の評価装置1は、顧客が購入しようとしている商品および購入商品の履歴が考慮された評価を行うために、商品を購入しようとしている顧客に応対する店員の言動を適切に評価できる。
第6実施形態の評価装置1は、顧客が購入しようとしている対象商品の情報を取得し、また、その顧客の購入履歴情報を取得する。そして、第6実施形態の評価装置1は、取得した対象商品情報および購入履歴情報に応じた店員の指定言動(推奨言動)が特定され、当該指定言動を利用して、店員の言動を評価する。このように、第6実施形態の評価装置1は、顧客が購入しようとしている商品および購入商品の履歴が考慮された評価を行うために、商品を購入しようとしている顧客に応対する店員の言動を適切に評価できる。
ここで、第6実施形態の評価装置1が評価できる店員の言動(指標(指定言動))の具体例を述べる。なお、指定言動は、次の具体例に限定されない。
指標(指定言動):
− 過去に温かいコーヒーを多く購入していた顧客が、急に冷たいコーヒーを購入した場合に、店員が「今日は暑いですから、冷たいものがよいですね」と言っている
− いつもA社製のヨーグルトを購入していた顧客が、他社製のヨーグルトを購入した場合に、店員が「今日はいつもと違うメーカのもののようですが大丈夫ですか?」と言っている
− いつも同じ3つの商品の組み合わせを購入していた顧客が、その中の2つの商品のみを購入した場合に、店員が「いつもの組み合わせよりも少ないようですがお忘れではないですか?」と言っている
− 過去に温かいコーヒーを多く購入していた顧客が、急に冷たいコーヒーを購入した場合に、店員が「今日は暑いですから、冷たいものがよいですね」と言っている
− いつもA社製のヨーグルトを購入していた顧客が、他社製のヨーグルトを購入した場合に、店員が「今日はいつもと違うメーカのもののようですが大丈夫ですか?」と言っている
− いつも同じ3つの商品の組み合わせを購入していた顧客が、その中の2つの商品のみを購入した場合に、店員が「いつもの組み合わせよりも少ないようですがお忘れではないですか?」と言っている
<第1変形例>
本発明は、第1〜第6の各実施形態に限定されず、様々な実施の形態を採り得る。例えば、第1〜第6の各実施形態の評価装置1は、ルールテーブル15を保持している。これに代えて、評価装置1は、ルールテーブル15を保持していなくともよい。この場合には、ルールテーブル15は、評価装置1がアクセス可能な他の装置により保持され、評価装置1は、その装置からルールテーブル15を読み出す構成とすればよい。また、ルールテーブル15は、テーブル(表データ)という形態ではなく、各条件で分岐される処理としてプログラムに組み込まれてもよい。
本発明は、第1〜第6の各実施形態に限定されず、様々な実施の形態を採り得る。例えば、第1〜第6の各実施形態の評価装置1は、ルールテーブル15を保持している。これに代えて、評価装置1は、ルールテーブル15を保持していなくともよい。この場合には、ルールテーブル15は、評価装置1がアクセス可能な他の装置により保持され、評価装置1は、その装置からルールテーブル15を読み出す構成とすればよい。また、ルールテーブル15は、テーブル(表データ)という形態ではなく、各条件で分岐される処理としてプログラムに組み込まれてもよい。
<第2変形例>
第1〜第6の各実施形態の構成に加えて、店員の言動のタイミングも評価対象に加えられてもよい。この場合には、評価部13は、検知部12により検知された顧客の契機状態に対応する時間閾値を取得し、この取得した時間閾値および検知部12による顧客の契機状態の検知時間を用いて、店員の言動を評価する。なお、時間閾値はルールテーブル15に格納され、評価部13は、ルールテーブル15からその時間閾値を取得してもよい。
第1〜第6の各実施形態の構成に加えて、店員の言動のタイミングも評価対象に加えられてもよい。この場合には、評価部13は、検知部12により検知された顧客の契機状態に対応する時間閾値を取得し、この取得した時間閾値および検知部12による顧客の契機状態の検知時間を用いて、店員の言動を評価する。なお、時間閾値はルールテーブル15に格納され、評価部13は、ルールテーブル15からその時間閾値を取得してもよい。
図26は、ルールテーブル15の変形例を表す図である。図26に示される変形例では、ルールテーブル15は、店員の指定言動と顧客の状態とが関連付けられているデータに、さらに、時間閾値の情報が関連付けられた関係データを格納する。例えば、図26の例では、顧客の状態「入店」には、時間閾値「2秒」が設定されている。また、顧客の状態「レジ待ちの列」には、時間閾値「5秒」が設定されている。
時間閾値を含むルールテーブル15が利用される場合には、評価部13は、顧客の契機状態の検知時間と、当該検知時間からの経過時間と、時間閾値(例えば、5秒)とに基づいて、店員の指定言動を特定する。そして、評価部13は、特定した指定言動に基づいて、店員の言動を評価する。また、評価部13は、顧客の契機状態の検知時間から時間閾値の時間分遡った時間までの間に、店員が指定言動を取るか否かを判断(予測)してもよい。このようにすれば、顧客が契機状態になったタイミングで店員の言動を評価できる。
上記の時間閾値は、属性取得部17により取得される顧客の属性情報又は情報取得部18により取得される対象商品情報に応じて、特定されてもよい。このようにすれば、評価装置1は、年齢層や性別や対象商品に応じたタイミングでの店員の言動を評価することができる。また、評価部13は、顧客の契機状態を用いずに、顧客の属性情報又は対象商品情報に関連付けられている時間情報と、その時間閾値とを用いて、店員の言動を評価してもよい。例えば、評価部13は、属性情報又は対象商品情報の時間情報が表す時間から時間閾値を経過するまでに、店員が指定言動を取るか否かを判断する。
<第3変形例>
顧客毎に、店舗により提供される各種サービスの中で享受するサービスとそうでないサービスが、概ね習慣的に決まっている場合がある。例えば、或る顧客は、コーヒーショップにおいて、必ず、砂糖とミルクを要求するが、他の顧客は、両方とも要求しない。また、必ずポイントカードを提示する顧客とそうでない顧客とが存在する。このような顧客毎の習慣により、店員に求められる言動が変わるため、上記の各実施形態において、顧客の習慣情報をさらに用いて店員の言動を評価することもできる。
顧客毎に、店舗により提供される各種サービスの中で享受するサービスとそうでないサービスが、概ね習慣的に決まっている場合がある。例えば、或る顧客は、コーヒーショップにおいて、必ず、砂糖とミルクを要求するが、他の顧客は、両方とも要求しない。また、必ずポイントカードを提示する顧客とそうでない顧客とが存在する。このような顧客毎の習慣により、店員に求められる言動が変わるため、上記の各実施形態において、顧客の習慣情報をさらに用いて店員の言動を評価することもできる。
図27は、第3変形例における評価装置1の制御構成を概念的に表すブロック図である。第3変形例の評価装置1は、第1実施形態の構成に加えて、上記の内容を反映する構成を備えている。ただし、第3変形例における特有な構成は、第2〜第6の各実施形態にも適用可能である。
第3変形例の評価装置1は、第1実施形態の構成に加えて、ID取得部20および習慣取得部21をさらに有する。ID取得部20および習慣取得部21は、例えばCPU2により実現される。
ID取得部20は、検知部12により契機状態が検知された顧客の顧客IDを、第6実施形態におけるID取得部20と同様に取得する構成を備える。
習慣取得部21は、ID取得部20により取得された顧客IDに基づいて、顧客の習慣情報を取得する。つまり、第3変形例では、習慣取得部21は、契機状態が検知された顧客の習慣情報を取得する。なお、顧客毎の習慣情報は、顧客IDに関連付けられた状態で習慣データベース(DB)(図示せず)に格納されており、習慣取得部21は、その習慣データベースから、顧客IDに応じた習慣情報を抽出する。
習慣取得部21は、ID取得部20により取得された顧客IDに基づいて、顧客の習慣情報を取得する。つまり、第3変形例では、習慣取得部21は、契機状態が検知された顧客の習慣情報を取得する。なお、顧客毎の習慣情報は、顧客IDに関連付けられた状態で習慣データベース(DB)(図示せず)に格納されており、習慣取得部21は、その習慣データベースから、顧客IDに応じた習慣情報を抽出する。
図28は、習慣データベースの一例を表す図である。習慣データベースには、日時、顧客IDおよびサービス毎の実行状況が関連付けられて格納される。図28では、サービス毎の実行状況として、「ポイントカードの提示」、「ストローの要否」、「レシートの受取り」が例示されている。ただし、習慣データベースにおいて、実行状況として設定されるサービス種は限定されない。なお、評価装置1は、習慣データベースを備えていてもよいし、他の装置に習慣データベースが保持され当該装置から習慣データベースの情報を読み出してもよい。例えば、POS装置に店員が入力することにより、POS装置に備えられている習慣データベースに情報が蓄積される。
習慣取得部21は、例えば、ID取得部20により取得された顧客IDに合致する情報を習慣データベースから抽出し、抽出された情報を統計処理することにより、その顧客の習慣情報を取得する。取得された習慣情報は、サービス毎の統計的実行状況を表す。図28の例では、取得される習慣情報は、例えば、「ポイントカードを概ね提示する」、「レシートをほとんど受け取らない」というような内容を表す。
評価部13は、習慣取得部21により取得された習慣情報に基づいて、検知部12により検知された顧客の契機状態に応じた店員(被評価者)の指定言動を特定し、特定した指定言動を用いた店員の評価を行うか否かを決定する。例えば、取得された習慣情報が或るサービスをほとんど享受しないことを示している場合には、評価部13は、その習慣情報が表すサービスに応じた指定言動に基づく店員の評価を行わない。この理由は、顧客が習慣的に要求しないサービスに関する店員の言動は、その顧客における店員の接客イメージに影響を与えないからである。さらに言えば、顧客にとっては、自身の習慣に応じて店員が言動を控えてくれるため、店員の接客イメージが向上する可能性もある。よって、評価部13は、顧客の習慣情報に適合して指定言動が行われなかった場合には、その店員の言動を良い方向に評価してもよい。
第3変形例の評価装置1は、顧客毎の習慣を考慮して、店員の顧客に対する言動が評価されるため、顧客に対する店員の言動を適切に評価できる。
<第4変形例>
評価部13による評価結果は、次のように出力され得る。ただし、評価部13による評価結果の出力形態は以下の例に限定されない。
評価部13による評価結果は、次のように出力され得る。ただし、評価部13による評価結果の出力形態は以下の例に限定されない。
例えば、評価装置1は、評価部13の評価結果、その評価の元となった顧客の契機状態の検知結果および店員の言動の認識結果、さらに、各々の時間情報が関連付けられたデータを、一定期間(例えば、一日分)蓄積する。評価装置1は、蓄積されたデータの一覧を出力する。この出力は、テキストデータでのファイル出力、表示、印刷等で行われる。この出力により、いつ、どのような状況での店員の言動が適切であったか否かの評価結果が容易に把握可能となる。
また、評価装置1は、蓄積されたデータを用いて、状況(顧客の契機状態、属性および購入しようとしている商品)に応じた評価結果の集計を行うこともできる。例えば、評価装置1は、顧客の契機状態毎の検知件数と、その件数の中で店員が適切な言動を取ったと判定された件数とに基づいて、顧客の契機状態毎に、店員が適切な言動を取った割合を算出する。評価装置1は、店舗毎、店員毎、時間帯毎等に、そのような割合を算出してもよい。算出された結果を用いて、評価装置1は、「入店時の発話評価が良い」というように、状況毎の評価を出力することもできる。このような総合評価を店舗毎に集計し、長期間分を蓄積することによって、評価装置1は、店舗毎における店員の言動の評価に関わる情報を提供することが可能となる。例えば、遠隔地の店舗を運営する会社において、評価装置1は、店舗名と入店時に明るい声で「いらっしゃいませ」と発話した割合と、割合に基づく発話評価の良し悪しを表示する機能を備える。これにより、例えば、その会社の経営者は、評価装置1の表示に基づき、遠隔地でも店舗内の雰囲気を把握できる。また、経営者は、発話評価が悪かった場合には、その店舗に対して、明るく発話するように指導を行うことも可能である。さらに、評価装置1は、評価結果を表すグラフを時間の経過により更新表示する機能を備えることによって、例えば、接客指導を行った前後での店員の言動の変化を経営者に提供することが可能である。
また、第2変形例で述べたように、店員の言動のタイミングが評価対象に加えられる場合には、評価装置1は、評価部13による評価結果を直ぐに出力することもできる。例えば、評価装置1は、店員又は店長が視認できる表示部にその評価結果又はその評価結果に対応するアラートを表示する。これにより、言うべきことを所定時間内に店員が言わなかった場合に、その出力に基づいて、店長が直ぐに指導できる。
<第5変形例>
第1〜第6の各実施形態の情報処理装置1は、特定部14を備えているが、図32〜図34に表されるように、特定部14は、省略されてもよい。この場合には、認識部11により認識された店員(被評価者)の言動の全てが評価対象となる。
<第5変形例>
第1〜第6の各実施形態の情報処理装置1は、特定部14を備えているが、図32〜図34に表されるように、特定部14は、省略されてもよい。この場合には、認識部11により認識された店員(被評価者)の言動の全てが評価対象となる。
<補足>
第1〜第6の各実施形態で説明したフローチャートでは、複数の工程(処理)が順番に記載されているが、それら工程の実行順序は、その記載の順番に限定されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。
第1〜第6の各実施形態で説明したフローチャートでは、複数の工程(処理)が順番に記載されているが、それら工程の実行順序は、その記載の順番に限定されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。
また、前述した各実施形態および各変形例は、以下に例示されるように、内容が相反しない範囲で組み合わせることができる。ただし、組み合わせは、以下の例に限定されない。
− 組み合わせ例1
評価装置1は、顧客の属性情報を用いずに、顧客の契機状態および顧客が購入しようとしている対象商品の情報を用いて、店員の言動を評価することが可能である。この場合には、図10における評価装置1の制御構成から属性取得部17が省略される。
評価装置1は、顧客の属性情報を用いずに、顧客の契機状態および顧客が購入しようとしている対象商品の情報を用いて、店員の言動を評価することが可能である。この場合には、図10における評価装置1の制御構成から属性取得部17が省略される。
− 組み合わせ例2
評価装置1は、顧客の属性情報とその顧客が購入しようとしている対象商品の情報を用いて、店員の言動を評価することもできる。この場合には、図10における評価装置1の制御構成から、検知部12が省略される。
評価装置1は、顧客の属性情報とその顧客が購入しようとしている対象商品の情報を用いて、店員の言動を評価することもできる。この場合には、図10における評価装置1の制御構成から、検知部12が省略される。
− 組み合わせ例3
評価装置1は、顧客の属性情報とその顧客が購入しようとしている対象商品の情報とその顧客の購入商品の履歴を用いて、店員の言動を評価することもできる。この場合には、図22における評価装置1の制御構成に属性取得部17が追加される。
評価装置1は、顧客の属性情報とその顧客が購入しようとしている対象商品の情報とその顧客の購入商品の履歴を用いて、店員の言動を評価することもできる。この場合には、図22における評価装置1の制御構成に属性取得部17が追加される。
− 組み合わせ例4
評価装置1は、顧客の契機状態とその顧客が購入しようとしている対象商品の情報とその顧客の購入商品の履歴を用いて、店員の言動を評価することもできる。この場合には、図22における評価装置1の制御構成例に検知部12が追加される。
評価装置1は、顧客の契機状態とその顧客が購入しようとしている対象商品の情報とその顧客の購入商品の履歴を用いて、店員の言動を評価することもできる。この場合には、図22における評価装置1の制御構成例に検知部12が追加される。
− 組み合わせ例5
評価装置1は、顧客の契機状態とその顧客の属性情報とその顧客が購入しようとしている対象商品の情報とその顧客の購入商品の履歴を用いて、店員の言動を評価することもできる。この場合には、図10における評価装置1の制御構成例に履歴取得部19が追加される。
評価装置1は、顧客の契機状態とその顧客の属性情報とその顧客が購入しようとしている対象商品の情報とその顧客の購入商品の履歴を用いて、店員の言動を評価することもできる。この場合には、図10における評価装置1の制御構成例に履歴取得部19が追加される。
− 組み合わせ例6
評価装置1は、顧客が購入しようとしている対象商品の情報とその顧客の習慣情報を用いて、店員の言動を評価することもできる。
評価装置1は、顧客が購入しようとしている対象商品の情報とその顧客の習慣情報を用いて、店員の言動を評価することもできる。
評価装置1は、上記したとおり、何らかの基データに基づいて、顧客の契機状態を検知し、かつ、店員の言動を認識する(認識部11および検知部12)。上記の各実施形態は、その基データを限定しない。例えば、マイクロフォンから得られる音声データ、カメラから得られる撮影画像(動画像又は静止画像)、POS装置から得られる情報、センサから得られるセンサ情報等が基データになり得る。マイクロフォン、カメラ、センサ等は、目的に応じた位置および向きに設置されればよい。カメラは、店舗内に設置されている既存のものが利用されてもよいし、専用のカメラが設置されてもよい。評価装置1は、入出力I/F4又は通信ユニット5を介して、マイクロフォン、カメラ、センサ等に接続可能である。
以下に、具体例を挙げ、上記の内容をさらに詳細に説明する。以下に説明する具体例は、第1実施形態に第2変形例の構成を適用した形態の具体例である。なお、本発明は以下の具体例に限定されない。
<具体例>
この具体例では、評価装置1は、店内の監視カメラから画像フレームを取得し、店員に装着されたマイクロフォンから音声データを取得する。評価装置1は、1つ以上の画像フレームから顧客の契機状態の検知を試みる(検知部12)。一方で、評価装置1は、音声認識技術、自然言語処理技術、感情認識技術等を用いて、取得した音声データから店員の発話内容および発話特性(感情情報)を逐次認識する(認識部11)。この結果、図29の例に示されるような出力情報が得られたと仮定する。
この具体例では、評価装置1は、店内の監視カメラから画像フレームを取得し、店員に装着されたマイクロフォンから音声データを取得する。評価装置1は、1つ以上の画像フレームから顧客の契機状態の検知を試みる(検知部12)。一方で、評価装置1は、音声認識技術、自然言語処理技術、感情認識技術等を用いて、取得した音声データから店員の発話内容および発話特性(感情情報)を逐次認識する(認識部11)。この結果、図29の例に示されるような出力情報が得られたと仮定する。
図29は、認識部11および検知部12の出力情報の例を表す図である。図30は、特定部14により特定された情報の例を表す図である。検知部12は、「入店」および「レジ待ちの列が出来た」という顧客の状態を検知し、その検知された状態を表す情報と共に、その検知時間を出力する。認識部11は、店員の3つの発言を認識し、その認識された発言を表す情報と共に、その認識時間を出力する。図30に表される発話特性「−」は、指定言動である発話特性「明るく元気」および「大きな声で」が認識されなかったことを表す。
特定部14は、検知結果の時間情報および認識結果の時間情報の時間関係に基づいて、図30に表されるように、検知部12により検知された顧客の契機状態に応じた評価対象となる店員の発言を特定する。具体的には、顧客の状態「入店」に対しては、その検知時間の前後1分以内の認識時間において2つの発言が特定される。また、顧客の状態「レジ待ちの列が出来た」に対しては、その検知時間から1分以内の認識時間において1つの発言が特定された。
図31は、具体例におけるルールテーブル15を表す図である。この具体例では、ルールテーブル15には、顧客の状態と、店員の指定言動である発話内容および発話特性と、時間閾値とが関連付けられて格納されている。評価部13は、このルールテーブル15を参照して、顧客の各契機状態に対応する店員の指定言動(発話内容および発話特性)、並びに時間閾値を特定する。評価部13は、顧客の各契機状態について特定部14により特定された店員の発言と、指定言動(発話内容および発話特性)とをそれぞれ照合する。図30における顧客の状態「入店」に対しては、特定された店員の発言の中に、指定言動である発話内容「いらっしゃいませ」および発話特性「明るく元気」に合致する発言が存在する。同様に、図30における顧客の状態「レジ待ちの列が出来た」に対しては、特定された店員の発言の中に、指定言動である発話内容「お待ちの方、こちらのレジへどうぞ」および指定発話特性「大きな声で」に合致する発言が存在する。評価部13は、特定された時間閾値(3秒および30秒)に基づいて、各指定言動のタイミングを判定する。ここで、発話内容「いらっしゃいませ」は、顧客の状態「入店」の検知時間(11時12分37秒)から3秒(時間閾値)以内に認識されているため、評価部13は、顧客の状態「入店」に対する店員の言動の評価結果を「良」に決定する。しかしながら、発話内容「お待ちの方、こちらのレジへどうぞ」は、顧客の状態「レジ待ちの列が出来た」の検知時間(11時34分22秒)から30秒(時間閾値)以内に認識されていない。よって、評価部13は、顧客状態「レジ待ちの列が出来た」に対する店員の言動の評価結果を「悪い」に決定する。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下に限定されない。
(付記1)
被評価者の言動を認識する認識部と、
他者の契機状態を検知する検知部と、
前記検知部により検知された他者の前記契機状態に対応する被評価者の指定言動の、前記認識部による認識結果に基づいて、前記被評価者の言動を評価する評価部と、
を備える情報処理装置。
被評価者の言動を認識する認識部と、
他者の契機状態を検知する検知部と、
前記検知部により検知された他者の前記契機状態に対応する被評価者の指定言動の、前記認識部による認識結果に基づいて、前記被評価者の言動を評価する評価部と、
を備える情報処理装置。
(付記2)
前記評価部は、被評価者に期待される指定言動と他者の状態との複数の対応関係を含む対応情報の中から、前記検知部により検知された他者の前記契機状態に対応する前記被評価者の前記指定言動を特定する付記1に記載の情報処理装置。
前記評価部は、被評価者に期待される指定言動と他者の状態との複数の対応関係を含む対応情報の中から、前記検知部により検知された他者の前記契機状態に対応する前記被評価者の前記指定言動を特定する付記1に記載の情報処理装置。
(付記3)
前記評価部は、前記検知部により検知された他者の前記契機状態に対応する時間閾値を取得し、前記認識部による前記被評価者の指定言動の認識結果又は前記認識部により認識された前記被評価者の指定言動の時間情報、その取得された時間閾値および前記検知部による他者の前記契機状態の検知時間を用いて、前記被評価者の言動を評価する付記1又は付記2に記載の情報処理装置。
前記評価部は、前記検知部により検知された他者の前記契機状態に対応する時間閾値を取得し、前記認識部による前記被評価者の指定言動の認識結果又は前記認識部により認識された前記被評価者の指定言動の時間情報、その取得された時間閾値および前記検知部による他者の前記契機状態の検知時間を用いて、前記被評価者の言動を評価する付記1又は付記2に記載の情報処理装置。
(付記4)
前記評価部は、被評価者に期待される指定言動と他者の状態との複数の対応関係に加えて、各対応関係に関連付けられた複数の時間閾値をさらに含む対応情報の中から、前記検知部により検知された他者の前記契機状態に対応する前記時間閾値を取得する付記3に記載の情報処理装置。
前記評価部は、被評価者に期待される指定言動と他者の状態との複数の対応関係に加えて、各対応関係に関連付けられた複数の時間閾値をさらに含む対応情報の中から、前記検知部により検知された他者の前記契機状態に対応する前記時間閾値を取得する付記3に記載の情報処理装置。
(付記5)
前記他者の属性情報を取得する属性取得部、
をさらに備え、
前記評価部は、前記検知部により前記契機状態が検知された他者に関して前記属性取得部により取得された属性情報をさらに用いて、前記被評価者の前記指定言動を特定する付記1乃至付記4の何れか一つに記載の情報処理装置。
前記他者の属性情報を取得する属性取得部、
をさらに備え、
前記評価部は、前記検知部により前記契機状態が検知された他者に関して前記属性取得部により取得された属性情報をさらに用いて、前記被評価者の前記指定言動を特定する付記1乃至付記4の何れか一つに記載の情報処理装置。
(付記6)
前記評価部は、被評価者に期待される指定言動と他者の状態と他者の属性情報との複数の対応関係を含む対応情報の中から、前記検知部により検知された他者の前記契機状態および前記属性取得部により取得された他者の前記属性情報に対応する前記被評価者の前記指定言動を特定する付記5に記載の情報処理装置。
前記評価部は、被評価者に期待される指定言動と他者の状態と他者の属性情報との複数の対応関係を含む対応情報の中から、前記検知部により検知された他者の前記契機状態および前記属性取得部により取得された他者の前記属性情報に対応する前記被評価者の前記指定言動を特定する付記5に記載の情報処理装置。
(付記7)
前記他者が購入しようとしている対象商品の情報を取得する情報取得部、
をさらに備え、
前記評価部は、前記検知部により前記契機状態が検知された他者に関して前記情報取得部により取得された対象商品の情報をさらに用いて、前記被評価者の前記指定言動を特定する付記1乃至付記6の何れか一つに記載の情報処理装置。
前記他者が購入しようとしている対象商品の情報を取得する情報取得部、
をさらに備え、
前記評価部は、前記検知部により前記契機状態が検知された他者に関して前記情報取得部により取得された対象商品の情報をさらに用いて、前記被評価者の前記指定言動を特定する付記1乃至付記6の何れか一つに記載の情報処理装置。
(付記8)
前記他者を個々に識別する個人IDを取得するID取得部と、
前記取得された個人IDに基づいて、前記他者の購入履歴情報を取得する履歴取得部と、
をさらに備え、
前記評価部は、前記検知部により前記契機状態が検知された他者に関して、前記情報取得部により取得された対象商品の情報および前記履歴取得部により取得された購入履歴情報をさらに用いて、前記被評価者の前記指定言動を特定する付記7に記載の情報処理装置。
前記他者を個々に識別する個人IDを取得するID取得部と、
前記取得された個人IDに基づいて、前記他者の購入履歴情報を取得する履歴取得部と、
をさらに備え、
前記評価部は、前記検知部により前記契機状態が検知された他者に関して、前記情報取得部により取得された対象商品の情報および前記履歴取得部により取得された購入履歴情報をさらに用いて、前記被評価者の前記指定言動を特定する付記7に記載の情報処理装置。
(付記9)
前記検知部により検知された他者の契機状態の時間情報および前記認識部により認識された被評価者の言動の時間情報に基づいて、認識された被評価者の言動の中から、検知された他者の契機状態に対して評価される被評価者の言動を特定する特定部、
をさらに備え、
前記評価部は、前記特定部により特定された前記被評価者の前記言動と前記他者の前記契機状態に対応する前記被評価者の前記指定言動との照合により、前記被評価者の言動を評価する付記1乃至付記8の何れか一つに記載の情報処理装置。
前記検知部により検知された他者の契機状態の時間情報および前記認識部により認識された被評価者の言動の時間情報に基づいて、認識された被評価者の言動の中から、検知された他者の契機状態に対して評価される被評価者の言動を特定する特定部、
をさらに備え、
前記評価部は、前記特定部により特定された前記被評価者の前記言動と前記他者の前記契機状態に対応する前記被評価者の前記指定言動との照合により、前記被評価者の言動を評価する付記1乃至付記8の何れか一つに記載の情報処理装置。
(付記10)
前記特定部は、前記検知部により契機状態が検知された他者の位置情報および前記認識部により言動が認識された被評価者の位置情報をさらに用いて、評価される被評価者の言動を特定する付記9に記載の情報処理装置。
前記特定部は、前記検知部により契機状態が検知された他者の位置情報および前記認識部により言動が認識された被評価者の位置情報をさらに用いて、評価される被評価者の言動を特定する付記9に記載の情報処理装置。
(付記11)
被評価者の言動を認識する認識部と、
他者の属性情報を取得する属性取得部と、
前記属性取得部により取得された他者の属性情報に対応する被評価者の指定言動の、前記認識部による認識結果に基づいて、前記被評価者の言動を評価する評価部と
を備える情報処理装置。
被評価者の言動を認識する認識部と、
他者の属性情報を取得する属性取得部と、
前記属性取得部により取得された他者の属性情報に対応する被評価者の指定言動の、前記認識部による認識結果に基づいて、前記被評価者の言動を評価する評価部と
を備える情報処理装置。
(付記12)
前記評価部は、被評価者に期待される指定言動と他者の属性情報との複数の対応関係を含む対応情報の中から、前記属性取得部により取得された他者の前記属性情報に対応する前記被評価者の前記指定言動を特定する付記11に記載の情報処理装置。
前記評価部は、被評価者に期待される指定言動と他者の属性情報との複数の対応関係を含む対応情報の中から、前記属性取得部により取得された他者の前記属性情報に対応する前記被評価者の前記指定言動を特定する付記11に記載の情報処理装置。
(付記13)
前記評価部は、前記属性取得部により取得された他者の前記属性情報に対応する時間閾値を取得し、その取得された時間閾値および前記属性取得部による他者の前記属性情報の取得時間をさらに用いて、前記被評価者の言動を評価する付記11又は付記12に記載の情報処理装置。
前記評価部は、前記属性取得部により取得された他者の前記属性情報に対応する時間閾値を取得し、その取得された時間閾値および前記属性取得部による他者の前記属性情報の取得時間をさらに用いて、前記被評価者の言動を評価する付記11又は付記12に記載の情報処理装置。
(付記14)
前記評価部は、被評価者に期待される指定言動と他者の属性情報との複数の対応関係に加えて、各対応関係に関連付けられた複数の時間閾値をさらに含む対応情報の中から、前記属性取得部により取得された他者の前記属性情報に対応する前記時間閾値を取得する付記13に記載の情報処理装置。
前記評価部は、被評価者に期待される指定言動と他者の属性情報との複数の対応関係に加えて、各対応関係に関連付けられた複数の時間閾値をさらに含む対応情報の中から、前記属性取得部により取得された他者の前記属性情報に対応する前記時間閾値を取得する付記13に記載の情報処理装置。
(付記15)
前記他者が購入しようとしている対象商品の情報を取得する情報取得部、
をさらに備え、
前記評価部は、前記属性取得部により前記属性情報が取得された他者に関して前記情報取得部により取得された対象商品の情報をさらに用いて、前記被評価者の前記指定言動を特定する付記11乃至付記14の何れか一つに記載の情報処理装置。
前記他者が購入しようとしている対象商品の情報を取得する情報取得部、
をさらに備え、
前記評価部は、前記属性取得部により前記属性情報が取得された他者に関して前記情報取得部により取得された対象商品の情報をさらに用いて、前記被評価者の前記指定言動を特定する付記11乃至付記14の何れか一つに記載の情報処理装置。
(付記16)
前記他者を個々に識別する個人IDを取得するID取得部と、
前記取得された個人IDに基づいて、前記他者の購入履歴情報を取得する履歴取得部と、
をさらに備え、
前記評価部は、前記属性取得部により前記属性情報が取得された他者に関して、前記情報取得部により取得された対象商品の情報および前記履歴取得部により取得された購入履歴情報をさらに用いて、前記被評価者の前記指定言動を特定する付記15に記載の情報処理装置。
前記他者を個々に識別する個人IDを取得するID取得部と、
前記取得された個人IDに基づいて、前記他者の購入履歴情報を取得する履歴取得部と、
をさらに備え、
前記評価部は、前記属性取得部により前記属性情報が取得された他者に関して、前記情報取得部により取得された対象商品の情報および前記履歴取得部により取得された購入履歴情報をさらに用いて、前記被評価者の前記指定言動を特定する付記15に記載の情報処理装置。
(付記17)
被評価者の言動を認識する認識部と、
他者が購入しようとしている対象商品の情報を取得する情報取得部と、
前記情報取得部により取得された対象商品情報に対応する被評価者の指定言動の、前記認識部による認識結果に基づいて、前記被評価者の言動を評価する評価部と、
を備える情報処理装置。
被評価者の言動を認識する認識部と、
他者が購入しようとしている対象商品の情報を取得する情報取得部と、
前記情報取得部により取得された対象商品情報に対応する被評価者の指定言動の、前記認識部による認識結果に基づいて、前記被評価者の言動を評価する評価部と、
を備える情報処理装置。
(付記18)
前記情報取得部により取得された情報により示される対象商品を購入しようとしている前記他者を個々に識別する個人IDを取得するID取得部と、
前記取得された個人IDに基づいて、前記他者の購入履歴情報を取得する履歴取得部と、
をさらに備え、
前記評価部は、前記情報取得部により取得された対象商品情報および前記履歴取得部により取得された購入履歴情報に対応する被評価者の指定言動の、前記認識部による認識結果に基づいて、前記被評価者の言動を評価する付記17に記載の情報処理装置。
前記情報取得部により取得された情報により示される対象商品を購入しようとしている前記他者を個々に識別する個人IDを取得するID取得部と、
前記取得された個人IDに基づいて、前記他者の購入履歴情報を取得する履歴取得部と、
をさらに備え、
前記評価部は、前記情報取得部により取得された対象商品情報および前記履歴取得部により取得された購入履歴情報に対応する被評価者の指定言動の、前記認識部による認識結果に基づいて、前記被評価者の言動を評価する付記17に記載の情報処理装置。
(付記19)
前記評価部は、前記情報取得部により取得された前記対象商品の情報に対応する時間閾値を取得し、その取得された時間閾値および前記情報取得部による前記対象商品の情報の取得時間をさらに用いて、前記被評価者の言動を評価する付記17又は付記18に記載の情報処理装置。
前記評価部は、前記情報取得部により取得された前記対象商品の情報に対応する時間閾値を取得し、その取得された時間閾値および前記情報取得部による前記対象商品の情報の取得時間をさらに用いて、前記被評価者の言動を評価する付記17又は付記18に記載の情報処理装置。
(付記20)
前記評価部は、被評価者に期待される指定言動と商品情報との複数の対応関係に加えて、各対応関係に関連付けられた複数の時間閾値をさらに含む対応情報の中から、前記情報取得部により取得された前記対象商品の情報に対応する前記時間閾値を取得する付記19に記載の情報処理装置。
前記評価部は、被評価者に期待される指定言動と商品情報との複数の対応関係に加えて、各対応関係に関連付けられた複数の時間閾値をさらに含む対応情報の中から、前記情報取得部により取得された前記対象商品の情報に対応する前記時間閾値を取得する付記19に記載の情報処理装置。
(付記21)
前記他者を個々に識別する個人IDを取得するID取得部と、
前記取得された個人IDに基づいて、前記他者の習慣情報を取得する習慣取得部と、
をさらに備え、
前記評価部は、前記取得された習慣情報に基づいて、前記被評価者の前記指定言動を用いた評価の要否を決定する付記1乃至付記20の何れか一つに記載の情報処理装置。
前記他者を個々に識別する個人IDを取得するID取得部と、
前記取得された個人IDに基づいて、前記他者の習慣情報を取得する習慣取得部と、
をさらに備え、
前記評価部は、前記取得された習慣情報に基づいて、前記被評価者の前記指定言動を用いた評価の要否を決定する付記1乃至付記20の何れか一つに記載の情報処理装置。
(付記22)
前記認識部は、被評価者の言動として、発話の有無、発話内容、発話特性および行動の少なくとも一つを認識し、
前記評価部は、前記被評価者の前記指定言動として、前記被評価者の、任意の発話、指定発話内容、指定発話特性および指定行動の少なくとも一つを特定する付記1乃至付記21の何れか一つに記載の情報処理装置。
前記認識部は、被評価者の言動として、発話の有無、発話内容、発話特性および行動の少なくとも一つを認識し、
前記評価部は、前記被評価者の前記指定言動として、前記被評価者の、任意の発話、指定発話内容、指定発話特性および指定行動の少なくとも一つを特定する付記1乃至付記21の何れか一つに記載の情報処理装置。
(付記23)
前記評価部は、前記評価の結果、その評価の元となった他者の契機状態の検知結果および被評価者の言動の認識結果、および各々の時間情報が対応付けられたデータを、所定期間蓄積し、蓄積されたデータの一覧を出力する付記1乃至付記22の何れか一つに記載の情報処理装置。
前記評価部は、前記評価の結果、その評価の元となった他者の契機状態の検知結果および被評価者の言動の認識結果、および各々の時間情報が対応付けられたデータを、所定期間蓄積し、蓄積されたデータの一覧を出力する付記1乃至付記22の何れか一つに記載の情報処理装置。
(付記24)
前記評価部は、前記評価の結果又はその結果に対応するアラート情報を逐次出力する付記1乃至付記23の何れか一つに記載の情報処理装置。
前記評価部は、前記評価の結果又はその結果に対応するアラート情報を逐次出力する付記1乃至付記23の何れか一つに記載の情報処理装置。
以上の各情報処理装置は、プロセッサおよびメモリを有し、メモリに格納されるコードをプロセッサに実行させることで、以下に表す言動評価方法を実行する装置であると特定することもできる。
(付記25)
少なくとも一つのコンピュータにより実行される言動評価方法において、
被評価者の言動を認識し、
他者の契機状態を検知し、
前記検知された他者の前記契機状態に対応する被評価者の指定言動の、前記認識の結果に基づいて、前記被評価者の言動を評価する、
ことを含む言動評価方法。
少なくとも一つのコンピュータにより実行される言動評価方法において、
被評価者の言動を認識し、
他者の契機状態を検知し、
前記検知された他者の前記契機状態に対応する被評価者の指定言動の、前記認識の結果に基づいて、前記被評価者の言動を評価する、
ことを含む言動評価方法。
(付記26)
被評価者に期待される指定言動と他者の状態との複数の対応関係を含む対応情報の中から、前記検知された他者の前記契機状態に対応する前記被評価者の前記指定言動を特定することをさらに含む付記25に記載の言動評価方法。
被評価者に期待される指定言動と他者の状態との複数の対応関係を含む対応情報の中から、前記検知された他者の前記契機状態に対応する前記被評価者の前記指定言動を特定することをさらに含む付記25に記載の言動評価方法。
(付記27)
前記検知された他者の前記契機状態に対応する時間閾値を取得する、
ことをさらに含み、
前記評価は、前記被評価者の指定言動の認識結果又は前記認識された前記被評価者の指定言動の時間情報、前記取得された時間閾値および前記他者の前記契機状態の検知時間をさらに用いて、前記被評価者の言動を評価する付記25又は付記26に記載の言動評価方法。
前記検知された他者の前記契機状態に対応する時間閾値を取得する、
ことをさらに含み、
前記評価は、前記被評価者の指定言動の認識結果又は前記認識された前記被評価者の指定言動の時間情報、前記取得された時間閾値および前記他者の前記契機状態の検知時間をさらに用いて、前記被評価者の言動を評価する付記25又は付記26に記載の言動評価方法。
(付記28)
前記時間閾値の取得は、被評価者に期待される指定言動と他者の状態との複数の対応関係に加えて、各対応関係に関連付けられた複数の時間閾値をさらに含む対応情報の中から、前記検知された他者の前記契機状態に対応する前記時間閾値を取得する付記27に記載の言動評価方法。
前記時間閾値の取得は、被評価者に期待される指定言動と他者の状態との複数の対応関係に加えて、各対応関係に関連付けられた複数の時間閾値をさらに含む対応情報の中から、前記検知された他者の前記契機状態に対応する前記時間閾値を取得する付記27に記載の言動評価方法。
(付記29)
前記他者の属性情報を取得する、
ことをさらに含み、
前記評価は、前記契機状態が検知された他者に関して前記取得された属性情報をさらに用いて、前記被評価者の前記指定言動を特定する付記25乃至付記28の何れか一つに記載の言動評価方法。
前記他者の属性情報を取得する、
ことをさらに含み、
前記評価は、前記契機状態が検知された他者に関して前記取得された属性情報をさらに用いて、前記被評価者の前記指定言動を特定する付記25乃至付記28の何れか一つに記載の言動評価方法。
(付記30)
前記被評価者の前記指定言動の特定は、被評価者に期待される指定言動と他者の状態と他者の属性情報との複数の対応関係を含む対応情報の中から、前記検知された他者の前記契機状態および前記取得された他者の前記属性情報に対応する前記被評価者の前記指定言動を特定する付記29に記載の言動評価方法。
前記被評価者の前記指定言動の特定は、被評価者に期待される指定言動と他者の状態と他者の属性情報との複数の対応関係を含む対応情報の中から、前記検知された他者の前記契機状態および前記取得された他者の前記属性情報に対応する前記被評価者の前記指定言動を特定する付記29に記載の言動評価方法。
(付記31)
前記他者が購入しようとしている対象商品の情報を取得し、
前記契機状態が検知された他者に関して前記取得された対象商品の情報をさらに用いて、前記被評価者の前記指定言動を特定することをさらに含む付記25乃至付記30の何れか一つに記載の言動評価方法。
前記他者が購入しようとしている対象商品の情報を取得し、
前記契機状態が検知された他者に関して前記取得された対象商品の情報をさらに用いて、前記被評価者の前記指定言動を特定することをさらに含む付記25乃至付記30の何れか一つに記載の言動評価方法。
(付記32)
前記他者を個々に識別する個人IDを取得し、
前記取得された個人IDに基づいて、前記他者の購入履歴情報を取得する、
ことをさらに含み、
前記被評価者の前記指定言動の特定は、前記契機状態が検知された他者に関して、前記取得された対象商品の情報および前記取得された購入履歴情報をさらに用いて、前記被評価者の前記指定言動を特定する付記31に記載の言動評価方法。
前記他者を個々に識別する個人IDを取得し、
前記取得された個人IDに基づいて、前記他者の購入履歴情報を取得する、
ことをさらに含み、
前記被評価者の前記指定言動の特定は、前記契機状態が検知された他者に関して、前記取得された対象商品の情報および前記取得された購入履歴情報をさらに用いて、前記被評価者の前記指定言動を特定する付記31に記載の言動評価方法。
(付記33)
前記検知された他者の契機状態の時間情報および前記認識された被評価者の言動の時間情報に基づいて、認識された被評価者の言動の中から、検知された他者の契機状態に対して評価される被評価者の言動を特定する、
ことをさらに含み、
前記評価は、前記特定された前記被評価者の前記言動と前記他者の前記契機状態に対応する前記被評価者の前記指定言動との照合により、前記被評価者の言動を評価する付記25乃至付記32の何れか一つに記載の言動評価方法。
前記検知された他者の契機状態の時間情報および前記認識された被評価者の言動の時間情報に基づいて、認識された被評価者の言動の中から、検知された他者の契機状態に対して評価される被評価者の言動を特定する、
ことをさらに含み、
前記評価は、前記特定された前記被評価者の前記言動と前記他者の前記契機状態に対応する前記被評価者の前記指定言動との照合により、前記被評価者の言動を評価する付記25乃至付記32の何れか一つに記載の言動評価方法。
(付記34)
前記被評価者の前記言動の特定は、契機状態が検知された他者の位置情報および言動が認識された被評価者の位置情報をさらに用いて、評価される被評価者の言動を特定する付記33に記載の言動評価方法。
前記被評価者の前記言動の特定は、契機状態が検知された他者の位置情報および言動が認識された被評価者の位置情報をさらに用いて、評価される被評価者の言動を特定する付記33に記載の言動評価方法。
(付記35)
少なくとも一つのコンピュータにより実行される言動評価方法において、
被評価者の言動を認識し、
他者の属性情報を取得し、
前記取得された他者の属性情報に対応する被評価者の指定言動の、前記認識の結果に基づいて、前記被評価者の言動を評価することを含む言動評価方法。
少なくとも一つのコンピュータにより実行される言動評価方法において、
被評価者の言動を認識し、
他者の属性情報を取得し、
前記取得された他者の属性情報に対応する被評価者の指定言動の、前記認識の結果に基づいて、前記被評価者の言動を評価することを含む言動評価方法。
(付記36)
被評価者に期待される指定言動と他者の属性情報との複数の対応関係を含む対応情報の中から、前記取得された他者の前記属性情報に対応する前記被評価者の前記指定言動を特定することをさらに含む付記35に記載の言動評価方法。
被評価者に期待される指定言動と他者の属性情報との複数の対応関係を含む対応情報の中から、前記取得された他者の前記属性情報に対応する前記被評価者の前記指定言動を特定することをさらに含む付記35に記載の言動評価方法。
(付記37)
前記取得された他者の前記属性情報に対応する時間閾値を取得する、
ことをさらに含み、
前記評価は、前記取得された時間閾値および前記他者の前記属性情報の取得時間をさらに用いて、前記被評価者の言動を評価する付記35又は付記36に記載の言動評価方法。
前記取得された他者の前記属性情報に対応する時間閾値を取得する、
ことをさらに含み、
前記評価は、前記取得された時間閾値および前記他者の前記属性情報の取得時間をさらに用いて、前記被評価者の言動を評価する付記35又は付記36に記載の言動評価方法。
(付記38)
前記時間閾値の取得は、被評価者に期待される指定言動と他者の属性情報との複数の対応関係に加えて、各対応関係に関連付けられた複数の時間閾値をさらに含む対応情報の中から、前記取得された他者の前記属性情報に対応する前記時間閾値を取得する付記37に記載の言動評価方法。
前記時間閾値の取得は、被評価者に期待される指定言動と他者の属性情報との複数の対応関係に加えて、各対応関係に関連付けられた複数の時間閾値をさらに含む対応情報の中から、前記取得された他者の前記属性情報に対応する前記時間閾値を取得する付記37に記載の言動評価方法。
(付記39)
前記他者が購入しようとしている対象商品の情報を取得し、
前記属性情報が取得された他者に関して前記取得された対象商品の情報をさらに用いて、前記被評価者の前記指定言動を特定することをさらに含む付記35乃至付記38の何れか一つに記載の言動評価方法。
前記他者が購入しようとしている対象商品の情報を取得し、
前記属性情報が取得された他者に関して前記取得された対象商品の情報をさらに用いて、前記被評価者の前記指定言動を特定することをさらに含む付記35乃至付記38の何れか一つに記載の言動評価方法。
(付記40)
前記他者を個々に識別する個人IDを取得し、
前記取得された個人IDに基づいて、前記他者の購入履歴情報を取得する、
ことをさらに含み、
前記被評価者の前記指定言動の特定は、前記属性情報が取得された他者に関して、前記取得された対象商品の情報および前記取得された購入履歴情報をさらに用いて、前記被評価者の前記指定言動を特定する付記39に記載の言動評価方法。
前記他者を個々に識別する個人IDを取得し、
前記取得された個人IDに基づいて、前記他者の購入履歴情報を取得する、
ことをさらに含み、
前記被評価者の前記指定言動の特定は、前記属性情報が取得された他者に関して、前記取得された対象商品の情報および前記取得された購入履歴情報をさらに用いて、前記被評価者の前記指定言動を特定する付記39に記載の言動評価方法。
(付記41)
少なくとも一つのコンピュータにより実行される言動評価方法において、
被評価者の言動を認識し、
他者が購入しようとしている対象商品の情報を取得し、
前記取得された対象商品情報に対応する被評価者の指定言動の、前記認識の結果に基づいて、前記被評価者の言動を評価することを含む言動評価方法。
少なくとも一つのコンピュータにより実行される言動評価方法において、
被評価者の言動を認識し、
他者が購入しようとしている対象商品の情報を取得し、
前記取得された対象商品情報に対応する被評価者の指定言動の、前記認識の結果に基づいて、前記被評価者の言動を評価することを含む言動評価方法。
(付記42)
前記取得された情報により示される対象商品を購入しようとしている前記他者を個々に識別する個人IDを取得し、
前記取得された個人IDに基づいて、前記他者の購入履歴情報を取得する、
ことをさらに含み、
前記評価は、前記取得された対象商品情報および前記取得された購入履歴情報に対応する被評価者の指定言動の、前記認識の結果に基づいて、前記被評価者の言動を評価する付記41に記載の言動評価方法。
前記取得された情報により示される対象商品を購入しようとしている前記他者を個々に識別する個人IDを取得し、
前記取得された個人IDに基づいて、前記他者の購入履歴情報を取得する、
ことをさらに含み、
前記評価は、前記取得された対象商品情報および前記取得された購入履歴情報に対応する被評価者の指定言動の、前記認識の結果に基づいて、前記被評価者の言動を評価する付記41に記載の言動評価方法。
(付記43)
前記取得された前記対象商品の情報に対応する時間閾値を取得する、
ことをさらに含み、
前記評価は、前記取得された時間閾値および前記対象商品の情報の取得時間をさらに用いて、前記被評価者の言動を評価する付記41又は付記42に記載の言動評価方法。
前記取得された前記対象商品の情報に対応する時間閾値を取得する、
ことをさらに含み、
前記評価は、前記取得された時間閾値および前記対象商品の情報の取得時間をさらに用いて、前記被評価者の言動を評価する付記41又は付記42に記載の言動評価方法。
(付記44)
前記時間閾値の取得は、被評価者に期待される指定言動と商品情報との複数の対応関係に加えて、各対応関係に関連付けられた複数の時間閾値をさらに含む対応情報の中から、前記取得された前記対象商品の情報に対応する前記時間閾値を取得する付記43に記載の言動評価方法。
前記時間閾値の取得は、被評価者に期待される指定言動と商品情報との複数の対応関係に加えて、各対応関係に関連付けられた複数の時間閾値をさらに含む対応情報の中から、前記取得された前記対象商品の情報に対応する前記時間閾値を取得する付記43に記載の言動評価方法。
(付記45)
前記他者を個々に識別する個人IDを取得し、
前記取得された個人IDに基づいて、前記他者の習慣情報を取得し、
前記取得された習慣情報に基づいて、前記被評価者の前記指定言動を用いた評価の要否を決定することをさらに含む付記25乃至付記44の何れか一つに記載の言動評価方法。
前記他者を個々に識別する個人IDを取得し、
前記取得された個人IDに基づいて、前記他者の習慣情報を取得し、
前記取得された習慣情報に基づいて、前記被評価者の前記指定言動を用いた評価の要否を決定することをさらに含む付記25乃至付記44の何れか一つに記載の言動評価方法。
(付記46)
前記認識は、被評価者の言動として、発話の有無、発話内容、発話特性および行動の少なくとも一つを認識し、
前記評価は、前記被評価者の、任意の発話、指定発話内容、指定発話特性および指定行動の少なくとも一つを特定する付記25乃至付記45の何れか一つに記載の言動評価方法。
前記認識は、被評価者の言動として、発話の有無、発話内容、発話特性および行動の少なくとも一つを認識し、
前記評価は、前記被評価者の、任意の発話、指定発話内容、指定発話特性および指定行動の少なくとも一つを特定する付記25乃至付記45の何れか一つに記載の言動評価方法。
(付記47)
前記評価の結果、その評価の元となった他者の契機状態の検知結果および被評価者の言動の認識結果、および各々の時間情報が対応付けられたデータを、所定期間蓄積し、
前記蓄積されたデータの一覧を出力することをさらに含む付記25乃至付記46の何れか一つに記載の言動評価方法。
前記評価の結果、その評価の元となった他者の契機状態の検知結果および被評価者の言動の認識結果、および各々の時間情報が対応付けられたデータを、所定期間蓄積し、
前記蓄積されたデータの一覧を出力することをさらに含む付記25乃至付記46の何れか一つに記載の言動評価方法。
(付記48)
前記評価の結果又はその結果に対応するアラート情報を逐次出力することをさらに含む付記25乃至付記47の何れか一つに記載の言動評価方法。
前記評価の結果又はその結果に対応するアラート情報を逐次出力することをさらに含む付記25乃至付記47の何れか一つに記載の言動評価方法。
(付記49)
付記25乃至付記48の何れか一つに記載の言動評価方法を少なくとも一つのコンピュータに実行させるプログラム。
付記25乃至付記48の何れか一つに記載の言動評価方法を少なくとも一つのコンピュータに実行させるプログラム。
以上、上記した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上記した実施形態には限定されない。すなわち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
この出願は、2014年12月4日に出願された日本出願特願2014−245898を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1 情報処理装置(評価装置)
2 CPU
3 メモリ
4 入出力I/F
5 通信ユニット
11 認識部
12 検知部
13 評価部
14 特定部
15 ルールテーブル
17 属性取得部
18 情報取得部
2 CPU
3 メモリ
4 入出力I/F
5 通信ユニット
11 認識部
12 検知部
13 評価部
14 特定部
15 ルールテーブル
17 属性取得部
18 情報取得部
Claims (20)
- 被評価者の言動を認識する認識手段と、
前記被評価者の言動の切っ掛けとなる前記被評価者以外の者の状態である契機状態を検知する検知手段と、
前記検知手段により検知された前記契機状態と、前記認識手段による前記被評価者の言動に関わる認識結果とを利用して、前記被評価者の言動を評価する評価手段と、
を備える情報処理装置。 - 前記評価手段は、前記契機状態と、当該契機状態に応じて期待される前記被評価者の言動である指定言動とが関連付けられた複数の関係データの中から、前記検知手段により検知された前記契機状態に応じた前記被評価者の前記指定言動を特定し、当該特定した指定言動と、前記認識手段による認識結果とに基づいて、前記被評価者の言動を評価する
請求項1に記載の情報処理装置。 - 前記評価手段は、前記契機状態と、当該契機状態に応じた時間閾値の情報とが関連付けられている関係データから、前記検知手段により検知された前記契機状態に応じた前記時間閾値を取得し、前記被評価者の言動に関わる時間情報および前記時間閾値をも利用して、前記被評価者の言動を評価する
請求項1又は請求項2に記載の情報処理装置。 - 前記契機状態の言動を行った者の属性情報を取得する属性取得手段をさらに備え、
前記評価手段は、前記属性情報と前記契機状態と前記指定言動とが関連付けられている関係データから、前記属性取得手段により取得された前記属性情報に基づいて前記指定言動を特定し、特定した前記指定言動と、前記認識手段による認識結果とに基づいて、前記被評価者の言動を評価する
請求項1又は請求項2又は請求項3に記載の情報処理装置。 - 前記契機状態の言動を行った者が購入しようとしている対象商品の情報を取得する情報取得手段をさらに備え、
前記評価手段は、前記情報取得手段により取得された対象商品の情報をもさらに利用して、前記被評価者の言動を評価する
請求項1乃至請求項4の何れか一つに記載の情報処理装置。 - 前記契機状態の言動を行った者を識別する個人ID(IDentification)を取得するID取得手段と、
前記取得された個人IDに基づいて、前記契機状態の言動を行った者の購入履歴情報を取得する履歴取得手段と、
をさらに備え、
前記評価手段は、前記履歴取得手段により取得された前記購入履歴情報をもさらに用いて、前記被評価者の言動を評価する
請求項5に記載の情報処理装置。 - 前記検知手段により検知された前記契機状態に関わる時間情報と、前記被評価者の言動に関わる時間情報とに基づいて、前記認識手段により認識された前記被評価者の言動の中から、前記契機状態に応じた前記被評価者の評価対象の言動を特定する特定手段をさらに備え、
前記評価手段は、前記特定手段により特定された前記被評価者の評価対象の言動を評価する
請求項1乃至請求項6の何れか一つに記載の情報処理装置。 - 前記特定手段は、前記検知手段により検知された前記契機状態に関わる位置情報および前記被評価者の位置情報をさらに用いて、前記被評価者の評価対象の言動を特定する
請求項7に記載の情報処理装置。 - 被評価者の言動を認識する認識手段と、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者の属性情報を取得する属性取得手段と、
前記属性取得手段により取得された前記属性情報に応じた前記被評価者の予め定められた指定言動と、前記認識手段により認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価する評価手段と、
を備える情報処理装置。 - 被評価者の言動を認識する認識手段と、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者が購入しようとしている対象商品の情報を取得する情報取得手段と、
前記情報取得手段により取得された対象商品情報に応じた前記被評価者の予め定められた指定言動と、前記認識手段により認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価する評価手段と、
を備える情報処理装置。 - 前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者を識別する個人IDを取得するID取得手段と、
前記取得された個人IDに対応する者の習慣情報を取得する習慣取得手段と、
をさらに備え、
前記評価手段は、前記取得された習慣情報に基づいて、前記被評価者の評価を行うか否かを判断し、評価を行うと判断した場合のみ前記被評価者の言動を評価する
請求項1乃至請求項10の何れか一つに記載の情報処理装置。 - 前記認識手段は、前記被評価者の言動として、発話の有無、発話内容、発話特性および行動のうちの少なくとも一つを認識する
請求項1乃至請求項11の何れか一つに記載の情報処理装置。 - 前記評価手段は、評価の結果と、その評価の基となった前記被評価者の言動と、当該言動に関わる時間情報とを関連付けたデータを蓄積し、また、予め定められたタイミングで、蓄積したデータを出力する
請求項1乃至請求項12の何れか一つに記載の情報処理装置。 - 前記評価手段は、評価の結果、又は、その結果に対応するアラート情報を逐次出力する
請求項1乃至請求項13の何れか一つに記載の情報処理装置。 - コンピュータによって、
被評価者の言動を認識し、
前記被評価者の言動の切っ掛けとなる前記被評価者以外の者の状態である契機状態を検知し、
前記検知された前記契機状態と、前記認識手段による前記被評価者の言動に関わる認識結果とを利用して、前記被評価者の言動を評価する
言動評価方法。 - コンピュータによって、
被評価者の言動を認識し、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者の属性情報を取得し、
前記取得された前記属性情報に応じた前記被評価者の予め定められた指定言動と、前記認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価する
言動評価方法。 - コンピュータによって、
被評価者の言動を認識し、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者が購入しようとしている対象商品の情報を取得し、
前記取得された対象商品情報に応じた前記被評価者の予め定められた指定言動と、前記認識手段により認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価する
言動評価方法。 - 被評価者の言動を認識する処理と、
前記被評価者の言動の切っ掛けとなる前記被評価者以外の者の状態である契機状態を検知する処理と、
前記検知された前記契機状態と、前記認識手段による前記被評価者の言動に関わる認識結果とを利用して、前記被評価者の言動を評価する処理と
をコンピュータに実行させる処理手順が記憶されているコンピュータプログラム記憶媒体。 - 被評価者の言動を認識する処理と、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者の属性情報を取得する処理と、
前記取得された前記属性情報に応じた前記被評価者の予め定められた指定言動と、前記認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価するする処理と
をコンピュータに実行させる処理手順が記憶されているコンピュータプログラム記憶媒体。 - 被評価者の言動を認識する処理と、
前記被評価者の言動の切っ掛けとなる言動を行う前記被評価者以外の者が購入しようとしている対象商品の情報を取得する処理と、
前記取得された対象商品情報に応じた前記被評価者の予め定められた指定言動と、前記認識手段により認識された前記被評価者の言動とを利用して、前記被評価者の言動を評価する処理と
をコンピュータに実行させる処理手順が記憶されているコンピュータプログラム記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014245898 | 2014-12-04 | ||
JP2014245898 | 2014-12-04 | ||
PCT/JP2015/005984 WO2016088369A1 (ja) | 2014-12-04 | 2015-12-02 | 情報処理装置、言動評価方法およびプログラム記憶媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2016088369A1 true JPWO2016088369A1 (ja) | 2017-09-07 |
Family
ID=56091331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016562305A Pending JPWO2016088369A1 (ja) | 2014-12-04 | 2015-12-02 | 情報処理装置、言動評価方法およびプログラム記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20170364854A1 (ja) |
JP (1) | JPWO2016088369A1 (ja) |
WO (1) | WO2016088369A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6302865B2 (ja) * | 2015-04-07 | 2018-03-28 | 東芝テック株式会社 | 販売データ処理装置およびプログラム |
US10382804B2 (en) * | 2015-08-31 | 2019-08-13 | Orcam Technologies Ltd. | Systems and methods for identifying exposure to a recognizable item |
US10984036B2 (en) | 2016-05-03 | 2021-04-20 | DISH Technologies L.L.C. | Providing media content based on media element preferences |
US11196826B2 (en) * | 2016-12-23 | 2021-12-07 | DISH Technologies L.L.C. | Communications channels in media systems |
US10949901B2 (en) * | 2017-12-22 | 2021-03-16 | Frost, Inc. | Systems and methods for automated customer fulfillment of products |
JP2019191718A (ja) * | 2018-04-20 | 2019-10-31 | ClipLine株式会社 | 役務動作分析評価システム |
JP6535783B1 (ja) * | 2018-04-23 | 2019-06-26 | 和夫 金子 | 接客支援システム |
JP6941590B2 (ja) * | 2018-05-21 | 2021-09-29 | Kddi株式会社 | 情報処理装置及び情報処理プログラム |
EP3888025A1 (en) * | 2018-11-26 | 2021-10-06 | Everseen Limited | System and method for process shaping |
JP6825613B2 (ja) * | 2018-12-11 | 2021-02-03 | 東京電力ホールディングス株式会社 | 情報処理方法、プログラム、情報処理装置及び学習済みモデルの生成方法 |
JP6988975B2 (ja) * | 2018-12-11 | 2022-01-05 | 東京電力ホールディングス株式会社 | 情報処理方法、プログラム及び情報処理装置 |
CN111325069B (zh) * | 2018-12-14 | 2022-06-10 | 珠海格力电器股份有限公司 | 产线数据处理方法、装置、计算机设备和存储介质 |
JP2020184252A (ja) * | 2019-05-09 | 2020-11-12 | パナソニックIpマネジメント株式会社 | ストレス推定システム |
JP6620292B1 (ja) * | 2019-05-22 | 2019-12-18 | 株式会社セオン | 施設実態評価装置 |
JP7370171B2 (ja) * | 2019-05-31 | 2023-10-27 | グローリー株式会社 | 店舗業務管理システム、管理装置、店舗業務管理方法及び店舗業務管理プログラム |
JP7500173B2 (ja) * | 2019-09-20 | 2024-06-17 | 東芝テック株式会社 | 通知システム、及び通知プログラム |
CN111665761B (zh) * | 2020-06-23 | 2023-05-26 | 上海一旻成锋电子科技有限公司 | 工业控制系统及控制方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8600804B2 (en) * | 2002-11-07 | 2013-12-03 | Novitaz, Inc. | Customer relationship management system for physical locations |
US20050086095A1 (en) * | 2003-10-17 | 2005-04-21 | Moll Consulting, Inc. | Method and system for improving company's sales |
US20060095317A1 (en) * | 2004-11-03 | 2006-05-04 | Target Brands, Inc. | System and method for monitoring retail store performance |
US20070043608A1 (en) * | 2005-08-22 | 2007-02-22 | Recordant, Inc. | Recorded customer interactions and training system, method and computer program product |
JP2007058672A (ja) * | 2005-08-25 | 2007-03-08 | Adc Technology Kk | 評価システムおよびプログラム |
JP2008061145A (ja) * | 2006-09-01 | 2008-03-13 | Promise Co Ltd | コールセンターシステム |
JP4948368B2 (ja) * | 2007-11-15 | 2012-06-06 | 東芝テック株式会社 | 商品販売データ処理装置 |
JP5477153B2 (ja) * | 2010-05-11 | 2014-04-23 | セイコーエプソン株式会社 | 接客データ記録装置、接客データ記録方法およびプログラム |
US9824323B1 (en) * | 2014-08-11 | 2017-11-21 | Walgreen Co. | Gathering in-store employee ratings using triggered feedback solicitations |
-
2015
- 2015-12-02 JP JP2016562305A patent/JPWO2016088369A1/ja active Pending
- 2015-12-02 WO PCT/JP2015/005984 patent/WO2016088369A1/ja active Application Filing
- 2015-12-02 US US15/532,778 patent/US20170364854A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20170364854A1 (en) | 2017-12-21 |
WO2016088369A1 (ja) | 2016-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2016088369A1 (ja) | 情報処理装置、言動評価方法およびプログラム記憶媒体 | |
US11341515B2 (en) | Systems and methods for sensor data analysis through machine learning | |
US20110131105A1 (en) | Degree of Fraud Calculating Device, Control Method for a Degree of Fraud Calculating Device, and Store Surveillance System | |
JP7267709B2 (ja) | 無人店舗システムおよびサーバ | |
JP5974312B1 (ja) | 販売管理装置、販売管理システムおよび販売管理方法 | |
US11861993B2 (en) | Information processing system, customer identification apparatus, and information processing method | |
JP7521807B2 (ja) | 動線判定装置、動線判定システム、動線判定方法及びプログラム | |
US11216651B2 (en) | Information processing device and reporting method | |
JP2002032553A (ja) | 顧客情報管理システムおよびその方法ならびに顧客情報管理プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP2002032558A (ja) | 顧客情報管理システムおよびその方法ならびに顧客情報管理プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP2016024601A (ja) | 情報処理装置、情報処理システム、情報処理方法、商品推薦方法、およびプログラム | |
JP7184089B2 (ja) | 顧客情報登録装置 | |
WO2022201339A1 (ja) | 価格管理システム、価格管理方法、及び、記録媒体 | |
US12142121B2 (en) | Information processing system, customer identification apparatus, and information processing method | |
TWI856766B (zh) | 依顧客影音生成特定虛擬人物以提供銷售服務之系統及方法 | |
WO2024201692A1 (ja) | 購買率算出装置、購買率算出方法、及びコンピュータ可読媒体 | |
WO2024231984A1 (ja) | 情報提供装置、情報提供方法、および記録媒体 | |
US20220270061A1 (en) | System and method for indicating payment method availability on a smart shopping bin | |
JP2002032554A (ja) | 顧客情報管理システムおよびその方法ならびに顧客情報管理プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP6258878B2 (ja) | ドライブスルーシステム | |
JP6273220B2 (ja) | ドライブスルーシステム | |
CN113887884A (zh) | 商超服务系统 | |
JP2015049843A (ja) | 情報処理装置、店舗システム及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170524 |