JP2024036380A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2024036380A JP2024036380A JP2024005866A JP2024005866A JP2024036380A JP 2024036380 A JP2024036380 A JP 2024036380A JP 2024005866 A JP2024005866 A JP 2024005866A JP 2024005866 A JP2024005866 A JP 2024005866A JP 2024036380 A JP2024036380 A JP 2024036380A
- Authority
- JP
- Japan
- Prior art keywords
- shelf
- product
- article
- information processing
- specifying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 102
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000001514 detection method Methods 0.000 claims abstract description 84
- 238000003384 imaging method Methods 0.000 claims abstract description 44
- 238000000034 method Methods 0.000 claims description 102
- 230000008569 process Effects 0.000 description 96
- 238000012545 processing Methods 0.000 description 96
- 230000007704 transition Effects 0.000 description 35
- 238000010586 diagram Methods 0.000 description 27
- 230000006870 function Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 12
- 238000012544 monitoring process Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、撮像部により棚の在庫を管理する情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program that manage shelf inventory using an imaging unit.
近年、小売、物流などのロジスティック業界において、人材不足や物流効率化の観点で、これまで以上に精緻かつ効率的な在庫管理が求められている。特に商品在庫を保管している棚においては現状の在庫数のカウントは現在も人手中心で行われている。 In recent years, in the logistics industry such as retail and distribution, there has been a need for more precise and efficient inventory management than ever before due to a shortage of human resources and to improve logistics efficiency. In particular, counting the current inventory on shelves where product inventory is stored is still done manually.
こうした課題を解決する手段として、RFIDが知られている。RFIDは商品在庫一つずつにRFタグと呼ばれるICチップを取り付け、無線通信により商品在庫をカウントする仕組みである。 RFID is known as a means to solve these problems. RFID is a system in which an IC chip called an RF tag is attached to each product in stock, and the product inventory is counted through wireless communication.
しかし実際の運用においては、商品一つずつにRFタグを取り付けるための物理コストや人的コストが発生し、大抵の小売・物流現場において運用に見合うだけのコストパフォーマンスを得られないというのが現状である。 However, in actual operation, physical and human costs are incurred to attach RF tags to each product, and the current situation is that cost performance commensurate with operation cannot be obtained in most retail and logistics sites. It is.
また棚に重量センサを取り付けて商品数をカウントする技術も知られている。しかしながら棚一つずつに重量センサを取り付けるコストが見合わないことや、商品による重さのばらつきにより正確な在庫数がカウントできないという問題がある。 Also known is a technique for counting the number of products by attaching weight sensors to shelves. However, there are problems in that the cost of installing a weight sensor on each shelf is not worth it, and that accurate inventory counts cannot be made due to variations in the weight of products.
こうした中、コンピュータビジョン(画像処理)技術を使って棚の在庫管理を行う技術が考案されている。特許文献1には、材料取扱施設を有する在庫場所における物品の除去または配置を追跡するシステムが開示されている。 Under these circumstances, a technology has been devised that uses computer vision (image processing) technology to manage shelf inventory. US Pat. No. 5,080,001 discloses a system for tracking the removal or placement of items in an inventory location with material handling facilities.
特許文献1には、顧客が商品棚から商品を取る際の画像から顧客の手の位置を検出することでどの商品が棚から取られたかを判断する技術が記載されている。
しかしながら、上記の技術の場合、在庫場所を撮像する撮像装置かあるいは在庫状況を検出する存在検出装置が必要になる。棚の一段毎、或いは、棚の一列毎に撮像装置か存在検出装置を配置しなければならないため、コストが高くなってしまう課題がある。 However, in the case of the above technology, an imaging device that images the inventory location or a presence detection device that detects the inventory status is required. Since an imaging device or a presence detection device must be arranged for each shelf or row of shelves, there is a problem in that the cost increases.
そこで、本発明は、撮像部を用いて、棚からの出し入れにかかる物品の管理をすることを目的とする。 Therefore, an object of the present invention is to use an imaging unit to manage articles that are taken in and out of shelves.
上記の目的を達成するために本発明は、撮像部と通信可能な情報処理装置であって、前記撮像部により棚の前方方向を撮像した画像に基づき、物品の移動の向きを特定する移動向特定手段と、前記移動向特定手段により特定される向きにより、物品の出または入を特定する出入特定手段と、物品位置検出部により検出された物品の位置、および前記出入特定手段により特定された出入に基づき、前記棚における物品に係る数を管理する管理手段とを有することを特徴とする。 In order to achieve the above object, the present invention provides an information processing device capable of communicating with an imaging unit, the information processing device specifying a direction of movement of an article based on an image taken in the front direction of a shelf by the imaging unit. a specifying means; an entry/exit specifying means for specifying the exit or entry of the article based on the direction specified by the movement direction specifying means; a position of the article detected by the article position detection section; It is characterized by comprising a management means for managing the number of articles on the shelf based on the arrival and departure.
本発明によれば、撮像部を用いて、棚からの出し入れにかかる物品の管理ができるという効果を奏する。 According to the present invention, it is possible to manage articles that are taken in and out of shelves using the imaging unit.
<第1の実施形態>
以下、図面を参照して、本発明の実施形態について説明する。
<First embodiment>
Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の実施形態に係る在庫管理システムの概略を示す構成図である。 FIG. 1 is a configuration diagram showing an outline of an inventory management system according to an embodiment of the present invention.
在庫監視システム105は、ネットワークカメラ101とカメラで撮像した画像を処理する情報処理装置102が接続されており、ネットワークカメラ101は商品棚103の取り出し口を上から下へ向かって撮像する。商品棚103には商品104が陳列されている。なお、ネットワークカメラ101は取り出し口を上から下へ向かって撮像する例で記載しているが、取り出し口を横から撮像してもよいし、斜め上から撮像してもよい。本実施形態では、取り出し口を上から下へ向かって撮像する例で説明する。
The
在庫監視システム105により監視された商品の状況は、ネットワーク106を介して、たとえばクラウド上の在庫管理サーバ107で計数され、在庫状況をユーザに提供する。なお、図1では、在庫管理サーバ107を情報処理装置102と別筐体で説明しているが、それぞれを1つの筐体としてもよい。すなわち、情報処理装置102内に在庫管理サーバ107の機能を備えていてもよく、また、在庫管理サーバ107に情報処理装置102の有する撮像画像を処理する機能を有していてもよい。
The status of the products monitored by the
情報処理装置102は、図1のように1台のネットワークカメラ101から情報を取得して在庫管理サーバ107に送信してもよいし、複数台のネットワークカメラ101に接続され複数のネットワークカメラ101の情報を収集して在庫管理サーバ107に送信してもよい。
The
次に図2を用いて、情報処理装置102のハードウェアの概略構成を説明する。
Next, a schematic hardware configuration of the
図2は、本発明の実施形態に係る情報処理装置102、各種サーバのハードウェアの構成を示す構成図である。
FIG. 2 is a configuration diagram showing the hardware configuration of the
CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。
The
また、ROM202あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、画像処理サーバ108の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM203は、CPU201の主メモリ、ワークエリア等として機能する。
In addition, the
CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。
The
また、入力コントローラ(入力C)205は、入力部209としてのキーボードや不図示のマウス等のポインティングデバイスからの入力を制御する。
Further, an input controller (input C) 205 controls input from a keyboard as an
ビデオコントローラ(VC)206は、表示部210としてのCRTディスプレイ(CRT)等の表示器への表示を制御する。表示器はCRTだけでなく、液晶ディスプレイでも構わない。これらは必要に応じて管理者が使用するものである。本発明には直接関係があるものではない。
A video controller (VC) 206 controls display on a display device such as a CRT display (CRT) serving as the
メモリコントローラ(MC)207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HD)やフロッピーディスク(登録商標 FD)或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等の外部メモリ211へのアクセスを制御する。
A memory controller (MC) 207 is a hard disk (HD), floppy disk (registered trademark FD), or PCMCIA card slot that stores boot programs, browser software, various applications, font data, user files, editing files, various data, etc. Controls access to an
通信I/Fコントローラ(通信I/FC)208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。また、ネットワークカメラ101とネットワークを介して接続できる通信I/Fコントローラの機能をも有する。
A communication I/F controller (communication I/FC) 208 connects and communicates with external devices via a network, and executes communication control processing on the network. For example, Internet communication using TCP/IP is possible. It also has the function of a communication I/F controller that can be connected to the
なお、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、表示部210上での表示を可能としている。また、CPU201は、表示部210上の不図示のマウスカーソル等でのユーザ指示を可能とする。
Note that the
本発明を実現するためのプログラムは、外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイル及び各種情報テーブルは、外部メモリ211に格納されており、これらについての詳細な説明は後述する。
A program for realizing the present invention is recorded in the
次に図3を用いて、ネットワークカメラ101のハードウェアの概略構成を説明する。
Next, the schematic hardware configuration of the
図3は、ネットワークカメラ101のハードウェアの構成を示す構成図である。
FIG. 3 is a configuration diagram showing the hardware configuration of the
CPU301は、システムバス304に接続される各デバイスやコントローラを統括的に制御する。
The
また、ROM302には、CPU301の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、情報処理装置102に送信するデータを生成する機能を実現するために必要な各種プログラム等が記憶されている。RAM303は、CPU301の主メモリ、ワークエリア等として機能する。
In addition, the
CPU301は、処理の実行に際して必要なプログラム等をRAM303にロードして、プログラムを実行することで各種動作を実現するものである。
The
RGBカメラ部307は、画像処理部308と接続されており、監視対象に対して向けられたレンズを透過して得られた光をCCDやCMOS等の受光セルによって光電変換を行った後、RGB信号や補色信号を画像処理部308に対して出力する。
The
画像処理部308は、RGB信号や捕色信号に基づいて、ホワイトバランス調整、ガンマ処理、シャープネス処理を行い、更に、YC信号処理を施して輝度信号Yとクロマ信号(以下、YC信号)を生成し、YC信号を所定の圧縮形式(例えばJPEGフォーマット、あるいはMotionJPEGフォーマット等)で圧縮し、この圧縮されたデータは、画像データとしてRAM303へ一時保管される。
The
TOFセンサ305は、TOF(Time-of-Flight)方式で対象物までの距離を測定するイメージセンサであり、光(赤外線レーザーまたはLED)が被写体で反射してセンサに戻るのに要する時間を深度計測部306とともに測定することによって、被写体の距離を計測する。なお、商品の深度を測定する手段としては、RGBカメラ307を二台構成しステレオカメラによって深度を測定してもよいし、画像処理や深層学習を用いた二次元画像解析結果から深度を推定する方式をとっても良い。
The
通信I/Fコントローラ(通信I/FC)309は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行しており、RAM303に記憶された画像データは、通信I/Fコントローラ309によって外部機器である情報処理装置102へ送信される。
A communication I/F controller (communication I/FC) 309 connects and communicates with external devices via a network, and executes communication control processing on the network, and image data stored in the
次に、図4~図7を参照して、本願発明の第1の実施形態の在庫管理処理の流れを説明する。 Next, the flow of inventory management processing according to the first embodiment of the present invention will be explained with reference to FIGS. 4 to 7.
図4は、本発明の実施形態に係る情報処理装置102における在庫管理を行う処理概要を示すフローチャートであり、図中のS401~S407は各ステップを示す。各ステップの処理は、情報処理装置102の外部メモリ211に格納されたアプリケーションプログラムを、それぞれのシステムのCPU201がRAM203上にロードして実行することにより実現される。
FIG. 4 is a flowchart showing an overview of inventory management processing in the
図4のフローチャートは、ネットワークカメラ101と情報処理装置102が起動されると開始される処理の流れである。なお、以後のフローチャートにおいて、情報処理装置102は、ネットワークカメラ101からネットワークを通じて随時データを取得することができるものとする。
The flowchart in FIG. 4 is a flow of processing that is started when the
図4のフローチャートの処理に入る前に、まず情報処理装置102のCPU201は、ネットワークカメラ101のRGBカメラ307により得られる商品棚の取り出し口部分の撮像画像を取得する。
Before starting the process of the flowchart in FIG. 4, the
次に、ステップS401において、情報処理装置102のCPU201は、取得した撮像画像を元に、商品棚のレーンに合わせた仮想グリッドが設定される。図8、図17、図18を参照して、仮想グリッド設定の一例を説明する。
Next, in step S401, the
図8は、本発明の実施形態における商品棚と商品を取り出す領域(仮想グリッド領域)のイメージを説明する模式図である。 FIG. 8 is a schematic diagram illustrating an image of a product shelf and a region (virtual grid region) from which products are taken out in the embodiment of the present invention.
図8の103が商品棚、104が商品の例であり、撮像範囲である404が、商品取り出し口に該当する。以後の図8~図17は、商品棚からの取り出し口を上方から撮像しているイメージで説明するが、商品棚からの取り出し口を横から撮像しているイメージでも構わない。その場合、後述する図18は、商品の座標と深度が入れ替わることになる。 In FIG. 8, 103 is an example of a product shelf, 104 is an example of a product, and 404, which is an imaging range, corresponds to a product outlet. Although FIGS. 8 to 17 will be described below with an image of the outlet from the product shelf being imaged from above, it is also possible to image the outlet from the product shelf being imaged from the side. In that case, the coordinates and depth of the product will be swapped in FIG. 18, which will be described later.
図8の商品棚103には商品毎に配置されているレーン410があり、そのレーンの境となる位置405や406が存在する。
The
境の位置405や406を撮像範囲404に延長した境目を407、408と設定し、それぞれを区切る仮想グリッド401が撮像範囲404に作成される。すなわち、各商品棚のレーン毎に取り出しレーンとして、仮想グリッドを設定している。
Boundaries obtained by extending the boundary positions 405 and 406 to the
これらの処理を複数段の棚に対して行った結果が図17である。 FIG. 17 shows the results of performing these processes on multiple shelves.
図17は、本発明の実施形態における高さ方向がある商品棚と商品を取り出す領域(仮想グリッド領域)のイメージを説明する模式図である。 FIG. 17 is a schematic diagram illustrating an image of a product shelf with a height direction and an area (virtual grid area) from which products are taken out in the embodiment of the present invention.
図17の商品棚103は複数段から構成されており、図17では3段の棚が存在する例である。
The
図17の3段の棚の仮想グリッドは、段数によって異なり、一段目の商品のレーンの境は1204、二段目のレーンの境は1205、三段目のレーンの境は1206である。それぞれの段での仮想グリッドの境は、一段目のそれが1207、二段目のそれが1208、三段目のそれが1209と設定されている。 The virtual grid of the three-tier shelf in FIG. 17 differs depending on the number of shelves; the border of the first product lane is 1204, the border of the second lane is 1205, and the border of the third lane is 1206. The boundaries of the virtual grid in each stage are set as 1207 for the first stage, 1208 for the second stage, and 1209 for the third stage.
図17のように3段の棚の仮想グリッドを設定し、それぞれの棚の位置を関係づけたデータを図18を参照して説明する。 A virtual grid of three shelves is set as shown in FIG. 17, and data relating the positions of the respective shelves will be explained with reference to FIG.
図18は、本発明の実施形態における情報処理装置が有する、商品の検出される仮想グリッドの座標と深度との関係から出入りする棚を特定するためのデータの一例である。 FIG. 18 is an example of data, which is included in the information processing apparatus according to the embodiment of the present invention, and is used to identify a shelf from which a product enters or exits based on the relationship between the coordinates of the virtual grid where the product is detected and the depth.
図18の1800は深度計測部306から得られる深度1801とRGBカメラにより取得する商品位置の座標1802から、出入りする商品棚の位置を特定するデータであり、たとえば、深度が20cmの高さで出入りした商品でグリッド座標(図17の左右方向の座標で、中心を原点としている)が70の位置だった場合、一段目のグリッドC(すなわちグリッドC-1)から出入りしたと判断する。また、深度が80cmの高さで出入りした商品でグリッド座標が-60の位置であった場合、三段目のグリッドA(すなわちグリッドA-3)から出入りしたと判断する。なお、出入りの向きに関しては次のステップS402で後述する。
1800 in FIG. 18 is data that specifies the position of the product shelf from which the product is entered and exited from the
図18のように、商品の出入りする棚の位置を記憶するテーブルを有している。このテーブルはユーザにより手動で入力されてもよいし、ステップS401の処理の前に撮像された画像の商品棚の境(仕切り)などから自動的に設定されても良い。図4のフローチャートの説明に戻る。 As shown in FIG. 18, it has a table that stores the positions of shelves where products go in and out. This table may be manually input by the user, or may be automatically set from the boundaries (partitions) of the product shelves in the image captured before the process in step S401. Returning to the explanation of the flowchart in FIG. 4.
次の図4のステップS402において、情報処理装置102のCPU201は、仮想グリッド内を移動する商品の向きから、商品が取り出されている方向を設定する。図8を参照して説明する。
In the next step S402 in FIG. 4, the
図8において、商品棚103の位置が図面の下にあり、取り出し口側(仮想グリッド側)404は図面の上側にあるので、商品の取り出し方向は座標軸420のY軸方向に+向きである402のように上向き方向と設定される。この取り出し方向の設定は、ユーザが手動で設定してもよく、また撮像画面上(図8)での商品棚103の位置を指定することで設定されても良い。図4のフローチャートの説明に戻る。
In FIG. 8, the position of the
次に、図4のステップS403において、情報処理装置102のCPU201は、ステップS401により設定された仮想グリッドに対応する商品棚のレーンの在庫数の入力を受け付ける。図8と図19を参照して説明する。
Next, in step S403 of FIG. 4, the
図8の仮想グリッドが設定されている場合の各仮想グリッドに対応する商品棚のレーンの在庫がたとえば、グリッドAが10個(411)、グリッドBが5個(412)、グリッドCが1個(413)であった場合、ユーザは情報処理装置102の入力部209から在庫数を入力してそれぞれのレーンの在庫数を設定する。設定された在庫数を記憶するデータの例を図19を参照して説明する。
When the virtual grids in Figure 8 are set, the stock in the lane of the product shelf corresponding to each virtual grid is, for example, 10 items (411) for grid A, 5 items (412) for grid B, and 1 item for grid C. (413), the user inputs the inventory quantity from the
図19は、本発明の実施形態における商品棚の在庫数を記憶するデータテーブルの一例である。 FIG. 19 is an example of a data table that stores the number of items in stock on the product shelf according to the embodiment of the present invention.
図19のテーブルには、図8の一段目における在庫数が設定されており、それぞれグリッドAに10個、グリッドBに5個、グリッドCに1個というデータが登録されている。なお、図19のテーブルは情報処理装置102で記憶していてもよいし、在庫管理サーバ107で記憶していても良い。図4のフローチャートの説明に戻る。
In the table of FIG. 19, the inventory quantities in the first row of FIG. 8 are set, and data of 10 items in grid A, 5 items in grid B, and 1 item in grid C are registered, respectively. Note that the table in FIG. 19 may be stored in the
次の図4のステップS404において、情報処理装置102のCPU201は、ネットワークカメラ101に撮像(画像キャプチャ)を開始する命令を送信して、撮像を開始する。
In the next step S404 in FIG. 4, the
次のステップS405において、情報処理装置102のCPU201は、撮像された仮想グリッド401内で商品を検出したかを判定する。商品の検出は、たとえば図8のようにネットワークカメラを上部に取り付けている場合は、予め記憶されている商品の上からの形状を記憶しておき、SIFT(Scale-Invariant Feature Transform)アルゴリズムによる画像マッチングで検出してもよい。また、予め商品の上からの様々な画像を学習データとして登録して機械学習させ、画像認識AIを使って商品を検出しても良い。
In the next step S405, the
ステップS405において、商品を検出した場合は、ステップS406へと処理を移行し、商品を検出しない場合はステップS407へと処理を移行する。 In step S405, if a product is detected, the process moves to step S406, and if no product is detected, the process moves to step S407.
ステップS406へと処理を移行すると、情報処理装置102のCPU201は、ステップS405で検出した商品の在庫状況を把握するための商品追従処理を行う。ステップS406の処理内容を図5を参照して説明する。
When the process moves to step S406, the
図5は、本発明の実施形態に係る情報処理装置102における商品在庫追従の処理概要を示すフローチャートであり、図中のS501~S514は各ステップを示す。各ステップの処理は、情報処理装置102の外部メモリ211に格納されたアプリケーションプログラムを、それぞれのシステムのCPU201がRAM203上にロードして実行することにより実現される。
FIG. 5 is a flowchart showing an overview of product inventory tracking processing in the
図5のフローチャートは、図4のフローチャートのステップS406へと遷移した際に開始される処理の流れである。 The flowchart in FIG. 5 is a flow of processing that is started when the flowchart in FIG. 4 transitions to step S406.
まず、図5のステップS501において、情報処理装置102のCPU201は、ネットワークカメラ101から取得した撮像画像(キャプチャ)から、検出された商品の場所(座標)を取得し、開始座標として記憶する。具体的な商品イメージを参照した説明は図9~図14で後述する。
First, in step S501 of FIG. 5, the
次に、ステップS502において、情報処理装置102のCPU201は、ネットワークカメラ101が備えるTOFセンサ305により、検出された商品の高さ(深度)を取得し、開始深度として記憶する。
Next, in step S502, the
次に、ステップS503において、情報処理装置102のCPU201は、ネットワークカメラ101から次の撮像画像(キャプチャ)を取得する。
Next, in step S503, the
次に、ステップS504において、情報処理装置102のCPU201は、ステップS503において撮像された仮想グリッド401内で前回と同じ種類の商品を検出したかどうかを判断する。同じ種類の商品を検出した場合はステップS505に遷移し、同じ種類の商品を検出しない場合はステップS509へと処理を遷移する。なお、ステップS503で撮像された仮想グリッド401内で前回と異なる種類の商品を検出した場合(図15のような場合)は、異なる種類の商品について、図5のフローチャートをステップS501から実施する。
Next, in step S504, the
ステップS505の処理へ遷移した場合、情報処理装置102のCPU201は、ステップS503で撮像された撮像画像(キャプチャ)から、検出された商品の場所(座標)を取得し、現在座標として記憶する。また、1回前に取得した現在座標と商品の種類も「1つ前に取得した現在座標」と前回の商品の種類として記憶しておく。
When the process transitions to step S505, the
次に、ステップS506において、情報処理装置102のCPU201は、ステップS503で撮像された際に検出した商品の高さ(深度)を取得し、現在深度として記憶する。
Next, in step S506, the
次に、ステップS507において、情報処理装置102のCPU201は、「1つ前に取得した現在座標」と、ステップS505で新たに取得した現在座標との距離を比較し、距離が所定の閾値以上の商品しかない場合、ステップS510に遷移する。一方、「1つ前に取得した現在座標」とステップS505で新たに取得した現在座標との距離が閾値以内にある商品があれば、ステップS508へと処理を遷移する。具体的な例は、図16を参照して後述する。
Next, in step S507, the
ステップS507の判断分岐は、同じ種類の商品が仮想グリッド401内に同時に複数個入ってきた場合に発生する判断分岐であり、2つの距離が閾値以上とは、すなわちそれぞれの個体が別のものであると判断された場合を意味する。2つの距離が閾値以内であれば、「1つ前に取得した現在座標」の商品と新たにステップS505で検出した商品は同じ個体として認識する(ステップS508の処理)。
The decision branch in step S507 is a decision branch that occurs when multiple products of the same type enter the
ステップS508の処理の後はステップS503へと処理を戻し、仮想グリッド401内の撮像画像を取得する処理から繰り返す。
After the process in step S508, the process returns to step S503, and the process is repeated from the process of acquiring the captured image within the
一方、ステップS504において、仮想グリッド401内で前回と同じ種類の商品を検出しない場合はステップS509へと処理を遷移する。
On the other hand, in step S504, if the same type of product as last time is not detected in the
ステップS509に遷移すると、情報処理装置102のCPU201は、所定回数以上、同じ商品が検出できなかったかの判断を行う。所定回数以上同じ商品を検出できなければ、ステップS510へと処理を遷移し、所定回数以内に同じ商品を検出できた場合は、ステップS503へと処理を戻す。
In step S509, the
ステップS509の判断分岐は、仮想グリッド401内に商品があるにもかかわらず、撮像部での撮像画像が残像や光の外乱などにより一時的に商品検出できない場合でも、商品が仮想グリッド401外に出たと判断しないための判断分岐になる。
The decision branch in step S509 is such that even if there is a product within the
次のステップS510には、ステップS509で現在座標が1回以上記憶されている(ステップS509でYES)か、ステップS507で「1つ前に取得した現在座標」と新たにステップS505で検出した現在座標との距離が閾値以上離れている場合に遷移する。 In the next step S510, either the current coordinates have been stored at least once in step S509 (YES in step S509), or the current coordinates newly detected in step S505 are stored as the "previously acquired current coordinates" in step S507. Transition occurs when the distance from the coordinates is more than a threshold value.
ステップS510において、情報処理装置102のCPU201は、ステップS501で取得した商品の最初の検出位置である開始座標と、ステップS505で最後に取得した商品の検出位置である「最後の現在座標」とから、商品の移動の向きを算出する。
In step S510, the
次に、ステップS511において、情報処理装置102のCPU201は、ステップS510で算出された向きにより処理を分ける。
Next, in step S511, the
開始座標と「最後の現在座標」との向きが同じ場合、たとえば、図8の座標軸420のY軸方向の仮想グリッドの中心からの向きが一緒の場合は、図5のフローチャートの処理を終える。この判断は、商品が仮想グリッド内に入ったが、出入りはしなかった場合(たとえば、顧客が棚から商品を出して購入を検討したが、やはり購入を止めて棚に戻した場合など)の判断分岐になる。
If the starting coordinates and the "last current coordinates" have the same direction, for example, if the coordinate
また、ステップS511において、商品の移動の向きが取り出す向き402であった場合は、ステップS512へと処理を遷移する。
Further, in step S511, if the direction of movement of the product is the take-out
一方、ステップS511において、商品の移動の向きが戻す向き(取り出す向きと反対)であった場合は、ステップS513へと処理を遷移する。 On the other hand, in step S511, if the direction of movement of the product is the return direction (opposite to the direction of removal), the process transitions to step S513.
ステップS512へと処理を遷移すると、情報処理装置102のCPU201は、商品取り出し処理を行い、ステップS514へと処理を遷移する。詳細な処理は図6で後述する。
When the process transitions to step S512, the
また、ステップS513へと処理を遷移すると、情報処理装置102のCPU201は、商品戻し処理を行い、ステップS514へと処理を遷移する。詳細な処置は図7で後述する。
Furthermore, when the process transitions to step S513, the
ステップS514へと処理を遷移すると、情報処理装置102のCPU201は、ステップS512やステップS513で特定された棚の在庫数を変更するべく、在庫管理サーバに報知して、図5のフローチャートを終える。図4のフローチャートの説明に戻る。
When the process transitions to step S514, the
ステップS406において、ステップS405で検出した商品の在庫状況を把握するための商品追従処理を行った後、次のステップS407において、商品在庫の確認のためのネットワークカメラ101の撮像処理を終了するかどうか判断する。撮像処理を継続する場合は、ステップS404へと処理を戻し、ステップS404からの処理を繰り返す。一方、撮像処理を終了するとユーザから指示があった場合は撮像処理を中止して本発明の処理を終了する。
In step S406, after performing product tracking processing to grasp the inventory status of the product detected in step S405, in the next step S407, whether to end the imaging process of the
次に、図6を参照して、商品を取り出す棚の位置を特定する処理を説明する。 Next, with reference to FIG. 6, the process of identifying the position of the shelf from which the product is to be taken out will be described.
図6は、本発明の実施形態に係る情報処理装置102における商品取り出しの処理概要を示すフローチャートであり、図中のS601~S602は各ステップを示す。各ステップの処理は、情報処理装置102の外部メモリ211に格納されたアプリケーションプログラムを、それぞれのシステムのCPU201がRAM203上にロードして実行することにより実現される。
FIG. 6 is a flowchart showing an overview of the product retrieval process in the
図6のフローチャートは、図5のフローチャートのステップS512へと遷移した際に開始される処理の流れである。 The flowchart in FIG. 6 is a flow of processing that is started when the process transitions to step S512 in the flowchart in FIG.
まず、図6のステップS601において、情報処理装置102のCPU201は、ステップS502で取得した開始深度から取り出した棚の段数を特定する。具体的に図18を参照して説明すると、たとえばステップS502で取得した商品の深度が20cmであれば、1801と1803のデータから、取り出された棚の高さは一段目であることを特定する。
First, in step S601 of FIG. 6, the
次に、ステップS602において、情報処理装置102のCPU201は、ステップS501で取得した開始座標から取り出した棚の位置を特定する。具体的に図18を参照して説明すると、たとえば、ステップS501で取得した商品のグリッド座標が80であれば、1802のデータから、一段目のグリッド座標が80であるC-1、すなわち一段目のCの棚であることが特定される。
Next, in step S602, the
上記の例では、一段目のCの棚から商品が取り出されたことが特定される。 In the above example, it is specified that the product was taken out from the shelf C in the first stage.
以上の処理により、顧客が商品を取り出した棚の位置を特定することができる。 Through the above processing, it is possible to specify the position of the shelf from which the customer took out the product.
次に、図7を参照して、商品を戻した棚の位置を特定する処理を説明する。 Next, with reference to FIG. 7, the process of identifying the position of the shelf where the product was returned will be described.
図7は、本発明の実施形態に係る情報処理装置102における商品取り出しの処理概要を示すフローチャートであり、図中のS701~S702は各ステップを示す。各ステップの処理は、情報処理装置102の外部メモリ211に格納されたアプリケーションプログラムを、それぞれのシステムのCPU201がRAM203上にロードして実行することにより実現される。
FIG. 7 is a flowchart showing an overview of the product retrieval process in the
図7のフローチャートは、図5のフローチャートのステップS513へと遷移した際に開始される処理の流れである。 The flowchart in FIG. 7 is a flow of processing that is started when the flowchart in FIG. 5 transitions to step S513.
まず、図7のステップS701において、情報処理装置102のCPU201は、ステップS506で取得した最後の現在深度から戻された棚の段数を特定する。具体的に図18を参照して説明すると、たとえばステップS502で取得した商品の深度が80cmであれば、1801と1803のデータから、戻された棚は三段目であることを特定する。
First, in step S701 of FIG. 7, the
次に、ステップS702において、情報処理装置102のCPU201は、ステップS505で取得した最後の現在座標から取り出した棚の位置を特定する。具体的に図18を参照して説明すると、たとえば、ステップS501で取得した商品のグリッド座標が80であれば、1802のデータから、三段目のグリッド座標が80であるC-3、すなわち三段目のCの棚であることが特定される。
Next, in step S702, the
上記の例では、三段目のCの棚に商品が戻されたことが特定される。 In the above example, it is specified that the product was returned to the third shelf C.
以上の処理により、顧客が商品を戻した棚の位置を特定することができる。 Through the above processing, it is possible to specify the position of the shelf where the customer returned the product.
次に、図9~図14を参照して具体的に商品が棚から出入りするイメージより商品の出入りの棚の位置を特定する処理を説明する。 Next, with reference to FIGS. 9 to 14, a process for identifying the position of a shelf where a product enters and exits from the shelf based on an image of the product going in and out of the shelf will be specifically described.
図9は、本発明の実施形態における商品棚と商品取り出し開始時の処理イメージを説明する模式図である。 FIG. 9 is a schematic diagram illustrating a product shelf and a process image at the start of product removal in the embodiment of the present invention.
図9において、商品104が仮想グリッド内401において801のように検出される(ステップS405の処理)と、まず、商品の開始座標802を特定する(ステップS501の処理)。続いて、商品の開始深度も特定し(ステップS502の処理)、それぞれの値を記憶する。
In FIG. 9, when the
図10は、本発明の実施形態における商品棚と商品取り出し中の処理イメージを説明する模式図である。 FIG. 10 is a schematic diagram illustrating a product shelf and a processing image during product removal in the embodiment of the present invention.
図10において、商品104が仮想グリッド内を移動する際に仮想グリッドから存在しなくなるまで、現在座標802~804の現在座標を取得し続ける(ステップS505の処理)。
In FIG. 10, when the
図11は、本発明の実施形態における商品棚と商品取り出し終了時の処理イメージを説明する模式図である。 FIG. 11 is a schematic diagram illustrating a product shelf and a processing image at the end of product removal in the embodiment of the present invention.
図11において、商品104の現在座標が805のように仮想グリッドから存在しなくなった場合(ステップS504の判断分岐のNOへ遷移)、最後の仮想グリッド内の現在座標として、804が設定される(ステップS510の処理)。
In FIG. 11, when the current coordinates of the
続いて、商品の開始座標801と最後の現在座標804の情報から商品の移動の向き806を算出する。図11の場合は図8の402の取り出し方向と同じなので、取り出す向きと特定する(ステップS510の処理)。
Next, the direction of
図9から図11のイメージのように商品が移動した場合、ステップS511では取り出す向きに移動したと判断し、ステップS512の処理(すなわち、図6の処理)へと遷移する。 If the product moves as shown in the images from FIG. 9 to FIG. 11, it is determined in step S511 that the product has moved in the direction to be taken out, and the process moves to step S512 (ie, the process in FIG. 6).
図11の場合は、開始座標801と同じ時に取得した開始深度から取り出した棚の位置を特定する(図6のステップS601、S602の処理)。図11では、グリッドB(中央の棚)から1つ商品が取り出されているので、807のように在庫数を5から4に減らしている。この在庫数を減らす情報を在庫管理サーバ107に送信する(ステップS514の処理)。 In the case of FIG. 11, the position of the shelf taken out is specified from the starting depth obtained at the same time as the starting coordinates 801 (processing in steps S601 and S602 in FIG. 6). In FIG. 11, one product has been taken out from grid B (center shelf), so the number of items in stock is reduced from 5 to 4 as shown in 807. Information for reducing the inventory quantity is transmitted to the inventory management server 107 (processing in step S514).
以上のイメージで示すように、棚の取り出し口を撮像することで、商品の取り出し状況を把握することができる。 As shown in the image above, by capturing an image of the shelf opening, it is possible to understand the product takeout status.
次に、商品が棚に戻される場合の処理イメージを図12~図14を参照して説明する。 Next, an image of the process when the product is returned to the shelf will be described with reference to FIGS. 12 to 14.
図12は、本発明の実施形態における商品棚と商品戻し開始時の処理イメージを説明する模式図である。 FIG. 12 is a schematic diagram illustrating a product shelf and a processing image at the time of starting product return in the embodiment of the present invention.
図12において、商品104が仮想グリッド内401において901のように最初に検出される(ステップS405の処理)と、まず、商品の開始座標901を特定する(ステップS501の処理)。続いて、商品の開始深度も特定し(ステップS502の処理)、それぞれの値を記憶する。
In FIG. 12, when the
図13は、本発明の実施形態における商品棚と商品戻し中の処理イメージを説明する模式図である。 FIG. 13 is a schematic diagram illustrating a product shelf and a processing image during product return in the embodiment of the present invention.
図13において、商品104が仮想グリッド内を移動する際に仮想グリッドから存在しなくなるまで、現在座標902~905の現在座標を取得し続ける(ステップS505の処理)。続いて、現在深度の値も取得し続ける。
In FIG. 13, when the
図14は、本発明の実施形態における商品棚と商品戻し終了時の処理イメージを説明する模式図である。 FIG. 14 is a schematic diagram illustrating a product shelf and a processing image at the end of product return in the embodiment of the present invention.
図14において、商品104の現在座標が906のように仮想グリッドから存在しなくなった場合(ステップS504の判断分岐のNOへ遷移)、最後の仮想グリッド内の現在座標として、905が設定される(ステップS510の処理)。
In FIG. 14, when the current coordinates of the
続いて、商品の開始座標901と最後の現在座標905の情報から商品の移動の向き907を算出する。図14の場合、商品の移動の向き907は図8の402の取り出し方向と反対なので、戻す向きと特定する(ステップS510の処理)。
Next, the direction of
図12から図14のイメージのように商品が移動した場合、ステップS511では戻す向きに移動したと判断し、ステップS513の処理(すなわち、図7の処理)へと遷移する。 If the product moves as shown in the images from FIG. 12 to FIG. 14, it is determined in step S511 that the product has moved in the backward direction, and the process shifts to step S513 (ie, the process in FIG. 7).
図14の場合は、最後の現在座標905と同じ時に取得した開始深度から取り出した棚の位置を特定する(図7のステップS701、S702の処理)。図14の例では、グリッドA(左の棚)に1つ商品が戻されているので、908のように在庫数を当初の10から11に増やしている。この在庫数を増やす情報を在庫管理サーバ107に送信する(ステップS514の処理)。 In the case of FIG. 14, the position of the shelf taken out is specified from the starting depth obtained at the same time as the last current coordinate 905 (processing in steps S701 and S702 in FIG. 7). In the example of FIG. 14, one product has been returned to grid A (left shelf), so the number of items in stock is increased from the original 10 to 11 as shown in 908. This information to increase the inventory quantity is transmitted to the inventory management server 107 (processing in step S514).
以上のイメージで示すように、棚の取り出し口を撮像することで、商品の戻し状況を把握することができる。 As shown in the image above, by capturing an image of the take-out opening of the shelf, it is possible to grasp the status of returned products.
次に、図16を参照して、ステップS507およびステップS508の処理のイメージを説明する。 Next, an image of the processing in steps S507 and S508 will be described with reference to FIG. 16.
図16は、本発明の実施形態における商品を仮想グリッド領域401内で同一種類の別の商品を検出するイメージを説明する模式図である。
FIG. 16 is a schematic diagram illustrating an image of detecting another product of the same type within the
図16のイメージは、商品104を1102において検出した(ステップS501)後で、次の撮像処理(ステップS503)において、同じ商品が1103と1104で検出された場合の例である。
The image in FIG. 16 is an example where after the
図16において、商品の移動を示す閾値が1101の場合、開始座標1102と現在座標1104とは距離が閾値以上に離れており(1106)、一方現在座標1103は閾値以内である(1105)ので、開始座標1102から移動した商品は1103へ移動したと判断する。閾値は顧客が商品を移動させる速度と撮像処理を行う時間間隔から設定される。この閾値は、商品棚のレーン間隔(図8の405と406の間の距離)よりも短い必要があるので、顧客の商品移動速度との関係で、撮像処理を行う時間間隔を設定するようにしても良い。 In FIG. 16, when the threshold indicating the movement of the product is 1101, the distance between the start coordinate 1102 and the current coordinate 1104 is more than the threshold (1106), and on the other hand, the current coordinate 1103 is within the threshold (1105). It is determined that the product moved from the start coordinate 1102 has moved to 1103. The threshold value is set based on the speed at which the customer moves the product and the time interval at which image processing is performed. This threshold value needs to be shorter than the lane interval of the product shelf (distance between 405 and 406 in Figure 8), so the time interval for image capture processing should be set in relation to the customer's product movement speed. It's okay.
以上の処理により、撮像のフレームレートが遅く、商品を追跡する速度に限度がある場合に、2つの商品が認識されても閾値1101以上離れていれば、2つの商品を識別して棚の出し入れを管理することができる。
<第2の実施形態>
第1の実施形態では、撮像部(ネットワークカメラ)101による撮像画像から商品を識別後に商品の追跡を行っている。第2の実施形態では、商品の識別を商品の追跡後に行うことにより、撮像画像からの商品識別の手順を撮像時毎に行う処理を省き、撮像部のフレームレートを上げることができる。すなわち、第2の実施形態では、商品が検出エリア(仮想グリッド)401から出ると、蓄積した画像からまとめて商品の識別処理を行うことにより、撮像時毎の商品識別処理を防ぎ、撮像部のフレームレートを上げている。図20、図21を参照して、本願発明の第2の実施形態の在庫管理処理の流れを説明する。
With the above processing, when the frame rate of imaging is slow and there is a limit to the speed of tracking products, even if two products are recognized, if they are separated by a threshold value of 1101 or more, the two products can be identified and placed in and out of the shelf. can be managed.
<Second embodiment>
In the first embodiment, the product is tracked after the product is identified from the image captured by the imaging unit (network camera) 101. In the second embodiment, by performing product identification after tracking the product, it is possible to eliminate the process of performing product identification from a captured image every time an image is captured, and increase the frame rate of the imaging unit. That is, in the second embodiment, when a product leaves the detection area (virtual grid) 401, product identification processing is performed all at once from the accumulated images, thereby preventing product identification processing every time an image is captured, and reducing the processing time of the imaging unit. Increasing frame rate. The flow of inventory management processing according to the second embodiment of the present invention will be described with reference to FIGS. 20 and 21.
図20は、本発明の実施形態に係る情報処理装置102における在庫管理を行う第2の実施形態の処理概要を示すフローチャートであり、図中のS2001~S2003は各ステップを示す。各ステップの処理は、情報処理装置102の外部メモリ211に格納されたアプリケーションプログラムを、それぞれのシステムのCPU201がRAM203上にロードして実行することにより実現される。
FIG. 20 is a flowchart showing a processing overview of the second embodiment of inventory management in the
図20のフローチャートは、撮像部101と情報処理装置102が起動されると開始される処理の流れである。なお、以後のフローチャートにおいて、情報処理装置102は、ネットワークカメラ101からネットワークを通じて随時データを取得することができるものとする。
The flowchart in FIG. 20 is a flow of processing that is started when the
図20のフローチャートの処理に入る前に、まず情報処理装置102のCPU201は、撮像部101のRGBカメラ307により得られる商品棚の取り出し口部分の撮像画像を取得する。
Before starting the process of the flowchart in FIG. 20, the
次に、ステップS2001において、情報処理装置102のCPU201は、取得した撮像画像を元に、商品棚のレーンや高さに合わせた検出エリア401が設定を受け付ける。検出エリアの設定方法は、図8、図17、図18と同様なので説明を省略する。なお、第1の実施形態では、撮像部のフレームレートが低いことを想定しているため、検出エリア401の商品の取り出し方向(Y軸方向)の幅は図8や図17、図18のように広めに確保しているが、第2の実施形態では、撮像部のフレームレートが高いため、検出エリア401の商品の取り出し方向(Y軸方向)の幅は図22の検出エリア2210のようにより狭く設定できる。
Next, in step S2001, the
次に、ステップS2002において、情報処理装置102のCPU201は、取得した撮像画像を元に、商品棚の出入口にあたる検出ラインの設定を受け付ける。検出ラインの設定を図22を参照して説明する。
Next, in step S2002, the
図22は、本発明の実施形態における高さ方向に複数の棚を有する商品棚と商品を取り出す領域(検出エリア)のイメージを説明する模式図である。 FIG. 22 is a schematic diagram illustrating an image of a product shelf having a plurality of shelves in the height direction and an area (detection area) from which products are taken out in the embodiment of the present invention.
図22の103が商品棚、104が商品の例であり、撮像範囲である404が、商品取り出し口に該当する。なお、各棚の横方向(レーン毎)の検出は第1の実施形態と同様なので、以後の説明では省略する、
図22の例では、商品棚103は3段の棚が存在する例である。
In FIG. 22, 103 is an example of a product shelf, 104 is an example of a product, and 404, which is an imaging range, corresponds to a product outlet. Note that the detection in the horizontal direction (for each lane) of each shelf is the same as in the first embodiment, so it will be omitted in the following description.
In the example of FIG. 22, the
図22の検出エリア2210に、3段の棚毎に検出ライン2201~2203が設定される。なお、図22では検出ライン2201~2203は理解を助けるために異なる位置で記載しているが、検出ラインは検出エリア2210の端(図22の場合、検出エリア2210の矩形の下辺部分)に設定されており、それぞれの棚によって横幅が異なっている。横幅のサイズは、たとえば図18で設定されている幅である。この検出ラインを通過したかによって、該当の棚から商品が出入りしたのかを判別でき、隣の棚で出入りした商品の誤検出を防ぐ、もしくは検出エリアを偶々通った商品(たとえば、顧客が商品を持って検出エリアを右から左に横切った場合)などの誤検出を防ぐことができる。なお、実施例では、一つの在庫監視システム105で説明しているが、撮像部101付きの在庫監視システム105が複数設置されていて、それぞれの在庫監視システム105のラックで商品検知を行っている場合も考えられる。その場合、横のラックの商品を誤検出することを防ぐことができる。図20のフローチャートの説明に戻る。
In the detection area 2210 of FIG. 22,
次に 図20のステップS2003へと処理を移行すると、情報処理装置102のCPU201は、商品在庫を管理する処理を開始する。ステップS2003の処理内容を図21を参照して説明する。
Next, when the process moves to step S2003 in FIG. 20, the
図21は、本発明の実施形態に係る情報処理装置102における商品在庫追従の第2の実施形態の処理概要を示すフローチャートであり、図中のS2101~S2118は各ステップを示す。各ステップの処理は、情報処理装置102の外部メモリ211に格納されたアプリケーションプログラムを、それぞれのシステムのCPU201がRAM203上にロードして実行することにより実現される。
FIG. 21 is a flowchart showing a processing overview of the second embodiment of product inventory tracking in the
図21のフローチャートは、図20のフローチャートのステップS2003へと遷移した際に開始される処理の流れである。 The flowchart in FIG. 21 is a flow of processing that is started when the flowchart in FIG. 20 transitions to step S2003.
まず、図21のステップS2101において、情報処理装置102のCPU201は、撮像部101から撮像画像(キャプチャ)を取得する。この撮像画像の取得は図21のフローチャートの処理中は常時行われても良い。なお、ステップS2101の処理は撮像画像の取得と同時にTOFセンサ305による物体検出を行っても良い。
First, in step S2101 in FIG. 21, the
次に、ステップS2102において、情報処理装置102のCPU201は、撮影エリア404内の検出エリア2210内で商品もしくは手などの物体を検出したか判断する。物体を検出した場合はステップS2103へと処理を遷移し、物体を検出しなかった場合はステップS2101へと処理を戻し、物体を検出するまで処理を繰り返す。物体を検出したかどうかは、TOFセンサによる物体検出でも良いし、画像の差分情報による検出でもよく、またステレオカメラによる物体検出であっても良い。
Next, in step S2102, the
次に、ステップS2103において、情報処理装置102のCPU201は、TOFセンサなどで物体を検出した位置を特定する。この位置情報は随時取得しておき、位置情報を常にトラッキングすることができる。
Next, in step S2103, the
次に、ステップS2104において、情報処理装置102のCPU201は、物体を検出した位置の周りの画像を記憶する。記憶した画像の一例を図23を参照して説明する。
Next, in step S2104, the
図23は、本発明の実施形態に係る情報処理装置102に記憶されている一連の商品画像の例である。
FIG. 23 is an example of a series of product images stored in the
図23の2301から2312まで、検出された物体順に時系列で記憶されている画像を表示している。図23は具体的には、ペットボトルの商品が顧客の手によって棚に戻される場合の一連の画像群である。この処理のように、撮像して記憶する範囲を限定して記憶、もしくは商品特定に利用することにより、第1の実施形態のように画像全体から物体を特定する手法より、画像記憶メモリの削減や、商品特定の際の画像処理時間の短縮が可能となる。。図21のフローチャートの説明に戻る。 From 2301 to 2312 in FIG. 23, images stored in chronological order in the order of detected objects are displayed. Specifically, FIG. 23 is a series of images when a product in a plastic bottle is returned to the shelf by a customer. By limiting the range of images to be captured and stored or using them for product identification as in this process, the amount of image storage memory can be reduced compared to the method of identifying objects from the entire image as in the first embodiment. In addition, it is possible to shorten the image processing time when identifying products. . Returning to the explanation of the flowchart in FIG. 21.
次に、図21のステップS2105において、情報処理装置102のCPU201は、TOFセンサもしくはステレオカメラから、物体の高さ情報(深度情報)を取得する。
Next, in step S2105 of FIG. 21, the
次に、ステップS2106において、情報処理装置102のCPU201は、ステップS2103で取得したトラッキング情報から、物体が検出ライン2201~2203を通過したかを判断する。検出ラインを通過するかは、ステップS2105で取得した物体の高さ情報とステップS2103で取得したトラッキング情報から判断する。たとえば、物体の高さ情報が1段目の高さと検出された場合(図18の例では、20cm)、1段目の棚の検出ラインは、図18の場合、画面上のサイズで『-150~150』である。同様に、物体の高さ情報が3段目の高さと検出された場合(図18の例では、80cm)、3段目の棚の検出ラインは、図18の場合、画面上のサイズで『-90~90』である。これらの間を物体が通過した場合は、検出ラインを通過したと判断する。すなわち、棚と棚の前との領域で、商品もしくは手が出入りしたことを意味する。一方、物体の高さ情報が3段目の高さと検出され、検出ラインの横方向が例えば『110』の位置を通過した場合は、隣の棚への物体の出し入れと判断し、該当の検出ラインを通過したとはみなさない。
Next, in step S2106, the
ステップS2106において、物体が検出ラインを通過したと判断された場合は、検出ラインを通過したという図示しないフラグ立てて、ステップS2108へと処理を遷移する。同時に高さ情報を記憶する。以後、検出ライン通過フラグが立っている間はステップS2106では、Yesの処理へと遷移する。一方、検出ラインを通過していないと判断された場合は、ステップS2107へと処理を遷移する。 If it is determined in step S2106 that the object has passed the detection line, a flag (not shown) indicating that the object has passed the detection line is set, and the process moves to step S2108. At the same time, height information is memorized. Thereafter, while the detection line passing flag is set, the process transitions to Yes in step S2106. On the other hand, if it is determined that the detection line has not been passed, the process transitions to step S2107.
ステップS2107へと処理を遷移すると、情報処理装置102のCPU201は、トラッキングしている物体が検出エリア2210から出た(OUT)かどうかを判断する。検出エリア2210を出たと判断された場合は、検出ラインを通過せず検出エリアを出たことを意味する(つまり、棚の中を触っていない)ため、記憶している画像や高さ情報を削除する処理(ステップS2118)を実行して、最初の処理へと戻る。一方、物体が検出エリアから出ていない場合は、物体が検出エリア内にあることを意味するため、記憶画像を削除せず、最初の処理へと戻る。
When the process transitions to step S2107, the
ステップS2108へと処理を遷移した場合、すなわち物体が一度でも検出ラインを通過した場合、情報処理装置102のCPU201は、物体が検出エリアから検出ラインと逆方向に出たかどうかを判断する。検出ラインと逆方向に物体が出た場合は、ステップS2111へと処理を遷移し、検出ラインと逆方向に物体が出ていない場合は、ステップS2109の処理へ遷移する。検出ラインと逆方向に出るとは、図22の例では、2211のような上方向の領域方向に向かって物体が検出エリアを出るかどうかで判断される。すなわち、ステップS2108の処理は、棚から商品または手が取り出されたかどうかを判断している処理である。
When the process transitions to step S2108, that is, when the object passes through the detection line even once, the
ステップS2109へと処理を遷移した場合、情報処理装置102のCPU201は、物体が検出エリアから検出ラインを通過して出たかどうかを判断する。検出ラインから物体が出た場合は、ステップS2110へと処理を遷移し、検出ラインから物体が出ていない場合は、ステップS2117の処理へ遷移する。検出ラインから物体が出たかどうかは、図22の例では、2201~2203の検出ラインを通過して検出エリアを出たかどうかで判断される。すなわち、ステップS2109の処理は、棚に商品または手が入ったかどうかを判断している処理である。
When the process transitions to step S2109, the
なお、検出ラインから物体が出る場合でも、同じ検出ラインから入って追跡されている物体の場合は、Noの処理へと遷移し、ステップS2117の判断分岐へと遷移する。Noへと遷移するのは、たとえば、商品を顧客が棚から取り出して、検出エリアから出すことなく棚に戻した場合に商品がカウントアップされることを防ぐためである。 Note that even if the object exits from the detection line, if the object enters from the same detection line and is being tracked, the process transitions to No, and the process transitions to the decision branch of step S2117. The reason for the transition to No is to prevent the product from being counted up, for example, when a customer takes the product from the shelf and returns it to the shelf without taking it out of the detection area.
ステップS2110へと処理を遷移すると、情報処理装置102のCPU201は、物体が商品である場合に在庫を増やす処理を実行するため、図示しないカウントアップフラグを立てる。その後、ステップS2112へと処理を遷移する。
When the process transitions to step S2110, the
一方、ステップs2111へと処理を遷移した場合、情報処理装置100のCPU201は、物体が商品である場合に在庫を減らす処理を実行するためのため、図示しないカウントダウンフラグを立てる。その後、ステップS2112へと処理を遷移する。
On the other hand, when the process transitions to step s2111, the
ステップS2112へと処理を遷移すると、情報処理装置100のCPU201は、ステップS2104で記憶している複数の撮像画像を読み込み、画像を取得する。
When the process transitions to step S2112, the
次に、ステップS2113において、情報処理装置100のCPU201は、AIによる画像認識により、商品を特定する処理を行う。具体的には、AIの教師データとして数千枚の画像(図23のような画像を推論する場合はペットボトルの様々な角度の数千枚の画像)を登録して、たとえばVGGやMobileNetなどのディープラーニングのアルゴリズムを用い学習させる。学習させた学習済モデルにたとえば、図23のような複数の画像2301~2312を入力し、推論されるペットボトルの商品を特定する。このように、物体周辺の画像複数枚により1つの商品を推論するため、第1の実施形態のように1枚の全体画像から商品を特定する処理よりも画像解析のスピードが上がり、撮像部のフレームレートを上げることができる。なお、商品の特定にはAIを利用せず、商品につけられたタグを撮像して識別しマッチングさせることにより特定しても良い。また、複数の画像を記憶しておいて、単なるマッチング条件によって商品を特定しても良く、それら場合も物体周辺の画像を複数枚使って判断することができ、画像解析の処理を上げ、処理速度を上げることができる。
Next, in step S2113, the
次に、ステップS2114において、情報処理装置100のCPU201は、ステップS2113で特定された物体が商品かそうでないかを判断する。商品の場合はステップS2115へと処理を遷移し、商品ではなく手である、もしくは商品を特定できない場合は、ステップっS2118へと処理を遷移する。
Next, in step S2114, the
ステップS2118へと処理を遷移すると、情報処理装置100のCPU201は、記憶画像や物体の高さ情報、検出ライン通過フラグ、在庫増減数などを削除する。ステップS2118へと遷移する場合は、検出エリアから物体が出た場合であり、かつ検出した物体が手もしくは識別不可能な商品の場合、もしくは、棚内に手を入れることなく検出エリアを出た場合を指すので、記憶画像、物体の高さ情報、検出ライン通過フラグ、在庫増減数は不要になるため、これらのデータを削除する。その後、このフローチャートの最初の処理に戻る。なお、ステップS2113でユーザの手と認識不可能な商品とを識別可能であれば、認識不可能な商品が棚に入れられた場合、アラートを出して、認識不可能な商品があることを店舗の商品管理者に伝える構成があっても良い。
When the process transitions to step S2118, the
一方、ステップS2114の判断分岐の結果、ステップS2115へと処理を遷移すると、情報処理装置100のCPU201は、ステップS2114で推論された商品を、ステップS2106で記憶した高さの棚に対して、ステップS2110もしくはステップS2111の在庫増減数だけ在庫を増減させる情報を設定する。
On the other hand, when the process transitions to step S2115 as a result of the decision branch in step S2114, the
次に、ステップS2116において、情報処理装置100のCPU201は、ステップS2115で設定された棚と商品と増減情報を在庫管理サーバ107に送信して、ステップS2117へと処理を遷移する。
Next, in step S2116, the
ステップS2117へと処理を遷移すると、本実施形態のフローチャートを終了するかユーザから受け付け(不図示)ユーザから終了を受け付けると処理を終了し、ユーザからの終了指示を受け付けない場合は、フローチャートの最初の処理へと戻す。 When the process transitions to step S2117, the process ends when the flowchart of this embodiment is ended or a termination instruction is received from the user (not shown). Return to processing.
以上の処理のように、まず、物体検出とトラッキングを先の実行し、検出エリアから物体が出ると、撮像している画像を使って商品を特定して在庫情報を管理するにより、撮像毎に画像全体から商品識別を行う処理を省き、撮像部のフレームレートを上げて、細かなトラッキングが可能となる効果を有する。 As in the above process, object detection and tracking are first performed, and when an object leaves the detection area, the product is identified using the captured image and inventory information is managed. This has the effect of omitting the process of identifying the product from the entire image, increasing the frame rate of the imaging unit, and enabling detailed tracking.
なお、第2の実施形態では、検出ラインを通過したかによって、商品が棚から出し入れされたかを判断しているが、商品が取り出し方向(Y座標)に所定の閾値以上移動した際に、棚から出し入れされたと判断しても良い。その際、商品が出し入れされる棚の高さ情報は、検出ライン通過時の高さ(ステップ2106)から設定する。 Note that in the second embodiment, it is determined whether the product has been taken out or taken out from the shelf depending on whether the product has passed the detection line. It may be determined that the data has been taken in and taken out. At this time, the height information of the shelf where the product is taken out or taken in is set from the height when the product passes the detection line (step 2106).
以上の処理により、本発明は、複数の列からなる商品棚を少ない撮像装置で、かつ在庫場所の撮影の有無を問わず商品の出入りが管理できる効果を有する。 Through the above-described processing, the present invention has the effect that it is possible to manage product shelves consisting of a plurality of rows with a small number of imaging devices, and to manage the entry and exit of products regardless of whether or not the stock location is photographed.
また、在庫管理の他に、棚の高さや横の位置毎のデータを逐次取得できるため、棚割を適切に割り当てるための情報を取得することができる効果も有する。 Furthermore, in addition to inventory management, data for each shelf height and lateral position can be acquired sequentially, so it also has the effect of being able to acquire information for appropriately allocating shelf allocations.
また、商品の配置場所と出入を特定できるため、売上を伸ばすために適した棚割を容易に行うための情報を取得することができる。 In addition, since the placement location and entry/exit of products can be specified, it is possible to obtain information that can be used to easily perform planograms suitable for increasing sales.
また、在庫管理するためには物品の種類を特定する必要があるが、取得した画像から毎回物品の種類を特定すると、処理が遅延しフレームレートを低下させてしまう。そのため、物品の検出タイミングが遅れ、物品の追跡が難しいという課題を解決できる。 Furthermore, in order to manage inventory, it is necessary to specify the type of article, but if the type of article is identified every time from the acquired images, processing will be delayed and the frame rate will be reduced. Therefore, it is possible to solve the problem that the detection timing of the article is delayed and it is difficult to track the article.
さらに、画像により特定された{位置/高さ/商品画像}に基づき、商品の配置場所を特定できるため、ユーザによる商品配置場所のメンテナンスを省力化することができ、在庫管理や商品棚卸情報をより正確に行うことができる。 Furthermore, since the location of the product can be specified based on the {position/height/product image} specified by the image, it is possible to save labor on maintenance of the product placement location by the user, and improve inventory management and product inventory information. It can be done more accurately.
また、本発明におけるプログラムは、各処理方法をコンピュータが実行可能(読取可能)なプログラムであり、本発明の記憶媒体は、各処理方法をコンピュータが実行可能なプログラムが記憶されている。 Further, the program according to the present invention is a computer-executable (readable) program for each processing method, and the storage medium according to the present invention stores a computer-executable program for each processing method.
なお、本発明におけるプログラムは、各装置の処理方法ごとのプログラムであってもよい。 Note that the program in the present invention may be a program for each processing method of each device.
以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読取り実行することによっても、本発明の目的が達成されることは言うまでもない。 As described above, a recording medium recording a program that implements the functions of the embodiments described above is supplied to a system or device, and the computer (or CPU or MPU) of the system or device reads the program stored in the recording medium. It goes without saying that the object of the present invention can also be achieved by reading and executing.
この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD-ROM,CD-R,DVD-ROM,磁気テープ,不揮発性のメモリカード,ROM,EEPROM,シリコンディスク等を用いることができる。 In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium that stores the program constitutes the present invention. Examples of recording media for supplying programs include flexible disks, hard disks, optical disks, magneto-optical disks, CD-ROMs, CD-Rs, DVD-ROMs, magnetic tapes, non-volatile memory cards, ROMs, EEPROMs, and silicon A disk or the like can be used.
また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータで稼働しているOS等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 In addition, by executing a program read by a computer, not only the functions of the above-described embodiments are realized, but also the OS, etc. running on the computer performs part of the actual processing based on the instructions of the program. It goes without saying that this also includes a case where all processes are performed and the functions of the above-described embodiments are realized by the processing.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, after the program read from the recording medium is written into the memory of the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board It goes without saying that this also includes a case where a CPU or the like provided in a function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 It goes without saying that the present invention can also be applied to a case where the present invention is achieved by supplying a program to a system or device. In this case, by reading a recording medium storing a program for achieving the present invention into the system or device, the system or device can enjoy the effects of the present invention.
さらに、本発明を達成するためのプログラムをネットワーク上のサーバ,データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステム、あるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。 Further, by downloading and reading a program for achieving the present invention from a server, database, etc. on a network using a communication program, the system or device can enjoy the effects of the present invention. Note that all configurations that are combinations of the above-described embodiments and their modifications are also included in the present invention.
101 ネットワークカメラ
102 情報処理装置
103 商品棚
104 商品
105 在庫監視システム
106 ネットワーク
107 在庫管理サーバ
201 CPU
202 ROM
203 RAM
204 システムバス
205 入力コントローラ
206 ビデオコントローラ
207 メモリコントローラ
208 通信I/Fコントローラ
209 入力部
210 表示部
211 外部メモリ
301 CPU
302 ROM
303 RAM
304 システムバス
305 TOFセンサ
306 深度計測部
307 RGBカメラ部
308 画像処理部
309 通信I/Fコントローラ
202 ROM
203 RAM
204
302 ROM
303 RAM
304
Claims (8)
前記撮像部により棚の前方方向を撮像した画像に基づき、物品の移動の向きを特定する移動向特定手段と、
前記移動向特定手段により特定される向きにより、物品の出または入を特定する出入特定手段と、
物品位置検出部により検出された物品の位置、および前記出入特定手段により特定された出入に基づき、前記棚における物品に係る数を管理する管理手段と
を有することを特徴とする情報処理装置。 An information processing device capable of communicating with an imaging unit,
a movement direction specifying means for specifying the direction of movement of the article based on an image taken in the front direction of the shelf by the imaging unit;
an entry/exit specifying means for specifying the exit or entry of the article based on the direction specified by the movement direction specifying means;
An information processing device comprising: a management means for managing the number of articles on the shelf based on the position of the article detected by the article position detection section and the entry/exit specified by the entry/exit specifying means.
前記管理手段は、前記高さを含む位置および前記出入特定手段により特定された出入に基づき、前記棚の位置に対応する当該物品に係る数を管理することを特徴とする請求項1に記載の情報処理装置。 The position of the article determined by the article position detection unit includes the height of the article entering and exiting, which is specified based on the image obtained from the imaging unit,
2. The management means manages the number of articles corresponding to the shelf position based on the position including the height and the entry/exit specified by the entry/exit specifying means. Information processing device.
前記撮像部から得られた画像と、前記物品位置検出部による物品の位置に基づいて、前記棚の何れの列に対する物品の出入りかを特定する棚特定手段とを備え、
前記管理手段は、前記棚特定手段による列に対応して前記物品に係る数を管理することを特徴とする請求項1又は2に記載の情報処理装置。 The shelf is a plurality of rows of shelves,
comprising a shelf specifying means for specifying to which row of the shelves the article is in and out, based on the image obtained from the imaging unit and the position of the article determined by the article position detection unit;
3. The information processing apparatus according to claim 1, wherein the management means manages the number of articles in correspondence with the row determined by the shelf identification means.
棚特定手段は、前記撮像部から得られた画像と、前記物品位置検出部による物品の位置に基づいて、前記棚の何れの段に対する物品の出入りかを特定し、
前記管理手段は、前記棚特定手段による段に対応して前記物品に係る数を管理することを特徴とする請求項3に記載の情報処理装置。 The shelf is a multi-level shelf,
The shelf identifying means identifies which stage of the shelf the article is in and out of, based on the image obtained from the imaging unit and the position of the article determined by the article position detection unit;
4. The information processing apparatus according to claim 3, wherein the management means manages the number of articles in correspondence with the tiers determined by the shelf identification means.
前記数管理手段は、物品位置検出部により検出された物品の位置、および前記出入特定手段により特定された出入に基づき、前記物品の種別の数を管理することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。 Further comprising a storage means for storing the type of article corresponding to the position of the shelf,
Claims 1 to 5, wherein the number management means manages the number of the types of articles based on the position of the article detected by the article position detection section and the entry/exit specified by the entry/exit specifying means. The information processing device according to any one of the above.
前記撮像部により棚の前方方向を撮像した画像に基づき、物品の移動の向きを特定する移動向特定ステップと、
前記移動向特定ステップにより特定される向きにより、物品の出または入を特定する出入特定ステップと、
物品位置検出部により検出された物品の位置、および前記出入特定ステップにより特定された出入に基づき、前記棚における物品に係る数を管理する管理ステップと
を含むことを特徴とする情報処理方法。 An information processing method for an information processing device capable of communicating with an imaging unit, the method comprising:
a moving direction specifying step of specifying the moving direction of the article based on an image taken in the front direction of the shelf by the imaging unit;
an in/out specifying step of specifying whether the article is in or out based on the direction specified in the movement direction specifying step;
An information processing method comprising: a management step of managing the number of articles on the shelf based on the position of the article detected by the article position detection section and the entry/exit specified by the entry/exit specifying step.
前記情報処理装置を
前記撮像部により棚の前方方向を撮像した画像に基づき、物品の移動の向きを特定する移動向特定手段と、
前記移動向特定手段により特定される向きにより、物品の出または入を特定する出入特定手段と、
物品位置検出部により検出された物品の位置、および前記出入特定手段により特定された出入に基づき、前記棚における物品に係る数を管理する管理手段
として機能させるためのプログラム。 A program for an information processing device capable of communicating with an imaging unit,
a movement direction specifying means for specifying the direction of movement of the article based on an image taken in the front direction of the shelf by the imaging unit;
an entry/exit specifying means for specifying the exit or entry of the article based on the direction specified by the movement direction specifying means;
A program for functioning as a management means for managing the number of articles on the shelf based on the position of the article detected by the article position detection section and the ingress and egress specified by the ingress and egress specifying means.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018192906 | 2018-10-11 | ||
JP2018192906 | 2018-10-11 | ||
JP2019170936A JP2020063154A (en) | 2018-10-11 | 2019-09-19 | Information processing device, information processing method, and program |
JP2021197819A JP7425344B2 (en) | 2018-10-11 | 2021-12-06 | Information processing system, control method for information processing system, program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021197819A Division JP7425344B2 (en) | 2018-10-11 | 2021-12-06 | Information processing system, control method for information processing system, program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2024036380A true JP2024036380A (en) | 2024-03-15 |
JP2024036380A5 JP2024036380A5 (en) | 2024-07-22 |
Family
ID=70386745
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019170936A Pending JP2020063154A (en) | 2018-10-11 | 2019-09-19 | Information processing device, information processing method, and program |
JP2021197819A Active JP7425344B2 (en) | 2018-10-11 | 2021-12-06 | Information processing system, control method for information processing system, program |
JP2024005866A Pending JP2024036380A (en) | 2018-10-11 | 2024-01-18 | Information processing device, information processing method, and program |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019170936A Pending JP2020063154A (en) | 2018-10-11 | 2019-09-19 | Information processing device, information processing method, and program |
JP2021197819A Active JP7425344B2 (en) | 2018-10-11 | 2021-12-06 | Information processing system, control method for information processing system, program |
Country Status (1)
Country | Link |
---|---|
JP (3) | JP2020063154A (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020104003A (en) * | 2020-04-08 | 2020-07-09 | 株式会社三洋物産 | Game machine |
JP7521410B2 (en) | 2020-12-18 | 2024-07-24 | トヨタ自動車株式会社 | Information processing device, information processing method, and system |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101480348B1 (en) | 2013-05-31 | 2015-01-09 | 삼성에스디에스 주식회사 | People Counting Apparatus and Method |
US10268983B2 (en) * | 2013-06-26 | 2019-04-23 | Amazon Technologies, Inc. | Detecting item interaction and movement |
JP6008399B2 (en) * | 2013-09-17 | 2016-10-19 | Necフィールディング株式会社 | Management system, management apparatus, management method, and program |
US10956856B2 (en) * | 2015-01-23 | 2021-03-23 | Samsung Electronics Co., Ltd. | Object recognition for a storage structure |
JP6938116B2 (en) * | 2016-05-30 | 2021-09-22 | シャープ株式会社 | Inventory management device and inventory management method |
US10157308B2 (en) * | 2016-11-30 | 2018-12-18 | Whirlpool Corporation | Interaction recognition and analysis system |
JP6877734B2 (en) * | 2017-03-06 | 2021-05-26 | 株式会社ロボ・ガレージ | Inventory management device for goods storage |
-
2019
- 2019-09-19 JP JP2019170936A patent/JP2020063154A/en active Pending
-
2021
- 2021-12-06 JP JP2021197819A patent/JP7425344B2/en active Active
-
2024
- 2024-01-18 JP JP2024005866A patent/JP2024036380A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP7425344B2 (en) | 2024-01-31 |
JP2020063154A (en) | 2020-04-23 |
JP2022033149A (en) | 2022-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2024036380A (en) | Information processing device, information processing method, and program | |
JP6986576B2 (en) | Article identification method and system, electronic equipment | |
JP7272417B2 (en) | Object tracking system, object tracking device, and object tracking method | |
US9471889B2 (en) | Video tracking based method for automatic sequencing of vehicles in drive-thru applications | |
WO2014050518A1 (en) | Information processing device, information processing method, and information processing program | |
US9462160B2 (en) | Color correction device, method, and program | |
US9858679B2 (en) | Dynamic face identification | |
JP2024051084A (en) | Store device, store system, store management method, and program | |
JP6589321B2 (en) | System, search method and program | |
US20160140399A1 (en) | Object detection apparatus and method therefor, and image recognition apparatus and method therefor | |
US10079974B2 (en) | Image processing apparatus, method, and medium for extracting feature amount of image | |
TWI694352B (en) | Interactive behavior detection method, device, system and equipment | |
US8805123B2 (en) | System and method for video recognition based on visual image matching | |
JPWO2015136847A1 (en) | Display situation analysis apparatus, display situation analysis method and program | |
JP2017076288A (en) | Information processor, information processing method and program | |
EP3635632B1 (en) | Detecting font size in a digital image | |
EP2787741A1 (en) | Video processing system and method | |
US20180144198A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2021107989A (en) | Information processing device, information processing method, and program | |
JP6982259B2 (en) | Information processing equipment, information processing methods, programs | |
US11594073B2 (en) | Face recognition method and face recognition device | |
JP6516702B2 (en) | People count system, number count method, and view method of number count result | |
CN108875538A (en) | Attribute detection method, device and system and storage medium | |
JP6277602B2 (en) | Monitoring device, program and method | |
Weng et al. | Visual knowledge transfer among multiple cameras for people counting with occlusion handling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240708 |