[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2021077039A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2021077039A
JP2021077039A JP2019202618A JP2019202618A JP2021077039A JP 2021077039 A JP2021077039 A JP 2021077039A JP 2019202618 A JP2019202618 A JP 2019202618A JP 2019202618 A JP2019202618 A JP 2019202618A JP 2021077039 A JP2021077039 A JP 2021077039A
Authority
JP
Japan
Prior art keywords
map
image
detection
image processing
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019202618A
Other languages
Japanese (ja)
Other versions
JP7518609B2 (en
JP2021077039A5 (en
Inventor
智之 清水
Tomoyuki Shimizu
智之 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019202618A priority Critical patent/JP7518609B2/en
Priority to US17/083,375 priority patent/US11544926B2/en
Publication of JP2021077039A publication Critical patent/JP2021077039A/en
Publication of JP2021077039A5 publication Critical patent/JP2021077039A5/en
Application granted granted Critical
Publication of JP7518609B2 publication Critical patent/JP7518609B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image processing apparatus that reduces cost of processing for tracking a subject on an image.SOLUTION: An image processing apparatus comprises: a detection unit 202 for detecting an object from a captured image; a generation unit 204 for generating a map showing correspondence between the objects respectively detected in a plurality of captured images; and a determination unit 209 for matching the objects respectively detected in the plurality of captured images based on the generated map.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.

従来、映像中の物体を追尾する技術として、映像に含まれる画像間における同一領域をマッチングする技術がよく知られている。例えば、非特許文献1には、ある領域内の色及びヒストグラムのような特徴量を抽出し、以降の映像に対してその領域の近傍に存在するもっとも類似する特徴量を有する領域を特定することにより、物体を逐次的に追尾する技術が開示されている。また、特許文献1には、映像中のオブジェクトの動きに基づいて処理対象のフレームにおけるオブジェクトの位置を予測し、特徴量を比較する領域を予測された位置の近傍に絞り込む技術が開示されている。 Conventionally, as a technique for tracking an object in an image, a technique for matching the same region between images included in the image is well known. For example, in Non-Patent Document 1, features such as colors and histograms in a certain region are extracted, and a region having the most similar features existing in the vicinity of the region is specified for subsequent images. Discloses a technique for sequentially tracking an object. Further, Patent Document 1 discloses a technique of predicting the position of an object in a frame to be processed based on the movement of the object in an image and narrowing the area for comparing features to the vicinity of the predicted position. ..

D.Comaniciu, V.Ramesh, P.Meer、“Real-time tracking of non-rigid objects using mean shift”、Proceedings IEEE Conference on Computer Vision and Pattern Recognition. CVPR 2000D.Comaniciu, V.Ramesh, P.Meer, “Real-time tracking of non-rigid objects using mean shift”, Proceedings IEEE Conference on Computer Vision and Pattern Recognition. CVPR 2000 A. Newell, Z. Huang, and J. Deng、“Associative Embedding: End-to-End Learning for Joint Detection and Grouping”、Advances in Neural Information Processing Systems 30. (NIPS 2017)A. Newell, Z. Huang, and J. Deng, “Associative Embedding: End-to-End Learning for Joint Detection and Grouping”, Advances in Neural Information Processing Systems 30. (NIPS 2017) 特開2012−181710号公報Japanese Unexamined Patent Publication No. 2012-181710

しかしながら、従来の技術においては、追尾対象の特徴量の比較を、当該物質の近傍又は移動先予測部分の領域に対してそれぞれ行うため、追尾対象が多い場合又は処理領域内の追尾対象の密度が高い場合に、検出装置による処理量が増大するという課題があった。 However, in the conventional technique, since the feature quantities of the tracking targets are compared with respect to the vicinity of the substance or the region of the movement destination prediction portion, when there are many tracking targets or the density of the tracking targets in the processing region is high. When the value is high, there is a problem that the amount of processing by the detection device increases.

本発明は、画像上で被写体を追尾する処理の処理コストを低減することを目的とする。 An object of the present invention is to reduce the processing cost of the process of tracking a subject on an image.

本発明の目的を達成するために、例えば、一実施形態に係る画像処理装置は以下の構成を備える。すなわち、撮像画像から対象物を検出する検出手段と、複数の撮像画像においてそれぞれ検出された対象物間の対応関係を示すマップを生成する生成手段と、生成された前記マップに基づいて、前記複数の撮像画像においてそれぞれ検出された対象物をマッチングさせる判定手段と、を備えることを特徴とする。 In order to achieve the object of the present invention, for example, the image processing apparatus according to one embodiment has the following configurations. That is, the detection means for detecting an object from the captured image, the generation means for generating a map showing the correspondence between the objects detected in each of the plurality of captured images, and the plurality of generation means based on the generated map. It is characterized by comprising a determination means for matching each of the detected objects in the captured image of the above.

画像上で被写体を追尾する処理の処理コストを低減することができる。 It is possible to reduce the processing cost of the process of tracking the subject on the image.

各実施形態に係るコンピュータ装置における機能構成の一例を示す図。The figure which shows an example of the functional structure in the computer apparatus which concerns on each embodiment. 実施形態1に係る画像処理装置における機能構成の一例を示す図。The figure which shows an example of the functional structure in the image processing apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る画像処理方法における処理例のフローチャート。The flowchart of the processing example in the image processing method which concerns on Embodiment 1. 実施形態1に係る線分マップの生成例のフローチャート。The flowchart of the generation example of the line segment map which concerns on Embodiment 1. 実施形態1に係る中間点マップの生成例のフローチャート。The flowchart of the generation example of the intermediate point map which concerns on Embodiment 1. 実施形態1に係る距離マップの生成例のフローチャート。The flowchart of the generation example of the distance map which concerns on Embodiment 1. 実施形態1に係るIDマップの生成例のフローチャート。The flowchart of the ID map generation example which concerns on Embodiment 1. 実施形態1に係る画像処理装置における複数の撮像画像の一例を示す図。The figure which shows an example of a plurality of captured images in the image processing apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る画像処理装置におけるマップの生成の一例を示す図。The figure which shows an example of the generation of the map in the image processing apparatus which concerns on Embodiment 1. FIG. 実施形態2に係る画像処理装置における機能構成の一例を示す図。The figure which shows an example of the functional structure in the image processing apparatus which concerns on Embodiment 2. FIG. 実施形態1に係る画像処理装置における画像表示の一例を示す図。The figure which shows an example of the image display in the image processing apparatus which concerns on Embodiment 1. FIG. 実施形態3に係る画像処理装置における撮像例の俯瞰図を示す図。The figure which shows the bird's-eye view of the imaging example in the image processing apparatus which concerns on Embodiment 3. 実施形態3に係る画像処理装置における撮像画像の一例を示す図。The figure which shows an example of the captured image in the image processing apparatus which concerns on Embodiment 3. 実施形態3に係る画像処理装置におけるマップの生成の一例を示す図。The figure which shows an example of the generation of the map in the image processing apparatus which concerns on Embodiment 3. FIG. 実施形態5に係る画像処理装置における時刻別の人物の一例を示す図。The figure which shows an example of the person by time in the image processing apparatus which concerns on embodiment 5.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.

図1は、後述する各実施形態に係る画像処理装置を構成するコンピュータ装置の構成の一例を示すブロック図である。画像処理装置はそれぞれ単一のコンピュータ装置で実現してもよいし、必要に応じた複数のコンピュータ装置に各機能を分散して実現するようにしてもよい。複数のコンピュータ装置で構成される場合は、互いに通信可能なようにローカルエリアネットワーク(Local Area Network、LAN)などで接続されている。図1の例では、コンピュータ装置100、入力デバイス109、出力デバイス110、インターネット111、及びカメラ112と接続されている。これらの接続のされ方は特に限定されない。例えば、それぞれが別々に、有線で接続されていてもよいし、無線の通信を介して接続されていてもよい。また、コンピュータ装置100と入力デバイス109又は出力デバイス110とは、別々に独立した機器であってもよく、1つの機器内に一体となって構成される機器であってもよい。 FIG. 1 is a block diagram showing an example of the configuration of a computer device constituting the image processing device according to each embodiment described later. Each image processing device may be realized by a single computer device, or each function may be distributed and realized by a plurality of computer devices as required. When composed of a plurality of computer devices, they are connected by a local area network (LAN) or the like so that they can communicate with each other. In the example of FIG. 1, the computer device 100, the input device 109, the output device 110, the Internet 111, and the camera 112 are connected. The way these connections are made is not particularly limited. For example, each may be separately connected by wire or via wireless communication. Further, the computer device 100 and the input device 109 or the output device 110 may be separate and independent devices, or may be devices that are integrally configured in one device.

コンピュータ装置100は、詳細は後述するが、各実施形態における画像処理を行う。入力デバイス109は、コンピュータ装置100に対するユーザ入力を行うためのデバイスである。入力デバイスは、例えば、ポインティングデバイス又はキーボードであってもよい。出力デバイス110は、コンピュータ装置100の保持するデータ、ユーザ入力によって供給されたデータ、及びプログラムの実行結果を表示するために、画像及び文字を表示可能なモニタなどのデバイスである。カメラ112は、撮像画像を取得することが可能な撮像装置である。カメラ112は、例えば、後述の画像取得部201に入力するために、所定の間隔Δtを有する連続した撮像画像を取得してもよい。 The computer device 100 performs image processing in each embodiment, although details will be described later. The input device 109 is a device for performing user input to the computer device 100. The input device may be, for example, a pointing device or a keyboard. The output device 110 is a device such as a monitor capable of displaying images and characters for displaying the data held by the computer device 100, the data supplied by the user input, and the execution result of the program. The camera 112 is an imaging device capable of acquiring captured images. The camera 112 may acquire continuous captured images having a predetermined interval Δt for inputting to the image acquisition unit 201 described later, for example.

CPU101は、コンピュータ装置100全体を制御する中央処理装置(Central Processing Unit)である。CPU101は、例えば外部記憶装置104に格納された各種ソフトウェア(コンピュータプログラム)を動作させることにより、各実施形態に係る処理を実行し、及びコンピュータ装置100の動作を制御することができる。ROM102は、変更を必要としないプログラム及びパラメータを格納する読み出し専用メモリ(Read Only Memory)である。RAM103は、外部装置などから供給されるプログラムやデータを一時記憶するランダムアクセスメモリ(Random Access Memory)である。外部記憶装置104は、コンピュータ装置100が読み取り可能な外部記憶装置であり、プログラム及びデータなどを長期的に記憶する。外部記憶装置104は、例えば、コンピュータ装置100に固定して設置されたハードディスク及びメモリカードであってもよい。また例えば、外部記憶装置104は、コンピュータ装置100から着脱可能なフレキシブルディスク(FD)又はコンパクトディスク(CD)等の光ディスク、磁気又は光カード、ICカード、並びにメモリカードなどであってもよい。入力デバイスインタフェース105は、ユーザの操作を受けてデータを入力するポインティングデバイス又はキーボードなどの入力デバイス109とのインタフェースである。出力デバイスインタフェース106は、コンピュータ装置100の保持するデータや供給されたデータやプログラムの実行結果を出力するためのモニタなどの出力デバイス110とのインタフェースである。通信インタフェース107は、インターネット111やカメラ112などに接続するためのインタフェースである。カメラ112はインターネット111経由でコンピュータ装置100と接続しても構わない。108は101〜107の各ユニットを通信可能に接続するシステムバスである。 The CPU 101 is a central processing unit that controls the entire computer device 100. By operating various software (computer programs) stored in the external storage device 104, for example, the CPU 101 can execute the processes according to each embodiment and control the operation of the computer device 100. The ROM 102 is a read-only memory for storing programs and parameters that do not need to be changed. The RAM 103 is a random access memory (Random Access Memory) that temporarily stores programs and data supplied from an external device or the like. The external storage device 104 is an external storage device that can be read by the computer device 100, and stores programs, data, and the like for a long period of time. The external storage device 104 may be, for example, a hard disk and a memory card fixedly installed in the computer device 100. Further, for example, the external storage device 104 may be an optical disk such as a flexible disk (FD) or a compact disk (CD) detachable from the computer device 100, a magnetic or optical card, an IC card, a memory card, or the like. The input device interface 105 is an interface with an input device 109 such as a pointing device or a keyboard that inputs data in response to a user operation. The output device interface 106 is an interface with an output device 110 such as a monitor for outputting the data held by the computer device 100, the supplied data, and the execution result of the program. The communication interface 107 is an interface for connecting to the Internet 111, the camera 112, and the like. The camera 112 may be connected to the computer device 100 via the Internet 111. Reference numeral 108 denotes a system bus for communicably connecting the units 101 to 107.

各実施形態においては、外部記憶装置104が格納している、各部の機能を実現するプログラムが、RAM103へと読みだされる。そしてCPU101が、RAM103上のプログラムに従って動作することにより、各部の機能が実現される。そのような場合において、各種プログラム及び各種設定データセットなどを記憶するのは外部記憶装置104に限定はされない。例えば、コンピュータ装置100は、各種プログラム及び各種設定データなどを、不図示のネットワークを通じてサーバなどから取得してもよい。 In each embodiment, the program stored in the external storage device 104 that realizes the functions of each part is read out to the RAM 103. Then, the CPU 101 operates according to the program on the RAM 103, so that the functions of each part are realized. In such a case, the storage of various programs, various setting data sets, and the like is not limited to the external storage device 104. For example, the computer device 100 may acquire various programs, various setting data, and the like from a server or the like through a network (not shown).

[実施形態1]
図2は、実施形態1に係る画像処理装置の機能構成の一例を示すブロック図である。本実施形態に係る画像処理装置は、複数の時刻における撮像画像においてそれぞれ検出された対象物間で対象物の対応関係を示すマップを生成する。次いで、生成されたマップに基づいて、複数の撮像画像においてそれぞれ検出された対象物をマッチングさせる。そのような処理のために、本実施形態に係る画像処理装置は、画像取得部201、検出部202、統合部203、生成部204、判定部209を有する。以下において、マッチングとは、複数の時刻における撮像画像においてそれぞれ検出された、同一の対象物の像を対応付けることを指すものとする。対応関係とは、マッチングを行う対象物の関係を指すものとする。対応関係があることがわかっても、マッチングを行うまでは対象物が同一であることの対応付けはしていない。
[Embodiment 1]
FIG. 2 is a block diagram showing an example of the functional configuration of the image processing apparatus according to the first embodiment. The image processing apparatus according to the present embodiment generates a map showing the correspondence between the objects detected in the captured images at a plurality of times. Then, based on the generated map, the objects detected in each of the plurality of captured images are matched. For such processing, the image processing apparatus according to the present embodiment includes an image acquisition unit 201, a detection unit 202, an integration unit 203, a generation unit 204, and a determination unit 209. In the following, matching refers to associating images of the same object detected in captured images at a plurality of times. The correspondence relationship refers to the relationship between the objects to be matched. Even if it is found that there is a correspondence relationship, it is not associated that the objects are the same until matching is performed.

画像取得部201は、本実施形態における画像処理装置への入力となる画像を、カメラ112から取得する。画像取得部201は、例えば、カメラが撮像した動画について、所定のフレーム間隔を有する2枚のフレーム画像を取得してもよい。つまり、図2の例においては、画像取得部201は、時刻tにおける画像210と、時刻t+Δtにおける画像211を取得する。 The image acquisition unit 201 acquires an image to be input to the image processing device according to the present embodiment from the camera 112. The image acquisition unit 201 may acquire two frame images having a predetermined frame interval from the moving image captured by the camera, for example. That is, in the example of FIG. 2, the image acquisition unit 201 acquires the image 210 at the time t and the image 211 at the time t + Δt.

検出部202は、画像取得部201が取得した各画像から対象物となる特定の物体を検出し、及び、それぞれの画像上での検出位置の座標を特定する。検出部202が検出する対象物は特に限定されない。検出部202は、例えば、対象物の有する特定の部位を検出してもよい。つまり、例えば、対象物が人物である場合に、検出部202は、人物の首や腰のような特定の関節又は持ち物のような、対象物の有する特定の部位の検出を行ってもよい。さらに、検出部202は、そのような特定の部位を複数検出し、そのそれぞれについて以下に続くマッチング処理を行ってもよい。例えば、人物の監視映像においては、混雑、カメラの画角、又は対象の検出の難しさなどに応じて、使える情報が限られてしまうことがある。すなわち、対象物である人物の首位置は隠れるが、頭頂部及び肩は見えているといった場合、又は人物が帽子を被っていて頭頂部の検出精度が十分でないといった場合が考えられる。複数の部位を検出してマッチングする処理によれば、例えば混雑又は隠れなどによって一部の特定の部位が検出できない場合でも、複数の部位の検出結果に基づくマッチングを行うことで、撮像状況に対してよりロバスト性が向上したマッチングを行うことができる。以下においては簡単のため、検出に用いられる対象物の有する特定の部位の座標を指して、検出位置と呼ぶものとする。複数の部位によるマッチングを行う場合においては、後述するマッチングのスコアを用いて、例えば、部位ごとのスコアを合計する。その他、予め設定された重みを用いたスコアの重み付き平均を算出してもよく、部位ごとのスコアの最大値を取得してもよい。そのような処理によれば、複数の部位のスコアに基づいた総合的な判定を行うことにより、判定部209は、ロバスト性を向上させたマッチング処理を行うことができる。 The detection unit 202 detects a specific object as an object from each image acquired by the image acquisition unit 201, and specifies the coordinates of the detection position on each image. The object detected by the detection unit 202 is not particularly limited. The detection unit 202 may detect, for example, a specific part of the object. That is, for example, when the object is a person, the detection unit 202 may detect a specific part of the object, such as a specific joint or possession such as the neck or waist of the person. Further, the detection unit 202 may detect a plurality of such specific parts and perform the matching processing that follows for each of them. For example, in the surveillance video of a person, the information that can be used may be limited depending on the congestion, the angle of view of the camera, the difficulty of detecting the target, and the like. That is, it is conceivable that the neck position of the target person is hidden but the crown and shoulders are visible, or the person is wearing a hat and the detection accuracy of the crown is not sufficient. According to the process of detecting and matching a plurality of parts, even if some specific parts cannot be detected due to congestion or hiding, for example, by performing matching based on the detection results of a plurality of parts, the imaging situation can be determined. It is possible to perform matching with improved robustness. In the following, for the sake of simplicity, the coordinates of a specific part of the object used for detection will be referred to as the detection position. When matching is performed by a plurality of parts, for example, the scores for each part are totaled using the matching score described later. In addition, the weighted average of the score using the preset weight may be calculated, or the maximum value of the score for each part may be obtained. According to such a process, the determination unit 209 can perform a matching process with improved robustness by performing a comprehensive determination based on the scores of the plurality of sites.

本実施形態においては、検出部202は、画像中の対象物の特定の部位の存在位置を出力するように構成された畳み込みニューラルネットワーク(CNN)(以下、検出部202の有するCNNを検出CNNと呼ぶ)である。検出部202は、対象物の特定の部位を検出するタスクを予め学習済みであるとする。また、検出部202は、検出過程における検出CNNの中間層からの出力を、取得した画像の特徴量として、統合部203へと出力する。検出部202が出力する検出CNNの中間層の出力を特徴量として用いることにより、生成部204は、後述するマップの学習フェーズ及び推定フェーズを行うことができる。したがって、検出CNNによる検出位置に基づいてマップを参照する際に、そのような検出位置とマップ上に参照される座標の位置のずれが少ない、適切な位置を参照することができる。 In the present embodiment, the detection unit 202 is a convolutional neural network (CNN) configured to output the existence position of a specific part of the object in the image (hereinafter, the CNN of the detection unit 202 is referred to as a detection CNN). Call). It is assumed that the detection unit 202 has already learned the task of detecting a specific part of the object. Further, the detection unit 202 outputs the output from the intermediate layer of the detection CNN in the detection process to the integration unit 203 as a feature amount of the acquired image. By using the output of the intermediate layer of the detection CNN output by the detection unit 202 as a feature amount, the generation unit 204 can perform the learning phase and the estimation phase of the map described later. Therefore, when referring to the map based on the detection position by the detection CNN, it is possible to refer to an appropriate position where there is little deviation between such a detection position and the position of the coordinates referred to on the map.

統合部203は、各画像から取得される特徴量を統合する。本実施形態において統合部203は、検出部202が出力した特徴量を結合(concatenate)することができる。しかし、統合部203による特徴量の統合の方法は特にこれに限定されるものではない。例えば、統合部203は、特徴量を統合するようなニューラルネットワークで構成されていてもよい。そのような場合、統合部203は、後述する生成部204の学習と同時に、中間特徴をそれぞれ重みづけして統合するように学習されていてもよい。また、統合部203は、多段のCNNで構成されていてもよく、時系列の情報を保存するためにRNN(Reccurent Neural Network)で構成されていてもよく、又は時間軸を加えた3次元のCNNで構成されていてもよい。 The integration unit 203 integrates the feature quantities acquired from each image. In the present embodiment, the integration unit 203 can concatenate the feature amounts output by the detection unit 202. However, the method of integrating the feature quantities by the integration unit 203 is not particularly limited to this. For example, the integration unit 203 may be configured by a neural network that integrates the features. In such a case, the integration unit 203 may be learned to weight and integrate the intermediate features at the same time as the learning of the generation unit 204 described later. Further, the integration unit 203 may be composed of a multi-stage CNN, may be composed of an RNN (Recurrent Neural Network) for storing time-series information, or may be a three-dimensional structure with a time axis added. It may be composed of CNN.

生成部204は、複数の画像が有する特徴量から、それらの画像間における対象物の対応関係を示すマップを生成する。図2の例においては、生成部204は、統合部203が結合した特徴量を入力としてマップを生成することができる。つまり、画像210及び画像211に基づいて、両画像間における対象物の対応関係を示すマップを生成することができる。マッチングのロバスト性を向上させるため、生成部204は、そのようなマップを複数種類生成してもよい。そのために、この例においては、生成部204は、線分推定部205、中間点推定部206、距離推定部207、及びID推定部208を有している(以下においては簡単のため、これらの内のいずれか一つを指して推定部と呼ぶ)。この場合、1組の画像210及び211に対して、例えば各推定部全てがマップを生成してもよく、一部の推定部がマップを生成してもよく、一つの推定部がマップを生成してもよい。また、生成部204が有する推定部(つまり、生成するマップ)は、撮像画像間のマッチングする対象物の関係を示すマップを生成できるのであれば、特にこれらには限定されない。上述の4つの推定部が生成するマップ以外の例については後述する。 The generation unit 204 generates a map showing the correspondence between the images and the objects from the features of the plurality of images. In the example of FIG. 2, the generation unit 204 can generate a map by inputting the feature amount to which the integration unit 203 is combined. That is, based on the image 210 and the image 211, it is possible to generate a map showing the correspondence between the two images of the object. In order to improve the robustness of matching, the generation unit 204 may generate a plurality of types of such maps. Therefore, in this example, the generation unit 204 has a line segment estimation unit 205, an intermediate point estimation unit 206, a distance estimation unit 207, and an ID estimation unit 208 (for the sake of simplicity, these are described below. Any one of them is called the estimation part). In this case, for a set of images 210 and 211, for example, all estimation units may generate a map, some estimation units may generate a map, and one estimation unit generates a map. You may. Further, the estimation unit (that is, the map to be generated) included in the generation unit 204 is not particularly limited as long as it can generate a map showing the relationship of matching objects between captured images. Examples other than the maps generated by the above four estimation units will be described later.

各推定部205〜208は、対象物の検出位置の座標に基づいて定められる所定の領域に各マップ特有の情報を有するマップを生成することができるが、そのようなマップの生成処理の詳細についてはそれぞれ図4〜7と共に後述する。マップとは、この例においては、マッチングを行う撮像画像を入力として、推定部によって生成されるデータであり、マップ上の所定の領域の画素値を判定部209が参照することによって各マップ特有の情報を取得し及び対象物のマッチング判定が行われる。例えば、判定部209は、画像210及び画像211における検出位置の座標をマップ上の座標に変換し、及び変換された各座標に基づく所定の領域の画素値を用いることにより対象物のマッチング判定を行うことができるが、工程の詳細は後述する。本実施形態において生成部204は、CNNで構成される。以下において、生成部204が有するCNNを生成CNNと呼ぶ。つまり、この例においては各推定部205〜208が有するCNNのいずれか一つ以上を指して生成CNNと呼ぶ。 Each estimation unit 205-208 can generate a map having information peculiar to each map in a predetermined area determined based on the coordinates of the detection position of the object. Will be described later together with FIGS. 4 to 7, respectively. In this example, the map is data generated by the estimation unit with the captured image to be matched as an input, and is unique to each map when the determination unit 209 refers to the pixel value of a predetermined area on the map. Information is acquired and matching determination of the object is performed. For example, the determination unit 209 converts the coordinates of the detection positions in the image 210 and the image 211 into the coordinates on the map, and determines the matching of the object by using the pixel values of the predetermined region based on the converted coordinates. This can be done, but the details of the process will be described later. In the present embodiment, the generation unit 204 is composed of CNN. In the following, the CNN of the generation unit 204 will be referred to as a generation CNN. That is, in this example, any one or more of the CNNs possessed by the estimation units 205 to 208 are referred to as generated CNNs.

生成CNNはconvolution層を複数含む多段のネットワークであるが、その構成は特に限定されない。生成CNNの出力層は、例えば、所定の縦横サイズのマップを一枚出力してもよく、又は所定の縦横サイズ×N次元のN枚のマップを出力してもよい。生成部204の有する各推定部は、複数の画像の特徴量を入力された場合に、各検出位置の座標に基づいて定まる所定の領域の画素値が、それらの対象物が対応しているかどうかを示す値となるマップを出力するように、予め学習されている。この学習において、推定部は、1つのマップが有する画素値について学習していてもよく、複数のマップが有する画素値を要素として有するベクトルについて学習していてもよい。また、この学習において各推定部は、そのようなマップ全体を出力するように学習されていてもよく、又は、マップ中の、判定部209が参照する所定の領域に出力される画素値についてのみ学習されていてもよい。例えば検出位置若しくはその周辺の画素、並びに検出位置の中間点のみを参照するようなマップであれば、そのような参照される領域の画素の出力が正解データと同様になるように学習するようにしてもよい。 The generated CNN is a multi-stage network including a plurality of convolution layers, but its configuration is not particularly limited. The output layer of the generated CNN may, for example, output one map having a predetermined vertical / horizontal size, or may output N maps having a predetermined vertical / horizontal size × N dimension. In each estimation unit of the generation unit 204, when the feature amounts of a plurality of images are input, whether or not the pixel values in a predetermined area determined based on the coordinates of each detection position correspond to those objects. It has been learned in advance so as to output a map having a value indicating. In this learning, the estimation unit may be learning about the pixel value of one map, or may be learning about the vector having the pixel value of a plurality of maps as an element. Further, in this learning, each estimation unit may be trained to output such an entire map, or only for the pixel value output to a predetermined area referred to by the determination unit 209 in the map. It may have been learned. For example, if the map refers only to the pixels at or around the detection position and the midpoint of the detection position, learn so that the output of the pixels in such a referenced area is the same as the correct answer data. You may.

判定部209は、生成部204が生成したマップを参照して、複数画像間における対象物のマッチングを行う。図2の例においては、判定部209は、画像210と211の間における対象物のマッチングを行うことができる。そのために、判定部209は、画像210及び画像211それぞれにおける検出位置の座標を、各座標に対応するマップ上の座標へと変換することができる。例えば、検出に用いた撮像画像のサイズとマップのサイズが等しい場合においては、判定部209は、各画像における検出位置の座標をそのままマップ上の座標としてもよい。また、検出に用いた撮像画像のサイズとマップのサイズとが異なる場合においては、判定部209は、撮像画像上の検出位置の座標をマップ上の座標へと変換してもよい。次いで判定部209は、変換された各検出位置の座標に基づいて、推定部ごとに予め定められている、マップ上の所定の領域の位置を取得してもよい。さらに判定部209は、その所定の領域の画素値からマッチングのスコアを算出し、算出されたスコアに基づいて対象物のマッチングを行うことができる。所定の領域、及び所定の領域に基づいた処理は用いられるマップに応じて異なるため、詳細な説明は図4〜7と共に後述する。以下において、両画像とは、画像210及び画像211を指すものとする。 The determination unit 209 matches the object between the plurality of images with reference to the map generated by the generation unit 204. In the example of FIG. 2, the determination unit 209 can match the object between the images 210 and 211. Therefore, the determination unit 209 can convert the coordinates of the detection position in each of the image 210 and the image 211 into the coordinates on the map corresponding to each coordinate. For example, when the size of the captured image used for detection and the size of the map are equal, the determination unit 209 may use the coordinates of the detection position in each image as they are on the map. When the size of the captured image used for detection and the size of the map are different, the determination unit 209 may convert the coordinates of the detection position on the captured image into the coordinates on the map. Next, the determination unit 209 may acquire the position of a predetermined region on the map, which is predetermined for each estimation unit, based on the converted coordinates of each detection position. Further, the determination unit 209 can calculate a matching score from the pixel values in the predetermined region, and can perform matching of the object based on the calculated score. Since the predetermined area and the processing based on the predetermined area differ depending on the map used, a detailed description will be described later together with FIGS. 4 to 7. In the following, both images shall refer to image 210 and image 211.

図3は、本実施形態に係る画像処理装置による処理手順の一例を示すフローチャートである。図3の例における画像処理装置は、1台のカメラ112が撮像する、所定のフレーム間隔を有する2枚のフレーム画像が入力された場合に、その二つの画像間において、画像中に検出されるマッチングする対象物の同一部位を対応付ける。つまり、例えば人物の動きを監視する位置に設置された監視カメラであるカメラ112が、映像中の2フレーム画像間において、画像内の人物がどのように動いたかを追尾するために、各画像間で同じ人物を対応付けることができる。 FIG. 3 is a flowchart showing an example of a processing procedure by the image processing apparatus according to the present embodiment. The image processing device in the example of FIG. 3 is detected in an image between two images when two frame images having a predetermined frame interval captured by one camera 112 are input. Match the same part of the matching object. That is, for example, in order for the camera 112, which is a surveillance camera installed at a position for monitoring the movement of a person, to track how the person in the image moves between the two frame images in the image, between the images. You can associate the same person with.

ステップS301において画像取得部201は、カメラ112が撮像する映像から、時刻t及びt+Δtにおける計2枚のフレーム画像を取得する。所定の間隔Δtの値は特に限定されない。画像取得部201は、例えば、0.5秒の間隔ごとに撮像されるフレーム画像を取得することができる。ステップS302において検出部202は、ステップS301で取得された各フレーム画像を検出CNNに入力することにより、それぞれの画像における対象物の特定の部位を検出し、及び対象物の特定の部位の座標を取得する。各フレーム画像は、それぞれ複数の検出部202へと入力されてもよく、また同一の検出部202へと入力されてもよい。ステップS303で統合部203は、検出部202から、ステップS304で用いられる、検出CNNによる検出処理過程の中間特徴を、各フレーム画像それぞれについて取得する。ステップS304において統合部203は、両画像から取得された中間特徴を統合する。以下においては説明のため、統合部203は、検出CNNから出力された特徴量を結合(concatenate)するものとするが、上述の通りこれには限られない。 In step S301, the image acquisition unit 201 acquires a total of two frame images at time t and t + Δt from the image captured by the camera 112. The value of the predetermined interval Δt is not particularly limited. The image acquisition unit 201 can acquire, for example, a frame image captured at intervals of 0.5 seconds. In step S302, the detection unit 202 detects a specific part of the object in each image by inputting each frame image acquired in step S301 into the detection CNN, and determines the coordinates of the specific part of the object. get. Each frame image may be input to a plurality of detection units 202, or may be input to the same detection unit 202. In step S303, the integration unit 203 acquires from the detection unit 202 the intermediate features of the detection processing process by the detection CNN used in step S304 for each frame image. In step S304, the integration unit 203 integrates the intermediate features acquired from both images. In the following, for the sake of explanation, the integration unit 203 will concatenate the feature amounts output from the detection CNN, but the present invention is not limited to this as described above.

ステップS305で、生成部204が有する各推定部が、ステップS304で結合された特徴量を入力されることにより、両画像の対象物の対応関係を示すマップを出力する。検出部202が出力する中間特徴を用いてマップを作成することにより、検出された対象物の位置とマップ上の対象物の位置とのずれを抑制することができる。また、検出部202が出力する中間特徴を再利用することにより、マップ作成にかかる処理コストを低減することができる。このステップS305においては、すべての推定部がマップを作成してもよく、複数の推定部が選択的にマップを作成してもよく、又は1つの推定部がマップを作成してもよい。以下のステップS306〜S308においては一つのマップについての工程が説明されているが、マップが複数生成されている場合は、それぞれについて同様の手順で処理を行う。 In step S305, each estimation unit included in the generation unit 204 outputs a map showing the correspondence between the objects of both images by inputting the feature amount combined in step S304. By creating a map using the intermediate features output by the detection unit 202, it is possible to suppress the deviation between the position of the detected object and the position of the object on the map. Further, by reusing the intermediate feature output by the detection unit 202, the processing cost required for map creation can be reduced. In this step S305, all estimation units may create a map, a plurality of estimation units may selectively create a map, or one estimation unit may create a map. In the following steps S306 to S308, the steps for one map are described, but when a plurality of maps are generated, the same procedure is performed for each of them.

ステップS306においては、判定部209が、両画像における検出位置の座標を、マップ上の座標に変換し及び取得する。判定部209は、例えば、生成CNNから出力されるマップのサイズが撮像画像と異なる場合において、上述のように、マップと同サイズになるように変換された撮像画像における検出位置のピクセル座標と同座標を、検出位置のマップ上の座標として取得してもよい。生成CNNは、入力される画像のサイズと出力される画像とのサイズ差に基づいて入力画像上の検出対象の座標をマップ上の座標に変換して得られる座標に基づいて定められる所定の領域に、各マップ特有の情報を有するマップを出力するよう学習されていてもよい。 In step S306, the determination unit 209 converts and acquires the coordinates of the detection position in both images into the coordinates on the map. For example, when the size of the map output from the generated CNN is different from the captured image, the determination unit 209 has the same pixel coordinates as the detection position in the captured image converted to be the same size as the map as described above. The coordinates may be acquired as the coordinates on the map of the detection position. The generated CNN is a predetermined area determined based on the coordinates obtained by converting the coordinates of the detection target on the input image into the coordinates on the map based on the size difference between the size of the input image and the output image. May be learned to output a map with information specific to each map.

ステップS307において判定部209は、ステップS305で出力したマップと、ステップS306で取得された検出位置のマップ上の座標と、に基づいて、マップ上の所定の領域の位置を取得する。次いで判定部209は、その領域の画素値を取得する。ステップS308において判定部209は、ステップ307において取得された画素値から、時刻tにおける各対象物と、時刻t+Δtにおける各対象物と、のマッチングに用いるスコアをそれぞれ算出する。ステップS308では、各時刻における対象物の全ての組み合わせについてスコアを算出してもよく、一部の組み合わせについてスコアを算出してもよい。判定部209が画素値を取得する領域の位置、及びスコアの算出方法は特に限定されず、また、この例においては用いられるマップに応じて変化し得るため、詳細な処理手順は後述の図4〜図7と共に説明する。 In step S307, the determination unit 209 acquires the position of a predetermined region on the map based on the map output in step S305 and the coordinates on the map of the detection position acquired in step S306. Next, the determination unit 209 acquires the pixel value of the region. In step S308, the determination unit 209 calculates a score used for matching each object at time t and each object at time t + Δt from the pixel values acquired in step 307. In step S308, the score may be calculated for all combinations of objects at each time, or the score may be calculated for some combinations. The position of the region where the determination unit 209 acquires the pixel value and the method of calculating the score are not particularly limited, and may change depending on the map used in this example. Therefore, the detailed processing procedure will be described in FIG. This will be described together with FIG. 7.

ステップS309において判定部209は、ステップS308で算出されたスコアに基づいて、両画像間の対象物のマッチングを行う。判定部209は、例えば、一つのマップにおけるスコアからマッチングを行ってもよく、複数のマップにおけるスコアを統合してマッチングを行ってもよい。複数のマップにおけるスコアを統合する場合、その統合方法は特に限定されない。判定部209は、各マップのスコアの符号及び範囲を、例えば大きい値であるほど両画像間の対象物がマッチングする可能性が高いスコアとして0〜1の範囲に揃え、及びそれらのスコアの積を求めることでスコアの統合を行ってもよい。そのように統合されるスコアの算出方法について、図4〜7と共に後述する。また例えば、判定部209は、マップごとに算出されたスコアを、予め与えられた所定の重みを付与し、及び線形結合を行うことによって統合してもよい。さらに例えば、判定部209は、各マップのスコアの値の範囲、又は推定精度などに基づいて、公知の発見的手法により各スコアを適宜組み合わせてもよい。さらに、判定部209は、最適な組み合わせとなるような線形結合の重みづけを、logistic回帰などの公知の手法を用いて、サンプルデータから統計的に求めてもよい。このように複数のマップを考慮したマッチング判定を行うことにより、マッチングの精度を向上させることができる。 In step S309, the determination unit 209 matches the object between the two images based on the score calculated in step S308. For example, the determination unit 209 may perform matching from the scores on one map, or may integrate the scores on a plurality of maps for matching. When integrating scores on a plurality of maps, the integration method is not particularly limited. The determination unit 209 arranges the sign and range of the score of each map in the range of 0 to 1 as a score in which the object between the two images is more likely to match, for example, the larger the value, and the product of those scores. Scores may be integrated by asking for. The method of calculating the score integrated in this way will be described later together with FIGS. 4 to 7. Further, for example, the determination unit 209 may integrate the scores calculated for each map by giving a predetermined weight given in advance and performing a linear combination. Further, for example, the determination unit 209 may appropriately combine the scores by a known heuristic method based on the range of the score values of each map, the estimation accuracy, and the like. Further, the determination unit 209 may statistically obtain the weighting of the linear combination so as to be the optimum combination from the sample data by using a known method such as logistic regression. By performing the matching determination in consideration of a plurality of maps in this way, the accuracy of matching can be improved.

また、判定部209は、ステップS308で算出されたスコアを全て統合してもよく、又は一部を選択的に統合してもよい。例えば、判定部209は、予め定められた所定の閾値を用いることで算出されたスコアの評価を行い、閾値以上の値を有するスコアを選択的に統合してもよい。このような処理によれば、対象の状態(対象物部位の隠れの状態、被写体の密集度、又は画像中における対象物の大きさなど)によって生じる値のばらつきを考慮したマッチングを行うことができる。つまり、例えば対象物の特定の部位が隠れることによって生じる誤マッチングなどを抑制することができる。 Further, the determination unit 209 may integrate all the scores calculated in step S308, or may selectively integrate some of the scores. For example, the determination unit 209 may evaluate the score calculated by using a predetermined threshold value, and selectively integrate the scores having a value equal to or higher than the threshold value. According to such processing, matching can be performed in consideration of the variation in values caused by the state of the target (hidden state of the target part, density of the subject, size of the target in the image, etc.). .. That is, for example, it is possible to suppress erroneous matching caused by hiding a specific part of an object.

次に、図4〜図7のフローチャートを参照することにより、生成部204が有する各推定部の例、及びステップS306〜ステップS309における処理について補足する。図4〜図7のフローチャートは、各推定部により生成されるマップそれぞれについて、スコアの算出手順が示されている。 Next, by referring to the flowcharts of FIGS. 4 to 7, the example of each estimation unit included in the generation unit 204 and the processing in steps S306 to S309 will be supplemented. The flowcharts of FIGS. 4 to 7 show a score calculation procedure for each map generated by each estimation unit.

推定部は、ステップS305において、検出部202が取得した特徴量から、撮像画像間の対象物の対応関係を示すマップを出力する。つまり、この例では正解データに基づいて、2画像の特徴量を結合したものを入力として、画像間の対象物の対応関係を示すマップを出力するように学習されている。推定部は、その推定部に対応するマップ上の、入力された両画像における検出位置の座標に基づいて定まる所定の領域に、各マップ特有の情報を備えたマップを生成する。つまり、所定の領域の画素値を参照することによりマッチング判定が可能なマップを生成する。 The estimation unit outputs a map showing the correspondence between the captured images of the objects from the feature amount acquired by the detection unit 202 in step S305. That is, in this example, based on the correct answer data, it is learned to output a map showing the correspondence between the objects by inputting the combination of the features of the two images. The estimation unit generates a map having information peculiar to each map in a predetermined area determined based on the coordinates of the detection positions in both input images on the map corresponding to the estimation unit. That is, a map capable of matching determination is generated by referring to the pixel values in a predetermined area.

線分推定部205は、マッチングする対象物の検出位置を結ぶ線分上の領域と、その領域以外の領域と、で異なる画素値を有するマップ(以下、線分マップと呼ぶ)を生成することができる。つまり、マッチングする対象物の検出位置を結ぶ線分上の領域の画素値を参照した場合は1に近い尤度値が得られ、そうでない領域を参照した場合は0に近い尤度値が得られやすくなる、参照した対象物が対応しているか否かの尤度を示すマップを生成してもよい。ここで設定される画素値の値は特にこれには限定されず、適宜所望の値に設定されてもよいものとするが、以下においては説明のためこれに従う。 The line segment estimation unit 205 generates a map (hereinafter, referred to as a line segment map) having different pixel values in the area on the line segment connecting the detection positions of the matching objects and the area other than the area. Can be done. That is, when the pixel value of the area on the line segment connecting the detection positions of the matching objects is referred to, the likelihood value close to 1 is obtained, and when the other area is referred to, the likelihood value close to 0 is obtained. You may generate a map that shows the likelihood of whether or not the referenced object corresponds, which makes it easier to see. The value of the pixel value set here is not particularly limited to this, and may be appropriately set to a desired value, but the following will be followed for the sake of description below.

線分推定部205が有する生成CNNは、例えば、非特許文献2における方法のような既知の方法によって学習されていてもよい。つまり、線分推定部205は、正解データとして、マッチングする対象物を含む2画像の特徴量を生成CNNへ入力した場合の出力となる、上述のような画素値の分布を有するマップが与えられていてもよい。次いで、線分推定部205は、そのような2画像を入力した際に正解データが出力できるよう、そのような2画像を入力した際の出力と正解データとから、例えば交差エントロピー誤差を用いた誤差逆伝播を行うことにより学習を行うことができる。交差エントロピー誤差については公知であるため詳細な説明は省略する。 The generated CNN included in the line segment estimation unit 205 may be learned by a known method such as the method in Non-Patent Document 2. That is, the line segment estimation unit 205 is given a map having the above-mentioned pixel value distribution, which is an output when the feature quantities of the two images including the matching object are input to the generation CNN as the correct answer data. You may be. Next, the line segment estimation unit 205 used, for example, a cross entropy error from the output when such two images were input and the correct answer data so that the correct answer data could be output when such two images were input. Learning can be performed by performing error back propagation. Since the cross entropy error is known, detailed description thereof will be omitted.

線分マップについて、判定部209はステップS307で、両画像における対象物一組の検出位置の対応する座標を結ぶ線分上の画素の各画素値を取得することができる。次いで、判定部209は、ステップS308において、取得した画素値の集合を積分し、及び積分した値を取得した画素の画素数で割った値をスコアとして算出することができる。すなわち、参照した線分上の画素値の平均をスコアとして算出する事ができる。さらに判定部209は、ステップS309において、このように算出されたスコアを用いて、上述のようにマッチングを行う。 Regarding the line segment map, the determination unit 209 can acquire each pixel value of the pixel on the line segment connecting the corresponding coordinates of the detection positions of the set of objects in both images in step S307. Next, in step S308, the determination unit 209 can integrate the set of acquired pixel values and divide the integrated value by the number of pixels of the acquired pixels to calculate as a score. That is, the average of the pixel values on the referenced line segment can be calculated as a score. Further, the determination unit 209 uses the score calculated in this way in step S309 to perform matching as described above.

図4は本実施形態に係る線分マップを用いたスコアの算出処理における処理手順の一例を示すフローチャートである。ステップS401及びS402、ステップS403〜S405、ステップS406、並びにステップS407は、図3におけるステップS306、S307、ステップS308、及びステップS309にそれぞれ相当する。ステップS401において、判定部209は、検出部202が検出した時刻tの画像における対象物の検出位置(以下、第1の検出位置と呼ぶ)の集合を取得する。ステップS402において、判定部209は、検出部202が検出した時刻t+Δtの画像における対象物の検出位置(以下、第2の検出位置と呼ぶ)の集合を取得する。ステップS401及びS402においては、判定部209は、上述のように、両画像における検出位置の座標を、線分マップ上の対応する座標に変換し及び取得する。 FIG. 4 is a flowchart showing an example of a processing procedure in the score calculation process using the line segment map according to the present embodiment. Steps S401 and S402, steps S403 to S405, steps S406, and step S407 correspond to steps S306, S307, S308, and S309 in FIG. 3, respectively. In step S401, the determination unit 209 acquires a set of detection positions (hereinafter, referred to as first detection positions) of the object in the image at time t detected by the detection unit 202. In step S402, the determination unit 209 acquires a set of detection positions (hereinafter, referred to as a second detection position) of the object in the image at the time t + Δt detected by the detection unit 202. In steps S401 and S402, the determination unit 209 converts and acquires the coordinates of the detection positions in both images into the corresponding coordinates on the line segment map, as described above.

ステップS403において、判定部209は、第1の検出位置及び第2の検出位置から、それぞれ一つずつ、スコアを算出する検出位置の組み合わせを選択する。本実施形態においては、判定部209は、第1の検出位置全体から、及び第2の検出位置全体からそれぞれ検出位置を選択しているが、特にそれに限定されるわけではない。判定部209は、第1の検出位置と第2の検出位置とについて、それぞれ所定の条件に基づいて選定された組み合わせから選択を行ってもよい。例えば、判定部209は、第1の検出位置に対して、その第1の検出位置を中心とする予め定められた所定の範囲内に存在する第2の検出位置の内から、第2の検出位置を選択してもよい。また例えば、判定部209は、時刻t以前のマッチング結果に基づいて、対象物それぞれについて移動方向及び速度のような移動情報を取得することができる。次いで、判定部209は、そのような移動情報から時刻t+Δtにおける対象物のおおよその移動位置を推定し、及び、各第1の検出位置について、推定された移動位置に基づいて定められる範囲の内から第2の検出位置の選択を行ってもよい。また、この例においてはステップS403〜S406は繰り返し行われ得るが、判定部209は、前回までの繰り返しにおいて選択されたことのある第1の検出位置と第2の検出位置との組み合わせは除外して選択を行う。 In step S403, the determination unit 209 selects a combination of detection positions for calculating the score, one from each of the first detection position and the second detection position. In the present embodiment, the determination unit 209 selects the detection position from the entire first detection position and from the entire second detection position, but the determination position is not particularly limited thereto. The determination unit 209 may select the first detection position and the second detection position from a combination selected based on predetermined conditions. For example, the determination unit 209 has a second detection position from among the second detection positions existing within a predetermined range centered on the first detection position with respect to the first detection position. You may choose the position. Further, for example, the determination unit 209 can acquire movement information such as the movement direction and the speed for each object based on the matching result before the time t. Next, the determination unit 209 estimates the approximate movement position of the object at time t + Δt from such movement information, and for each first detection position, within the range determined based on the estimated movement position. The second detection position may be selected from. Further, in this example, steps S403 to S406 can be repeated, but the determination unit 209 excludes the combination of the first detection position and the second detection position that have been selected in the repetition up to the previous time. Make a selection.

また、ステップS403において、判定部209は、第1の検出位置と第2の検出位置とのユークリッド距離が所定の閾値以上となる組み合わせを除外して選択を行ってもよい。ここで、閾値は被写体の大きさに応じて設定することができる。このように、大きく離れた対象物の組み合わせを除外し、このような組み合わせについての処理を省略することにより、処理コストを低減させることができる。 Further, in step S403, the determination unit 209 may make a selection excluding the combination in which the Euclidean distance between the first detection position and the second detection position is equal to or greater than a predetermined threshold value. Here, the threshold value can be set according to the size of the subject. In this way, the processing cost can be reduced by excluding the combination of objects that are far apart and omitting the processing for such a combination.

ステップS404において、判定部209は、ステップS403で未処理の検出位置の組み合わせを選択することができたかどうかを判定する。つまり、検出位置の全ての組み合わせについてマッチング処理を行ったかどうかを判定する。選択できた場合は処理がステップS405へと移動し、未処理の組み合わせが残っていなかった場合はステップS407へと移動する。 In step S404, the determination unit 209 determines whether or not the combination of unprocessed detection positions could be selected in step S403. That is, it is determined whether or not the matching process has been performed for all the combinations of the detection positions. If it can be selected, the process moves to step S405, and if no unprocessed combination remains, the process moves to step S407.

ステップS405において判定部209は、ステップS403で選択された検出位置の、線分マップ上での座標を結んだ線分上の画素を参照し、その画素値を取得する。そのような処理について、図8、及び図9(a)を用いて説明する。図8(a)及び図8(b)はそれぞれ時刻t及びt+Δtにおける撮像画像であり、時刻tにおける人物の首位置801、及び時刻t+Δtにおける人物の首位置802が示されている。この場合においては、線分推定部205は、マッチングする対象物の首位置801及び802を結ぶ線分上の領域と、その領域以外の領域と、で異なる画素値を有する線分マップを生成している。図9(a)はそのように生成された線分マップを示す図である。 In step S405, the determination unit 209 refers to the pixels on the line segment connecting the coordinates on the line segment map of the detection position selected in step S403, and acquires the pixel values. Such processing will be described with reference to FIGS. 8 and 9 (a). 8 (a) and 8 (b) are captured images at time t and t + Δt, respectively, and show the neck position 801 of the person at time t and the neck position 802 of the person at time t + Δt, respectively. In this case, the line segment estimation unit 205 generates a line segment map having different pixel values in the area on the line segment connecting the neck positions 801 and 802 of the matching object and the area other than the area. ing. FIG. 9A is a diagram showing a line segment map thus generated.

線分推定部205は、理想的には、首位置801及び802に対応する線分マップ上の座標を結んだ線分が線分マップ上に出力されるように推定を行っている。図9(a)は、このように出力された線分901を示している。図9(a)においては一人の人物に関する線分マップが出力されている例が示されているが、特にそのように限定されるわけではない。複数の人物が存在する場合は、各人物の検出位置に応じた複数の線分が推定及び出力される。先に述べた通り、同一人物の首位置の間の線分上の画素の値は1に近く、それ以外は0に近い値となるように線分マップが生成される。 Ideally, the line segment estimation unit 205 estimates so that the line segment connecting the coordinates on the line segment map corresponding to the neck positions 801 and 802 is output on the line segment map. FIG. 9A shows the line segment 901 output in this way. In FIG. 9A, an example in which a line segment map relating to one person is output is shown, but the present invention is not particularly limited to that. When there are a plurality of persons, a plurality of line segments corresponding to the detection positions of each person are estimated and output. As described above, the line segment map is generated so that the values of the pixels on the line segment between the neck positions of the same person are close to 1, and the values of the pixels on the line segment are close to 0 otherwise.

なお、線分マップ上に出力される線分は、最小限の太さを有する線分であってもよいし、より太い線分であってもよい。例えば、図9(a)に示すように、線分901が、首位置801及び802に対応する線分マップ上の点を結ぶ線分を中心とした、ガウス分布に従う画素値の分布を有する画素群により表されてもよい。このように、所定の閾値以上の画素値を有する画素群により、2点を結ぶ線分を表現してもよい。 The line segment output on the line segment map may be a line segment having a minimum thickness or a thicker line segment. For example, as shown in FIG. 9A, a pixel having a pixel value distribution according to a Gaussian distribution, centered on a line segment connecting points on a line segment map corresponding to neck positions 801 and 802. It may be represented by a group. In this way, a line segment connecting two points may be represented by a pixel group having a pixel value equal to or higher than a predetermined threshold value.

ステップS405において判定部209は、時刻t及び時刻t+Δtにおける対象物をそれぞれ一つずつ選択し、選択した対象物の検出位置(例えば関節位置)について、線分マップでの座標を結んだ線分上の画素値を取得することができる。なお、ステップS405において判定部209は、2点を結ぶ、最小限の太さを有する線分上の画素値を取得する代わりに、そのような線分を中心とした所定の幅を有する領域中の画素値を参照して画素値を取得してもよい。一例として、判定部209は、2点を結ぶ線分上の各画素についての画素値として、各画素を中心とする所定範囲(例えば3×3画素範囲)内の最大画素値または平均画素値を取得してもよい。 In step S405, the determination unit 209 selects one object at time t and one object at time t + Δt, and the detection position (for example, joint position) of the selected object is on a line segment connecting the coordinates on the line segment map. The pixel value of can be obtained. In step S405, instead of acquiring the pixel value on the line segment having the minimum thickness connecting the two points, the determination unit 209 is in the region having a predetermined width centered on such a line segment. The pixel value may be acquired by referring to the pixel value of. As an example, the determination unit 209 sets the maximum pixel value or the average pixel value within a predetermined range (for example, 3 × 3 pixel range) centered on each pixel as the pixel value for each pixel on the line segment connecting the two points. You may get it.

ステップS406において判定部209は、ステップS405で取得された画素値の積分値を算出し、及び算出された積分値を線分中の画素数で割ることにより、スコアを算出する。ここで、ステップS403で選択した2点が同一人物のものであれば、当該2点を結ぶ線分上の画素は、線分マップの線分上の画素と近い位置にあるため、取得した画素値を積分すると1×線分中の画素数の値に近くなる。このマッチングスコアが1に近いほど、当該2点の組み合わせは同一人物どうしの組み合わせである可能性が高い。逆に、他の人物との間には線分が出力されないため、上記のように求めたマッチングスコアは1よりも小さくなる。このようにして求めたマッチングスコアを利用することで、2点の組み合わせが同一人物か否かを判定することができる。なお、この例においては判定部209が参照した領域の画素値の平均をスコアとしたが、スコアとする値の算出方法は特にそのようには限定されない。例えば、判定部209は、取得した画素値の集合から、中央値を取ってもよく、上述の中心となる線分に近いほど重みが大きくなるような重みつきの平均を取ってもよく、又は最大値をとってもよい。本実施形態のように線分上の複数の画素に値を出力するマップを用いることで、推定ミスで部分的に欠損が生じたり、検出位置が若干ずれたりした場合であっても、ロバストにマッチングできる。 In step S406, the determination unit 209 calculates the integrated value of the pixel values acquired in step S405, and divides the calculated integrated value by the number of pixels in the line segment to calculate the score. Here, if the two points selected in step S403 belong to the same person, the pixels on the line segment connecting the two points are located at positions close to the pixels on the line segment of the line segment map, and thus the acquired pixels. When the values are integrated, it becomes close to the value of the number of pixels in 1 × line segment. The closer the matching score is to 1, the more likely it is that the combination of the two points is a combination of the same person. On the contrary, since no line segment is output between the person and another person, the matching score obtained as described above is smaller than 1. By using the matching score obtained in this way, it is possible to determine whether or not the combination of the two points is the same person. In this example, the average of the pixel values in the region referred to by the determination unit 209 is used as the score, but the method of calculating the value as the score is not particularly limited to that. For example, the determination unit 209 may take the median value from the set of acquired pixel values, or may take a weighted average such that the weight increases as the line segment approaches the center line segment described above. The maximum value may be taken. By using a map that outputs values to a plurality of pixels on a line segment as in the present embodiment, even if a partial defect occurs due to an estimation error or the detection position is slightly deviated, it becomes robust. Can be matched.

次いで、判定部209は、ここで算出されたスコア、及び検出位置の組み合わせを記憶装置に格納し、ステップS403に移動する。この記憶装置は外部記憶装置104であってもよく、又は無線の通信を介して接続される記憶装置であってもよい。上述した通り、次回のステップS403で選択される検出位置の組み合わせは、その時点で記憶装置に格納されていない組み合わせから選択される。 Next, the determination unit 209 stores the combination of the score calculated here and the detection position in the storage device, and moves to step S403. This storage device may be an external storage device 104, or may be a storage device connected via wireless communication. As described above, the combination of detection positions selected in the next step S403 is selected from the combinations that are not stored in the storage device at that time.

ステップS403で全ての検出位置の組み合わせを選択し終えたと判定された場合であるステップS407において、判定部209は、記憶装置に格納されたスコア及び組み合わせに基づいて、検出位置に応じた対象物のマッチングを行う。本実施形態においては、判定部209は、各マップにおけるスコアすべてを用いてマッチングを行うものとするが、上述の通りそのようには限定されない。例えば、判定部209は、線分マップにおけるスコアのみに基づいてマッチングを行う場合、それぞれの第1の検出位置について、最も高いスコアを有する組み合わせとなる第2の検出位置を選択してもよい。そのような場合において、一つの第2の検出位置に対して、最も高いスコアを有する組み合わせとなるようにその第2の検出位置を選択する第1の検出位置が複数存在する場合には、その中で最もスコアが高い組み合わせが優先される。次いで、そのような第2の検出位置を組み合わせとして選択できなかった第1の検出位置について、その第2の検出位置を除いた内から再び最も高いスコアを有する組み合わせとなる第2の検出位置を選択してもよい。また例えば、判定部209は、貪欲法又はハンガリー法などの公知の割り当て法を用いて、対象物のマッチングを行ってもよい。また、判定部209は、処理コストの低減のため、線分マップ、又は後述の中間点マップにおけるスコアから、予め定めることのできる所望の閾値よりも小さい値を有しているスコアを取り除いてからマッチングを行ってもよい。そのような閾値は、対象物の密集度及びサイズなどに応じて、適宜所望の値として判定部209が設定することができる。 In step S407, which is the case where it is determined in step S403 that all the combinations of the detection positions have been selected, the determination unit 209 determines the object according to the detection position based on the score and the combination stored in the storage device. Perform matching. In the present embodiment, the determination unit 209 shall perform matching using all the scores in each map, but is not limited to that as described above. For example, when matching is performed based only on the score in the line segment map, the determination unit 209 may select a second detection position that is a combination having the highest score for each first detection position. In such a case, if there are a plurality of first detection positions that select the second detection position so as to have the highest score for one second detection position, the combination thereof. The combination with the highest score is given priority. Next, with respect to the first detection position for which such a second detection position could not be selected as a combination, the second detection position which is the combination having the highest score again from among the first detection positions excluding the second detection position is selected. You may choose. Further, for example, the determination unit 209 may perform matching of objects by using a known allocation method such as a greedy method or a Hungarian method. Further, in order to reduce the processing cost, the determination unit 209 removes a score having a value smaller than a desired threshold value that can be predetermined from the score in the line segment map or the intermediate point map described later. Matching may be performed. Such a threshold value can be appropriately set by the determination unit 209 as a desired value according to the density and size of the object.

中間点推定部206は、マッチングする対象物の検出位置を結ぶ線分の中間点と、それ以外の領域と、で異なる画素値を有するマップ(以下、中間点マップと呼ぶ)を生成することができる。中間点推定部206は、例えば、マッチングする対象物の検出位置を結ぶ線分の中間点の画素値を1とし、それ以外の領域の画素値を0とするマップを生成してもよい。つまり、マッチングする対象物の検出位置を結ぶ線分の中間点の画素値を参照した場合は1に近い尤度値が得られ、そうでない領域を参照した場合は0に近い尤度値が得られやすくなる、参照した対象物が対応しているか否かの尤度を示すマップを生成してもよい。ここで設定される画素値の値は特にこれには限定されず、適宜所望の値に設定されてもよいものとするが、以下においては説明のためこれに従う。 The midpoint estimation unit 206 can generate a map (hereinafter, referred to as an midpoint map) having different pixel values between the midpoint of the line segment connecting the detection positions of the matching objects and the other regions. it can. The intermediate point estimation unit 206 may generate, for example, a map in which the pixel value of the intermediate point of the line segment connecting the detection positions of the matching objects is 1, and the pixel value of the other region is 0. That is, when the pixel value of the midpoint of the line segment connecting the detection positions of the matching objects is referred to, the likelihood value close to 1 is obtained, and when the region other than that is referred to, the likelihood value close to 0 is obtained. You may generate a map that shows the likelihood of whether or not the referenced object corresponds, which makes it easier to see. The value of the pixel value set here is not particularly limited to this, and may be appropriately set to a desired value, but the following will be followed for the sake of description below.

中間点推定部206が有する生成CNNは、例えば、非特許文献2における方法のような既知の方法によって学習されていてもよい。つまり、中間点推定部206は、正解データとして、マッチングする対象物を含む2画像の特徴量をCNNへの入力とした場合の出力となる、上述のような画素値の分布を有するマップが与えられていてもよい。次いで、中間点推定部206は、そのような2画像を入力した際に正解データが出力できるよう、そのような2画像を入力した際の出力と正解データとから、例えば交差エントロピー誤差を用いた誤差逆伝播を行うことにより学習を行うことができる。 The generated CNN included in the midpoint estimation unit 206 may be learned by a known method such as the method in Non-Patent Document 2. That is, the intermediate point estimation unit 206 is provided with a map having the above-mentioned pixel value distribution, which is an output when the feature quantities of the two images including the matching object are input to the CNN as correct answer data. It may have been. Next, the intermediate point estimation unit 206 uses, for example, an cross entropy error from the output when such two images are input and the correct answer data so that the correct answer data can be output when such two images are input. Learning can be performed by performing error back propagation.

判定部209はステップS307で、両画像における対象物一組の検出位置の座標にそれぞれ対応する中間点マップ上の座標を結ぶ線分の、中間点の画素値を取得することができる。次いで、判定部209は、ステップS308において、取得した画素値をスコアとして記録することができる。さらに判定部209は、ステップS309において、ステップS308で記録されたスコアを用いて、上述のようにマッチングを行う。 In step S307, the determination unit 209 can acquire the pixel value of the intermediate point of the line segment connecting the coordinates on the intermediate point map corresponding to the coordinates of the detection positions of the set of objects in both images. Next, the determination unit 209 can record the acquired pixel value as a score in step S308. Further, in step S309, the determination unit 209 performs matching as described above using the score recorded in step S308.

図5は本実施形態に係る中間点マップを用いた画像処理における処理手順の一例を示すフローチャートである。ステップS401〜S404、及びステップS407における処理は図4のものと同様であり、重複する説明は省略する。ステップS403、S404及びS501、並びにステップS502は、図3におけるS307、及びステップS308にそれぞれ相当する。ステップS501において判定部209は、ステップS403で選択された検出位置の、中間点マップ上での座標を結んだ線分の中間点の画素の画素値を取得する。そのような処理について、図8、及び図9(b)を用いて説明する。図8(a)及び図8(b)については上述した通りである。この場合においては、判定部209は、首位置801及び802にそれぞれマッチングする対象物の検出位置を結ぶ線分の中間点と、その領域以外の領域と、で異なる画素値を有するマップを生成している。 FIG. 5 is a flowchart showing an example of a processing procedure in image processing using the intermediate point map according to the present embodiment. The processes in steps S401 to S404 and steps S407 are the same as those in FIG. 4, and redundant description will be omitted. Steps S403, S404 and S501, and step S502 correspond to S307 and S308 in FIG. 3, respectively. In step S501, the determination unit 209 acquires the pixel value of the pixel at the midpoint of the line segment connecting the coordinates on the midpoint map of the detection position selected in step S403. Such processing will be described with reference to FIGS. 8 and 9 (b). 8 (a) and 8 (b) are as described above. In this case, the determination unit 209 generates a map having different pixel values in the middle point of the line segment connecting the detection positions of the objects matching the neck positions 801 and 802, respectively, and the area other than that area. ing.

中間点推定部206は、理想的には、首位置801と802に対応する座標を結んだ線分の中間位置の座標に、中間点を示す点が出力されるように、中間点マップを生成する。図9(b)はそのように生成された中間点マップを示す図であり、出力された中間点902を示している。図9(b)においては一人の人物に関する中間点マップが出力されている例が示されているが、特にそのように限定されるわけではない。例えば、複数の人物が撮像画像内に撮像されている場合、中間点マップ上に、各人物の検出位置に応じた複数の中間点が出力される。この例では、同一人物の首位置の間の中間点の画素の値は1に近く、それ以外は1に近い値となるように、推定及び中間点マップの生成が行われる。 Ideally, the midpoint estimation unit 206 generates an midpoint map so that a point indicating the midpoint is output at the coordinates of the midpoint of the line segment connecting the coordinates corresponding to the neck positions 801 and 802. To do. FIG. 9B is a diagram showing the midpoint map thus generated, and shows the output midpoint 902. In FIG. 9B, an example in which an intermediate point map relating to one person is output is shown, but the present invention is not particularly limited to that. For example, when a plurality of people are captured in the captured image, a plurality of intermediate points corresponding to the detection positions of each person are output on the intermediate point map. In this example, the estimation and the generation of the midpoint map are performed so that the value of the pixel at the midpoint between the neck positions of the same person is close to 1, and the other values are close to 1.

なお、中間点マップにおいて、中間点は、1画素によって表されてもよいし、局所領域によって表されてもよい。すなわち、中間点推定部206は、1画素のみに値が出るように推定する必要は無く、1画素の近傍の局所領域の値が1に近くなるように、推定及び中間点マップの生成を行ってもよい。また、中間点マップは、中間点を中心とするガウス分布に従う画素値分布を有していてもよい。このような構成によれば、例えば検出部202による検出位置にずれが生じてしまった場合においても、ステップS308で算出される値に、検出位置のずれ由来のずれが生じにくくなり、マッチングのロバスト性を向上させることができる。 In the midpoint map, the midpoint may be represented by one pixel or by a local region. That is, the midpoint estimation unit 206 does not need to estimate so that the value appears in only one pixel, but estimates and generates the midpoint map so that the value of the local region in the vicinity of one pixel is close to 1. You may. Further, the midpoint map may have a pixel value distribution that follows a Gaussian distribution centered on the midpoint. According to such a configuration, even if the detection position by the detection unit 202 is deviated, for example, the value calculated in step S308 is less likely to be deviated due to the deviation of the detection position, and the matching robustness is achieved. It is possible to improve the sex.

判定部209は、時刻t及び時刻t+Δtにおける対象物をそれぞれ一つずつ選択し、選択された対象物の検出位置に対応する中間点マップ上の座標の中間点の画素値を取得することができる。また、処理コストが許容される範囲で、判定部209は、この中間点の近傍の所定範囲(例えば3×3画素範囲)の画素値を参照して、中間点についての値を取得してもよい。例えば、判定部209は、中間点近傍の所定範囲についての、最大画素値、平均画素値、又は画素値の中央値を取得してもよい。また、判定部209は、中間点近傍の所定範囲について、中間点ほど高くなる重み分布を用いる重みつきの平均を取得してもよい。このように、判定部209は、マッチング対象どうしの中間点であるか否かに応じて値に差が生じる方法を用いて、値を取得することができる。このような方法は、中間点マップが中間点を中心とする画素値分布を有している場合に特に有効である。すなわち、一定範囲の領域を参照することで、例えば推定のミスでデータに部分的な欠損が生じた場合、又は検出位置にずれが生じたような場合においても、局所領域内の画素値を参照することにより、ロバスト性が向上したマッチングを行うことができる。 The determination unit 209 can select one object each at time t and time t + Δt, and acquire the pixel value of the intermediate point of the coordinates on the intermediate point map corresponding to the detection position of the selected object. .. Further, within the range where the processing cost is allowed, the determination unit 209 may obtain the value for the intermediate point by referring to the pixel value in the predetermined range (for example, 3 × 3 pixel range) in the vicinity of the intermediate point. Good. For example, the determination unit 209 may acquire the maximum pixel value, the average pixel value, or the median value of the pixel values for a predetermined range near the midpoint. Further, the determination unit 209 may acquire a weighted average using a weight distribution that becomes higher toward the intermediate point in a predetermined range near the intermediate point. In this way, the determination unit 209 can acquire the value by using a method in which the value differs depending on whether or not it is an intermediate point between the matching targets. Such a method is particularly effective when the midpoint map has a pixel value distribution centered on the midpoint. That is, by referring to a certain range of areas, for example, even when a partial loss occurs in the data due to an estimation error or a deviation occurs in the detection position, the pixel value in the local area is referred to. By doing so, matching with improved robustness can be performed.

ステップS502において判定部209は、ステップS501で取得された値を、一組の対象物についてのマッチングスコアとして、検出位置の組み合わせ情報とともに記憶装置に格納し、ステップS403に移動する。この記憶装置は外部記憶装置104であってもよく、又は無線の通信を介して接続される記憶装置であってもよい。上述した通り、次回のステップS403で選択される検出位置の組み合わせは、その時点で記憶装置に格納されていない組み合わせから選択される。 In step S502, the determination unit 209 stores the value acquired in step S501 as a matching score for a set of objects in the storage device together with the combination information of the detection positions, and moves to step S403. This storage device may be an external storage device 104, or may be a storage device connected via wireless communication. As described above, the combination of detection positions selected in the next step S403 is selected from the combinations that are not stored in the storage device at that time.

距離推定部207は、マッチングする対象物の検出位置を結ぶ線分の中間点の画素値が、その線分の長さを示す値を持つマップ(以下、距離マップと呼ぶ)を生成することができる。距離マップにおいては、マッチングする対象物の検出位置を結ぶ線分の中間点と、その領域以外の領域と、で異なる画素値を有していてもよい。距離マップにおいては、同一個体の同一部位間の線分の中間点の画素値が、この線分の距離に比例する値となっていてもよい。つまり、そのような中間点の画素値を、予め与えられている所定の係数をかけることで線分の長さの値が得られるような値(以下、推定値と呼ぶ)としてもよい。また、距離推定部207は、マッチングする対象物の検出位置を結ぶ線分の中間点の画素値が、各検出位置の座標のx座標の値の差に比例する値となるマップと、各検出位置の座標のy座標の値の差に比例する値となるマップと、を別々に生成してもよい。距離推定部207が生成するマップはこれらには限定されず、一例において距離マップに設定される画素値は、マッチングする対象物の検出位置を結ぶ線分の長さを示す任意の値である。以下においては説明のため、上述の中間点の画素値が、マッチングする対象物の検出位置を結ぶ線分の長さの値と比例した値となるマップを生成するものとして説明を行う。 The distance estimation unit 207 can generate a map (hereinafter, referred to as a distance map) in which the pixel value of the midpoint of the line segment connecting the detection positions of the matching objects has a value indicating the length of the line segment. it can. In the distance map, the intermediate point of the line segment connecting the detection positions of the matching objects and the region other than the region may have different pixel values. In the distance map, the pixel value of the midpoint of the line segment between the same parts of the same individual may be a value proportional to the distance of this line segment. That is, the pixel value at such an intermediate point may be set to a value (hereinafter, referred to as an estimated value) so that a value of the length of the line segment can be obtained by multiplying the pixel value at such an intermediate point by a predetermined coefficient given in advance. Further, the distance estimation unit 207 includes a map in which the pixel value of the midpoint of the line segment connecting the detection positions of the matching objects is proportional to the difference in the x-coordinate values of the coordinates of each detection position, and each detection. A map having a value proportional to the difference between the y-coordinate values of the position coordinates may be generated separately. The map generated by the distance estimation unit 207 is not limited to these, and the pixel value set in the distance map in one example is an arbitrary value indicating the length of the line segment connecting the detection positions of the matching objects. Hereinafter, for the sake of explanation, a map will be generated in which the pixel value of the above-mentioned intermediate point is proportional to the value of the length of the line segment connecting the detection positions of the matching objects.

距離推定部207が有する生成CNNがそのように学習を行うために、正解データとして、マッチングする対象物を含む2画像の特徴量をCNNへの入力とした場合の出力となる、上述のような画素値の分布を有するマップが与えられる。次いで、距離推定部207は、そのような2画像を入力した際に正解データが出力できるよう、そのような2画像を入力した際の出力と正解データとから、例えば平均2乗誤差を用いた誤差逆伝播を行うことにより学習を行うことができる。平均2乗誤差については公知であるため詳細な説明は省略する。 In order for the generated CNN of the distance estimation unit 207 to perform such learning, the correct answer data is an output when the feature quantities of the two images including the matching object are input to the CNN, as described above. A map with a distribution of pixel values is given. Next, the distance estimation unit 207 used, for example, an average squared error from the output when such two images were input and the correct answer data so that the correct answer data could be output when such two images were input. Learning can be performed by performing error back propagation. Since the average square error is known, detailed description thereof will be omitted.

判定部209はステップS307で、両画像における対象物一組の検出位置の座標に対応する距離マップ上の座標を結ぶ、線分の中間点の画素値を取得することができる。次いで、判定部209は、ステップS308において、取得した画素値に所定の係数をかけ、及び、所定の係数をかけたその値と、対応する座標を結ぶ線分の長さの値と、の差を算出する。判定部209は、算出した差に基づいてマッチングに用いるスコアを取得することができるが、詳細はステップS603において後述する。さらに判定部209は、ステップS309において、ステップS308で記録されたスコアを用いて、上述のようにマッチングを行う。 In step S307, the determination unit 209 can acquire the pixel value of the midpoint of the line segment connecting the coordinates on the distance map corresponding to the coordinates of the detection positions of the set of objects in both images. Next, in step S308, the determination unit 209 multiplies the acquired pixel value by a predetermined coefficient, and the difference between the value obtained by multiplying the acquired pixel value and the value of the length of the line segment connecting the corresponding coordinates. Is calculated. The determination unit 209 can acquire a score to be used for matching based on the calculated difference, and the details will be described later in step S603. Further, in step S309, the determination unit 209 performs matching as described above using the score recorded in step S308.

図6は本実施形態に係る距離マップを用いた画像処理における処理手順の一例を示すフローチャートである。ステップS401〜S404、及びステップS407における処理は図4のものと同様であり、重複する説明は省略する。ステップS403、S404及びS601、並びに、ステップS602及びステップS603は、図3におけるS307、及びステップS308にそれぞれ相当する。ステップS601において判定部209は、ステップS403で選択された検出位置の、距離マップ上での座標を結んだ線分の中間点の画素を参照し、その画素値を取得する。そのような処理について、図8、及び図9(c)を用いて説明する。図8(a)及び図8(b)については上述した通りである。 FIG. 6 is a flowchart showing an example of a processing procedure in image processing using the distance map according to the present embodiment. The processes in steps S401 to S404 and steps S407 are the same as those in FIG. 4, and redundant description will be omitted. Steps S403, S404 and S601, and steps S602 and S603 correspond to S307 and S308 in FIG. 3, respectively. In step S601, the determination unit 209 refers to the pixel at the midpoint of the line segment connecting the coordinates on the distance map of the detection position selected in step S403, and acquires the pixel value. Such processing will be described with reference to FIGS. 8 and 9 (c). 8 (a) and 8 (b) are as described above.

この場合、距離推定部207は、理想的には、首位置801と802とを結んだ線分の中間位置の座標に推定値が出力されるように、距離マップを生成している。図9(c)はそのように生成された距離マップを示す図である。この距離マップにおいては、首位置801及び802に対応する距離マップ上の点を結ぶ線分の中間点903に、上記のような推定値が出力されている。図9(c)においては一人の人物に関する距離マップが出力されている例が示されているが、特にそのように限定されるわけではない。例えば、複数の人物が撮像画像内に撮像されている場合、同一人物に対応する位置を結んだ線分の中間位置の画素それぞれに推定値が出力される。 In this case, the distance estimation unit 207 ideally generates a distance map so that the estimated value is output at the coordinates of the intermediate position of the line segment connecting the neck positions 801 and 802. FIG. 9 (c) is a diagram showing a distance map thus generated. In this distance map, the above estimated values are output at the midpoint 903 of the line segment connecting the points on the distance map corresponding to the neck positions 801 and 802. In FIG. 9C, an example in which a distance map relating to one person is output is shown, but the distance map is not particularly limited to that. For example, when a plurality of people are captured in a captured image, an estimated value is output to each pixel at an intermediate position of a line segment connecting positions corresponding to the same person.

なお、推定値は必ずしも中間点に出力されなくてもよく、同一の対象物の検出位置との関連がわかるように別の方法で距離マップに出力されてもよい。例えば、距離マップにおいて、2つの検出位置を結ぶ線分との関連がわかるように推定値が出力されてもよい。具体例として、2つの対象物に対応する距離マップ上の検出位置を結ぶ線分全体の画素値が、推定値となるように、距離マップが生成されてもよい。また、推定値が、2つの検出位置を結ぶ線分の中間点を中心とする局所領域内の各画素が、推定値を有するように、距離マップが生成されてもよい。このような構成により、例えば検出部202による検出位置にずれが生じてしまった場合においても、判定部209が参照する値が所望の値となりやすくなり、マッチングのロバスト性を向上させることができる。 The estimated value does not necessarily have to be output to the intermediate point, and may be output to the distance map by another method so that the relationship with the detection position of the same object can be understood. For example, in the distance map, an estimated value may be output so that the relationship with the line segment connecting the two detection positions can be understood. As a specific example, the distance map may be generated so that the pixel value of the entire line segment connecting the detection positions on the distance map corresponding to the two objects becomes an estimated value. Further, the distance map may be generated so that each pixel in the local region centered on the midpoint of the line segment connecting the two detection positions has the estimated value. With such a configuration, for example, even when the detection position by the detection unit 202 is deviated, the value referred to by the determination unit 209 is likely to be a desired value, and the robustness of matching can be improved.

判定部209は、時刻t及び時刻t+Δtにおける対象物をそれぞれ一つずつ選択し、選択した対象物の検出位置(例えば関節位置)について、距離マップでの座標を結んだ線分の中間点の画素値を取得することができる。このような構成によれば、後述のステップS603において、マッチングする対象物の検出位置を結ぶ線分の長さと、例えば中間点の画素値から算出される値と、の差の絶対値は0に近くなりやすくなる。また、マッチングしない対象物の検出位置について同様の計算を行った絶対値は0から離れやすくなる。 The determination unit 209 selects one object each at time t and time t + Δt, and for the detection position (for example, joint position) of the selected object, the pixel at the midpoint of the line segment connecting the coordinates on the distance map. You can get the value. According to such a configuration, in step S603 described later, the absolute value of the difference between the length of the line segment connecting the detection positions of the matching objects and the value calculated from the pixel value of the intermediate point, for example, becomes 0. It becomes easier to get closer. In addition, the absolute value obtained by performing the same calculation for the detection position of the non-matching object tends to deviate from 0.

ステップS602において判定部209は、ステップS601で取得された画素値に予め与えられている係数をかけることにより、線分の推定の長さを算出する。つまり、選択されている対象物の組み合わせがマッチングする対象物同士であれば、算出される値が距離マップにおける各座標間の距離と等しくなることが推測される値を算出する。 In step S602, the determination unit 209 calculates the estimated length of the line segment by multiplying the pixel value acquired in step S601 by a coefficient given in advance. That is, if the selected combination of objects is matching objects, the calculated value is estimated to be equal to the distance between each coordinate in the distance map.

ステップS603において判定部209は、ステップS602で算出された値と、一組の座標を結ぶ線分の長さと、の差を算出する。次いで、判定部209は、算出した差の絶対値に基づいて、マッチングに用いるスコアを取得することができる。スコアの取得方法は特に限定されない。ここで算出された絶対値が小さいほどそれらの対象物が対応している可能性が高くなるであろうことを鑑みて、判定部209は、そのような絶対値が小さくなるほどスコアが高くなるような変換を行うことにより、スコアを取得してもよい。例えば、判定部209は、そのような絶対値の逆数をスコアとして算出してもよく、そのような絶対値に負の記号を付けた値によるexponentialのべき乗をスコアとして算出してもよい。また、他のマップにおけるスコアと併用するという観点から、判定部209は、距離マップを用いたスコアを0〜1の範囲で、及びスコアが高いほどそれらの対象物が対応している可能性が高くなるように算出してもよい。つまり、上述の絶対値の逆数をスコアとする場合においては、絶対値が十分に小さい場合にスコアが無限大に発散することを考えて、判定部209は、例えば絶対値が予め設定されている下限値を下回る場合において、スコアを1として出力してもよい。また、上述の絶対値の絶対値に負の記号を付けた値によるexponentialのべき乗をスコアとする場合においては、判定部209は、算出した値をそのままスコアとして用いることができる。本実施形態においては、判定部209は、距離マップを用いたスコアを0〜1の範囲で算出するが、その範囲は、他のマップにおけるスコアの算出方法に応じて適宜調整されてもよい。次いで、判定部209は、ここで算出されたスコア、及び検出位置の組み合わせを記憶装置に格納し、ステップS403に移動する。 In step S603, the determination unit 209 calculates the difference between the value calculated in step S602 and the length of the line segment connecting a set of coordinates. Next, the determination unit 209 can acquire a score used for matching based on the calculated absolute value of the difference. The method of obtaining the score is not particularly limited. Considering that the smaller the absolute value calculated here, the higher the possibility that those objects correspond to each other, the determination unit 209 increases the score as the absolute value becomes smaller. The score may be obtained by performing various conversions. For example, the determination unit 209 may calculate the reciprocal of such an absolute value as a score, or may calculate an exponential power of such an absolute value with a negative symbol as a score. In addition, from the viewpoint of using the score in other maps together, the determination unit 209 may set the score using the distance map in the range of 0 to 1, and the higher the score, the more likely that the objects correspond to each other. It may be calculated to be higher. That is, when the reciprocal of the above-mentioned absolute value is used as the score, the absolute value is set in advance in the determination unit 209, for example, considering that the score diverges to infinity when the absolute value is sufficiently small. When it is below the lower limit, the score may be output as 1. Further, when the exponential power of the absolute value of the above-mentioned absolute value with a negative symbol is used as the score, the determination unit 209 can use the calculated value as it is as the score. In the present embodiment, the determination unit 209 calculates the score using the distance map in the range of 0 to 1, but the range may be appropriately adjusted according to the score calculation method in other maps. Next, the determination unit 209 stores the combination of the score calculated here and the detection position in the storage device, and moves to step S403.

ID推定部208は、互いに対応すると推定される対象物のそれぞれの検出位置に応じて定まる位置に、同じ対象物を示す識別情報(画素値)を有しているマップ(以下、IDマップと呼ぶ)を生成することができる。例えば、ID推定部208は、マッチングする2つの対象物の検出位置に対応する領域が同じ画素値を有するマップを生成することができる。このIDマップはマッチングする2つの対象物の検出位置に対応する領域と、それ以外の領域と、で異なる画素値を有していてもよい。ID推定部208は、例えば、時刻tにおける検出位置に対応する領域と、時刻t+Δtにおける検出位置に対応する領域と、のそれぞれに、等しい画素値を有するマップを生成することができる。一例として、ID推定部208は、各検出位置上の領域に、対象物固有の識別情報を示す画素値(以下、ID値と呼ぶ)を有するマップを生成してもよい。また、この例においては、マッチングする対象物の検出位置上の領域が等しい画素値を持つようなマップが一つのみ生成されるが、ID推定部208が生成するマップは特に1つには限定されない。例えば、ID推定部208は、時刻tについてのマップと、時刻t+Δtについてのマップと、を生成してもよい。つまり、ID推定部208は、時刻tについてのマップ上の検出位置上の領域と、時刻t+Δtについてのマップ上のマッチングする対象物の検出位置上の領域と、が等しい画素値を持つように、マップを生成することができる。このように二つのマップを生成する処理によれば、例えば時刻t+Δtにおいて、時刻Δtで対象物が存在していた位置に別の対象物が移動してくる場合においても、それぞれの対象物を区別して画素値を取得し、マッチングを行うことができる。 The ID estimation unit 208 has a map (hereinafter, referred to as an ID map) having identification information (pixel value) indicating the same object at a position determined according to each detection position of the objects estimated to correspond to each other. ) Can be generated. For example, the ID estimation unit 208 can generate a map in which regions corresponding to detection positions of two matching objects have the same pixel value. This ID map may have different pixel values in the area corresponding to the detection position of the two matching objects and in the other areas. The ID estimation unit 208 can generate a map having equal pixel values in each of the region corresponding to the detection position at time t and the region corresponding to the detection position at time t + Δt, for example. As an example, the ID estimation unit 208 may generate a map having a pixel value (hereinafter, referred to as an ID value) indicating identification information peculiar to an object in a region on each detection position. Further, in this example, only one map is generated so that the regions on the detection positions of the matching objects have the same pixel value, but the map generated by the ID estimation unit 208 is particularly limited to one. Not done. For example, the ID estimation unit 208 may generate a map for time t and a map for time t + Δt. That is, the ID estimation unit 208 has the same pixel value so that the region on the detection position on the map at time t and the region on the detection position of the matching object on the map at time t + Δt have the same pixel value. You can generate a map. According to the process of generating two maps in this way, for example, at time t + Δt, even when another object moves to the position where the object existed at time Δt, each object is divided. Pixel values can be acquired separately and matching can be performed.

ID推定部208は、マッチングする対象物の検出位置上の領域の画素値の分散が最小化し、及び対応しない検出位置上の画素値の平均と、対応しない検出位置上の画素値の平均と、の分散が最大化するようなマップを生成することができる。ID推定部208が用いるCNNは、そのような画素値の分布を有するマップを出力することを正解として学習が行われていてもよい。すなわち、学習用の2枚の画像データをCNNに入力することにより得られたIDマップから、上記の分散に基づく損失評価値を算出し、この損失評価値を用いた誤差逆伝播を行うことにより、学習を行うことができる。また、学習データにおいて各対象物ごとに予めID値が与えられている場合においては、マップを用いた学習を行ってもよい。つまり、ID推定部208が用いるCNNは、正解データとして、画像データの各位置における対象物のID値を示すIDマップを用いた学習が行われていてもよい。この場合、2枚の画像データを入力した際に正解データが出力できるよう、例えば出力と正解データとに基づく交差エントロピー誤差を用いた誤差逆伝播を行うことにより、学習を行うことができる。 The ID estimation unit 208 minimizes the variance of the pixel values in the region on the detection position of the matching object, and averages the pixel values on the non-corresponding detection positions and the average of the pixel values on the non-corresponding detection positions. You can generate a map that maximizes the variance of. The CNN used by the ID estimation unit 208 may be trained with the correct answer being to output a map having such a distribution of pixel values. That is, the loss evaluation value based on the above variance is calculated from the ID map obtained by inputting the two image data for learning into the CNN, and the error back propagation using this loss evaluation value is performed. , Can do learning. Further, when an ID value is given in advance for each object in the learning data, learning using a map may be performed. That is, the CNN used by the ID estimation unit 208 may be learned using an ID map showing the ID value of the object at each position of the image data as the correct answer data. In this case, learning can be performed by performing error back propagation using, for example, an cross entropy error based on the output and the correct answer data so that the correct answer data can be output when two image data are input.

IDマップについて、判定部209はステップS307で、両画像における対象物一組について、各検出位置上の画素値を取得することができる。判定部209は、取得した領域上の画素値を取得してもよい。判定部209は、取得された各画素値の差を算出する。判定部209は、算出した差に基づいてマッチングに用いるスコアを取得することができるが、詳細はステップS702において後述する。さらに判定部209は、ステップS309において、ステップS308で記録されたスコアを用いて、上述のようにマッチングを行う。 Regarding the ID map, the determination unit 209 can acquire the pixel value on each detection position for one set of objects in both images in step S307. The determination unit 209 may acquire the pixel value on the acquired area. The determination unit 209 calculates the difference between the acquired pixel values. The determination unit 209 can acquire a score to be used for matching based on the calculated difference, and the details will be described later in step S702. Further, in step S309, the determination unit 209 performs matching as described above using the score recorded in step S308.

図7は本実施形態に係るIDマップを用いた画像処理における処理手順の一例を示すフローチャートである。ステップS401〜S404、及びステップS407における処理は図4のものと同様であり、重複する説明は省略する。ステップS403、S404及びS701、並びにステップS702は、図3におけるS307、及びステップS308にそれぞれ相当する。ステップS701において判定部209は、ステップS403で選択された検出位置上の、IDマップでの画素を参照し、その画素値を取得する。そのような処理について、図8、及び図9(d)を用いて説明する。図8(a)及び図8(b)については上述した通りである。 FIG. 7 is a flowchart showing an example of a processing procedure in image processing using the ID map according to the present embodiment. The processes in steps S401 to S404 and steps S407 are the same as those in FIG. 4, and redundant description will be omitted. Steps S403, S404 and S701, and step S702 correspond to S307 and step S308 in FIG. 3, respectively. In step S701, the determination unit 209 refers to the pixel in the ID map on the detection position selected in step S403 and acquires the pixel value. Such processing will be described with reference to FIGS. 8 and 9 (d). 8 (a) and 8 (b) are as described above.

この場合においては、ID推定部208は、首位置801及び802にそれぞれマッチングする対象物の検出位置上の領域と、その領域以外の領域と、で異なる画素値を有するマップを生成している。ID推定部208は、理想的には、首位置801と802に対応する領域に、同じ値のID値を出力するようにIDマップを生成する。図9(d)はそのように生成されたIDマップを示す図であり、首位置801と802の位置にそれぞれ対応する領域904及び905の画素に、同じ値(この例では同じハッチングで表されている)が出力されている。図9(d)においては一人の人物に関するIDマップが出力されている例が示されているが、特にそのように限定されるわけではない。例えば、複数の人物が撮像画像内に撮像されている場合、その人数に応じて、IDマップ上には、同一人物についてなるべく同じ値が出力されるように、各人物に対応する位置にID値が出力される。 In this case, the ID estimation unit 208 generates a map having different pixel values in the region on the detection position of the object matching the neck positions 801 and 802, respectively, and the region other than the region. Ideally, the ID estimation unit 208 generates an ID map so as to output an ID value of the same value in the area corresponding to the neck positions 801 and 802. FIG. 9D is a diagram showing the ID map generated in this way, and the same values (in this example, the same hatching) are represented in the pixels of the regions 904 and 905 corresponding to the positions of the neck positions 801 and 802, respectively. Is being output. FIG. 9D shows an example in which an ID map relating to one person is output, but the present invention is not particularly limited to that. For example, when a plurality of people are captured in a captured image, the ID value is set at a position corresponding to each person so that the same value is output as much as possible for the same person on the ID map according to the number of people. Is output.

また、IDマップにおいて、ID値は上記のように検出位置に対応する領域内の画素に出力されてもよいし、検出位置に関連する他の画素に出力されてもよい。例えば、ID値は、検出位置に対応するマップ上の座標を中心とする局所領域内の画素に出力されてもよい。また、ID推定部208は、マッチングする対象物の検出位置に対応する位置を結ぶ線分上の画素値が等しくなるように、IDマップを生成してもよい。この場合、マッチングする対象物の検出位置を結ぶ線分上の領域の画素値の分散が小さくなり、対応する対象物の検出位置を結ぶ線分の画素値の平均と対応しない検出位置を結ぶ線分の画素値の平均との分散が大きくなるように、IDマップを生成することができる。このように、IDマップにおいてID値が出力される範囲を広げることにより、例えば検出部202による検出位置にずれが生じてしまった場合においても、正しいID値を参照しやすくなる。 Further, in the ID map, the ID value may be output to the pixels in the region corresponding to the detection position as described above, or may be output to other pixels related to the detection position. For example, the ID value may be output to pixels in a local region centered on the coordinates on the map corresponding to the detection position. Further, the ID estimation unit 208 may generate an ID map so that the pixel values on the line segment connecting the positions corresponding to the detection positions of the matching objects are equal. In this case, the variance of the pixel values in the area on the line segment connecting the detection positions of the matching objects becomes small, and the line connecting the average of the pixel values of the line segments connecting the detection positions of the corresponding objects and the uncorresponding detection positions. The ID map can be generated so that the variance with the average of the pixel values of the line segments becomes large. By expanding the range in which the ID value is output in the ID map in this way, it becomes easier to refer to the correct ID value even when the detection position by the detection unit 202 is deviated, for example.

判定部209は、時刻t及び時刻t+Δtにおける対象物をそれぞれ一つずつ選択し、選択した対象物の検出位置(例えば関節位置)について、IDマップでの各検出位置の座標上の画素値を取得することができる。このような構成によれば、後述のステップS702において、マッチングする対象物の検出位置上の画素値の差の絶対値が0に近くなり、マッチングしない対象物について同様の計算を行った絶対値は0から離れやすくなる。 The determination unit 209 selects one object at time t and one object at time t + Δt, and acquires pixel values on the coordinates of each detection position on the ID map for the detection position (for example, joint position) of the selected object. can do. According to such a configuration, in step S702 described later, the absolute value of the difference between the pixel values on the detection position of the matching object becomes close to 0, and the absolute value obtained by performing the same calculation for the unmatched object is It becomes easy to move away from 0.

ステップS702において判定部209は、ステップS701で取得された各値の差を算出する。次いで、判定部209は、算出した差の値に基づいてマッチングに用いるスコアを取得することができる。スコアの取得方法は特に限定されない。上述のように算出された差は、その値が小さいほどその対象物が同一である可能性が高くなるであろうことを鑑みて、判定部209は、そのような算出された値が小さくなるほどスコアが高くなるような変換によって、スコアを取得してもよい。そのような変換の方法については、ステップS603におけるものと同様に行うことができるため、重複する説明は省略する。本実施形態においては、IDマップを用いたスコアを0〜1の範囲で算出するが、その範囲は、他のマップにおけるスコアの算出方法に応じて適宜調整されてもよい。次いで、判定部209は、ここで算出されたスコア、及び検出位置の組み合わせを記憶装置に格納し、ステップS403に移動する。 In step S702, the determination unit 209 calculates the difference between the values acquired in step S701. Next, the determination unit 209 can acquire a score to be used for matching based on the calculated difference value. The method of obtaining the score is not particularly limited. Considering that the smaller the value of the difference calculated as described above is, the more likely it is that the object is the same, the determination unit 209 determines that the smaller the calculated value is, the more likely it is that the object is the same. The score may be obtained by a conversion that increases the score. Since the method of such conversion can be performed in the same manner as that in step S603, duplicate description will be omitted. In the present embodiment, the score using the ID map is calculated in the range of 0 to 1, but the range may be appropriately adjusted according to the score calculation method in other maps. Next, the determination unit 209 stores the combination of the score calculated here and the detection position in the storage device, and moves to step S403.

また、ID推定部208は、各画素が1次元のスカラー値を有するIDマップの代わりに、各画素がK次元のベクトル値を有するIDマップを生成してもよい。この場合、判定部209は、ステップS701において、一組の対象物の組み合わせについて、K枚のマップにおいて同位置で参照されるK個の画素値をそれぞれ要素として有するK次元のベクトル値を、各対象物の検出位置それぞれにおいて取得することができる。次いで判定部209は、S702において、そのようなK次元のベクトルを用いることにより、マッチングのスコアを算出してもよい。判定部209は、一組の対象物のスコアとして、例えば、そのようなK次元のベクトル値同士を用いたコサイン類似度を算出してもよい。スコアをコサイン類似度として算出することにより、スコアの範囲が0〜1となり、及び1に近いほどその対象物が対応している可能性が高くなることから、各マップにおけるスコアとの統合を行いやすくすることができる。このように、生成部204が、複数枚で1つの関連マップを表す複数のマップを生成することにより、関連マップの表現力を向上させることができる。 Further, the ID estimation unit 208 may generate an ID map in which each pixel has a K-dimensional vector value instead of the ID map in which each pixel has a one-dimensional scalar value. In this case, in step S701, the determination unit 209 sets a K-dimensional vector value having K pixel values referenced at the same position on the K map as elements for each combination of objects. It can be acquired at each detection position of the object. The determination unit 209 may then calculate the matching score in S702 by using such a K-dimensional vector. The determination unit 209 may calculate, for example, the cosine similarity using such K-dimensional vector values as the score of a set of objects. By calculating the score as the cosine similarity, the range of the score becomes 0 to 1, and the closer it is to 1, the higher the possibility that the object corresponds, so integration with the score in each map is performed. Can be made easier. In this way, the generation unit 204 can improve the expressive power of the relational map by generating a plurality of maps representing one relational map with a plurality of sheets.

また、本実施形態に係る画像処理装置は、任意の時刻における検出CNNによる出力、すなわち、画像からの対象物の検出結果及び画像の中間特徴を、記憶装置内に格納することができる。例えば、時刻tにおける検出CNNによる出力を、記憶装置内に格納しておくことができる。この記憶装置は外部記憶装置104であってもよく、又は無線の通信を介して接続される記憶装置であってもよい。そのような場合において、検出部202は、時刻t+Δtにおいて新たに取得された画像から、対象物の検出結果及び画像の中間特徴を生成することができる。次いで、統合部203、生成部204、及び判定部209は、時刻t+Δtの画像についての検出結果及び中間特徴に加えて、格納されている時刻tの画像についての検出結果及び中間特徴を用いて、マッチングを行うことができる。このように、図3に示すように2枚の画像を取得してから処理を始める代わりに、画像を1枚ずつ逐次的に取得しながらリアルタイムに処理を行うことができる。また、このような構成によれば、1回のマッチング処理において検出部202は1枚の画像に対する処理を行えばよいため、効率的な処理が実現できる。なお、マッチング処理後には、時刻t+Δtの画像についての検出結果及び中間特徴で、記憶装置内の時刻tの画像についての検出結果及び中間特徴を上書きしてもよい。このように、本実施形態に係る画像処理装置は、逐次的に画像を取得しながら処理を行ってもよい一方で、予め取得された2時刻の画像を用いて処理を行ってもよい。 Further, the image processing device according to the present embodiment can store the output by the detection CNN at an arbitrary time, that is, the detection result of the object from the image and the intermediate feature of the image in the storage device. For example, the output by the detection CNN at time t can be stored in the storage device. This storage device may be an external storage device 104, or may be a storage device connected via wireless communication. In such a case, the detection unit 202 can generate the detection result of the object and the intermediate feature of the image from the image newly acquired at the time t + Δt. Next, the integration unit 203, the generation unit 204, and the determination unit 209 use the detection result and the intermediate feature for the stored time t image in addition to the detection result and the intermediate feature for the image at time t + Δt. Matching can be done. As described above, instead of starting the processing after acquiring two images as shown in FIG. 3, it is possible to perform the processing in real time while sequentially acquiring the images one by one. Further, according to such a configuration, since the detection unit 202 may perform processing on one image in one matching process, efficient processing can be realized. After the matching process, the detection result and the intermediate feature for the image at time t + Δt may overwrite the detection result and the intermediate feature for the image at time t in the storage device. As described above, the image processing apparatus according to the present embodiment may perform processing while sequentially acquiring images, while processing may be performed using images at two hours acquired in advance.

また、本実施形態に係る画像処理装置は、時間的に連続した2画像のマッチングを行うことにより空間的な連続性も捉えているという観点から、例えばステレオマッチングなどを行うことができる。 Further, the image processing apparatus according to the present embodiment can perform, for example, stereo matching from the viewpoint of capturing spatial continuity by matching two images that are continuous in time.

さらに、各マップが正しく処理を行うことができているかどうかを確認しやすくするという観点から、出力デバイス110は、マップと、両時刻における画像と、を重畳表示してもよい。図11は、そのような重畳表示を行うモニタの例を示している。図11(a)は、図9(a)上に、図8(a)及び図8(b)の対象物を重畳表示したものである。つまり、線分マップと、その対象物と、を重畳表示したものである。図11(b)、図11(c)、図11(d)は、それぞれ図9(b)、図9(c)、図9(d)に対して、図11(a)と同様に対応している。図11(a)〜(d)はそれぞれ別に表示されてもよく、これらがさらに重畳して表示されてもよい。このような表示によれば、マップ上において、画像間のマッチングする対象物の検出位置を結ぶ線分上の領域が正しく出力されているか否かの確認が容易となる。つまり、適切なマップが生成されているかが容易に確認できる。したがって、生成CNNの学習用データが正しく作られているかを確認したい場合において、画像処理の実行時の動作確認に加えて視覚的に確認することができ、そのような確認の効率を向上させた画像処理装置を得ることができる。 Further, from the viewpoint of making it easy to confirm whether or not each map is correctly processed, the output device 110 may superimpose and display the map and the images at both times. FIG. 11 shows an example of a monitor that performs such superimposed display. 11 (a) is a superimposed display of the objects of FIGS. 8 (a) and 8 (b) on FIG. 9 (a). That is, the line segment map and its object are superimposed and displayed. 11 (b), 11 (c), and 11 (d) correspond to FIGS. 9 (b), 9 (c), and 9 (d) in the same manner as in FIG. 11 (a), respectively. doing. 11 (a) to 11 (d) may be displayed separately, or these may be further superimposed and displayed. With such a display, it becomes easy to confirm whether or not the area on the line segment connecting the detection positions of the matching objects between the images is correctly output on the map. In other words, it is easy to check whether an appropriate map has been generated. Therefore, when it is desired to confirm whether the training data of the generated CNN is correctly created, it can be visually confirmed in addition to the operation confirmation at the time of executing the image processing, and the efficiency of such confirmation has been improved. An image processing device can be obtained.

別の例として、異なる時刻における画像を重畳表示する代わりに、異なる時刻における画像を動画様に連続表示してもよい。この場合、例えば、時刻tにおける画像にこの画像からの対象物の検出結果(例えば図8(a))を重畳し、また、時刻t+Δtにおける画像にこの画像からの対象物の検出結果(例えば図8(b))を重畳してもよい。 As another example, instead of superimposing and displaying images at different times, images at different times may be continuously displayed like a moving image. In this case, for example, the detection result of the object from this image (for example, FIG. 8A) is superimposed on the image at time t, and the detection result of the object from this image (for example, FIG. 8) is superimposed on the image at time t + Δt. 8 (b)) may be superimposed.

なお、上述のように複数のマップを考慮したマッチング判定を行うことにより、例えば一つのマップにおいてマッチングの精度が悪い場合においても、より正確にマッチング対象を行うことができる。例えば同時刻における対象物同士が近く、線分マップ上のマッチングする対象物の検出位置を結ぶ線分同士が繋がってしまうような場合であっても、検出位置の中間点を参照するマッチングと併用することにより、より正確にマッチング対象を特定することができる。また、距離マップを、特に中間点マップ又は線分マップと併用することで、距離マップで参照された中間点位置が、中間点マップが示す中間点位置と合致するか、又は線分マップで示す線分に含まれるかを確認することができる。このような条件を満たし、かつ距離マップで参照された中間点位置に出力された画素値から算出される線分距離が正しいかどうかを判定することにより、より正確にマッチング対象を特定することができる。例えば、距離マップにおいて、ある別の人物の検出位置の組み合わせの中間点位置に、この組み合わせの線分距離に近い値がたまたま出力されていたとしても、中間点マップの対応する位置の値が小さければ、この組み合わせは正しくないことがわかる。このように、マップを相互に組み合わせて利用することで、マッチング精度の向上が期待できる。 By performing the matching determination in consideration of a plurality of maps as described above, the matching target can be performed more accurately even when the matching accuracy is poor in, for example, one map. For example, even if the objects at the same time are close to each other and the line segments connecting the detection positions of the matching objects on the line segment map are connected, it is used together with matching that refers to the intermediate point of the detection position. By doing so, the matching target can be specified more accurately. In addition, by using the distance map in combination with the midpoint map or the line segment map, the midpoint position referenced in the distance map matches the midpoint position indicated by the midpoint map, or is indicated by the line segment map. You can check if it is included in the line segment. By satisfying these conditions and determining whether the line segment distance calculated from the pixel value output at the midpoint position referenced in the distance map is correct, it is possible to more accurately identify the matching target. it can. For example, in a distance map, even if a value close to the line segment distance of this combination happens to be output at the midpoint position of a combination of detection positions of another person, the value of the corresponding position of the midpoint map is small. For example, it turns out that this combination is incorrect. In this way, by using maps in combination with each other, improvement in matching accuracy can be expected.

このような構成によれば、複数の撮像画像間における対象物の対応関係を示すマップを生成し、そのようなマップに基づいて対象物のマッチングを行うことにより、処理コストが低減された画像間マッチングを行う画像処理装置を得ることができる。 According to such a configuration, a map showing the correspondence between a plurality of captured images of an object is generated, and matching of the objects is performed based on such a map, so that the processing cost is reduced between the images. An image processing device for matching can be obtained.

[実施形態2]
実施形態2に係る画像処理装置は、時刻t及び時刻t+Δtにおける2画像、並びにその2時刻間の時刻における画像(以下、中間画像)から、時刻t及び時刻t+Δtの撮像画像間で検出された対象物をマッチングさせる。そのような処理のために、実施形態2に係る画像処理装置は、画像取得部1002、抽出部1003を有することを除き実施形態1と同様の構成を有し、重複する説明は省略する。
[Embodiment 2]
The image processing apparatus according to the second embodiment is an object detected between two images at time t and time t + Δt, and an image at a time between the two times (hereinafter, an intermediate image) between captured images at time t and time t + Δt. Match things. For such processing, the image processing apparatus according to the second embodiment has the same configuration as that of the first embodiment except that it has the image acquisition unit 1002 and the extraction unit 1003, and redundant description will be omitted.

図10は、実施形態2に係る画像処理装置の機能構成の一例を示すブロック図である。画像取得部1002は、本実施形態における画像処理装置への入力となる、画像210と画像211との間の時刻における中間画像を、カメラ112から取得する。画像取得部1002が取得する画像の数は特に限定されない。抽出部1003は、中間画像から、対象物のマッチングの補助に用いる特徴量を抽出し、及び、統合部203へと出力することができる。そのために抽出部1003が抽出する特徴量は、マッチングの補助になるのであれば特に限定されない。例えば、抽出部1003は、CNNとして検出部202と同様の検出CNNを有し、検出部202による検出と同様の検出過程からの中間特徴を出力してもよい。また、抽出部1003は、検出CNNより軽量の所定のCNNを有していてもよい。 FIG. 10 is a block diagram showing an example of the functional configuration of the image processing apparatus according to the second embodiment. The image acquisition unit 1002 acquires an intermediate image at the time between the image 210 and the image 211, which is an input to the image processing device in the present embodiment, from the camera 112. The number of images acquired by the image acquisition unit 1002 is not particularly limited. The extraction unit 1003 can extract the feature amount used for assisting the matching of the object from the intermediate image and output it to the integration unit 203. Therefore, the feature amount extracted by the extraction unit 1003 is not particularly limited as long as it assists in matching. For example, the extraction unit 1003 may have a detection CNN similar to that of the detection unit 202 as a CNN, and may output an intermediate feature from the detection process similar to the detection by the detection unit 202. Further, the extraction unit 1003 may have a predetermined CNN that is lighter than the detection CNN.

統合部203は、各画像から取得される特徴量を統合する。この例においては、統合部203は、時刻t及び時刻t+Δtにおける各画像から検出CNNによって出力された特徴量と、中間画像から出力された特徴量と、を結合することができる。次いで生成部204は、統合部203が結合した特徴量から、時刻t及び時刻t+Δtにおける画像間の対象物の対応関係を示すマップを生成する。そのために、各推定部の有する生成CNNは、検出CNNからの中間特徴量と、抽出部1003による出力とに基づく学習を行うことができる。そのような学習は、抽出部1003による出力を入力に含むことを除き実施形態1の各推定部と同様に行うことができる。 The integration unit 203 integrates the feature quantities acquired from each image. In this example, the integration unit 203 can combine the feature amount output by the detection CNN from each image at time t and time t + Δt and the feature amount output from the intermediate image. Next, the generation unit 204 generates a map showing the correspondence between the images at the time t and the time t + Δt from the feature amount combined with the integration unit 203. Therefore, the generated CNN possessed by each estimation unit can perform learning based on the intermediate feature amount from the detected CNN and the output by the extraction unit 1003. Such learning can be performed in the same manner as each estimation unit of the first embodiment except that the output from the extraction unit 1003 is included in the input.

このような構成によれば、時刻t及び時刻t+Δtにおける特徴量だけではなく、それの時刻の中間の特徴量を入力することにより、両時刻間の対象物の検出位置などの情報を得られるようになる。したがって、各マップにおいて、検出位置間の線分及びそのような線分の中間点の位置を推定しやすくなる。 According to such a configuration, by inputting not only the feature amount at the time t and the time t + Δt but also the feature amount in the middle of the time, information such as the detection position of the object between the two times can be obtained. become. Therefore, in each map, it becomes easy to estimate the positions of the line segments between the detection positions and the intermediate points of such line segments.

[実施形態3]
実施形態3に係る画像処理装置は、複数のカメラから撮影された画像から生成されたマップに基づいて、各画像においてにおいてそれぞれ検出された対象物をマッチングさせる。そのような処理のために、実施形態3に係る画像処理装置は、カメラ1202及びカメラ1203を有することを除き実施形態1と同様の構成を有し、重複する説明は省略する。
[Embodiment 3]
The image processing apparatus according to the third embodiment matches the objects detected in each image based on the maps generated from the images taken by a plurality of cameras. For such processing, the image processing apparatus according to the third embodiment has the same configuration as that of the first embodiment except that it has the camera 1202 and the camera 1203, and duplicate description will be omitted.

図12は、2台のカメラ1202及び1203が、別の角度から車1201を撮影する例を示す俯瞰図である。図12の例においては、画像取得部201は、2台のカメラ1202及び1203が撮影した画像をそれぞれ取得する。画像取得部201は、2台のカメラ1202及び1203が同時刻に撮影した画像をそれぞれ取得してもよく、またはカメラ間で所定のフレーム間隔を有する画像を取得してもよい。図13(a)はカメラ1202が撮像した画像であり、図13(b)はカメラ1203が撮像した画像である。 FIG. 12 is a bird's-eye view showing an example in which two cameras 1202 and 1203 take pictures of the car 1201 from different angles. In the example of FIG. 12, the image acquisition unit 201 acquires images taken by the two cameras 1202 and 1203, respectively. The image acquisition unit 201 may acquire images taken by the two cameras 1202 and 1203 at the same time, respectively, or may acquire images having a predetermined frame interval between the cameras. FIG. 13 (a) is an image captured by the camera 1202, and FIG. 13 (b) is an image captured by the camera 1203.

検出部202は、画像取得部201が取得した各画像から対象物となる特定の物体を検出する。この例においては説明のため、検出CNNは、車のおおよその中心位置を検出するように学習されているとするが、検出CNNの学習方法は特に限定されない。検出CNNは、例えば、車体の特定の部位を検出するように学習されていてもよい。1301及び1302は、各画像における、検出CNNによって検出された車1201のおおよその中心位置を示している。また、この例においては検出CNNは車を検出しているが、検出の対象は特にそれには限定されない。例えば、検出CNNは、実施形態1の例と同様に人物を検出してもよい。つまり、多方向から撮像された画像から、対応する人物の同一の部位を検出してもよい。 The detection unit 202 detects a specific object as an object from each image acquired by the image acquisition unit 201. In this example, for the sake of explanation, it is assumed that the detection CNN is learned to detect the approximate center position of the vehicle, but the learning method of the detection CNN is not particularly limited. The detection CNN may be learned to detect a specific part of the vehicle body, for example. 1301 and 1302 indicate the approximate center position of the vehicle 1201 detected by the detection CNN in each image. Further, in this example, the detection CNN detects a car, but the detection target is not particularly limited to that. For example, the detection CNN may detect a person as in the example of the first embodiment. That is, the same part of the corresponding person may be detected from the images captured from multiple directions.

統合部203は、実施形態1と同様に、各画像から取得される特徴量を結合する。生成部204は、実施形態1と同様に、結合された特徴量に基づいて、画像間における対象物の対応関係を示すマップを生成する。つまり、各推定部が有する生成CNNは、上述のような複数のカメラによって撮像された画像の特徴量を入力として、実施形態1と同様のマップを生成するように学習されている。図14は、そのようにして生成された線分マップの一例を示している。 Similar to the first embodiment, the integration unit 203 combines the feature amounts acquired from each image. Similar to the first embodiment, the generation unit 204 generates a map showing the correspondence between the images based on the combined features. That is, the generated CNNs possessed by each estimation unit are learned to generate the same map as in the first embodiment by inputting the feature amounts of the images captured by the plurality of cameras as described above. FIG. 14 shows an example of the line segment map thus generated.

このような構成によれば、複数のカメラから撮像された画像を入力された場合においても、それらの画像においてそれぞれ検出された対象物をマッチングさせる画像処理装置を得ることができる。 According to such a configuration, even when images captured by a plurality of cameras are input, it is possible to obtain an image processing device that matches the objects detected in each of the images.

[実施形態4]
実施形態4に係る画像処理装置の有する検出CNNは、画像から対象物を検出し、及び、検出した対象物をそれぞれ識別するようなタスクを行えるように学習されている。つまり、実施形態4に係る画像処理装置は、その点を除き実施形態1と同様の構成を有し、重複する説明は省略する。
[Embodiment 4]
The detection CNN included in the image processing apparatus according to the fourth embodiment is learned so as to perform a task of detecting an object from an image and identifying each of the detected objects. That is, the image processing apparatus according to the fourth embodiment has the same configuration as that of the first embodiment except for that point, and redundant description will be omitted.

実施形態4に係る検出CNNは、例えば、人物を検出する場合において、検出した各関節(首、肩及び肘など)を人物ごとに区別できるように、各関節の検出位置に人物固有の識別情報をそれぞれ出力するように学習されていてもよい。そのような場合、ID推定部208は、そのような検出CNNから出力された中間特徴量に基づいてIDマップを作成し、及び、実施形態1と同様の処理を行うことができる。実施形態4に係る検出CNNの学習方法は特に限定されない。検出CNNは、例えば、非特許文献2に示される方法で学習が行われていてもよい。このように、検出した各関節が同一人物か他人かを区別するタスクを含むように検出CNNの学習を行うことで、検出CNNが出力する中間特徴に、エッジ情報及び色情報のような、対象物の区別のために重要な情報がより多く含まれるようになることが期待される。このため、このような中間特徴を用いて行われるマッチングの精度も向上することが期待できる。 The detection CNN according to the fourth embodiment has, for example, when detecting a person, identification information unique to the person at the detection position of each joint so that each detected joint (neck, shoulder, elbow, etc.) can be distinguished for each person. May be trained to output each. In such a case, the ID estimation unit 208 can create an ID map based on the intermediate feature amount output from such a detection CNN, and can perform the same processing as in the first embodiment. The learning method of the detection CNN according to the fourth embodiment is not particularly limited. The detection CNN may be learned by, for example, the method shown in Non-Patent Document 2. In this way, by learning the detection CNN so that each detected joint includes a task of distinguishing whether it is the same person or another person, the intermediate features output by the detection CNN include objects such as edge information and color information. It is expected that more important information will be included to distinguish things. Therefore, it can be expected that the accuracy of matching performed using such an intermediate feature will be improved.

また、実施形態1におけるID推定部208は、対象物を識別するタスクを行うように学習されているといえる。したがって、IDマップを生成する処理について、実施形態4に係る検出CNNからID推定部208の生成CNNまでを一つのネットワークとして構成してもよい。この場合、生成CNNの学習タスクのLossを検出CNNまで逆伝播させるようにすることにより、対象物のIDの推測に有効な情報を、検出CNNが出力する中間特徴量に反映させるように、end−to−endで学習が行われてもよい。 Further, it can be said that the ID estimation unit 208 in the first embodiment is learned to perform the task of identifying the object. Therefore, regarding the process of generating the ID map, the detection CNN according to the fourth embodiment to the generation CNN of the ID estimation unit 208 may be configured as one network. In this case, by back-propagating the Loss of the learning task of the generated CNN to the detected CNN, the information useful for estimating the ID of the object is reflected in the intermediate feature amount output by the detected CNN. Learning may be performed by −to-end.

実施形態4に係るID推定部208は、対象物のID値を、所定の期間保持しておくことができる。例えば、一度マッチングされた対象物が次の時刻の処理でマッチングできなかった場合において、ID推定部208は、その対象物のID値を記憶装置に格納しておくことができる。また、ID推定部208は、そのような対象物のID値を所定の期間記憶装置に格納しておくことができる。次いで、ID推定部208は、格納されているID値と等しいID値を有するマッチング可能な組み合わせが検出された場合において、格納されていたID値に基づいてマッチングを行うことができる。この記憶装置は外部記憶装置104であってもよく、又は無線の通信を介して接続される記憶装置であってもよい。このような処理によれば、隠れるなどして一時的にマッチングが途切れた対象物について、再度マッチングを再開することができる。 The ID estimation unit 208 according to the fourth embodiment can hold the ID value of the object for a predetermined period of time. For example, when an object that has been matched once cannot be matched in the processing at the next time, the ID estimation unit 208 can store the ID value of the object in the storage device. Further, the ID estimation unit 208 can store the ID value of such an object in the storage device for a predetermined period. Next, the ID estimation unit 208 can perform matching based on the stored ID value when a matchable combination having an ID value equal to the stored ID value is detected. This storage device may be an external storage device 104, or may be a storage device connected via wireless communication. According to such a process, the matching can be restarted again for the object whose matching is temporarily interrupted due to hiding or the like.

[実施形態5]
本実施形態に係る画像処理装置は、3以上の時刻における各撮像画像において検出された対象物について、そのような撮像画像間それぞれの対象物の対応関係を示すマップを生成する。次いで、生成された複数のマップに基づいて、複数の撮像画像においてそれぞれ検出された対象物をマッチングさせる。そのような処理のために、本実施形態に係る画像処理装置は、実施形態1と同様の構成を有するため、重複する説明は省略する。つまり、画像取得部201が3以上の時刻における画像をそれぞれ取得し、それらの3以上の画像から選択された画像の組み合わせそれぞれについて実施形態1と同様の処理を行うことを除き、実施形態1と同様の処理を行うことができる。また、そのような処理のために、本実施形態に係る画像処理装置の有する記憶装置は、過去の時刻の画像から取得された特徴量を格納しておくことができる。ここで記憶装置が格納する特徴量の時刻の数は特に限定されない。記憶装置は、例えば、所定の数の時刻の特徴量を格納し、及び、新たな時刻の特徴量を格納するたびに、記憶装置がその時点で有する最も古い特徴量を削除してもよい。この記憶装置は外部記憶装置104であってもよく、又は無線の通信を介して接続される記憶装置であってもよい。
[Embodiment 5]
The image processing apparatus according to the present embodiment generates a map showing the correspondence between the captured images and the objects detected in each captured image at three or more times. Then, based on the generated plurality of maps, the objects detected in the plurality of captured images are matched. For such processing, the image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment, and thus the duplicate description will be omitted. That is, the image acquisition unit 201 acquires images at three or more times, and performs the same processing as in the first embodiment for each combination of images selected from the three or more images. Similar processing can be performed. Further, for such processing, the storage device included in the image processing device according to the present embodiment can store the feature amount acquired from the image at the past time. Here, the number of feature quantities stored in the storage device is not particularly limited. The storage device may store, for example, a predetermined number of time features, and each time a new time feature is stored, the storage device may delete the oldest feature that the storage device has at that time. This storage device may be an external storage device 104, or may be a storage device connected via wireless communication.

本実施形態に係る統合部203は、3以上の時刻における画像について、その内の二つの組み合わせ全てに対して実施形態1と同様の処理を行うことができるが、統合部203の処理は特にそのように限定されるわけではない。例えば、統合部203は、3以上の時刻における画像に基づいた中間特徴量を統合してもよい。そのような場合、生成部204における各推定部が有する生成CNNは、統合された3以上の時刻における中間特徴量から、それらの画像間における対象物の対応関係を示すマップを生成することができる。つまり、そのように学習を行うことができる。各生成CNNの学習の方法は特に限定されないが、実施形態1と同様に行ってもよい。 The integrated unit 203 according to the present embodiment can perform the same processing as that of the first embodiment for all two combinations of images at three or more times, but the processing of the integrated unit 203 is particularly the same. It is not limited to. For example, the integration unit 203 may integrate image-based intermediate features at three or more times. In such a case, the generated CNN of each estimation unit in the generation unit 204 can generate a map showing the correspondence between the images of the objects from the intermediate feature quantities at the integrated three or more times. .. That is, learning can be performed in that way. The method of learning each generated CNN is not particularly limited, but may be performed in the same manner as in the first embodiment.

図15は、実施形態5に係る画像処理装置によるマッチング処理を説明するための例である。1501、1502、及び1503は、それぞれ時刻t、時刻t+Δt、時刻t+2×Δtにおける対応する人物である。また、1504は遮蔽物であり、及び、この例における画像中では、1502を隠している。このような場合、本実施形態に係る画像処理装置は、1501及び1503のマッチングを行うことができる。つまり、例えば、隠れなどの阻害要因によって所定の間隔Δtでの逐次的なマッチングが難しい場合においても、所定の間隔2×Δtでの画像処理を行うことにより、マッチングする対象物の対応付けを行うことができる。そのようなマッチングは、上述のように時刻t及び時刻t+2×Δtにおいて取得された画像に基づいて行われてもよく、時刻t、時刻t+Δt、及び時刻t+2×Δtの特徴量を統合した特徴量に基づいて行われてもよい。 FIG. 15 is an example for explaining the matching process by the image processing apparatus according to the fifth embodiment. 1501, 1502, and 1503 are corresponding persons at time t, time t + Δt, and time t + 2 × Δt, respectively. Also, 1504 is a shield, and 1502 is hidden in the image in this example. In such a case, the image processing apparatus according to the present embodiment can perform matching of 1501 and 1503. That is, for example, even when sequential matching at a predetermined interval Δt is difficult due to an obstructive factor such as hiding, matching objects are associated by performing image processing at a predetermined interval 2 × Δt. be able to. Such matching may be performed based on the images acquired at time t and time t + 2 × Δt as described above, and the feature quantity that integrates the feature quantities of time t, time t + Δt, and time t + 2 × Δt. It may be done based on.

このような構成によれば、例えば映像などで持続的に人物の追尾を行いたい場合に、追尾途中に人物のマッチングが途切れてしまう問題が抑制できるようになる。例えば、3frame中の1つで隠れが生じる場合(図15の1502)、残りの2frame(時刻と時刻t+2×Δt)のマッチングをすることで、隠れているところを飛ばした追尾が可能となる。 According to such a configuration, when it is desired to continuously track a person, for example, in a video, the problem that the matching of the person is interrupted during the tracking can be suppressed. For example, when hiding occurs in one of the 3 frames (1502 in FIG. 15), matching of the remaining 2 frames (time and time t + 2 × Δt) enables tracking in which the hidden part is skipped.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。したがって、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

201:画像取得部、202:検出部、203:統合部、204:生成部、205:成分推定部、206:中間点推定部、207:距離推定部、208:ID推定部、209:判定部 201: Image acquisition unit, 202: Detection unit, 203: Integration unit, 204: Generation unit, 205: Component estimation unit, 206: Midpoint estimation unit, 207: Distance estimation unit, 208: ID estimation unit, 209: Judgment unit

Claims (20)

撮像画像から対象物を検出する検出手段と、
複数の撮像画像においてそれぞれ検出された対象物間の対応関係を示すマップを生成する生成手段と、
生成された前記マップに基づいて前記複数の撮像画像においてそれぞれ検出された対象物をマッチングさせる判定手段と、
を備えることを特徴とする、画像処理装置。
A detection means that detects an object from a captured image,
A generation means for generating a map showing the correspondence between the objects detected in each of a plurality of captured images, and a generation means.
A determination means for matching objects detected in the plurality of captured images based on the generated map, and
An image processing apparatus comprising.
前記マップは、前記対象物のそれぞれの検出位置に応じて定まる所定の位置に、前記対象物間の対応を示す情報を有していることを特徴とする、請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the map has information indicating correspondence between the objects at predetermined positions determined according to the respective detection positions of the objects. .. 前記判定手段は、前記対象物のそれぞれの検出位置に応じて定まる、前記マップの前記所定の位置を参照して、前記対象物をマッチングさせるかどうかを判定することを特徴とする、請求項2に記載の画像処理装置。 2. The determination means is characterized in that it determines whether or not to match the objects with reference to the predetermined positions on the map, which are determined according to the respective detection positions of the objects. The image processing apparatus according to. 前記マップは、前記所定の位置とその他の位置とにおいて異なる画素値を有することを特徴とする、請求項2又は3に記載の画像処理装置。 The image processing apparatus according to claim 2 or 3, wherein the map has different pixel values at the predetermined position and other positions. 前記判定手段は、前記対象物の検出位置の座標を前記マップ上の座標に変換して得られる座標に基づいて定められる前記所定の位置を参照することを特徴とする、請求項2乃至4の何れか一項に記載の画像処理装置。 The determination means according to claim 2 to 4, wherein the determination means refers to the predetermined position determined based on the coordinates obtained by converting the coordinates of the detection position of the object into the coordinates on the map. The image processing apparatus according to any one of the items. 前記マップは、互いに対応すると推定される前記対象物の検出位置にそれぞれ対応する、前記マップ上の位置の間の線分又は前記位置の中間点を示すことを特徴とする、請求項2乃至5の何れか一項に記載の画像処理装置。 Claims 2 to 5, wherein the map indicates a line segment between positions on the map or an intermediate point between the positions corresponding to the detection positions of the objects presumed to correspond to each other. The image processing apparatus according to any one of the above. 前記マップは、前記所定の位置に、互いに対応すると推定される前記対象物の検出位置にそれぞれ対応する、前記マップ上の位置の間の距離を示す情報を有していることを特徴とする、請求項2乃至6の何れか一項に記載の画像処理装置。 The map is characterized by having information indicating the distance between the positions on the map corresponding to the detection positions of the objects presumed to correspond to each other at the predetermined positions. The image processing apparatus according to any one of claims 2 to 6. 前記マップは、互いに対応すると推定される前記対象物のそれぞれの検出位置に、同じ対象物を示す識別情報を有していることを特徴とする、請求項2乃至7の何れか一項に記載の画像処理装置。 The map according to any one of claims 2 to 7, wherein the maps have identification information indicating the same object at each detection position of the objects presumed to correspond to each other. Image processing equipment. 前記検出手段は、前記対象物のそれぞれが有する複数の部位を検出し、
前記生成手段は、前記部位ごとに前記マップを生成することを特徴とする、請求項1乃至8の何れか一項に記載の画像処理装置。
The detection means detects a plurality of parts of each of the objects, and
The image processing apparatus according to any one of claims 1 to 8, wherein the generation means generates the map for each part.
前記生成手段が、互いに異なる前記マップを複数生成し、
前記判定手段が、生成された複数の前記マップに基づいて、前記複数の撮像画像においてそれぞれ検出された対象物をマッチングさせることを特徴とする、請求項1乃至9の何れか一項に記載の画像処理装置。
The generation means generates a plurality of the maps different from each other,
The invention according to any one of claims 1 to 9, wherein the determination means matches an object detected in each of the plurality of captured images based on the plurality of generated maps. Image processing device.
前記生成手段は、前記検出手段による前記対象物の検出処理において得られた中間特徴量に基づいて前記マップを生成することを特徴とする、請求項1乃至10の何れか一項に記載の画像処理装置。 The image according to any one of claims 1 to 10, wherein the generation means generates the map based on an intermediate feature amount obtained in the detection process of the object by the detection means. Processing equipment. 前記検出手段は、異なる前記対象物を区別できるように学習されていることを特徴とする、請求項1乃至11の何れか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 11, wherein the detection means is learned so that different objects can be distinguished. 前記複数の撮像画像が、同一の撮像装置による、第1の時刻における撮像画像と、第2の時刻における撮像画像と、を含むことを特徴とする、請求項1乃至12の何れか一項に記載の画像処理装置。 The invention according to any one of claims 1 to 12, wherein the plurality of captured images include an image captured at a first time and an image captured at a second time by the same imaging device. The image processing apparatus described. 前記生成手段は、時間的又は空間的に並んでいる第1の撮像画像、第2の撮像画像、及び第3の撮像画像に基づいて、前記第1の撮像画像及び前記第3の撮像画像においてそれぞれ検出された対象物間の対応関係を示す前記マップを生成することを特徴とする、請求項1乃至13の何れか一項に記載の画像処理装置。 The generation means in the first captured image and the third captured image based on the first captured image, the second captured image, and the third captured image that are arranged temporally or spatially. The image processing apparatus according to any one of claims 1 to 13, wherein the map showing the correspondence between the detected objects is generated. 前記複数の撮像画像は、時間的又は空間的に並んでいる第1の撮像画像、第2の撮像画像、及び第3の撮像画像を含み、
前記生成手段は、前記第1の撮像画像及び前記第2の撮像画像においてそれぞれ検出された対象物間の対応関係を示す前記マップと、前記第1の撮像画像及び前記第3の撮像画像においてそれぞれ検出された対象物間の対応関係を示す前記マップと、を生成することを特徴とする、請求項1乃至14の何れか一項に記載の画像処理装置。
The plurality of captured images include a first captured image, a second captured image, and a third captured image that are arranged temporally or spatially.
The generation means includes the map showing the correspondence between the objects detected in the first captured image and the second captured image, and the first captured image and the third captured image, respectively. The image processing apparatus according to any one of claims 1 to 14, wherein the map showing the correspondence between the detected objects is generated.
前記検出手段は、前記対象物が有する部位を検出することを特徴とする、請求項1乃至15の何れか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 15, wherein the detection means detects a portion of the object. 前記対象物は人物であり、前記検出手段は前記人物の関節を検出することを特徴とする、請求項1乃至16の何れか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 16, wherein the object is a person, and the detection means detects a joint of the person. 前記マップと、前記対象物と、を重畳表示する表示手段をさらに備えることを特徴とする、請求項1乃至17の何れか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 17, further comprising a display means for superimposing and displaying the map and the object. 撮像画像から対象物を検出する工程と、
複数の撮像画像においてそれぞれ検出された対象物間の対応関係を示すマップを生成する工程と、
生成された前記マップに基づいて、前記複数の撮像画像においてそれぞれ検出された対象物をマッチングさせる工程と、
を備えることを特徴とする、画像処理方法。
The process of detecting an object from the captured image and
A process of generating a map showing the correspondence between the objects detected in each of a plurality of captured images, and a process of generating a map.
A step of matching the objects detected in the plurality of captured images based on the generated map, and a step of matching the objects.
An image processing method comprising.
コンピュータを、請求項1乃至18の何れか一項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 18.
JP2019202618A 2019-11-07 2019-11-07 Image processing device, image processing method, and program Active JP7518609B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019202618A JP7518609B2 (en) 2019-11-07 2019-11-07 Image processing device, image processing method, and program
US17/083,375 US11544926B2 (en) 2019-11-07 2020-10-29 Image processing apparatus, method of processing image, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019202618A JP7518609B2 (en) 2019-11-07 2019-11-07 Image processing device, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2021077039A true JP2021077039A (en) 2021-05-20
JP2021077039A5 JP2021077039A5 (en) 2022-11-15
JP7518609B2 JP7518609B2 (en) 2024-07-18

Family

ID=75845444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019202618A Active JP7518609B2 (en) 2019-11-07 2019-11-07 Image processing device, image processing method, and program

Country Status (2)

Country Link
US (1) US11544926B2 (en)
JP (1) JP7518609B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7511540B2 (en) 2021-12-22 2024-07-05 三菱重工業株式会社 Object detection device, object detection method, and object detection program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4055522A4 (en) * 2019-11-10 2023-11-15 Mirage Dynamics Ltd Video advertising signage replacement
US20210278852A1 (en) * 2020-03-05 2021-09-09 Uatc, Llc Systems and Methods for Using Attention Masks to Improve Motion Planning
US20220301127A1 (en) * 2021-03-18 2022-09-22 Applied Materials, Inc. Image processing pipeline for optimizing images in machine learning and other applications

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011146827A (en) * 2010-01-13 2011-07-28 Sony Corp Unit and method for processing image, and program
JP2018026108A (en) * 2016-08-08 2018-02-15 パナソニックIpマネジメント株式会社 Object tracking method, object tracking device, and program
JP2019012497A (en) * 2017-07-03 2019-01-24 富士通株式会社 Portion recognition method, device, program, and imaging control system

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4352034B2 (en) * 2005-09-13 2009-10-28 株式会社東芝 Object position detection device, map creation device, autonomous mobile device, object position detection method, and object position detection program
JP2007148835A (en) * 2005-11-28 2007-06-14 Fujitsu Ten Ltd Object distinction device, notification controller, object distinction method and object distinction program
JP5380789B2 (en) * 2007-06-06 2014-01-08 ソニー株式会社 Information processing apparatus, information processing method, and computer program
US8224029B2 (en) * 2008-03-03 2012-07-17 Videoiq, Inc. Object matching for tracking, indexing, and search
JP2012181710A (en) 2011-03-02 2012-09-20 Fujifilm Corp Object tracking device, method and program
JP6025557B2 (en) * 2012-12-27 2016-11-16 キヤノン株式会社 Image recognition apparatus, control method thereof, and program
JP6049448B2 (en) * 2012-12-27 2016-12-21 キヤノン株式会社 Subject area tracking device, control method thereof, and program
WO2016207875A1 (en) * 2015-06-22 2016-12-29 Photomyne Ltd. System and method for detecting objects in an image
JP6618766B2 (en) * 2015-10-27 2019-12-11 株式会社デンソーテン Image processing apparatus and image processing method
US9858496B2 (en) * 2016-01-20 2018-01-02 Microsoft Technology Licensing, Llc Object detection and classification in images
WO2018229549A2 (en) * 2017-06-16 2018-12-20 Nauto Global Limited System and method for digital environment reconstruction
KR102153591B1 (en) * 2018-05-08 2020-09-09 한국전자통신연구원 Method and apparatus for detecting garbage dumping action in real time on video surveillance system
JP6695947B2 (en) * 2018-09-21 2020-05-20 ソニーセミコンダクタソリューションズ株式会社 Solid-state imaging system, image processing method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011146827A (en) * 2010-01-13 2011-07-28 Sony Corp Unit and method for processing image, and program
JP2018026108A (en) * 2016-08-08 2018-02-15 パナソニックIpマネジメント株式会社 Object tracking method, object tracking device, and program
JP2019012497A (en) * 2017-07-03 2019-01-24 富士通株式会社 Portion recognition method, device, program, and imaging control system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7511540B2 (en) 2021-12-22 2024-07-05 三菱重工業株式会社 Object detection device, object detection method, and object detection program

Also Published As

Publication number Publication date
JP7518609B2 (en) 2024-07-18
US20210142064A1 (en) 2021-05-13
US11544926B2 (en) 2023-01-03

Similar Documents

Publication Publication Date Title
JP6942488B2 (en) Image processing equipment, image processing system, image processing method, and program
CN107240124B (en) Cross-lens multi-target tracking method and device based on space-time constraint
JP2021077039A (en) Image processing apparatus, image processing method, and program
JP5459674B2 (en) Moving object tracking system and moving object tracking method
JP6397379B2 (en) CHANGE AREA DETECTION DEVICE, METHOD, AND PROGRAM
JP2009510541A (en) Object tracking method and object tracking apparatus
CN111402294A (en) Target tracking method, target tracking device, computer-readable storage medium and computer equipment
JP6185517B2 (en) Image monitoring device
JP2016099941A (en) System and program for estimating position of object
JP2008219570A (en) Camera topology information generating device
JP6362085B2 (en) Image recognition system, image recognition method and program
JP2008046903A (en) Apparatus and method for detecting number of objects
JP7374001B2 (en) Learning model generation method, program, and information processing device
US12131485B2 (en) Object tracking device and object tracking method
JP4821355B2 (en) Person tracking device, person tracking method, and person tracking program
JP2019012497A (en) Portion recognition method, device, program, and imaging control system
KR100994722B1 (en) Method for tracking moving object on multiple cameras using probabilistic camera hand-off
JP2021149687A (en) Device, method and program for object recognition
JP7374632B2 (en) Information processing device, information processing method and program
JP3810755B2 (en) POSITION JUDGING DEVICE, MOVING ROUTE CALCULATION DEVICE, POSITION JUDGING METHOD AND PROGRAM
JP7152651B2 (en) Program, information processing device, and information processing method
JP4942197B2 (en) Template creation apparatus, facial expression recognition apparatus and method, program, and recording medium
JP2022019339A (en) Information processing apparatus, information processing method, and program
JP6468642B2 (en) Information terminal equipment
JP7554245B2 (en) Person tracking method and person tracking device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230922

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240705

R150 Certificate of patent or registration of utility model

Ref document number: 7518609

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150