JP2021111273A - Learning model generation method, program and information processor - Google Patents
Learning model generation method, program and information processor Download PDFInfo
- Publication number
- JP2021111273A JP2021111273A JP2020004562A JP2020004562A JP2021111273A JP 2021111273 A JP2021111273 A JP 2021111273A JP 2020004562 A JP2020004562 A JP 2020004562A JP 2020004562 A JP2020004562 A JP 2020004562A JP 2021111273 A JP2021111273 A JP 2021111273A
- Authority
- JP
- Japan
- Prior art keywords
- images
- image
- time
- captured image
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000013016 learning Effects 0.000 title claims abstract description 133
- 238000000034 method Methods 0.000 title claims abstract description 79
- 238000000605 extraction Methods 0.000 claims abstract description 47
- 238000012549 training Methods 0.000 claims abstract description 33
- 238000003384 imaging method Methods 0.000 claims abstract description 16
- 230000010365 information processing Effects 0.000 claims description 52
- 238000001514 detection method Methods 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 32
- 238000012545 processing Methods 0.000 description 38
- 238000004891 communication Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 18
- 238000010801 machine learning Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 238000003672 processing method Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本技術は、学習モデルの生成方法、プログラム及び情報処理装置に関する。 The present technology relates to a learning model generation method, a program, and an information processing device.
従来、車両等の移動体の前方を撮像した画像から各種の情報を検出する検出方法が提案されている。特許文献1には、車両に搭載され、その車両が走行する路上の白線をより正確に検出することが出来る車両用白線検出装置が開示されている。
Conventionally, a detection method has been proposed in which various information is detected from an image captured in front of a moving body such as a vehicle.
しかしながら、特許文献1の手法では、撮像画像から検出対象である白線を検出する能力は十分ではないという問題がある。
However, the method of
本開示の目的は、撮像画像から対象物に関する情報を精度よく出力する学習モデルの生成方法、プログラム及び情報処理装置を提供することにある。 An object of the present disclosure is to provide a learning model generation method, a program, and an information processing device that accurately output information about an object from a captured image.
本開示の一態様における学習モデルの生成方法は、移動体に載置される撮像装置により撮像された対象物を含む撮像画像を取得し、前記対象物を抽出した複数の対象物抽出画像を前記撮像画像に関連付けて取得し、取得した撮像画像及び複数の対象物抽出画像と対象物に関する情報とを含む訓練データに基づき、撮像画像及び複数の対象物抽出画像を入力した場合に対象物に関する情報を出力する学習モデルを生成する。 In the method of generating a learning model in one aspect of the present disclosure, an image taken by an image pickup device mounted on a moving body including an object is acquired, and a plurality of object extraction images obtained by extracting the object are obtained. Information about an object when a captured image and a plurality of object extracted images are input based on training data that is acquired in association with the captured image and includes the acquired captured image and a plurality of object extracted images and information about the object. Generate a training model that outputs.
本開示によれば、撮像画像から対象物に関する情報を精度よく出力することができる。 According to the present disclosure, it is possible to accurately output information about an object from a captured image.
本発明をその実施の形態を示す図面を参照して具体的に説明する。 The present invention will be specifically described with reference to the drawings showing the embodiments thereof.
(第1実施形態)
図1は、第1実施形態における学習モデル生成システム100の概要図である。学習モデル生成システム100は、情報処理装置1、移動体2の制御ユニット200及び撮像装置31を含む。情報処理装置1及び制御ユニット200は例えばインターネット又は公衆回線網等のネットワークN1を介して通信可能に接続されている。
(First Embodiment)
FIG. 1 is a schematic diagram of the learning
移動体2は、例えば車両、オートバイ、ヘリコプター、船舶、ドローン等の移動機構を備えるものであり、移動体2に載置される撮像装置31により、移動中の移動体2の外部を撮影する。以下では移動体2は車両であるものとして説明する。撮像装置31は、例えばドライブレコーダーであり、移動体2の外部をカメラにより撮影し、撮影した映像データをSDカード等の記録媒体に記録する装置である。なお撮像装置31は、カメラ等のイメージセンサに加えて、例えばレーダ又はライダー(LIDAR: Laser Imaging Detection and Ranging)等の測距センサを備えていてもよい。測距センサは、送信波を出力し、物体からの反射波を受け取ることにより、反射波の受信状態から物体の位置や速度を算出することができる。撮像装置31は、制御ユニット200に接続される。制御ユニット200は、撮像装置31により撮影された動画を情報処理装置1に送信する。
The moving
情報処理装置1は、例えばサーバコンピュータである。情報処理装置1は、制御ユニット200から取得した情報に基づき、撮像画像に含まれる対象物に関する情報を出力する学習モデルを生成する。第1実施形態において、情報処理装置1は1台のサーバコンピュータとして説明するが、複数のサーバコンピュータで機能又は処理を分散させてもよいし、1台の大型コンピュータに仮想的に生成される複数のサーバコンピュータ(インスタンス)の内の1つであってもよい。なお、情報処理装置1は、移動体2の内部に設置されていてもよい。
The
このような学習モデル生成システム100の構成及び詳細な処理内容について以下に説明する。
The configuration and detailed processing contents of such a learning
図2は、情報処理装置1の構成例を示すブロック図である。情報処理装置1は、制御部10、記憶部11、通信部12及び操作部13を含む。制御部10は、一又は複数のCPU(Central Processing Unit )、GPU(Graphics Processing Unit)等を用いたプロセッサであり、内蔵するROM(Read Only Memory)又はRAM(Random Access Memory)等のメモリを用い、各構成部を制御して処理を実行する。制御部10は、記憶部11に記憶されているプログラム1Pを読み出して実行することにより、種々の情報処理、制御処理等を行う。
FIG. 2 is a block diagram showing a configuration example of the
記憶部11には、例えばハードディスク又はSSD(Solid State Drive )等の不揮発性メモリを含む。記憶部11には、プログラム1Pを含む制御部10が参照するプログラム及びデータが記憶される。記憶部11に記憶されるプログラム1Pは、記録媒体にコンピュータ読み取り可能に記録されている態様であってもよい。記憶部11は、図示しない読出装置によって記録媒体1Aから読み出されたプログラム1Pを記憶する。また、図示しない通信網に接続されている図示しない外部コンピュータからプログラム1Pをダウンロードし、記憶部11に記憶させたものであってもよい。なお記憶部11は、複数の記憶装置により構成されていてもよく、情報処理装置1に接続された外部記憶装置であってもよい。
The
記憶部11には、更に複数の学習モデル1Mが記憶される。学習モデル1Mは、撮像画像に含まれる対象物に関する情報を識別する識別器であり、機械学習により生成された学習モデルである。学習モデル1Mは、その定義情報によって定義される。学習モデル1Mの定義情報は、例えば、学習モデル1Mの構造情報や層の情報、各層が備えるチャネルの情報、学習済みのパラメータを含む。記憶部11には、学習モデル1Mに関する定義情報が記憶される。学習モデル1Mの詳細については後述する。
A plurality of
通信部12は、ネットワークN1を介した通信を実現する通信インタフェースである。制御部10は、通信部12によりネットワークN1を介して制御ユニット200と通信接続が可能である。
The
操作部13は、ユーザの操作を受け付けるインタフェースであり、物理ボタン、マウス、ディスプレイ内蔵のタッチパネルデバイスを含む。操作部13は、ユーザからの操作入力を受け付け、操作内容に応じた制御信号を制御部10へ送出する。
The
図3は、制御ユニット200の構成例を示すブロック図である。制御ユニット200は、例えば移動体2の装備品を制御するためのECU(Electronic Control Unit)であり、制御部20、記憶部21、第1通信部22及び第2通信部23等を備える。
FIG. 3 is a block diagram showing a configuration example of the
制御部20は、一又は複数のCPU、GPU等を用いたプロセッサであり、内蔵するROM及びRAM等のメモリを用いて各構成部を制御して処理を実行する。制御部20は、内蔵するタイマーによって逐次、時間情報を取得することができる。制御部20は、記憶部21に記憶されているプログラムに基づく情報処理を実行する。
The
記憶部21は、EEPROM(Electronically Erasable Programmable Read Only Memory)などの不揮発性メモリを備える。記憶部21には、制御部20により実行されるプログラム及び当該プログラムの実行に必要なデータ等が記憶される。記憶部21は、制御部20に内蔵のタイマーによって得られる時刻情報を対応付けて移動体2の移動中における速度のログを記憶するとよい。
The
第1通信部22は、CAN(Control Area Network)又はEthernet(登録商標)等の通信プロトコルを用いた通信インタフェースであり、制御部20は、第1通信部22を介して移動体内通信回線N2に接続されている各種機器、他のECU等と相互に通信する。移動体内通信回線N2を介して第1通信部22に接続される機器には、撮像装置31が含まれる。
The
第2通信部23は、3G、LTE、4G、5G、WiFi等の移動体通信のプロトコルを用いて無線通信をするための通信インタフェースであり、第2通信部に接続されたアンテナを介して情報処理装置1とデータの送受信を行う。第2通信部23と情報処理装置1との通信は、例えば公衆回線網又はインターネット等の外部ネットワークN1を介して行われる。
The
上述のように構成される学習モデル生成システム100において、情報処理装置1は、取得した撮像画像に基づき、撮像画像データを含む複数のデータの組み合わせからなるユニットグループ値Xを生成する。情報処理装置1は、生成したユニットグループ値Xを含む訓練データセットを用いて後述の学習モデル1Mを生成する。
In the learning
学習モデルは、対象物を含む撮像画像の特徴量を抽出することで各種の情報を判定する。対象物を高精度に検出可能な撮像画像を用いた場合には高い精度の推定結果が得られる可能性が高い。一方で、例えば対象物が不明瞭である、対象物の一部が欠けている等の撮像画像を用いた場合には、低い精度で検出された対象物に関する情報に基づくことにより、学習モデルの推定精度が低くなる虞がある。本学習モデル生成システム100では、対象物の検出精度を高めた複数のデータの組み合わせからなるユニットグループ値Xを用いて訓練データを生成することで、対象物に関する学習モデルの推定精度を向上させる。
The learning model determines various information by extracting the feature amount of the captured image including the object. When an captured image capable of detecting an object with high accuracy is used, it is highly possible that a highly accurate estimation result can be obtained. On the other hand, when a captured image is used, for example, the object is unclear or a part of the object is missing, the learning model is based on the information about the object detected with low accuracy. The estimation accuracy may be low. The learning
図4は、ユニットグループ値Xの生成方法を示す概念図である。ユニットグループ値Xは、撮像画像に基づき、データユニット生成及びユニットグループ生成の処理を経て取得される。図4を用いて、時刻tにおける撮像画像に基づくユニットグループ値X(t)の生成に関して、具体的に説明する。 FIG. 4 is a conceptual diagram showing a method of generating the unit group value X. The unit group value X is acquired through the processing of data unit generation and unit group generation based on the captured image. The generation of the unit group value X (t) based on the captured image at time t will be specifically described with reference to FIG.
情報処理装置1は、初めに、撮像画像に関連付けてグレースケール撮像画像及び対象物抽出画像を取得する。撮像画像は、撮像装置31により撮影され制御ユニット200を介して情報処理装置1で取得される。撮像画像は、動画像で得られ、例えば1秒間に60フレーム等の所定のフレームレートに基づき取得された複数のフレームの静止画像から構成される。なお、撮像画像は所定間隔で取得された複数枚の静止画像の組であってもよい。
The
情報処理装置1は、RGB(Red Green Blue)値を含む撮像画像から、グレースケールの画像に変換したグレースケール撮像画像を生成する。グレースケール撮像画像は、0から255の画素値を含むものであってもよく、0から1までの連続値に正規化された値を含むものであってもよい。なお撮像装置31から取得する撮像画像そのものがグレースケール画像であってもよい。
The
さらに、RGB画像又はグレースケール画像いずれかの撮像画像に基づき、対象物抽出画像を生成する。第1実施形態では、対象物抽出画像とは、撮像画像から対象物を抽出した画像データであり、2値化画像である。撮像画像から抽出される対象物とは、例えば、走行路上の白線、ガードレール、中央分離帯、信号機、道路標識、車両、周辺の広告物、人等である。第1実施形態では、撮像画像は、移動体2の走行路を示す白線を撮影した画像であり、対象物抽出画像は、対象物として白線を抽出した2値の白線抽出画像である例を説明する。
Further, an object extraction image is generated based on the captured image of either the RGB image or the grayscale image. In the first embodiment, the object extraction image is image data obtained by extracting an object from a captured image, and is a binarized image. The objects extracted from the captured image are, for example, white lines on the road, guardrails, medians, traffic lights, road signs, vehicles, surrounding advertisements, people, and the like. In the first embodiment, the captured image is an image obtained by capturing a white line indicating the traveling path of the moving
撮像画像から白線抽出画像を生成する方法は公知の方法を用いてよい。例えば、情報処理装置1は、機械学習モデルにより、LaneNet、U−Net等のアルゴリズムを用いて対象物を抽出した画像を生成してよい。LaneNetモデルは、画像のセグメンテーションを行う学習モデルであり、撮像画像に基づき対象物である白線を抽出した2値化画像を生成する。情報処理装置1は、撮像画像の各フレームについて上記の処理を行い、各撮像画像に対応する白線抽出画像を生成する。
A known method may be used as a method for generating a white line extracted image from the captured image. For example, the
白線抽出画像は、例えばパターンマッチング等の手法を用いて生成してもよい。この場合、情報処理装置1は、初めに撮像画像から局所特徴量を検出し、当該検出した局所特徴量と予め保持している対象物の特徴量とをパターンマッチングすることにより、対象物を含む領域を特定し白線抽出画像を生成する。さらに、情報処理装置1は、生成された白線抽出画像に対し、撮像画像の輝度値に基づいて2値化する処理を実行し、2値化画像を生成するとよい。画像の2値化処理の方法は公知の方法を用いてよい。例えば、グレースケールに変換した白線抽出画像中の画素毎に、画素の輝度値(画素値)と所定の方法により算出された閾値とを比較する。情報処理装置1は、画素の画素値が閾値よりも大きい場合、該画素を黒画素と判定し、画素値を1にする。一方、画素値が閾値以下の場合、該画素を白画素と判定し、画素値を0にする。情報処理装置1は、各画素について上記の処理を行い、2値の白線抽出画像を生成する。
The white line extracted image may be generated by using a technique such as pattern matching. In this case, the
なお、上記では撮像画像から対象物抽出画像を生成する例を説明したが、対象物抽出画像は撮像画像から生成されるものに限定されない。ライダー等により対象物を抽出したセンサデータを取得した場合には、情報処理装置1は、取得したセンサデータを画像データに変換し対象物抽出画像を生成してもよい。
Although the example of generating the object extracted image from the captured image has been described above, the object extracted image is not limited to the one generated from the captured image. When the sensor data obtained by extracting the object by a rider or the like is acquired, the
次に、情報処理装置1は、グレースケール撮像画像と複数の対象物抽出画像(白線抽出画像)とで構成されるデータユニットを生成する。図5は、データユニットの内容を説明する説明図である。時刻tにおける時刻tデータユニットは、時刻tにおけるグレースケール撮像画像と、時刻t及び時刻tの前後夫々n個の時刻における対象物抽出画像とを含む。すなわち、時刻tデータユニットには、時刻tのグレースケール撮像画像と、時刻t、時刻t-1、時刻t+1、時刻t-2、時刻t+2、…、時刻t-n、時刻t+nの各白線抽出画像(合計2n+1個)とが含まれる。nは正の自然数である。図5の例では、n=1であり、時刻tデータユニットには、時刻tのグレースケール撮像画像と、時刻t、時刻t+1及び時刻t-1の白線抽出画像とが含まれる。同様に、時刻t-1データユニットには、時刻t-1のグレースケール撮像画像と、時刻t-2、時刻t-1及び時刻tの白線抽出画像とが含まれる。時刻t+1データユニットには、時刻t+1のグレースケール撮像画像と、時刻t、時刻t+1及び時刻t+2の白線抽出画像とが含まれる。本実施形態においてはnは正の自然数として説明するが、nは0であってもよい。なお、結合白線抽出画像は、時刻tを中心に前後同数のn個づつの白線抽出画像を結合するものに限定されない。結合される白線抽出画像の時刻tの前後における個数、すなわち、過去側の個数と未来側の個数は異なるものであってもよい。
Next, the
各時刻におけるデータユニットからは、夫々1個のデータユニット値が生成される。1個のデータユニット値は、例えば、グレースケール撮像画像及び結合白線抽出画像夫々の画素値を一次元又は二次元配列形式に変換し連結して得られる1個のデータとして記憶され処理される。第1実施形態では、データユニット値は、グレースケール撮像画像の画像データと、2n+1個の白線抽出画像を結合した結合白線抽出画像の画像データとの2チャンネルデータの組み合わせからなる1個のマトリクスデータである。 One data unit value is generated from each data unit at each time. One data unit value is stored and processed as one data obtained by converting the pixel values of each of the grayscale captured image and the combined white line extracted image into a one-dimensional or two-dimensional array format and concatenating them. In the first embodiment, the data unit value is one matrix data composed of a combination of two channel data of the image data of the gray scale captured image and the image data of the combined white line extracted image obtained by combining 2n + 1 white line extracted images. Is.
図6は、白線抽出画像の結合方法の一例を説明する説明図である。情報処理装置1は、時刻tの白線抽出画像と、時刻tの前後夫々n個の時刻における白線抽出画像夫々とを結合し結合白線抽出画像を生成する。図6の下部では、一例としてn=1の場合における、時刻t、時刻t+1及び時刻t-1の3個の白線抽出画像を結合した結合白線抽出画像を生成する例を説明する。各白線抽出画像は、例えば同じ画素数の画像データであり、各画素の画素値を夫々有する。情報処理装置1は、各白線抽出画像の対応する画素を結合し、1個の画像データを生成する。例えば、各白線抽出画像における同じ配列(画素番号)の画素が全て0である場合、結合白線抽出画像における該配列の画素値を0にする。各白線抽出画像における同じ配列の画素が0、0、1である場合、結合白線抽出画像における該配列の画素値を1にする。このように、前後の複数データの情報を結合することで、1個の対象物抽出画像では検出されなかった情報を補填したデータを生成する。なお、複数画像の結合方法は一例であり上記の例に限定されるものではない。
FIG. 6 is an explanatory diagram illustrating an example of a method of combining white line extracted images. The
図4に戻り説明を続ける。情報処理装置1は、さらに上述のデータユニットの一又は複数個の組み合わせで構成される、1個のユニットグループを生成する。時刻tにおけるユニットグループは、時刻t及び時刻tの前後夫々m個の時刻におけるデータユニットで構成される。すなわち、時刻tにおけるユニットグループには、時刻tデータユニット、時刻t-1データユニット、時刻t+1データユニット、…、時刻t-mデータユニット、及び時刻t+mデータユニット(合計2m+1個)が含まれる。mは、0又は正の自然数である。なお、ユニットグループは、時刻tを中心に前後同数のm個づつのデータユニットを組み合わせたものに限定されない。組み合わせられるデータユニットの時刻tの前後における個数、すなわち、過去側の個数と未来側の個数は異なるものであってもよい。
The explanation will be continued by returning to FIG. The
上述のように生成された時刻tにおけるユニットグループから、1個のユニットグループ値Xが生成される。1個のユニットグループ値Xは、2m+1個のデータユニット値を組み合わせて得られる値であり、例えば、2m+1個のグレースケール撮像画像及び結合白線抽出画像夫々の画素値を一次元又は二次元配列形式に変換し連結して得られる1個のデータとして記憶され処理される。第1実施形態では、ユニットグループ値Xは、2m+1個のグレースケール撮像画像の画像データと、2m+1個の結合白線抽出画像の画像データとの4m+2チャンネルの組み合わせからなる、1個のマトリクスデータである。 One unit group value X is generated from the unit group at the time t generated as described above. One unit group value X is a value obtained by combining 2m + 1 data unit values. For example, pixel values of 2m + 1 grayscale captured images and combined white line extracted images are set in a one-dimensional or two-dimensional array format. It is stored and processed as one data obtained by converting to and concatenating. In the first embodiment, the unit group value X is one matrix data composed of a combination of 4m + 2 channels of the image data of 2m + 1 grayscale captured images and the image data of 2m + 1 combined white line extracted images. ..
なお、上記ではデータユニット値及びユニットグループ値Xは夫々、グレースケールの撮像画像データと白線抽出画像データとを組み合わせたものである例を説明したが、データユニット値及びユニットグループ値Xに含まれるデータは上記の例に限定されるものではない。データユニット値及びユニットグループ値Xは夫々、RGB値を含む撮像画像データと白線抽出画像データとを組み合わせたものであってもよい。 In the above description, the data unit value and the unit group value X are each a combination of the grayscale captured image data and the white line extracted image data, but they are included in the data unit value and the unit group value X. The data is not limited to the above example. The data unit value and the unit group value X may be a combination of the captured image data including the RGB values and the white line extracted image data, respectively.
上記のユニットグループ値Xを用いて、情報処理装置1は学習モデル1Mを生成する。図7は、学習モデル1Mの構成を説明する説明図である。学習モデル1Mは、ニューラルネットワークを用いた深層学習によって、生成され、学習される。学習モデル1Mは、例えばCNN(Convolution Neural Network)である。図7に示す例では、学習モデル1Mは、撮像画像に基づくユニットグループ値Xを入力する入力層と、対象物に関する情報を出力する出力層と、画像データの特徴量を抽出する中間層(隠れ層)とを備える。
Using the unit group value X described above, the
制御部10は、撮像画像に対し、上述のようにグレースケール撮像画像及び対象物抽出画像を生成し、これらを組み合わせてなるデータユニット及びユニットグループに基づきユニットグループ値Xを生成する前処理を実行する。第1実施形態における学習モデル1Mとは、狭義の学習モデル1Mと、上述の前処理を含めた広義の学習モデルモジュールとを含む。
The
学習モデル1Mの入力層へ入力される入力データは、ユニットグループ値Xである。第1実施形態では、ユニットグループ値Xは、移動体2の走行路を示す白線を撮影したグレースケール撮像画像データと、対象物である白線を抽出した白線抽出画像データとの2チャンネルのデータを含む。白線抽出画像は、撮像画像に掛け合わせられるマスク画像としての機能を有する。
The input data input to the input layer of the
中間層は、例えば、畳み込み層、プーリング層及び全結合層により構成される。畳み込み層及びプーリング層は交互に複数設けられてもよい。畳み込み層及びプーリング層は、各層のチャネルを用いた演算によって、入力層を通じて入力される撮像画像データ及び白線抽出画像データの特徴を抽出する。全結合層は、畳み込み層及びプーリング層によって特徴部分が抽出されたデータを1つのノードに結合し、活性化関数によって変換された特徴量を出力する。特徴量は、全結合層を通じて出力層へ出力される。 The intermediate layer is composed of, for example, a convolution layer, a pooling layer and a fully connected layer. A plurality of convolution layers and pooling layers may be provided alternately. The convolution layer and the pooling layer extract the features of the captured image data and the white line extracted image data input through the input layer by the calculation using the channels of each layer. The fully connected layer combines the data whose feature portions are extracted by the convolution layer and the pooling layer into one node, and outputs the feature amount converted by the activation function. The feature quantity is output to the output layer through the fully connected layer.
学習モデル1Mの出力層から出力される出力データは、対象物に関する情報である。第1実施形態では、対象物に関する情報として、移動体2が所在する走行路上の位置を示す、移動体2の所在車線を出力する。出力層は、設定されている所在車線に各々対応するチャネルを含み、各所在車線に対する確度をスコアとして出力する。情報処理装置1は、スコアが最も高い所在車線、あるいはスコアが閾値以上である所在車線を出力層の出力値とすることができる。なお出力層は、それぞれの所在車線の確度を出力する複数の出力チャネルを有する代わりに、最も確度の高い所在車線を出力する1個の出力チャネルを有してもよい。このように、学習モデル1Mは、ユニットグループ値Xが入力された場合に、対象物に関する情報を出力する。
The output data output from the output layer of the
上記の学習モデル1Mは、上述したn及びmの値に応じて異なる学習モデル1Mが用意される。すなわち、学習モデル1Mに入力するユニットグループ値Xを生成するための、結合白線抽出画像に含める白線抽出画像の枚数及び組み合わせるデータユニット値の個数に応じて、異なる学習モデル1Mが生成される。各学習モデル1Mの構成は、同じ構成を有するものであってもよく、中間層の層数が異なる構成であってもよい。情報処理装置1は、例えばユーザの入力を受け付ける等によりn及びmの値を決定する。情報処理装置1は、決定したn及びmの組み合わせにより特定されるグループ毎に撮像画像を分別し、該グループ別に学習モデル1Mを生成する。図8は、n及びmに対応するグループIDをマトリクス状に記憶したテーブル例を示す図である。例えば、n=1且つm=0の場合はグループ1、n=1且つm=1の場合はグループ2、…が記憶される。情報処理装置1は、グループID別に異なる訓練データを用いて学習モデル1Mを生成する。
As the
上記では学習モデル1MがCNNであるものとして説明したが、学習モデル1MはCNNに限定されるものではない。時系列データを取得した場合にはCNN以外のニューラルネットワーク、例えばリカレントニューラルネットワーク(RNN:Recurrent Neural Network)、LSTM(Long Short Term Memory)ネットワークを用いてもよい。またニューラルネットワークを用いないサポートベクタマシン、回帰木等、他のアルゴリズムによって学習されたモデルであってもよい。
Although the
なお、学習モデル1Mの内容例が図7に示した例に限られないことは勿論である。学習モデル1Mは、撮像画像に含まれる対象物に応じて適宜入力情報に応じた出力情報を出力するように学習されるとよい。例えば、学習モデル1Mは、対象物である広告に応じて広告の分類又は広告数を出力としてもよい。学習モデル1Mは、対象物である人に応じて人数を出力としてもよい。学習モデル1Mは、対象物である車両に応じて車両数を出力としてもよい。
Needless to say, the content example of the
図9は、学習モデル1Mの生成処理手順の一例を示すフローチャートである。以下の処理は、情報処理装置1の記憶部11に記憶してあるプログラム1Pに従って制御部10によって実行される。処理の実行タイミングは、例えば定期的なタイミングであってもよく、撮像装置31により新たな撮像画像が記録され制御ユニット200から送信されたタイミングであってもよい。
FIG. 9 is a flowchart showing an example of the generation processing procedure of the
情報処理装置1の制御部10は、制御ユニット200から撮像画像を取得し(ステップS11)、取得した撮像画像を一時的に記憶部11に記憶する。撮像画像は、撮像装置31により撮影し記録された移動体2の外部を撮影した画像であり、移動体2の走行路を示す白線が含まれる。
The
制御部10は、記憶部11にアクセスし、撮像画像を取得する。制御部10は、撮像画像をグレースケールに変換し、グレースケール撮像画像を取得する(ステップS12)。なお、制御部10は、制御ユニット200からグレースケールの撮像画像を取得してもよい。制御部10は、例えばLaneNet等の機械学習モデルを用いて、撮像画像から対象物の抽出を行い、対象物抽出画像である白線抽出画像を取得する(ステップS13)。白線抽出画像は、2値化画像である。制御部10は、グレースケール撮像画像と白線抽出画像とを関連付けて記憶する。制御部10は撮像画像に含まれる全フレームに対して上記の処理を実行する。
The
なお、制御部10は、ライダー等の測距センサによるセンサデータを取得した場合には、撮像画像に基づく白線抽出画像の生成に代えて、センサデータにより白線抽出画像を生成してよい。この場合において、撮像画像及びセンサデータは夫々取得時点に関する情報が付随しており、制御部10は、撮像画像に同一時点のセンサデータを対応付けて取得するとよい。
When the
制御部10は、取得したグレースケール撮像画像及び白線抽出画像に基づき、ユニットグループ値Xを取得する(ステップS14)。図10は、ユニットグループ値X取得の詳細な手順の一例を示すフローチャートである。図10のフローチャートに示す処理手順は、図9のフローチャートにおけるステップS14の詳細に対応する。
The
制御部10は、例えば操作部13によりユーザの入力を受け付ける等により、ユニットグループ値Xを生成するためのn及びmの値を決定する(ステップS141)。制御部10は、決定したnの値に基づき、時刻tにおけるグレースケール撮像画像と、時刻t及び時刻tの前後n個の時刻、すなわち時刻t-nから時刻t+nまでの各時刻における白線抽出画像(合計2n+1個)とで構成される時刻tデータユニットを生成する(ステップS142)。制御部10は、生成した時刻tデータユニットにおけるグレースケール撮像画像データと、各時刻の白線抽出画像に基づく結合白線抽出画像データとを組み合わせたデータユニット値を取得する(ステップS143)。
The
制御部10は、決定したmの値に基づき、時刻t及び時刻tの前後m個の時刻、すなわち時刻t-mから時刻t+mまでの各時刻におけるデータユニット(合計2m+1個)で構成されるユニットグループを生成する(ステップS144)。制御部10は、生成したユニットグループの各時刻におけるデータユニット値を組み合わせたユニットグループ値Xを取得し(ステップS145)、図9のフローチャートにおけるステップS15へ処理を戻す。
The
図9に戻り説明を続ける。制御部10は、取得したユニットグループ値Xに、対象物に関する情報(例えば移動体2の所在車線)をラベル付けした訓練データセットを生成する(ステップS15)。制御部10は、撮像画像の各フレームに対し上述の処理を行い、ユニットグループ値Xに所在車線を夫々ラベル付けした複数の訓練データセットを生成する。制御部10は、大量の撮像画像に基づくユニットグループ値Xとラベルデータとを収集し、収集したデータを訓練データセットとして不図示のデータベースに記憶する。この場合において、ユニットグループ値Xは、n及びmの値を付随させて記憶される。
The explanation will be continued by returning to FIG. The
制御部10は、ユニットグループ値Xに付随するn及びmの値に基づき、図8に示したテーブルを参照して、n及びmの値の組み合わせにより特定されるグループIDを取得し、ユニットグループ値Xをグループに分別する(ステップS16)。
The
制御部10は、生成した訓練データセットを用いて、時刻tにおけるユニットグループ値Xを入力した場合に、時刻tにおける所在車線を出力する学習モデル1Mを生成する(ステップS17)。具体的には、制御部10は、データベースにアクセスし、学習モデル1Mの生成に用いる1組の訓練データセットを取得する。訓練データセットは、ユニットグループ値Xと所在車線とを含む。制御部10は、ユニットグループ値Xを学習モデル1Mの入力層に入力する。この場合において、制御部10は、ユニットグループの構成に応じたグループID別に異なる学習モデル1M、1M、1M…を生成するため、分別したユニットグループ値Xのグループ別に対応する学習モデル1Mに訓練データを入力する。
Using the generated training data set, the
制御部10は、所在車線の予測値を出力層から取得する。学習が開始される前の段階では、学習モデル1Mを記述する定義情報には、初期設定値が与えられているものとする。制御部10は、例えば誤差逆伝播法を用いて、所在車線の予測値と正解値である所在車線とを比較し、差分が小さくなるように中間層におけるパラメータ及び重み等を学習する。差分の大きさ、学習回数が所定基準を満たすことによって学習が完了すると、最適化されたパラメータが得られる。制御部10は、各グループ別に生成した学習モデル1M、1M、1M…を記憶部11に格納し、一連の処理を終了する。
The
本実施形態によれば、撮像画像から生成される複数のデータを組み合わせたユニットグループ値Xを含む訓練データセットを用いて学習モデル1Mが生成される。学習モデル1Mは、マスク画像となる対象物の抽出精度を高めた対象物抽出画像と、撮像画像とを含む入力データを用いることにより、1フレームの画像をそのまま使用する場合に比べて精度の高い推定処理が可能となる。
According to this embodiment, the
学習モデル1Mは、データの組み合わせ内容に応じて複数の学習モデル1Mが用意される。各学習モデル1Mは、個々に固定されたn及びmの値に基づくユニットグループ値Xを含む訓練データにより学習することができ、検出精度を高めることが可能となる。
As the
(第2実施形態)
第2実施形態では、撮像画像に応じた各種の情報に基づき、n及びmの値が決定される。以下では、第2実施形態について、第1実施形態と異なる点を説明する。後述する構成を除く他の構成については第1実施形態の学習モデル生成システム100と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。第2実施形態における情報処理装置1は、制御ユニット200から、移動体の速度及び撮像画像のフレームレート等を含む付加情報と、撮像装置31により撮影された動画とを受信する。
(Second Embodiment)
In the second embodiment, the values of n and m are determined based on various information according to the captured image. Hereinafter, the differences between the second embodiment and the first embodiment will be described. Since the other configurations other than the configurations described later are the same as those of the learning
第2実施形態におけるnの値は、対象物抽出画像における対象物の検出精度に基づき決定される。検出精度は、例えばLaneNetから得られる出力精度、又は対象物抽出画像におけるパターンマッチングの相関値等により導出されてよい。検出精度は、例えば精度が高い順に高/中/低等の複数の段階に分別される。情報処理装置1は、予め検出精度の各段階とnの値とを関連付けた不図示のテーブルを記憶している。対象物の検出精度が低い場合にはnの値は大きくなるよう設定される。すなわち、対象物の検出精度が低い場合には、より多くの前後の対象物抽出画像を使用することで学習モデルの検出精度を向上させる。一方、対象物の検出精度が高い場合にはnの値は小さくなるよう設定される。対象物の検出精度が高い場合には、少ない数の対象物抽出画像であっても学習モデルから高い検出精度が得られるからである。なお、検出精度の導出方法は上記の例に限定されるものでない。検出精度は、その他対象物抽出画像と該対象物抽出画像における対象物の検出精度とを学習した機械学習モデル等を用いて推定されてもよい。
The value of n in the second embodiment is determined based on the detection accuracy of the object in the object extracted image. The detection accuracy may be derived from, for example, the output accuracy obtained from LaneNet, the correlation value of pattern matching in the object extraction image, or the like. The detection accuracy is classified into a plurality of stages such as high / medium / low in descending order of accuracy, for example. The
第2実施形態におけるmの値は、撮像画像の1フレームの移動距離に基づき決定される。1フレームの移動距離は、移動体2の速度を撮像画像のフレームレートで除算することで得られ、例えば大/中/小等の複数の段階に分別される。情報処理装置1は、予め移動距離とmの値とを関連付けた不図示のテーブルを記憶している。移動距離が大きい程、mの値は大きくなるよう設定される。速度が速い程移動距離は大きくなるため、mの値を大きく、すなわちより多くのデータユニットを組み合わせるよう設定することで、学習モデル1Mの検出精度を向上させる。フレームレートが低い程移動距離は大きくなるため、mの値は大きくなるよう設定される。なお、移動距離が所定の閾値を超える場合には、連続するフレームが大きく異なる画像である虞があるため、mの値は小さく、例えば0に設定されるとよい。
The value of m in the second embodiment is determined based on the moving distance of one frame of the captured image. The moving distance of one frame is obtained by dividing the speed of the moving
図11は、第2実施形態における学習モデル1Mの生成処理手順の一例を示すフローチャートである。以下の処理は、情報処理装置1の記憶部11に記憶してあるプログラム1Pに従って制御部10によって実行される。第1実施形態における図9と共通する処理については同一のステップ番号を付してその詳細な説明を省略する。
FIG. 11 is a flowchart showing an example of the generation processing procedure of the
情報処理装置1の制御部10は、制御ユニット200から撮像画像及び付加情報を取得し(ステップS21)、取得した撮像画像及び付加情報を一時的に記憶部11に記憶する。撮像画像には、移動体2の走行路を示す白線が含まれる。付加情報は、例えば移動体2の速度の履歴データ及び撮像画像のフレームレート等が含まれる。付加情報には、時刻情報が対応付けられている。なお、速度データは、移動体2のスピードメータから取得してもよく、移動体2のGPS(Global Positioning System)データ等の位置情報に基づき取得してもよい。
The
制御部10は、撮像画像から、グレースケール撮像画像を取得し(ステップS12)、対象物である白線を抽出した2値の対象物抽出画像(白線抽出画像)を取得する(ステップS13)。制御部10は、取得したグレースケール撮像画像及び白線抽出画像に基づき、ユニットグループ値Xを取得する(ステップS14)。図12は、第2実施形態におけるユニットグループ値X取得の詳細な手順の一例を示すフローチャートである。図12のフローチャートに示す処理手順は、図11のフローチャートにおけるステップS14の詳細に対応する。第1実施形態における図10と共通する処理については同一のステップ番号を付してその詳細な説明を省略する。
The
制御部10は、例えばLaneNetの検出精度を示すスコア等に基づき、時刻tにおける白線抽出画像に対応する対象物の検出精度を取得する(ステップS241)。ついで、制御部10は、付加情報として取得した移動体2の速度及び撮像画像のフレームレートに基づき、時刻tにおける移動距離を取得する(ステップS242)。制御部10は、不図示のテーブルを夫々参照して、取得した検出精度及び移動距離に基づき、時刻tデータユニットを生成するためのn及びmの値を決定する(ステップS141)。
The
制御部10は、特定したnの値に基づき、時刻tにおけるグレースケール撮像画像と白線抽出画像(合計2n+1個)とで構成される時刻tデータユニットを生成する(ステップS142)。制御部10は、生成した時刻tデータユニットの結合白線抽出画像データと、グレースケール撮像画像データとを組み合わせたデータユニット値を取得する(ステップS143)。
The
制御部10は、特定したmの値に基づき、時刻t及び時刻tの前後m個の時刻におけるデータユニット(合計2m+1個)で構成されるユニットグループを生成する(ステップS144)。制御部10は、生成したユニットグループのデータユニット値を組み合わせたユニットグループ値Xを取得し(ステップS145)、図11のフローチャートにおけるステップS15へ処理を戻す。
Based on the specified value of m, the
図11に戻り説明を続ける。制御部10は、取得したユニットグループ値Xに、対象物に関する情報をラベル付けした訓練データセットを生成する(ステップS15)。制御部10は、ユニットグループ値Xに付随するn及びmの値に基づき、図8に示したテーブルを参照して、n及びmの値の組み合わせにより特定されるグループIDを取得し、ユニットグループ値Xをグループに分別する(ステップS16)。
The explanation will be continued by returning to FIG. The
制御部10は、生成した訓練データセットを用いて、時刻tにおけるユニットグループ値Xを入力した場合に、時刻tにおける所在車線を出力する学習モデル1Mを生成する(ステップS17)。制御部10は、各グループ別に生成した学習モデル1Mを記憶部11に格納し、一連の処理を終了する。
Using the generated training data set, the
なお、上記の各実施形態ではn及びmに基づきユニットグループ値Xがグループに分別される例を説明したが、グループ分別はn及びmに基づくものに限定されるものではない。ユニットグループ値Xは、n又はmの一方、すなわち、例えば検出精度又は移動速度のいずれか一方に基づきグループに分別されてもよい。 In each of the above embodiments, an example in which the unit group value X is classified into groups based on n and m has been described, but the group classification is not limited to those based on n and m. The unit group value X may be divided into groups based on either n or m, that is, for example, detection accuracy or movement speed.
本実施形態によれば、撮像画像に応じた検出精度及び移動距離に応じてユニットグループを構成するデータの組み合わせ内容が決定される。撮像画像に含まれる対象物の状態に応じた学習モデル1Mを生成することにより、より精度の高い推定処理が可能となる。
According to the present embodiment, the combination content of the data constituting the unit group is determined according to the detection accuracy according to the captured image and the moving distance. By generating the
(第3実施形態)
第3実施形態では、学習モデルを用いて推定した対象物に関する情報を提供する。図13は、第3実施形態における推定システム110の構成例を示すブロック図である。以下では、第3実施形態について、第1実施形態と異なる点を説明する。後述する構成を除く他の構成については第1実施形態の学習モデル生成システム100と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。推定システム110は、移動体2の制御ユニット200及び撮像装置31を含む。
(Third Embodiment)
In the third embodiment, information about the object estimated by using the learning model is provided. FIG. 13 is a block diagram showing a configuration example of the
第3実施形態の制御ユニット200は、記憶部21に、プログラム2P、複数の学習モデル1Mを含む制御部20が参照するプログラム及びデータを記憶する。記憶部21に記憶されるプログラム2Pは、記録媒体にコンピュータ読み取り可能に記録されている態様であってもよい。記憶部21は、図示しない読出装置によって記録媒体2Aから読み出されたプログラム2Pを記憶する。また、図示しない通信網に接続されている図示しない外部コンピュータからプログラム2Pをダウンロードし、記憶部21に記憶させたものであってもよい。制御部20は、プログラム2Pを読み出して実行することにより、撮像画像に基づき対象物に関する情報を推定する情報処理装置として機能する。
The
第1通信部22には、移動体内通信回線N2を介して表示装置32が更に接続される。表示装置32は、例えば液晶ディスプレイなどであり、制御ユニット200から出力される情報を表示する。また表示装置32は、タッチパネル等の操作部33を有しており、操作部33に対するユーザの操作を受け付けて、制御ユニット200へ受け付けた操作内容を通知する。表示装置32は、例えばカーナビゲーション装置と共用のものであってよい。
The
上記のように構成される推定システム110にて、学習モデル1Mを用いた推定処理が実行される。第3実施形態では、学習モデル1Mを用いて、移動体2の走行路を示す白線を含む撮像画像に応じた走行路上の位置の推定結果を出力する。移動体2が所在する走行路上の位置は、例えば移動体2の所在車線で示される。図14は、推定処理方法を示す概念図である。図14では、例えばA地点からB地点までの2地点間における所在車線の推定結果を出力する処理に関して説明する。
In the
移動体2の制御ユニット200は、初めに、撮像装置31にて記録された2地点間の撮像画像を取得する。制御ユニット200は、ユーザの入力を受け付ける等により、学習モデル1Mに対するn及びmの値を決定する。制御ユニット200は、図8に示したテーブルを参照し、決定された各時点におけるn及びmの組み合わせに応じたグループIDを特定する。特定されたグループIDに応じて、撮像画像の各フレームがグループに分別される。
The
分別された撮像画像の各フレームは、各グループに応じたn及びmの値に基づきフレームからユニットグループ値Xを生成する前処理が施された後、グループIDに対応する学習モデル1Mに入力される。各学習モデル1Mからは、各時点におけるフレームに対応する所在車線の推定結果が出力される。各時点における推定結果は、時系列に組み合わせられ、一連の推定結果データとして表示装置32等を介して出力される。
Each frame of the separated captured image is input to the
図15は、学習モデル1Mを用いた推定処理手順の一例を示すフローチャートである。以下の処理は、制御ユニット200の記憶部21に記憶してあるプログラム2Pに従って制御部20によって実行される。処理の実行タイミングは、例えば撮像装置31により新たな動画が記録されたタイミングである。
FIG. 15 is a flowchart showing an example of an estimation processing procedure using the
制御部20は、撮像装置31により撮影し記録された撮像画像を取得する(ステップS31)。撮像画像は、例えばA地点からB地点までの2地点間における移動体2の外部を撮影した動画像であり、移動体2の走行路を示す白線が含まれる。撮像画像には、撮影時点に関する情報が付随している。
The
制御部20は、撮像画像をグレースケールに変換し、グレースケール撮像画像を取得する(ステップS32)。なお、制御部20は、撮像装置31からグレースケールで撮影された撮像画像を取得してもよい。制御部20は、例えばLaneNet等の機械学習モデルを用いて、撮像画像から対象物の抽出を行い、対象物抽出画像を取得する(ステップS33)。第3実施形態では、抽出する対象物は白線であり、対象物抽出画像は2値の白線抽出画像である。制御部20は、グレースケール撮像画像と白線抽出画像とを関連付けて記憶する。
The
制御部20は、取得したグレースケール撮像画像及び白線抽出画像に基づき、ユニットグループ値Xを取得する(ステップS34)。図16は、第3実施形態におけるユニットグループ値X取得の詳細な手順の一例を示すフローチャートである。図16のフローチャートに示す処理手順は、図15のフローチャートにおけるステップS34の詳細に対応する。
The
制御部20は、操作部33によりユーザの入力を受け付ける等によりユニットグループ値Xを生成するためのn及びmの値を決定する(ステップS341)。n及びmは夫々、結合する白線抽出画像の枚数及び組み合わせるデータユニット値の個数を決定するための値である。
The
制御部20は、決定したnの値に基づき、時刻tにおけるグレースケール撮像画像と、時刻t及び時刻tの前後n個の時刻における白線抽出画像(合計2n+1個)とで構成される時刻tデータユニットを生成する(ステップS342)。制御部10は、生成した時刻tデータユニットにおけるグレースケール撮像画像データと、各時刻の白線抽出画像に基づく結合白線抽出画像データとを組み合わせたデータユニット値を取得する(ステップS343)。
Based on the determined value of n, the
制御部10は、決定したmの値に基づき、時刻t及び時刻tの前後m個の時刻、すなわち時刻t-mから時刻t+mまでの各時刻におけるデータユニット(合計2m+1個)で構成されるユニットグループを生成する(ステップS344)。制御部10は、生成したユニットグループの各時刻におけるデータユニット値を組み合わせたユニットグループ値Xを取得し(ステップS345)、図15のフローチャートにおけるステップS35へ処理を戻す。なおユニットグループ値Xは、n及びmの値を付随させて取得される。
The
図15に戻り説明を続ける。制御部20は、ユニットグループ値Xに付随するn及びmの値に基づき、図8で説明したn及びmの値とグループIDとを関連付けたテーブルを参照し、n及びmの値の組み合わせにより特定されるグループIDを取得する。制御部20は、取得したグループIDに基づき、撮像画像の各フレームをグループに分別する(ステップS35)。
Returning to FIG. 15, the description will be continued. The
制御部20は、記憶する複数の学習モデル1Mから、取得したグループIDに対応する学習モデル1Mを選択する(ステップS36)。制御部20は、撮像画像に上述の前処理を施して得られたユニットグループ値Xを、選択した学習モデル1Mに入力情報として入力する(ステップS37)。制御部20は、学習モデル1Mから出力される対象物に関する情報を取得する(ステップS38)。出力情報は、例えば各フレームに対応する所在車線である。制御部20は、取得した各時点における推定結果を時系列に組み合わせた一連の推定結果データを生成する(ステップS39)。制御部20は、生成した推定結果データを撮像画像に関連付けて記憶部11に記憶するとともに、表示装置32等を介して推定結果データを出力し(ステップS40)、一連の処理を終了する。
The
上記では、一連の動画像を取得した後に学習モデル1Mによる推定処理を実行する例を説明したが、推定処理を実行するタイミングは限定されるものではない。制御部20は、撮像装置31で撮影が開始されたタイミングで上述の処理を実行し、リアルタイムで取得した撮像画像に基づき推定結果データを出力してもよい。この場合においては、推定結果データは、一連のデータとして生成されるものでなく随時出力されてよい。
In the above, an example of executing the estimation process by the
更に、制御部20は、推定結果データに応じた情報を出力してもよい。例えば、所在車線の推定結果の推移により車両が走行車線から逸脱していると判定される場合には、制御部20は、表示装置32又は不図示のスピーカー等を介して画像、警報、音声、振動等による支援情報を出力するものであってよい。制御部20は、移動体2の装備品に制御信号を出力するものであってもよい。
Further, the
図17は、表示装置32で表示される画面例を示す図である。図17は、推定結果データを含む推定結果画面320の一例を示す図である。推定結果画面320には、一の時刻における撮像画像321と、該撮像画像321に対応付けられた推定結果322及び推定情報323とが含まれる。
FIG. 17 is a diagram showing an example of a screen displayed by the
撮像画像321は、記録された動画像から切り出した1フレームの静止画像である。推定結果322は、学習モデル1Mにより出力された対象物に関する情報であり、例えば所在車線、車両台数、広告数等である。図17の例では、推定結果322は所在車線であり、歩道に近い順に1、2、3等の車線番号を用いて示される。推定情報323は、撮像画像に基づく推定処理に関する情報である。図17の例では、推定情報323には、撮像画像のファイル名、撮影時刻、推定に用いたn及びmの値、推定確度の数値を夫々示すテキストデータが含まれている。なお、推定情報323は、テキストデータによるものに限定されず、イラスト、音声等によるものであってもよい。なお、推定確度は、確度に応じて、例えば数値の色、大きさ、点滅/点灯、表示状態を変化させて強調表示を行ってもよい。制御部20は、撮像画像321に対応付けて同時点における推定結果322及び推定情報323を取得する。制御部20は、取得した撮像画像321と、推定結果322及び推定情報323のテキストデータ等とを含む推定結果画面320の画面データを生成し、表示装置32を介して出力する。ユーザは、表示装置32により学習モデル1Mの推定結果を認識することができる。
The captured
上記では、学習モデル1Mは、制御ユニット200にて処理に用いられるとして説明した。しかしながらこれに限らず、学習モデル1Mは、制御ユニット200と通信可能に接続された他の情報処理装置に記憶されており、制御ユニット200から得られる撮像画像に基づいて、他の情報処理装置にて推定結果を出力する処理に用いられてもよい。
In the above, the
また、学習モデル1Mは制御ユニット200とは直接通信接続されていないサーバ等の解析装置にて用いられてもよい。解析装置は、制御ユニット200と通信可能に接続された他の情報処理装置を介して、制御ユニット200で録画された撮像画像を取得し、取得した撮像画像に基づき学習モデル1Mを用いて対象物に関する情報の解析処理を実行してもよい。さらに、解析処理により取得した新たなデータに等に基づき、学習モデル1Mは再学習を実行してもよい。解析装置は、新たな修正情報を用いて訓練データを更に作成し、当該訓練データを用いて学習モデル1Mの再学習を行う。再学習を行うことにより、学習モデル1Mの推定の精度を更に向上させることができる。
Further, the
本実施形態によれば、撮像画像のフレーム毎に異なる学習モデル1Mを用いて推定処理が実行される。各フレームに応じた学習モデル1Mを使用することで、高い推定精度の出力情報を取得することができる。
According to this embodiment, the estimation process is executed using a
(第4実施形態)
第4実施形態では、撮像画像に応じた検出精度及び移動速度を取得し、n及びmの値を決定する。以下では、第4実施形態について、第3実施形態と異なる点を説明する。後述する構成を除く他の構成については第3実施形態の推定システム110と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
(Fourth Embodiment)
In the fourth embodiment, the detection accuracy and the moving speed according to the captured image are acquired, and the values of n and m are determined. Hereinafter, the differences between the fourth embodiment and the third embodiment will be described. Since the other configurations other than the configurations described later are the same as those of the
図18は、第4実施形態における学習モデル1Mを用いた推定処理手順の一例を示すフローチャートである。以下の処理は、制御ユニット200の記憶部21に記憶してあるプログラム2Pに従って制御部20によって実行される。第3実施形態の図15と共通する処理については同一のステップ番号を付してその詳細な説明を省略する。
FIG. 18 is a flowchart showing an example of an estimation processing procedure using the
制御部20は、撮像装置31により撮影し記録された撮像画像及び付加情報を取得する(ステップS51)。撮像画像には、移動体2の走行路を示す白線が含まれる。付加情報は、例えば移動体2の速度の履歴データ及び撮像画像のフレームレート等が含まれる。付加情報には、時点に関する情報が対応付けられている。
The
制御部20は、撮像画像をグレースケールに変換し、グレースケール撮像画像を取得する(ステップS32)。制御部20は、例えばLaneNet等の機械学習モデルを用いて、撮像画像から対象物の抽出を行い、対象物抽出画像を取得する(ステップS33)。第4実施形態では、抽出する対象物は白線であり、対象物抽出画像は2値の白線抽出画像である。制御部20は、グレースケール撮像画像と白線抽出画像とを関連付けて記憶する。
The
制御部20は、取得したグレースケール撮像画像及び白線抽出画像に基づき、ユニットグループ値Xを取得する(ステップS34)。図19は、第4実施形態におけるユニットグループ値X取得の詳細な手順の一例を示すフローチャートである。図19のフローチャートに示す処理手順は、図18のフローチャートにおけるステップS34の詳細に対応する。第3実施形態の図16と共通する処理については同一のステップ番号を付してその詳細な説明を省略する。
The
制御部20は、操作部33によりユーザの入力を受け付ける等により、学習モデル1Mに対し要求する検出精度を取得する(ステップS441)。制御部20は、その他機械学習モデル等を用いて判定した検出精度を取得してもよい。
The
制御部20は、付加情報として取得した移動体2の速度及び撮像画像のフレームレートに基づき、時刻tにおける移動距離を取得する(ステップS442)。制御部20は、不図示のテーブルを夫々参照して、検出精度及び移動距離に基づき、ユニットグループ値Xを生成するためのn及びmの値を決定する(ステップS341)。
The
制御部20は、決定したnの値に基づき、時刻tにおけるグレースケール撮像画像と、時刻t及び時刻tの前後n個の時刻における白線抽出画像(合計2n+1個)とで構成される時刻tデータユニットを生成する(ステップS342)。制御部10は、生成した時刻tデータユニットにおけるグレースケール撮像画像データと、各時刻の白線抽出画像に基づく結合白線抽出画像データとを組み合わせたデータユニット値を取得する(ステップS343)。
Based on the determined value of n, the
制御部10は、決定したmの値に基づき、時刻t及び時刻tの前後m個の時刻におけるデータユニット(合計2m+1個)で構成されるユニットグループを生成する(ステップS344)。制御部10は、生成したユニットグループの各時刻におけるデータユニット値を組み合わせたユニットグループ値Xを取得し(ステップS345)、図18のフローチャートにおけるステップS35へ処理を戻す。
Based on the determined value of m, the
図18に戻り説明を続ける。制御部20は、ユニットグループ値Xに付随するn及びmの値に基づき、図8で説明したn及びmの値とグループIDとを関連付けたテーブルを参照し、n及びmの値の組み合わせにより特定されるグループIDを取得する。制御部20は、取得したグループIDに基づき、撮像画像の各フレームをグループに分別する(ステップS35)。
Returning to FIG. 18, the description will be continued. The
制御部20は、記憶する複数の学習モデル1Mから、取得したグループIDに対応する学習モデル1Mを選択する(ステップS36)。制御部20は、撮像画像に上述の前処理を施して得られたユニットグループ値Xを、選択した学習モデル1Mに入力情報として入力する(ステップS37)。制御部20は、学習モデル1Mから出力される対象物に関する情報を取得する(ステップS38)。制御部20は、取得した各時点における推定結果を時系列に組み合わせた一連の推定結果データを生成する(ステップS39)。制御部20は、生成した推定結果データを撮像画像に関連付けて記憶部11に記憶するとともに、表示装置32等を介して推定結果データを出力し(ステップS40)、一連の処理を終了する。
The
本実施形態によれば、要求する検出精度及び移動距離に応じて、撮像画像のフレーム毎に異なる学習モデル1Mを用いて推定処理が実行される。撮像画像の状態に応じて用いる学習モデル1Mが選択されるため、より高い推定精度の出力情報を取得することができる。
According to the present embodiment, the estimation process is executed using the
なお、上述の各実施形態で説明した各処理シーケンスは限定されるものではなく、その性質に反しない限り、手順の変更を許容し得る。上述の処理シーケンスに対して、例えば各処理ステップの実行順序を変更してもよく、複数の処理ステップを同時に実行させてもよく、一連の処理シーケンスを実行する毎に、各処理ステップの順序が異なるようにしてもよい。 It should be noted that each processing sequence described in each of the above-described embodiments is not limited, and changes in the procedure can be tolerated as long as the properties are not violated. For the above processing sequence, for example, the execution order of each processing step may be changed, or a plurality of processing steps may be executed at the same time. Each time a series of processing sequences are executed, the order of each processing step is changed. It may be different.
なお、上述のように開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。各実施例にて記載されている技術的特徴は互いに組み合わせることができ、本発明の範囲は、特許請求の範囲内での全ての変更及び特許請求の範囲と均等の範囲が含まれることが意図される。 It should be noted that the embodiments disclosed as described above are exemplary in all respects and should not be considered restrictive. The technical features described in each example can be combined with each other and the scope of the invention is intended to include all modifications within the claims and scope equivalent to the claims. Will be done.
1 情報処理装置
2 移動体
200 制御ユニット
31 撮像装置
32 表示装置
10,20 制御部
11,21 記憶部
1P,2P プログラム
1M 学習モデル
1
Claims (16)
前記対象物を抽出した複数の対象物抽出画像を前記撮像画像に関連付けて取得し、
取得した撮像画像及び複数の対象物抽出画像と対象物に関する情報とを含む訓練データに基づき、撮像画像及び複数の対象物抽出画像を入力した場合に対象物に関する情報を出力する学習モデルを生成する
学習モデルの生成方法。 Acquires an image captured including an object imaged by an image pickup device mounted on a moving body, and obtains an image.
A plurality of object extraction images from which the objects have been extracted are acquired in association with the captured images, and the images are acquired.
Based on the acquired captured image and training data including multiple object extracted images and information about the object, a learning model that outputs information about the object when the captured image and a plurality of object extracted images are input is generated. How to generate a training model.
請求項1に記載の学習モデルの生成方法。 The method for generating a learning model according to claim 1, wherein a plurality of binarized images obtained by extracting the object from each of the captured image and the captured image adjacent to the captured image in time series are acquired.
前記白線を抽出した複数の白線抽出画像を前記撮像画像に関連付けて取得し、
取得した撮像画像及び複数の白線抽出画像と、前記移動体が所在する走行路における位置とを含む訓練データに基づき、移動体の走行路を示す白線を含む撮像画像及び前記白線を抽出した複数の白線抽出画像を入力した場合に、移動体が所在する走行路における位置を出力する前記学習モデルを生成する
請求項1又は請求項2に記載の学習モデルの生成方法。 Acquire an captured image including a white line showing the traveling path of a moving body,
A plurality of white line extracted images from which the white lines have been extracted are acquired in association with the captured image, and the images are acquired.
Based on the training data including the acquired captured image and the plurality of white line extracted images and the position on the traveling path where the moving body is located, the captured image including the white line indicating the traveling path of the moving body and the plurality of extracted white lines. The method for generating a training model according to claim 1 or 2, wherein when a white line extracted image is input, the training model that outputs the position on the traveling path where the moving body is located is generated.
取得した第1時刻及び該第1時刻の前後複数の時刻における複数の対象物抽出画像並びに前記第1時刻における撮像画像と、対象物に関する情報とを含む訓練データに基づき、前記学習モデルを生成する
請求項1から請求項3のいずれか1項に記載の学習モデルの生成方法。 The captured image at the first time and a plurality of object extraction images at a plurality of times before and after the first time and the first time are acquired.
The learning model is generated based on the acquired training data including a plurality of object extraction images at the first time and a plurality of times before and after the first time, an image captured at the first time, and information about the object. The method for generating a learning model according to any one of claims 1 to 3.
請求項4に記載の学習モデルの生成方法。 The method for generating a learning model according to claim 4, wherein the number of the object extracted images is determined based on the detection accuracy of the object included in the object extracted image at the first time.
取得した複数のデータユニットにおける撮像画像及び複数の対象物抽出画像と対象物に関する情報とを含む訓練データに基づき、複数のデータユニットにおける撮像画像及び複数の対象物抽出画像を入力した場合に対象物に関する情報を出力する前記学習モデルを生成する
請求項4又は請求項5に記載の学習モデルの生成方法。 The first time and the first time including a data unit composed of a captured image at the first time and a plurality of object extraction images at the first time and a plurality of times before and after the first time. Acquire captured images and multiple object extraction images in multiple data units at multiple times before and after,
When the captured images in a plurality of data units and the extracted images of a plurality of objects are input based on the training data including the acquired images captured in the plurality of data units and the extracted images of the plurality of objects and the information about the objects, the objects The method for generating a learning model according to claim 4 or 5, wherein the learning model for which information is output is generated.
請求項6に記載の学習モデルの生成方法。 The method for generating a learning model according to claim 6, wherein the number of data units is determined based on the moving speed of the moving body and the frame rate of the captured image at the first time.
前記対象物を抽出した複数の対象物抽出画像を前記撮像画像に関連付けて取得し、
撮像画像及び複数の対象物抽出画像と対象物に関する情報とを含む訓練データに基づき、撮像画像及び複数の対象物抽出画像を入力した場合に対象物に関する情報を出力するよう学習された学習モデルに、取得した撮像画像及び複数の対象物抽出画像を入力して、前記対象物に関する情報を出力する
処理をコンピュータに実行させるためのプログラム。 Acquires an image captured including an object imaged by an image pickup device mounted on a moving body, and obtains an image.
A plurality of object extraction images from which the objects have been extracted are acquired in association with the captured images, and the images are acquired.
Based on training data including captured images and multiple object extracted images and information about the objects, a learning model trained to output information about the objects when the captured images and multiple object extracted images are input. , A program for causing a computer to perform a process of inputting an acquired captured image and a plurality of object extraction images and outputting information on the object.
処理をコンピュータに実行させるための請求項8に記載のプログラム。 The program according to claim 8, wherein a computer is made to execute a process of acquiring a plurality of binarized images obtained by extracting the object from each of the captured image and the captured images adjacent to the captured image in time series.
前記白線を抽出した複数の白線抽出画像を前記撮像画像に関連付けて取得し、
撮像画像及び複数の白線抽出画像と、前記移動体が所在する走行路における位置とを含む訓練データに基づき、移動体の走行路を示す白線を含む撮像画像及び前記白線を抽出した複数の白線抽出画像を入力した場合に、移動体が所在する走行路における位置を出力するよう学習された前記学習モデルに、取得した移動体の走行路を示す白線を含む撮像画像及び前記白線を抽出した複数の白線抽出画像を入力して、前記移動体が所在する走行路における位置を出力する
処理をコンピュータに実行させるための請求項8又は請求項9に記載のプログラム。 Acquire an captured image including a white line showing the traveling path of a moving body,
A plurality of white line extracted images from which the white lines have been extracted are acquired in association with the captured image, and the images are acquired.
Based on the training data including the captured image and the plurality of white line extraction images and the position on the traveling path where the moving body is located, the captured image including the white line indicating the traveling path of the moving body and the plurality of white line extractions from which the white lines are extracted are extracted. When an image is input, a plurality of captured images including a white line indicating the acquired traveling path of the moving body and a plurality of extracted white lines are extracted from the learning model trained to output the position on the traveling path where the moving body is located. The program according to claim 8 or 9, for causing a computer to execute a process of inputting a white line extracted image and outputting a position on a traveling path where the moving body is located.
請求項8から請求項10のいずれか1項に記載のプログラム。 The learning model is learned based on training data including a plurality of object extraction images at a first time and a plurality of times before and after the first time, an image captured at the first time, and information about the object. The program according to any one of claims 8 to 10.
検出精度に応じて用意された複数種類の前記学習モデルから、取得した検出精度に対応する学習モデルを選択する
処理をコンピュータに実行させるための請求項11に記載のプログラム。 Obtain the detection accuracy of the object included in the object extraction image at the first time,
The program according to claim 11, wherein a computer is made to execute a process of selecting a learning model corresponding to the acquired detection accuracy from a plurality of types of the learning models prepared according to the detection accuracy.
複数のデータユニットにおける撮像画像及び複数の対象物抽出画像と対象物に関する情報とを含む訓練データに基づき、複数のデータユニットにおける撮像画像及び複数の対象物抽出画像を入力した場合に対象物に関する情報を出力するよう学習された前記学習モデルに、取得した複数のデータユニットにおける撮像画像及び複数の対象物抽出画像を入力して、前記対象物に関する情報を出力する
処理をコンピュータに実行させるための請求項11又は請求項12のいずれか1項に記載のプログラム。 The first time and the first time including a data unit composed of a captured image at the first time and a plurality of object extraction images at the first time and a plurality of times before and after the first time. Acquire captured images and multiple object extraction images in multiple data units at multiple times before and after,
Information about an object when an image captured by a plurality of data units and an image extracted from a plurality of objects are input based on training data including an image captured by a plurality of data units and an image extracted from a plurality of objects and information about the object. A request for causing a computer to perform a process of inputting an image captured in a plurality of acquired data units and a plurality of object extraction images into the training model trained to output the data and outputting information on the object. The program according to any one of claim 11 and claim 12.
移動速度及びフレームレートに応じて用意された複数種類の前記学習モデルから、取得した移動速度及びフレームレートに対応する学習モデルを選択する
処理をコンピュータに実行させるための請求項13に記載のプログラム。 The moving speed of the moving body and the frame rate of the captured image at the first time are acquired.
The program according to claim 13, wherein a computer is made to execute a process of selecting a learning model corresponding to the acquired movement speed and frame rate from a plurality of types of the learning models prepared according to the movement speed and the frame rate.
前記対象物を抽出した複数の対象物抽出画像を前記撮像画像に関連付けて取得する第2取得部と、
前記第1取得部が取得した撮像画像及び前記第2取得部が取得した複数の対象物抽出画像と、対象物に関する情報とを含む訓練データに基づき、撮像画像及び複数の対象物抽出画像を入力した場合に対象物に関する情報を出力する学習モデルを生成する生成部と
を備える情報処理装置。 A first acquisition unit that acquires an captured image including an object imaged by an imaging device mounted on a moving body, and a first acquisition unit.
A second acquisition unit that acquires a plurality of object extraction images from which the objects have been extracted in association with the captured images, and a second acquisition unit.
The captured image and the plurality of object extraction images are input based on the training data including the captured image acquired by the first acquisition unit, the plurality of object extraction images acquired by the second acquisition unit, and information about the object. An information processing device equipped with a generator that generates a learning model that outputs information about an object when the information is processed.
前記対象物を抽出した複数の対象物抽出画像を前記撮像画像に関連付けて取得する第2取得部と、
撮像画像及び複数の対象物抽出画像と対象物に関する情報とを含む訓練データに基づき、撮像画像及び複数の対象物抽出画像を入力した場合に対象物に関する情報を出力するよう学習された学習モデルと、
前記学習モデルに、前記第1取得部が取得した撮像画像及び前記第2取得部が取得した複数の対象物抽出画像を入力して、前記対象物に関する情報を出力する出力部と
を備える情報処理装置。 A first acquisition unit that acquires an captured image including an object imaged by an imaging device mounted on a moving body, and a first acquisition unit.
A second acquisition unit that acquires a plurality of object extraction images from which the objects have been extracted in association with the captured images, and a second acquisition unit.
A learning model learned to output information about an object when a captured image and a plurality of object extracted images are input based on training data including a captured image and a plurality of object extracted images and information about the object. ,
Information processing including an image captured by the first acquisition unit and an output unit that inputs a plurality of object extraction images acquired by the second acquisition unit and outputs information about the object to the learning model. Device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020004562A JP7374001B2 (en) | 2020-01-15 | 2020-01-15 | Learning model generation method, program, and information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020004562A JP7374001B2 (en) | 2020-01-15 | 2020-01-15 | Learning model generation method, program, and information processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021111273A true JP2021111273A (en) | 2021-08-02 |
JP7374001B2 JP7374001B2 (en) | 2023-11-06 |
Family
ID=77060032
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020004562A Active JP7374001B2 (en) | 2020-01-15 | 2020-01-15 | Learning model generation method, program, and information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7374001B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023281343A1 (en) | 2021-07-05 | 2023-01-12 | Ricoh Company, Ltd. | Communication apparatus, communication method, and storage medium |
WO2023084842A1 (en) * | 2021-11-11 | 2023-05-19 | パナソニックIpマネジメント株式会社 | Onboard device, information processing device, sensor data transmission method, and information processing method |
WO2024013933A1 (en) * | 2022-07-14 | 2024-01-18 | 日本電気株式会社 | Video processing system, video processing device, and video processing method |
WO2024013936A1 (en) * | 2022-07-14 | 2024-01-18 | 日本電気株式会社 | Video processing system, video processing device, and video processing method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019164611A (en) * | 2018-03-20 | 2019-09-26 | アイシン・エィ・ダブリュ株式会社 | Traveling support device and computer program |
JP2019194751A (en) * | 2018-05-01 | 2019-11-07 | 住友電気工業株式会社 | Lane information processing device, lane identification system, lane information processing method and lane information processing program |
-
2020
- 2020-01-15 JP JP2020004562A patent/JP7374001B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019164611A (en) * | 2018-03-20 | 2019-09-26 | アイシン・エィ・ダブリュ株式会社 | Traveling support device and computer program |
JP2019194751A (en) * | 2018-05-01 | 2019-11-07 | 住友電気工業株式会社 | Lane information processing device, lane identification system, lane information processing method and lane information processing program |
Non-Patent Citations (1)
Title |
---|
築澤宗太郎,外3名: "自動運転向けディープラーニング障害物検出", パナソニック技報, vol. 63, no. 1, JPN6023041762, May 2017 (2017-05-01), ISSN: 0005169593 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023281343A1 (en) | 2021-07-05 | 2023-01-12 | Ricoh Company, Ltd. | Communication apparatus, communication method, and storage medium |
WO2023084842A1 (en) * | 2021-11-11 | 2023-05-19 | パナソニックIpマネジメント株式会社 | Onboard device, information processing device, sensor data transmission method, and information processing method |
WO2024013933A1 (en) * | 2022-07-14 | 2024-01-18 | 日本電気株式会社 | Video processing system, video processing device, and video processing method |
WO2024013936A1 (en) * | 2022-07-14 | 2024-01-18 | 日本電気株式会社 | Video processing system, video processing device, and video processing method |
Also Published As
Publication number | Publication date |
---|---|
JP7374001B2 (en) | 2023-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7374001B2 (en) | Learning model generation method, program, and information processing device | |
US10943126B2 (en) | Method and apparatus for processing video stream | |
CN113168541B (en) | Deep learning reasoning system and method for imaging system | |
JP6709283B2 (en) | Detection and analysis of moving vehicles using low resolution remote sensing images | |
CN108388834A (en) | The object detection mapped using Recognition with Recurrent Neural Network and cascade nature | |
CN108334081A (en) | Depth of round convolutional neural networks for object detection | |
CN110738101A (en) | Behavior recognition method and device and computer readable storage medium | |
CN109740590B (en) | ROI accurate extraction method and system based on target tracking assistance | |
JP2002358523A (en) | Device and method for recognizing and processing pattern, and image input device | |
CN114155527A (en) | Scene text recognition method and device | |
JP7518609B2 (en) | Image processing device, image processing method, and program | |
CN114495006A (en) | Detection method and device for left-behind object and storage medium | |
JP7001149B2 (en) | Data provision system and data collection system | |
CN109977875A (en) | Gesture identification method and equipment based on deep learning | |
Bourja et al. | Real time vehicle detection, tracking, and inter-vehicle distance estimation based on stereovision and deep learning using YOLOv3 | |
KR102187831B1 (en) | Control method, device and program of congestion judgment system using cctv | |
CN115953744A (en) | Vehicle identification tracking method based on deep learning | |
CN110837760B (en) | Target detection method, training method and device for target detection | |
JP2020149086A (en) | Training data generation apparatus, training data generation method, and training data generation program | |
US10735660B2 (en) | Method and device for object identification | |
US20230169797A1 (en) | Traffic hand signal detection system and method thereof | |
CN117011932A (en) | Running behavior detection method, electronic device and storage medium | |
AU2023213179A1 (en) | Crowdsourcing techniques to deploy artificial intelligence systems | |
CN116434156A (en) | Target detection method, storage medium, road side equipment and automatic driving system | |
CN112232317B (en) | Target detection method and device, equipment and medium for target orientation recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230911 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231024 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7374001 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |