JP2020170319A - Detection device - Google Patents
Detection device Download PDFInfo
- Publication number
- JP2020170319A JP2020170319A JP2019070858A JP2019070858A JP2020170319A JP 2020170319 A JP2020170319 A JP 2020170319A JP 2019070858 A JP2019070858 A JP 2019070858A JP 2019070858 A JP2019070858 A JP 2019070858A JP 2020170319 A JP2020170319 A JP 2020170319A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- information
- detection
- switching
- forklift
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 192
- 238000003384 imaging method Methods 0.000 claims abstract description 30
- 238000013135 deep learning Methods 0.000 claims description 19
- 238000012545 processing Methods 0.000 abstract description 29
- 238000010586 diagram Methods 0.000 abstract 1
- 238000000605 extraction Methods 0.000 description 15
- 238000000034 method Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】処理量の低減を図るとともに、個別の対象体の検出精度を向上させる検出装置を提供する。【解決手段】検出装置は、移動体に設置され、移動体周辺の画像情報を取得する撮像部と、複数の学習済みモデルに関する情報を記憶する記憶部と、撮像部において取得された画像情報を入力データとして、記憶部に記憶された学習済みモデルを用いて、対象体を検出する検出部と、移動体の周辺環境情報を取得するセンサと、センサにより取得された周辺環境情報を含む情報に基づいて、検出部において用いられる学習済みモデルを切り替える切替判定部と、を備える。【選択図】図1PROBLEM TO BE SOLVED: To provide a detection device for reducing a processing amount and improving the detection accuracy of an individual object. SOLUTION: A detection device is installed in a moving body and acquires image information around the moving body, a storage unit for storing information about a plurality of trained models, and image information acquired in the imaging unit. As input data, using the trained model stored in the storage unit, the detection unit that detects the target object, the sensor that acquires the surrounding environment information of the moving object, and the information including the surrounding environment information acquired by the sensor. Based on this, a switching determination unit for switching the trained model used in the detection unit is provided. [Selection diagram] Fig. 1
Description
本発明は、検出装置に関する。 The present invention relates to a detection device.
近年、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)の高速化、メモリの大容量化、及び機械学習の技術が急速に進んできている。このため、数十万から百万といったオーダーの学習データを用いる機械学習が可能となり、精度の高い識別技術や分類技術が確立されつつある(非特許文献1参照)。 In recent years, technologies for speeding up CPUs (Central Processing Units) and GPUs (Graphics Processing Units), increasing memory capacities, and machine learning have been rapidly advancing. For this reason, machine learning using learning data on the order of hundreds of thousands to millions has become possible, and highly accurate identification technology and classification technology are being established (see Non-Patent Document 1).
深層学習では、幅広い種類の対象体を汎用的に、検出あるいは認識するために、同じネットワークを使用し、目的に応じて学習データを変更あるいは追加することにより、様々な対象体の認識を行っている。 In deep learning, in order to detect or recognize a wide variety of objects in a general-purpose manner, the same network is used, and learning data is changed or added according to the purpose to recognize various objects. There is.
しかしながら、上記の方法では、汎用性は高いものの、個々の対象体の検出精度が低いという問題がある。また、検出する対象体の種類が多くなればなるほど、ネットワークにいて検出された後に、その検出体が検出対象の中のどれなのかを判定する際の計算量が増加するという問題がある。
そこで、本発明は、上述の課題に鑑みてなされたものであって、処理量の低減を図るとともに、個別の対象体の検出精度を向上させる検出装置を提供することを目的とする。
However, although the above method has high versatility, there is a problem that the detection accuracy of each object is low. Further, as the number of types of objects to be detected increases, there is a problem that the amount of calculation for determining which of the detection objects is the detection object after being detected in the network increases.
Therefore, the present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide a detection device for reducing the processing amount and improving the detection accuracy of individual objects.
形態1;本発明の1またはそれ以上の実施形態は、移動体に設置され、移動体周辺の画像情報を取得する撮像部と、複数の学習済みモデルに関する情報を記憶する記憶部と、該撮像部において取得された画像情報を入力データとして、該記憶部に記憶された学習済みモデルを用いて、対象体を検出する検出部と、前記移動体の周辺環境情報を取得するセンサと、該センサにより取得された前記周辺環境情報を含む情報に基づいて、前記検出部において用いられる学習済みモデルを切り替える切替判定部と、を備えたことを特徴とする検出装置を提案している。
形態2;本発明の1またはそれ以上の実施形態は、前記記憶部に記憶された複数の学習済みモデルは、前記画像情報または前記対象体に応じた特化型学習済みモデルであることを特徴とする検出装置を提案している。 Embodiment 2; One or more embodiments of the present invention are characterized in that the plurality of trained models stored in the storage unit are specialized trained models according to the image information or the object. We are proposing a detection device.
形態3;本発明の1またはそれ以上の実施形態は、前記センサは、前記移動体の走行位置情報、時刻情報、前記移動体周辺の照度情報の少なくともいずれか1つを含む前記周辺環境情報を取得することを特徴とする検出装置を提案している。 Embodiment 3; In one or more embodiments of the present invention, the sensor obtains the surrounding environment information including at least one of traveling position information of the moving body, time information, and illuminance information around the moving body. We are proposing a detection device that is characterized by acquisition.
形態4;本発明の1またはそれ以上の実施形態は、前記切替判定部に前記学習済みモデルの切替情報を出力する切替情報生成部を備え、該切替情報生成部は、任意の時間間隔で、前記検出部において用いられる学習済みモデルを前記記憶部に記憶された前記複数の学習済みモデルのうち、他の学習済みモデルに切り替える切替情報を前記切替判定部に出力するとともに、前記検出部における深層学習の類似度に対するスコアが最も高い前記学習済みモデルへの切替情報を前記切替判定部に出力する検出装置を提案している。 Embodiment 4; One or more embodiments of the present invention include a switching information generation unit that outputs switching information of the learned model to the switching determination unit, and the switching information generation unit can be used at arbitrary time intervals. Of the plurality of learned models stored in the storage unit, switching information for switching the learned model used in the detection unit to another learned model is output to the switching determination unit, and a deep layer in the detection unit. We propose a detection device that outputs switching information to the learned model having the highest score for learning similarity to the switching determination unit.
形態5;本発明の1またはそれ以上の実施形態は、前記切替情報生成部は、前記撮像部において取得された前記画像情報が時系列的に所定範囲の類似度を有する場合に、任意の時間間隔で、前記検出部において用いられる学習済みモデルを前記記憶部に記憶された前記複数の学習済みモデルのうち、他の学習済みモデルに切り替える切替情報を前記切替判定部に出力するとともに、前記検出部における深層学習の類似度に対するスコアが最も高い前記学習済みモデルへの切替情報を前記切替判定部に出力する検出装置を提案している。 Embodiment 5; In one or more embodiments of the present invention, the switching information generation unit may use the switching information generation unit for an arbitrary time when the image information acquired by the imaging unit has a predetermined range of similarity in time series. At intervals, switching information for switching the learned model used in the detection unit to another learned model among the plurality of learned models stored in the storage unit is output to the switching determination unit, and the detection is performed. We are proposing a detection device that outputs switching information to the learned model having the highest score for the similarity of deep learning in the unit to the switching determination unit.
形態6;本発明の1またはそれ以上の実施形態は、前記移動体は、屋内あるいは屋外を走行するフォークリフトであり、前記記憶部は、少なくとも昼間特化型学習済みモデルと夜間特化型学習済みモデルとを記憶し、前記センサは、前記フォークリフトの前記周辺環境情報として、少なくとも時刻情報もしくは前記フォークリフト周辺の照度情報を検出し、前記検出部は、前記フォークリフトが衝突する可能性がある前記対象体を検出し、前記検出部における前記対象体の検出結果を前記フォークリフトのオペレータに報知する報知部を備える検出装置を提案している。 Embodiment 6; In one or more embodiments of the present invention, the moving body is a forklift that travels indoors or outdoors, and the storage unit is at least a daytime specialized trained model and a nighttime specialized trained model. The sensor stores at least time information or illuminance information around the forklift as the surrounding environment information of the forklift, and the detection unit detects the object that the forklift may collide with. We have proposed a detection device including a notification unit that detects the above and notifies the operator of the forklift of the detection result of the object in the detection unit.
形態7;本発明の1またはそれ以上の実施形態は、前記移動体は、屋内を走行するフォークリフトであり、前記記憶部は、少なくとも屋内特化型学習済みモデルまたは人物特化型学習済みモデルを記憶し、前記センサは、前記フォークリフトの前記周辺環境情報として、少なくとも走行位置情報を検出し、前記検出部は、前記フォークリフトが衝突する可能性がある前記対象体を検出し、前記検出部における前記対象体の検出結果を前記フォークリフトのオペレータに報知する報知部を備えることを特徴とする請求項1に記載の検出装置を提案している。
Embodiment 7; In one or more embodiments of the present invention, the moving body is a forklift traveling indoors, and the storage unit is at least an indoor specialized trained model or a person-specific trained model. The sensor stores at least the traveling position information as the peripheral environment information of the forklift, and the detection unit detects the object that the forklift may collide with, and the detection unit in the detection unit. The detection device according to
本発明の1またはそれ以上の実施形態によれば、処理量の低減を図るとともに、個別の対象体の検出精度を向上させるという効果がある。 According to one or more embodiments of the present invention, there is an effect of reducing the amount of processing and improving the detection accuracy of individual objects.
<第1の実施形態>
以下、本発明の第1の実施形態について、図1から図8を用いて説明する。
なお、以下では、移動体としてフォークリフトを例示して説明する。
<First Embodiment>
Hereinafter, the first embodiment of the present invention will be described with reference to FIGS. 1 to 8.
In the following, a forklift will be described as an example of a moving body.
<検出装置の構成>
本実施形態に係る検出装置1は、図1に示すように、撮像部10と、記憶部20と、制御部30と、センサ40と、報知部50とを含んで構成されており、制御部30は、検出部37と、切替判定部35とを含んで構成されている。
<Configuration of detection device>
As shown in FIG. 1, the
撮像部10は、移動体としてのフォークリフトに設置され、移動体としてのフォークリフト周辺の画像情報を取得する。撮像部10は、例えば、カメラであり、移動体としてのフォークリフトのヘッドガード内側部あるいは外側部の前方走行方向の画像が撮影可能な位置に取付られている。また、カメラの取付方向は、移動体としてのフォークリフトの前方走行方向の画像が撮影可能な状態であれば特に、限定されるものではない。また、1つのカメラでは、移動体としてのフォークリフトのマストやフォーク等による死角の影響がある場合には、2つ以上のカメラにより、移動体としてのフォークリフトの前方走行方向の画像を網羅的に撮影するようにしてもよい。また、ヘッドガードの外側に台座を設けてカメラを固定するようにしてもよい。また、移動体としてのフォークリフトの進行方向(例えば、前進、後退)に合わせて、カメラが回動するような機構を設けてもよい。
The
また、カメラは、無線カメラであっても、有線カメラであってもよい。また、カメラは、スチルカメラであってもムービーカメラであってもよい。さらに、撮像部10は、対象体によっては、例えば、LIDARのようなセンサであってもよい。
Further, the camera may be a wireless camera or a wired camera. Further, the camera may be a still camera or a movie camera. Further, the
記憶部20は、複数の学習済みモデルに関する情報を記憶する。記憶部20は、不揮発性メモリ等であってもよいし、ハードディスク等であってもよい。また、ネットワークで、検出装置1と接続されたサーバ等であってもよい。
The
ここで、記憶部20に記憶される複数の学習済みモデルとしては、図2に示すように、車両特化型学習済みモデル20A、昼間特化型学習済みモデル20B、夜間特化型学習済みモデル20C、屋内特化型学習済みモデル20D、屋外特化型学習済みモデル20E、障害物特化型学習済みモデル20F、人物特化型学習済みモデル20G等を例示することができる。
Here, as a plurality of trained models stored in the
一般的な深層学習に用いられる学習モデルは、汎用性をもたせるために、人や車、動物、建造物、風景等の多種多様なデータから構築されていたが、本実施形態に検出装置1では、例えば、図3に示すように、乗用車の画像や大型トラックの画像、軽自動車の画像、バスの画像といったような車のみからなる学習データに基づく車両特化型学習済みモデル20A、図4に示すように、昼間の画像や天候の画像、空の色の画像、明るさの画像といったような昼間データのみからなる学習データに基づく昼間特化型学習済みモデル20B、図5に示すように、夜間の画像やヘッドライトの画像、テールライトの画像、街頭の画像といったような夜間データのみからなる学習データに基づく夜間特化型学習済みモデル20C、図5に示すように、収納棚の画像やパレットの画像、屋内設備の画像、屋内標識の画像といったような屋内データのみからなる学習データに基づく屋内特化型学習済みモデル20D、図5に示すように、トラックの画像や歩行者の画像、バイクの画像、建物の画像、電柱の画像といったような屋外データのみからなる学習データに基づく屋外特化型学習済みモデル20E、図3に示すように、パイロンの画像やコンクリートブロックの画像、パレットの画像、バリケードの画像、クッションドラムの画像、ガードフェンスの画像といったような障害物データのみからなる学習データに基づく障害物特化型学習済みモデル20F、図3に示すように、男性の画像や女性の画像、大人の画像、子供の画像、帽子を被った人の画像、ヘルメットを被った人の画像といったような人物データのみからなる学習データに基づく人物特化型学習済みモデル20Gを記憶部20が記憶する。
The learning model used for general deep learning was constructed from a wide variety of data such as people, cars, animals, buildings, landscapes, etc. in order to have versatility, but in the present embodiment, the
上記の学習済みモデルは、予めある特定の学習データをニューラルネットワーク(NN)に入力し、深層学習を行うことにより生成される。例えば、車両特化型学習済みモデル20Aは、車のみからなる学習データをニューラルネットワーク(NN)に入力し、深層学習を行うことにより生成される。なお、学習済みモデルは、例えば、本格稼働前の試走時に、撮像部10から入力された撮像画像データから生成してもよいし、実際に稼働する現場の画像情報を検出対象ごとにリスト化したデータに基づいて学習済みモデルを生成してもよい。
The above-mentioned trained model is generated by inputting specific training data in advance into a neural network (NN) and performing deep learning. For example, the vehicle-specific
制御部30は、図示しないROM(Read Only Memory)等に記憶された制御プログラムに従って、検出装置1全体の動作を制御する。本実施形態においては、例えば、後述する検出部37における検出処理や切替判定部35における切替判定処理を制御する。なお、これらの制御の詳細については、後述する。
The
センサ40は、移動体としてのフォークリフトの周辺環境情報を含む情報を取得する。センサ40は、例えば、図6に示すように、移動体としてのフォークリフトの走行位置情報40Aを検出するGPS受信機や画像情報とマップ情報、舵角センサ等との組み合わせ、時刻情報40Bを検出するタイマや時計、移動体としてのフォークリフト周辺の照度情報40Cを取得する照度センサ、移動体としてのフォークリフト走行時の加速度情報40Dを検出する加速度センサ、移動体としてのフォークリフト走行時の速度情報40Eを検出する速度センサ等を例示することができる。
The
報知部50は、検出部37における対象体の検出結果を、例えば、移動体としてのフォークリフトのオペレータに報知する。ここで、報知部50は、検出部37における対象体の検出結果して危険を視覚により知らせる表示装置であってもよいし、音声により知らせるスピーカ等でもよいし、例えば、移動体としてのフォークリフトのシートを振動させることによりオペレータに検出結果を知らせるバイブレータのようなものであってもよく、特に、限定されるものではない。
The
<制御部30の構成>
本実施形態に係る検出装置1における制御部30は、図7に示すように、収集部31と、撮像画像データベース(DB)32と、抽出部33と、検出対象データセット34と、切替判定部35と、学習済みデータセット36と、検出部37と、検出結果データベース(DB)38と、を含んで構成されている。
<Structure of
As shown in FIG. 7, the
収集部31は、図示しない通信部11を介し、撮像部10からの撮像画像を収集する。ここで、収集された画像情報は、撮像画像データベース(DB)32に格納される。
The collecting
抽出部33は、撮像画像データベース(DB)32から、深層学習に用いられる正例となる撮像画像を抽出し、検出対象データセット34へ格納する。
The
一方、切替判定部35は、センサ40から得られる移動体としてのフォークリフトの周辺環境情報を含む情報に基づいて、記憶部20に記憶された好適な学習済みモデルを選択して、当該学習済みモデルを学習済みデータセット36に格納する。
On the other hand, the switching
例えば、センサ40からの走行位置情報40Aにより、屋内の危険個所を走行している場合には、切替判定部35は、記憶部20から屋内特化型学習済みモデル20Dあるいは障害物特化型学習済みモデル20Fを選択し、当該学習済みモデルを学習済みデータセット36に格納する。
For example, when the vehicle is traveling in a dangerous place indoors based on the traveling
また、センサ40からの時刻情報40Bにより、時刻が夜間帯である場合には、切替判定部35は、記憶部20から夜間特化型学習済みモデル20Cを選択し、当該学習済みモデルを学習済みデータセット36に格納する。
Further, when the time is in the night zone based on the
また、センサ40からの移動体としてのフォークリフト周辺の照度情報40Cにより、照度が低い場合には、切替判定部35は、記憶部20から屋内特化型学習済みモデル20Dあるいは夜間特化型学習済みモデル20Cを選択し、当該学習済みモデルを学習済みデータセット36に格納する。
Further, when the illuminance is low due to the
検出部37は、撮像部10において取得された画像情報を入力データとして、切替判定部35により学習済みデータセット36に格納された学習済みモデルを用いて、対象体を検出する。より具体的には、検出部37は、抽出部33により格納された検出対象データセット34と、切替判定部35により格納された学習済みデータセット(例えば、車両特化型学習済みモデル20A)との、例えば、類似度に対するスコアの乖離度を算出し、この乖離度が予め定めた値以下である場合には、この乖離度を算出した検出対象データセット34内のデータが所望の検出体であることを検出し、当該データを検出結果DB38に格納する。なお、ここで、対象体とは、物体、人体、移動体、車線等を含むものである。
The
なお、上記では、記憶部20に記憶された特化型学習済みモデルの切替を切替判定部35の判断処理で実行する例を示したが、記憶部20に記憶された特化型学習済みモデルの切替を手動で行う手動切替部を設け、移動体としてのフォークリフトのオペレータの判断で、当該特化型学習済みモデルの切替を行えるようにしてもよい。
In the above, an example in which the switching of the specialized learned model stored in the
<検出装置の処理>
図8を用いて、本実施形態に係る検出装置1の処理について説明する。
<Processing of detection device>
The process of the
撮像部10は、移動体としてのフォークリフト周辺の画像情報を取得する(ステップS101)。収集部31は、撮像部10からの撮像画像を収集し、収集された画像情報を撮像画像データベース(DB)32に格納する(ステップS102)。
The
切替判定部35は、センサ40から得られる移動体としてのフォークリフトの周辺環境情報を含む情報に基づいて、記憶部20に記憶された好適な学習済みモデルを選択して、当該学習済みモデルを学習済みデータセット36に格納する(ステップS103)。
The switching
抽出部33は、撮像画像データベース(DB)32から、深層学習に用いられる正例となる撮像画像を抽出し、検出対象データセット34へ格納する(ステップS104)。
The
検出部37は、撮像部10において取得された画像情報を入力データとして、切替判定部35により学習済みデータセット36に格納された学習済みモデルを用いて、対象体を検出する(ステップS105)。
The
検出部37は、抽出部33により格納された検出対象データセット34と切替判定部35により格納された学習済みデータセットとの、例えば、類似度に対するスコアの乖離度に基づいて、検出対象データセット34内のデータが所望の検出体であることを検出した当該データを検出結果データベース(DB)38に格納する(ステップS106)。
The
ここで、制御部30は、次の画像情報に対する処理に移行し(ステップS107)、処理すべき画像情報があるのか否かを確認する(ステップS108)。そして、制御部30が、処理すべき画像情報がないと判断した場合(ステップS108の「Yes」)には、一連の処理を終了する。一方で、制御部30が、処理すべき画像情報があると判断した場合(ステップS108の「No」)には、処理をステップS105に戻す。
Here, the
以上、説明したように、本実施形態によれば、検出装置1は、移動体としてのフォークリフトに設置され、移動体としてのフォークリフト周辺の画像情報を取得する撮像部10と、複数の学習済みモデルに関する情報を記憶する記憶部20と、撮像部10において取得された画像情報を入力データとして、記憶部20に記憶された学習済みモデルを用いて、対象体を検出する検出部37と、移動体としてのフォークリフトの周辺環境情報を取得するセンサ40と、センサ40により取得された周辺環境情報を含む情報に基づいて、検出部37において用いられる学習済みモデルを切り替える切替判定部35と、を備えている。
つまり、撮像部10において取得される移動体としてのフォークリフト周辺の画像情報を入力とし、切替判定部35がセンサ40により取得された周辺環境情報を含む情報に基づいて、記憶部20に記憶された複数の学習済みモデルのうち好適と判断した学習済みモデルを用いて、検出部37が対象体を検出する。
そのため、一般的な汎用型学習済みモデルを用いて検出を行う方式に比べて、現在の状況にあった学習済みモデルを用いて検出を行うため、特に、対象体が画像情報のどれに対応するのかを判定するための処理量の低減を図るとともに、個別の対象体の検出精度を向上させることができる。
As described above, according to the present embodiment, the
That is, the image information around the forklift as a moving body acquired by the
Therefore, compared to the method of performing detection using a general general-purpose trained model, detection is performed using a trained model suitable for the current situation. Therefore, in particular, the target body corresponds to any of the image information. It is possible to reduce the amount of processing for determining whether or not, and to improve the detection accuracy of individual objects.
また、本実施形態によれば、記憶部20に記憶された複数の学習済みモデルは、画像情報または対象体に応じた特化型学習済みモデルである。ここで、特化型学習済みモデルとしては、昼間特化型学習済みモデル、夜間特化型学習済みモデル、屋内特化型学習済みモデル、人物特化型学習済みモデル等を例示することができる。
つまり、検出部37が、撮像部10において取得される移動体としてのフォークリフト周辺の画像情報を入力とし、切替判定部35がセンサ40により取得された周辺環境情報を含む情報に基づいて、記憶部20に記憶された画像情報または対象体に応じた特化型学習済みモデルのうち好適と判断した学習済みモデルを用いて、検出部37が対象体を検出する。
そのため、一般的な汎用型学習済みモデルを用いて検出を行う方式に比べて、現在の状況にあった特化型学習済みモデルを用いて検出を行うため、特に、対象体が画像情報のどれに対応するのかを判定するための処理量の低減をさらに図るとともに、個別の対象体の検出精度をさらに向上させることができる。
Further, according to the present embodiment, the plurality of trained models stored in the
That is, the
Therefore, compared to the method of performing detection using a general-purpose trained model, detection is performed using a specialized trained model suitable for the current situation. Therefore, in particular, which of the image information is the object. It is possible to further reduce the amount of processing for determining whether or not the object corresponds to the above, and further improve the detection accuracy of individual objects.
また、本実施形態によれば、センサ40は、移動体としてのフォークリフトの走行位置情報、時刻情報、移動体としてのフォークリフト周辺の照度情報の少なくともいずれか1つを含む周辺環境情報を取得する。
つまり、センサ40が取得する周辺環境情報により、移動体としてのフォークリフトの走行位置情報が例えば、危険地域あるいは注意エリアであるのか、今、現在が昼間なのか夜間なのか、移動体としてのフォークリフトが屋内にあるのか屋外にあるのかといった記憶部20に記憶された特化型学習済みモデルにリンクした情報を得ることができる。
そのため、センサ40が取得する周辺環境情報に基づいて、切替判定部35が特化型学習済みモデルの選択を行うことによって、現在の状況にあった好適な特化型学習済みモデルを用いて、検出部37が対象体を検出することができるため、一般的な汎用型学習モデルを用いて検出を行う方式に比べて、特に、対象体が画像情報のどれに対応するのかを判定するための処理量の低減をさらに図るとともに、個別の対象体の検出精度をさらに向上させることができる。
Further, according to the present embodiment, the
That is, according to the surrounding environment information acquired by the
Therefore, the switching
また、本実施形態によれば、移動体としてのフォークリフトが屋内あるいは屋外を走行し、記憶部20は、少なくとも昼間特化型学習済みモデルと夜間特化型学習済みモデルとを記憶し、センサ40は、移動体としてのフォークリフトの周辺環境情報として、少なくとも時刻情報もしくは移動体としてのフォークリフト周辺の照度情報を検出し、検出部は、移動体としてのフォークリフトが衝突する可能性がある対象体を検出し、検出部における対象体の検出結果をオペレータに報知する報知部を備えている。
そのため、例えば、夜間に人間の視覚では認識することが難しい対象体についても、検出装置1が的確に対象体を認識し、その検出結果を報知することにより、衝突等の発生を未然に防止するための補助装置として機能することができる。
Further, according to the present embodiment, the forklift as a moving body travels indoors or outdoors, and the
Therefore, for example, even for an object that is difficult to be recognized by human vision at night, the
また、本実施形態によれば、移動体としてのフォークリフトが、屋内を走行し、記憶部20は、少なくとも屋内特化型学習済みモデルを記憶し、センサ40は、移動体としてのフォークリフトの周辺環境情報として、少なくとも走行位置情報を検出し、検出部37は、移動体としてのフォークリフトが衝突する可能性がある前記対象体を検出し、検出部37における対象体の検出結果を移動体としてのフォークリフトのオペレータに報知する報知部50を備えている。
そのため、例えば、死角となり得る物体や構造物の多い屋内であっても、検出装置1が的確に対象体を認識し、その検出結果を報知することにより、衝突等の発生を未然に防止するための補助装置として機能することができる。
Further, according to the present embodiment, the forklift as a moving body travels indoors, the
Therefore, for example, even indoors where there are many objects and structures that can be blind spots, the
なお、本実施形態においては、センサ40が取得する移動体としてのフォークリフトの周辺環境情報に応じた特化型学習済みモデルを用いて、対象体の検出を行うことを説明したが、例えば、ユーザのニーズに対応した特化型学習済みモデルを用いて、対象体の検出を行うことも可能である。
一例として、車両特化型学習済みモデルを用いて、車両の詳細情報を取得して、荷物の積み込みモードを検出した場合に、どのトラックに荷物を載せるのかを判定する用途に適用してもよい。
また、人物特化型学習済みモデルにより人の詳細情報を取得して、不審者を検出する用途に適用してもよい。
また、同様に、人物特化型学習済みモデルにより人の詳細情報を取得して、オペレータに関する判別、例えば、オペレータの有無について判別を行う用途に適用してもよい。このような用途に応用することにより、オペレータに関する判別結果を表示したり、移動体としてのフォークリフトが有人無人兼用車である場合には、オペレータの判別の結果を配車制御に利用することができる。
In the present embodiment, it has been described that the target body is detected by using the specialized learned model corresponding to the surrounding environment information of the forklift as the moving body acquired by the
As an example, a vehicle-specific trained model may be used to acquire detailed information on a vehicle and apply it to determine which truck to load a load when a load-loading mode is detected. ..
In addition, detailed information on a person may be acquired by a person-specific trained model and applied to detect a suspicious person.
Similarly, it may be applied to the purpose of acquiring detailed information of a person by a person-specific trained model and determining the operator, for example, determining the presence or absence of an operator. By applying it to such an application, it is possible to display the discrimination result regarding the operator, and when the forklift as a moving body is a manned and unmanned vehicle, the discrimination result of the operator can be used for vehicle allocation control.
<第2の実施形態>
以下、図9から図11を用いて、本発明の第2の実施形態に係る検出装置1Aについて説明する。
なお、本実施形態に係る検出装置1は、その構成において、第1の実施形態とは、制御部30Aの構成のみが異なる。
<Second embodiment>
Hereinafter, the detection device 1A according to the second embodiment of the present invention will be described with reference to FIGS. 9 to 11.
The
<制御部30Aの構成>
本実施形態に係る検出装置1Aにおける制御部30Aは、図9に示すように、収集部31と、撮像画像データベース(DB)32と、抽出部33と、検出対象データセット34と、切替判定部35Aと、学習済みデータセット36と、検出部37と、検出結果データベース(DB)38と、切替情報生成部39Aと、タイマ部39Bとを含んで構成されている。
なお、第1の実施形態と同一の符号を付す構成要素については、同様の機能を有することから、その詳細な説明は省略する。
<Structure of
As shown in FIG. 9, the
Since the components having the same reference numerals as those in the first embodiment have the same functions, detailed description thereof will be omitted.
切替判定部35Aは、センサ40から得られる移動体としてのフォークリフトの周辺環境情報を含む情報に基づいて、記憶部20に記憶された好適な学習済みモデルを選択して、当該学習済みモデルを学習済みデータセット36に格納する。また、切替判定部35Aは、後述する切替情報生成部39Aからの切替情報に基づいて、学習済みモデルを切り替える。また、切替判定部35Aは、検出部37Aの検出結果に基づく、切替情報により、学習済みモデルを切り替える。
The switching
切替情報生成部39Aは、任意の時間間隔、例えば、画像のフレーム間隔で、検出部37において用いられる学習済みモデルを記憶部20に記憶された複数の学習済みモデルのうち、他の学習済みモデルに切り替える切替情報を切替判定部35Aに出力する。また、切替情報生成部39Aは、検出部37における深層学習の類似度に対するスコアが最も高い学習済みモデルへの切替情報を切替判定部35Aに出力する。
The switching
タイマ部39Bは、任意の時間間隔、例えば、画像のフレーム間隔を計時する。
The
<検出装置の処理>
図10、図11を用いて、本実施形態に係る検出装置1Aの処理について説明する。
<Processing of detection device>
The processing of the detection device 1A according to the present embodiment will be described with reference to FIGS. 10 and 11.
撮像部10は、移動体としてのフォークリフト周辺の画像情報を取得する(ステップS201)。収集部31は、撮像部10からの撮像画像を収集し、収集された画像情報を撮像画像データベース(DB)32に格納する(ステップS202)。
The
切替判定部35Aは、センサ40から得られる移動体としてのフォークリフトの周辺環境情報を含む情報に基づいて、記憶部20に記憶された好適な学習済みモデルを選択して、当該学習済みモデルを学習済みデータセット36に格納する(ステップS203)。
The switching
抽出部33は、撮像画像DB32から、深層学習に用いられる正例となる撮像画像を抽出し、検出対象データセット34へ格納する(ステップS204)。
The
検出部37は、撮像部10において取得された画像情報を入力データとして、切替判定部35により学習済みデータセット36に格納された学習済みモデルを用いて、対象体を検出する(ステップS205)。
The
タイマ部39Bは、任意の時間間隔、例えば、画像のフレーム間隔を計時すると、切替情報生成部39Aおよび検出部37がフレーム間処理を実行する(ステップS206)。具体的には、図11に示すように、切替情報生成部39Aが検出部37により用いられる学習済みモデルを記憶部20に記憶された複数の学習済みモデルのうち、他の学習済みモデルに切り替える切替情報を切替判定部35Aに出力し、当該学習済みモデルを学習済みデータセット36に格納する(ステップS2061)。そして、抽出部33は、撮像画像DB32から、深層学習に用いられる正例となる撮像画像を抽出し、検出対象データセット34へ格納し(ステップS2062)、検出部37は、撮像部10において取得された画像情報を入力データとして、切替判定部35Aにより学習済みデータセット36に格納された学習済みモデルを用いて、対象体を検出する(ステップS2063)。
When the
検出部37は、抽出部33により格納された検出対象データセット34と切替判定部35により格納された学習済みデータセットとの、例えば、類似度に対するスコアの乖離度に基づいて、検出対象データセット34内のデータが所望の検出体であることを検出した当該データを検出結果データベース(DB)38に格納する(ステップS207)。
The
切替情報生成部39Aは、検出部37における深層学習の類似度に対するスコアが最も高い学習済みモデルへの切替情報を切替判定部35Aに出力する(ステップS208)。
The switching
ここで、制御部30Aは、次の画像情報に対する処理に移行し(ステップS209)、処理すべき画像情報があるのか否かを確認する(ステップS210)。そして、制御部30Aが、処理すべき画像情報がないと判断した場合(ステップS210の「Yes」)には、一連の処理を終了する。一方で、制御部30Aが、処理すべき画像情報があると判断した場合(ステップS210の「No」)には、処理をステップS205に戻す。
Here, the
以上、説明したように、本実施形態によれば、検出装置1Aは、切替判定部35Aに学習済みモデルの切替情報を出力する切替情報生成部39Aを備え、切替情報生成部39Aは、任意の時間間隔で、検出部37において用いられる学習済みモデルを記憶部20に記憶された複数の学習済みモデルのうち、他の学習済みモデルに切り替える切替情報を切替判定部35Aに出力するとともに、検出部37における深層学習の類似度に対するスコアが最も高い学習済みモデルへの切替情報を切替判定部35Aに出力する。
つまり、切替情報生成部39Aは、任意の時間間隔で、例えば、画像情報のフレーム間隔で、検出部37において用いられる学習済みモデルを記憶部20に記憶された複数の学習済みモデルのうち、他の学習済みモデルに切り替える切替情報を切替判定部35Aに出力する。そして、検出部37における深層学習の類似度に対するスコアが最も高い学習済みモデルへの切替情報を切替判定部35Aに出力する。
そのため、検出精度の高い学習済みモデルによって、検出部37が対象体を検出するため、結果として、対象体の検出精度をさらに高めることができる。また、一般的な汎用型学習モデルを用いて検出を行う方式に比べて、現在の状況に最も適合した学習済みモデルを用いて検出を行うため、特に、対象体が画像情報のどれに対応するのかを判定するための処理量の低減を図ることができる。
As described above, according to the present embodiment, the detection device 1A includes a switching
That is, the switching
Therefore, the
<第3の実施形態>
以下、図12から図14を用いて、本発明の第3の実施形態に係る検出装置1Bについて説明する。
なお、本実施形態に係る検出装置1Bは、その構成において、第1の実施形態および第2の実施形態とは、制御部30Bの構成のみが異なる。
<Third embodiment>
Hereinafter, the detection device 1B according to the third embodiment of the present invention will be described with reference to FIGS. 12 to 14.
The detection device 1B according to the present embodiment differs from the first embodiment and the second embodiment only in the configuration of the
<制御部30Bの構成>
本実施形態に係る検出装置1における制御部30Bは、図12に示すように、収集部31と、撮像画像データベース(DB)32と、抽出部33と、検出対象データセット34と、切替判定部35Aと、学習済みデータセット36と、検出部37と、検出結果データベース(DB)38と、切替情報生成部39Cと、タイマ部39Bと、画像類似度判定部39Dとを含んで構成されている。
なお、第1の実施形態と同一の符号を付す構成要素については、同様の機能を有することから、その詳細な説明は省略する。
<Structure of
As shown in FIG. 12, the
Since the components having the same reference numerals as those in the first embodiment have the same functions, detailed description thereof will be omitted.
切替情報生成部39Cは、撮像部10において取得された画像情報が時系列的に所定範囲の類似度を有する場合に、任意の時間間隔で、検出部37において用いられる学習済みモデルを記憶部20に記憶された複数の学習済みモデルのうち、他の学習済みモデルに切り替える切替情報を切替判定部35Aに出力するとともに、検出部37における深層学習の類似度に対するスコアが最も高い学習済みモデルへの切替情報を切替判定部35Aに出力する。
The switching
画像類似度判定部39Dは、抽出部33により抽出された検出対象データセット34内の時系列画像情報に対して、その画像情報同士の類似度を判定し、当該類似度が所定範囲内である場合に、切替情報生成部39Cに対して、信号を出力する。
The image
<検出装置の処理>
図13、図14を用いて、本実施形態に係る検出装置1の処理について説明する。
<Processing of detection device>
The processing of the
撮像部10は、移動体としてのフォークリフト周辺の画像情報を取得する(ステップS301)。収集部31は、撮像部10からの撮像画像を収集し、収集された画像情報を撮像画像データベース(DB)32に格納する(ステップS302)。
The
切替判定部35Aは、センサ40から得られる移動体としてのフォークリフトの周辺環境情報を含む情報に基づいて、記憶部20に記憶された好適な学習済みモデルを選択して、当該学習済みモデルを学習済みデータセット36に格納する(ステップS303)。
The switching
抽出部33は、撮像画像データベース(DB)32から、深層学習に用いられる正例となる撮像画像を抽出し、検出対象データセット34へ格納する(ステップS304)。
The
検出部37は、撮像部10において取得された画像情報を入力データとして、切替判定部35により学習済みデータセット36に格納された学習済みモデルを用いて、対象体を検出する(ステップS305)。
The
タイマ部39Bは、任意の時間間隔、例えば、画像のフレーム間隔を計時すると、切替情報生成部39Cおよび検出部37がフレーム間処理を実行する(ステップS306)。具体的には、図14に示すように、画像類似度判定部39Dが、抽出部33により抽出された検出対象データセット34内の時系列画像情報に対して、その画像情報同士の類似度を判定し、当該類似度が所定範囲内であるか否かを判定する(ステップS2064)。そして、類似度が所定範囲内でないと判定した場合(ステップS2064の「NO」)には、処理を停止する。一方で、類似度が所定範囲内であると判定した場合(ステップS2064の「YES」)には、切替情報生成部39Cに対して、信号を出力する。切替情報生成部39Cは検出部37により用いられる学習済みモデルを記憶部20に記憶された複数の学習済みモデルのうち、他の学習済みモデルに切り替える切替情報を切替判定部35Aに出力し、当該学習済みモデルを学習済みデータセット36に格納する(ステップS2061)。そして、抽出部33は、撮像画像DB32から、深層学習に用いられる正例となる撮像画像を抽出して、検出対象データセット34へ格納し(ステップS2062)、検出部37は、撮像部10において取得された画像情報を入力データとして、切替判定部35Aにより学習済みデータセット36に格納された学習済みモデルを用いて、対象体を検出する(ステップS2063)。
When the
検出部37は、抽出部33により格納された検出対象データセット34と切替判定部35により格納された学習済みデータセットとの、例えば、類似度に対するスコアの乖離度に基づいて、検出対象データセット34内のデータが所望の検出体であることを検出した当該データを検出結果DB38に格納する(ステップS207)。
The
切替情報生成部39Cは、検出部37における深層学習の類似度に対するスコアが最も高い学習済みモデルへの切替情報を切替判定部35Aに出力する(ステップS208)。
The switching
ここで、制御部30Aは、次の画像情報に対する処理に移行し(ステップS209)、処理すべき画像情報があるのか否かを確認する(ステップS210)。そして、制御部30Aが、処理すべき画像情報がないと判断した場合(ステップS210の「Yes」)には、一連の処理を終了する。一方で、制御部30Aが、処理すべき画像情報があると判断した場合(ステップS210の「No」)には、処理をステップS205に戻す。
Here, the
以上、説明したように、本実施形態によれば、検出装置1Bの切替情報生成部39Cは、任意の時間間隔で、例えば、撮像部10において取得された画像情報が時系列的に所定範囲の類似度を有する場合に、画像情報のフレーム間隔で、検出部37において用いられる学習済みモデルを記憶部20に記憶された複数の学習済みモデルのうち、他の学習済みモデルに切り替える切替情報を切替判定部35Aに出力する。
そのため、時系列的に所定範囲の類似度を有する画像情報に対して、検出精度の高い学習済みモデルを適用することによって、検出部37が対象体を検出するため、結果として、対象体の検出精度をさらに高めることができる。また、一般的な汎用型学習モデルを用いて検出を行う方式に比べて、現在の状況に最も適合した学習済みモデルを用いて検出を行うため、特に、対象体が画像情報のどれに対応するのかを判定するための処理量の低減を図ることができる。
As described above, according to the present embodiment, in the switching
Therefore, by applying the learned model with high detection accuracy to the image information having the similarity within a predetermined range in time series, the
なお、同一領域の画像を撮像する別の撮像部(例えば、ドライブレコーダー)を備え、当該撮像部による撮像画像を教師データとして、検出部37における検出結果とのマッチング評価を行い、この評価結果に基づいて、学習済みモデルの一部を更新するような機能を有してもよい。
In addition, another imaging unit (for example, a drive recorder) that captures an image in the same region is provided, and the image captured by the imaging unit is used as teacher data to perform matching evaluation with the detection result in the
また、上記の実施形態においては、移動体としてフォークリフトを例示して説明したが、ショベルカー等の建設機械やトラクター等の農業機械等の産業機械にも適用することができる。 Further, in the above embodiment, the forklift has been illustrated as a moving body, but it can also be applied to a construction machine such as an excavator car and an industrial machine such as an agricultural machine such as a tractor.
また、検出装置1の処理をコンピュータシステムが読み取り可能な記録媒体に記録し、この記録媒体に記録されたプログラムを検出装置1に読み込ませ、実行することによって本発明の検出装置1を実現することができる。ここでいうコンピュータシステムとは、OSや周辺装置等のハードウェアを含む。
Further, the
また、「コンピュータシステム」は、WWW(World Wide Web)システムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。 Further, the "computer system" includes a homepage providing environment (or a display environment) if a WWW (World Wide Web) system is used. Further, the program may be transmitted from a computer system in which this program is stored in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the "transmission medium" for transmitting a program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Further, the above program may be for realizing a part of the above-mentioned functions. Further, it may be a so-called difference file (difference program) that can realize the above-mentioned function in combination with a program already recorded in the computer system.
以上、この発明の実施形態につき、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and includes designs and the like within a range that does not deviate from the gist of the present invention.
1;検出装置
10;撮像部
20;記憶部
30;制御部
31;収集部
32;撮像画像データベース(DB)
33;抽出部33
34;検出対象データセット
35、35A;切替判定部
36;学習済みデータセット
37;検出部
38;検出結果データベース(DB)
39A、39C;切替情報生成部
39B;タイマ部
39D;画像類似度判定部
40;センサ
50;報知部
1;
33;
34; Detection
39A, 39C; Switching
Claims (7)
複数の学習済みモデルに関する情報を記憶する記憶部と、
該撮像部において取得された画像情報を入力データとして、該記憶部に記憶された学習済みモデルを用いて、対象体を検出する検出部と、
前記移動体の周辺環境情報を取得するセンサと、
該センサにより取得された前記周辺環境情報を含む情報に基づいて、前記検出部において用いられる学習済みモデルを切り替える切替判定部と、
を備えたことを特徴とする検出装置。 An imaging unit that is installed on a moving body and acquires image information around the moving body,
A storage unit that stores information about multiple trained models,
Using the image information acquired by the imaging unit as input data and using the learned model stored in the storage unit, a detection unit that detects an object and a detection unit.
A sensor that acquires information on the surrounding environment of the moving object,
A switching determination unit that switches the learned model used in the detection unit based on the information including the surrounding environment information acquired by the sensor.
A detection device characterized by being equipped with.
該切替情報生成部は、任意の時間間隔で、前記検出部において用いられる学習済みモデルを前記記憶部に記憶された前記複数の学習済みモデルのうち、他の学習済みモデルに切り替える切替情報を前記切替判定部に出力するとともに、前記検出部における深層学習の類似度に対するスコアが最も高い前記学習済みモデルへの切替情報を前記切替判定部に出力することを特徴とする請求項1から3のいずれかに記載の検出装置。 The switching determination unit is provided with a switching information generation unit that outputs switching information of the learned model.
The switching information generation unit switches information for switching the learned model used in the detection unit to another learned model among the plurality of learned models stored in the storage unit at an arbitrary time interval. Any of claims 1 to 3, wherein the switching determination unit is output, and the switching information to the learned model having the highest score for the similarity of deep learning in the detection unit is output to the switching determination unit. The detection device described in.
前記記憶部は、少なくとも昼間特化型学習済みモデルと夜間特化型学習済みモデルとを記憶し、
前記センサは、前記フォークリフトの前記周辺環境情報として、少なくとも時刻情報もしくは前記フォークリフトの周辺の照度情報を検出し、
前記検出部は、前記フォークリフトが衝突する可能性がある前記対象体を検出し、
前記検出部における前記対象体の検出結果を前記フォークリフトのオペレータに報知する報知部を備えることを特徴とする請求項1に記載の検出装置。 The moving body is a forklift that travels indoors or outdoors.
The storage unit stores at least a daytime specialized trained model and a nighttime specialized trained model.
The sensor detects at least time information or illuminance information around the forklift as the surrounding environment information of the forklift.
The detection unit detects the object that the forklift may collide with, and
The detection device according to claim 1, further comprising a notification unit that notifies the forklift operator of the detection result of the target body in the detection unit.
前記記憶部は、少なくとも屋内特化型学習済みモデルまたは人物特化型学習済みモデルを記憶し、
前記センサは、前記フォークリフトの前記周辺環境情報として、少なくとも走行位置情報を検出し、
前記検出部は、前記フォークリフトが衝突する可能性がある前記対象体を検出し、
前記検出部における前記対象体の検出結果を前記フォークリフトのオペレータに報知する報知部を備えることを特徴とする請求項1に記載の検出装置。 The moving body is a forklift that travels indoors.
The storage unit stores at least an indoor specialized trained model or a person-specific trained model.
The sensor detects at least traveling position information as the surrounding environment information of the forklift.
The detection unit detects the object that the forklift may collide with, and
The detection device according to claim 1, further comprising a notification unit that notifies the forklift operator of the detection result of the target body in the detection unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019070858A JP2020170319A (en) | 2019-04-02 | 2019-04-02 | Detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019070858A JP2020170319A (en) | 2019-04-02 | 2019-04-02 | Detection device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020170319A true JP2020170319A (en) | 2020-10-15 |
Family
ID=72745919
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019070858A Pending JP2020170319A (en) | 2019-04-02 | 2019-04-02 | Detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020170319A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220237918A1 (en) * | 2021-01-22 | 2022-07-28 | Panasonic I-Pro Sensing Solutions Co., Ltd. | Monitoring camera and learning model setting support system |
WO2023058360A1 (en) * | 2021-10-06 | 2023-04-13 | Hitachi Astemo, Ltd. | Dynamic image compression for multiple cameras of autonomous vehicles |
WO2023119800A1 (en) * | 2021-12-24 | 2023-06-29 | 日立Astemo株式会社 | In-vehicle computational processing device and computational processing method |
WO2023162561A1 (en) * | 2022-02-25 | 2023-08-31 | 古野電気株式会社 | Landmark monitoring device, ship steering system, landmark monitoring method, and program |
-
2019
- 2019-04-02 JP JP2019070858A patent/JP2020170319A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220237918A1 (en) * | 2021-01-22 | 2022-07-28 | Panasonic I-Pro Sensing Solutions Co., Ltd. | Monitoring camera and learning model setting support system |
WO2023058360A1 (en) * | 2021-10-06 | 2023-04-13 | Hitachi Astemo, Ltd. | Dynamic image compression for multiple cameras of autonomous vehicles |
WO2023119800A1 (en) * | 2021-12-24 | 2023-06-29 | 日立Astemo株式会社 | In-vehicle computational processing device and computational processing method |
WO2023162561A1 (en) * | 2022-02-25 | 2023-08-31 | 古野電気株式会社 | Landmark monitoring device, ship steering system, landmark monitoring method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7424034B2 (en) | Solid-state imaging device, imaging device, and recognition processing method | |
JP6937443B2 (en) | Imaging device and control method of imaging device | |
TWI821417B (en) | Sensor device and signal processing method | |
CN111741229B (en) | Image processing method and apparatus | |
CN100574376C (en) | Camera head, camera system and image capture method | |
JP2020170319A (en) | Detection device | |
KR100879623B1 (en) | Automated Wide Area Surveillance System Using PTZ Camera and Its Method | |
CN107914707A (en) | Anti-collision warning method, system, vehicular rear mirror and storage medium | |
EP1553516B1 (en) | Pedestrian extracting apparatus | |
JP2007295525A (en) | Imaging apparatus, imaging system, and imaging method | |
CN111967396A (en) | Processing method, device and equipment for obstacle detection and storage medium | |
EP3349201B1 (en) | Parking assist method and vehicle parking assist system | |
CN114008698A (en) | External environment recognition device | |
JP4788399B2 (en) | Pedestrian detection method, apparatus, and program | |
CN118135782A (en) | Traffic jam detection method and system based on holographic intersection | |
US20230308779A1 (en) | Information processing device, information processing system, information processing method, and information processing program | |
CN114827436A (en) | Camera shooting method and device | |
JP2020170320A (en) | Detection device | |
CN113966526A (en) | External environment recognition device | |
KR102340902B1 (en) | Apparatus and method for monitoring school zone | |
WO2021200199A1 (en) | Information processing device, information processing method, and information processing program | |
WO2022004413A1 (en) | Information processing device, information processing method, and program | |
WO2021200329A1 (en) | Information processing device, information processing method, and information processing program | |
WO2023286375A1 (en) | Information processing system, information processing device, and information processing method | |
CN114119576A (en) | Image processing method and device, electronic equipment and vehicle |