JP6891954B2 - 物体検知装置、物体検知方法、及びプログラム - Google Patents
物体検知装置、物体検知方法、及びプログラム Download PDFInfo
- Publication number
- JP6891954B2 JP6891954B2 JP2019524858A JP2019524858A JP6891954B2 JP 6891954 B2 JP6891954 B2 JP 6891954B2 JP 2019524858 A JP2019524858 A JP 2019524858A JP 2019524858 A JP2019524858 A JP 2019524858A JP 6891954 B2 JP6891954 B2 JP 6891954B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- normalized
- fisheye
- position coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 87
- 230000003287 optical effect Effects 0.000 claims description 54
- 230000008859 change Effects 0.000 claims description 33
- 238000012937 correction Methods 0.000 claims description 33
- 238000000034 method Methods 0.000 claims description 24
- 238000006243 chemical reaction Methods 0.000 claims description 16
- 238000010586 diagram Methods 0.000 description 20
- 239000011159 matrix material Substances 0.000 description 15
- 238000012545 processing Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 13
- 230000009466 transformation Effects 0.000 description 12
- 238000013459 approach Methods 0.000 description 10
- 238000010606 normalization Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Geometry (AREA)
Description
物体が写った魚眼画像を正規化して得られた正規化画像を取得する、正規化画像取得部と、
前記正規化画像における前記物体の位置座標を検出する、位置検出部と、
前記正規化画像における前記物体の位置座標を用いて、前記物体と当該装置との位置関係を判定する、判定部と、
を備えていることを特徴とする。
(a)物体が写った魚眼画像を正規化して得られた正規化画像を取得する、ステップと、
(b)前記正規化画像における前記物体の位置座標を検出する、ステップと、
(c)前記正規化画像における前記物体の位置座標を用いて、前記物体との位置関係を判定する、ステップと、
を備えていることを特徴とする。
前記コンピュータに、
(a)物体が写った魚眼画像を正規化して得られた正規化画像を取得する、ステップと、
(b)前記正規化画像における前記物体の位置座標を検出する、ステップと、
(c)前記正規化画像における前記物体の位置座標を用いて、前記物体との位置関係を判定する、ステップと、
を実行させることを特徴とする。
以下、本発明の実施の形態における、物体検知装置、物体検知方法、及びプログラムについて、図1〜図13を参照しながら説明する。
最初に、図1を用いて、本実施の形態における物体検知装置の概略構成について説明する。図1は、本発明の実施の形態における物体検知装置の概略構成を示すブロック図である。
(uH,vH):正規化画像上の位置座標,
(θ,r):実空間座標系での位置座標,
AX:水平視野角,
AY:垂直視野角,
Wo×Ho:正規化画像サイズ,
HC:カメラ設置高さ,
判定部30は、下記の数4に示すように、距離速度の絶対値|dr/dt|が、閾値δ(>0)未満、傾斜角θが0に近づくように変化し、更に、角速度dθ/dtが閾値ε(>0)を超える場合は、物体が車両に廻り込むように移動していると判定する。
判定部30は、下記の数5に示すように、距離速度の負の値(即ち、距離方向の接近速度)が、閾値δ(>0)以上、η(>δ>0)以下の範囲にあり、傾斜角θが0に近づくように変化し、角速度dθ/dtが閾値ε(>0)を超える場合は、物体は車両を横切っていると判定する。
判定部30は、下記の数6に示すように、距離速度の負の値(即ち、距離方向の接近速度)が、閾値η(>0)以上である場合は、物体は車両に接近していると判定する。
ここで、透視投影近似による歪み補正について具体的に説明する。透視投影近似による歪補正(透視投影補正)は、一般にカメラモデル、及びカメラモデルにおける校正済みの内部パラメータが既知であれば、以下の方法で求めることが出来る。なお、透視投影近似による歪み補正は、既存の技術で実現できるものであるが、参考として以下で簡単に説明する。
[参考文献]
Davide Scaramuzza、 Agostino Martinelli and Roland Siegwart、 “A Toolbox for Easily Calibrating Omnidirectional Cameras”、 IROS、 2006。
視点補償ベクトルによって平行化変換行列が与えられるため、任意の平行化視点における透視投影画像平面を定義できる。その結果、画像生成部13は、平行化視点それぞれ毎に、各視点における透視投影補正画像を上記の方法を用いて生成することになる。
ここで、画像生成部13による処理の具体例について以下に説明する。元の魚眼画像(IP)から各平行化視点座標系で生成される透視投影補正画像(IP)において、その中心を通る画像列を「正規化スライス画像(IS)」と表記する。また、最終的な出力画像を「正規化パノラマ画像(IH)」、と表記する。本実施の形態では、正規化パノラマ画像を生成するまでの一連の機能が画像生成部13の機能である。
また、画像生成部13は、視点毎の透視投影近似による歪み補正において、平行化視点座標系における投影平面の原点に対する距離を、生成される正規化パノラマ画像における、サイズ、水平方向における視野角の範囲、及びアスペクト比に基づいて決定する。
(W0,H0,AX,μ)を拘束条件として、下記の数42及び数43を用いて、(|zd|,Ay)を決定する。
以下の数44が成立するときに、下記の数45〜数47を用いた再計算により、(AX,Ay,|zd|)を下記の数48で置き換える。
本実施の形態では、視点補償ベクトル取得部12は、視点補償ベクトルとして、対象物を接地面に平行な方向から撮影して得られる画像上の座標と、魚眼画像上の座標と、の対応付けを記述したテーブルを取得することができる。
次に、本実施の形態における物体検知装置100の動作について図11を用いて説明する。図11は、本発明の実施の形態における物体検知装置の動作を示すフロー図である。以下の説明においては、適宜図1〜図10を参酌する。また、本実施の形態では、物体検知装置100を動作させることによって、物体検知方法が実施される。よって、本実施の形態における物体検知方法の説明は、以下の物体検知装置100の動作説明に代える。
以上のように、本実施の形態では、魚眼カメラと接地平面との位置関係が補償され、その上で、魚眼画像中の歩行者の画像の形状歪が補正され、歩行者の画像は、通常のカメラ画像と同様に見えるように正規化される。また、正規化によって得られた画像は、全水平視野の範囲での平行化視点それぞれ毎に得られた透視投影補正画像の正規化スライス画像を連結して得られている。このため、本実施の形態によれば、歪み補正の精度が撮像装置の光学系から影響を受けることもない。また、魚眼カメラの光軸と対象物の接地平面との位置関係が一定条件を満たさない場合であっても、魚眼画像における歪みが精度良く除去される。
本実施の形態におけるプログラムは、コンピュータに、図11に示すステップS1〜S5を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における物体検知装置100と物体検知方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、正規化画像取得部10、位置検出部20、及び判定部30として機能し、処理を行なう。また、コンピュータとしては、パーソナルコンピュータといった汎用のコンピュータだけでなく、自動車、家電、作業用機器等に搭載されるコンピュータも挙げられる。
ここで、本実施の形態におけるプログラムを実行することによって、物体検知装置100を実現するコンピュータについて図13を用いて説明する。図13は、本発明の実施の形態における物体検知装置を実現するコンピュータの一例を示すブロック図である。
集合のある要素に対するインデックス:i,j,・・・
カメラ座標系における回転角度(roll、pitch、yaw):α,β,γ
回転行列:R
並進ベクトル:t
一般的な座標変換におけるカメラ外部パラメータ行列:K
任意のヨー角γに対する平行化変換行列:Khrz(γ)
元のカメラ座標系の点:mチルダ=(x,y,z,1)T
元の魚眼画像:IP
元の魚眼画像の座標:(u”,v”)
正規化パノラマ画像:IH
正規化パノラマ画像の出力サイズ(幅、高さ):(W0,H0)
平行化視点におけるヨー角の系列:Φ={φi}
ある平行化視点φiに対する平行化視点座標系:(数53)
ある平行化視点φiに対する透視投影画像平面座標:(数54)
ある平行化視点φiに対する透視投影補正画像:(数55)
ある平行化視点に対する正規化スライス画像:(数56)
スケールパラメータ:(数57)
魚眼画像から物体を検知するための装置であって、
物体が写った魚眼画像を正規化して得られた正規化画像を取得する、正規化画像取得部と、
前記正規化画像における前記物体の位置座標を検出する、位置検出部と、
前記正規化画像における前記物体の位置座標を用いて、前記物体と当該装置との位置関係を判定する、判定部と、
を備えていることを特徴とする物体検知装置。
前記正規化画像取得部が、
前記魚眼画像を取得する、魚眼画像取得部と、
前記物体の接地面に平行な面を基準とした、撮像装置の光軸回りのロール角及び光軸のピッチ角に基づいて、前記魚眼画像を、前記物体を前記接地面に平行な方向から撮影して得られる画像に変換するための、視点補償ベクトルを取得する、視点補償ベクトル取得部と、
前記視点補償ベクトルを用いて変換された前記魚眼画像に対して、その水平方向に沿って、前記接地面に平行な視点を複数設定し、
設定された前記視点毎に、変換後の前記魚眼画像に対して、当該視点からの視線を軸に含む座標系に基づいて、透視投影近似による歪み補正を行ない、
補正後の前記魚眼画像それぞれから抽出された垂直方向の画像要素を用いて、1つの前記正規化画像を生成する、画像生成部と、
を備えている、
付記1に記載の物体検知装置。
当該物体検知装置が車両に搭載されており、
前記判定部は、前記正規化画像における前記物体の位置座標を、前記車両までの距離と撮像装置の光軸に対する傾斜角とで位置座標を規定する座標系に変換し、変換後の前記物体の位置座標の時系列変化に基づいて、前記物体と前記車両との位置関係を判定する、
付記1または2に記載の物体検知装置。
前記判定部は、変換後の前記物体の位置座標から、前記物体の前記車両までの距離の変化率及び前記物体の前記傾斜角の変化率を求め、
求めた、前記物体の前記車両までの距離の変化率及び前記物体の前記傾斜角の変化率に基づいて、前記物体が前記車両に廻り込むように移動している状態、前記物体が前記車両を横切った状態、及び前記物体が前記車両に接近している状態のいずれであるかを判定する、
付記3に記載の物体検知装置。
前記判定部が、予め作成された参照テーブルを用いて、前記正規化画像における前記物体の位置座標を、前記車両までの距離と前記撮像装置の光軸に対する傾斜角とで位置座標を規定する座標系に変換し、
前記参照テーブルは、前記正規化画像上の垂直方向及び水平方向の座標毎に、当該座標と、それに対応する前記距離及び前記傾斜角を関連付けて登録している、
付記3または4に記載の物体検知装置。
魚眼画像から物体を検知するための方法であって、
(a)物体が写った魚眼画像を正規化して得られた正規化画像を取得する、ステップと、
(b)前記正規化画像における前記物体の位置座標を検出する、ステップと、
(c)前記正規化画像における前記物体の位置座標を用いて、前記物体との位置関係を判定する、ステップと、
を備えていることを特徴とする物体検知方法。
前記(a)のステップが、
(a1)前記魚眼画像を取得する、ステップと、
(a2)前記物体の接地面に平行な面を基準とした、撮像装置の光軸回りのロール角及び光軸のピッチ角に基づいて、前記魚眼画像を、前記対象物を前記接地面に平行な方向から撮影して得られる画像に変換するための、視点補償ベクトルを取得する、ステップと、
(a3)前記視点補償ベクトルを用いて変換された前記魚眼画像に対して、その水平方向に沿って、前記接地面に平行な視点を複数設定し、
設定された前記視点毎に、変換後の前記魚眼画像に対して、当該視点からの視線を軸に含む座標系に基づいて、透視投影近似による歪み補正を行ない、
補正後の前記魚眼画像それぞれから抽出された垂直方向の画像要素を用いて、1つの前記正規化画像を生成する、ステップと、
を含む、
付記6に記載の物体検知方法。
当該物体検知方法が車両において実行され、
前記(c)のステップにおいて、前記正規化画像における前記物体の位置座標を、前記車両までの距離と前記撮像装置の光軸に対する傾斜角とで位置座標を規定する座標系に変換し、変換後の前記物体の位置座標の時系列変化に基づいて、前記物体と前記車両との位置関係を判定する、
付記6または7に記載の物体検知方法。
前記(c)のステップにおいて、変換後の前記物体の位置座標から、前記物体の前記車両までの距離の変化率及び前記物体の前記傾斜角の変化率を求め、
求めた、前記物体の前記車両までの距離の変化率及び前記物体の前記傾斜角の変化率に基づいて、前記物体が前記車両に廻り込むように移動している状態、前記物体が前記車両を横切った状態、及び前記物体が前記車両に接近している状態のいずれであるかを判定する、
付記8に記載の物体検知方法。
前記(c)のステップにおいて、予め作成された参照テーブルを用いて、前記正規化画像における前記物体の位置座標を、前記車両までの距離と前記撮像装置の光軸に対する傾斜角とで位置座標を規定する座標系に変換し、
前記参照テーブルは、前記正規化画像上の垂直方向及び水平方向の座標毎に、当該座標と、それに対応する前記距離及び前記傾斜角を関連付けて登録している、
付記8または9に記載の物体検知方法。
コンピュータによって、魚眼画像から物体を検知するためのプログラムであって、
前記コンピュータに、
(a)物体が写った魚眼画像を正規化して得られた正規化画像を取得する、ステップと、
(b)前記正規化画像における前記物体の位置座標を検出する、ステップと、
(c)前記正規化画像における前記物体の位置座標を用いて、前記物体との位置関係を判定する、ステップと、
を実行させる、プログラム。
前記(a)のステップが、
(a1)前記魚眼画像を取得する、ステップと、
(a2)前記物体の接地面に平行な面を基準とした、撮像装置の光軸回りのロール角及び光軸のピッチ角に基づいて、前記魚眼画像を、前記対象物を前記接地面に平行な方向から撮影して得られる画像に変換するための、視点補償ベクトルを取得する、ステップと、
(a3)前記視点補償ベクトルを用いて変換された前記魚眼画像に対して、その水平方向に沿って、前記接地面に平行な視点を複数設定し、
設定された前記視点毎に、変換後の前記魚眼画像に対して、当該視点からの視線を軸に含む座標系に基づいて、透視投影近似による歪み補正を行ない、
補正後の前記魚眼画像それぞれから抽出された垂直方向の画像要素を用いて、1つの前記正規化画像を生成する、ステップと、
を含む、
付記11に記載のプログラム。
前記コンピュータが車両に搭載されており、
前記(c)のステップにおいて、前記正規化画像における前記物体の位置座標を、前記車両までの距離と前記撮像装置の光軸に対する傾斜角とで位置座標を規定する座標系に変換し、変換後の前記物体の位置座標の時系列変化に基づいて、前記物体と前記車両との位置関係を判定する、
付記11または12に記載のプログラム。
前記(c)のステップにおいて、変換後の前記物体の位置座標から、前記物体の前記車両までの距離の変化率及び前記物体の前記傾斜角の変化率を求め、
求めた、前記物体の前記車両までの距離の変化率及び前記物体の前記傾斜角の変化率に基づいて、前記物体が前記車両に廻り込むように移動している状態、前記物体が前記車両を横切った状態、及び前記物体が前記車両に接近している状態のいずれであるかを判定する、
付記13に記載のプログラム。
前記(c)のステップにおいて、予め作成された参照テーブルを用いて、前記正規化画像における前記物体の位置座標を、前記車両までの距離と前記撮像装置の光軸に対する傾斜角とで位置座標を規定する座標系に変換し、
前記参照テーブルは、前記正規化画像上の垂直方向及び水平方向の座標毎に、当該座標と、それに対応する前記距離及び前記傾斜角を関連付けて登録している、
付記13または14に記載のプログラム。
11 魚眼画像取得部
12 視点補償ベクトル取得部
13 画像生成部
14 視点補償ベクトル生成部
20 位置検出部
30 判定部
100 物体検知装置
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
200 画像出力装置
300 センサ装置
Claims (5)
- 車両に搭載された、魚眼画像から物体を検知するための装置であって、
物体が写った魚眼画像を正規化して得られた正規化画像を取得する、正規化画像取得部と、
前記正規化画像における前記物体の位置座標を検出する、位置検出部と、
前記正規化画像における前記物体の位置座標を、前記車両までの距離と撮像装置の光軸に対する傾斜角とで位置座標を規定する座標系に変換し、
変換後の前記物体の位置座標から、前記物体の前記車両までの距離の変化率及び前記物体の前記傾斜角の変化率を求め、
求めた、前記物体の前記車両までの距離の変化率及び前記物体の前記傾斜角の変化率に基づいて、前記物体が前記車両に廻り込むように移動している状態、前記物体が前記車両を横切った状態、及び前記物体が前記車両に接近している状態のいずれであるかを判定する、判定部と、
を備えていることを特徴とする物体検知装置。 - 前記正規化画像取得部が、
前記魚眼画像を取得する、魚眼画像取得部と、
前記物体の接地面に平行な面を基準とした、撮像装置の光軸回りのロール角及び光軸のピッチ角に基づいて、前記魚眼画像を、前記物体を前記接地面に平行な方向から撮影して得られる画像に変換するための、視点補償ベクトルを取得する、視点補償ベクトル取得部と、
前記視点補償ベクトルを用いて変換された前記魚眼画像に対して、その水平方向に沿って、前記接地面に平行な視点を複数設定し、
設定された前記視点毎に、変換後の前記魚眼画像に対して、当該視点からの視線を軸に含む座標系に基づいて、透視投影近似による歪み補正を行ない、
補正後の前記魚眼画像それぞれから抽出された垂直方向の画像要素を用いて、1つの前記正規化画像を生成する、画像生成部と、
を備えている、
請求項1に記載の物体検知装置。 - 前記判定部が、予め作成された参照テーブルを用いて、前記正規化画像における前記物体の位置座標を、前記車両までの距離と前記撮像装置の光軸に対する傾斜角とで位置座標を規定する座標系に変換し、
前記参照テーブルは、前記正規化画像上の垂直方向及び水平方向の座標毎に、当該座標と、それに対応する前記距離及び前記傾斜角を関連付けて登録している、
請求項1または2に記載の物体検知装置。 - 車両に搭載されたコンピュータによって、魚眼画像から物体を検知するための方法であって、
前記コンピュータが、
(a)物体が写った魚眼画像を正規化して得られた正規化画像を取得する、ステップと、
(b)前記正規化画像における前記物体の位置座標を検出する、ステップと、
(c)前記正規化画像における前記物体の位置座標を、前記車両までの距離と撮像装置の光軸に対する傾斜角とで位置座標を規定する座標系に変換し、
変換後の前記物体の位置座標から、前記物体の前記車両までの距離の変化率及び前記物体の前記傾斜角の変化率を求め、
求めた、前記物体の前記車両までの距離の変化率及び前記物体の前記傾斜角の変化率に基づいて、前記物体が前記車両に廻り込むように移動している状態、前記物体が前記車両を横切った状態、及び前記物体が前記車両に接近している状態のいずれであるかを判定する、ステップと、
を実行する、物体検知方法。 - 車両に搭載されたコンピュータによって、魚眼画像から物体を検知するためのプログラムであって、
前記コンピュータに、
(a)物体が写った魚眼画像を正規化して得られた正規化画像を取得する、ステップと、
(b)前記正規化画像における前記物体の位置座標を検出する、ステップと、
(c) 前記正規化画像における前記物体の位置座標を、前記車両までの距離と撮像装置の光軸に対する傾斜角とで位置座標を規定する座標系に変換し、
変換後の前記物体の位置座標から、前記物体の前記車両までの距離の変化率及び前記物体の前記傾斜角の変化率を求め、
求めた、前記物体の前記車両までの距離の変化率及び前記物体の前記傾斜角の変化率に基づいて、前記物体が前記車両に廻り込むように移動している状態、前記物体が前記車両を横切った状態、及び前記物体が前記車両に接近している状態のいずれであるかを判定する、ステップと、
を実行させる、プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/023311 WO2018235300A1 (ja) | 2017-06-23 | 2017-06-23 | 物体検知装置、物体検知方法、及びコンピュータ読み取り可能な記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018235300A1 JPWO2018235300A1 (ja) | 2020-04-09 |
JP6891954B2 true JP6891954B2 (ja) | 2021-06-18 |
Family
ID=64736145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019524858A Active JP6891954B2 (ja) | 2017-06-23 | 2017-06-23 | 物体検知装置、物体検知方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11188768B2 (ja) |
JP (1) | JP6891954B2 (ja) |
WO (1) | WO2018235300A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6874850B2 (ja) * | 2017-10-06 | 2021-05-19 | 日本電気株式会社 | 物体検知装置、物体検知方法、及びプログラム |
CN111612812B (zh) * | 2019-02-22 | 2023-11-03 | 富士通株式会社 | 目标物检测方法、检测装置和电子设备 |
WO2020179065A1 (ja) * | 2019-03-07 | 2020-09-10 | 日本電気株式会社 | 画像処理装置、画像処理方法及び記録媒体 |
JP7192582B2 (ja) * | 2019-03-11 | 2022-12-20 | オムロン株式会社 | 物体追跡装置および物体追跡方法 |
CN111968071B (zh) * | 2020-06-29 | 2024-07-05 | 北京中软政通信息技术有限公司 | 车辆的空间位置生成方法、装置、设备及存储介质 |
CN112102395B (zh) * | 2020-11-09 | 2022-05-20 | 广东科凯达智能机器人有限公司 | 一种基于机器视觉的自主巡检的方法 |
CN112565730B (zh) * | 2020-12-03 | 2023-07-25 | 阿波罗智联(北京)科技有限公司 | 路侧感知方法、装置、电子设备、存储介质及路侧设备 |
JP2022128941A (ja) * | 2021-02-24 | 2022-09-05 | キヤノン株式会社 | 撮像装置、コンピュータプログラム、記憶媒体及び撮像装置の制御方法 |
US20220408019A1 (en) * | 2021-06-17 | 2022-12-22 | Fyusion, Inc. | Viewpoint path modeling |
KR20230054165A (ko) * | 2021-10-15 | 2023-04-24 | 한화에어로스페이스 주식회사 | 감시 시스템에서 표적을 연동을 이용하여 표적을 탐지하기 위한 장치 및 방법 |
CN114897851B (zh) * | 2022-05-23 | 2024-08-09 | 成都飞机工业(集团)有限责任公司 | 基于中心投影的坐标补偿方法、装置、设备及介质 |
CN117078752B (zh) * | 2023-07-19 | 2024-05-28 | 苏州魔视智能科技有限公司 | 车辆位姿估计方法、装置、车辆及存储介质 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3025255B1 (ja) * | 1999-02-19 | 2000-03-27 | 有限会社フィット | 画像デ―タ変換装置 |
US6833843B2 (en) * | 2001-12-03 | 2004-12-21 | Tempest Microsystems | Panoramic imaging and display system with canonical magnifier |
US7782357B2 (en) * | 2002-06-21 | 2010-08-24 | Microsoft Corporation | Minimizing dead zones in panoramic images |
US7184609B2 (en) * | 2002-06-28 | 2007-02-27 | Microsoft Corp. | System and method for head size equalization in 360 degree panoramic images |
US7058237B2 (en) * | 2002-06-28 | 2006-06-06 | Microsoft Corporation | Real-time wide-angle image correction system and method for computer image viewing |
JP4449618B2 (ja) | 2004-07-22 | 2010-04-14 | 株式会社デンソー | 車両周辺監視システム |
TW200734965A (en) * | 2006-03-10 | 2007-09-16 | Sony Taiwan Ltd | A perspective correction panning method for wide-angle image |
TWI441514B (zh) * | 2008-11-12 | 2014-06-11 | Avisonic Technology Corp | 魚眼影像校正及減輕透視變形的影像處理方法及相關影像處理裝置 |
EP2610778A1 (en) | 2011-12-27 | 2013-07-03 | Harman International (China) Holdings Co., Ltd. | Method of detecting an obstacle and driver assist system |
JP5985336B2 (ja) | 2012-09-27 | 2016-09-06 | 株式会社熊平製作所 | パノラマ画像作成装置、及び、プログラム |
JP6454554B2 (ja) | 2015-01-20 | 2019-01-16 | クラリオン株式会社 | 車両用外界認識装置およびそれを用いた車両挙動制御装置 |
US11856331B1 (en) * | 2017-05-10 | 2023-12-26 | Waylens, Inc. | Extracting and transmitting video analysis metadata for a remote database |
-
2017
- 2017-06-23 JP JP2019524858A patent/JP6891954B2/ja active Active
- 2017-06-23 US US16/625,136 patent/US11188768B2/en active Active
- 2017-06-23 WO PCT/JP2017/023311 patent/WO2018235300A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US11188768B2 (en) | 2021-11-30 |
US20210326608A1 (en) | 2021-10-21 |
JPWO2018235300A1 (ja) | 2020-04-09 |
WO2018235300A1 (ja) | 2018-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6891954B2 (ja) | 物体検知装置、物体検知方法、及びプログラム | |
JP6330987B2 (ja) | 画像処理装置、画像処理方法、及び記憶媒体 | |
US10594941B2 (en) | Method and device of image processing and camera | |
WO2020206708A1 (zh) | 障碍物的识别方法、装置、计算机设备和存储介质 | |
KR101666959B1 (ko) | 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법 | |
JP2011215063A (ja) | カメラ姿勢パラメータ推定装置 | |
JP5481337B2 (ja) | 画像処理装置 | |
JP2009129001A (ja) | 運転支援システム、車両、立体物領域推定方法 | |
JP5299296B2 (ja) | 車両周辺画像表示装置及び車両周辺画像表示方法 | |
JP2006252473A (ja) | 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム | |
JP6874850B2 (ja) | 物体検知装置、物体検知方法、及びプログラム | |
CN112083403B (zh) | 用于虚拟场景的定位追踪误差校正方法及系统 | |
JP5959311B2 (ja) | データ導出装置、及び、データ導出方法 | |
KR101705558B1 (ko) | Avm 시스템의 공차 보정 장치 및 방법 | |
CN103546678A (zh) | 用于校正后置摄像机的图像畸变的装置和方法 | |
JP6031819B2 (ja) | 画像処理装置、画像処理方法 | |
US9802539B2 (en) | Distance and direction estimation of a target point from a vehicle using monocular video camera | |
JP2010217984A (ja) | 像検出装置及び像検出方法 | |
JP7074546B2 (ja) | 画像処理装置および方法 | |
JP2019012915A (ja) | 画像処理装置、画像変換方法 | |
JP6734136B2 (ja) | 画像処理装置 | |
KR101431378B1 (ko) | 전방위 영상의 생성 방법 및 장치 | |
JP7196920B2 (ja) | 運転支援装置および運転支援方法、プログラム | |
JP2009077022A (ja) | 運転支援システム及び車両 | |
JP2002094849A (ja) | 広視野画像撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191211 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210427 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210510 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6891954 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |