JP2014142832A - Image processing apparatus, control method of image processing apparatus, and program - Google Patents
Image processing apparatus, control method of image processing apparatus, and program Download PDFInfo
- Publication number
- JP2014142832A JP2014142832A JP2013011239A JP2013011239A JP2014142832A JP 2014142832 A JP2014142832 A JP 2014142832A JP 2013011239 A JP2013011239 A JP 2013011239A JP 2013011239 A JP2013011239 A JP 2013011239A JP 2014142832 A JP2014142832 A JP 2014142832A
- Authority
- JP
- Japan
- Prior art keywords
- image
- input
- processing apparatus
- human body
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理装置の制御方法、およびプログラムに関する。 The present invention relates to an image processing device, a control method for the image processing device, and a program.
従来、入力画像を拡大縮小したピラミッド画像を用いた特定物体検出の手法が数多く提案されている。 Conventionally, many methods for detecting a specific object using a pyramid image obtained by enlarging or reducing an input image have been proposed.
特許文献1では、画像処理装置に、所定領域を撮影して得られた画像を入力する画像入力部を介して入力した画像内の対象物候補領域の大きさの値を検出する。そして、当該検出した対象物候補領域の大きさの値と識別器にセットする基準値とで、画像を拡大縮小する倍率を決めて、当該倍率で画像を拡大縮小する。基準値に対応した枠を拡大縮小した画像上を移動して枠内の画像を抽出し、該枠内の画像と、基準値に対応した顔を検出可能にした顔検出用の識別器とで顔検出を行うことが提案されている。 In Patent Document 1, the size value of a target object candidate area in an image input via an image input unit that inputs an image obtained by photographing a predetermined area to an image processing apparatus is detected. Then, a magnification for enlarging / reducing the image is determined by the size value of the detected object candidate area and a reference value set in the discriminator, and the image is enlarged / reduced by the magnification. An image within the frame is extracted by moving the image corresponding to the reference value on the enlarged / reduced image, and an image within the frame and a face detection classifier capable of detecting a face corresponding to the reference value. It has been proposed to perform face detection.
特許文献2では、ピラミッド画像生成部は、撮像を行うカメラから検出対象とすべき被写体までの距離に応じて予め設定された倍率により、撮像画像を縮小又は拡大して、被写体の検出に用いるピラミッド画像を生成する。検出領域決定部は、ピラミッド画像上の全領域の中から、被写体を検出するための検出領域を決定し、被写体検出部は、検出領域から被写体を検出する手法が提案されている。 In Patent Document 2, the pyramid image generation unit reduces or enlarges the captured image by a magnification set in advance according to the distance from the camera that performs imaging to the subject to be detected, and uses the pyramid to detect the subject. Generate an image. There has been proposed a method in which the detection region determination unit determines a detection region for detecting a subject from all regions on the pyramid image, and the subject detection unit detects a subject from the detection region.
しかしながら、特許文献1の構成では、高画素センサを用いた望遠の撮像画像の場合には照明が届かないため輝度差が起きないという問題があった。また、雨や雪など背景が照明を反射しすぎる場合には、輝度差の計測が難しいという問題もあった。 However, the configuration of Patent Document 1 has a problem that a luminance difference does not occur in the case of a telephoto captured image using a high pixel sensor because illumination does not reach. In addition, when the background reflects too much light, such as rain or snow, it is difficult to measure the brightness difference.
また特許文献2の構成では、自然画の全体撮像画像と、全体距離マップ(Depthマップとも言う)間の各々画角が同じでないと撮像画像のピラミッド画像を適切に選択できないという問題があった。また、特許文献1と同様に高画素センサを用いた望遠の撮像画像の場合には、レンジファインダーの視差が大きくなってしまうという問題もあった。 Further, the configuration of Patent Document 2 has a problem that a pyramid image of a captured image cannot be appropriately selected unless the angle of view between the entire captured image of the natural image and the entire distance map (also referred to as a depth map) is the same. Further, in the case of a telephoto captured image using a high pixel sensor as in Patent Document 1, there is a problem that the parallax of the range finder becomes large.
上記の課題に鑑み、本発明は、画像処理装置と距離センサとの連携により、より適切にピラミッド画像の選択を可能とし、被写体の認識精度を向上した画像処理装置を提供することを目的とする。 SUMMARY OF THE INVENTION In view of the above problems, an object of the present invention is to provide an image processing apparatus capable of selecting a pyramid image more appropriately and improving subject recognition accuracy through cooperation between the image processing apparatus and a distance sensor. .
上記の目的を達成する本発明に係る画像処理装置は、
撮影対象に対する距離情報を取得する取得手段と、
前記撮影対象の画像を入力画像として取得する画像入力手段と、
前記距離情報に基づいて、前記入力画像の領域ごとに当該領域のサイズを変倍した1以上の変換画像を生成する画像生成手段と、
前記変換画像を用いて前記入力画像から特定物体を検出する検出手段と、
を備えることを特徴とする。
An image processing apparatus according to the present invention that achieves the above object is as follows.
An acquisition means for acquiring distance information with respect to an imaging target;
Image input means for acquiring the image to be photographed as an input image;
Image generating means for generating one or more converted images obtained by scaling the size of each area of the input image based on the distance information;
Detecting means for detecting a specific object from the input image using the converted image;
It is characterized by providing.
本発明によれば、被写体の誤検出を低減し、より高速な被写体検出が可能となる。 According to the present invention, it is possible to reduce erroneous detection of a subject and to perform faster subject detection.
(第1実施形態)
以下、図1乃至図6を参照して、本発明の第1実施形態を説明する。図1は、第1実施形態に係る画像処理装置10のブロック構成図である。画像処理装置10は、画像入力部11と、記憶部12と、入力部13と、距離センサ14と、距離センサ入力部15と、人体検出部16と、画像サイズ変倍部17と、外部出力部18とを備え、不図示のCPUにより動作を制御される。
(First embodiment)
The first embodiment of the present invention will be described below with reference to FIGS. FIG. 1 is a block diagram of an image processing apparatus 10 according to the first embodiment. The image processing apparatus 10 includes an image input unit 11, a storage unit 12, an input unit 13, a distance sensor 14, a distance sensor input unit 15, a human body detection unit 16, an image size scaling unit 17, and an external output. And the operation is controlled by a CPU (not shown).
画像入力部11は、イメージセンサ等から画像を取得する際に、一部分のみを切出して入力画像として取得する機能を有する。記憶部12は、画像入力部11に接続されたセンサ等の設定値を保存したり、画像入力部11や距離センサ入力部15に指示する領域情報を保存したり、各種パラメータを保存したりする。入力部13は、各種設定値や、領域指定等の入力を行う。距離センサ14は、測距機能を有し、画像処理装置10から撮影対象までの距離を測定する。距離センサ入力部15は、距離センサ14からデータを取得して深度図を作成するとともに、画像処理装置10の処理に合うように位置合わせ補正等を行う。 The image input unit 11 has a function of cutting out only a part and acquiring it as an input image when acquiring an image from an image sensor or the like. The storage unit 12 stores setting values of sensors and the like connected to the image input unit 11, stores area information instructed to the image input unit 11 and the distance sensor input unit 15, and stores various parameters. . The input unit 13 inputs various setting values and area designation. The distance sensor 14 has a distance measuring function, and measures the distance from the image processing apparatus 10 to the photographing target. The distance sensor input unit 15 acquires data from the distance sensor 14 to create a depth map, and performs alignment correction so as to match the processing of the image processing apparatus 10.
人体検出部16は、特定物体としての人体を検出する場合に、基準となる人体の照合パターンを用いて、入力画像が縮小・拡大変換された複数の画像内で人体の検出を行う。画像サイズ変倍部17は、入力画像のサイズを指定された任意のサイズに、もしくは指定された任意の倍率で変換した画像を生成する。外部出力部18は、人体検出部16によって検出された結果を外部に出力する。 When detecting a human body as a specific object, the human body detection unit 16 detects a human body in a plurality of images obtained by reducing and enlarging an input image using a reference human body matching pattern. The image size scaling unit 17 generates an image obtained by converting the size of the input image to a designated arbitrary size or a designated arbitrary magnification. The external output unit 18 outputs the result detected by the human body detection unit 16 to the outside.
ここで、距離センサ14は、測距方式に応じた様々な距離センサであってもよい。本実施形態では、赤外線のドットパターンを照射してその状況を赤外カメラで捉えて分析し、距離情報を抽出する距離センサを用いる。また、本実施形態に係る画像処理装置10は、画像入力部11に接続された画像入力装置(図示せず)とほぼ一体となる位置にあることを想定している。そのため、画像入力装置(図示せず)からの距離は、距離センサ14により測距される距離と同じとみなすことができる。 Here, the distance sensor 14 may be various distance sensors according to the distance measuring method. In the present embodiment, a distance sensor that irradiates an infrared dot pattern, captures and analyzes the situation with an infrared camera, and extracts distance information is used. Further, it is assumed that the image processing apparatus 10 according to the present embodiment is in a position that is substantially integrated with an image input apparatus (not shown) connected to the image input unit 11. Therefore, the distance from the image input device (not shown) can be regarded as the same as the distance measured by the distance sensor 14.
本実施形態では、特定物体として人体を検出することを例にしている。そのため、人体検出部16は、異なる大きさの人体を検出するため、次の処理を行う。 In this embodiment, it is assumed that a human body is detected as a specific object. Therefore, the human body detection unit 16 performs the following process to detect human bodies having different sizes.
まず、基準となる人体の照合パターンに人体候補領域の大きさが合うように、入力画像をあらかじめ設定した倍率で縮小もしくは拡大変換した複数枚の画像(レイヤ画像と呼ぶ)を画像サイズ変倍部17により生成する。そして、レイヤ画像と照合パターンとのパターンマッチングを行って人体を検出する。 First, a plurality of images (called layer images) obtained by reducing or enlarging the input image at a preset magnification so that the size of the human body candidate region matches the reference human body matching pattern is an image size scaling unit. 17 is generated. Then, the human body is detected by performing pattern matching between the layer image and the matching pattern.
図2を参照して、第1実施形態に係る画像処理装置10が実施する人体検出処理の概要を説明する。図2において、21は、基準となる人体の照合パターンである。この照合パターン21を対象となるレイヤ画像上をラインスキャンして人体の検出を行う。本実施形態では、画像入力部11から領域指定して切出した入力画像を、あらかじめ設定した倍率で画像サイズ変倍部17により縮小もしくは拡大した複数枚の画像を用いる。当該縮小もしくは拡大した複数枚の画像である20、22、23をレイヤ画像と呼ぶ。レイヤ画像は、あらかじめ設定した倍率で繰り返し入力画像を縮小(もしくは拡大)変換した画像のことを指す。ここでは画像20をレイヤ1、画像22をレイヤ2、画像23をレイヤ3と呼ぶ。 With reference to FIG. 2, an outline of the human body detection process performed by the image processing apparatus 10 according to the first embodiment will be described. In FIG. 2, reference numeral 21 denotes a reference human body collation pattern. A human body is detected by performing line scanning on the target layer image for the matching pattern 21. In the present embodiment, a plurality of images obtained by reducing or enlarging an input image clipped by specifying an area from the image input unit 11 by the image size scaling unit 17 at a preset magnification is used. The reduced, enlarged images 20, 22, and 23 are called layer images. A layer image refers to an image obtained by repeatedly reducing (or enlarging) an input image at a preset magnification. Here, the image 20 is called layer 1, the image 22 is called layer 2, and the image 23 is called layer 3.
図2のように、個々のレイヤ画像に対し、基準となる人体の照合パターン21をラインスキャンすることで、異なる大きさの人体を検出することが可能である。なお、一般的には、基準となる人体の照合パターン21の大きさと入力画像のサイズとがほぼ同じになるまで、あらかじめ設定した倍率で複数回縮小又は拡大した画像(レイヤ画像)を生成する。そして複数のレイヤ画像を用いて、レイヤ画像を取り換えながら人体検出処理を繰り返し行う。 As shown in FIG. 2, it is possible to detect human bodies of different sizes by performing line scanning on the reference human body matching pattern 21 for each layer image. In general, an image (layer image) reduced or enlarged at a preset magnification is generated until the size of the reference human body matching pattern 21 and the size of the input image are substantially the same. Then, the human body detection process is repeatedly performed using the plurality of layer images while replacing the layer images.
本実施形態では、あらかじめ設定した倍率で、入力画像を基準となる人体の照合パターン21の大きさと、入力画像のサイズとがほぼ同じになるまで縮小変換する処理を行うことはせず、当該処理に代えて、選択した倍率の縮小画像のみを画像サイズ変倍部17により生成するように構成する。詳細は後述する。 In the present embodiment, the process of reducing and converting the input image until the size of the matching pattern 21 of the human body as a reference and the size of the input image is substantially the same with a preset magnification is performed. Instead, only the reduced image with the selected magnification is generated by the image size scaling unit 17. Details will be described later.
図3は、第1実施形態に係る画像入力部11における全画素読出しデータの一例を示す図である。グレーの部分は道路を模式した領域である。斜め左後ろから道路を斜め右方向に向かって、画像入力装置(図示せず)により撮像した場合の図である。画像30に示すように、全画素読出しの画像データを例えば縦3横4の領域に分割することで、人体検出部16が1度に行う処理の負荷を軽減させることができる。番号31は、分割した各画像の領域に便宜上付与した番号を指す。また、人体候補32および33は、各々異なる大きさの人体候補を示している。 FIG. 3 is a diagram illustrating an example of all-pixel read data in the image input unit 11 according to the first embodiment. The gray part is an area that schematically represents a road. It is a figure at the time of imaging with the image input device (not shown) toward the diagonal right direction from the diagonal left back. As shown in the image 30, by dividing the image data read out of all pixels into, for example, three vertical and four horizontal areas, it is possible to reduce the processing load that the human body detection unit 16 performs at one time. Number 31 indicates a number assigned to each divided image area for convenience. Human body candidates 32 and 33 indicate human body candidates having different sizes.
ここで、人体が現れやすくかつ人体検出を行いたい領域を例えば、2.2、2.3、3.2、3.3の4つの領域であるとして入力部13を通じて記憶部12に設定し保存しておく。そうすることで、人体検出部16における人体検出処理の処理領域を限定することができる。そのため、より高速にかつ誤検出を減らした人体検出処理が可能となる。 Here, it is assumed that areas where human bodies are likely to appear and human bodies are to be detected are, for example, four areas 2.2, 2.3, 3.2, and 3.3, set in the storage unit 12 through the input unit 13, and stored. Keep it. By doing so, the processing area of the human body detection process in the human body detection unit 16 can be limited. Therefore, it is possible to perform human body detection processing at higher speed and with reduced false detection.
図4は、第1実施形態に係る距離センサにより測距したデータをマップにした深度図の一例である。画像40は、距離センサ14から入力された深度図である。色の濃さは、距離の近さを表している。すなわち、aが一番近く、fが一番遠いことを表している。番号41は、全画素読出しデータである画像30にならって、深度図を縦3横4に分割した場合の領域に付与した番号を示す。画像40のように、画像40と全画素読出しデータとの画角がほぼ同じ場合は、同じ縦横分割した領域が、画像40の画像領域の深度情報として参照可能である。この例では、深度情報42は、人体候補32に対応した深度情報、深度情報43は、人体候補33に対応した深度情報となる。また、この例では、図3および図4において、各領域に付与した番号であるアラビア数字の1から4は、ローマ数字のIからIVと、それぞれ対応している。 FIG. 4 is an example of a depth diagram obtained by mapping data measured by the distance sensor according to the first embodiment. The image 40 is a depth diagram input from the distance sensor 14. The color intensity represents the closeness of the distance. That is, a is the closest and f is the farthest. The number 41 indicates the number assigned to the area when the depth map is divided into 3 × 4 in the vertical direction following the image 30 which is the all-pixel read data. When the angle of view between the image 40 and the all-pixel read data is almost the same as in the image 40, the same vertically and horizontally divided region can be referred to as the depth information of the image region of the image 40. In this example, the depth information 42 is depth information corresponding to the human body candidate 32, and the depth information 43 is depth information corresponding to the human body candidate 33. In this example, in FIGS. 3 and 4, Arabic numerals 1 to 4, which are numbers assigned to the respective areas, correspond to Roman numerals I to IV, respectively.
しかしながら、全画素読出しデータと深度図との位置関係が異なる場合や、検知できる距離精度が、全画素読出しデータとして撮像された領域と同じにならない場合が存在する。当該場合については、第2実施形態で詳述する。 However, there are cases where the positional relationship between the all-pixel read data and the depth map is different, or the distance accuracy that can be detected is not the same as the area imaged as the all-pixel read data. This case will be described in detail in the second embodiment.
図5は、第1実施形態に係る全画素読出しデータの画像30と深度図の画像40との位置及び解像度の対応をとって、特定物体(本実施形態では人体)の探索レイヤ画像を分析・算出した結果をまとめた表である。 FIG. 5 shows the correspondence between the position and resolution of the image 30 of the all-pixel read data and the image 40 of the depth map according to the first embodiment, and analyzes the search layer image of a specific object (human body in this embodiment). It is the table | surface which put together the computed result.
全画素読出しデータの画像30の各領域に対応した深度図の画像40の深度情報に基づいて、全画素読出しデータの画像30の領域(Region)毎の深度情報(Depth)に対応した人体検出処理レイヤ画像(Layer)を計算した結果を表にしている。人体検出処理レイヤ画像は、大きい画像の方を1と番号を付け、あらかじめ設定した倍率で5段階縮小した1から6の6つのレイヤ画像を用いる。なお、この表に示す関係は固定値として設定していてもよいが、リアルタイムに計算し刻々と値が変化するようにしてもよい。詳細は図6のフローチャートを参照しながら後述する。 Human body detection processing corresponding to depth information (Depth) for each region (Region) of the image 30 of all pixel readout data based on the depth information of the image 40 of the depth diagram corresponding to each region of the image 30 of all pixel readout data The result of calculating the layer image (Layer) is shown in the table. The human body detection processing layer image uses six layer images 1 to 6 that are numbered 1 in the larger image and reduced by five levels with a preset magnification. The relationship shown in this table may be set as a fixed value, but it may be calculated in real time and the value may change every moment. Details will be described later with reference to the flowchart of FIG.
ここで図6は、第1実施形態に係る画像処理装置10の動作手順を示すフローチャートである。 Here, FIG. 6 is a flowchart showing an operation procedure of the image processing apparatus 10 according to the first embodiment.
図6において、最初に、入力部13より画像処理装置10に接続された画像入力装置(図示せず)のパラメータとしての最大入力画角(解像度)と、注目画角としての部分画角領域を入力して記憶部12に保存する。ここで部分画角領域は、画像入力装置としての例えばCMOSセンサ等における、画像部分切出し領域として設定する。昨今のイメージセンサの多画素化により、全画素の読出し(最大入力画角読出し)による画像処理の負荷が増大しており、部分的に切出した画像を用いることで、画像処理の負荷を減らし、処理速度の向上を図ることができる。また、距離センサ入力部15での深度情報の計算に必要な、距離センサ14の深度図の縦横サイズ、最長探索距離等の距離センサ14に関する各種測距パラメータを、入力部13により記憶部12に設定して保存する(S100)。 In FIG. 6, first, a maximum input field angle (resolution) as a parameter of an image input device (not shown) connected to the image processing device 10 from the input unit 13 and a partial field angle region as a field angle of interest. The data is input and stored in the storage unit 12. Here, the partial angle of view area is set as an image partial cutout area in, for example, a CMOS sensor as an image input device. With the recent increase in the number of pixels in an image sensor, the load of image processing due to readout of all pixels (maximum input angle of view readout) has increased. By using partially cut out images, the load of image processing has been reduced. The processing speed can be improved. In addition, various distance measurement parameters related to the distance sensor 14 such as the vertical and horizontal sizes of the depth map of the distance sensor 14 and the longest search distance necessary for calculation of depth information in the distance sensor input unit 15 are stored in the storage unit 12 by the input unit 13. Set and save (S100).
距離センサ入力部15は、距離センサ14から入力された各種測距データから距離マップである深度図の画像40を作成し、記憶部12に保存する(S101)。 The distance sensor input unit 15 creates a depth map image 40 that is a distance map from various distance measurement data input from the distance sensor 14 and stores it in the storage unit 12 (S101).
次に、入力部13により設定された距離センサ14の各種距離測距パラメータと、画像入力装置(図示せず)の最大入力画角とに基づいて、次の処理を実行する。すなわち、距離情報である距離マップとしての深度図の画像40と、入力画像としての全画素読出しデータの画像30とが対応しているか否かを判定する(S102)。 Next, the following processing is executed based on various distance measurement parameters of the distance sensor 14 set by the input unit 13 and the maximum input field angle of the image input device (not shown). That is, it is determined whether or not the image 40 of the depth map as the distance map that is distance information corresponds to the image 30 of the all-pixel read data as the input image (S102).
対応していると判定された場合は(S102;YES)、全画素読出しデータの画像30と深度図の画像40との位置合わせを行う(S103)。一方、対応していないと判定された場合は(S102;NO)、S105へ進む。 If it is determined that they are compatible (S102; YES), the alignment of the image 30 of all-pixel read data and the image 40 of the depth map is performed (S103). On the other hand, if it is determined that they are not compatible (S102; NO), the process proceeds to S105.
位置合わせを行った後に、人体検出部16は、記憶部12に保存された距離マップとしての深度図の画像40と、画像入力装置(図示せず)からの最大入力画角(解像度)情報とに基づいて、以下の処理を行う。すなわち、図5における、全画素読出しデータの画像30の領域(Region)毎に深度(Depth)に対応する人体検出処理レイヤ(Layer)を生成し、生成した領域毎のレイヤ対応表を記憶部12に保存する(S104)。 After performing the alignment, the human body detection unit 16 includes the depth map image 40 as a distance map stored in the storage unit 12, and the maximum input field angle (resolution) information from the image input device (not shown). Based on the above, the following processing is performed. That is, the human body detection processing layer (Layer) corresponding to the depth (Depth) is generated for each region (Region) of the image 30 of the all-pixel read data in FIG. 5, and the layer correspondence table for each generated region is stored in the storage unit 12. (S104).
当該対応表の作成は、画像入力装置(図示せず)から撮影対象までの距離が離れる(深度が深い)ほど、特定物体としての人体の大きさが小さく撮像されるという特徴を用いて算出する。また、画像入力装置(図示せず)を向けた方向により人体がその周りの地面より近く撮像されるという特徴等を用いて算出する。入力画像の領域ごとに、距離情報の距離が近いほど小さいサイズのレイヤ画像(変換画像)を生成し、距離情報の距離が遠いほど大きいサイズのレイヤ画像(変換画像)を生成する。 The creation of the correspondence table is calculated by using the feature that the human body as the specific object is imaged as the distance from the image input device (not shown) to the object to be photographed increases (depth increases). . Further, the calculation is performed using a feature that a human body is imaged closer to the ground around the image input device (not shown). For each input image region, a smaller layer image (converted image) is generated as the distance information is closer, and a larger layer image (converted image) is generated as the distance information is farther away.
なお本実施形態では、入力画像を等分に区切った領域の中で、検出される人体の大きさの変動も考慮し、レイヤ画像選択に振れ幅を持たせている。例えば、図5のR(1,1)は、距離情報である深さDepthがfとなっていて、かなり深い、つまり距離が遠いことがわかる。遠い距離に撮像される特定物体としての人体は、比較的小さく撮像されるという特徴がある。小さく撮像された人体候補領域は、図2の基準となる人体の照合パターン21をパターンマッチングして行う人体検出処理において、画像を縮小しない(ないし拡大する)レイヤ画像を用いた方が検出されやすい。そのため、入力画像から切出す領域としてのR(1,1)には、大きいレイヤ画像である1−2を選択して画像生成する。このようにして、距離センサ14から取得される距離情報に基づいて、入力画像の領域ごとに当該領域のサイズを変倍した1以上の変換画像を生成する。 In the present embodiment, the variation in the size of the detected human body is taken into consideration in the region where the input image is equally divided, and a variation width is given to the layer image selection. For example, R (1, 1) in FIG. 5 has a depth Depth as distance information of f, which is quite deep, that is, the distance is far. A human body as a specific object that is imaged at a far distance is characterized by being relatively small. The human body candidate region captured in a small size is more easily detected by using a layer image that does not reduce (or enlarge) the image in the human body detection process performed by pattern matching the reference human body matching pattern 21 in FIG. . Therefore, a large layer image 1-2 is selected for R (1, 1) as a region to be cut out from the input image, and an image is generated. In this way, based on the distance information acquired from the distance sensor 14, one or more converted images obtained by scaling the size of the area are generated for each area of the input image.
本実施形態では、入力画像を等分に区切った領域を用いているが、任意の位置の特定領域を指定して、深度(Depth)と対応する人体検出レイヤ(Layer)画像を選択して画像生成するようにしてもよい。 In the present embodiment, an area obtained by equally dividing the input image is used. However, a specific area at an arbitrary position is specified, and a human body detection layer (Layer) image corresponding to the depth (Depth) is selected to select an image. You may make it produce | generate.
また、画像入力部11は、入力部13により記憶部12に保存された注目部分画角領域情報を読み出して、該注目部分画角領域情報を用いて、画像入力装置(図示せず)から取得した画像から注目部分画像を切出して取得する(S105)。 Further, the image input unit 11 reads out the target partial angle of view area information stored in the storage unit 12 by the input unit 13 and acquires the information from the image input device (not shown) using the target partial angle of view area information. The partial image of interest is cut out from the obtained image and acquired (S105).
注目部分画像を切出して取得した画像入力部11は、人体検出部16に該注目部分画像を送る。注目部分画像を受信した人体検出部16は、以下の処理を実行する。すなわち図5に示すようなレイヤ画像対応表から人体検出対象レイヤ画像を選択する(S106)。なお、S102でNoであると判定された場合は、レイヤ対応表が未作成であるため、全レイヤ画像を選択することになる。 The image input unit 11 obtained by cutting out and acquiring the target partial image sends the target partial image to the human body detection unit 16. The human body detection unit 16 that has received the target partial image executes the following processing. That is, the human body detection target layer image is selected from the layer image correspondence table as shown in FIG. 5 (S106). If it is determined No in S102, the layer correspondence table has not been created, and therefore all layer images are selected.
S106で選択されたレイヤ画像に基づいて、S105で取得した注目部分画像から、図2を参照して説明したように画像サイズ変倍部17により変換画像の生成を行い、各選択レイヤ画像を生成する。その後、図2で説明したようにして人体検出を行う(S107)。 Based on the layer image selected in S106, a converted image is generated by the image size scaling unit 17 as described with reference to FIG. 2 from the target partial image acquired in S105, and each selected layer image is generated. To do. Thereafter, human body detection is performed as described in FIG. 2 (S107).
そして人体検出部16により人体が検出されたか否かの判定を行う(S108)。 Then, it is determined whether or not a human body is detected by the human body detection unit 16 (S108).
人体検出部16において人体が検出された場合、その検出結果が外部出力部18を介して外部に通知される(S109)。その後、人体検出スキャンを終了するか否かを判定し(S110)、終了しない場合にはS101に戻り、繰り返し処理を行う。 When a human body is detected by the human body detection unit 16, the detection result is notified to the outside via the external output unit 18 (S109). Thereafter, it is determined whether or not to end the human body detection scan (S110). If not, the process returns to S101 and repeats the process.
以上説明したように、距離センサから取得した距離情報を用いて適切に縮小画像を選ぶことで処理負荷を低減することができる。 As described above, the processing load can be reduced by appropriately selecting a reduced image using the distance information acquired from the distance sensor.
(第2実施形態)
図7は、第2実施形態に係る画像処理装置のブロック構成図である。画像処理装置70は、画像入力部11と、記憶部12と、入力部13と、距離センサ入力部15と、人体検出部16と、画像サイズ変倍部17と、外部出力部18と、動体領域検出部19と、幾何補正部20とを備える。なお、本実施形態では距離センサ14は画像処理装置70とは別に構成されている。画像処理装置70は、第1実施形態に係る画像処理装置10の構成のうち距離センサ14を除く構成要素に加えて、動体領域検出部19と、幾何補正部20とをさらに備えている。
(Second Embodiment)
FIG. 7 is a block diagram of an image processing apparatus according to the second embodiment. The image processing apparatus 70 includes an image input unit 11, a storage unit 12, an input unit 13, a distance sensor input unit 15, a human body detection unit 16, an image size scaling unit 17, an external output unit 18, and a moving object. An area detection unit 19 and a geometric correction unit 20 are provided. In the present embodiment, the distance sensor 14 is configured separately from the image processing apparatus 70. The image processing device 70 further includes a moving object region detection unit 19 and a geometric correction unit 20 in addition to the components other than the distance sensor 14 in the configuration of the image processing device 10 according to the first embodiment.
動体領域検出部19は、入力画像における動体を検知する。幾何補正部20は、光学特性に基づく幾何変換パラメータを用いて入力画像の幾何補正を行う。その他の構成要素は第1実施形態と同様であるため説明を省略する。 The moving object region detection unit 19 detects a moving object in the input image. The geometric correction unit 20 performs geometric correction of the input image using a geometric conversion parameter based on the optical characteristics. Since other components are the same as those in the first embodiment, description thereof is omitted.
図8は、本第2実施形態に係る広角光学系を備えた画像入力装置(図示せず)からの入力画像データを示す図である。この入力画像データは、第1実施形態における図3と同じ方向に画像入力装置を向けて撮像した図であり、灰色の歪んだ円弧の部分は道路を模式した領域である。 FIG. 8 is a diagram showing input image data from an image input apparatus (not shown) including the wide-angle optical system according to the second embodiment. This input image data is a diagram taken by directing the image input device in the same direction as in FIG. 3 in the first embodiment, and the gray distorted arc portion is a region schematically representing a road.
全画素読出しデータの画像80において、動体領域検出部19により単独(1つ)の動体が検知される場合の動体検出枠を示す動体領域情報81、および当該動体が特定物体(ここでは人体)候補であることを示す人体候補領域82が示されている。本実施形態では、広角レンズを用いた画像入力装置(図示せず)を想定した入力画像となっているため、画像周辺部が歪んで撮像される。この画像の歪みは、光学特性に基づいた幾何変換パラメータを用いて、幾何補正部20により幾何補正を行うことで、歪みを補正した正視図を変換生成することが可能である。また、広角レンズを用いた画像入力装置(図示せず)は画像処理装置70から離れて配置される場合があるため、画像入力装置(図示せず)の近くから測距できるように距離センサ14が画像処理装置70の外に出た構成となっている。 In the image 80 of all-pixel read data, the moving object region information 81 indicating a moving object detection frame when a single moving object is detected by the moving object region detection unit 19, and the moving object is a specific object (here, human body) candidate A human body candidate region 82 indicating that the In this embodiment, since the input image is assumed to be an image input device (not shown) using a wide-angle lens, the peripheral portion of the image is distorted and imaged. The image distortion can be converted and generated by correcting the distortion by correcting the distortion by geometric correction by the geometric correction unit 20 using the geometric conversion parameter based on the optical characteristics. In addition, since an image input device (not shown) using a wide-angle lens may be disposed away from the image processing device 70, the distance sensor 14 can measure the distance from the vicinity of the image input device (not shown). Is configured to be out of the image processing apparatus 70.
図9は、第2実施形態に係る画像処理装置において、動体領域検出後のある人体候補領域を切出した画像から作成した各レイヤ画像を示す。図9は、図8における人体候補領域82を画像入力部11の画像切出し取得機能により切り出し、切り出した部分入力画像を光学特性に基づく幾何変換パラメータを用いて幾何補正部20で幾何補正したものである。そして幾何補正された部分入力画像(人体候補領域画像90)を、入力部13を通じてあらかじめ設定した倍率で、画像サイズ変倍部17により縮小もしくは拡大変換し、複数枚の画像(複数枚のレイヤ画像)を作成する。図9の例では9−3〜9−6の4枚のレイヤ画像が作成される。 FIG. 9 shows each layer image created from an image obtained by cutting out a certain human body candidate area after moving object area detection in the image processing apparatus according to the second embodiment. FIG. 9 shows the human body candidate area 82 in FIG. 8 cut out by the image cutout acquisition function of the image input unit 11 and the cut out partial input image subjected to geometric correction by the geometric correction unit 20 using the geometric transformation parameter based on the optical characteristics. is there. Then, the geometrically corrected partial input image (human body candidate region image 90) is reduced or enlarged by the image size scaling unit 17 at a magnification set in advance through the input unit 13, and a plurality of images (a plurality of layer images) are obtained. ). In the example of FIG. 9, four layer images 9-3 to 9-6 are created.
ここで図10は、第2実施形態に係る画像処理装置の動作手順を示すフローチャートである。以下、距離マップとしての深度図は図4を参照し、図7〜図11を用いて、画像処理装置70の動作手順を詳細に説明する。 Here, FIG. 10 is a flowchart showing an operation procedure of the image processing apparatus according to the second embodiment. Hereinafter, with reference to FIG. 4 for a depth map as a distance map, the operation procedure of the image processing apparatus 70 will be described in detail with reference to FIGS.
最初に、入力部13より、画像処理装置70に接続された広角光学系を備えた画像入力装置(図示せず)の最大入力画角(解像度)、幾何補正後の画角、及び、幾何補正のための各種光学特性に基づく幾何変換パラメータを入力して、記憶部12に保存する(S200)。S201の処理はS101の処理と同様である。 First, the maximum input angle of view (resolution), the angle of view after geometric correction, and the geometric correction of an image input device (not shown) provided with a wide-angle optical system connected to the image processing device 70 from the input unit 13. The geometric transformation parameters based on various optical characteristics for the above are input and stored in the storage unit 12 (S200). The process of S201 is the same as the process of S101.
次に、入力部13により設定された距離センサ14の各種距離測距パラメータ、画像入力装置(図示せず)の最大入力画角、及び、幾何補正後の画角に基づいて、次の処理を実行する。すなわち、距離センサ入力部15は、距離情報である距離マップとしての深度図の画像40と、入力画像としての全画素読出しデータの画像80を幾何補正部20により幾何補正した幾何補正画像(図示せず)とが対応するか否かを判定する(S202)。 Next, the following processing is performed based on various distance measurement parameters of the distance sensor 14 set by the input unit 13, the maximum input angle of view of the image input device (not shown), and the angle of view after geometric correction. Run. That is, the distance sensor input unit 15 is a geometrically corrected image (not shown) obtained by geometrically correcting the depth map image 40 as a distance map, which is distance information, and the image 80 of all-pixel read data as an input image by the geometric correcting unit 20. Is determined) (S202).
対応可と判定された場合は、全画素読出しデータの画像80を幾何補正部20により幾何補正した幾何補正画像(図示せず)と、深度図の画像40との位置合わせを行う(S203)。一方、対応不可と判定された場合は、位置合わせは行わず、深度図は不定となる。 When it is determined that the image can be handled, the geometric correction image (not shown) obtained by geometric correction of the image 80 of the all-pixel read data by the geometric correction unit 20 is aligned with the image 40 of the depth map (S203). On the other hand, when it is determined that correspondence is not possible, positioning is not performed and the depth map is indefinite.
また、画像入力部11は、動体領域検出部19によって検出された動体領域情報81を読み出して、動体領域情報81が人体候補領域であるとみなし、次の処理を実行する。すなわち、画像入力装置(図示せず)より、人体候補領域画像82(人体候補領域部分画像)を切出して取得する(S204)。 Further, the image input unit 11 reads the moving body region information 81 detected by the moving body region detection unit 19, regards the moving body region information 81 as a human body candidate region, and executes the following process. That is, a human body candidate area image 82 (human body candidate area partial image) is cut out and acquired from an image input device (not shown) (S204).
ここで、図8に示すように、人体候補領域画像82が動体領域情報81より大きいサイズなのは、人体検出において、基準となる人体の照合パターンにおける余白の部分以上に大きくなければならないためである。また、次の幾何補正の際にも画像サイズが変わってしまうことがあるため、マージンを見て該動体領域情報81より大きめに人体候補領域画像82を切出す必要がある。 Here, as shown in FIG. 8, the human body candidate area image 82 is larger in size than the moving body area information 81 because it must be larger than the margin of the reference human body collation pattern in human body detection. In addition, since the image size may change during the next geometric correction, it is necessary to cut out the human body candidate area image 82 larger than the moving body area information 81 by looking at the margin.
その後、幾何補正部20は、入力部13によって設定された幾何変換のための各種光学特性に基づく幾何変換パラメータを用いて、人体候補領域部分画像の幾何補正を行い、幾何補正した画像データを生成する。そして、幾何補正した画像データと当該動体位置情報とを、共に人体検出部16に送信する(S205)。 Thereafter, the geometric correction unit 20 performs geometric correction on the human body candidate region partial image using the geometric conversion parameters based on various optical characteristics for geometric conversion set by the input unit 13, and generates geometric corrected image data. To do. Then, both the geometrically corrected image data and the moving object position information are transmitted to the human body detection unit 16 (S205).
ここで図9に示すように幾何補正された人体候補領域画像90及び動体位置情報を受信した場合を考える。人体検出部16は、以下の処理を実行する。すなわち、距離マップとしての深度図の画像40を記憶部12より読み出して、該人体候補領域画像90の動体位置情報が、深度図の画像40の範囲内にあるか否かを判定する(S206)。 Here, consider a case where the human body candidate area image 90 and the moving body position information that have been geometrically corrected are received as shown in FIG. The human body detection unit 16 performs the following processing. That is, the depth map image 40 as a distance map is read from the storage unit 12, and it is determined whether or not the moving object position information of the human body candidate region image 90 is within the range of the depth map image 40 (S206). .
人体候補領域画像90の動体位置情報が深度図の画像40の範囲内にある場合は、距離センサ入力部15により位置合わせされた深度図の画像40を記憶部12より読み出し、この深度図の画像40と該人体候補領域画像90及び動体位置情報に基づいて、人体検出対象レイヤ画像を選択する。当該人体検出対象レイヤ画像の選択は、画像処理装置からの距離が離れるほど人体の大きさが小さく撮像されるという特徴等を用いて選択するが、詳細は後述する。その後、選択された人体検出対象レイヤ画像に基づいて、人体候補領域画像90から図2で説明したように画像サイズ変倍部17により変換画像の生成を行う。これにより各選択レイヤ画像が生成される(S207)。 When the moving body position information of the human body candidate region image 90 is within the range of the depth map image 40, the depth map image 40 aligned by the distance sensor input unit 15 is read from the storage unit 12, and this depth map image is displayed. 40, the human body detection target layer image is selected based on the human body candidate region image 90 and the moving body position information. The human body detection target layer image is selected using the feature that the human body is captured with a smaller size as the distance from the image processing apparatus increases, and the details will be described later. Thereafter, based on the selected human body detection target layer image, the converted image is generated from the human body candidate region image 90 by the image size scaling unit 17 as described with reference to FIG. Thereby, each selected layer image is generated (S207).
本実施形態では、各選択レイヤ画像は、図9に示すように、9−3から9−6の4つのレイヤ画像として、画像サイズ変倍部17により変換生成される。当該4つのレイヤ画像が選択生成されたのは、次の理由による。撮像されて幾何補正された人体候補領域画像90と深度図の画像40の情報により、人体候補領域画像90が、距離が近いところに存在することがわかる。距離が近いところに存在する特定物体としての人体は、比較的大きく撮像されるという特徴がある。したがって、基準となる人体の照合パターン21でラインスキャンを行って人体検出をするにあたり、人体候補領域画像90をより小さく縮小した画像の方が、基準となる人体の照合パターン21にマッチしやすい。そのため、人体候補領域画像90を比較的小さく縮小した9−3から9−6の4つのレイヤ画像が、画像サイズ変倍部17により変換生成される。そして、当該4つのレイヤ画像を用いて、図2で説明したように人体検出処理が行われる。 In the present embodiment, each selected layer image is converted and generated by the image size scaling unit 17 as four layer images 9-3 to 9-6 as shown in FIG. The four layer images are selected and generated for the following reason. From the information of the human body candidate area image 90 that has been imaged and geometrically corrected and the image 40 of the depth map, it can be seen that the human body candidate area image 90 exists at a short distance. A human body as a specific object present at a short distance is characterized by being captured relatively large. Therefore, when performing human body detection by performing line scanning with the reference human body matching pattern 21, an image obtained by reducing the human body candidate area image 90 to a smaller size is more likely to match the reference human body matching pattern 21. Therefore, four layer images 9-3 to 9-6 obtained by reducing the human body candidate region image 90 to be relatively small are converted and generated by the image size scaling unit 17. Then, using the four layer images, the human body detection process is performed as described in FIG.
一方、人体候補領域画像90の動体位置情報が深度図の画像40の範囲外にある場合とは、図11のような場合である。図11は、画像入力部11の全画素読出しデータの画像30が幾何補正部20により幾何補正された幾何補正画像が、深度図の画像40より広範囲である場合を模式的に表した図である。なお、第1実施形態のように画像入力部11の全画素読出しデータの画像30が距離マップとしての深度図の画像40より広範囲である場合を模式的に表した場合も同様である。領域110の部分が、当該画像30が幾何補正部20により幾何補正された幾何補正画像に相当し、領域112の部分が距離マップとしての深度図の画像40に相当する。 On the other hand, the case where the moving body position information of the human body candidate region image 90 is outside the range of the image 40 of the depth diagram is a case as shown in FIG. FIG. 11 is a diagram schematically illustrating a case where the geometrically corrected image obtained by geometrically correcting the image 30 of the all-pixel read data of the image input unit 11 by the geometric correcting unit 20 is wider than the image 40 of the depth diagram. . The same applies to the case where the image 30 of the all-pixel read data of the image input unit 11 is wider than the image 40 of the depth map as the distance map as in the first embodiment. The area 110 corresponds to a geometrically corrected image obtained by geometrically correcting the image 30 by the geometric correcting unit 20, and the area 112 corresponds to a depth map image 40 as a distance map.
このように人体候補領域画像90の動体位置情報が深度図の画像40の範囲外にある場合は以下の処理を行う。すなわち、人体候補領域画像90及び動体位置情報により、全レイヤ画像を選択するとともに、人体候補領域画像90から図2の説明の通り画像サイズ変倍部17により変換画像の生成を行い、全選択レイヤ画像を生成する(S208)。このように、入力画像の領域のうち、対応する距離情報が存在しない領域については、予め定められた複数の倍率の全てでレイヤ画像(変換画像)を生成する。 As described above, when the moving body position information of the human body candidate area image 90 is outside the range of the image 40 of the depth map, the following processing is performed. That is, all layer images are selected based on the human body candidate area image 90 and the moving body position information, and a converted image is generated from the human body candidate area image 90 by the image size scaling unit 17 as described in FIG. An image is generated (S208). As described above, a layer image (converted image) is generated at all of a plurality of predetermined magnifications for an area of the input image where the corresponding distance information does not exist.
次に、生成された各選択レイヤ画像を用いて、図2の説明の通り人体検出処理を実施する(S209)。 Next, human body detection processing is performed as described with reference to FIG. 2 using each of the generated selected layer images (S209).
そして人体検出部16により人体が検出されたか否かの判定を行う(S210)。 Then, it is determined whether or not a human body is detected by the human body detection unit 16 (S210).
人体検出部16において人体が検出された場合、その検出結果が外部出力部18を介して外部に通知される(S211)。その後、人体検出スキャンを終了するか否かを判定し(S212)、終了しない場合にはS201に戻り、繰り返し処理を行う。 When a human body is detected by the human body detection unit 16, the detection result is notified to the outside via the external output unit 18 (S211). Thereafter, it is determined whether or not the human body detection scan is to be ended (S212). If not, the process returns to S201 to repeat the process.
以上説明したように、本実施形態によれば、被写体の誤検出を低減し、より高速な被写体検出が可能となる。 As described above, according to the present embodiment, erroneous detection of a subject can be reduced, and higher-speed subject detection can be performed.
なお、本発明は上記各々の実施形態に限定されるものではなく、さらに以下のような変形が可能である。 The present invention is not limited to each of the above embodiments, and the following modifications are possible.
第1実施形態及び第2実施形態において、特定物体として人体を用いているが、特定物体としてはこの限りでなく、顔、頭部、車、又は動物などの物体であってもよい。第1実施形態及び第2実施形態において、画像入力装置(図示せず)として、CMOSセンサやCCDセンサ等の半導体センサやそれ以外のイメージセンサを用いる構成であってもよい。 In the first embodiment and the second embodiment, the human body is used as the specific object. However, the specific object is not limited to this and may be an object such as a face, a head, a car, or an animal. In the first and second embodiments, a configuration using a semiconductor sensor such as a CMOS sensor or a CCD sensor or another image sensor as the image input device (not shown) may be used.
第2実施形態において、複数の動体が検知された場合には、ユーザにより注視動体を指定する構成としてもよいし、所定の条件下で自動的に指定される構成であってもよいし、ある動体から一定時間毎に注視動体を別の動体へ切り替えてもよい。所定の条件としては、内周から順に、外周から順に、動体のサイズ順に、または動体の速度順に、等が考えられる。 In the second embodiment, when a plurality of moving objects are detected, the gaze moving object may be specified by the user, or may be automatically specified under a predetermined condition. The gaze moving object may be switched to another moving object at certain time intervals from the moving object. As the predetermined condition, in order from the inner periphery, in order from the outer periphery, in order of the size of the moving object, or in order of the speed of the moving object, etc. can be considered.
第2実施形態においては、広角光学系を備えた画像入力装置(図示せず)からの広角レンズ入力画像を用いて処理を行っているが、これに限定することなく、魚眼レンズや全方位ミラー等の広角光学系を備えたものであってもよい。全周魚眼レンズや全方位ミラーの場合は、距離センサも全方位測距できるもので対応可能である。また第2実施形態において、動体領域検出部19を画像入力装置(図示せず)とは別体として構成しているが、画像入力装置(図示せず)が動体領域検出部19を兼ねる構成であってもよい。 In the second embodiment, processing is performed using a wide-angle lens input image from an image input device (not shown) provided with a wide-angle optical system. A wide-angle optical system may be used. In the case of an omnidirectional fisheye lens or an omnidirectional mirror, a distance sensor that can measure an omnidirectional distance can be used. In the second embodiment, the moving object region detection unit 19 is configured separately from the image input device (not shown), but the image input device (not shown) also serves as the moving object region detection unit 19. There may be.
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (8)
前記撮影対象の画像を入力画像として取得する画像入力手段と、
前記距離情報に基づいて、前記入力画像の領域ごとに当該領域のサイズを変倍した1以上の変換画像を生成する画像生成手段と、
前記変換画像を用いて前記入力画像から特定物体を検出する検出手段と、
を備えることを特徴とする画像処理装置。 An acquisition means for acquiring distance information with respect to an imaging target;
Image input means for acquiring the image to be photographed as an input image;
Image generating means for generating one or more converted images obtained by scaling the size of each area of the input image based on the distance information;
Detecting means for detecting a specific object from the input image using the converted image;
An image processing apparatus comprising:
前記距離マップと前記入力画像との間で位置合わせを行う位置合わせ手段をさらに備えることを特徴とする請求項1又は2に記載の画像処理装置。 The distance information is a distance map;
The image processing apparatus according to claim 1, further comprising an alignment unit configured to perform alignment between the distance map and the input image.
前記取得手段が、撮影対象に対する距離情報を取得する取得工程と、
前記画像入力手段が、前記撮影対象の画像を入力画像として取得する画像入力工程と、
前記画像生成手段が、前記距離情報に基づいて、前記入力画像の領域ごとに当該領域のサイズを変倍した1以上の変換画像を生成する画像生成工程と、
前記検出手段が、前記変換画像を用いて前記入力画像から特定物体を検出する検出工程と、
を有することを特徴とする画像処理装置の制御方法。 An image processing apparatus control method comprising an acquisition means, an image input means, an image generation means, and a detection means,
An acquisition step in which the acquisition means acquires distance information with respect to an imaging target;
An image input step in which the image input means acquires the image to be photographed as an input image;
An image generating step in which the image generating unit generates one or more converted images obtained by scaling the size of the region for each region of the input image based on the distance information;
A detecting step in which the detecting means detects a specific object from the input image using the converted image;
A control method for an image processing apparatus, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013011239A JP2014142832A (en) | 2013-01-24 | 2013-01-24 | Image processing apparatus, control method of image processing apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013011239A JP2014142832A (en) | 2013-01-24 | 2013-01-24 | Image processing apparatus, control method of image processing apparatus, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014142832A true JP2014142832A (en) | 2014-08-07 |
JP2014142832A5 JP2014142832A5 (en) | 2016-02-18 |
Family
ID=51424056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013011239A Pending JP2014142832A (en) | 2013-01-24 | 2013-01-24 | Image processing apparatus, control method of image processing apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014142832A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6095817B1 (en) * | 2016-03-02 | 2017-03-15 | 三菱電機マイコン機器ソフトウエア株式会社 | Object detection device |
JP2018092507A (en) * | 2016-12-07 | 2018-06-14 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
US10592729B2 (en) | 2016-01-21 | 2020-03-17 | Samsung Electronics Co., Ltd. | Face detection method and apparatus |
US11132539B2 (en) | 2017-10-03 | 2021-09-28 | Fujitsu Limited | Posture recognition system, image correction method, and recording medium |
US11769222B2 (en) | 2021-05-24 | 2023-09-26 | Axis Ab | Image processor and a method therein for providing a target image |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09152334A (en) * | 1995-11-30 | 1997-06-10 | Matsushita Electric Ind Co Ltd | Object detection apparatus |
JP2001052171A (en) * | 1999-08-06 | 2001-02-23 | Nissan Motor Co Ltd | Surrounding environment recognizing device |
JP2004038531A (en) * | 2002-07-03 | 2004-02-05 | Matsushita Electric Ind Co Ltd | Method and device for detecting position of object |
JP2004334836A (en) * | 2003-04-14 | 2004-11-25 | Fuji Photo Film Co Ltd | Method of extracting image feature, image feature extracting program, imaging device, and image processing device |
JP2008269073A (en) * | 2007-04-17 | 2008-11-06 | Denso Corp | Object detector for vehicle |
JP2009223527A (en) * | 2008-03-14 | 2009-10-01 | Seiko Epson Corp | Image processor, image processing method, and computer program for image processing |
JP2010517139A (en) * | 2007-01-18 | 2010-05-20 | シーメンス コーポレイト リサーチ インコーポレイテツド | System and method for detecting and tracking a vehicle |
JP2011053915A (en) * | 2009-09-02 | 2011-03-17 | Sony Corp | Image processing apparatus, image processing method, program, and electronic device |
JP2012185684A (en) * | 2011-03-07 | 2012-09-27 | Jvc Kenwood Corp | Object detection device and object detection method |
-
2013
- 2013-01-24 JP JP2013011239A patent/JP2014142832A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09152334A (en) * | 1995-11-30 | 1997-06-10 | Matsushita Electric Ind Co Ltd | Object detection apparatus |
JP2001052171A (en) * | 1999-08-06 | 2001-02-23 | Nissan Motor Co Ltd | Surrounding environment recognizing device |
JP2004038531A (en) * | 2002-07-03 | 2004-02-05 | Matsushita Electric Ind Co Ltd | Method and device for detecting position of object |
JP2004334836A (en) * | 2003-04-14 | 2004-11-25 | Fuji Photo Film Co Ltd | Method of extracting image feature, image feature extracting program, imaging device, and image processing device |
JP2010517139A (en) * | 2007-01-18 | 2010-05-20 | シーメンス コーポレイト リサーチ インコーポレイテツド | System and method for detecting and tracking a vehicle |
JP2008269073A (en) * | 2007-04-17 | 2008-11-06 | Denso Corp | Object detector for vehicle |
JP2009223527A (en) * | 2008-03-14 | 2009-10-01 | Seiko Epson Corp | Image processor, image processing method, and computer program for image processing |
JP2011053915A (en) * | 2009-09-02 | 2011-03-17 | Sony Corp | Image processing apparatus, image processing method, program, and electronic device |
JP2012185684A (en) * | 2011-03-07 | 2012-09-27 | Jvc Kenwood Corp | Object detection device and object detection method |
Non-Patent Citations (1)
Title |
---|
岡松 利美、外4名: ""奥行き情報を利用した人物追跡システムステレオPtracker"", 電子情報通信学会技術研究報告, vol. 99, no. 575, JPN6016042223, 21 January 2000 (2000-01-21), JP, pages 45 - 52, ISSN: 0003432366 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10592729B2 (en) | 2016-01-21 | 2020-03-17 | Samsung Electronics Co., Ltd. | Face detection method and apparatus |
JP6095817B1 (en) * | 2016-03-02 | 2017-03-15 | 三菱電機マイコン機器ソフトウエア株式会社 | Object detection device |
JP2017156988A (en) * | 2016-03-02 | 2017-09-07 | 三菱電機マイコン機器ソフトウエア株式会社 | Object detecting device |
JP2018092507A (en) * | 2016-12-07 | 2018-06-14 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
US11132539B2 (en) | 2017-10-03 | 2021-09-28 | Fujitsu Limited | Posture recognition system, image correction method, and recording medium |
US11769222B2 (en) | 2021-05-24 | 2023-09-26 | Axis Ab | Image processor and a method therein for providing a target image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5041458B2 (en) | Device for detecting three-dimensional objects | |
JP6394005B2 (en) | Projection image correction apparatus, method and program for correcting original image to be projected | |
JP6147172B2 (en) | Imaging apparatus, image processing apparatus, image processing method, and program | |
JP5567922B2 (en) | Image processing apparatus and control method thereof | |
JP6363863B2 (en) | Information processing apparatus and information processing method | |
JP6577703B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
JP4518139B2 (en) | Image processing device | |
JP2014142832A (en) | Image processing apparatus, control method of image processing apparatus, and program | |
WO2012029658A1 (en) | Imaging device, image-processing device, image-processing method, and image-processing program | |
JP2009088726A (en) | Calibration method for compound-eye imaging unit, its apparatus, and calibration chart to be used thereof | |
JP4198536B2 (en) | Object photographing apparatus, object photographing method and object photographing program | |
JP4871315B2 (en) | Compound eye photographing apparatus, control method therefor, and program | |
JP6602286B2 (en) | Image processing apparatus, image processing method, and program | |
KR102195762B1 (en) | Acquisition method for high quality 3-dimension spatial information using photogrammetry | |
JP7298687B2 (en) | Object recognition device and object recognition method | |
JP2020140497A (en) | Calculation device, and parallax calculation method | |
JP4226308B2 (en) | Image processing apparatus and image processing method | |
JP2019062436A (en) | Image processing apparatus, image processing method, and program | |
JP2018092507A (en) | Image processing apparatus, image processing method, and program | |
JP6362433B2 (en) | Image processing apparatus, control method therefor, and program | |
JPH11190611A (en) | Three-dimensional measuring method and three-dimensional measuring processor using this method | |
WO2023042604A1 (en) | Dimension measurement device, dimension measurement method, and program | |
JP2013190938A (en) | Stereo image processing device | |
US20230017607A1 (en) | Imaging apparatus | |
JP7277187B2 (en) | Image processing device, imaging device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151221 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170317 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170331 |