JP2012129796A - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP2012129796A JP2012129796A JP2010279416A JP2010279416A JP2012129796A JP 2012129796 A JP2012129796 A JP 2012129796A JP 2010279416 A JP2010279416 A JP 2010279416A JP 2010279416 A JP2010279416 A JP 2010279416A JP 2012129796 A JP2012129796 A JP 2012129796A
- Authority
- JP
- Japan
- Prior art keywords
- collation
- image
- image processing
- feature
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
この発明は、画像処理装置に関し、特に特定物体像に符合する画像を指定画像から探索する、画像処理装置に関する。 The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that searches an image that matches a specific object image from a designated image.
この種の画像処理装置の一例が、特許文献1に開示されている。この背景技術によれば、撮像素子1は被写体像を撮像し、表示部9は撮像素子により撮像された撮像画像を表示する。検出処理部10は撮像画像から目的とする撮影対象を検出する。切り替え部12は、撮像素子により逐次撮像された撮像画像が表示部に逐次表示され、表示部が電子ビューファインダとして動作している状態において、撮像画像の指定された領域を拡大して検出処理部により撮影対象を検出するか、拡大しないで撮影対象を検出するかを、逐次撮像された画像のうちの前回撮像された画像に対する撮影対象の検出結果に応じて切り替える。
An example of this type of image processing apparatus is disclosed in
しかし、背景技術では、特徴ある構成部分が複数の物体像で共通している場合などに、探索対象とは異なる物体像を誤って検出するおそれがあり、このような場合に画像処理装置の動作性能が低下する。 However, in the background art, there is a risk of erroneously detecting an object image different from the search target when a characteristic component is shared by a plurality of object images. In such a case, the operation of the image processing apparatus Performance decreases.
それゆえに、この発明の主たる目的は、動作性能を向上させることができる、画像処理装置を提供することである。 Therefore, a main object of the present invention is to provide an image processing apparatus capable of improving the operation performance.
この発明に従う画像処理装置(10:実施例で相当する参照符号。以下同じ)は、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持手段(44)、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出手段(S39, S55)、検出手段によって検出された特徴量を保持手段によって保持された特徴量と照合する照合手段(S41, S57)、および照合手段の照合結果に応じて異なる態様で画像処理を実行する処理手段(S31, S59, S63, S15~S29)を備える。 An image processing apparatus according to the present invention (10: reference numeral corresponding to the embodiment; hereinafter the same) holds a feature quantity of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to a specific object image Means (44), detection means (S39, S55) for detecting feature quantities of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on the designated image, and feature quantities detected by the detection means Collating means (S41, S57) for collating with the feature amount held by the holding means, and processing means (S31, S59, S63, S15 to S29) for executing image processing in different modes depending on the collation result of the collating means Prepare.
好ましくは、検出手段は、複数の部分画像の一部に対応する第1部分特徴量を検出する第1特徴量検出手段(S39)、および複数の部分画像の他の一部に対応する第2部分特徴量を検出する第2特徴量検出手段(S55)を含み、照合手段は、第1特徴量検出手段によって検出された第1部分特徴量を保持手段によって保持された特徴量の一部と照合する第1特徴量照合手段(S41)、および第2特徴量検出手段によって検出された第2部分特徴量を保持手段によって保持された特徴量の他の一部と照合する第2特徴量照合手段(S57)を含む。 Preferably, the detection means detects a first feature quantity detecting means (S39) for detecting a first partial feature quantity corresponding to a part of the plurality of partial images, and a second feature corresponding to the other part of the plurality of partial images. The second feature quantity detection means (S55) for detecting the partial feature quantity includes a collation means, wherein the collation means includes the first partial feature quantity detected by the first feature quantity detection means and a part of the feature quantity held by the holding means. First feature quantity matching means (S41) for matching, and second feature quantity matching for matching the second partial feature quantity detected by the second feature quantity detection means with another part of the feature quantity held by the holding means Means (S57).
さらに好ましくは、複数の照合エリアは大サイズを有する第1照合エリアと小サイズを有する第2照合エリアとを含み、第1部分特徴量は第1照合エリアおよび第2照合エリアの一方に対応する特徴量を含み、第2部分特徴量は第1照合エリアおよび第2照合エリアの他方に対応する特徴量を含む。 More preferably, the plurality of collation areas include a first collation area having a large size and a second collation area having a small size, and the first partial feature amount corresponds to one of the first collation area and the second collation area. The second partial feature amount includes a feature amount corresponding to the other of the first collation area and the second collation area.
好ましくは、第1特徴量照合手段の照合結果が第1基準を上回るとき第2特徴量検出手段を起動する起動手段(S43)をさらに備える。 Preferably, it further includes an activation unit (S43) that activates the second feature amount detection unit when the collation result of the first feature amount collation unit exceeds the first reference.
さらに好ましくは、処理手段は、第2特徴量照合手段の照合結果が第2基準を上回るか否かを繰り返し判別する判別手段(S59)、および判別手段の判別結果が否定的から肯定的な結果に更新されたとき画像処理態様を変更する変更手段(S63, S15)を含む。 More preferably, the processing means repeatedly determines whether the collation result of the second feature amount collating means exceeds the second reference (S59), and the discrimination result of the discrimination means is a negative to positive result Change means (S63, S15) for changing the image processing mode when updated.
さらに好ましくは、被写界を捉える撮像面を有して被写界像を繰り返し出力する撮像手段(16)、および撮像手段から出力された被写界像に基づいて指定画像を作成する作成手段(20, 34)をさらに備え、変更手段の変更対象は撮像手段から出力された被写界像の品質の調整精度を含む。 More preferably, an imaging means (16) having an imaging surface for capturing the scene and repeatedly outputting the scene image, and a creation means for creating a designated image based on the scene image output from the imaging means (20, 34), and the change target of the change means includes the adjustment accuracy of the quality of the object scene image output from the imaging means.
好ましくは、変更手段による変更処理に先立って複数の照合エリアの位置および/またはサイズを繰り返し更新する更新手段(S47, S51, S53)をさらに備える。 Preferably, it further includes update means (S47, S51, S53) for repeatedly updating the positions and / or sizes of the plurality of collation areas prior to the change processing by the change means.
好ましくは、特定物体像は動物の顔画像に相当する。 Preferably, the specific object image corresponds to an animal face image.
この発明に従う画像処理プログラムは、画像処理装置(10)のプロセッサ(26)に、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持ステップ(44)、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出ステップ(S39, S55)、検出ステップによって検出された特徴量を保持ステップによって保持された特徴量と照合する照合ステップ(S41, S57)、および照合ステップの照合結果に応じて異なる態様で画像処理を実行する処理ステップ(S31, S59, S63, S15~S29)を実行させるための、画像処理プログラムである。 An image processing program according to the present invention holds a feature amount of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to a specific object image in a processor (26) of the image processing device (10). (44), detection steps (S39, S55) for detecting feature amounts of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on a designated image, and holding the feature amounts detected by the detection step A matching step (S41, S57) for matching with the feature value held by the step and a processing step (S31, S59, S63, S15 to S29) for executing image processing in a different manner depending on the matching result of the matching step are executed. This is an image processing program.
この発明に従う画像処理方法は、画像処理装置(10)によって実行される画像処理方法であって、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持ステップ(44)、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出ステップ(S39, S55)、検出ステップによって検出された特徴量を保持ステップによって保持された特徴量と照合する照合ステップ(S41, S57)、および照合ステップの照合結果に応じて異なる態様で画像処理を実行する処理ステップ(S31, S59, S63, S15~S29)を備える。 An image processing method according to the present invention is an image processing method executed by an image processing device (10), and calculates feature quantities of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to a specific object image. It is detected by the holding step (44) for holding, the detecting step (S39, S55) for detecting feature amounts of a plurality of partial images respectively corresponding to the plurality of collation areas allocated in a nested manner on the designated image, and the detecting step. A collation step (S41, S57) for collating the feature quantity with the feature quantity held by the holding step, and a processing step (S31, S59, S63, S15 ~) for executing image processing in a different manner depending on the collation result of the collation step S29).
この発明に従う外部制御プログラムは、メモリ(44)に保存された内部制御プログラムに従う処理を実行するプロセッサ(26)を備える画像処理装置(10)に供給される外部制御プログラムであって、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持ステップ(44)、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出ステップ(S39, S55)、検出ステップによって検出された特徴量を保持ステップによって保持された特徴量と照合する照合ステップ(S41, S57)、および照合ステップの照合結果に応じて異なる態様で画像処理を実行する処理ステップ(S31, S59, S63, S15~S29)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。 An external control program according to the present invention is an external control program supplied to an image processing device (10) including a processor (26) that executes processing according to an internal control program stored in a memory (44), and a specific object image A holding step (44) for holding feature quantities of a plurality of object images respectively corresponding to a plurality of ranges allocated in a nested manner, and a plurality of matching areas respectively corresponding to a plurality of matching areas nested in a designated image Detection steps for detecting feature amounts of partial images (S39, S55), collation steps for collating the feature amounts detected by the detection step with the feature amounts held by the holding step (S41, S57), and collation results of the collation step Externally to cause the processor to execute processing steps (S31, S59, S63, S15 to S29) for executing image processing in different modes depending on the internal control program. Is your program.
この発明に従う画像処理装置(10)は、外部制御プログラムを受信する受信手段(50)、および受信手段によって受信された外部制御プログラムとメモリ(44)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(26)を備える画像処理装置(10)であって、外部制御プログラムは、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持ステップ(44)、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出ステップ(S39, S55)、検出ステップによって検出された特徴量を保持ステップによって保持された特徴量と照合する照合ステップ(S41, S57)、および照合ステップの照合結果に応じて異なる態様で画像処理を実行する処理ステップ(S31, S59, S63, S15~S29)を内部制御プログラムと協働して実行するプログラムに相当する。 An image processing apparatus (10) according to the present invention executes a process according to a receiving means (50) for receiving an external control program, and an external control program received by the receiving means and an internal control program stored in a memory (44). An image processing apparatus (10) comprising a processor (26) for holding an external control program for holding feature amounts of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to a specific object image Step (44), detection steps (S39, S55) for detecting feature amounts of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on the designated image, and feature amounts detected by the detection step A collation step (S41, S57) for collating with the feature value held by the holding step, and a processing step for executing image processing in a different manner depending on the collation result of the collation step. Flop (S31, S59, S63, S15 ~ S29) to correspond to the internal control program in cooperation with a program to be executed.
保持手段によって保持された特徴量は、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量に相当する。また、検出手段によって検出される特徴量は、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ属する複数の部分画像の特徴量に相当する。処理手段によって実行される画像処理の態様は、これらの特徴量の照合結果に応じて異なる。こうして、動作性能が向上する。 The feature amounts held by the holding unit correspond to the feature amounts of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to the specific object image. The feature amount detected by the detection unit corresponds to the feature amount of a plurality of partial images respectively belonging to a plurality of collation areas allocated in a nested manner on the designated image. The mode of image processing executed by the processing unit differs depending on the result of collating these feature amounts. Thus, the operating performance is improved.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]
図1を参照して、この実施例の画像処理装置は、基本的に次のように構成される。保持手段1は、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する。検出手段2は、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する。照合手段3は、検出手段2によって検出された特徴量を保持手段1によって保持された特徴量と照合する。処理手段4は、照合手段3の照合結果に応じて異なる態様で画像処理を実行する。
[実施例]
Referring to FIG. 1, the image processing apparatus of this embodiment is basically configured as follows. The
[Example]
図2を参照して、この実施例のディジタルカメラ10は、フラッシュメモリ44にペット顔辞書DC1および外形ペット顔辞書DC2を格納する。ペット顔辞書DC1および外形ペット顔辞書DC2は、被写界に現れた動物の顔画像を探索するために準備されたものである。図3(A)を参照して、ペット顔辞書DC1には、動物の顔の特徴を表す1または2以上の辞書画像データが収められる。ペット顔辞書DC1の辞書画像データは、目,鼻,および口などを含む動物の顔の内側部分の領域に対応する。図3(B)を参照して、外形ペット顔辞書DC2は、ペット顔辞書DC1に対応する辞書画像データを収める。外形ペット顔辞書DC2の辞書画像データは、ペット顔辞書DC1の辞書画像データの領域を含み、さらに耳などの動物の顔の外側部分まで含んだ領域に対応する。
Referring to FIG. 2, the
電源が投入されると、CPU26は、探索対象の動物を操作者に選択させるべく、外形ペット顔辞書DC2に収められた辞書画像データを撮像タスクの下でフラッシュメモリ44から読み出し、読み出された辞書画像データをSDRAM32の表示画像エリア32bに展開する。LCDドライバ36は、展開された辞書画像データをメモリ制御回路30を通して読み出し、読み出された辞書画像データに基づいてLCDモニタ38を駆動する。
When the power is turned on, the
したがって、外形ペット顔辞書DC2が図3(B)に示す要領で準備されたときは、猫および犬を表す2つの辞書画像が図4に示す要領でLCDモニタ38に表示される。
Therefore, when the external pet face dictionary DC2 is prepared as shown in FIG. 3B, two dictionary images representing cats and dogs are displayed on the
表示された辞書画像のいずれか1つを選択する選択操作が行われると、CPU26は、選択された辞書画像に対応する特徴量をペット顔辞書DC1およびペット顔辞書DC2から読み出す。図4の例において猫を表す辞書画像が選択された場合は、猫の顔の特徴量がペット辞書DC1および外形ペット顔辞書DC2から読み出される。
When a selection operation for selecting any one of the displayed dictionary images is performed, the
図2を参照して、この実施例のディジタルカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経た被写界の光学像は、イメージセンサ16の撮像面に照射され、光電変換を施される。これによって、被写界像を表す電荷が生成される。
Referring to FIG. 2, the
ペット辞書DC1および外形ペット顔辞書DC2からの特徴量の読み出しが完了すると、CPU26は、撮像タスクの下で動画取り込み処理を開始するべく、ドライバ18cに露光動作および電荷読み出し動作の繰り返しを命令する。ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。イメージセンサ16からは、読み出された電荷に基づく生画像データが周期的に出力される。
When the reading of the feature values from the pet dictionary DC1 and the outer pet face dictionary DC2 is completed, the
前処理回路20は、イメージセンサ16から出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路30を通してSDRAM32の生画像エリア32aに書き込まれる。
The
後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データに色分離処理,白バランス調整処理,YUV変換処理などの処理を施し、YUV形式に従う表示画像データおよび探索画像データを個別に作成する。表示画像データは、メモリ制御回路30によってSDRAM32の表示画像エリア32bに書き込まれる。探索画像データは、メモリ制御回路30によってSDRAM32の探索画像エリア32cに書き込まれる。
The
LCDドライバ36は、表示画像エリア32bに格納された表示画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、被写界のリアルタイム動画像(スルー画像)がモニタ画面に表示される。また、探索画像データが探索画像エリア32cに繰り返し書き込まれる。
The
図5を参照して、撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。また、前処理回路20は、上述した処理に加えて、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行する。
Referring to FIG. 5, an evaluation area EVA is allocated at the center of the imaging surface. The evaluation area EVA is divided into 16 in each of the horizontal direction and the vertical direction, and 256 divided areas form the evaluation area EVA. In addition to the processing described above, the
AE評価回路22は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAE評価値が、垂直同期信号Vsyncに応答してAE評価回路22から出力される。
The
また、AF評価回路24は、前処理回路20から出力されたRGBデータのうち同じ評価エリアEVAに属するRGBデータの高周波成分を抽出し、抽出された高域周波数成分を垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAF評価回路24から出力される。
The
CPU26はまた、撮像タスクと並列して実行されるペット顔検出タスクの下で、探索画像エリア32cに格納された探索画像データから動物の顔画像を探索する。探索される顔画像は、選択操作によって選択された辞書画像に符合する画像である。このようなペット顔検出タスクのために、図6に示すレジスタRGSTおよび図7に示す複数の顔検出枠FD,FD,FD,…が準備される。
The
顔検出枠FDは、垂直同期信号Vsyncが発生する毎に、探索画像エリア32c上を評価エリアEVAに対応してラスタ走査態様で移動する(図8参照)。顔検出枠FDのサイズは、ラスタ走査が終了する毎に“200”から“20”まで“5”刻みで縮小される。 Each time the vertical synchronization signal Vsync is generated, the face detection frame FD moves on the search image area 32c in a raster scanning manner corresponding to the evaluation area EVA (see FIG. 8). The size of the face detection frame FD is reduced in increments of “5” from “200” to “20” every time raster scanning ends.
CPU26は、顔検出枠FDに属する画像データをメモリ制御回路30を通して探索画像エリア32cから読み出し、読み出された画像データの特徴量を算出する。算出された特徴量は、先に読み出されたペット顔辞書DC1の辞書画像の特徴量と照合される。照合度が基準値REF1を上回ると、CPU26は、外形検出枠FDWに属する画像データをメモリ制御回路30を通して探索画像エリア32cから読み出し、読み出された画像データの特徴量を算出する。
The
図9を参照して、外形検出枠FDWは、現時点の顔検出枠FDに属する領域およびさらに外側の領域までを含み、内部に現時点の顔検出枠FDが入れ子状に割り当てられるように、配置される。外形検出枠FDWの位置およびサイズは、現時点の顔検出枠FDの位置およびサイズと照合対象の辞書画像に対応する外形ペット顔辞書DC2の辞書画像とに基づいて、決定される。 Referring to FIG. 9, the outer shape detection frame FDW is arranged so as to include a region belonging to the current face detection frame FD and a further outer region, and the current face detection frame FD is allocated in a nested manner. The The position and size of the outer shape detection frame FDW are determined based on the current position and size of the face detection frame FD and the dictionary image of the outer shape pet face dictionary DC2 corresponding to the dictionary image to be collated.
算出された特徴量は、先に読み出された外形ペット顔辞書DC2の辞書画像の特徴量と照合される。照合度が基準値REF2を上回ると、現時点の外形検出枠FDWの位置およびサイズが、顔画像のサイズおよび位置として決定され、レジスタRGSTに登録される。レジスタRGSTへの登録が完了すると、フラグFLGpetが“0”から“1”に更新される。 The calculated feature amount is collated with the feature amount of the dictionary image of the outer shape pet face dictionary DC2 read out earlier. When the matching degree exceeds the reference value REF2, the current position and size of the outer shape detection frame FDW are determined as the size and position of the face image and registered in the register RGST. When the registration in the register RGST is completed, the flag FLGpet is updated from “0” to “1”.
なお、顔の内側部分の検出精度はペット顔辞書DC1との照合で確保されているので、外形ペット顔辞書DC2との照合においては、耳の形など顔の周囲の輪郭が大きく異なる動物の誤検出を避けることができればよい。よって、外形ペット顔辞書DC2との照合処理で用いられる基準値REF2は、ペット顔辞書DC1辞書画像との照合処理で用いられる基準値REF1よりも低く設定された閾値である。 In addition, since the detection accuracy of the inner part of the face is ensured by collation with the pet face dictionary DC1, in collation with the external pet face dictionary DC2, there is an error of an animal whose outline of the face such as an ear shape is greatly different. It suffices if detection can be avoided. Therefore, the reference value REF2 used in the matching process with the external pet face dictionary DC2 is a threshold set lower than the reference value REF1 used in the matching process with the pet face dictionary DC1 dictionary image.
撮像タスクの下で、CPU26は、フラグFLGpetが“0”を示すとき、AE評価回路22からの出力に基づく簡易AE処理を撮像タスクの下で実行し、適正EV値を算出する。簡易AE処理は動画取込み処理と並列して実行され、算出された適正EV値を定義する絞り量および露光時間はドライバ18bおよび18cにそれぞれ設定される。この結果、スルー画像の明るさが適度に調整される。
Under the imaging task, when the flag FLGpet indicates “0”, the
フラグFLGpetが“1”に更新されると、CPU26は、レジスタRGSTの登録内容を参照して、顔枠KFの表示をグラフィックジェネレータ46に要求する。グラフィックジェネレータ46は、顔枠KFを表すグラフィック情報をLCDドライバ36に向けて出力する。顔枠KFは、ペット顔検出タスクの下で決定された顔画像の位置およびサイズに適合する態様でLCDモニタ38に表示される。
When the flag FLGpet is updated to “1”, the
したがって、猫の辞書画像が選択された状態で猫CT1が被写界に捉えられたとき、顔枠KFは図10に示す要領でLCDモニタ38に表示される。
Therefore, when the cat CT1 is captured in the scene with the cat dictionary image selected, the face frame KF is displayed on the
フラグFLGpetが“1”に更新されるとまた、CPU26は、AE評価回路22から出力された256個のAE評価値およびAF評価回路24から出力された256個のAF評価値のうち、レジスタRGSTに登録された顔画像の位置にそれぞれ対応するAE評価値およびAF評価値を抽出する。
When the flag FLGpet is updated to “1”, the
CPU26は、抽出された一部のAE評価値に基づく厳格AE処理を実行する。厳格AE処理によって算出された最適EV値を定義する絞り量および露光時間は、ドライバ18bおよび18cにそれぞれ設定される。この結果、スルー画像の明るさが、動物の顔画像の位置に相当する被写界の一部に注目した明るさに調整される。
The
厳格AE処理が完了すると、CPU26は、抽出された一部のAF評価値に基づくAF処理を、設定された調整基準に沿って実行する。この結果、動物の顔画像の位置に相当する被写界の一部に注目した合焦点にフォーカスレンズ12が配置され、スルー画像の鮮鋭度が向上する。
When the strict AE process is completed, the
AF処理が完了すると、CPU26は、撮像タスクの下で静止画取り込み処理および記録処理を実行する。AF処理が完了した直後の1フレームの画像データは、静止画取り込み処理によって静止画エリア32dに取り込まれる。取り込まれた1フレームの画像データは、記録処理に関連して起動したI/F40によって静止画エリア32dから読み出され、ファイル形式で記録媒体42に記録される。顔枠KF1は、記録処理が完了した後に非表示とされる。
When the AF process is completed, the
CPU26は、図11〜図12に示す撮像タスクおよび図13〜図15に示すペット顔検出タスクを含む複数のタスクを並列的に実行する。これらのタスクに対応する制御プログラムは、フラッシュメモリ44に記憶される。
The
図11を参照して、ステップS1では、外形ペット顔辞書DC2に収められた辞書画像データをフラッシュメモリ44から読み出し、読み出された辞書画像データをSDRAM32の表示画像エリア32bに展開する。この結果、1または2以上の辞書画像がLCDモニタ38に表示される。ステップS3では、表示された辞書画像のいずれか1つを選択する選択操作が行われたか否かを判別する。判別結果がNOからYESに更新されるとステップS5に進み、選択された辞書画像に対応する特徴量をペット顔辞書DC1および外形ペット顔辞書DC2から読み出す。
Referring to FIG. 11, in step S <b> 1, dictionary image data stored in outline pet face dictionary DC <b> 2 is read from
ステップS7では動画取込み処理を実行し、ステップS9では評価エリアEVAの全域を探索エリアとして設定する。ステップS11では、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズSZmaxを“200”に設定し、最小SZminを“20”に設定する。ステップS11の処理が完了すると、ステップS13でペット顔検出タスクを起動する。 In step S7, a moving image capturing process is executed, and in step S9, the entire evaluation area EVA is set as a search area. In step S11, the maximum size SZmax is set to “200” and the minimum SZmin is set to “20” to define a variable range of the size of the face detection frame FD. When the process of step S11 is completed, the pet face detection task is activated in step S13.
フラグFLGpetは、ペット顔検出タスクの下で“0”に初期設定され、ペット顔辞書DC1の辞書画像および外形ペット顔辞書DC2の辞書画像と符合する顔画像が発見されたときに“1”に更新される。ステップS15ではこのようなフラグFLGpetが“1”を示すか否かを判別し、判別結果がNOである限り、ステップS17で簡易AE処理を繰り返し実行する。スルー画像の明るさは、簡易AE処理によって適度に調整される。 The flag FLGpet is initially set to “0” under the pet face detection task, and is set to “1” when a face image matching the dictionary image of the pet face dictionary DC1 and the dictionary image of the external pet face dictionary DC2 is found. Updated. In step S15, it is determined whether or not such a flag FLGpet indicates “1”. As long as the determination result is NO, the simple AE process is repeatedly executed in step S17. The brightness of the through image is appropriately adjusted by the simple AE process.
判別結果がNOからYESに更新されるとステップS19に進み、レジスタRGSTの登録内容を参照して顔枠KFの表示をグラフィックジェネレータ46に要求する。グラフィックジェネレータ46は、顔枠KFを表すグラフィック画像データをLCDドライバ36に向けて出力する。顔枠KFは、検出された顔画像を囲うようにLCDモニタ38に表示される。
When the determination result is updated from NO to YES, the process proceeds to step S19, and the
ステップS21では、AE評価回路22から出力された256個のAE評価値のうち、レジスタRGSTに登録された顔画像の位置にそれぞれ対応するAE評価値を抽出し、抽出された一部のAE評価値に基づく厳格AE処理を実行する。この結果、スルー画像の明るさが、動物の顔画像の位置に相当する被写界の一部に注目した明るさに調整される。
In step S21, an AE evaluation value corresponding to each position of the face image registered in the register RGST is extracted from the 256 AE evaluation values output from the
ステップS23では、AF評価回路24から出力された256個のAF評価値のうち、レジスタRGSTに登録された顔画像の位置にそれぞれ対応するAF評価値を抽出し、抽出された一部のAF評価値に基づくAF処理を、設定された調整基準に沿って実行する。この結果、動物の顔画像の位置に相当する被写界の一部に注目した合焦点にフォーカスレンズ12が配置され、スルー画像の鮮鋭度が向上する。
In step S23, AF evaluation values respectively corresponding to the positions of the face images registered in the register RGST are extracted from the 256 AF evaluation values output from the
ステップS25では静止画取り込み処理を実行し、ステップS27では記録処理を実行する。AF処理が完了した直後の1フレームの画像データは、静止画取り込み処理によって静止画エリア32dに取り込まれる。取り込まれた1フレームの画像データは、記録処理によって、記録媒体42に記録される。記録処理が完了すると、ステップS29で顔枠KFの非表示をグラフィックジェネレータ46に要求し、その後にステップS9に戻る。
In step S25, a still image capturing process is executed, and in step S27, a recording process is executed. One frame of image data immediately after the AF processing is completed is captured into the still image area 32d by the still image capturing processing. The captured one-frame image data is recorded on the
図13を参照して、ステップS31ではフラグFLGpetを“0”に設定し、ステップS33では垂直同期信号Vsyncが発生したか否かを判別する。判別結果がNOからYESに更新されると、ステップS35で顔検出枠FDのサイズを“SZmax”に設定し、ステップS37で顔検出枠FDを探索エリアの左上位置に配置する。ステップS39では顔検出枠FDに属する一部の探索画像データを探索画像エリア32cから読み出し、読み出された探索画像データの特徴量を算出する。 Referring to FIG. 13, in step S31, the flag FLGpet is set to “0”, and in step S33, it is determined whether or not the vertical synchronization signal Vsync is generated. When the determination result is updated from NO to YES, the size of the face detection frame FD is set to “SZmax” in step S35, and the face detection frame FD is arranged in the upper left position of the search area in step S37. In step S39, a part of the search image data belonging to the face detection frame FD is read from the search image area 32c, and the feature amount of the read search image data is calculated.
ステップS41では算出された特徴量をペット顔辞書DC1から読み出された辞書画像データの特徴量と照合し、ステップS43では照合度が基準値REF1を上回るか否かを判別する。判別結果がNOであればステップS45に進み、判別結果がYESであればステップS55に進む。 In step S41, the calculated feature amount is collated with the feature amount of the dictionary image data read from the pet face dictionary DC1, and in step S43, it is determined whether or not the collation degree exceeds the reference value REF1. If the determination result is NO, the process proceeds to step S45, and if the determination result is YES, the process proceeds to step S55.
ステップS45では、顔検出枠FDが探索エリアの右下位置に到達したか否かを判別する。判別結果がNOであれば、ステップS47で顔検出枠FDを既定量だけラスタ方向に移動させ、その後にステップS39に戻る。判別結果がYESであれば、顔検出枠FDのサイズが“SZmin”以下であるか否かをステップS49で判別する。ステップS49の判別結果がNOであれば、ステップS51で顔検出枠FDのサイズを“5”だけ縮小させ、ステップS53で顔検出枠FDを探索エリアの左上位置に配置し、その後にステップS39に戻る。ステップS49の判別結果がYESであれば、そのままステップS33に戻る。 In step S45, it is determined whether or not the face detection frame FD has reached the lower right position of the search area. If the determination result is NO, the face detection frame FD is moved in the raster direction by a predetermined amount in step S47, and then the process returns to step S39. If the determination result is YES, it is determined in a step S49 whether or not the size of the face detection frame FD is “SZmin” or less. If the decision result in the step S49 is NO, the size of the face detection frame FD is reduced by “5” in a step S51, the face detection frame FD is arranged in the upper left position of the search area in a step S53, and then the process proceeds to a step S39. Return. If the determination result of step S49 is YES, it will return to step S33 as it is.
ステップS55では、外形検出枠FDWに属する画像データをメモリ制御回路30を通して探索画像エリア32cから読み出し、読み出された画像データの特徴量を算出する。外形検出枠FDWは、現時点の顔検出枠FDに属する領域およびさらに外側の領域までを含み、内部に現時点の顔検出枠FDが入れ子状に割り当てられるように、配置される。外形検出枠FDWの位置およびサイズは、現時点の顔検出枠FDの位置およびサイズと照合対象の辞書画像に対応する外形ペット顔辞書DC2の辞書画像とに基づいて、決定される。
In step S55, image data belonging to the outer shape detection frame FDW is read from the search image area 32c through the
ステップS57では算出された特徴量を外形ペット顔辞書DC2から読み出された辞書画像データの特徴量と照合し、ステップS59では照合度が基準値REF2を上回るか否かを判別する。判別結果がNOであればステップS45に戻り、判別結果がYESであればステップS61に進む。 In step S57, the calculated feature amount is collated with the feature amount of the dictionary image data read from the external pet face dictionary DC2, and in step S59, it is determined whether or not the collation degree exceeds the reference value REF2. If a determination result is NO, it will return to Step S45, and if a determination result is YES, it will progress to Step S61.
ステップS61では、現時点の外形検出枠FDWの位置およびサイズが、顔画像のサイズおよび位置として決定され、レジスタRGSTに登録される。ステップS61の処理が完了すると、ステップS63でフラグFLGpetを“1”に設定し、その後に処理を終了する。 In step S61, the current position and size of the outer shape detection frame FDW are determined as the size and position of the face image and registered in the register RGST. When the process of step S61 is completed, the flag FLGpet is set to “1” in step S63, and then the process ends.
以上の説明から分かるように、フラッシュメモリ44は、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する。CPU26は、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出し、検出された特徴量をフラッシュメモリ44によって保持された特徴量と照合する。CPU26はまた、照合結果に応じて異なる態様で画像処理を実行する。
As can be understood from the above description, the
フラッシュメモリ44によって保持された特徴量は、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量に相当する。また、検出される特徴量は、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ属する複数の部分画像の特徴量に相当する。CPU26によって実行される画像処理の態様は、これらの特徴量の照合結果に応じて異なる。こうして、動作性能が向上する。
The feature values held by the
なお、この実施例では、顔検出枠FDに属する画像データの特徴量とペット顔辞書DC1の特徴量との照合度が基準値REF1を上回った場合に、外形検出枠FDWに属する画像データの特徴量を読み出し、外形ペット顔辞書DC2の特徴量と照合するようにした。しかし、顔検出枠FDに属する画像データの特徴量と外形ペット顔辞書DC2の特徴量とを先に照合するようにしてもよい。 In this embodiment, the feature of the image data belonging to the contour detection frame FDW when the matching degree between the feature amount of the image data belonging to the face detection frame FD and the feature amount of the pet face dictionary DC1 exceeds the reference value REF1. The amount is read out and collated with the feature amount of the external pet face dictionary DC2. However, the feature amount of the image data belonging to the face detection frame FD and the feature amount of the external pet face dictionary DC2 may be collated first.
この場合、図13のステップS41〜ステップS43に代えて図16のステップS71〜ステップS73を実行し、図15のステップS55〜ステップS59に代えて図16のステップS75〜ステップS79を実行すればよい。 In this case, steps S71 to S73 of FIG. 16 are executed instead of steps S41 to S43 of FIG. 13, and steps S75 to S79 of FIG. 16 are executed instead of steps S55 to S59 of FIG. .
ステップS71では算出された特徴量を外形ペット顔辞書DC2から読み出された辞書画像データの特徴量と照合し、ステップS73では照合度が基準値REF2を上回るか否かを判別する。判別結果がNOであればステップS45に進み、判別結果がYESであればステップS75に進む。 In step S71, the calculated feature amount is collated with the feature amount of the dictionary image data read from the outer pet face dictionary DC2, and in step S73, it is determined whether or not the collation degree exceeds the reference value REF2. If the determination result is NO, the process proceeds to step S45, and if the determination result is YES, the process proceeds to step S75.
ステップS75では、内形検出枠FDNに属する画像データをメモリ制御回路30を通して探索画像エリア32cから読み出し、読み出された画像データの特徴量を算出する。図17を参照して、内形検出枠FDNは、顔検出枠FDの内部に入れ子状に割り当てられるように配置される。内形検出枠FDNの位置およびサイズは、現時点の顔検出枠FDの位置およびサイズと照合対象の辞書画像に対応するペット顔辞書DC1の辞書画像とに基づいて、決定される。
In step S75, the image data belonging to the inner shape detection frame FDN is read from the search image area 32c through the
ステップS77では算出された特徴量をペット顔辞書DC1から読み出された辞書画像データの特徴量と照合し、ステップS79では照合度が基準値REF1を上回るか否かを判別する。判別結果がNOであればステップS45に戻り、判別結果がYESであればステップS61に進む。 In step S77, the calculated feature amount is collated with the feature amount of the dictionary image data read from the pet face dictionary DC1, and in step S79, it is determined whether or not the collation degree exceeds the reference value REF1. If a determination result is NO, it will return to Step S45, and if a determination result is YES, it will progress to Step S61.
またこの場合、顔検出枠FDを用いた走査および特徴量の算出を低解像度の画像上で実行し、内形検出枠FDNの配置および内形検出枠FDNに属する画像データの読出しを高解像度の画像上で実行するようにしてもよい。 Further, in this case, scanning using the face detection frame FD and calculation of the feature amount are executed on the low-resolution image, and the arrangement of the inner shape detection frame FDN and the reading of the image data belonging to the inner shape detection frame FDN are read with high resolution. You may make it perform on an image.
なお、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ44に予め記憶される。しかし、外部サーバに接続するための通信I/F50を図18に示す要領でディジタルカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ44に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。
In this embodiment, the multitask OS and control programs corresponding to a plurality of tasks executed thereby are stored in the
また、この実施例では、CPU36によって実行される処理を、図11〜図12に示す撮像タスクおよび図13〜図15に示すペット顔検出タスクに区分するようにしている。しかし、これらのタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を統合するようにしてもよい。また、転送タスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。
In this embodiment, the process executed by the
また、この実施例では、ディジタルスチルカメラを用いて説明したが、本発明は、ディジタルビデオカメラ,携帯電話端末またはスマートフォンなどにも適用することができる。 In this embodiment, the digital still camera has been described. However, the present invention can also be applied to a digital video camera, a mobile phone terminal, a smartphone, or the like.
10 …ディジタルカメラ
16 …イメージセンサ
22 …AE評価回路
24 …AF評価回路
26 …CPU
32 …SDRAM
44 …フラッシュメモリ
DESCRIPTION OF
32 ... SDRAM
44 ... Flash memory
Claims (12)
指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出手段、
前記検出手段によって検出された特徴量を前記保持手段によって保持された特徴量と照合する照合手段、および
前記照合手段の照合結果に応じて異なる態様で画像処理を実行する処理手段を備える、画像処理装置。 Holding means for holding feature quantities of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to the specific object image;
Detecting means for detecting feature amounts of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on a designated image;
Image processing comprising: a collating unit that collates a feature amount detected by the detecting unit with a feature amount held by the holding unit; and a processing unit that executes image processing in a different manner depending on a collation result of the collating unit apparatus.
前記照合手段は、前記第1特徴量検出手段によって検出された第1部分特徴量を前記保持手段によって保持された特徴量の一部と照合する第1特徴量照合手段、および前記第2特徴量検出手段によって検出された第2部分特徴量を前記保持手段によって保持された特徴量の他の一部と照合する第2特徴量照合手段を含む、請求項1記載の画像処理装置。 The detecting means detects a first feature quantity detecting means for detecting a first partial feature quantity corresponding to a part of the plurality of partial images, and a second partial feature quantity corresponding to another part of the plurality of partial images. A second feature amount detecting means for detecting
The collation means includes a first feature quantity collation means for collating the first partial feature quantity detected by the first feature quantity detection means with a part of the feature quantity held by the holding means, and the second feature quantity. The image processing apparatus according to claim 1, further comprising a second feature amount collating unit that collates the second partial feature amount detected by the detecting unit with another part of the feature amount held by the holding unit.
前記第1部分特徴量は前記第1照合エリアおよび前記第2照合エリアの一方に対応する特徴量を含み、
前記第2部分特徴量は前記第1照合エリアおよび前記第2照合エリアの他方に対応する特徴量を含む、請求項2記載の画像処理装置。 The plurality of collation areas include a first collation area having a large size and a second collation area having a small size;
The first partial feature amount includes a feature amount corresponding to one of the first collation area and the second collation area,
The image processing apparatus according to claim 2, wherein the second partial feature amount includes a feature amount corresponding to the other of the first collation area and the second collation area.
前記撮像手段から出力された被写界像に基づいて前記指定画像を作成する作成手段をさらに備え、
前記変更手段の変更対象は前記撮像手段から出力された被写界像の品質の調整精度を含む、請求項5記載の画像処理装置。 An imaging unit that has an imaging surface that captures the object scene, and that repeatedly outputs the object scene image; and a creation unit that creates the designated image based on the object scene image output from the imaging unit;
The image processing apparatus according to claim 5, wherein the change target of the change unit includes an adjustment accuracy of the quality of the object scene image output from the imaging unit.
特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持ステップ、
指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出ステップ、
前記検出ステップによって検出された特徴量を前記保持ステップによって保持された特徴量と照合する照合ステップ、および
前記照合ステップの照合結果に応じて異なる態様で画像処理を実行する処理ステップを実行させるための、画像処理プログラム。 In the processor of the image processing device,
Holding step for holding feature quantities of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to the specific object image;
A detection step of detecting feature amounts of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on a designated image;
A collation step for collating the feature amount detected by the detection step with the feature amount held by the holding step, and a processing step for executing image processing in a different manner depending on the collation result of the collation step , Image processing program.
特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持ステップ、
指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出ステップ、
前記検出ステップによって検出された特徴量を前記保持ステップによって保持された特徴量と照合する照合ステップ、および
前記照合ステップの照合結果に応じて異なる態様で画像処理を実行する処理ステップを備える、画像処理方法。 An image processing method executed by an image processing apparatus,
Holding step for holding feature quantities of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to the specific object image;
A detection step of detecting feature amounts of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on a designated image;
Image processing comprising: a collation step for collating the feature quantity detected by the detection step with the feature quantity held by the holding step; and a processing step for executing image processing in a different manner depending on the collation result of the collation step Method.
特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持ステップ、
指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出ステップ、
前記検出ステップによって検出された特徴量を前記保持ステップによって保持された特徴量と照合する照合ステップ、および
前記照合ステップの照合結果に応じて異なる態様で画像処理を実行する処理ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。 An external control program supplied to an image processing apparatus including a processor that executes processing according to an internal control program stored in a memory,
Holding step for holding feature quantities of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to the specific object image;
A detection step of detecting feature amounts of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on a designated image;
The internal control program includes a collation step for collating the feature quantity detected by the detection step with the feature quantity held by the holding step, and a processing step for executing image processing in a different manner depending on the collation result of the collation step An external control program for causing the processor to execute in cooperation with the program.
前記受信手段によって受信された外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備える画像処理装置であって、
前記外部制御プログラムは、
特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持ステップ、
指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出ステップ、
前記検出ステップによって検出された特徴量を前記保持ステップによって保持された特徴量と照合する照合ステップ、および
前記照合ステップの照合結果に応じて異なる態様で画像処理を実行する処理ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、画像処理装置。 An image processing apparatus comprising: a receiving unit that receives an external control program; and a processor that executes processing according to the external control program received by the receiving unit and an internal control program stored in a memory,
The external control program is
Holding step for holding feature quantities of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to the specific object image;
A detection step of detecting feature amounts of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on a designated image;
The internal control program includes a collation step for collating the feature quantity detected by the detection step with the feature quantity held by the holding step, and a processing step for executing image processing in a different manner depending on the collation result of the collation step An image processing apparatus corresponding to a program executed in cooperation with the computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010279416A JP2012129796A (en) | 2010-12-15 | 2010-12-15 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010279416A JP2012129796A (en) | 2010-12-15 | 2010-12-15 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012129796A true JP2012129796A (en) | 2012-07-05 |
JP2012129796A5 JP2012129796A5 (en) | 2013-12-19 |
Family
ID=46646361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010279416A Pending JP2012129796A (en) | 2010-12-15 | 2010-12-15 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012129796A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015036123A (en) * | 2013-08-09 | 2015-02-23 | 株式会社東芝 | Medical image processor, medical image processing method and classifier training method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006020298A (en) * | 2004-06-03 | 2006-01-19 | Canon Inc | Function-setting system, imaging device, data processing device, function-setting method, and function-setting program |
JP2009289230A (en) * | 2008-06-02 | 2009-12-10 | Olympus Corp | Image processing apparatus, image processing method, and image processing program |
JP2010002960A (en) * | 2008-06-18 | 2010-01-07 | Olympus Corp | Image processor, image processing method, and image processing program |
JP2010026804A (en) * | 2008-07-18 | 2010-02-04 | Olympus Corp | Image processing device, image processing program and image processing method |
-
2010
- 2010-12-15 JP JP2010279416A patent/JP2012129796A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006020298A (en) * | 2004-06-03 | 2006-01-19 | Canon Inc | Function-setting system, imaging device, data processing device, function-setting method, and function-setting program |
JP2009289230A (en) * | 2008-06-02 | 2009-12-10 | Olympus Corp | Image processing apparatus, image processing method, and image processing program |
JP2010002960A (en) * | 2008-06-18 | 2010-01-07 | Olympus Corp | Image processor, image processing method, and image processing program |
JP2010026804A (en) * | 2008-07-18 | 2010-02-04 | Olympus Corp | Image processing device, image processing program and image processing method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015036123A (en) * | 2013-08-09 | 2015-02-23 | 株式会社東芝 | Medical image processor, medical image processing method and classifier training method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9681040B2 (en) | Face tracking for controlling imaging parameters | |
JP4974812B2 (en) | Electronic camera | |
JP2011071573A (en) | Image processing apparatus | |
JP5485781B2 (en) | Electronic camera | |
JP5485712B2 (en) | Electronic camera | |
US20120075495A1 (en) | Electronic camera | |
JP5785034B2 (en) | Electronic camera | |
JP2012129796A (en) | Image processing device | |
JP2014053706A (en) | Electronic camera | |
US11653087B2 (en) | Information processing device, information processing system, and information processing method | |
US20130016242A1 (en) | Electronic camera | |
JP2013143755A (en) | Electronic camera | |
JP5356162B2 (en) | Object image search device | |
JP2014174217A (en) | Electronic camera | |
US20120148095A1 (en) | Image processing apparatus | |
US20110109760A1 (en) | Electronic camera | |
JP2014036321A (en) | Electron camera | |
JP2012133258A (en) | Electronic camera | |
JP2010217614A (en) | Electronic camera | |
JP2012244278A (en) | Electronic camera | |
JP2014030095A (en) | Electronic camera | |
JP2011130043A (en) | Electronic camera | |
JP2014158210A (en) | Electronic camera | |
US20130155291A1 (en) | Electronic camera | |
JP2014146993A (en) | Electronic camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20130404 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20130521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131105 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140716 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20141204 |