[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2016538630A - A method for determining local discriminant colors for image feature detectors - Google Patents

A method for determining local discriminant colors for image feature detectors Download PDF

Info

Publication number
JP2016538630A
JP2016538630A JP2016526000A JP2016526000A JP2016538630A JP 2016538630 A JP2016538630 A JP 2016538630A JP 2016526000 A JP2016526000 A JP 2016526000A JP 2016526000 A JP2016526000 A JP 2016526000A JP 2016538630 A JP2016538630 A JP 2016538630A
Authority
JP
Japan
Prior art keywords
image
channel
response
computing device
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016526000A
Other languages
Japanese (ja)
Inventor
スミルノフ,パヴェル
セメノフ,ピョートル
Original Assignee
インテル コーポレイション
インテル コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル コーポレイション, インテル コーポレイション filed Critical インテル コーポレイション
Publication of JP2016538630A publication Critical patent/JP2016538630A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

マルチチャネル特徴検出のための技術は、1以上の画像フィルタに関する、マルチチャネル画像の各画像チャネルのフィルタ応答を決定するコンピューティングデバイスを含む。コンピューティングデバイスは、フィルタ応答に基づいて局所識別色ベクトルを求め、フィルタ応答を局所識別色ベクトルに適用して、適応応答を生成し、適応応答に基づいて、マルチチャネル画像の総応答を決定する。Techniques for multi-channel feature detection include computing devices that determine the filter response of each image channel of the multi-channel image with respect to one or more image filters. The computing device determines a local identification color vector based on the filter response, applies the filter response to the local identification color vector to generate an adaptive response, and determines the total response of the multi-channel image based on the adaptive response .

Description

コンピュータビジョンは、多様な画像特徴検出器を利用して、画像内の画像の特徴又は「関心点」を識別する。画像特徴検出器は、特定のアルゴリズム/検出器に応じて、解析される画像のエッジ、コーナー、ブロブ(すなわち、関心点からなる領域)、及び/又は頂部(ridge)を識別することができる。例えば、Cannyアルゴリズム及びSobelフィルタは、エッジ検出を実行し、Harris検出器は、コーナー検出を実行し、LoG(Laplacian of Gaussian)、ガウスのヘッセ行列式(Hessian of Gaussian determinant)、及びDoG(Difference of Gaussian)検出器は、画像内のコーナー及びブロブを識別する。特徴検出システムは、アルゴリズム及び検出器の組合せをしばしば利用して、解析される画像の特徴をより正確に識別する。   Computer vision utilizes a variety of image feature detectors to identify image features or “points of interest” within an image. The image feature detector can identify edges, corners, blobs (ie, regions of points of interest), and / or ridges of the image being analyzed, depending on the particular algorithm / detector. For example, the Canny algorithm and Sobel filter perform edge detection, the Harris detector performs corner detection, LoG (Laplacian of Gaussian), Gaussian Hessian determinant, and DoG (Difference of Gaussian detectors identify corners and blobs in the image. Feature detection systems often utilize a combination of algorithms and detectors to more accurately identify the features of the image being analyzed.

高速化ロバスト特徴(SURF:speeded up robust features)、スケール不変特徴変換(SIFT:scale-invariant feature transform)、Canny、Harris、及びSobel等の一般的な特徴検出器は、シングルチャネル画像(すなわち、グレースケール画像)の特徴を検出及び表現する。したがって、マルチチャネル画像(すなわち、色画像)は、特徴検出に対する準備的解析ステップとして、シングルチャネル画像に変換されなければならず、これは、画像情報の相当の損失をもたらし得る。例えば、シングルチャネルグレースケール画像の画像画素値は、マルチチャネル画像の複数のチャネルの各々における対応画素値の一次結合として生成され得る。したがって、異なる色を有するが同じシングルチャネルグレースケール表現を有するマルチチャネル画像画素間のコントラストは、グレースケール変換に起因して失われる。いくつかのアルゴリズムは、知覚に基づく(perceptual-based)色モデルを使用する(例えば、CSIFTは、色ボディ(colored body)の反射スペクトルをモデル化するKubelka−Munk理論を使用する)が、それらは、グレースケールマッピングに対して大域色(global color)を使用し、これは、情報の損失をもたらす。   Common feature detectors such as speeded up robust features (SURF), scale-invariant feature transform (SIFT), Canny, Harris, and Sobel are based on single channel images (ie, gray (Scale image) features are detected and expressed. Thus, a multi-channel image (ie, a color image) must be converted to a single channel image as a preliminary analysis step for feature detection, which can result in considerable loss of image information. For example, the image pixel values of a single channel grayscale image can be generated as a linear combination of corresponding pixel values in each of a plurality of channels of a multichannel image. Thus, contrast between multi-channel image pixels having different colors but having the same single channel gray scale representation is lost due to the gray scale conversion. Some algorithms use a perceptual-based color model (for example, CSIFT uses Kubelka-Munk theory to model the reflection spectrum of a colored body), but they are Use a global color for grayscale mapping, which results in loss of information.

本明細書に記載のコンセプトが、限定ではなく例として、添付の図面に示される。図示の単純さ及び明瞭さのために、図面に示される要素は、必ずしも縮尺通りに描かれてはいない。参照ラベルは、適切であると考えられる場合、対応要素又は類似要素を示すために、図面間で繰り返されている。
マルチチャネル特徴検出を実行するコンピューティングデバイスの少なくとも1つの実施形態の簡略化されたブロック図。 図1のコンピューティングデバイスの環境の少なくとも1つの実施形態の簡略化されたブロック図 図1のコンピューティングデバイス上でマルチチャネル特徴検出を実行するための方法の少なくとも1つの実施形態の簡略化されたフロー図。 図1のコンピューティングデバイス上で局所識別色ベクトルを求めるための方法の少なくとも1つの実施形態の簡略化されたフロー図。 キャプチャされた画像の図。 図3のマルチチャネル特徴検出のための方法と内部カーネルとしてのSURF特徴検出器とに基づく、キャプチャされた画像の識別された関心点の図。
The concepts described herein are illustrated by way of example and not limitation in the accompanying drawings. For simplicity and clarity of illustration, elements shown in the drawings are not necessarily drawn to scale. Reference labels have been repeated between drawings to indicate corresponding or similar elements where deemed appropriate.
FIG. 4 is a simplified block diagram of at least one embodiment of a computing device that performs multi-channel feature detection. FIG. 1 is a simplified block diagram of at least one embodiment of the computing device environment of FIG. FIG. 2 is a simplified flow diagram of at least one embodiment of a method for performing multi-channel feature detection on the computing device of FIG. FIG. 2 is a simplified flow diagram of at least one embodiment of a method for determining a local identification color vector on the computing device of FIG. Illustration of the captured image. FIG. 4 is a diagram of identified points of interest in a captured image based on the method for multi-channel feature detection of FIG. 3 and a SURF feature detector as an internal kernel.

本開示のコンセプトは、様々な変更形態及び代替形態を受け入れる余地があるが、その特定の実施形態が、例として、図面に示され本明細書で詳細に説明される。しかしながら、本開示のコンセプトを、開示する特定の形態に限定する意図はなく、反対に、意図は、本開示及び添付の特許請求の範囲と整合する全ての変更形態、均等形態、及び代替形態をカバーすることにあることを理解されたい。   While the concepts of the present disclosure are amenable to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and are described in detail herein. However, the concept of the present disclosure is not intended to be limited to the particular forms disclosed, but on the contrary, the intention is to cover all modifications, equivalents, and alternatives consistent with the present disclosure and the appended claims. Please understand that it is to cover.

「一実施形態」、「ある実施形態」、「例示的な実施形態」等の本明細書における言及は、説明する実施形態が、特定の特徴、構造、又は特性を含み得るが、全ての実施形態が、そのような特定の特徴、構造、又は特性を含んでもよいし、又は、必ずしもそのような特定の特徴、構造、又は特性を含む必要がなくてもよいことを示す。さらに、このような語句は、必ずしも同じ実施形態を指すわけではない。さらに、特定の特徴、構造、又は特性がある実施形態との関連で記載されている場合には、明示されていようといまいと、他の実施形態との関連でそのような特徴、構造、又は特性を実装することは当業者の知識の範囲内であるとする。さらに、「A、B、及びCのうちの少なくとも1つ」という形のリストに含まれる項目は、(A);(B);(C);(A及びB);(A及びC);(B及びC);又は(A、B、及びC)を意味し得ることを理解されたい。同様に、「A、B、又はCのうちの少なくとも1つ」という形でリストされる項目は、(A);(B);(C);(A及びB);(A及びC);(B及びC);又は(A、B、及びC)を意味し得る。   References herein such as “one embodiment”, “an embodiment”, “an exemplary embodiment”, and the like refer to any embodiment that the described embodiments may include particular features, structures, or characteristics. It is shown that the form may include such specific features, structures, or characteristics, or need not necessarily include such specific features, structures, or characteristics. Moreover, such phrases are not necessarily referring to the same embodiment. Further, where a particular feature, structure, or characteristic is described in the context of an embodiment, whether or not explicitly stated, such feature, structure, or It is assumed that implementing the characteristics is within the knowledge of those skilled in the art. Further, the items included in the list of the form “at least one of A, B, and C” are: (A); (B); (C); (A and B); (A and C); It should be understood that (B and C); or (A, B, and C) may be meant. Similarly, items listed in the form “at least one of A, B, or C” are (A); (B); (C); (A and B); (A and C); (B and C); or (A, B, and C).

開示する実施形態は、場合に応じて、ハードウェア、ファームウェア、ソフトウェア、又はこれらの任意の組合せにより実装することができる。開示する実施形態はまた、1以上のプロセッサにより読み出されて実行され得る、一時的又は非一時的な1以上のマシン読み取り可能な記憶媒体(例えば、コンピュータ読み取り可能な記憶媒体)により運ばれる命令又はそのような媒体に記憶される命令として実装することができる。マシン読み取り可能な記憶媒体は、マシンにより読み取ることができる形式で情報を記憶又は伝送する任意の記憶デバイス、メカニズム、又は他の物理的構造(例えば、揮発性メモリ、不揮発性メモリ、メディアディスク、又は他のメディアデバイス)として具現化することができる。   The disclosed embodiments can be implemented by hardware, firmware, software, or any combination thereof, as the case may be. The disclosed embodiments can also be carried by one or more machine-readable storage media (eg, computer-readable storage media) that can be read and executed by one or more processors. Or it can be implemented as instructions stored in such a medium. A machine-readable storage medium is any storage device, mechanism, or other physical structure that stores or transmits information in a form readable by a machine (eg, volatile memory, nonvolatile memory, media disk, or Other media devices).

図面において、いくつかの構造的特徴又は方法的特徴が、特定の配置及び/又は順序で示され得る。しかしながら、そのような特定の配置及び/又は順序が必須とされるわけではないことを理解されたい。そうではなく、いくつかの実施形態においては、そのような特徴は、例示する図面に示される態様及び/又は順序と異なる態様及び/又は順序で構成することもできる。さらに、特定の図面内に構造的特徴又は方法的特徴が含まれることは、そのような特徴が全ての実施形態において必要とされることを意味しないし、いくつかの実施形態においては、そのような特徴が含まれないことを意味しない、又はそのような特徴が他の特徴と組み合わされないことを意味しない。   In the drawings, some structural or method features may be shown in a specific arrangement and / or order. However, it should be understood that such specific arrangement and / or order is not required. Rather, in some embodiments, such features may be configured in a manner and / or order that differs from the manner and / or order shown in the illustrated drawings. Furthermore, the inclusion of structural or methodic features within a particular drawing does not imply that such features are required in all embodiments, and in some embodiments, such features It does not mean that such features are not included or that such features are not combined with other features.

次に図1を参照すると、マルチチャネル特徴検出のためのコンピューティングデバイス100は、マルチチャネル画像の特徴(例えば、コーナー、エッジ、ブロブ等の関心点)を検出するよう構成される。そうするために、コンピューティングデバイス100は、画像特徴を識別する際に、シングルチャネル画像又はグレースケール画像(例えば、変換後画像)ではなく、複数の画像チャネルからの情報を利用する。例示的な実施形態において、コンピューティングデバイス100は、内部カーネルの応答関数が一次形式の関数(linear form function)又は二次形式の関数(quadratic form function)として表現され得る、局所識別色(LDC:local differentiating color)ベクトルを算出するための低複雑度非反復的アルゴリズム(low-complexity non-iterative algorithm)を実装するよう構成される。このようなケースは、LDCベクトルとともに使用するのに適応可能な内部カーネルを有する広範なシングルチャネル特徴検出器をカバーすることを理解されたい。例えば、二次空間微分フィルタ応答Dxx、Dxy、及びDyyが算出され得、ここで、x及びyは画像の空間座標である。したがって、LoG内部カーネルの応答は、(Dxx+Dyy)という一次形式で表現され得る。SURF内部カーネルの応答は、

Figure 2016538630
という二次形式として表現され得る。オリジナルのHarris内部カーネルの応答は、
Figure 2016538630
という二次形式として表現され得、ここで、kはアルゴリズムパラメータである。さらに、Canny内部カーネルの二乗応答(square response)は、
Figure 2016538630
という二次形式として表現され得、ここで、D及びDは一次空間微分フィルタ応答であり、ここでも、x及びyは画像の空間座標である。 Referring now to FIG. 1, a computing device 100 for multi-channel feature detection is configured to detect features of a multi-channel image (eg, points of interest such as corners, edges, blobs, etc.). To do so, the computing device 100 utilizes information from multiple image channels rather than a single channel image or a grayscale image (eg, a transformed image) when identifying image features. In an exemplary embodiment, computing device 100 may provide a local discriminating color (LDC) in which the response function of the internal kernel may be expressed as a linear form function or a quadratic form function. Configured to implement a low-complexity non-iterative algorithm for computing local differentiating color vectors. It should be understood that such a case covers a wide range of single channel feature detectors with an internal kernel that can be adapted for use with LDC vectors. For example, the second order spatial differential filter responses D xx , D xy , and D yy can be calculated, where x and y are the spatial coordinates of the image. Accordingly, the response of the LoG internal kernel can be expressed in a primary form of (D xx + D yy ). The response of the SURF internal kernel is
Figure 2016538630
Can be expressed as a secondary form. The response of the original Harris internal kernel is
Figure 2016538630
Where k is an algorithm parameter. In addition, the square response of the Canny internal kernel is
Figure 2016538630
Where D x and D y are first-order spatial differential filter responses, where x and y are the spatial coordinates of the image.

コンピューティングデバイス100は、マルチチャネル特徴検出が可能であり、本明細書に記載の機能を実行することができる任意のタイプのコンピューティングデバイスとして具現化することができる。例えば、コンピューティングデバイス100は、セルラ電話機、スマートフォン、タブレットコンピュータ、ネットブック、ノートブック、ウルトラブック(登録商標)、ラップトップコンピュータ、携帯情報端末、モバイルインターネットデバイス、デスクトップコンピュータ、ハイブリッドデバイス、及び/又は任意の他のコンピューティング/通信デバイスとして具現化することができる。図1に示されるように、例示的なコンピューティングデバイス100は、プロセッサ110、入力/出力(「I/O」)サブシステム112、メモリ114、データストレージ116、通信回路118、及び1以上の周辺デバイス120を含む。さらに、周辺デバイス120は、カメラ122及びディスプレイ124を含む。もちろん、コンピューティングデバイス100は、他の実施形態では、典型的なコンピューティングデバイスにおいて通常見つけられるコンポーネント(例えば、様々な入力/出力デバイス)等の他のコンポーネント又はさらなるコンポーネントを含んでもよい。さらに、いくつかの実施形態においては、図示されるコンポーネントのうちの1以上は、別のコンポーネントに組み込まれてもよいし、別のコンポーネントの一部からのものであってもよい。例えば、メモリ114又はメモリ114の一部は、いくつかの実施形態においては、プロセッサ110に組み込まれてもよい。   The computing device 100 can be implemented as any type of computing device capable of multi-channel feature detection and capable of performing the functions described herein. For example, the computing device 100 may be a cellular phone, a smartphone, a tablet computer, a netbook, a notebook, an ultrabook, a laptop computer, a personal digital assistant, a mobile internet device, a desktop computer, a hybrid device, and / or It can be embodied as any other computing / communication device. As shown in FIG. 1, an exemplary computing device 100 includes a processor 110, an input / output (“I / O”) subsystem 112, memory 114, data storage 116, communication circuitry 118, and one or more peripherals. Device 120 is included. Further, the peripheral device 120 includes a camera 122 and a display 124. Of course, the computing device 100 may include other components or other components, such as components normally found in a typical computing device (eg, various input / output devices) in other embodiments. Further, in some embodiments, one or more of the illustrated components may be incorporated into another component or may be from a portion of another component. For example, the memory 114 or a portion of the memory 114 may be incorporated into the processor 110 in some embodiments.

プロセッサ110は、本明細書に記載の機能を実行することができる任意のタイプのプロセッサとして具現化することができる。例えば、プロセッサは、シングルコアプロセッサ、マルチコアプロセッサ、デジタル信号プロセッサ、マイクロコントローラ、又は、他のプロセッサ若しくは処理/制御回路として具現化することができる。同様に、メモリ114は、本明細書に記載の機能を実行することができる任意のタイプの揮発性メモリ、不揮発性メモリ、又はデータストレージとして具現化することができる。動作中、メモリ114は、コンピューティングデバイス100の動作中に使用されるオペレーティングシステム、アプリケーション、プログラム、ライブラリ、及びドライバ等の様々なソフトウェア及びデータを記憶することができる。メモリ114は、I/Oサブシステム112を介して、プロセッサ110に通信可能に接続される。I/Oサブシステム112は、プロセッサ110、メモリ114、及びコンピューティングデバイス100の他のコンポーネントによる入力/出力動作を円滑にする回路及び/又はコンポーネントとして具現化することができる。例えば、I/Oサブシステム112は、メモリコントローラハブ、入力/出力制御ハブ、ファームウェアデバイス、通信リンク(すなわち、ポイントツーポイントリンク、バスリンク、ワイヤ、ケーブル、ライトガイド、プリント回路基板トレース等)、並びに/又は入力/出力動作を円滑にする他のコンポーネント及びサブシステムとして具現化することができる、又は、これらを含み得る。いくつかの実施形態において、I/Oサブシステム112は、システムオンチップ(SoC)の一部を形成することができ、プロセッサ110、メモリ114、及びコンピューティングデバイス100の他のコンポーネントとともに、単一の集積回路チップに組み込むことができる。   The processor 110 may be embodied as any type of processor that can perform the functions described herein. For example, the processor may be embodied as a single core processor, a multi-core processor, a digital signal processor, a microcontroller, or other processor or processing / control circuit. Similarly, the memory 114 can be embodied as any type of volatile memory, non-volatile memory, or data storage that can perform the functions described herein. During operation, memory 114 may store various software and data such as operating systems, applications, programs, libraries, and drivers that are used during operation of computing device 100. The memory 114 is communicatively connected to the processor 110 via the I / O subsystem 112. I / O subsystem 112 may be embodied as circuitry and / or components that facilitate input / output operations by processor 110, memory 114, and other components of computing device 100. For example, the I / O subsystem 112 may include a memory controller hub, input / output control hub, firmware device, communication link (ie, point-to-point link, bus link, wire, cable, light guide, printed circuit board trace, etc.), And / or can be implemented as or include other components and subsystems that facilitate input / output operations. In some embodiments, the I / O subsystem 112 can form part of a system-on-chip (SoC), and together with the processor 110, memory 114, and other components of the computing device 100, The integrated circuit chip can be incorporated.

データストレージ116は、例えば、メモリデバイス及び回路、メモリカード、ハードディスクドライブ、ソリッドステートドライブ、又は他のデータ記憶デバイス等の、データの短期記憶又は長期記憶のために構成される任意のタイプの1以上のデバイスとして具現化することができる。通信回路118は、ネットワーク(図示せず)を介するコンピューティングデバイス100と他のリモートデバイスとの間の通信を可能にすることができる任意の通信回路、通信デバイス、又はこれらの集合として具現化することができる。そうするために、通信回路118は、任意の適切な通信技術(例えば、無線通信又は有線通信)及び関連するプロトコル(例えば、Ethernet(登録商標)、Bluetooth(登録商標)、Wi−Fi(登録商標)、WiMAX(登録商標)等)を使用して、例えばネットワークのタイプに応じて、そのような通信を実施することができる。ネットワークは、コンピューティングデバイス100とリモートデバイスとの間の通信を円滑にすることができる任意のタイプの通信ネットワークとして具現化され得る。   Data storage 116 may be any type of one or more configured for short-term or long-term storage of data, such as, for example, memory devices and circuits, memory cards, hard disk drives, solid state drives, or other data storage devices. It can be embodied as a device. Communication circuit 118 may be embodied as any communication circuit, communication device, or collection thereof that can enable communication between computing device 100 and other remote devices over a network (not shown). be able to. To do so, the communication circuit 118 may use any suitable communication technology (eg, wireless or wired communication) and associated protocols (eg, Ethernet®, Bluetooth®, Wi-Fi®). ), WiMAX (registered trademark), etc.), for example, depending on the type of network. The network may be embodied as any type of communication network that can facilitate communication between the computing device 100 and a remote device.

コンピューティングデバイス100の周辺デバイス120は、任意の数のさらなる周辺デバイス又はインタフェースデバイスを含み得る。周辺デバイス120に含まれる具体的なデバイスは、例えば、コンピューティングデバイス100のタイプ及び/又は意図される使用に依拠し得る。上述したように、周辺デバイス120は、カメラ122及びディスプレイ124を含む。カメラ122は、スチールカメラ、ビデオカメラ、ウェブカメラ、又は、ビデオ及び/又は画像をキャプチャすることができる他のデバイス等の、画像をキャプチャするのに適した任意の周辺デバイス又は統合デバイスとして具現化することができる。カメラ122を使用して、例えば、特徴が検出されるマルチチャネル画像をキャプチャすることができる。コンピューティングデバイス100のディスプレイ124は、情報をコンピューティングデバイス100の閲覧者に対して表示することができる任意の1以上の表示スクリーンとして具現化することができる。ディスプレイ124は、例えば、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、陰極線管(CRT)ディスプレイ、プラズマディスプレイ、及び/又は他のディスプレイ技術を含む任意の適切なディスプレイ技術として具現化することができる、又は、このような任意の適切なディスプレイ技術を使用することができる。ディスプレイ124を使用して、例えば、解析された画像の総応答(total response)を示す画像を表示することができる。カメラ122及びディスプレイ124が、コンピューティングデバイス100に統合されたものとして図1に示されているが、カメラ122及び/又はディスプレイ124は、他の実施形態では、コンピューティングデバイス100からリモートにありコンピューティングデバイス100に通信可能に接続され得ることを理解されたい。   Peripheral device 120 of computing device 100 may include any number of additional peripheral devices or interface devices. The specific devices included in peripheral device 120 may depend on, for example, the type and / or intended use of computing device 100. As described above, the peripheral device 120 includes the camera 122 and the display 124. The camera 122 may be embodied as any peripheral or integrated device suitable for capturing images, such as a still camera, video camera, webcam, or other device capable of capturing video and / or images. can do. The camera 122 can be used, for example, to capture a multi-channel image in which features are detected. The display 124 of the computing device 100 can be embodied as any one or more display screens that can display information to a viewer of the computing device 100. Display 124 may be embodied as any suitable display technology including, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, a cathode ray tube (CRT) display, a plasma display, and / or other display technologies. Or any such suitable display technology can be used. The display 124 can be used to display, for example, an image that shows the total response of the analyzed image. Although the camera 122 and the display 124 are shown in FIG. 1 as being integrated into the computing device 100, the camera 122 and / or the display 124 may be remote from the computing device 100 and compute in other embodiments. It should be understood that communication device 100 may be communicatively connected.

次に図2を参照すると、使用の際、コンピューティングデバイス100は、マルチチャネル特徴検出のための環境200を確立する。以下で説明するように、コンピューティングデバイス100は、マルチチャネル画像の個々の画像チャネルのフィルタ応答及び局所識別色(LDC)ベクトルに基づいて、解析されるマルチチャネル画像の総画像応答を決定する。コンピューティングデバイス100の例示的な環境200は、画像キャプチャモジュール202、画像解析モジュール204、表示モジュール206、及び通信モジュール208を含む。さらに、画像解析モジュール204は、画像フィルタリングモジュール210、局所識別色(LDC)モジュール212、及び応答決定モジュール214を含む。画像キャプチャモジュール202、画像解析モジュール204、表示モジュール206、通信モジュール208、画像フィルタリングモジュール210、局所識別色モジュール212、及び応答決定モジュール214の各々は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組合せとして具現化することができる。さらに、いくつかの実施形態においては、これらの例示的なモジュールのうちの1つは、別のモジュールの一部を形成してもよい。   With reference now to FIG. 2, in use, computing device 100 establishes an environment 200 for multi-channel feature detection. As described below, the computing device 100 determines the total image response of the analyzed multi-channel image based on the filter response and local identification color (LDC) vector of the individual image channels of the multi-channel image. The exemplary environment 200 of the computing device 100 includes an image capture module 202, an image analysis module 204, a display module 206, and a communication module 208. Further, the image analysis module 204 includes an image filtering module 210, a local identification color (LDC) module 212, and a response determination module 214. Each of the image capture module 202, the image analysis module 204, the display module 206, the communication module 208, the image filtering module 210, the local identification color module 212, and the response determination module 214 is as hardware, software, firmware, or a combination thereof. Can be embodied. Further, in some embodiments, one of these exemplary modules may form part of another module.

画像キャプチャモジュール202は、カメラ122の視野内の画像をキャプチャするために、カメラ122を制御する(例えば、マルチチャネル特徴検出のために)。特定の実施形態に応じて、画像は、ストリーミングビデオとしてキャプチャされることもあるし、個々の画像/フレームとしてキャプチャされることもある。他の実施形態では、画像キャプチャモジュール202は、解析及び特徴検出のために、マルチチャネル画像を別の形で取得してもよい。例えば、マルチチャネル画像は、(例えば、クラウドコンピューティング環境における)リモートコンピューティングデバイスから、通信モジュール208により受信されてもよい。キャプチャされる画像は、任意の適切なマルチチャネル画像として具現化され得ることを理解されたい。例えば、画像は、RGB(赤−緑−青)画像、HSL(色相−彩度−輝度)画像、又はHSV(色相−彩度−明度)画像等の3チャネル画像とすることができる。本明細書に記載のマルチチャネル画像特徴検出は、非色空間(例えば、RGB−D(奥行き)、赤外線、温度マップ、マイクロ波マップ、又は他の画像チャネル)のためのチャネルを含む任意のタイプの画像チャネルに適用され得ることをさらに理解されたい。   The image capture module 202 controls the camera 122 to capture an image in the field of view of the camera 122 (eg, for multi-channel feature detection). Depending on the particular embodiment, the images may be captured as streaming video or as individual images / frames. In other embodiments, the image capture module 202 may obtain multi-channel images in another form for analysis and feature detection. For example, the multi-channel image may be received by the communication module 208 from a remote computing device (eg, in a cloud computing environment). It should be understood that the captured image can be embodied as any suitable multi-channel image. For example, the image can be a three-channel image such as an RGB (red-green-blue) image, an HSL (hue-saturation-luminance) image, or an HSV (hue-saturation-brightness) image. The multi-channel image feature detection described herein can be any type including a channel for a non-color space (eg, RGB-D (depth), infrared, temperature map, microwave map, or other image channel). It should be further understood that the present invention can be applied to multiple image channels.

画像解析モジュール204は、画像キャプチャモジュール202から、カメラ122によりキャプチャされた画像を取得する。例示的な実施形態において、画像解析モジュール204は、(例えば、スケール−空間表現、及び/又は、スケール−空間検出器による使用のために)画像拡張空間点(image extended space point)の座標及びパラメータを設定する。さらに、以下でより詳細に説明するように、画像解析モジュール204は、様々なフィルタを、解析される画像に適用し、画像(又はそのサブセット)の各画像点についてLDCベクトルを求め、画像(又はそのサブセット)の各画像点の総応答を決定する。   The image analysis module 204 acquires an image captured by the camera 122 from the image capture module 202. In an exemplary embodiment, the image analysis module 204 may include image extended space point coordinates and parameters (eg, for use by scale-space representations and / or scale-space detectors). Set. Further, as described in more detail below, the image analysis module 204 applies various filters to the image to be analyzed to determine an LDC vector for each image point of the image (or a subset thereof), and the image (or Determine the total response of each image point of that subset).

画像フィルタリングモジュール210は、1以上の画像フィルタに関する、マルチチャネル画像の各画像チャネルのフィルタ応答(すなわち、画像フィルタを画像に適用した結果)を決定する。例えば、画像フィルタは、いくつかの実施形態において、画像の各画素に適用され得る。そうする際、画像フィルタは、例えば、画像フィルタが、画素の(例えば画像フィルタカーネルのサイズの)隣接部分(neighborhood)に適用される「windowing」法を用いて適用され得ることを理解されたい。画像フィルタは、一般に、画像チャネルの個々の画素に適用されるが、本明細書では、説明の単純さ及び明瞭さのために、画像フィルタは、個々の画素の値ではなく、画像チャネル全体又は他の構造全体に適用されるものとして説明され得る。マルチチャネル画像が3つのチャネルを含む実施形態において、画像フィルタリングモジュール210は、各画像フィルタを、3つのチャネルの各々に適用して、その画像フィルタに基づく対応するフィルタ応答を生成する。マルチチャネル画像の特定の画像チャネルに関するフィルタ応答は、1以上の画像フィルタに対する画像チャネルの対応する応答を含むベクトルとして表現され得ることを理解されたい。さらに、そのようなベクトルは、対応する画像チャネルの「応答ベクトル」又は「ベクトル応答」と呼ばれることがある。さらに、いくつかの実施形態において、使用される特定の画像フィルタは、一次形式又は二次形式の画像フィルタである必要がある。他の実施形態では、LDCベクトルは、以前のフィルタリングを伴うことなく、又は、通常の(trivial)/識別(identity)フィルタのみを伴って、オリジナルの画像チャネルの画素に適用されてもよい。   The image filtering module 210 determines a filter response (ie, the result of applying the image filter to the image) for each image channel of the multi-channel image for one or more image filters. For example, an image filter may be applied to each pixel of the image in some embodiments. In doing so, it should be understood that the image filter can be applied, for example, using a “windowing” method in which the image filter is applied to a neighborhood of pixels (eg, the size of the image filter kernel). Image filters are generally applied to individual pixels of an image channel, but for purposes of simplicity and clarity herein, image filters are not the values of individual pixels, but the entire image channel or It can be described as applied to other entire structures. In embodiments where the multi-channel image includes three channels, the image filtering module 210 applies each image filter to each of the three channels to generate a corresponding filter response based on that image filter. It should be understood that the filter response for a particular image channel of a multi-channel image can be expressed as a vector that includes the corresponding response of the image channel to one or more image filters. Further, such a vector may be referred to as the “response vector” or “vector response” of the corresponding image channel. Further, in some embodiments, the particular image filter used needs to be a primary type or secondary type image filter. In other embodiments, the LDC vector may be applied to the pixels of the original image channel without previous filtering or with only a trivial / identity filter.

局所識別色モジュール212は、画像フィルタリングモジュール210により決定されたフィルタ応答に基づいて、局所識別色ベクトルを求める。以下で詳細に説明するように、局所識別色ベクトルは、画像チャネルに関するフィルタ応答の一次結合のための重みを定め、極の(extreme)(すなわち、特定の実施形態に応じて最小又は最大の)総応答を生成するベクトルとして、算出される又は求められる。一次形式では、局所識別色モジュール212は、各画像チャネルについて決定された総応答のベクトルと共線である(collinear)ベクトルである局所識別色ベクトルを求める。二次形式では、局所識別色ベクトルは、特定の生成された対称行列の極固有値(すなわち、特定の実施形態に応じて最大固有値又は最小固有値)に対応する固有ベクトル(又は正規化された固有ベクトル)として求められる。したがって、例示的な実施形態において、局所識別色ベクトルは、(例えば、コスト関数を最小化又は最大化する)最適化アルゴリズムの結果として算出されるのではなく、閉じた形式で(in closed form)表現され得る。   The local identification color module 212 obtains a local identification color vector based on the filter response determined by the image filtering module 210. As described in detail below, the local identification color vector defines a weight for the linear combination of filter responses for the image channel and is extreme (ie, minimum or maximum depending on the particular embodiment). Calculated or determined as a vector that generates a total response. In the primary form, the local identification color module 212 determines a local identification color vector that is a collinear vector with the total response vector determined for each image channel. In the quadratic form, the local identification color vector is as an eigenvector (or normalized eigenvector) corresponding to the pole eigenvalue of a particular generated symmetric matrix (ie, the largest eigenvalue or the smallest eigenvalue depending on the particular embodiment). Desired. Thus, in the exemplary embodiment, the local identification color vector is not calculated as a result of an optimization algorithm (eg, minimizing or maximizing a cost function), but in closed form. Can be expressed.

応答決定モジュール214は、局所識別色ベクトルを、画像フィルタリングモジュール210により生成された画像フィルタ応答に適用して、適応応答(adapted response)を生成し、適応応答に基づいて、マルチチャネル画像の総応答を決定する。例示的な実施形態において、応答決定モジュール214は、マルチチャネル画像の各画像チャネルの応答ベクトルと局所識別色ベクトルとの内積を別々に計算することにより、局所識別色ベクトルを、画像フィルタ応答に適用する。さらに、以下でより詳細に説明するように、応答決定モジュール214は、使用される特定のフィルタ及び/又は特徴検出アルゴリズムのパラメータ及び適応応答に基づくスカラ値を生成することにより、マルチチャネル画像の総応答を決定する。   The response determination module 214 applies the local identification color vector to the image filter response generated by the image filtering module 210 to generate an adapted response, and based on the adaptive response, the total response of the multi-channel image. To decide. In the exemplary embodiment, the response determination module 214 applies the local identification color vector to the image filter response by separately calculating the inner product of the response vector and the local identification color vector for each image channel of the multi-channel image. To do. In addition, as will be described in more detail below, the response determination module 214 generates a scalar value based on the parameters and adaptive response of the particular filter and / or feature detection algorithm used, thereby generating a total multi-channel image. Determine the response.

例示的な実施形態において、応答決定モジュール214はまた、マルチチャネル画像の総応答の空間非極応答(spatial non-extreme response)を抑制する。すなわち、いくつかの実施形態において、応答決定モジュール214は、予め定められた閾値に基づいて識別することができる非関心点を、総応答から除去する。すなわち、関心点は、特定の実施形態に応じて閾値より下であるか又は上である局所極応答(local extreme response)を有する画像点として識別することができる。したがって、関心点だけが総応答に残される。   In the exemplary embodiment, response determination module 214 also suppresses the spatial non-extreme response of the multichannel image total response. That is, in some embodiments, the response determination module 214 removes non-interest points that can be identified based on a predetermined threshold from the total response. That is, an interest point can be identified as an image point having a local extreme response that is below or above a threshold, depending on the particular embodiment. Therefore, only the points of interest are left in the total response.

表示モジュール206は、コンピューティングデバイス100のユーザが閲覧するために、ディスプレイ124上に画像をレンダリングするよう構成される。例えば、表示モジュール206は、1以上のキャプチャされた/受信された画像(図5参照)及び/又はその画像の総応答を示す画像(図6参照)を表示することができる。さらに、表示モジュール206は、特徴検出プロセスの別の段階で画像の視覚的表示をレンダリングすることができることを理解されたい。例えば、表示モジュール206は、個々のフィルタ応答、局所識別色ベクトル、適応応答、及び/又は非極応答を抑制する前の総応答のグラフィカル表示及び/又はテキスト表示をレンダリングすることができる。   Display module 206 is configured to render an image on display 124 for viewing by a user of computing device 100. For example, the display module 206 can display one or more captured / received images (see FIG. 5) and / or images (see FIG. 6) showing the total response of the images. Further, it should be understood that the display module 206 can render a visual display of the image at another stage of the feature detection process. For example, display module 206 can render a graphical and / or textual representation of the total response before suppressing individual filter responses, local identification color vectors, adaptive responses, and / or non-polar responses.

通信モジュール208は、ネットワークを介するコンピューティングデバイス100とリモートデバイスとの間の通信を処理する。上述したように、通信モジュール208は、(例えば、クラウドコンピューティング環境において、又はオフロード実行を目的として、)解析のために、リモートコンピューティングデバイスからマルチチャネル画像を受信することができる。したがって、いくつかの実施形態において、通信モジュール208は、特徴検出解析の結果(例えば、総応答)を、リモートコンピューティングデバイスに送信することもできる。   The communication module 208 handles communication between the computing device 100 and a remote device over a network. As discussed above, the communication module 208 can receive multi-channel images from a remote computing device for analysis (eg, in a cloud computing environment or for offload execution purposes). Thus, in some embodiments, the communication module 208 can also send the result of the feature detection analysis (eg, total response) to the remote computing device.

次に図3を参照すると、使用の際、コンピューティングデバイス100は、マルチチャネル特徴検出を実行するための方法300を実行することができる。例示的な方法300は、図3のブロック302で始まる。ブロック302において、コンピューティングデバイス100は、マルチチャネル特徴検出を実行するかどうかを決定する。コンピューティングデバイス100が、マルチチャネル特徴検出を実行すると決定した場合、ブロック304において、コンピューティングデバイス100は、画像拡張空間点のための座標系を設定する。すなわち、コンピューティングデバイス100は、例えば、スケール−空間画像特徴検出器による使用のためのさらなるパラメータ(例えば、スケール)とデカルト座標系(例えば、通常はx軸及びy軸が使用される)とを設定する。   With reference now to FIG. 3, in use, computing device 100 may perform a method 300 for performing multi-channel feature detection. The example method 300 begins at block 302 in FIG. At block 302, the computing device 100 determines whether to perform multi-channel feature detection. If the computing device 100 determines to perform multi-channel feature detection, at block 304, the computing device 100 sets a coordinate system for the image expansion space point. That is, the computing device 100 may include, for example, additional parameters (eg, scale) and Cartesian coordinate systems (eg, the x-axis and y-axis are typically used) for use by a scale-spatial image feature detector. Set.

ブロック306において、コンピューティングデバイス100は、1以上の画像フィルタ(例えば、ヘッセ行列式、Cannyフィルタ、Sobelフィルタ等)に基づく、各画像チャネルのフィルタ応答を決定する。そうする際、ブロック308において、コンピューティングデバイス100は、上述したように(すなわち、画像フィルタを個々の画像チャネルに適用することにより)、フィルタ応答に基づいて、各画像チャネルについて応答ベクトルを生成する。例えば、解析されるマルチチャネル画像が3チャネルRGB(赤−緑−青)画像であり、ガウスフィルタの二次偏微分係数(すなわち、ヘッセ行列の成分)が画像フィルタとして使用されると仮定する。したがって、画像フィルタは、対応する画像次元に関する二次偏微分係数であるgxx、gyy、及びgxyを含む。そのような実施形態において、画像フィルタの各々(すなわち、gxx、gyy、及びgxyの各々)が、赤画像チャネルに関する応答ベクトルを生成するために、赤チャネルに適用される。上述したように、画像フィルタは、画像の各画素に適用され得る。したがって、応答ベクトルは、画像チャネルの各画素について生成され得る。同様に、画像フィルタの各々が、青画像チャネル及び緑画像チャネルに適用され、応答ベクトルが、これらのチャネルの各々について生成される。各応答ベクトルは、スカラ値に変換され得る。例えば、ヘッセ行列式が、[gxxyyxy]B[gxxyyxyという二次形式により求められ得、ここで、Bは予め定められた行列であり、gxx、gyy、及びgxyは、対応する空間座標x及び/又はyに関して得られる、ガウスフィルタの二次偏微分係数である。もちろん、他の実施形態は、異なる数の画像フィルタを使用してもよいし、且つ/又は、異なる数のチャネルを有する画像を解析してもよい。したがって、一般的ケースとして、n個のチャネル及びp個のフィルタがあると仮定する。そのようなケースでは、コンピューティングデバイス100は、サイズ/長さp(又は、より詳細には、サイズp×1)のn個の応答ベクトル(すなわち、各チャネルについて1個)を生成する。この応答ベクトルの成分は、対応する画像フィルタに関する、画像チャネルのフィルタ応答である。 At block 306, the computing device 100 determines a filter response for each image channel based on one or more image filters (eg, Hessian determinant, Canny filter, Sobel filter, etc.). In doing so, at block 308, the computing device 100 generates a response vector for each image channel based on the filter response, as described above (ie, by applying image filters to the individual image channels). . For example, assume that the multi-channel image to be analyzed is a 3-channel RGB (red-green-blue) image, and the second order partial derivative of the Gaussian filter (ie, the component of the Hessian matrix) is used as the image filter. Thus, the image filter includes g xx , g yy , and g xy that are second order partial differential coefficients for the corresponding image dimension. In such an embodiment, each of the image filters (ie, each of g xx , g yy , and g xy ) is applied to the red channel to generate a response vector for the red image channel. As described above, the image filter can be applied to each pixel of the image. Thus, a response vector can be generated for each pixel of the image channel. Similarly, each of the image filters is applied to a blue image channel and a green image channel, and a response vector is generated for each of these channels. Each response vector can be converted to a scalar value. For example, the Hessian determinant can be determined by the quadratic form [g xx g yy g xy ] B [g xx g yy g xy ] T , where B is a predetermined matrix, g xx , g yy and g xy are second-order partial differential coefficients of the Gaussian filter obtained with respect to the corresponding spatial coordinates x and / or y. Of course, other embodiments may use different numbers of image filters and / or analyze images with different numbers of channels. Thus, as a general case, assume there are n channels and p filters. In such a case, the computing device 100 generates n response vectors (ie, one for each channel) of size / length p (or more specifically, size p × 1). The component of this response vector is the image channel filter response for the corresponding image filter.

ブロック310において、コンピューティングデバイス100は、各画像チャネルのフィルタ応答に基づいて、局所識別色ベクトル(例えば、正規化されたLDCベクトル)を求める。すなわち、コンピューティングデバイス100は、画像チャネルに関する応答ベクトルを使用して、局所識別色ベクトルを生成する。そうするために、コンピューティングデバイス100は、図4に示されるような、局所識別色ベクトルを求めるための方法400を実行することができる。例示的な方法400は、ブロック402で始まる。ブロック402において、コンピューティングデバイス100は、局所識別色ベクトルを生成するかどうかを決定する。局所識別色ベクトルを生成する場合、ブロック404において、コンピューティングデバイス100は、画像について対称形式の行列Aを生成する又は他の形で求める。コンピューティングデバイス100は、任意の適切な技術、アルゴリズム、及び/又はメカニズムを用いて、対称形式の二次形式の行列を生成することができることを理解されたい。例えば、一実施形態において、コンピューティングデバイス100は、ブロック406において、行列Aの

Figure 2016538630
をそれぞれ算出することができる。ここで、画像チャネルi及びjについてA={qij}である。そのような実施形態において、qijは、i番目の行及びj番目の列に位置する行列Aの成分を表し、fは、fのインデックスに対応する画像チャネルに関する応答ベクトルであり、Tは、転置演算子であり(すなわち、fは、fの転置であり)、Bは、1以上の画像フィルタに基づく予め定められた行列である。例えば、ヘッセ行列に関して上述した実施形態において、行列Bは、
Figure 2016538630
として定められ得、演繹的に(a priori)既知である。別の実施形態では、行列Bは、画像及び/又はフィルタパラメータに基づいて算出され得る。例示的な実施形態において、コンピューティングデバイス100は、ブロック408において、3チャネル画像(例えば、RGB画像)について、行列Aを、
Figure 2016538630
として算出する。もちろん、他の実施形態では、解析される画像は、より少ない又はより多い数のチャネルを含んでもよく、そのような実施形態においては、行列Aは、それに応じたサイズとなる(例えば、解析される画像が4つのチャネルを含む実施形態では4×4行列、等)。すなわち、行列Aは、n×n行列として具現化され、ここで、nは、画像チャネルの数である。 At block 310, the computing device 100 determines a local identification color vector (eg, a normalized LDC vector) based on the filter response of each image channel. That is, the computing device 100 uses the response vector for the image channel to generate a local identification color vector. To do so, the computing device 100 may perform a method 400 for determining a local identification color vector, as shown in FIG. The example method 400 begins at block 402. In block 402, the computing device 100 determines whether to generate a local identification color vector. When generating a local identification color vector, at block 404, the computing device 100 generates or otherwise determines a symmetric matrix A for the image. It should be understood that the computing device 100 can generate a symmetric quadratic matrix using any suitable technique, algorithm, and / or mechanism. For example, in one embodiment, the computing device 100 determines that the matrix A in block 406
Figure 2016538630
Can be calculated respectively. Here, A = {q ij } for image channels i and j. In such an embodiment, q ij represents the components of matrix A located in the i th row and j th column, f is the response vector for the image channel corresponding to the index of f, and T is Is a transpose operator (ie, f T is a transpose of f), and B is a predetermined matrix based on one or more image filters. For example, in the embodiment described above with respect to the Hessian matrix, the matrix B is
Figure 2016538630
And is known a priori. In another embodiment, the matrix B may be calculated based on the image and / or filter parameters. In the exemplary embodiment, computing device 100 at block 408 computes matrix A for a three-channel image (eg, an RGB image),
Figure 2016538630
Calculate as Of course, in other embodiments, the image to be analyzed may include a smaller or greater number of channels, and in such embodiments, the matrix A is sized accordingly (eg, analyzed). In an embodiment where the image contains 4 channels, etc.). That is, matrix A is embodied as an n × n matrix, where n is the number of image channels.

ブロック410において、コンピューティングデバイス100は、行列Aの固有値を求める。コンピューティングデバイス100は、そうするために、任意の適切な技術、アルゴリズム、又はメカニズムを使用することができることを理解されたい。例えば、コンピューティングデバイス100は、行列Aの固有値を特定する際に、行列Aの特性方程式を求めて使用することができる。ブロック412において、コンピューティングデバイス100は、行列Aの極固有値(extreme eigenvalue)(すなわち、特定の実施形態に応じて最大固有値又は最小固有値)に対応する固有ベクトルを特定し、ブロック414において、コンピューティングデバイス100は、特定された固有ベクトルを、局所識別色ベクトルとして選択する。そうする際、いくつかの実施形態において、コンピューティングデバイス100は、ブロック416において、特定された固有ベクトルの単位ベクトルを生成することができる。すなわち、コンピューティングデバイス100は、固有ベクトルを正規化して、固有ベクトルに対応する単位ベクトルを生成することができ、この単位ベクトルを、局所識別色ベクトルとして選択することができる。   In block 410, the computing device 100 determines eigenvalues of the matrix A. It should be understood that the computing device 100 can use any suitable technology, algorithm, or mechanism to do so. For example, the computing device 100 can determine and use the characteristic equation of the matrix A when specifying the eigenvalues of the matrix A. At block 412, the computing device 100 identifies the eigenvector corresponding to the extreme eigenvalue of matrix A (ie, the maximum or minimum eigenvalue depending on the particular embodiment), and at block 414, the computing device 100 100 selects the identified eigenvector as a local identification color vector. In doing so, in some embodiments, the computing device 100 may generate a unit vector of the identified eigenvectors at block 416. That is, the computing device 100 can normalize the eigenvector to generate a unit vector corresponding to the eigenvector, and can select this unit vector as a local identification color vector.

図3に戻り、ブロック312において、コンピューティングデバイス100は、画像フィルタ応答を、生成された/求められた局所識別色ベクトルに適用して、対応する適応応答を生成する。そうする際、ブロック314において、コンピューティングデバイス100は、(例えば、1つのベクトルを生成するために)画像フィルタ応答と局所識別色ベクトルとの内積を計算する。例えば、説明したヘッセの例において、局所識別色ベクトルと二次偏微分係数を含むベクトルとの内積が、画像の全てのチャネルについて計算され、これは、このベクトルの転置が局所識別色ベクトルと乗算されることと等価である。詳細には、[gxxxyyyが、画像の全てのチャネルについて、局所識別色ベクトルと乗算される。ブロック316において、コンピューティングデバイス100は、適応応答に基づいて総応答を生成する。例示的な実施形態において、コンピューティングデバイス100は、使用される特定の特徴検出アルゴリズム/フィルタ及び適応応答に基づくスカラ値を生成する。例えば、ヘッセ行列が使用される実施形態において、コンピューティングデバイス100は、ヘッセ行列の特性及び/又はパラメータを使用して、(例えば、ヘッセ行列式を用いて)総応答を生成することができる。コンピューティングデバイス100は、そうするために、任意の適切な技術、アルゴリズム、及び/又はメカニズムを利用することができることを理解されたい。 Returning to FIG. 3, at block 312, the computing device 100 applies the image filter response to the generated / determined local identification color vector to generate a corresponding adaptive response. In doing so, at block 314, the computing device 100 calculates the dot product of the image filter response and the local identification color vector (eg, to generate one vector). For example, in the Hessian example described, the dot product of the local discriminant color vector and the vector containing the second partial differential coefficient is calculated for all channels of the image, since this vector transposition is multiplied by the local discriminant color vector. Is equivalent to Specifically, [g xx g xy g yy ] T is multiplied with the local identification color vector for all channels of the image. At block 316, the computing device 100 generates a total response based on the adaptive response. In the exemplary embodiment, computing device 100 generates a scalar value based on the particular feature detection algorithm / filter and adaptive response used. For example, in embodiments where a Hessian matrix is used, the computing device 100 can use the characteristics and / or parameters of the Hessian matrix to generate a total response (eg, using a Hessian determinant). It should be appreciated that the computing device 100 can utilize any suitable technology, algorithm, and / or mechanism to do so.

ブロック318において、コンピューティングデバイス100は、拡張空間における、総応答の空間非極応答を抑制する。すなわち、ブロック320において、コンピューティングデバイス100は、総応答から非関心点を除去することができる。上述したように、関心点及び非関心点は、予め定められた閾値に基づいて識別することができる。例えば、一実施形態において、予め定められた閾値を超える強度値又は局所極応答を有する、総応答の空間画像点は、「関心点」であるとみなされるのに対し、予め定められた閾値を超えない強度値又は局所極応答を有する、総応答の空間画像点は、非関心点である。コンピューティングデバイス100は、二次形式の応答関数を有する任意の特徴検出アルゴリズム(例えば、SURF)を利用して、適切に「関心点」を識別することができることを理解されたい。上記で示唆したように、特定のアルゴリズムに応じて、関心点は、コーナー、エッジ、ブロブ、及び/又は他の画像特性を含み得る。さらに、いくつかの実施形態において、ブロック316における総応答の生成は、空間非極応答の抑制を含む。   At block 318, the computing device 100 suppresses the spatial non-polar response of the total response in the expansion space. That is, at block 320, the computing device 100 may remove non-interest points from the total response. As described above, interest points and non-interest points can be identified based on a predetermined threshold. For example, in one embodiment, a spatial image point of the total response that has an intensity value or local polar response that exceeds a predetermined threshold is considered to be an “interest point”, whereas a predetermined threshold is Spatial image points of the total response with intensity values or local polar responses not exceeding are non-interest points. It should be understood that the computing device 100 can properly identify “interest points” using any feature detection algorithm (eg, SURF) that has a quadratic response function. As suggested above, depending on the particular algorithm, the points of interest may include corners, edges, blobs, and / or other image characteristics. Further, in some embodiments, generating a total response at block 316 includes suppressing a spatial non-polar response.

上述したように、コンピューティングデバイス100は、ユーザが閲覧するために、解析されたマルチチャネル画像の総応答を示す画像を生成して表示することができる。例えば、単純化された解析される画像500が、図5に示されており、単純化された例示的な出力画像600(これは、画像500の(SURF内部カーネルによる)マルチチャネル特徴検出に基づいて例示的に生成されたものである)が、図6に示されている。単純化された出力画像600において、識別された関心点/特徴が、対応する異なる色の円を示すように、斜線付きの円として異なって示されている。もちろん、画像600は、本明細書に記載の技術を用いて生成されるであろう実際の出力画像の単純化されたバージョンであり、そのような実際の出力画像は、例えば、オリジナルの解析される画像に応じてより広範の異なる色及びサイズを有するより多い又はより少ない数の円を用いて、関心点/特徴を識別することができることを理解されたい。さらに、本明細書に記載のように出力画像を生成するためにコンピューティングデバイス100により解析される画像に対して実行される特徴検出は、シングルチャネルグレースケール特徴検出とは異なり、グレースケール変換に固有の情報損失を被らないことを理解されたい。   As described above, the computing device 100 can generate and display an image showing the total response of the analyzed multi-channel image for viewing by the user. For example, a simplified analyzed image 500 is shown in FIG. 5 and is a simplified example output image 600 (which is based on multi-channel feature detection (by the SURF internal kernel) of image 500. Is generated by way of example). In the simplified output image 600, the identified points of interest / features are shown differently as hatched circles to show corresponding different colored circles. Of course, image 600 is a simplified version of the actual output image that would be generated using the techniques described herein, such actual output image being, for example, an original parsed It should be understood that points of interest / features can be identified using a greater or lesser number of circles having a wider range of different colors and sizes depending on the image being captured. Further, feature detection performed on images analyzed by computing device 100 to generate an output image as described herein differs from single channel grayscale feature detection in grayscale conversion. It should be understood that there is no inherent loss of information.


本明細書で開示した技術の例示的な例が以下に提供される。本技術の実施形態は、以下に記載の例の任意の1以上及び任意の組合せを含み得る。
Examples Illustrative examples of the techniques disclosed herein are provided below. Embodiments of the technology may include any one or more and any combination of the examples described below.

例1は、マルチチャネル特徴検出のためのコンピューティングデバイスであって、1以上の画像フィルタに関する、マルチチャネル画像の各画像チャネルのフィルタ応答を決定する画像フィルタリングモジュールと、前記フィルタ応答に基づいて局所識別色ベクトルを求める局所識別色モジュールと、(i)前記フィルタ応答を前記局所識別色ベクトルに適用して、適応応答を生成し、(ii)前記適応応答に基づいて、前記マルチチャネル画像の総応答を決定する応答決定モジュールと、を備えたコンピューティングデバイスを含む。   Example 1 is a computing device for multi-channel feature detection, an image filtering module that determines a filter response for each image channel of a multi-channel image for one or more image filters, and a local based on the filter response A local identification color module for determining an identification color vector; (i) applying the filter response to the local identification color vector to generate an adaptive response; (ii) based on the adaptive response, A computing device comprising: a response determining module for determining a response.

例2は、例1の主題を含み、前記1以上の画像フィルタは、識別フィルタを含む。   Example 2 includes the subject matter of Example 1, and the one or more image filters include an identification filter.

例3は、例1及び2のうちのいずれかの主題を含み、前記局所識別色ベクトルを求めることは、各画像チャネルの前記フィルタ応答に基づいて各画像チャネルについて決定された総応答のベクトルと共線であるベクトルを求めることを含む。   Example 3 includes the subject matter of any of Examples 1 and 2, wherein determining the local identification color vector includes a vector of total responses determined for each image channel based on the filter response of each image channel Including determining a vector that is collinear.

例4は、例1〜3のうちのいずれかの主題を含み、前記局所識別色ベクトルを求めることは、前記マルチチャネル画像について対称形式の行列を求めることと、前記対称形式の行列の最小固有値又は最大固有値に対応する固有ベクトルを特定することと、を含む。   Example 4 includes the subject matter of any of Examples 1-3, wherein determining the local identification color vector includes determining a symmetric matrix for the multi-channel image and a minimum eigenvalue of the symmetric matrix. Or identifying the eigenvector corresponding to the largest eigenvalue.

例5は、例1〜4のうちのいずれかの主題を含み、前記局所識別色ベクトルを求めることは、前記マルチチャネル画像について対称形式の二次形式の行列を求めることと、前記二次形式の行列の最小固有値又は最大固有値に対応する固有ベクトルを特定することと、を含む。   Example 5 includes the subject matter of any of Examples 1-4, wherein determining the locally discriminating color vector includes determining a symmetric quadratic matrix for the multi-channel image and the quadratic form Identifying eigenvectors corresponding to the minimum or maximum eigenvalues of the matrix.

例6は、例1〜5のうちのいずれかの主題を含み、前記二次形式の行列を求めることは、画像チャネルi及びjについて行列A={qij}を算出することを含み、ここで、

Figure 2016538630
であり、qijは、i番目の行及びj番目の列における行列Aの成分であり、fは、画像チャネルのフィルタ応答に基づく、fのインデックスに対応する該画像チャネルに関する応答ベクトルであり、Tは、転置演算子であり、Bは、前記1以上の画像フィルタに基づく予め定められた行列である。 Example 6 includes the subject matter of any of Examples 1-5, and determining the quadratic matrix includes calculating a matrix A = {q ij } for image channels i and j, where so,
Figure 2016538630
Q ij is the component of matrix A in the i th row and j th column, f is the response vector for the image channel corresponding to the index of f based on the filter response of the image channel, T is a transpose operator, and B is a predetermined matrix based on the one or more image filters.

例7は、例1〜6のうちのいずれかの主題を含み、前記局所識別色ベクトルを求めることは、前記の特定された固有ベクトルを正規化して、前記局所識別色ベクトルを生成することを含む。   Example 7 includes the subject matter of any of Examples 1-6, and determining the local identification color vector includes normalizing the identified eigenvector to generate the local identification color vector. .

例8は、例1〜7のうちのいずれかの主題を含み、前記マルチチャネル画像の各画像チャネルの前記フィルタ応答を決定することは、マルチチャネル画像の各画素について、該マルチチャネル画像の各画像チャネルのフィルタ応答を決定することを含む。   Example 8 includes the subject matter of any of Examples 1-7, and determining the filter response of each image channel of the multi-channel image includes, for each pixel of the multi-channel image, each of the multi-channel image Determining the filter response of the image channel.

例9は、例1〜8のうちのいずれかの主題を含み、前記マルチチャネル画像の各画像チャネルの前記フィルタ応答を決定することは、各画像チャネルの前記フィルタ応答に基づいて、各画像チャネルについて応答ベクトルを生成することを含む。   Example 9 includes the subject matter of any of Examples 1-8, wherein determining the filter response of each image channel of the multi-channel image is based on the filter response of each image channel. Generating a response vector for.

例10は、例1〜9のうちのいずれかの主題を含み、前記フィルタ応答を前記局所識別色ベクトルに適用することは、前記局所識別色ベクトルと前記フィルタ応答との内積を計算することを含む。   Example 10 includes the subject matter of any of Examples 1-9, wherein applying the filter response to the local identification color vector calculates an inner product of the local identification color vector and the filter response. Including.

例11は、例1〜10のうちのいずれかの主題を含み、前記局所識別色ベクトルを求めることは、前記フィルタ応答に基づいて、正規化された局所識別色ベクトルを求めることを含む。   Example 11 includes the subject matter of any of Examples 1-10, and determining the local identification color vector includes determining a normalized local identification color vector based on the filter response.

例12は、例1〜11のうちのいずれかの主題を含み、前記応答決定モジュールは、さらに、前記マルチチャネル画像の前記総応答の空間非極応答を抑制する。   Example 12 includes the subject matter of any of Examples 1-11, wherein the response determination module further suppresses the spatial non-polar response of the total response of the multi-channel image.

例13は、例1〜12のうちのいずれかの主題を含み、前記空間非極応答を抑制することは、前記マルチチャネル画像の前記総応答から非関心点を除去することを含み、前記非関心点は、予め定められた閾値に基づいて識別される。   Example 13 includes the subject matter of any of Examples 1-12, wherein suppressing the spatial non-polar response includes removing non-interest points from the total response of the multi-channel image; Interest points are identified based on a predetermined threshold.

例14は、例1〜13のうちのいずれかの主題を含み、前記コンピューティングデバイスのディスプレイ上に、前記総応答を示す画像を表示する表示モジュールをさらに備える。   Example 14 includes the subject matter of any of Examples 1-13, and further comprises a display module that displays an image showing the total response on a display of the computing device.

例15は、例1〜14のうちのいずれかの主題を含み、前記コンピューティングデバイスのカメラによりキャプチャ画像をキャプチャする画像キャプチャモジュールをさらに備え、前記マルチチャネル画像は、前記キャプチャ画像である。   Example 15 includes the subject matter of any of Examples 1-14, further comprising an image capture module that captures a captured image by a camera of the computing device, wherein the multi-channel image is the captured image.

例16は、例1〜15のうちのいずれかの主題を含み、前記1以上の画像フィルタは、一次微分画像フィルタ及び二次微分画像フィルタのうちの1以上を含む。   Example 16 includes the subject matter of any of Examples 1-15, wherein the one or more image filters include one or more of a first derivative image filter and a second derivative image filter.

例17は、コンピューティングデバイス上でマルチチャネル特徴検出を実行するための方法であって、前記コンピューティングデバイスにより、1以上の画像フィルタに関する、マルチチャネル画像の各画像チャネルのフィルタ応答を決定するステップと、前記コンピューティングデバイスにより、前記フィルタ応答に基づいて局所識別色ベクトルを求めるステップと、前記コンピューティングデバイスにより、前記フィルタ応答を前記局所識別色ベクトルに適用して、適応応答を生成するステップと、前記コンピューティングデバイスにより、前記適応応答に基づいて、前記マルチチャネル画像の総応答を決定するステップと、を含む方法を含む。   Example 17 is a method for performing multi-channel feature detection on a computing device, wherein the computing device determines a filter response for each image channel of a multi-channel image with respect to one or more image filters. Determining a local identification color vector based on the filter response with the computing device; applying the filter response to the local identification color vector with the computing device to generate an adaptive response; Determining a total response of the multi-channel image based on the adaptive response by the computing device.

例18は、例17の主題を含み、前記1以上の画像フィルタは、識別フィルタを含む。   Example 18 includes the subject matter of Example 17, wherein the one or more image filters include an identification filter.

例19は、例17及び18のうちのいずれかの主題を含み、前記局所識別色ベクトルを求めることは、各画像チャネルの前記フィルタ応答に基づいて各画像チャネルについて決定された総応答のベクトルと共線であるベクトルを求めることを含む。   Example 19 includes the subject matter of any of Examples 17 and 18, wherein determining the local identification color vector includes a vector of total responses determined for each image channel based on the filter response of each image channel Including determining a vector that is collinear.

例20は、例17〜19のうちのいずれかの主題を含み、前記局所識別色ベクトルを求めることは、前記マルチチャネル画像について対称形式の行列を求めることと、前記対称形式の行列の最小固有値又は最大固有値に対応する固有ベクトルを特定することと、を含む。   Example 20 includes the subject matter of any of Examples 17-19, wherein determining the local discriminating color vector is determining a symmetric matrix for the multi-channel image and a minimum eigenvalue of the symmetric matrix. Or identifying the eigenvector corresponding to the largest eigenvalue.

例21は、例17〜20のうちのいずれかの主題を含み、前記局所識別色ベクトルを求めることは、前記マルチチャネル画像について対称形式の二次形式の行列を求めることと、前記二次形式の行列の最小固有値又は最大固有値に対応する固有ベクトルを特定することと、を含む。   Example 21 includes the subject matter of any of Examples 17-20, wherein determining the local identification color vector includes determining a symmetric quadratic matrix for the multi-channel image and the quadratic form Identifying eigenvectors corresponding to the minimum or maximum eigenvalues of the matrix.

例22は、例17〜21のうちのいずれかの主題を含み、前記二次形式の行列を求めることは、画像チャネルi及びjについて行列A={qij}を算出することを含み、ここで、

Figure 2016538630
であり、qijは、i番目の行及びj番目の列における行列Aの成分であり、fは、画像チャネルのフィルタ応答に基づく、fのインデックスに対応する該画像チャネルに関する応答ベクトルであり、Tは、転置演算子であり、Bは、前記1以上の画像フィルタに基づく予め定められた行列である。 Example 22 includes the subject of any of Examples 17-21, and determining the quadratic form matrix includes calculating a matrix A = {q ij } for image channels i and j, wherein so,
Figure 2016538630
Q ij is the component of matrix A in the i th row and j th column, f is the response vector for the image channel corresponding to the index of f based on the filter response of the image channel, T is a transpose operator, and B is a predetermined matrix based on the one or more image filters.

例23は、例17〜22のうちのいずれかの主題を含み、前記局所識別色ベクトルを求めることは、前記の特定された固有ベクトルを正規化して、前記局所識別色ベクトルを生成することを含む。   Example 23 includes the subject matter of any of Examples 17-22, and determining the local identification color vector includes normalizing the identified eigenvector to generate the local identification color vector. .

例24は、例17〜23のうちのいずれかの主題を含み、前記マルチチャネル画像の各画像チャネルの前記フィルタ応答を決定することは、マルチチャネル画像の各画素について、該マルチチャネル画像の各画像チャネルのフィルタ応答を決定することを含む。   Example 24 includes the subject matter of any of Examples 17-23, and determining the filter response of each image channel of the multi-channel image for each pixel of the multi-channel image Determining the filter response of the image channel.

例25は、例17〜24のうちのいずれかの主題を含み、前記マルチチャネル画像の各画像チャネルの前記フィルタ応答を決定することは、各画像チャネルの前記フィルタ応答に基づいて、各画像チャネルについて応答ベクトルを生成することを含む。   Example 25 includes the subject matter of any of Examples 17-24, wherein determining the filter response of each image channel of the multi-channel image is based on the filter response of each image channel. Generating a response vector for.

例26は、例17〜25のうちのいずれかの主題を含み、前記フィルタ応答を前記局所識別色ベクトルに適用することは、前記局所識別色ベクトルと前記フィルタ応答との内積を計算することを含む。   Example 26 includes the subject matter of any of Examples 17-25, wherein applying the filter response to the local discriminating color vector calculates an inner product of the local discriminating color vector and the filter response. Including.

例27は、例17〜26のうちのいずれかの主題を含み、前記局所識別色ベクトルを求めることは、前記フィルタ応答に基づいて、正規化された局所識別色ベクトルを求めることを含む。   Example 27 includes the subject matter of any of Examples 17-26, and determining the local identification color vector includes determining a normalized local identification color vector based on the filter response.

例28は、例17〜27のうちのいずれかの主題を含み、前記コンピューティングデバイスにより、前記マルチチャネル画像の前記総応答の空間非極応答を抑制するステップをさらに含む。   Example 28 includes the subject matter of any of Examples 17-27, and further includes suppressing, by the computing device, a spatial non-polar response of the total response of the multi-channel image.

例29は、例17〜28のうちのいずれかの主題を含み、前記空間非極応答を抑制することは、前記マルチチャネル画像の前記総応答から非関心点を除去することを含み、前記非関心点は、予め定められた閾値に基づいて識別される。   Example 29 includes the subject matter of any of Examples 17-28, wherein suppressing the spatial non-polar response includes removing non-interest points from the total response of the multi-channel image, Interest points are identified based on a predetermined threshold.

例30は、例17〜29のうちのいずれかの主題を含み、前記コンピューティングデバイスのディスプレイ上に、前記総応答を示す画像を表示するステップをさらに含む。   Example 30 includes the subject matter of any of Examples 17-29, and further includes displaying an image showing the total response on a display of the computing device.

例31は、例17〜30のうちのいずれかの主題を含み、前記コンピューティングデバイスのカメラにより、キャプチャ画像をキャプチャするステップをさらに含み、前記マルチチャネル画像は、前記キャプチャ画像である。   Example 31 includes the subject matter of any of Examples 17-30, further comprising capturing a captured image with a camera of the computing device, wherein the multi-channel image is the captured image.

例32は、例17〜31のうちのいずれかの主題を含み、前記1以上の画像フィルタは、一次微分画像フィルタ及び二次微分画像フィルタのうちの1以上を含む。   Example 32 includes the subject matter of any of Examples 17-31, wherein the one or more image filters include one or more of a first derivative image filter and a second derivative image filter.

例33は、コンピューティングデバイスであって、プロセッサと、複数の命令を記憶したメモリであって、前記複数の命令は、前記プロセッサにより実行されたときに、前記コンピューティングデバイスに、例17〜32のうちのいずれかの方法を実行させる、メモリと、を備えたコンピューティングデバイスを含む。   Example 33 is a computing device, a processor and a memory storing a plurality of instructions, wherein the plurality of instructions are executed on the computing device when executed by the processor. A computing device having a memory for performing any of the methods.

例34は、複数の命令を記憶した1以上のマシン読み取り可能な記憶媒体であって、前記複数の命令が実行されたことに応じて、前記複数の命令は、コンピューティングデバイスに、例17〜32のうちのいずれかの方法を実行させる、1以上のマシン読み取り可能な記憶媒体を含む。   Example 34 is one or more machine-readable storage media storing a plurality of instructions, wherein the plurality of instructions are transmitted to a computing device in response to execution of the plurality of instructions. Including one or more machine-readable storage media that cause any of the methods of 32 to be performed.

例35は、マルチチャネル特徴検出のためのコンピューティングデバイスであって、1以上の画像フィルタに関する、マルチチャネル画像の各画像チャネルのフィルタ応答を決定する手段と、前記フィルタ応答に基づいて局所識別色ベクトルを求める手段と、前記フィルタ応答を前記局所識別色ベクトルに適用して、適応応答を生成する手段と、前記適応応答に基づいて、前記マルチチャネル画像の総応答を決定する手段と、を備えたコンピューティングデバイスを含む。   Example 35 is a computing device for multi-channel feature detection, for one or more image filters, means for determining a filter response for each image channel of the multi-channel image, and a local identification color based on the filter response Means for determining a vector; means for applying the filter response to the local identification color vector to generate an adaptive response; and means for determining a total response of the multi-channel image based on the adaptive response. Including computing devices.

例36は、例35の主題を含み、前記1以上の画像フィルタは、識別フィルタを含む。   Example 36 includes the subject matter of Example 35, and the one or more image filters include an identification filter.

例37は、例35及び36のうちのいずれかの主題を含み、前記局所識別色ベクトルを求める前記手段は、各画像チャネルの前記フィルタ応答に基づいて各画像チャネルについて決定された総応答のベクトルと共線であるベクトルを求める手段を含む。   Example 37 includes the subject matter of any of Examples 35 and 36, wherein the means for determining the local identification color vector is a vector of total responses determined for each image channel based on the filter response of each image channel. And means for obtaining a vector that is collinear.

例38は、例35〜37のうちのいずれかの主題を含み、前記局所識別色ベクトルを求める前記手段は、前記マルチチャネル画像について対称形式の行列を求める手段と、前記対称形式の行列の最小固有値又は最大固有値に対応する固有ベクトルを特定する手段と、を含む。   Example 38 includes the subject matter of any of Examples 35-37, wherein the means for determining the local identification color vector includes means for determining a symmetric matrix for the multi-channel image, and a minimum of the symmetric matrix. Means for identifying an eigenvector corresponding to the eigenvalue or the maximum eigenvalue.

例39は、例35〜38のうちのいずれかの主題を含み、前記局所識別色ベクトルを求める前記手段は、前記マルチチャネル画像について対称形式の二次形式の行列を求める手段と、前記二次形式の行列の最小固有値又は最大固有値に対応する固有ベクトルを特定する手段と、を含む。   Example 39 includes the subject matter of any of Examples 35-38, wherein the means for determining the local identification color vector includes means for determining a symmetric quadratic matrix for the multi-channel image; Means for identifying an eigenvector corresponding to a minimum or maximum eigenvalue of a matrix of the form.

例40は、例35〜39のうちのいずれかの主題を含み、前記二次形式の行列を求める前記手段は、画像チャネルi及びjについて行列A={qij}を算出することを含み、ここで、

Figure 2016538630
であり、qijは、i番目の行及びj番目の列における行列Aの成分であり、fは、画像チャネルのフィルタ応答に基づく、fのインデックスに対応する該画像チャネルに関する応答ベクトルであり、Tは、転置演算子であり、Bは、前記1以上の画像フィルタに基づく予め定められた行列である。 Example 40 includes the subject matter of any of Examples 35-39, wherein the means for determining a matrix of the quadratic form includes calculating a matrix A = {q ij } for image channels i and j; here,
Figure 2016538630
Q ij is the component of matrix A in the i th row and j th column, f is the response vector for the image channel corresponding to the index of f based on the filter response of the image channel, T is a transpose operator, and B is a predetermined matrix based on the one or more image filters.

例41は、例35〜40のうちのいずれかの主題を含み、前記局所識別色ベクトルを求める前記手段は、前記の特定された固有ベクトルを正規化して、前記局所識別色ベクトルを生成する手段を含む。   Example 41 includes the subject matter of any of Examples 35-40, wherein the means for determining the local identification color vector includes means for normalizing the identified eigenvector to generate the local identification color vector. Including.

例42は、例35〜41のうちのいずれかの主題を含み、前記マルチチャネル画像の各画像チャネルの前記フィルタ応答を決定する前記手段は、マルチチャネル画像の各画素について、該マルチチャネル画像の各画像チャネルのフィルタ応答を決定する手段を含む。   Example 42 includes the subject matter of any of Examples 35-41, wherein the means for determining the filter response of each image channel of the multi-channel image includes, for each pixel of the multi-channel image, the multi-channel image Means for determining the filter response of each image channel.

例43は、例35〜42のうちのいずれかの主題を含み、前記マルチチャネル画像の各画像チャネルの前記フィルタ応答を決定する前記手段は、各画像チャネルの前記フィルタ応答に基づいて、各画像チャネルについて応答ベクトルを生成する手段を含む。   Example 43 includes the subject matter of any of Examples 35-42, wherein the means for determining the filter response of each image channel of the multi-channel image is based on the filter response of each image channel. Means for generating a response vector for the channel.

例44は、例35〜43のうちのいずれかの主題を含み、前記フィルタ応答を前記局所識別色ベクトルに適用して、適応応答を生成する前記手段は、前記局所識別色ベクトルと前記フィルタ応答との内積を計算する手段を含む。   Example 44 includes the subject matter of any of Examples 35-43, wherein the means for applying the filter response to the local identification color vector to generate an adaptive response includes the local identification color vector and the filter response. Means for calculating the inner product of.

例45は、例35〜44のうちのいずれかの主題を含み、前記局所識別色ベクトルを求める前記手段は、前記フィルタ応答に基づいて、正規化された局所識別色ベクトルを求める手段を含む。   Example 45 includes the subject matter of any of Examples 35-44, wherein the means for determining the local identification color vector includes means for determining a normalized local identification color vector based on the filter response.

例46は、例35〜45のうちのいずれかの主題を含み、前記マルチチャネル画像の前記総応答の空間非極応答を抑制する手段をさらに備える。   Example 46 includes the subject matter of any of Examples 35-45, further comprising means for suppressing a spatial non-polar response of the total response of the multi-channel image.

例47は、例35〜46のうちのいずれかの主題を含み、前記空間非極応答を抑制する前記手段は、前記マルチチャネル画像の前記総応答から非関心点を除去する手段を含み、前記非関心点は、予め定められた閾値に基づいて識別される。   Example 47 includes the subject matter of any of Examples 35-46, wherein the means for suppressing the spatial non-polar response includes means for removing non-interest points from the total response of the multi-channel image, Non-interest points are identified based on a predetermined threshold.

例48は、例35〜47のうちのいずれかの主題を含み、前記コンピューティングデバイスのディスプレイ上に、前記総応答を示す画像を表示する手段をさらに備える。   Example 48 includes the subject matter of any of Examples 35-47, further comprising means for displaying an image showing the total response on the display of the computing device.

例49は、例35〜48のうちのいずれかの主題を含み、前記コンピューティングデバイスのカメラによりキャプチャ画像をキャプチャする手段をさらに備え、前記マルチチャネル画像は、前記キャプチャ画像である。   Example 49 includes the subject matter of any of Examples 35-48, further comprising means for capturing a captured image by a camera of the computing device, wherein the multi-channel image is the captured image.

例50は、例35〜49のうちのいずれかの主題を含み、前記1以上の画像フィルタは、一次微分画像フィルタ及び二次微分画像フィルタのうちの1以上を含む。   Example 50 includes the subject matter of any of Examples 35-49, wherein the one or more image filters include one or more of a first derivative image filter and a second derivative image filter.

例51は、マルチチャネル特徴検出のためのコンピューティングデバイスであって、マルチチャネル画像の各画像チャネルの画素値に基づいて局所識別色ベクトルを求める局所識別色モジュールと、(i)各画像チャネルの前記画素値を前記局所識別色ベクトルに適用して、適応応答を生成し、(ii)前記適応応答に基づいて、前記マルチチャネル画像の総応答を決定する応答決定モジュールと、を備えたコンピューティングデバイスを含む。   Example 51 is a computing device for multi-channel feature detection, wherein a local identification color module that obtains a local identification color vector based on pixel values of each image channel of a multi-channel image, and (i) each image channel Computing comprising: applying the pixel values to the local identification color vector to generate an adaptive response; and (ii) determining a total response of the multi-channel image based on the adaptive response. Includes devices.

例52は、例51の主題を含み、前記局所識別色ベクトルを求めることは、各画像チャネルの前記画素値に基づいて各画像チャネルについて決定された総応答のベクトルと共線であるベクトルを求めることを含む。   Example 52 includes the subject of Example 51, wherein determining the local identification color vector determines a vector that is collinear with a vector of total responses determined for each image channel based on the pixel values of each image channel. Including that.

例53は、例51及び52のうちのいずれかの主題を含み、前記局所識別色ベクトルを求めることは、前記マルチチャネル画像について対称形式の行列を求めることと、前記対称形式の行列の最小固有値又は最大固有値に対応する固有ベクトルを特定することと、を含む。   Example 53 includes the subject matter of any of Examples 51 and 52, wherein determining the local discriminating color vector includes determining a symmetric matrix for the multi-channel image and a minimum eigenvalue of the symmetric matrix. Or identifying the eigenvector corresponding to the largest eigenvalue.

例54は、例51〜53のうちのいずれかの主題を含み、前記局所識別色ベクトルを求めることは、前記の特定された固有ベクトルを正規化して、前記局所識別色ベクトルを生成することを含む。   Example 54 includes the subject matter of any of Examples 51-53, and determining the local identification color vector includes normalizing the identified eigenvector to generate the local identification color vector. .

例55は、例51〜54のうちのいずれかの主題を含み、前記応答決定モジュールは、さらに、前記マルチチャネル画像の前記総応答の空間非極応答を抑制する。   Example 55 includes the subject matter of any of examples 51-54, wherein the response determination module further suppresses a spatial non-polar response of the total response of the multi-channel image.

例56は、コンピューティングデバイス上でマルチチャネル特徴検出を実行するための方法であって、前記コンピューティングデバイスにより、マルチチャネル画像の各画像チャネルの画素値に基づいて局所識別色ベクトルを求めるステップと、前記コンピューティングデバイスにより、各画像チャネルの前記画素値を前記局所識別色ベクトルに適用して、適応応答を生成するステップと、前記コンピューティングデバイスにより、前記適応応答に基づいて、前記マルチチャネル画像の総応答を決定するステップと、を含む方法を含む。   Example 56 is a method for performing multi-channel feature detection on a computing device, wherein the computing device determines a local identification color vector based on pixel values for each image channel of the multi-channel image; Applying the pixel value of each image channel to the local identification color vector by the computing device to generate an adaptive response; and based on the adaptive response, the multi-channel image by the computing device. Determining a total response.

例57は、例56の主題を含み、前記局所識別色ベクトルを求めることは、各画像チャネルの前記画素値に基づいて各画像チャネルについて決定された総応答のベクトルと共線であるベクトルを求めることを含む。   Example 57 includes the subject of Example 56, wherein determining the local identification color vector determines a vector that is collinear with the total response vector determined for each image channel based on the pixel values of each image channel. Including that.

例58は、例56及び57のうちのいずれかの主題を含み、前記局所識別色ベクトルを求めることは、前記マルチチャネル画像について対称形式の行列を求めることと、前記対称形式の行列の最小固有値又は最大固有値に対応する固有ベクトルを特定することと、を含む。   Example 58 includes the subject matter of any of Examples 56 and 57, wherein determining the local identification color vector includes determining a symmetric matrix for the multi-channel image and a minimum eigenvalue of the symmetric matrix. Or identifying the eigenvector corresponding to the largest eigenvalue.

例59は、例56〜58のうちのいずれかの主題を含み、前記局所識別色ベクトルを求めることは、前記の特定された固有ベクトルを正規化して、前記局所識別色ベクトルを生成することを含む。   Example 59 includes the subject matter of any of Examples 56-58, and determining the local identification color vector includes normalizing the identified eigenvector to generate the local identification color vector. .

例60は、例56〜59のうちのいずれかの主題を含み、前記コンピューティングデバイスにより、前記マルチチャネル画像の前記総応答の空間非極応答を抑制するステップをさらに含む。   Example 60 includes the subject matter of any of Examples 56-59, and further includes suppressing, by the computing device, a spatial non-polar response of the total response of the multi-channel image.

例61は、コンピューティングデバイスであって、プロセッサと、複数の命令を記憶したメモリであって、前記複数の命令は、前記プロセッサにより実行されたときに、前記コンピューティングデバイスに、例56〜60のうちのいずれかの方法を実行させる、メモリと、を備えたコンピューティングデバイスを含む。   Example 61 is a computing device, a processor and a memory storing a plurality of instructions, wherein when the plurality of instructions are executed by the processor, the computing device is transferred to the computing device. A computing device having a memory for performing any of the methods.

例62は、複数の命令を記憶した1以上のマシン読み取り可能な記憶媒体であって、前記複数の命令が実行されたことに応じて、前記複数の命令は、コンピューティングデバイスに、例56〜60のうちのいずれかの方法を実行させる、1以上のマシン読み取り可能な記憶媒体を含む。   Example 62 is one or more machine-readable storage media storing a plurality of instructions, wherein the plurality of instructions are transmitted to a computing device in response to execution of the plurality of instructions. One or more machine-readable storage media are included that cause any of the methods of 60 to be performed.

例63は、マルチチャネル特徴検出のためのコンピューティングデバイスであって、例56〜60のうちのいずれかの方法を実行する手段を備えたコンピューティングデバイスを含む。   Example 63 includes a computing device for multi-channel feature detection comprising means for performing the method of any of Examples 56-60.

Claims (26)

マルチチャネル特徴検出のためのコンピューティングデバイスであって、
1以上の画像フィルタに関する、マルチチャネル画像の各画像チャネルのフィルタ応答を決定する画像フィルタリングモジュールと、
前記フィルタ応答に基づいて局所識別色ベクトルを求める局所識別色モジュールと、
(i)前記フィルタ応答を前記局所識別色ベクトルに適用して、適応応答を生成し、(ii)前記適応応答に基づいて、前記マルチチャネル画像の総応答を決定する応答決定モジュールと、
を備えたコンピューティングデバイス。
A computing device for multi-channel feature detection,
An image filtering module that determines a filter response of each image channel of the multi-channel image with respect to one or more image filters;
A local identification color module for determining a local identification color vector based on the filter response;
(I) applying the filter response to the local identification color vector to generate an adaptive response; (ii) a response determination module for determining a total response of the multi-channel image based on the adaptive response;
A computing device equipped with.
前記局所識別色ベクトルを求めることは、各画像チャネルの前記フィルタ応答に基づいて各画像チャネルについて決定された総応答のベクトルと共線であるベクトルを求めることを含む、請求項1記載のコンピューティングデバイス。   The computing of claim 1, wherein determining the local identification color vector comprises determining a vector that is collinear with a vector of total responses determined for each image channel based on the filter response of each image channel. device. 前記局所識別色ベクトルを求めることは、
前記マルチチャネル画像について対称形式の二次形式の行列を求めることと、
前記二次形式の行列の最小固有値又は最大固有値に対応する固有ベクトルを特定することと、
を含む、請求項1記載のコンピューティングデバイス。
Obtaining the local identification color vector includes
Obtaining a symmetric quadratic matrix for the multichannel image;
Identifying the eigenvector corresponding to the minimum or maximum eigenvalue of the matrix of the quadratic form;
The computing device of claim 1, comprising:
前記二次形式の行列を求めることは、画像チャネルi及びjについて行列A={qij}を算出することを含み、ここで、
Figure 2016538630
であり、qijは、i番目の行及びj番目の列における行列Aの成分であり、fは、画像チャネルのフィルタ応答に基づく、fのインデックスに対応する該画像チャネルに関する応答ベクトルであり、Tは、転置演算子であり、Bは、前記1以上の画像フィルタに基づく予め定められた行列である、請求項3記載のコンピューティングデバイス。
Determining the matrix of the quadratic form includes calculating a matrix A = {q ij } for image channels i and j, where
Figure 2016538630
Q ij is the component of matrix A in the i th row and j th column, f is the response vector for the image channel corresponding to the index of f based on the filter response of the image channel, The computing device of claim 3, wherein T is a transpose operator and B is a predetermined matrix based on the one or more image filters.
前記局所識別色ベクトルを求めることは、前記の特定された固有ベクトルを正規化して、前記局所識別色ベクトルを生成することを含む、請求項3記載のコンピューティングデバイス。   The computing device of claim 3, wherein determining the local identification color vector includes normalizing the identified eigenvector to generate the local identification color vector. 前記マルチチャネル画像の各画像チャネルの前記フィルタ応答を決定することは、マルチチャネル画像の各画素について、該マルチチャネル画像の各画像チャネルのフィルタ応答を決定することを含む、請求項1記載のコンピューティングデバイス。   The computer of claim 1, wherein determining the filter response of each image channel of the multi-channel image includes determining, for each pixel of the multi-channel image, a filter response of each image channel of the multi-channel image. Device. 前記マルチチャネル画像の各画像チャネルの前記フィルタ応答を決定することは、各画像チャネルの前記フィルタ応答に基づいて、各画像チャネルについて応答ベクトルを生成することを含む、請求項1記載のコンピューティングデバイス。   The computing device of claim 1, wherein determining the filter response of each image channel of the multi-channel image includes generating a response vector for each image channel based on the filter response of each image channel. . 前記フィルタ応答を前記局所識別色ベクトルに適用することは、前記局所識別色ベクトルと前記フィルタ応答との内積を計算することを含む、請求項7記載のコンピューティングデバイス。   The computing device of claim 7, wherein applying the filter response to the local identification color vector includes calculating an inner product of the local identification color vector and the filter response. 前記局所識別色ベクトルを求めることは、前記フィルタ応答に基づいて、正規化された局所識別色ベクトルを求めることを含む、請求項1記載のコンピューティングデバイス。   The computing device of claim 1, wherein determining the local identification color vector includes determining a normalized local identification color vector based on the filter response. 前記応答決定モジュールは、さらに、前記マルチチャネル画像の前記総応答の空間非極応答を抑制する、請求項1記載のコンピューティングデバイス。   The computing device of claim 1, wherein the response determination module further suppresses a spatial non-polar response of the total response of the multi-channel image. 前記空間非極応答を抑制することは、前記マルチチャネル画像の前記総応答から非関心点を除去することを含み、前記非関心点は、予め定められた閾値に基づいて識別される、請求項10記載のコンピューティングデバイス。   The suppressing of the spatial non-polar response includes removing non-interest points from the total response of the multi-channel image, wherein the non-interest points are identified based on a predetermined threshold. 11. The computing device according to 10. 前記コンピューティングデバイスのディスプレイ上に、前記総応答を示す画像を表示する表示モジュール
をさらに備えた、請求項1乃至11いずれか一項記載のコンピューティングデバイス。
The computing device according to claim 1, further comprising: a display module configured to display an image indicating the total response on a display of the computing device.
前記1以上の画像フィルタは、一次微分画像フィルタ及び二次微分画像フィルタのうちの1以上を含む、請求項1乃至11いずれか一項記載のコンピューティングデバイス。   The computing device according to claim 1, wherein the one or more image filters include one or more of a first-order differential image filter and a second-order differential image filter. コンピューティングデバイス上でマルチチャネル特徴検出を実行するための方法であって、
前記コンピューティングデバイスにより、1以上の画像フィルタに関する、マルチチャネル画像の各画像チャネルのフィルタ応答を決定するステップと、
前記コンピューティングデバイスにより、前記フィルタ応答に基づいて局所識別色ベクトルを求めるステップと、
前記コンピューティングデバイスにより、前記フィルタ応答を前記局所識別色ベクトルに適用して、適応応答を生成するステップと、
前記コンピューティングデバイスにより、前記適応応答に基づいて、前記マルチチャネル画像の総応答を決定するステップと、
を含む方法。
A method for performing multi-channel feature detection on a computing device, comprising:
Determining a filter response for each image channel of the multi-channel image with respect to one or more image filters by the computing device;
Determining, by the computing device, a local identification color vector based on the filter response;
Applying, by the computing device, the filter response to the local identification color vector to generate an adaptive response;
Determining, by the computing device, a total response of the multi-channel image based on the adaptive response;
Including methods.
前記局所識別色ベクトルを求めることは、各画像チャネルの前記フィルタ応答に基づいて各画像チャネルについて決定された総応答のベクトルと共線であるベクトルを求めることを含む、請求項14記載の方法。   The method of claim 14, wherein determining the local identification color vector comprises determining a vector that is collinear with a vector of total responses determined for each image channel based on the filter response of each image channel. 前記局所識別色ベクトルを求めることは、
前記マルチチャネル画像について対称形式の行列を求めることと、
前記対称形式の行列の最小固有値又は最大固有値に対応する固有ベクトルを特定することと、
を含む、請求項14記載の方法。
Obtaining the local identification color vector includes
Determining a symmetric matrix for the multi-channel image;
Identifying the eigenvector corresponding to the minimum or maximum eigenvalue of the symmetric matrix;
15. The method of claim 14, comprising:
前記局所識別色ベクトルを求めることは、
前記マルチチャネル画像について対称形式の二次形式の行列を求めることと、
前記二次形式の行列の最小固有値又は最大固有値に対応する固有ベクトルを特定することと、
を含む、請求項14記載の方法。
Obtaining the local identification color vector includes
Obtaining a symmetric quadratic matrix for the multichannel image;
Identifying the eigenvector corresponding to the minimum or maximum eigenvalue of the matrix of the quadratic form;
15. The method of claim 14, comprising:
前記二次形式の行列を求めることは、画像チャネルi及びjについて行列A={qij}を算出することを含み、ここで、
Figure 2016538630
であり、qijは、i番目の行及びj番目の列における行列Aの成分であり、fは、画像チャネルのフィルタ応答に基づく、fのインデックスに対応する該画像チャネルに関する応答ベクトルであり、Tは、転置演算子であり、Bは、前記1以上の画像フィルタに基づく予め定められた行列である、請求項17記載の方法。
Determining the matrix of the quadratic form includes calculating a matrix A = {q ij } for image channels i and j, where
Figure 2016538630
Q ij is the component of matrix A in the i th row and j th column, f is the response vector for the image channel corresponding to the index of f based on the filter response of the image channel, 18. The method of claim 17, wherein T is a transpose operator and B is a predetermined matrix based on the one or more image filters.
前記局所識別色ベクトルを求めることは、前記の特定された固有ベクトルを正規化して、前記局所識別色ベクトルを生成することを含む、請求項17記載の方法。   The method of claim 17, wherein determining the local identification color vector includes normalizing the identified eigenvector to generate the local identification color vector. 前記マルチチャネル画像の各画像チャネルの前記フィルタ応答を決定することは、マルチチャネル画像の各画素について、該マルチチャネル画像の各画像チャネルのフィルタ応答を決定することを含む、請求項14記載の方法。   The method of claim 14, wherein determining the filter response of each image channel of the multi-channel image includes determining, for each pixel of the multi-channel image, the filter response of each image channel of the multi-channel image. . 前記フィルタ応答を前記局所識別色ベクトルに適用することは、前記局所識別色ベクトルと前記フィルタ応答との内積を計算することを含む、請求項14記載の方法。   The method of claim 14, wherein applying the filter response to the local identification color vector comprises calculating an inner product of the local identification color vector and the filter response. 前記コンピューティングデバイスにより、前記マルチチャネル画像の前記総応答の空間非極応答を抑制するステップ
をさらに含む、請求項14記載の方法。
15. The method of claim 14, further comprising suppressing by the computing device a spatial non-polar response of the total response of the multi-channel image.
コンピューティングデバイスに請求項14乃至22いずれか一項記載の方法を実行させるプログラム。   23. A program for causing a computing device to execute the method according to any one of claims 14 to 22. マルチチャネル特徴検出のためのコンピューティングデバイスであって、
マルチチャネル画像の各画像チャネルの画素値に基づいて局所識別色ベクトルを求める局所識別色モジュールと、
(i)各画像チャネルの前記画素値を前記局所識別色ベクトルに適用して、適応応答を生成し、(ii)前記適応応答に基づいて、前記マルチチャネル画像の総応答を決定する応答決定モジュールと、
を備えたコンピューティングデバイス。
A computing device for multi-channel feature detection,
A local identification color module for determining a local identification color vector based on the pixel value of each image channel of the multi-channel image;
(I) applying the pixel values of each image channel to the local identification color vector to generate an adaptive response; and (ii) determining a total response of the multi-channel image based on the adaptive response. When,
A computing device equipped with.
前記局所識別色ベクトルを求めることは、(i)前記マルチチャネル画像について対称形式の行列を求めることと、(ii)前記対称形式の行列の最小固有値又は最大固有値に対応する固有ベクトルを特定することと、を含み、
前記応答決定モジュールは、さらに、前記マルチチャネル画像の前記総応答の空間非極応答を抑制する、請求項24記載のコンピューティングデバイス。
Obtaining the local identification color vector includes: (i) obtaining a symmetric matrix for the multi-channel image; and (ii) identifying an eigenvector corresponding to a minimum eigenvalue or a maximum eigenvalue of the symmetric matrix. Including,
25. The computing device of claim 24, wherein the response determination module further suppresses a spatial non-polar response of the total response of the multi-channel image.
請求項23記載のプログラムを記憶したマシン読み取り可能な記憶媒体。   A machine-readable storage medium storing the program according to claim 23.
JP2016526000A 2013-11-28 2013-11-28 A method for determining local discriminant colors for image feature detectors Pending JP2016538630A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2013/003104 WO2015079282A1 (en) 2013-11-28 2013-11-28 Method for determining local differentiating color for image feature detectors

Publications (1)

Publication Number Publication Date
JP2016538630A true JP2016538630A (en) 2016-12-08

Family

ID=50434230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016526000A Pending JP2016538630A (en) 2013-11-28 2013-11-28 A method for determining local discriminant colors for image feature detectors

Country Status (5)

Country Link
EP (1) EP3074925A1 (en)
JP (1) JP2016538630A (en)
KR (1) KR101794465B1 (en)
CN (1) CN105683996B (en)
WO (1) WO2015079282A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110363747B (en) * 2019-06-14 2024-07-02 平安科技(深圳)有限公司 Intelligent abnormal cell judging method, device and computer readable storage medium
CN111931785A (en) * 2020-06-19 2020-11-13 国网山西省电力公司吕梁供电公司 Edge detection method for infrared image target of power equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816793A (en) * 1994-04-30 1996-01-19 Sony Corp Edge area detecting method
JP2001527671A (en) * 1997-04-04 2001-12-25 レイセオン・カンパニー Polynomial filters for high-order correlation and multi-input information integration
JP2002203240A (en) * 2000-10-31 2002-07-19 Matsushita Electric Ind Co Ltd Object recognition device, object recognition method, program, and recording medium
JP2006285310A (en) * 2005-03-31 2006-10-19 Kanazawa Univ Forest crown evaluation method and crown evaluation program
JP2011133423A (en) * 2009-12-25 2011-07-07 Mitsubishi Electric Corp Object deducing device
US20130070957A1 (en) * 2011-09-15 2013-03-21 Xerox Corporation Systems and methods for detecting cell phone usage by a vehicle operator

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098936B2 (en) * 2007-01-12 2012-01-17 Seiko Epson Corporation Method and apparatus for detecting objects in an image
CN101510299B (en) * 2009-03-04 2011-07-20 上海大学 Image self-adapting method based on vision significance
US20140219556A1 (en) * 2011-12-29 2014-08-07 Intel Corporation Generalized robust multichannel feature detector
CN102867301B (en) * 2012-08-29 2015-01-28 西北工业大学 Mehtod for getting image salient features according to information entropy

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816793A (en) * 1994-04-30 1996-01-19 Sony Corp Edge area detecting method
JP2001527671A (en) * 1997-04-04 2001-12-25 レイセオン・カンパニー Polynomial filters for high-order correlation and multi-input information integration
JP2002203240A (en) * 2000-10-31 2002-07-19 Matsushita Electric Ind Co Ltd Object recognition device, object recognition method, program, and recording medium
JP2006285310A (en) * 2005-03-31 2006-10-19 Kanazawa Univ Forest crown evaluation method and crown evaluation program
JP2011133423A (en) * 2009-12-25 2011-07-07 Mitsubishi Electric Corp Object deducing device
US20130070957A1 (en) * 2011-09-15 2013-03-21 Xerox Corporation Systems and methods for detecting cell phone usage by a vehicle operator

Also Published As

Publication number Publication date
CN105683996A (en) 2016-06-15
WO2015079282A1 (en) 2015-06-04
CN105683996B (en) 2019-10-25
KR101794465B1 (en) 2017-11-06
KR20160060121A (en) 2016-05-27
EP3074925A1 (en) 2016-10-05

Similar Documents

Publication Publication Date Title
US9454807B2 (en) Methods and systems for denoising images
US10740912B2 (en) Detection of humans in images using depth information
US11445214B2 (en) Determining variance of a block of an image based on a motion vector for the block
CN108112271B (en) Method and computer readable device for detecting motion in an image
JP2018501675A (en) Feature calculation in sensor element array
US20240029273A1 (en) Information processing apparatus, control method, and program
US12154276B1 (en) Automatic image cropping systems and methods
CN110852233A (en) Hand-off steering wheel detection and training method, terminal, device, medium, and system
KR20170109898A (en) Apparatus and method for extracting object
US20210082127A1 (en) Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity
US10062002B2 (en) Technologies for determining local differentiating color for image feature detectors
CN113439227A (en) Capturing and storing magnified images
US20240320971A1 (en) Pre-processing image frames based on camera statistics
CN115190226B (en) Parameter adjustment method, neural network model training method and related device
CN108574796A (en) Digital camera method and apparatus optimized for computer vision applications
US9756220B2 (en) Image data generating apparatus, printer, image data generating method, and non-transitory computer readable medium for extracting one or more pixels corresponding to a metallic-color region
WO2015010559A1 (en) Devices, terminals and methods for image processing
JP2016538630A (en) A method for determining local discriminant colors for image feature detectors
JP2014197342A (en) Object position detection device, object position detection method and program
JP2010198476A (en) Defect detecting apparatus, defect detecting method and defect detecting program
US12340487B2 (en) Learning based discrete cosine noise filter
US20190206089A1 (en) Backdrop color detection
US20210325657A1 (en) Digital imaging device and method for generating a digital color image
CN110009627B (en) Method and apparatus for processing image
CN114004809A (en) Skin image processing method, device, electronic equipment and medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180109