JP7070157B2 - Image processing program, image processing device and image processing method - Google Patents
Image processing program, image processing device and image processing method Download PDFInfo
- Publication number
- JP7070157B2 JP7070157B2 JP2018124232A JP2018124232A JP7070157B2 JP 7070157 B2 JP7070157 B2 JP 7070157B2 JP 2018124232 A JP2018124232 A JP 2018124232A JP 2018124232 A JP2018124232 A JP 2018124232A JP 7070157 B2 JP7070157 B2 JP 7070157B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- target
- neural network
- image processing
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、画像処理プログラム、画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing program, an image processing apparatus, and an image processing method.
従来より、所定の被写体を抽出対象として、撮影画像から画素領域を抽出する背景差分技術が知られている。背景差分技術とは、抽出対象を含む撮影画像である入力画像と、抽出対象を含まない撮影画像である背景画像との差分をとることで、抽出対象の画素領域を抽出する技術である。背景差分技術を適用した場合、抽出対象の画素領域を抽出できる一方で、抽出対象に付随する抽出対象以外の画素領域(例えば、被写体の影等)も抽出されることになる。 Conventionally, there has been known a background subtraction technique for extracting a pixel region from a captured image with a predetermined subject as an extraction target. The background subtraction technique is a technique for extracting a pixel region to be extracted by taking a difference between an input image which is a captured image including an extraction target and a background image which is a captured image not including an extraction target. When the background subtraction technique is applied, the pixel region to be extracted can be extracted, while the pixel region other than the extraction target associated with the extraction target (for example, the shadow of the subject) is also extracted.
これに対して、例えば、下記特許文献では、抽出対象となる被写体と、該被写体の影とのテクスチャ成分(交流成分)の差に着目して背景差分技術を適用することで、被写体の影を除外した画素領域を抽出する抽出方法が提案されている。 On the other hand, for example, in the following patent documents, the shadow of a subject is obtained by applying the background subtraction technique focusing on the difference between the subject to be extracted and the shadow of the subject and the texture component (alternating current component). An extraction method for extracting the excluded pixel area has been proposed.
しかしながら、上記抽出方法の場合、例えば、抽出対象となる被写体のうちテクスチャ成分が小さい領域は、該被写体の影と同様に除外されるなど、抽出対象となる被写体の画素領域を適切に(過不足なく)抽出することができないという問題がある。 However, in the case of the above extraction method, for example, a region having a small texture component among the subjects to be extracted is excluded in the same manner as the shadow of the subject, and the pixel region of the subject to be extracted is appropriately (excess or deficient). There is a problem that it cannot be extracted.
一つの側面では、画像から抽出対象の画素領域を抽出する抽出精度を向上させることを目的としている。 One aspect is to improve the extraction accuracy of extracting the pixel region to be extracted from the image.
一態様によれば、画像処理プログラムは、
抽出対象を含む第1の画像と、抽出対象を含まない第2の画像とを取得し、
抽出対象を含む複数の識別対象を識別するように学習されたニューラルネットワークに、前記第1の画像と前記第2の画像とをそれぞれ入力し、該ニューラルネットワークの複数の層のうちの所定の層から、前記第1の画像に対応する第1の中間画像と、前記第2の画像に対応する第2の中間画像とを取得し、
前記第1の中間画像と、前記第2の中間画像との差分に基づき、抽出対象の画素領域を抽出する、
処理をコンピュータに実行させる。
According to one aspect, the image processing program
The first image including the extraction target and the second image not including the extraction target are acquired, and the image is obtained.
The first image and the second image are input to a neural network trained to identify a plurality of identification targets including an extraction target, and a predetermined layer among the plurality of layers of the neural network is input. From, the first intermediate image corresponding to the first image and the second intermediate image corresponding to the second image are acquired.
The pixel region to be extracted is extracted based on the difference between the first intermediate image and the second intermediate image.
Let the computer perform the process.
画像から抽出対象の画素領域を抽出する抽出精度を向上させることができる。 It is possible to improve the extraction accuracy of extracting the pixel area to be extracted from the image.
以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。 Hereinafter, each embodiment will be described with reference to the attached drawings. In the present specification and the drawings, the components having substantially the same functional configuration are designated by the same reference numerals, and duplicate description thereof will be omitted.
[第1の実施形態]
<画像処理システムのシステム構成及び画像処理装置の機能構成>
はじめに、画像処理システムのシステム構成及び画像処理装置の機能構成について説明する。図1は、画像処理システムのシステム構成及び画像処理装置の機能構成の一例を示す図である。
[First Embodiment]
<System configuration of image processing system and functional configuration of image processing device>
First, the system configuration of the image processing system and the functional configuration of the image processing device will be described. FIG. 1 is a diagram showing an example of a system configuration of an image processing system and a functional configuration of an image processing device.
図1に示すように、画像処理システム100は、撮像装置110と、画像処理装置120と、学習用画像情報格納部130とを有する。撮像装置110と画像処理装置120とは、通信可能に接続される。同様に、画像処理装置120と学習用画像情報格納部130とは、通信可能に接続される。
As shown in FIG. 1, the
撮像装置110は、所定の位置に設置され、固定した撮影方向で撮影を行い、撮影した画像(撮影画像)を画像処理装置120に送信する。撮像装置110により送信される撮影画像には、
・抽出対象を含むか否かを画像処理装置120が判定する「第1画像」(いわゆる入力画像)と、
・第1画像を撮影した際の撮影条件と同じ撮影条件のもとで、異なるタイミングで撮影された、抽出対象を含まない「第2画像」(いわゆる背景画像)と、
が含まれる。
The
A "first image" (so-called input image) in which the
-A "second image" (so-called background image) that does not include the extraction target and was shot at different timings under the same shooting conditions as when the first image was shot.
Is included.
なお、抽出対象とは、撮像装置110により撮影される被写体のうち、画像処理システム100の管理者が指定した被写体であって、撮影中に変化する被写体(一般的には、動物体)を指すものとする。
The extraction target refers to a subject (generally an animal body) that is a subject designated by the administrator of the
画像処理装置120には、画像処理プログラムがインストールされており、当該プログラムが実行されることで、画像処理装置120は、取得部の一例である第1画像取得部121及び第2画像取得部122として機能する。また、画像処理装置120は、識別部の一例である物体識別部123及び中間画像取得部124として機能する。更に、画像処理装置120は、抽出部の一例である領域抽出部125として機能する。
An image processing program is installed in the
第1画像取得部121は、撮像装置110より送信される第1画像を取得する。第1画像取得部121は、取得した第1画像を物体識別部123及び領域抽出部125に通知する。
The first
第2画像取得部122は、撮像装置110より送信される第2画像を取得する。第2画像取得部122は、取得した第2画像を物体識別部123に通知する。
The second
物体識別部123は、学習用画像情報格納部130に格納された学習用画像情報を読み出し、ニューラルネットワークを学習させる機能と、第1画像及び第2画像を入力し、学習済みのニューラルネットワークを実行させる機能とを有する。
The
中間画像取得部124は、第1画像及び第2画像を入力することで、物体識別部123が、学習済みのニューラルネットワークを実行させることで、所定の層から出力される中間画像を取得する。
The intermediate
物体識別部123が、第1画像を入力することで、学習済みのニューラルネットワークを実行させた場合、中間画像取得部124は、所定の層から出力される第1中間画像を取得する。
When the
また、物体識別部123が、第2画像を入力することで、学習済みのニューラルネットワークを実行させた場合、中間画像取得部124は、所定の層から出力される第2中間画像を取得する。
Further, when the
中間画像取得部124は、取得した第1中間画像及び第2中間画像を領域抽出部125に通知する。
The intermediate
領域抽出部125は、中間画像取得部124から通知された第1中間画像及び第2中間画像を用いて、第1画像取得部121から通知された第1画像において、抽出対象の画素領域を抽出する。なお、第1の実施形態において、“抽出対象の画素領域を抽出する”とは、抽出対象の画素領域を、第1画像から切り出すことのほか、抽出対象の画素領域の各画素の座標を、第1画像において特定することも含まれるものとする。
The
学習用画像情報格納部130は、物体識別部123がニューラルネットワークを学習させる際に用いる、学習用画像情報を格納する。
The learning image
なお、上記説明では、物体識別部123が、ニューラルネットワークを学習させる機能と、学習済みのニューラルネットワークを実行させる機能の両方を有するものとした。しかしながら、物体識別部123は、少なくとも学習済みのニューラルネットワークを実行させる機能を有していれば足り、ニューラルネットワークを学習させる機能は、他の装置が有していてもよい。この場合、画像処理装置120は、学習用画像情報格納部130と通信可能に接続されている必要はなく、他の装置が、学習用画像情報を用いて学習させた学習済みのニューラルネットワークまたはニューラルネットワークの重みを取得する機能を有していればよい。
In the above description, it is assumed that the
<画像処理装置のハードウェア構成>
次に、画像処理装置120のハードウェア構成について説明する。図2は、画像処理装置のハードウェア構成の一例を示す図である。図2に示すように、画像処理装置120は、CPU(Central Processing Unit)201、ROM(Read Only
Memory)202、RAM(Random Access Memory)203を有する。CPU201、ROM202、RAM203は、いわゆるコンピュータを形成する。
<Hardware configuration of image processing device>
Next, the hardware configuration of the
It has a Memory) 202 and a RAM (Random Access Memory) 203. The
また、画像処理装置120は、補助記憶装置204、表示装置205、操作装置206、I/F(Interface)装置207、ドライブ装置208を有する。なお、画像処理装置120の各ハードウェアは、バス209を介して相互に接続されている。
Further, the
CPU201は、補助記憶装置204にインストールされている各種プログラム(例えば、画像処理プログラム等)を実行する演算デバイスである。
The
ROM202は、不揮発性メモリである。ROM202は、補助記憶装置204にインストールされている各種プログラムをCPU201が実行するために必要な各種プログラム、データ等を格納する主記憶デバイスとして機能する。具体的には、ROM202はBIOS(Basic Input/Output System)やEFI(Extensible
Firmware Interface)等のブートプログラム等を格納する、主記憶デバイスとして機能する。
It functions as a main memory device that stores boot programs such as Firmware Interface).
RAM203は、DRAM(Dynamic Random Access Memory)やSRAM(Static
Random Access Memory)等の揮発性メモリである。RAM203は、補助記憶装置204にインストールされている各種プログラムがCPU201によって実行される際に展開される作業領域を提供する、主記憶デバイスとして機能する。
Random Access Memory) and other volatile memories. The
補助記憶装置204は、各種プログラムや、各種プログラムが実行される際に用いられる情報を格納する補助記憶デバイスである。
The
表示装置205は、画像処理装置120の内部状態を表示する表示デバイスである。操作装置206は、画像処理装置120の管理者が画像処理装置120に対して各種指示を入力するための入力デバイスである。
The
I/F装置207は、撮像装置110と接続され、撮像装置110と画像処理装置120との間で撮影画像の送受信を行う。また、I/F装置207は、学習用画像情報格納部130と接続され、画像処理装置120と学習用画像情報格納部130との間で、学習用画像情報の送受信を行う。
The I /
ドライブ装置208は記録媒体210をセットするためのデバイスである。ここでいう記録媒体210には、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体210には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。
The
なお、補助記憶装置204にインストールされる各種プログラムは、例えば、配布された記録媒体210がドライブ装置208にセットされ、該記録媒体210に記録された各種プログラムがドライブ装置208により読み出されることでインストールされる。あるいは、補助記憶装置204にインストールされる各種プログラムは、ネットワークよりダウンロードされることでインストールされてもよい。
The various programs installed in the
<学習用画像情報の具体例>
次に、学習用画像情報格納部130に格納される学習用画像情報の具体例について説明する。図3は、学習用画像情報の具体例を示す図である。図3に示すように、学習用画像情報300には、情報の項目として、“画像データID”、“ファイル名”、“識別対象”、“格納先”が含まれる。
<Specific example of image information for learning>
Next, a specific example of the learning image information stored in the learning image
“画像データID”には、画像データを識別するための識別子が格納される。図1の例は、学習用画像情報格納部130に、N個の画像データが格納されていることを示している。
An identifier for identifying image data is stored in the "image data ID". The example of FIG. 1 shows that N image data are stored in the learning image
“ファイル名”には、画像データのファイル名が格納される。“識別対象”には、各画像データに含まれる一般的な物体(以下、「一般物体」と称す)であって、物体識別部123がニューラルネットワークを学習させる際に、正解となる一般物体を示す情報が格納される。例えば、物体識別部123は、画像データID=“ID001”の画像データをニューラルネットワークに入力した際に、“対象A”と識別されるように、ニューラルネットワークを学習させる。なお、第1の実施形態では、説明を簡略化するために、物体識別部123は4種類の一般物体(“対象A”、“対象B”、“対象C”、“対象D”)を識別するように、ニューラルネットワークを学習させるものとする。
The file name of the image data is stored in the "file name". The "identification target" is a general object (hereinafter referred to as "general object") included in each image data, which is a correct answer when the
“格納先”には、画像データを学習用画像情報格納部130に格納した格納先を示すフォルダ名が格納される。
In the "storage destination", a folder name indicating a storage destination in which the image data is stored in the learning image
なお、図3に示す学習用画像情報300の場合、各画像データが、いずれかの識別対象を含むものとして示されているが、学習用画像情報300の各画像データには、識別対象を含まない画像データが含まれていてもよい。また、学習用画像情報300の各画像データには、非識別対象(識別対象以外の一般物体)を含む画像データが含まれていてもよい。
In the case of the
また、図3に示す学習用画像情報300の各画像データには、抽出対象を含む画像データが含まれている必要があるが、抽出対象を含まない画像データが含まれていてもよい。更に、学習用画像情報300の各画像データには、非抽出対象(撮像装置110により撮影される被写体のうち、抽出対象以外の被写体)を含む画像データが含まれていてもよい。
Further, each image data of the
<第1画像及び第2画像の具体例>
次に、第1画像取得部121により取得される第1画像と、第2画像取得部122により取得される第2画像の具体例について説明する。
<Specific examples of the first image and the second image>
Next, specific examples of the first image acquired by the first
(1)第1画像の具体例
図4は、第1画像取得部により取得される第1画像の具体例を示す図である。図4に示すように、入力画像の具体例である第1画像400は、一般物体を複数含む。図4の例は、第1画像400が、一般物体として、“対象A”、“対象F”、“対象G”、“対象H”を含むことを示している。
(1) Specific Example of First Image FIG. 4 is a diagram showing a specific example of the first image acquired by the first image acquisition unit. As shown in FIG. 4, the
なお、上述したとおり、第1画像400が含む一般物体のうち、“対象A”は、物体識別部123が学習済みのニューラルネットワークを実行させる際に、識別対象となる一般物体である。また、第1の実施形態において、“対象A”は、領域抽出部125が抽出する抽出対象となる一般物体でもある。一方、第1画像400が含む一般物体のうち、“対象F”、“対象G”、“対象H”は、物体識別部123が学習済みのニューラルネットワークを実行させる際に非識別対象となる一般物体であり、領域抽出部125が抽出しない非抽出対象の一般物体でもある。
As described above, among the general objects included in the
(2)第2画像の具体例
図5は、第2画像取得部により取得される第2画像の具体例を示す図である。図5に示すように、背景画像の具体例である第2画像500は、一般物体を複数含む。図5の例は、第2画像500が、一般物体として、“対象F”、“対象I”を含むことを示している。
(2) Specific Example of Second Image FIG. 5 is a diagram showing a specific example of the second image acquired by the second image acquisition unit. As shown in FIG. 5, the
第2画像500が含む一般物体(“対象F”、“対象I”)は、いずれも、物体識別部123が学習済みのニューラルネットワークを実行させる際に非識別対象となる一般物体であり、領域抽出部125が抽出しない非抽出対象の一般物体でもある。このように、第2画像500は、抽出対象となる一般物体を含まない。
The general objects (“object F” and “object I”) included in the
なお、第1画像400が、識別対象となる一般物体であって、非抽出対象となる一般物体(“対象B”、“対象C”、“対象D”)を含む場合には、第2画像500も、当該一般物体(“対象B”、“対象C”、“対象D”)を含むことが必要となる。
When the
<物体識別部による処理の具体例>
次に、物体識別部123による処理の具体例として、学習用画像情報を読み出し、一般物体を識別するためにニューラルネットワークを学習させる処理と、第1画像及び第2画像を入力し、学習済みのニューラルネットワークを実行させる処理と、について説明する。
<Specific example of processing by the object identification unit>
Next, as a specific example of the process by the
(1)ニューラルネットワークを学習させる処理の具体例
はじめに、学習用画像情報を読み出し、一般物体を識別するためにニューラルネットワークを学習させる処理の具体例について説明する。図6は、物体識別部による処理の具体例を示す第1の図である。
(1) Specific Example of Processing for Learning Neural Network First, a specific example of processing for learning an neural network in order to read image information for learning and identify a general object will be described. FIG. 6 is a first diagram showing a specific example of processing by the object identification unit.
図6(a)に示すように、物体識別部123は、第1層から第3層までの各層を有する畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を有し、学習用画像情報300の各画像データが入力される。
As shown in FIG. 6A, the
なお、参考までに、図6(b)に一般的な畳み込みニューラルネットワークの処理を示す図を記載する。第1の実施形態では、説明の簡略化のため、4種類の識別対象を例示しているが、実際には、図6(b)に示すように、1000種類程度の識別対象が取り扱われることになる。 For reference, FIG. 6B shows a diagram showing the processing of a general convolutional neural network. In the first embodiment, four types of identification targets are illustrated for the sake of simplification of the description, but in reality, as shown in FIG. 6B, about 1000 types of identification targets are handled. become.
図6(a)の説明に戻る。上述したとおり、学習用画像情報300の各画像データは、いずれかの識別対象を含む既知の画像データである。図6(a)の例は、学習用画像情報300の各画像データとして、画像データID=“ID001”~“ID00N”のN個の画像データが入力される様子を示している。
Returning to the description of FIG. 6 (a). As described above, each image data of the
また、物体識別部123は、入力されたN個の画像データが含む識別対象が、適切に識別されるよう、畳み込みニューラルネットワークのフィルタ係数を学習させる。図6(a)の例は、“対象A”、“対象B”、“対象C”、“対象D”の4種類の一般物体が識別されるように、フィルタ係数を学習させる様子を示している。
Further, the
畳み込みニューラルネットワークでは、畳み込みにより抽出された局所特徴量が、階層を経るごとに、高次な特徴量へと変換され、最終的に識別結果が得られる。このため、学習された畳み込みニューラルネットワークの各層からは、識別対象の識別に寄与する特徴量を含む画像(特徴マップ)が出力される。 In the convolutional neural network, the local features extracted by the convolution are converted into higher-order features each time the layers are passed, and finally the identification result is obtained. Therefore, an image (feature map) including a feature amount that contributes to the identification of the identification target is output from each layer of the learned convolutional neural network.
具体的には、畳み込みニューラルネットワークの各層から出力される各特徴マップには、識別対象(“対象A”、“対象B”、“対象C”、“対象D”)の識別に寄与する特徴量が含まれている。一方で、畳み込みニューラルネットワークの各層から出力される各特徴マップからは、非識別対象(“対象F”、“対象G”、“対象H”、“対象I”)の識別に寄与する特徴量が排除されている。なお、第1の実施形態では、畳み込みニューラルネットワークの各層から出力される特徴マップの集合を、中間画像と称する。 Specifically, each feature map output from each layer of the convolutional neural network has a feature amount that contributes to the identification of the identification target (“target A”, “target B”, “target C”, “target D”). It is included. On the other hand, from each feature map output from each layer of the convolutional neural network, the features that contribute to the identification of the non-discrimination target (“target F”, “target G”, “target H”, “target I”) are It has been excluded. In the first embodiment, a set of feature maps output from each layer of the convolutional neural network is referred to as an intermediate image.
このように、畳み込みニューラルネットワークの各層からは、識別対象を識別するのに必要な特徴量を含む画像である中間画像が出力される。このため、第1画像から抽出対象の画素領域を抽出するにあたり、領域抽出部125が当該中間画像を利用する場合、物体識別部123が学習させる畳み込みニューラルネットワークは、
・識別対象の中に、抽出対象が含まれていること(抽出対象が非識別対象でないこと)、
・識別対象の中に、抽出対象に付随する非抽出対象等、撮影中に変化する非抽出対象が含まれてないこと、
が条件となる。
In this way, from each layer of the convolutional neural network, an intermediate image which is an image including the feature amount necessary for identifying the identification target is output. Therefore, when the
-The extraction target is included in the identification target (the extraction target is not a non-identification target).
-The identification target does not include the non-extraction target that changes during shooting, such as the non-extraction target that accompanies the extraction target.
Is a condition.
なお、抽出対象に付随する非抽出対象とは、抽出対象となる被写体の影等のように、撮影中の被写体の変化に伴って変化する被写体を指す。 The non-extraction target attached to the extraction target refers to a subject that changes with the change of the subject during shooting, such as a shadow of the subject to be extracted.
図7は、識別対象及び非識別対象と、抽出対象及び非抽出対象との関係を示す図である。このうち、図7(a)は、畳み込みニューラルネットワークの識別対象の集合を示している。図7(a)に示す一般物体を識別対象とする畳み込みニューラルネットワークの場合、中間画像には、“人”、“自動車”、“犬”等を識別するのに寄与する特徴量が含まれる。 FIG. 7 is a diagram showing the relationship between the identification target and the non-discrimination target and the extraction target and the non-extraction target. Of these, FIG. 7A shows a set of identification targets of the convolutional neural network. In the case of the convolutional neural network whose identification target is the general object shown in FIG. 7A, the intermediate image contains a feature amount that contributes to the identification of "person", "automobile", "dog" and the like.
また、図7(a)に示す一般物体を識別対象とする畳み込みニューラルネットワークの場合、中間画像には、“人”、“自動車”、“犬”等以外(非識別対象)を識別するのに寄与する特徴量が含まれない。例えば、中間画像には、“影”を識別するのに寄与する特徴量が含まれない。 Further, in the case of the convolutional neural network whose identification target is the general object shown in FIG. 7A, the intermediate image is used to identify other than "people", "automobiles", "dogs", etc. (non-identification targets). Contributed features are not included. For example, the intermediate image does not contain features that contribute to identifying "shadows".
このため、図7(b)に示すように、第1画像において、抽出対象である“人”と、抽出対象に付随する非抽出対象である“影”とが含まれていた場合、中間画像には、“人”を識別するのに寄与する特徴量が残る。一方、中間画像において、“影”を識別するのに寄与する特徴量は除外されることになる。 Therefore, as shown in FIG. 7B, when the first image includes the “person” that is the extraction target and the “shadow” that is the non-extraction target associated with the extraction target, the intermediate image is an intermediate image. Remains a feature quantity that contributes to distinguishing a "person". On the other hand, in the intermediate image, the feature amount that contributes to distinguishing the "shadow" is excluded.
(2)ニューラルネットワークを実行させる処理の具体例1
次に、学習済みのニューラルネットワークを実行させる処理の具体例1について説明する。図8は、物体識別部による処理の具体例を示す第2の図である。図8において、物体識別部123は、学習済みの畳み込みニューラルネットワークを有し、第1画像取得部121により取得された第1画像が入力される。図8の例は、“対象A”、“対象F”、“対象G”、“対象H”を含む第1画像400が入力される様子を示している。
(2) Specific example of processing for executing a neural network 1
Next, a specific example 1 of the process of executing the trained neural network will be described. FIG. 8 is a second diagram showing a specific example of processing by the object identification unit. In FIG. 8, the
ここで、物体識別部123が有する畳み込みニューラルネットワークは、識別対象として“対象A”、“対象B”、“対象C”、“対象D”が適切に識別されるように学習されている。このため、第1画像400が入力されることで、第1層または第2層において出力される各特徴マップには、“対象A”、“対象B”、“対象C”、“対象D”のいずれかの識別対象の特徴量が含まれる。換言すると、第1層または第2層において出力される各特徴マップにおいて、“対象A”、“対象B”、“対象C”、“対象D”のいずれにも該当しない非識別対象の特徴量は除外される。
Here, the convolutional neural network included in the
第1画像400には、学習済みの畳み込みニューラルネットワークの識別対象である、“対象A”、“対象B”、“対象C”、“対象D”のうち、“対象A”が含まれる。このため、第1層または第2層において出力される各特徴マップには、“対象A”の特徴量が含まれ、“対象A”以外の非識別対象である“対象F”、“対象G”、“対象H”の特徴量は除外される。
The
図8の例は、物体識別部123が、学習済み畳み込みニューラルネットワークを実行させることで、第1層または第2層より、特徴マップの集合である第1中間画像800が出力された様子を示している。なお、第1層または第2層より出力された第1中間画像800は、中間画像取得部124によって取得され、領域抽出部125に通知される。
The example of FIG. 8 shows how the
(3)ニューラルネットワークを実行させる処理の具体例2
次に、学習済みのニューラルネットワークを実行させる処理の具体例2について説明する。図9は、物体識別部による処理の具体例を示す第3の図である。図8との違いは、図9の場合、物体識別部123が、第2画像取得部122により取得された第2画像を入力する点である。なお、図9の例は、物体識別部123が、“対象F”、“対象I”を含む第2画像500を入力する様子を示している。
(3) Specific example 2 of processing for executing a neural network
Next, a specific example 2 of the process of executing the trained neural network will be described. FIG. 9 is a third diagram showing a specific example of processing by the object identification unit. The difference from FIG. 8 is that, in the case of FIG. 9, the
上述したとおり、物体識別部123が有する畳み込みニューラルネットワークは、識別対象として“対象A”、“対象B”、“対象C”、“対象D”が適切に識別されるように学習されている。このため、第2画像500が入力されることで、第1層または第2層において出力される各特徴マップには、“対象A”、“対象B”、“対象C”、“対象D”のいずれかの識別対象の特徴量が含まれる。換言すると、第1層または第2層において出力される各特徴マップにおいて、“対象A”、“対象B”、“対象C”、“対象D”のいずれにも該当しない非識別対象の特徴量は除外される。
As described above, the convolutional neural network included in the
第2画像500には、学習済みの畳み込みニューラルネットワークの識別対象である“対象A”、“対象B”、“対象C”、“対象D”のいずれも含まれていない。このため、第1層または第2層において出力される各特徴マップにおいて、“対象A”、“対象B”、“対象C”、“対象D”のいずれかの特徴量が含まれることはない。また、非識別対象である“対象F”、“対象I”の特徴量は除外される。
The
図9の例は、物体識別部123が、学習済み畳み込みニューラルネットワークを実行させることで、第1層または第2層より、特徴マップの集合である第2中間画像900が出力された様子を示している。なお、第1層または第2層より出力された第2中間画像900は、中間画像取得部124によって取得され、領域抽出部125に通知される。このように、物体識別部123では、第i層から中間画像を取り出した場合、第i+1層以降の処理を実行しない。
The example of FIG. 9 shows how the
<領域抽出部による処理の具体例>
次に、領域抽出部125による処理の具体例について説明する。図10は、領域抽出部による処理の具体例を示す図である。
<Specific example of processing by the area extraction unit>
Next, a specific example of the processing by the
図10(a)に示すように、領域抽出部125は、中間画像取得部124から通知された第1中間画像800及び第2中間画像900を用いて差分画像1010を生成する。第1中間画像800と第2中間画像900の相違点は、第1中間画像800には、識別対象の特徴量が含まれている点である。
As shown in FIG. 10A, the
図10(a)の例の場合、第1中間画像800には、識別対象の“対象A”の特徴量が含まれているため、第1中間画像800と第2中間画像900との差の絶対値を算出することで得られる差分画像1010には、“対象A”の画素領域が含まれる。
In the case of the example of FIG. 10A, since the first
なお、図10(a)の例では、明示していないが、第1中間画像800及び第2中間画像900にそれぞれ含まれる識別対象の特徴量のうち、撮影中に変化しない非抽出対象の特徴量は、差の絶対値を算出することで除外される。
Although not explicitly shown in the example of FIG. 10A, among the feature quantities of the identification target included in the first
第1中間画像800の各画素の画素値をF1(c,x,y)、第2中間画像900の各画素の画素値をF2(c,x,y)とすると、差分画像1010は、|F1(c,x,y)-F2(c,x,y)|と表すことができる。cは、複数の特徴マップのいずれかを示し、x、yは各画素の座標を示している。
Assuming that the pixel value of each pixel of the first
なお、第1中間画像800及び第2中間画像900が、例えば、n個の特徴マップが含まれるとすると、n個の差分画像が生成される。このため、領域抽出部125は、それらの差分画像を加算することで、差分画像1010が生成される。つまり、差分画像1010の各画素の画素値は、
If the first
領域抽出部125は、差分画像1010において、“対象A”の画素領域の各画素の画素値を、“1”とおき、差分画像1010において、“対象A”の画素領域以外の各画素の画素値を“0”とおく(つまり、抽出対象の画素領域の各画素の座標を特定する)。
The
また、図10(b)に示すように、領域抽出部125は、第1画像取得部121より通知された第1画像400に、差分画像1010をかけ合わせることで、抽出画像1020を生成する。上述したとおり、差分画像1010において、“対象A”の画素領域の各画素の画素値は、“1”であり、“対象A”の画素領域以外の各画素の画素値は、“0”である。このため、第1画像400に差分画像1010をかけあわせることで、領域抽出部125は、第1画像400の“対象A”の画素領域が含まれる抽出画像1020を生成することができる(つまり、抽出対象の画素領域を切り出すことができる)。
Further, as shown in FIG. 10B, the
<画像処理の流れ>
次に、画像処理装置120による画像処理(ニューラルネットワークを実行させる処理)の流れについて説明する。図11は、画像処理装置による画像処理の流れを示すフローチャートである。
<Flow of image processing>
Next, the flow of image processing (processing for executing a neural network) by the
ステップS1101において、第1画像取得部121は、撮像装置110より送信される第1画像を取得する。
In step S1101, the first
ステップS1102において、第1画像取得部121は、取得した第1画像を、物体識別部123に入力する。
In step S1102, the first
ステップS1103において、物体識別部123は、学習済みの畳み込みニューラルネットワークを実行させることで、第1層または第2層より第1中間画像を出力し、中間画像取得部124は、出力された第1中間画像を取得する。
In step S1103, the
ステップS1104において、第2画像取得部122は、撮像装置110より送信される第2画像を取得する。
In step S1104, the second
ステップS1105において、第2画像取得部122は、取得した第2画像を、物体識別部123に入力する。
In step S1105, the second
ステップS1106において、物体識別部123は、学習済みの畳み込みニューラルネットワークを実行させることで、第1層または第2層より第2中間画像を出力し、中間画像取得部124は、出力された第2中間画像を取得する。
In step S1106, the
ステップS1107において、領域抽出部125は、第1中間画像と第2中間画像との差分を算出することで、差分画像を生成する。
In step S1107, the
ステップS1108において、領域抽出部125は、第1画像に差分画像をかけ合わせることで、抽出画像を生成する。
In step S1108, the
<一般的な画像処理との違い>
次に、画像処理装置120により実行される上記画像処理(図11)と、一般的な画像処理との違いについて説明する。
<Differences from general image processing>
Next, the difference between the image processing (FIG. 11) executed by the
(1)一般的な画像処理その1(画像のテクスチャ成分について背景差分技術を適用する画像処理)との違い
画像のテクスチャ成分について背景差分技術を適用する画像処理の場合、抽出対象となる被写体のうちテクスチャ成分が小さい領域は除外される。この結果、抽出対象の輪郭線のみが抽出され、輪郭線の内側の画素領域を抽出することができない。
(1) Differences from general image processing No. 1 (image processing that applies background subtraction technology to image texture components) In the case of image processing that applies background subtraction technology to image texture components, the subject to be extracted Areas with a small texture component are excluded. As a result, only the contour line to be extracted is extracted, and the pixel area inside the contour line cannot be extracted.
これに対して、画像処理装置120による画像処理によれば、抽出対象となる被写体のうち、テクスチャ成分が小さい領域についても画素領域を抽出することができる。また、抽出対象に付随する被写体の影の画素領域が抽出されることもない。
On the other hand, according to the image processing by the
(2)一般的な画像処理その2(ニューラルネットワークを用いた識別処理)との違い
ニューラルネットワークを用いた識別処理の場合、第1画像を入力して学習済みのニューラルネットワークを実行させることで、第1画像が、抽出対象を含むか否かを判定することはできる。しかしながら、ニューラルネットワークを用いた識別処理の場合、第1画像から抽出対象となる被写体の画素領域を抽出することまではできない。
(2) Difference from general image processing 2 (discrimination process using neural network) In the case of discrimination process using neural network, the first image is input and the trained neural network is executed. It is possible to determine whether or not the first image includes an extraction target. However, in the case of the identification process using the neural network, it is not possible to extract the pixel region of the subject to be extracted from the first image.
これに対して、画像処理装置120による画像処理によれば、第1画像から抽出対象となる被写体の画素領域を過不足なく抽出することができる。
On the other hand, according to the image processing by the
<画像処理システムの適用例>
次に、画像処理システム100の適用例について説明する。
<Application example of image processing system>
Next, an application example of the
(1)適用例1
図12は、画像処理システムの適用例を示す第1の図である。図12に示すように、画像処理システム100を、自由視点映像生成装置1210に接続することで、自由視点映像生成システム1200を形成することができる。
(1) Application example 1
FIG. 12 is a first diagram showing an application example of an image processing system. As shown in FIG. 12, by connecting the
なお、自由視点映像生成システム1200を形成するにあたり、画像処理装置120には、複数の撮像装置(撮像装置110に加えて、撮像装置1220_1~1220_m)が接続され、識別対象の1つである被写体1230を異なる方向から撮影するものとする。また、複数の撮像装置それぞれから出力される画像データに対しては、同様の画像処理が施され、領域抽出部125では、被写体1230の画素領域(撮像装置の数に応じた数の画素領域であって、いずれも影を含まない画素領域)が抽出されるものとする。
In forming the free viewpoint
図12に示すように、自由視点映像生成装置1210は、VisualHull部1211、レンダリング部1212、出力部1213を有する。
As shown in FIG. 12, the free viewpoint
VisualHull部1211は、領域抽出部125にて抽出された、被写体1230の画素領域(撮像装置の数に応じた数の画素領域)を用いて、被写体1230の3次元構造を復元する。
The
レンダリング部1212は、VisualHull部1211において復元された3次元構造を用いて、任意の視点からの映像をレンダリングする。
The
出力部1213は、レンダリング部1212によりレンダリングされた任意の視点からの映像のうち、指示された視点からの映像を出力する。
The
このように、画像処理システム100を、自由視点映像生成装置1210に接続して自由視点映像生成システム1200を形成することで、被写体1230の任意視点の映像を適切に(過不足なく)出力することが可能となる。
In this way, by connecting the
(2)適用例2
図13は、画像処理システムの適用例を示す第2の図である。図13に示すように、画像処理システム100を、映像監視装置1310に接続することで、映像監視システム1300を形成することができる。
(2) Application example 2
FIG. 13 is a second diagram showing an application example of the image processing system. As shown in FIG. 13, by connecting the
また、図13に示すように、映像監視装置1310は、判定部1311を有する。判定部1311は、領域抽出部125にて抽出された抽出対象の画素領域に含まれる画素数をカウントし、画素数が所定の閾値以上であった場合に、不審者または不審物であると判定し、メッセージを出力する。
Further, as shown in FIG. 13, the
このように、画像処理システム100を、映像監視装置1310に接続して映像監視システム1300を形成することで、不審者または不審物の画素領域を適切に(過不足なく)判定することが可能となる。
In this way, by connecting the
以上の説明から明らかなように、第1の実施形態に係る画像処理装置120は、抽出対象を含む第1画像と、抽出対象を含まない第2画像とを取得し、抽出対象を含む複数の識別対象を識別するように学習されたニューラルネットワークに入力する。
As is clear from the above description, the
また、第1の実施形態に係る画像処理装置120は、ニューラルネットワークの所定の層から、第1画像に対応する第1中間画像と、第2画像に対応する第2中間画像とを取得する。更に、第1の実施形態に係る画像処理装置120は、第1中間画像と第2中間画像との差分から得られる差分画像を、第1画像にかけ合わせることで、第1画像から、抽出対象の画素領域を抽出する。
Further, the
これにより、第1の実施形態に係る画像処理装置120によれば、画像から抽出対象の画素領域を適切に(過不足なく)抽出することが可能となる。つまり、抽出対象の画素領域を抽出する抽出精度を向上させることができる。
As a result, according to the
[第2の実施形態]
上記第1の実施形態では、第1画像及び第2画像を取得するタイミングについて特に言及しなかったが、例えば、第2画像は、第1画像を取得する直前または直後に取得することが望ましい。天候や時間帯等、周囲環境が同じ条件のもとで、差分画像を生成することで、抽出対象の画素領域を抽出する抽出精度をより向上させることができるからである。つまり、上記第1の実施形態において記載した“撮影条件”には、撮像装置110側の条件に加え、撮像装置110の周囲環境の条件も含まれるものとする。
[Second Embodiment]
In the first embodiment, the timing of acquiring the first image and the second image is not particularly mentioned, but for example, it is desirable that the second image is acquired immediately before or immediately after the acquisition of the first image. This is because the extraction accuracy of extracting the pixel region to be extracted can be further improved by generating the difference image under the same conditions such as the weather and the time zone in the surrounding environment. That is, the "shooting conditions" described in the first embodiment include the conditions of the surrounding environment of the
また、上記第1の実施形態では、第1画像取得部121及び第2画像取得部122が、撮像装置110から、直接、第1画像及び第2画像を取得するものとして説明した。しかしながら、第1画像取得部121及び第2画像取得部122は、撮像装置110から送信された画像データが格納される格納先から、第1画像及び第2画像を取得してもよい。また、第1画像取得部121及び第2画像取得部122は、第1画像及び第2画像を取得する際、ノイズ除去処理や色補正処理等の各種前処理を行ってもよい。
Further, in the first embodiment, the first
また、上記第1の実施形態では、第1画像に対応する第1中間画像と、第2画像に対応する第2中間画像とを、同じ層から取得するものとして説明したが、異なる層から取得してもよい。ただし、異なる層から取得する場合、各種補間処理を行うことで、中間画像を拡大する処理が行われるものとする。 Further, in the first embodiment, the first intermediate image corresponding to the first image and the second intermediate image corresponding to the second image have been described as being acquired from the same layer, but they are acquired from different layers. You may. However, when acquiring from different layers, it is assumed that the intermediate image is enlarged by performing various interpolation processes.
また、上記第1の実施形態では、差分画像を生成するにあたり、第1中間画像と第2中間画像の差の絶対値を加算するものとして説明したが、第1中間画像と第2中間画像の差の2乗を加算してもよい。 Further, in the first embodiment, when the difference image is generated, the absolute value of the difference between the first intermediate image and the second intermediate image is added, but the first intermediate image and the second intermediate image are described as being added. The square of the difference may be added.
また、上記第1の実施形態では、差分画像を生成するにあたり、第1中間画像に含まれる複数の特徴マップと第2中間画像に含まれる複数の特徴マップを全て用いるものとして説明したが、複数の特徴マップの一部を用いて差分画像を生成するようにしてもよい。 Further, in the first embodiment, in generating the difference image, the plurality of feature maps included in the first intermediate image and the plurality of feature maps included in the second intermediate image are all used. The difference image may be generated by using a part of the feature map of.
なお、開示の技術では、以下に記載する付記のような形態が考えられる。
(付記1)
抽出対象を含む第1の画像と、抽出対象を含まない第2の画像とを取得し、
抽出対象を含む複数の識別対象を識別するように学習されたニューラルネットワークに、前記第1の画像と前記第2の画像とをそれぞれ入力し、該ニューラルネットワークの複数の層のうちの所定の層から、前記第1の画像に対応する第1の中間画像と、前記第2の画像に対応する第2の中間画像とを取得し、
前記第1の中間画像と、前記第2の中間画像との差分に基づき、抽出対象の画素領域を抽出する、
処理をコンピュータに実行させるための画像処理プログラム。
(付記2)
前記第1の中間画像と、前記第2の中間画像との差分を算出することで、差分画像を生成し、前記第1の画像に前記差分画像をかけ合わせることで、前記第1の画像において前記抽出対象の画素領域を抽出することを特徴とする付記1に記載の画像処理プログラム。
(付記3)
前記第1の中間画像に含まれる複数の特徴マップと、前記第2の中間画像に含まれる複数の特徴マップそれぞれの差の絶対値を加算することで、前記差分画像を生成することを特徴とする付記2に記載の画像処理プログラム。
(付記4)
前記第1の画像と前記第2の画像は、同じ位置に設置された撮像装置が、同じ撮影条件のもとで異なるタイミングで撮影した画像であることを特徴とする付記1乃至3のいずれかの付記に記載の画像処理プログラム。
(付記5)
前記複数の識別対象は、前記抽出対象に付随する非抽出対象を含まないことを特徴とする付記1乃至4のいずれかの付記に記載の画像処理プログラム。
(付記6)
前記第1の画像が、前記複数の識別対象のうちのいずれかの識別対象であって、かつ、非抽出対象である物体を含む場合、該物体を含む前記第2の画像を取得することを特徴とする付記5に記載の画像処理プログラム。
(付記7)
抽出対象を含む第1の画像と、抽出対象を含まない第2の画像とを取得する取得部と、
抽出対象を含む複数の識別対象を識別するように学習されたニューラルネットワークに、前記第1の画像と前記第2の画像とをそれぞれ入力し、該ニューラルネットワークの複数の層のうちの所定の層から、前記第1の画像に対応する第1の中間画像と、前記第2の画像に対応する第2の中間画像とを取得する識別部と、
前記第1の中間画像と、前記第2の中間画像との差分に基づき、抽出対象の画素領域を抽出する抽出部と
を有することを特徴とする画像処理装置。
(付記8)
抽出対象を含む第1の画像と、抽出対象を含まない第2の画像とを取得し、
抽出対象を含む複数の識別対象を識別するように学習されたニューラルネットワークに、前記第1の画像と前記第2の画像とをそれぞれ入力し、該ニューラルネットワークの複数の層のうちの所定の層から、前記第1の画像に対応する第1の中間画像と、前記第2の画像に対応する第2の中間画像とを取得し、
前記第1の中間画像と、前記第2の中間画像との差分に基づき、抽出対象の画素領域を抽出する、
処理をコンピュータが実行する画像処理方法。
It should be noted that the disclosed technique may have the form described in the appendix below.
(Appendix 1)
The first image including the extraction target and the second image not including the extraction target are acquired, and the image is obtained.
The first image and the second image are input to a neural network trained to identify a plurality of identification targets including an extraction target, and a predetermined layer among the plurality of layers of the neural network is input. From, the first intermediate image corresponding to the first image and the second intermediate image corresponding to the second image are acquired.
The pixel region to be extracted is extracted based on the difference between the first intermediate image and the second intermediate image.
An image processing program that allows a computer to perform processing.
(Appendix 2)
A difference image is generated by calculating the difference between the first intermediate image and the second intermediate image, and the difference image is multiplied by the first image to obtain the first image. The image processing program according to Appendix 1, wherein the pixel region to be extracted is extracted.
(Appendix 3)
The feature is that the difference image is generated by adding the absolute values of the differences between the plurality of feature maps included in the first intermediate image and the plurality of feature maps included in the second intermediate image. The image processing program according to Appendix 2.
(Appendix 4)
The first image and the second image are any of the appendices 1 to 3 characterized in that the image pickup devices installed at the same position are images taken at different timings under the same shooting conditions. The image processing program described in the appendix of.
(Appendix 5)
The image processing program according to any one of Supplementary Provisions 1 to 4, wherein the plurality of identification targets do not include a non-extraction target associated with the extraction target.
(Appendix 6)
When the first image is an identification target of any of the plurality of identification targets and includes an object that is not an extraction target, the second image including the object is acquired. The image processing program according to Appendix 5, which is a feature.
(Appendix 7)
An acquisition unit that acquires a first image that includes an extraction target and a second image that does not include an extraction target.
The first image and the second image are input to a neural network trained to identify a plurality of identification targets including an extraction target, and a predetermined layer among the plurality of layers of the neural network is input. From the identification unit for acquiring the first intermediate image corresponding to the first image and the second intermediate image corresponding to the second image.
An image processing apparatus comprising: an extraction unit for extracting a pixel region to be extracted based on a difference between the first intermediate image and the second intermediate image.
(Appendix 8)
The first image including the extraction target and the second image not including the extraction target are acquired, and the image is obtained.
The first image and the second image are input to a neural network trained to identify a plurality of identification targets including an extraction target, and a predetermined layer among the plurality of layers of the neural network is input. From, the first intermediate image corresponding to the first image and the second intermediate image corresponding to the second image are acquired.
The pixel region to be extracted is extracted based on the difference between the first intermediate image and the second intermediate image.
An image processing method in which a computer performs processing.
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。 The present invention is not limited to the configurations shown here, such as combinations with other elements in the configurations and the like described in the above embodiments. These points can be changed without departing from the spirit of the present invention, and can be appropriately determined according to the application form thereof.
100 :画像処理システム
110 :撮像装置
120 :画像処理装置
121 :第1画像取得部
122 :第2画像取得部
123 :物体識別部
124 :中間画像取得部
125 :領域抽出部
300 :学習用画像情報
400 :第1画像
500 :第2画像
800 :第1中間画像
900 :第2中間画像
1010 :差分画像
1020 :抽出画像
1200 :自由視点映像生成システム
1210 :自由視点映像生成装置
1220_1~1220_m :撮像装置
1230 :被写体
1300 :映像監視システム
1310 :映像監視装置
1311 :判定部
100: Image processing system 110: Image pickup device 120: Image processing device 121: First image acquisition unit 122: Second image acquisition unit 123: Object identification unit 124: Intermediate image acquisition unit 125: Area extraction unit 300: Learning image information 400: First image 500: Second image 800: First intermediate image 900: Second intermediate image 1010: Difference image 1020: Extracted image 1200: Free viewpoint image generation system 1210: Free viewpoint image generation device 1220_1 to 1220_m: Image pickup device 1230: Subject 1300: Image monitoring system 1310: Image monitoring device 1311: Judgment unit
Claims (5)
抽出対象を含む複数の識別対象を識別するように学習されたニューラルネットワークに、前記第1の画像と前記第2の画像とをそれぞれ入力し、該ニューラルネットワークの複数の層のうちの所定の層から、前記第1の画像に対応する第1の中間画像と、前記第2の画像に対応する第2の中間画像とを取得し、
前記第1の中間画像と、前記第2の中間画像との差分に基づき、抽出対象の画素領域を抽出する、
処理をコンピュータに実行させるための画像処理プログラム。 The first image including the extraction target and the second image not including the extraction target are acquired, and the image is obtained.
The first image and the second image are input to a neural network trained to identify a plurality of identification targets including an extraction target, and a predetermined layer among the plurality of layers of the neural network is input. From, the first intermediate image corresponding to the first image and the second intermediate image corresponding to the second image are acquired.
The pixel region to be extracted is extracted based on the difference between the first intermediate image and the second intermediate image.
An image processing program that allows a computer to perform processing.
抽出対象を含む複数の識別対象を識別するように学習されたニューラルネットワークに、前記第1の画像と前記第2の画像とをそれぞれ入力し、該ニューラルネットワークの複数の層のうちの所定の層から、前記第1の画像に対応する第1の中間画像と、前記第2の画像に対応する第2の中間画像とを取得する識別部と、
前記第1の中間画像と、前記第2の中間画像との差分に基づき、抽出対象の画素領域を抽出する抽出部と
を有することを特徴とする画像処理装置。 An acquisition unit that acquires a first image that includes an extraction target and a second image that does not include an extraction target.
The first image and the second image are input to a neural network trained to identify a plurality of identification targets including an extraction target, and a predetermined layer among the plurality of layers of the neural network is input. From the identification unit for acquiring the first intermediate image corresponding to the first image and the second intermediate image corresponding to the second image.
An image processing apparatus comprising: an extraction unit for extracting a pixel region to be extracted based on a difference between the first intermediate image and the second intermediate image.
抽出対象を含む複数の識別対象を識別するように学習されたニューラルネットワークに、前記第1の画像と前記第2の画像とをそれぞれ入力し、該ニューラルネットワークの複数の層のうちの所定の層から、前記第1の画像に対応する第1の中間画像と、前記第2の画像に対応する第2の中間画像とを取得し、
前記第1の中間画像と、前記第2の中間画像との差分に基づき、抽出対象の画素領域を抽出する、
処理をコンピュータが実行する画像処理方法。 The first image including the extraction target and the second image not including the extraction target are acquired, and the image is obtained.
The first image and the second image are input to a neural network trained to identify a plurality of identification targets including an extraction target, and a predetermined layer among the plurality of layers of the neural network is input. From, the first intermediate image corresponding to the first image and the second intermediate image corresponding to the second image are acquired.
The pixel region to be extracted is extracted based on the difference between the first intermediate image and the second intermediate image.
An image processing method in which a computer performs processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018124232A JP7070157B2 (en) | 2018-06-29 | 2018-06-29 | Image processing program, image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018124232A JP7070157B2 (en) | 2018-06-29 | 2018-06-29 | Image processing program, image processing device and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020004179A JP2020004179A (en) | 2020-01-09 |
JP7070157B2 true JP7070157B2 (en) | 2022-05-18 |
Family
ID=69100833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018124232A Active JP7070157B2 (en) | 2018-06-29 | 2018-06-29 | Image processing program, image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7070157B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023064439A (en) * | 2021-10-26 | 2023-05-11 | 富士通株式会社 | Learning program, learning method, and information processing apparatus |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018013887A (en) | 2016-07-19 | 2018-01-25 | 日本電信電話株式会社 | Feature selection device, tag relevant area extraction device, method, and program |
WO2018066712A1 (en) | 2016-10-07 | 2018-04-12 | アイシン・エィ・ダブリュ株式会社 | Travel assistance device and computer program |
JP2018081442A (en) | 2016-11-15 | 2018-05-24 | 株式会社Preferred Networks | Learned model generating method and signal data discrimination device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08251405A (en) * | 1995-03-13 | 1996-09-27 | Minolta Co Ltd | Device for discriminating attribute of image area |
-
2018
- 2018-06-29 JP JP2018124232A patent/JP7070157B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018013887A (en) | 2016-07-19 | 2018-01-25 | 日本電信電話株式会社 | Feature selection device, tag relevant area extraction device, method, and program |
WO2018066712A1 (en) | 2016-10-07 | 2018-04-12 | アイシン・エィ・ダブリュ株式会社 | Travel assistance device and computer program |
JP2018081442A (en) | 2016-11-15 | 2018-05-24 | 株式会社Preferred Networks | Learned model generating method and signal data discrimination device |
Also Published As
Publication number | Publication date |
---|---|
JP2020004179A (en) | 2020-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109670474B (en) | Human body posture estimation method, device and equipment based on video | |
CN109376681A (en) | A kind of more people's Attitude estimation method and system | |
JP2018028899A5 (en) | ||
GB2594657A (en) | Damage detection from multi-view visual data | |
CN107221005B (en) | Object detection method and device | |
CN110543823B (en) | Pedestrian re-identification method and device based on residual error network and computer equipment | |
CN112348116B (en) | Target detection method and device using space context and computer equipment | |
JP7070157B2 (en) | Image processing program, image processing device and image processing method | |
CN113744280B (en) | Image processing method, device, equipment and medium | |
CN110880003B (en) | Image matching method and device, storage medium and automobile | |
CN108734712B (en) | Background segmentation method and device and computer storage medium | |
CN111179245B (en) | Image quality detection method, device, electronic equipment and storage medium | |
CN111881996A (en) | Object detection method, computer device and storage medium | |
CN110751163B (en) | Target positioning method and device, computer readable storage medium and electronic equipment | |
KR20210076660A (en) | Method and Apparatus for Stereoscopic Image Quality Assessment Based on Convolutional Neural Network | |
CN111027670A (en) | Feature map processing method and device, electronic equipment and storage medium | |
US20220122341A1 (en) | Target detection method and apparatus, electronic device, and computer storage medium | |
CN111524161B (en) | Method and device for extracting track | |
CN113935958A (en) | Cable bending radius detection method and device | |
WO2020057759A1 (en) | Method and system for processing an image to detect lanes marked on a road | |
US10896333B2 (en) | Method and device for aiding the navigation of a vehicle | |
US20190188512A1 (en) | Method and image processing entity for applying a convolutional neural network to an image | |
WO2024161535A1 (en) | Information processing device, program, information processing system, and information processing method | |
JP7509925B2 (en) | Container Damage Detection System | |
CN113781538B (en) | Image depth information fusion method, system, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220418 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7070157 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |