[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7455574B2 - Image processing method, program, learned model manufacturing method, image processing device, and image processing system - Google Patents

Image processing method, program, learned model manufacturing method, image processing device, and image processing system Download PDF

Info

Publication number
JP7455574B2
JP7455574B2 JP2019233981A JP2019233981A JP7455574B2 JP 7455574 B2 JP7455574 B2 JP 7455574B2 JP 2019233981 A JP2019233981 A JP 2019233981A JP 2019233981 A JP2019233981 A JP 2019233981A JP 7455574 B2 JP7455574 B2 JP 7455574B2
Authority
JP
Japan
Prior art keywords
image
noise
resolution
generating
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019233981A
Other languages
Japanese (ja)
Other versions
JP2021103404A (en
JP2021103404A5 (en
Inventor
良範 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019233981A priority Critical patent/JP7455574B2/en
Publication of JP2021103404A publication Critical patent/JP2021103404A/en
Publication of JP2021103404A5 publication Critical patent/JP2021103404A5/ja
Application granted granted Critical
Publication of JP7455574B2 publication Critical patent/JP7455574B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、機械学習DL(Deep Learning)において、超解像画像処理に伴う画像のノイズレベルの変動を制御することが可能な画像処理方法に関する。 The present invention relates to an image processing method capable of controlling fluctuations in noise level of an image accompanying super-resolution image processing in machine learning DL (Deep Learning).

非特許文献1には、機械学習DLを用いて超解像(Super Resolution)画像処理を行い、低解像度な撮像画像から高解像な画像を得る方法が開示されている。 Non-Patent Document 1 discloses a method of performing super resolution image processing using machine learning DL to obtain a high resolution image from a low resolution captured image.

Xintao Wang、Ke Yu、Shixiang Wu、Jinjin Gu、Yihao Liu、Chao Dong、Chen Change Loy、Yu Qiao、Xiaoou Tang、「ESRGAN: Enhanced Super-Reoslution Generative Adversarial Networks」、arXiv:1809.00219、2018年Xintao Wang, Ke Yu, Shixiang Wu, Jinjin Gu, Yihao Liu, Chao Dong, Chen Change Loy, Yu Qiao, Xiaoou Tang, “ESRGAN: Enhanced Super-R eoslution Generative Adversarial Networks”, arXiv:1809.00219, 2018

しかしながら、非特許文献1に開示された方法では、高解像度化に伴って画像のノイズレベルが変動(増加または減少)する。これは、機械学習DLで学習に用いる訓練画像である高解像度訓練画像と低解像度訓練画像が原因である。すなわち、高解像度訓練画像をダウンサンプリングし低解像度訓練画像を生成すると、それに伴ってノイズが平均化され、低解像度訓練画像のノイズレベルが低下するためである。ここでノイズとは、高解像度訓練画像に含まれるノイズである。 However, in the method disclosed in Non-Patent Document 1, the noise level of the image fluctuates (increases or decreases) as the resolution increases. This is due to the high-resolution training images and low-resolution training images that are training images used for learning in the machine learning DL. That is, when a high-resolution training image is downsampled to generate a low-resolution training image, noise is averaged accordingly, and the noise level of the low-resolution training image is reduced. Here, noise is noise included in high-resolution training images.

ところで、従来、高解像度訓練画像をダウンサンプリングし低解像度訓練画像を生成した後、得られる低解像度訓練画像にノイズを加えることが行われてきた。しかし、高解像度訓練画像が有するノイズと低解像度訓練画像に加えたノイズとの間に相関がない場合、DL超解像画像処理に伴い得られる高解像度画像のノイズレベルが変動する。 By the way, conventionally, after downsampling a high-resolution training image to generate a low-resolution training image, noise is added to the obtained low-resolution training image. However, if there is no correlation between the noise included in the high-resolution training image and the noise added to the low-resolution training image, the noise level of the high-resolution image obtained with DL super-resolution image processing will fluctuate.

そこで本発明は、画像処理に伴う画像のノイズの変動を制御することが可能な画像処理方法等を提供することを目的とする。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide an image processing method and the like that can control fluctuations in image noise accompanying image processing.

本発明の一側面としての画像処理方法は、コンピュータを用いて実行される画像処理方法であって、第1の画像に基づいて、前記第1の画像とはノイズレベルが異なる第2の画像を生成する第1の工程と、前記第1の画像および前記第2の画像に基づいて、前記第1の画像または前記第2の画像に含まれるノイズに関する第3の画像を生成する第2の工程と、前記第1の画像と前記第2の画像の少なくとも一方をダウンサンプリングすることで、第4の画像を生成する第3の工程と、前記第3の画像と前記第4の画像とを重み付け加算することで、第5の画像を生成する第4の工程と、前記第5の画像と前記第1の画像または前記第2の画像とを用いて、ニューラルネットワーク学習を行う第5の工程とを有する。 An image processing method according to an aspect of the present invention is an image processing method executed using a computer, and the method includes processing a second image having a different noise level from the first image based on a first image. a first step of generating, and a second step of generating a third image regarding noise contained in the first image or the second image, based on the first image and the second image. and a third step of generating a fourth image by downsampling at least one of the first image and the second image, and weighting the third image and the fourth image. a fourth step of generating a fifth image by adding; and a fifth step of performing neural network learning using the fifth image and the first image or the second image. and has.

本発明の他の目的及び特徴は、以下の実施例において説明される。 Other objects and features of the invention are illustrated in the following examples.

本発明によれば、画像処理に伴う画像のノイズの変動を制御することが可能な画像処理方法等を提供することができる。 According to the present invention, it is possible to provide an image processing method and the like that can control fluctuations in image noise accompanying image processing.

実施例1におけるニューラルネットワークの学習の流れを示す図である。3 is a diagram showing the flow of learning of a neural network in Example 1. FIG. 実施例1における画像処理システムのブロック図である。1 is a block diagram of an image processing system in Example 1. FIG. 実施例1における画像処理システムの外観図である。1 is an external view of an image processing system in Example 1. FIG. 実施例1におけるウエイトの学習に関するフローチャートである。7 is a flowchart regarding weight learning in Example 1. FIG. 実施例1における出力画像の生成に関するフローチャートである。5 is a flowchart regarding generation of an output image in Example 1. FIG. 実施例2における画像処理システムのブロック図である。3 is a block diagram of an image processing system in Example 2. FIG. 実施例2における画像処理システムの外観図である。3 is an external view of an image processing system in Example 2. FIG. 実施例3における画像処理システムのブロック図である。3 is a block diagram of an image processing system in Example 3. FIG. 実施例3における出力画像の生成に関するフローチャートである。7 is a flowchart regarding generation of an output image in Example 3. 各実施例の概要の説明図である。It is an explanatory diagram of the outline of each example.

以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照符号を付し、重複する説明は省略する。 The following describes in detail an embodiment of the present invention with reference to the drawings. In each drawing, the same components are given the same reference symbols, and duplicate descriptions are omitted.

まず、具体的な説明を行う前に、各実施例の要旨を説明する。各実施例は、DL超解像画像処理(画像の高解像度化)に伴う画像のノイズレベルの変動を抑制する。なお機械学習DLでは、画像処理に多層のニューラルネットワークを使用する。またDL超解像画像処理では、多層のニューラルネットワークで使用するウエイトの学習において、高解像度訓練画像と対応する低解像度訓練画像(から抽出した部分画像であるパッチ)を用いる。ここで、ウエイトとは畳み込みに用いるフィルタ、足し合わせるバイアスなどである。 First, before giving a specific explanation, the gist of each embodiment will be explained. Each embodiment suppresses fluctuations in the noise level of an image due to DL super-resolution image processing (increasing the resolution of an image). Note that machine learning DL uses a multilayer neural network for image processing. Furthermore, in DL super-resolution image processing, a high-resolution training image and a corresponding low-resolution training image (patches that are partial images extracted therefrom) are used in learning weights used in a multilayer neural network. Here, the weights include a filter used for convolution, a bias for addition, and the like.

次に、図10を参照して、各実施例の概要に関して説明する。各実施例では、まず、高解像度訓練画像である第1の画像からノイズを除去(低減)して、第1の画像とノイズレベルが異なる第2の画像を生成する。なお、第1の画像からノイズレベルが異なる第2の画像を生成する方法は、ノイズの除去(低減)に限定されるものではない。その他の方法については、後述する。次に、第1の画像と第2の画像の少なくとも一方をダウンサンプリングし、第4の画像を生成する。ここで、第4の画像は、高解像度訓練画像に対応する低解像度な画像であり、ダウンサンプリングに伴いノイズレベルが低下している。 Next, an overview of each embodiment will be described with reference to FIG. In each example, first, noise is removed (reduced) from a first image, which is a high-resolution training image, to generate a second image having a different noise level from the first image. Note that the method for generating a second image with a different noise level from the first image is not limited to removing (reducing) noise. Other methods will be described later. Next, at least one of the first image and the second image is downsampled to generate a fourth image. Here, the fourth image is a low-resolution image corresponding to the high-resolution training image, and the noise level has decreased due to downsampling.

次に、第1の画像と第2の画像とをダウンサンプリングした後に減算して、第3の画像を生成する。より具体的には、第1の画像と第2の画像とを画素毎にダウンサンプリングした後に減算するか、または、第1の画像と第2の画像とをそれぞれダウンサンプリングした後に画素毎に減算することで、第3の画像を生成する。ここで、第3の画像は、高解像度訓練画像である第1の画像が有するノイズを、ダウンサンプリングした低解像度なノイズ画像である。すなわち第3の画像は、第1の画像または第2の画像に含まれるノイズに関する画像である。なお、第3の画像を生成する方法はこれに限定されるものではない。その他の方法については後述する。 Next, the first image and the second image are downsampled and then subtracted to generate a third image. More specifically, the first image and the second image are downsampled pixel by pixel and then subtracted, or the first image and the second image are respectively downsampled and then subtracted pixel by pixel. By doing so, a third image is generated. Here, the third image is a low-resolution noise image obtained by downsampling the noise included in the first image, which is a high-resolution training image. That is, the third image is an image related to noise contained in the first image or the second image. Note that the method for generating the third image is not limited to this. Other methods will be described later.

次に、低解像度ノイズ画像である第3の画像と低解像度画像である第4の画像とを重み付け加算し、低解像度訓練画像である第5の画像を生成する。低解像度ノイズ画像を重み付け加算する理由は、ダウンサンプリングに伴いノイズレベルが低下している低解像度画像のノイズレベルを向上させるためである。なお、重み付け加算の重みの決定方法に関する詳細については、後述する。次に、低解像度訓練画像である第5の画像を多層のニューラルネットワークへ入力する。 Next, a third image that is a low-resolution noise image and a fourth image that is a low-resolution image are weighted and added to generate a fifth image that is a low-resolution training image. The reason why the low-resolution noise images are weighted and added is to improve the noise level of the low-resolution images whose noise level has decreased due to downsampling. Note that details regarding the method for determining the weights for weighted addition will be described later. Next, a fifth image, which is a low-resolution training image, is input into the multilayer neural network.

次に、その出力と高解像度訓練画像である第1の画像(または第2の画像)との誤差が小さくなるように、多層のニューラルネットワークのウエイトを最適化(学習)する。すなわち、第5の画像と第1の画像または第2の画像とを用いて、ニューラルネットワークを学習する。より具体的には、第5の画像を、第1の画像または第2の画像のうちノイズレベルが高い画像へ変換するように、ニューラルネットワークを学習する。学習されたニューラルネットワークは、入力画像を超解像画像処理(アップサンプリング)するネットワークである。 Next, the weights of the multilayer neural network are optimized (learned) so that the error between the output and the first image (or second image), which is a high-resolution training image, is reduced. That is, the neural network is trained using the fifth image and the first image or the second image. More specifically, the neural network is trained to convert the fifth image to one of the first image or the second image, which has a higher noise level. The learned neural network is a network that performs super-resolution image processing (up-sampling) on input images.

各実施例によれば、高解像度訓練画像と低解像度訓練画像が互いに相関のあるノイズを有し、そのノイズレベルも等しくすることができる。これにより、多層のニューラルネットワークはノイズレベルの変動を抑制しつつ、DL超解像画像処理を行うウエイトを学習することができる。すなわち、ノイズレベルの変動を抑制しつつDL超解像画像処理を行うことが可能な学習済みモデルを生成することができる。なお、高解像度訓練画像と相関のあるノイズは、高解像度訓練画像が有するノイズをダウンサプリングしたものであり得る。すなわち、高解像度訓練画像と低解像度訓練画像が互いに相関のあるノイズを有する場合には、低解像度訓練画像が、高解像度訓練画像の有するノイズをダウンサプリングした成分を有する場合を含む。また、DL超解像画像処理においてノイズレベルの変動を制御(抑制)することは、低解像度ノイズ画像を重み付け加算する際の重みを調整することで可能である。すなわち、高解像度訓練画像と低解像度訓練画像のノイズレベルを等しくすることで可能である。 According to each embodiment, the high-resolution training image and the low-resolution training image have mutually correlated noise, and the noise level can also be made equal. This allows the multilayer neural network to learn weights for performing DL super-resolution image processing while suppressing noise level fluctuations. That is, it is possible to generate a trained model that can perform DL super-resolution image processing while suppressing fluctuations in noise level. Note that the noise correlated with the high-resolution training image may be obtained by downsampling the noise included in the high-resolution training image. That is, the case where the high-resolution training image and the low-resolution training image have mutually correlated noise includes the case where the low-resolution training image has a component obtained by downsampling the noise contained in the high-resolution training image. Further, in DL super-resolution image processing, it is possible to control (suppress) fluctuations in the noise level by adjusting the weights when weighted and added low-resolution noise images are added. That is, this is possible by making the noise level of the high-resolution training image and the low-resolution training image equal.

なお、前述の画像処理方法は、一例であり、各実施例はこれに限定されるものではない。その他の画像処理方法などの詳細については、以下の各実施例で説明する。 Note that the above-described image processing method is an example, and each embodiment is not limited to this. Details of other image processing methods will be explained in each embodiment below.

まず、本発明の実施例1における画像処理システムに関して説明する。本実施例では、多層のニューラルネットワークに超解像画像処理を学習、実行させる。 First, an image processing system according to a first embodiment of the present invention will be described. In this embodiment, a multilayer neural network learns and executes super-resolution image processing.

図2は、本実施例における画像処理システム100のブロック図である。図3は、画像処理システム100の外観図である。画像処理システム100は、学習装置(画像処理装置)101、撮像装置102、画像推定装置(画像処理装置)103、表示装置104、記録媒体105、出力装置106、および、ネットワーク107を有する。 FIG. 2 is a block diagram of the image processing system 100 in this embodiment. FIG. 3 is an external view of the image processing system 100. The image processing system 100 includes a learning device (image processing device) 101, an imaging device 102, an image estimation device (image processing device) 103, a display device 104, a recording medium 105, an output device 106, and a network 107.

学習装置101は、記憶部(記憶手段)101a、ノイズレベル部(ノイズレベル手段)101b、ノイズ画像生成部(ノイズ画像生成手段)101c、および、ダウサンプリング部101d(ダウンサンプリング手段)を有する。また学習装置101は、ノイズ加算部(ノイズ加算手段)101eおよび学習部(学習手段)101fを有する。 The learning device 101 includes a storage section (storage means) 101a, a noise level section (noise level means) 101b, a noise image generation section (noise image generation means) 101c, and a downsampling section 101d (downsampling means). The learning device 101 also includes a noise addition section (noise addition means) 101e and a learning section (learning means) 101f.

撮像装置102は、光学系102aおよび撮像素子102bを有する。光学系102aは、被写体空間から撮像装置102へ入射した光を集光する。撮像素子102bは、光学系102aを介して形成された光学像(被写体像)を受光して(光電変換して)撮像画像を取得する。撮像素子102bは、例えばCCD(Charge Coupled Device)センサや、CMOS(Complementary Metal-Oxide Semiconductor)センサなどである。撮像装置102によって取得される撮像画像は、光学系102aの収差や回折によるぼけと、撮像素子102bによるノイズを含む。 The imaging device 102 includes an optical system 102a and an image sensor 102b. The optical system 102a collects light that has entered the imaging device 102 from the subject space. The image sensor 102b receives (photoelectrically converts) an optical image (subject image) formed through the optical system 102a, and acquires a captured image. The image sensor 102b is, for example, a CCD (Charge Coupled Device) sensor, a CMOS (Complementary Metal-Oxide Semiconductor) sensor, or the like. The captured image acquired by the imaging device 102 includes blur caused by aberrations and diffraction of the optical system 102a, and noise caused by the imaging element 102b.

画像推定装置103は、記憶部103a、取得部103b、および、超解像画像処理部(推定手段)103cを有する。画像推定装置103は、撮像画像を取得し、ノイズレベル変動を抑制したDL超解像画像処理を行って推定画像(出力画像)を生成する。DL超解像画像処理には、多層のニューラルネットワークを使用し、ウエイトの情報は記憶部103aから読み出される。ウエイト(ウエイトの情報)は学習装置101で学習されたものであり、画像推定装置103は、事前にネットワーク107を介して記憶部101aからウエイトの情報を読み出し、記憶部103aに保存している。保存されるウエイトの情報は、ウエイトの数値そのものでもよいし、符号化された形式でもよい。なお、ウエイトの学習、およびウエイトを用いたDL超解像画像処理に関する詳細は、後述する。 The image estimation device 103 includes a storage section 103a, an acquisition section 103b, and a super-resolution image processing section (estimation means) 103c. The image estimation device 103 acquires a captured image, performs DL super-resolution image processing that suppresses noise level fluctuations, and generates an estimated image (output image). A multilayer neural network is used for DL super-resolution image processing, and weight information is read from the storage unit 103a. The weights (weight information) are learned by the learning device 101, and the image estimation device 103 reads out the weight information from the storage unit 101a via the network 107 in advance and stores it in the storage unit 103a. The weight information to be saved may be the weight value itself or may be in an encoded format. Note that details regarding weight learning and DL super-resolution image processing using weights will be described later.

出力画像は、表示装置104、記録媒体105、および、出力装置106の少なくとも一つに出力される。表示装置104は、例えば液晶ディスプレイやプロジェクタなどである。ユーザは、表示装置104を介して、処理途中の画像を確認しながら編集作業などを行うことができる。記録媒体105は、例えば半導体メモリ、ハードディスク、ネットワーク上のサーバ等である。出力装置106は、プリンタなどである。画像推定装置103は、必要に応じて現像処理やその他の画像処理を行う機能を有する。 The output image is output to at least one of the display device 104, the recording medium 105, and the output device 106. The display device 104 is, for example, a liquid crystal display or a projector. The user can perform editing work while checking the image being processed through the display device 104. The recording medium 105 is, for example, a semiconductor memory, a hard disk, a server on a network, or the like. The output device 106 is a printer or the like. The image estimation device 103 has a function of performing development processing and other image processing as necessary.

次に、図1および図4を参照して、本実施例における学習装置101により実行されるウエイト(ウエイトの情報)の学習方法(学習済みモデルの製造方法)に関して説明する。図1は、多層のニューラルネットワーク(ニューラルネットワーク)のウエイトの学習の流れを示す図である。図4は、ウエイトの学習に関するフローチャートである。図4の各ステップは、主に、ノイズレベル部101b、ノイズ画像生成部101c、ダウンサンプリング部101d、ノイズ加算部101e、および、学習部101fにより実行される。 Next, a method for learning weights (weight information) (method for manufacturing a learned model) executed by the learning device 101 in this embodiment will be described with reference to FIGS. 1 and 4. FIG. 1 is a diagram showing the flow of learning weights in a multilayer neural network. FIG. 4 is a flowchart regarding weight learning. Each step in FIG. 4 is mainly executed by the noise level section 101b, the noise image generation section 101c, the downsampling section 101d, the noise addition section 101e, and the learning section 101f.

まず、ステップS101において、ノイズレベル部101bは、高解像度パッチ(第1の画像)に基づいて、中間パッチ(第2の画像)を生成する。本実施例において、高解像度パッチは、光学系102bの収差や回折によるぼけが少ない高解像な画像である。高解像度パッチには撮像素子102bによるノイズ成分が含まれる。中間パッチとは、高解像度パッチと同一の被写体が写っており、高解像度パッチとノイズレベルの異なる(ノイズが多いまたは少ない)画像である。なお、パッチとは既定の画素数(例えば、64×64画素など)を有する画像を指す。また、パッチの画素数は、必ずしも一致する必要はない。例えば、高解像度パッチの画素数は、対応する低解像度パッチの画素数より多い。また、高解像度パッチと中間パッチの画素数は等しい。 First, in step S101, the noise level unit 101b generates an intermediate patch (second image) based on the high resolution patch (first image). In this embodiment, the high-resolution patch is a high-resolution image with less blur due to aberrations and diffraction of the optical system 102b. The high-resolution patch includes noise components caused by the image sensor 102b. The intermediate patch is an image that includes the same subject as the high-resolution patch, but has a different noise level (more or less noise) than the high-resolution patch. Note that a patch refers to an image having a predetermined number of pixels (for example, 64×64 pixels, etc.). Furthermore, the number of pixels of the patches does not necessarily have to match. For example, the number of pixels in a high resolution patch is greater than the number of pixels in a corresponding low resolution patch. Further, the number of pixels of the high-resolution patch and the intermediate patch are equal.

本実施例では、高解像度パッチからノイズ除去手法BM3Dでノイズ除去することで、高解像度パッチとノイズレベルの異なる(ノイズの少ない)中間パッチを生成する。本実施例は、記憶部101aに記憶されている複数の原画像を高解像撮像画像とする。原画像は撮像装置102によって取得される撮像画像でもよいし、撮像シミュレーションによって生成した撮像画像でもよい。インターネットから集めた画像を用いてもよい。また、原画像は、撮像素子によるノイズを含む画像である。本実施例において、撮像素子として撮像素子102bを用いたが、本発明はこれに限定されるものではない。例えば、他の撮像素子によるノイズでもよいし、正規乱数によって生成した乱数列に基づくノイズでもよい。そして、複数の原画像(高解像度撮像画像)から規定の画素サイズの部分領域を抽出することで、複数の高解像度パッチを取得する。本実施例において、原画像はPNG画像であるが、本発明はこれに限定されるものではない。例えば、BMPやJPGなど他の画像フォーマットでもよいし、未現像のRAW画像でもよい。 In this embodiment, an intermediate patch having a different noise level (less noise) than the high-resolution patch is generated by removing noise from the high-resolution patch using the noise removal method BM3D. In this embodiment, a plurality of original images stored in the storage unit 101a are high-resolution captured images. The original image may be a captured image acquired by the imaging device 102, or may be a captured image generated by an imaging simulation. Images collected from the Internet may also be used. Further, the original image is an image containing noise caused by the image sensor. In this embodiment, the image sensor 102b is used as the image sensor, but the present invention is not limited to this. For example, it may be noise caused by another image sensor, or it may be noise based on a random number sequence generated using normal random numbers. Then, by extracting partial regions of a prescribed pixel size from the plurality of original images (high-resolution captured images), a plurality of high-resolution patches are obtained. In this embodiment, the original image is a PNG image, but the present invention is not limited to this. For example, other image formats such as BMP and JPG may be used, or undeveloped RAW images may be used.

好ましくは、原画像は、収差や回折によるぼけが少ない(影響が小さい)高解像な画像がよい。これは、原画像(高解像度画像)に高周波成分が含まれていなければ、DL超解像画像処理で低解像度画像から推定する高周波数成分が無くなるためである。 Preferably, the original image is a high-resolution image with less blurring (less influence) due to aberrations and diffraction. This is because if the original image (high-resolution image) does not contain high-frequency components, there will be no high-frequency components estimated from the low-resolution image in DL super-resolution image processing.

本実施例において、高解像度パッチからノイズ除去手法BM3Dでノイズ除去することで、高解像度パッチとノイズレベルの異なる(ノイズの少ない)中間パッチを生成したが、本発明はこれに限定されるものではない。例えば、NLM(non-local means)やDLなど他のノイズ除去手法でもよい。または、高解像度パッチにノイズを付与することで、ノイズレベルの異なる(ノイズの多い)中間パッチを生成してもよい。なお、付与するノイズは正規乱数によって生成した乱数列に基づくノイズでもよい。また、一様乱数や無理数を利用した擬似的な乱数発生器を使用して生成した乱数列に基づくノイズでもよい。 In this example, an intermediate patch having a different noise level (less noise) than the high-resolution patch is generated by removing noise from the high-resolution patch using the noise removal method BM3D, but the present invention is not limited to this. do not have. For example, other noise removal methods such as NLM (non-local means) and DL may be used. Alternatively, by adding noise to a high-resolution patch, intermediate patches with different noise levels (noisy) may be generated. Note that the noise to be added may be noise based on a random number sequence generated using normal random numbers. Alternatively, the noise may be noise based on a random number sequence generated using a pseudo random number generator using uniform random numbers or irrational numbers.

続いてステップS102において、ノイズ画像生成部101cは、高解像度パッチ(第1の画像)と中間パッチ(第2の画像)とに基づいて、低解像度ノイズパッチ(第1の画像または第2の画像に含まれるノイズに関する第3の画像)を生成する。本実施例において、高解像度パッチと中間パッチの画素数は256×256画素、低解像度ノイズパッチの画素数は64×64画素であるが、これに限定されるものではない。 Subsequently, in step S102, the noise image generation unit 101c generates a low resolution noise patch (first image or second image) based on the high resolution patch (first image) and intermediate patch (second image). A third image related to the noise contained in the image is generated. In this embodiment, the number of pixels of the high-resolution patch and the intermediate patch is 256×256 pixels, and the number of pixels of the low-resolution noise patch is 64×64 pixels, but the number of pixels is not limited to this.

なお本実施例では、以下の方法により、高解像度パッチと中間パッチから低解像度ノイズパッチを生成するが、これに限定されるものではない。まず、高解像度パッチと中間パッチを減算し、高解像度ノイズパッチを生成する。本実施例において、高解像度パッチから中間パッチを減算するが、逆に、中間パッチから高解像度パッチを減算してもよい。次に、高解像度ノイズパッチをバイキュービック補間でダウンサンプリングし、低解像度ノイズパッチを生成する。なお、ダウンサンプリング方法はこれに限定されるものではなく、バイリニア補間や最近傍補間でもよい。または、図10に示されるように、高解像度パッチと中間パッチをそれぞれダウンサンプリングした後に減算することで、低解像度ノイズパッチを生成してもよい。 Note that in this embodiment, a low-resolution noise patch is generated from a high-resolution patch and an intermediate patch by the following method, but the method is not limited to this. First, a high-resolution patch and an intermediate patch are subtracted to generate a high-resolution noise patch. In this embodiment, the intermediate patch is subtracted from the high resolution patch, but conversely, the high resolution patch may be subtracted from the intermediate patch. Next, the high-resolution noise patch is downsampled using bicubic interpolation to generate a low-resolution noise patch. Note that the downsampling method is not limited to this, and may be bilinear interpolation or nearest neighbor interpolation. Alternatively, as shown in FIG. 10, a low-resolution noise patch may be generated by downsampling the high-resolution patch and the intermediate patch, respectively, and then subtracting them.

また、ステップS101において、高解像度パッチにノイズを付与し、ノイズレベルの異なる(ノイズの多い)中間パッチを生成する場合、以下の方法で低解像度ノイズパッチを生成してもよい。すなわち、高解像度パッチと中間パッチとを減算し、得られる高解像度ノイズパッチは、高解像度パッチに付与したノイズである。よって、ステップS101において、高解像度パッチに付与したノイズを記憶し、それをダウンサンプリングすることで、低解像度ノイズパッチを生成してもよい。 Further, in step S101, when adding noise to a high resolution patch to generate an intermediate patch having a different noise level (noisy), a low resolution noise patch may be generated by the following method. That is, the high-resolution noise patch obtained by subtracting the high-resolution patch and the intermediate patch is the noise added to the high-resolution patch. Therefore, in step S101, a low resolution noise patch may be generated by storing the noise added to the high resolution patch and downsampling it.

続いてステップS103において、ダウンサンプリング部101dは、高解像度パッチ(第1の画像)と中間パッチ(第2の画像)の少なくとも一方に基づいて、ダウンサンプリングパッチ(第4の画像)を生成する。なお、生成される低解像度なダウンサンプリングパッチは、低解像度ノイズパッチの画素数と同じである。なお本実施例では、高解像度パッチと中間パッチの少なくとも一方を、バイキュービック補間でダウンサンプリングし、ダウンサンプリングパッチを生成するが、これに限定されるものではない。例えば、ダウンサンプリング方法として、バイリニア補間や最近傍補間を用いてもよい。また、ステップS102とステップS103の順序は逆でもよい。また、ステップS102において高解像度パッチと中間パッチをダウンサンプリングした場合、その結果を記憶しダウンサンプリングパッチとして用いてもよい。すなわち、必ずしもダウンサンプリングを再度行う必要はない。 Subsequently, in step S103, the downsampling unit 101d generates a downsampling patch (fourth image) based on at least one of the high resolution patch (first image) and the intermediate patch (second image). Note that the generated low-resolution downsampling patch has the same number of pixels as the low-resolution noise patch. Note that in this embodiment, at least one of the high-resolution patch and the intermediate patch is downsampled by bicubic interpolation to generate a downsampled patch, but the invention is not limited to this. For example, bilinear interpolation or nearest neighbor interpolation may be used as the downsampling method. Moreover, the order of step S102 and step S103 may be reversed. Further, when the high-resolution patch and the intermediate patch are down-sampled in step S102, the results may be stored and used as the down-sampling patch. That is, it is not necessarily necessary to perform downsampling again.

続いてステップS104において、ノイズ加算部101eは、低解像度ノイズパッチ(第3の画像)とダウンサンプリングパッチ(第4の画像)とに基づいて、低解像度パッチ(第5の画像)を生成する。本実施例では、低解像度ノイズパッチとダウンサンプリングパッチを、重み付け加算し、低解像度パッチを生成する。なお、重み付け加算に用いる重みは、高解像度パッチのノイズレベルに基づいて決定される。本実施例では、原画像を取得する撮像装置102の撮像素子102bのISO感度に基づいて重みを決定するが、これに限定されるものではない。例えば、高解像度パッチが有するノイズをガウシアンノイズで近似した際の平均値、標準偏差、または、分散の少なくとも一つに基づいて決定してもよい。また、ステップS101において、高解像度パッチにノイズを付与し、ノイズレベルの異なる(ノイズの多い)中間パッチを生成した場合、以下の方法で重み付け加算に用いる重みを決定してもよい。すなわち、付与するノイズの元となる、正規乱数によって生成した乱数列の標準偏差に基づいて決定してもよい。本実施例において、重み付け加算に用いる重みは、1種類である。 Subsequently, in step S104, the noise addition unit 101e generates a low resolution patch (fifth image) based on the low resolution noise patch (third image) and the downsampling patch (fourth image). In this embodiment, a low-resolution noise patch and a downsampling patch are weighted and added to generate a low-resolution patch. Note that the weights used for weighted addition are determined based on the noise level of the high-resolution patch. In this embodiment, the weights are determined based on the ISO sensitivity of the image sensor 102b of the imaging device 102 that acquires the original image, but the weight is not limited thereto. For example, the determination may be based on at least one of the average value, standard deviation, or variance when noise included in a high-resolution patch is approximated by Gaussian noise. Further, in step S101, when noise is added to the high-resolution patch to generate intermediate patches with different noise levels (noisy), the weights used for weighted addition may be determined by the following method. That is, it may be determined based on the standard deviation of a random number sequence generated by normal random numbers, which is the source of the noise to be added. In this embodiment, only one type of weight is used for weighted addition.

続いてステップS105において、学習部101fは、低解像度パッチ(第5の画像)201を多層のニューラルネットワーク(ニューラルネットワーク)へ入力し、推定パッチ(推定画像)202を生成する。推定パッチ202は、ノイズレベルの変動を抑制して、DL超解像画像処理(高解像度化)した低解像度パッチ201である。理想的には、推定パッチ202は高解像度パッチ(第1の画像)200と一致する。これは、低解像度パッチ201が有するノイズと、高解像度パッチ200が有するノイズに相関があるためである。 Subsequently, in step S105, the learning unit 101f inputs the low resolution patch (fifth image) 201 to a multilayer neural network (neural network) to generate an estimated patch (estimated image) 202. The estimated patch 202 is a low-resolution patch 201 that has been subjected to DL super-resolution image processing (high resolution) while suppressing fluctuations in noise level. Ideally, the estimated patch 202 matches the high resolution patch (first image) 200. This is because the noise included in the low resolution patch 201 and the noise included in the high resolution patch 200 are correlated.

一方、ステップS101において、高解像度パッチにノイズを付与し、ノイズレベルの異なる(ノイズの多い)中間パッチを生成した場合、推定パッチ202は中間パッチ(第2の画像)と一致する。この場合、低解像度パッチ201が有するノイズと、相関のあるノイズを有する高解像度なパッチは、中間パッチだからである。 On the other hand, in step S101, when noise is added to the high-resolution patch to generate an intermediate patch with a different noise level (noisy), the estimated patch 202 matches the intermediate patch (second image). In this case, the high-resolution patch that has noise that is correlated with the noise that the low-resolution patch 201 has is an intermediate patch.

本実施例では、図1に示される多層ニューラルネットワークの構成を使用するが、これに限定されるものではない。図1中のCNは畳み込み層を表す。CNは、入力とフィルタの畳み込み、およびバイアスとの和が算出され、その結果を活性化関数によって非線形変換する。フィルタの各成分とバイアスの初期値は任意であり、本実施例では乱数によって決定する。活性化関数は、例えばReLU(Rectified Linear Unit)やシグモイド関数などを使うことができる。最終層を除く各層の出力は、特徴マップと呼ばれる。スキップコネクション211、212、213は、連続していない層から出力された特徴マップを合成する。特徴マップの合成は要素ごとの和をとってもよいし、チャンネル方向に連結(concatenation)してもよい。本実施例では要素ごとの和を採用する。また、スキップコネクション210を併せて有してもよい。これは、低解像度パッチ201を補間で拡大(高解像度化)し、多層ニューラルネットから得られる残差と合成することで、推定パッチ202を生成する経路である。複数の低解像度パッチ201のそれぞれに対して、推定パッチ202を生成する。図1中のPSはPixel Shuffle層を表す。PSは低解像度な特徴マップを並び替え、高解像度な特徴マップを生成する。例えば、64×64×64画素の低解像度の特徴マップを並び替え、128×128×16画素の高解像度な特徴マップを生成する。特徴マップのサイズは縦×横×深さ(チャンネル)として表している。PSで得られた特徴マップを畳み込みし、特徴マップのチャンネル数を調整してもよい。本実施例において、特徴マップの高解像度化にはPixel Shuffleを用いるが、本発明はこれに限定されるものではない。例えば、逆畳み込みや補間を用いてもよい。 In this embodiment, the configuration of the multilayer neural network shown in FIG. 1 is used, but the configuration is not limited to this. CN in FIG. 1 represents a convolutional layer. In the CN, the sum of the convolution of the input, the filter, and the bias is calculated, and the result is nonlinearly transformed by an activation function. The initial values of each component and bias of the filter are arbitrary, and are determined by random numbers in this embodiment. As the activation function, for example, ReLU (Rectified Linear Unit) or a sigmoid function can be used. The output of each layer except the final layer is called a feature map. Skip connections 211, 212, and 213 combine feature maps output from non-consecutive layers. The feature maps may be combined by summing each element or by concatenation in the channel direction. In this embodiment, the sum of each element is used. Further, a skip connection 210 may also be included. This is a path in which the estimated patch 202 is generated by enlarging the low resolution patch 201 by interpolation (increasing the resolution) and combining it with the residual obtained from the multilayer neural network. An estimated patch 202 is generated for each of the plurality of low resolution patches 201. PS in FIG. 1 represents the Pixel Shuffle layer. PS sorts low-resolution feature maps and generates high-resolution feature maps. For example, a low resolution feature map of 64 x 64 x 64 pixels is rearranged to generate a high resolution feature map of 128 x 128 x 16 pixels. The size of the feature map is expressed as length x width x depth (channel). The feature map obtained by PS may be convolved and the number of channels of the feature map may be adjusted. In this embodiment, Pixel Shuffle is used to increase the resolution of the feature map, but the present invention is not limited to this. For example, deconvolution or interpolation may be used.

続いてステップS106において、学習部101fは、推定パッチ202と高解像度パッチ(第1の画像)200との誤差に基づいて、多層ニューラルネットワークのウエイト(ウエイトの情報)を更新する。ここで、ウエイトは、各層のフィルタの成分とバイアスを含む。ウエイトの更新には誤差逆伝搬法(Backpropagation)を使用するが、本発明はこれに限定されるものではない。ミニバッチ学習のため、複数の高解像度パッチ200とそれらに対応する推定パッチ202の誤差を求め、ウエイトを更新する。誤差関数(Loss function)には、例えばL2ノルムやL1ノルムなどを用いればよい。ウエイト更新方法(学習方法)はミニバッチ学習に限らず、バッチ学習でもオンライン学習でもよい。 Subsequently, in step S106, the learning unit 101f updates the weights (weight information) of the multilayer neural network based on the error between the estimated patch 202 and the high resolution patch (first image) 200. Here, the weights include filter components and biases of each layer. Although the error backpropagation method is used to update the weights, the present invention is not limited thereto. For mini-batch learning, errors between a plurality of high-resolution patches 200 and their corresponding estimated patches 202 are determined, and weights are updated. For example, the L2 norm or the L1 norm may be used as the error function (Loss function). The weight updating method (learning method) is not limited to mini-batch learning, but may be batch learning or online learning.

また、ステップS101において、高解像度パッチにノイズを付与し、ノイズレベルの異なる(ノイズの多い)中間パッチを生成した場合、推定パッチ202は中間パッチ(第2の画像)と一致する。このため、学習部101fは、推定パッチ202と中間パッチとの誤差に基づいて、多層ニューラルネットワークのウエイトを更新する。推定パッチ202と中間パッチの関係については、ステップS104において説明したとおりである。 Further, in step S101, when noise is added to the high-resolution patch to generate an intermediate patch with a different noise level (noisy), the estimated patch 202 matches the intermediate patch (second image). Therefore, the learning unit 101f updates the weights of the multilayer neural network based on the error between the estimated patch 202 and the intermediate patch. The relationship between the estimated patch 202 and the intermediate patch is as described in step S104.

続いてステップS107において、学習部101fは、ウエイトの学習が完了したか否かを判定する。完了は、学習(ウエイトの更新)の反復回数が規定値に達したか、または、更新時のウエイトの変化量が規定値より小さいかなどにより判定することができる。未完と判定された場合、ステップS101へ戻り、新たな高解像度パッチと低解像度パッチを複数取得する。一方、完了と判定された場合、学習装置101(学習部101f)は学習を終了し、ウエイトの情報を記憶部101aに保存する。 Subsequently, in step S107, the learning unit 101f determines whether learning of weights is completed. Completion can be determined based on whether the number of repetitions of learning (updating weights) has reached a specified value, or whether the amount of change in weights at the time of updating is smaller than a specified value. If it is determined that the process is incomplete, the process returns to step S101 and a plurality of new high-resolution patches and new low-resolution patches are acquired. On the other hand, if it is determined that the learning has been completed, the learning device 101 (learning section 101f) ends the learning and stores the weight information in the storage section 101a.

次に、図5を参照して、本実施例における画像推定装置103で実行される出力画像の生成に関して説明する。図5は、出力画像の生成に関するフローチャートである。図5の各ステップは、主に、画像推定装置103の取得部103b、および、超解像画像処理部103cにより実行される。 Next, with reference to FIG. 5, generation of an output image executed by the image estimation device 103 in this embodiment will be described. FIG. 5 is a flowchart regarding generation of an output image. Each step in FIG. 5 is mainly executed by the acquisition unit 103b and the super-resolution image processing unit 103c of the image estimation device 103.

まず、ステップS201において、取得部103bは、撮像画像とウエイトの情報を取得する。撮像画像は、学習と同様でPNG画像であり、本実施例では撮像装置102から送信されたものである。ウエイト情報は学習装置101から送信されて記憶部103aに記憶されたものである。 First, in step S201, the acquisition unit 103b acquires a captured image and weight information. The captured image is a PNG image, as in the case of learning, and is transmitted from the imaging device 102 in this embodiment. The weight information is transmitted from the learning device 101 and stored in the storage unit 103a.

続いてステップS202において、超解像画像処理部103cは、取得したウエイトを適用した多層のニューラルネットワークに撮像画像を入力し、推定画像(出力画像)を生成する。推定画像は、撮像画像からノイズレベルの変動を抑えて、撮像画像を高解像度化した画像である。推定画像の生成には、図1に示される構成と同様の多層ニューラルネットワークを使用する。なお、多層のニューラルネットワークへ撮像画像を入力する際は、学習時に使用した訓練パッチと同サイズに切り出す必要はない。 Subsequently, in step S202, the super-resolution image processing unit 103c inputs the captured image to a multilayer neural network to which the acquired weights are applied, and generates an estimated image (output image). The estimated image is an image obtained by suppressing fluctuations in noise level from the captured image and increasing the resolution of the captured image. A multilayer neural network similar to the configuration shown in FIG. 1 is used to generate the estimated image. Note that when inputting a captured image to a multilayer neural network, it is not necessary to cut it out to the same size as the training patch used during learning.

ここで、高解像度パッチのノイズと低解像度パッチのノイズとの間に相関がない場合について説明する。この場合、高解像度パッチと低解像度パッチの場所毎にノイズレベルが異なるため、ある場所ではノイズ除去し、別の場所ではノイズを強調するように学習する。すなわち、高解像度化に伴って画像のノイズレベルの変動(増加または減少)が発生し、超解像画像の画質が低下する。 Here, a case where there is no correlation between the noise of high-resolution patches and the noise of low-resolution patches will be described. In this case, since the noise level differs depending on the location of the high-resolution patch and the low-resolution patch, the system learns to remove noise in some locations and emphasize noise in other locations. That is, as the resolution increases, the noise level of the image fluctuates (increases or decreases), and the quality of the super-resolution image deteriorates.

次に、高解像度パッチにノイズがなく、低解像度パッチのみノイズを有する場合について説明する。この場合、低解像度パッチを高解像度化すると同時に、低解像度パッチからノイズ除去するように学習する。しかし、実写画像には撮像素子に起因するノイズが必ず含まれ、ノイズ除去するとむしろ不自然な高解像度画像となる。また、低解像度画像を高解像度化し(画像を引き伸ばし)、大きな高解像度画像が得られると、ノイズ除去された不自然さが際立つ。 Next, a case will be described where the high-resolution patch has no noise and only the low-resolution patch has noise. In this case, the system learns to increase the resolution of low-resolution patches and at the same time remove noise from the low-resolution patches. However, real images always contain noise caused by the image sensor, and removing the noise results in a rather unnatural high-resolution image. Furthermore, when a large high-resolution image is obtained by increasing the resolution of a low-resolution image (enlarging the image), the unnaturalness of the image from which noise has been removed stands out.

一方、本実施例によれば、高解像度化に伴って画像のノイズレベルを変動させることがない。すなわち、撮像画像を高解像度化しつつ、画像に自然らしさを与える一因であるノイズのレベルを、撮像画像のノイズレベルと変わらないようにすることができる。 On the other hand, according to this embodiment, the noise level of the image does not change as the resolution increases. That is, it is possible to increase the resolution of a captured image while keeping the level of noise, which is a factor that gives naturalness to the image, to be the same as the noise level of the captured image.

なお本実施例では、学習装置101と画像推定装置103とが別体である場合を例に説明したが、これに限定されない。学習装置101と画像推定装置103は一体的に構成されていてもよい。すなわち、一体の装置内で学習(図4に示す処理)と推定(図5に示す処理)を行っても良い。 In this embodiment, the learning device 101 and the image estimation device 103 are separate entities, but the present invention is not limited to this. The learning device 101 and the image estimation device 103 may be configured integrally. That is, learning (the process shown in FIG. 4) and estimation (the process shown in FIG. 5) may be performed within a single device.

以上の構成により、本実施例によれば、DL超解像画像処理に伴う画像のノイズレベルの変動を抑制した画像処理システムを提供することが可能である。 With the above configuration, according to this embodiment, it is possible to provide an image processing system that suppresses fluctuations in the noise level of images accompanying DL super-resolution image processing.

次に、本発明の実施例2における画像処理システムに関して説明する。本実施例は、実施例1と同様に、多層のニューラルネットワークに超解像画像処理を学習、実行させる。本実施例の画像処理システムは、撮像装置が撮像画像を取得し、DL超解像画像処理に伴うノイズレベルの変動を抑制した超解像画像生成する点で、実施例1と異なる。 Next, an image processing system according to a second embodiment of the present invention will be described. In this embodiment, similarly to the first embodiment, a multilayer neural network learns and executes super-resolution image processing. The image processing system of the present embodiment differs from the first embodiment in that an imaging device acquires a captured image and generates a super-resolution image in which fluctuations in noise level accompanying DL super-resolution image processing are suppressed.

図6は、本実施例における画像処理システム300のブロック図である。図7は、画像処理システム300の外観図である。画像処理システム300は、ネットワーク303を介して接続された学習装置(画像処理装置、第1の装置)301と撮像装置(第2の装置)302とを含む。なお本実施例において、学習装置301と撮像装置302は、ネットワーク303を介して常に接続されている必要はない。 FIG. 6 is a block diagram of the image processing system 300 in this embodiment. FIG. 7 is an external view of the image processing system 300. The image processing system 300 includes a learning device (image processing device, first device) 301 and an imaging device (second device) 302 that are connected via a network 303. Note that in this embodiment, the learning device 301 and the imaging device 302 do not need to be always connected via the network 303.

学習装置301は、記憶部(記憶手段)311、ノイズレベル部(ノイズレベル手段)312、ノイズ画像生成部(ノイズ画像生成手段)313、および、ダウンサンプリング部(ダウンサンプリング手段)314を有する。また学習装置301は、ノイズ加算部(ノイズ加算手段)315および学習部(学習手段)316を有する。これらを用いて、多層のニューラルネットワークでノイズレベルの変動を抑制したDL超解像画像処理を行うためのウエイト(ウエイトの情報)を学習する。 The learning device 301 includes a storage section (storage means) 311, a noise level section (noise level means) 312, a noise image generation section (noise image generation means) 313, and a downsampling section (downsampling means) 314. The learning device 301 also includes a noise addition section (noise addition means) 315 and a learning section (learning means) 316. These are used to learn weights (weight information) for performing DL super-resolution image processing that suppresses fluctuations in noise level using a multilayer neural network.

撮像装置302は、被写体空間を撮像して撮像画像を取得し、読み出した前記ウエイトの情報を用いて、撮像画像から超解像画像を生成する。学習装置301で実行されるウエイトの学習と、撮像装置302で実行されるDL超解像画像処理に関する詳細は後述する。撮像装置302は、光学系321と撮像素子322を有する。画像推定部323は、取得部323aと超解像画像処理部(推定手段)323bを有し、記憶部324に保存されたウエイトの情報を用いて、撮像画像から撮像素子322より高解像度な超解像画像の生成を実行する。 The imaging device 302 images the subject space to obtain a captured image, and uses the read weight information to generate a super-resolution image from the captured image. Details regarding weight learning performed by the learning device 301 and DL super-resolution image processing performed by the imaging device 302 will be described later. The imaging device 302 includes an optical system 321 and an image sensor 322. The image estimation unit 323 includes an acquisition unit 323a and a super-resolution image processing unit (estimation means) 323b, and uses weight information stored in the storage unit 324 to extract a super-resolution image with higher resolution than the image sensor 322 from the captured image. Execute generation of resolved image.

なお、学習装置301で実行される、多層ニューラルネットワークのウエイトの学習は、実施例1と同様であるため、その説明は省略する。撮像装置302で実行されるDL超解像画像処理に関する詳細のみ後述する。 Note that the learning of the weights of the multilayer neural network executed by the learning device 301 is the same as in the first embodiment, and therefore the description thereof will be omitted. Only details regarding the DL super-resolution image processing executed by the imaging device 302 will be described later.

ウエイトの情報は、学習装置301で事前に学習され、記憶部311に保存されている。撮像装置302は、記憶部311からネットワーク303を介してウエイトの情報を読み出し、記憶部324に保存する。DL超解像画像処理された撮像画像(出力画像)は、記録媒体325に保存される。ユーザから出力画像の表示に関する指示が出された場合、保存された出力画像が読み出され、表示部326に表示される。なお、記録媒体325に既に保存された撮像画像を読み出し、画像推定部323でDL超解像画像処理を行ってもよい。以上の一連の制御は、システムコントローラ327によって行われる。 The weight information is learned in advance by the learning device 301 and stored in the storage unit 311. The imaging device 302 reads weight information from the storage unit 311 via the network 303 and stores it in the storage unit 324. The captured image (output image) subjected to the DL super-resolution image processing is stored in the recording medium 325. When a user issues an instruction regarding display of an output image, the saved output image is read out and displayed on the display unit 326. Note that a captured image already stored in the recording medium 325 may be read out and the image estimation unit 323 may perform DL super-resolution image processing. The above series of controls are performed by the system controller 327.

次に、本実施例における画像推定部323で実行される出力画像の生成に関して説明する。DL超解像画像処理の手順は実施例1の図5と略同一であるため、フローチャートの図は割愛する。DL超解像画像処理の各ステップは、主に、画像推定部323の取得部323aおよび超解像画像処理部(超解像画像処理手段)323bにより実行される。 Next, generation of an output image executed by the image estimation unit 323 in this embodiment will be explained. Since the procedure of DL super-resolution image processing is substantially the same as that in FIG. 5 of the first embodiment, the flowchart is omitted. Each step of the DL super-resolution image processing is mainly executed by the acquisition section 323a and the super-resolution image processing section (super-resolution image processing means) 323b of the image estimation section 323.

まず、ステップS201において、取得部323aは、撮像画像とウエイトの情報を取得する。撮像画像は、学習と同様でPNG画像であり、本実施例では撮像装置302で取得され、記憶部324に記憶されたものである。ウエイト情報は、学習装置301から送信されて記憶部324に記憶されたものである。 First, in step S201, the acquisition unit 323a acquires a captured image and weight information. The captured image is a PNG image, as in the case of learning, and is acquired by the imaging device 302 and stored in the storage unit 324 in this embodiment. The weight information is transmitted from the learning device 301 and stored in the storage unit 324.

続いてステップS202において、超解像画像処理部323bは、取得したウエイトを適用した多層のニューラルネットワークに撮像画像を入力し、推定画像(出力画像)を生成する。推定画像は、撮像画像からノイズレベルの変動を抑えて、撮像画像を高解像度化した画像である。推定画像の生成には、図1に示される構成と同様の多層ニューラルネットワークを使用する。なお、多層のニューラルネットワークへ撮像画像を入力する際は、学習時に使用した訓練パッチと同サイズに切り出す必要はない。
以上の構成により、本実施例によれば、DL超解像画像処理に伴う画像のノイズレベルの変動を抑制した画像処理システムを提供することが可能である。
Subsequently, in step S202, the super-resolution image processing unit 323b inputs the captured image to a multilayer neural network to which the acquired weights are applied, and generates an estimated image (output image). The estimated image is an image obtained by suppressing fluctuations in noise level from the captured image and increasing the resolution of the captured image. A multilayer neural network similar to the configuration shown in FIG. 1 is used to generate the estimated image. Note that when inputting a captured image to a multilayer neural network, it is not necessary to cut it out to the same size as the training patch used during learning.
With the above configuration, according to this embodiment, it is possible to provide an image processing system that suppresses fluctuations in the noise level of images accompanying DL super-resolution image processing.

次に、本発明の実施例3における画像処理システムに関して説明する。本実施例の画像処理システムは、画像推定装置に対して画像処理の対象である撮像画像を送信し処理済みの出力画像を画像推定装置から受信する処理装置(コンピュータ)を有する点で、実施例1、2と異なる。 Next, an image processing system according to a third embodiment of the present invention will be described. The image processing system of this embodiment is different from the embodiment in that it includes a processing device (computer) that transmits a captured image that is a target of image processing to an image estimation device and receives a processed output image from the image estimation device. 1 and 2 are different.

図8は、本実施例における画像処理システム400のブロック図である。画像処理システム400は、学習装置(第1の装置)401、撮像装置402、画像推定装置(第2の装置)403、および、処理装置(コンピュータ、第3の装置)404を有する。学習装置401および画像推定装置403は、例えばサーバである。コンピュータ404は、例えばユーザ端末(パーソナルコンピュータまたはスマートフォン)である。コンピュータ404は、ネットワーク405を介して画像推定装置403に接続されている。画像推定装置403は、ネットワーク406を介して学習装置401に接続されている。すなわち、コンピュータ404と画像推定装置403とは通信可能に構成され、画像推定装置403と学習装置401とは通信可能に構成されている。 FIG. 8 is a block diagram of the image processing system 400 in this embodiment. The image processing system 400 includes a learning device (first device) 401, an imaging device 402, an image estimation device (second device) 403, and a processing device (computer, third device) 404. The learning device 401 and the image estimation device 403 are, for example, servers. Computer 404 is, for example, a user terminal (personal computer or smartphone). Computer 404 is connected to image estimation device 403 via network 405. Image estimation device 403 is connected to learning device 401 via network 406. That is, the computer 404 and the image estimation device 403 are configured to be able to communicate, and the image estimation device 403 and the learning device 401 are configured to be able to communicate.

学習装置401は、記憶部(記憶手段)401a、ノイズレベル部(ノイズレベル手段)401b、ノイズ画像生成部(ノイズ画像生成手段)401c、および、ダウサンプリング部401d(ダウンサンプリング手段)を有する。また学習装置401は、ノイズ加算部(ノイズ加算手段)401eおよび学習部(学習手段)401fを有する。撮像装置402は、光学系402aおよび撮像素子402bを有する。なお、学習装置401および撮像装置402の構成は、実施例1の学習装置101および撮像装置102とそれぞれ同様のため、それらの説明を省略する。 The learning device 401 includes a storage section (storage means) 401a, a noise level section (noise level means) 401b, a noise image generation section (noise image generation means) 401c, and a downsampling section 401d (downsampling means). The learning device 401 also includes a noise addition section (noise addition means) 401e and a learning section (learning means) 401f. The imaging device 402 includes an optical system 402a and an imaging element 402b. Note that the configurations of the learning device 401 and the imaging device 402 are the same as those of the learning device 101 and the imaging device 102 of Example 1, respectively, so their descriptions will be omitted.

画像推定装置403は、記憶部403a、取得部403b、超解像画像処理部(推定手段)403c、および、通信部(受信手段)403dを有する。記憶部403a、取得部403b、および、超解像画像処理部403cは、実施例1の画像推定装置103の記憶部103a、取得部103b、および、超解像画像処理部103cとそれぞれ同様である。通信部403dは、コンピュータ404から送信される要求を受信する機能、および、画像推定装置403により生成された出力画像をコンピュータ404に送信する機能を有する。 The image estimation device 403 includes a storage section 403a, an acquisition section 403b, a super-resolution image processing section (estimation means) 403c, and a communication section (reception means) 403d. The storage unit 403a, the acquisition unit 403b, and the super-resolution image processing unit 403c are the same as the storage unit 103a, the acquisition unit 103b, and the super-resolution image processing unit 103c of the image estimation device 103 of the first embodiment, respectively. . The communication unit 403d has a function of receiving a request transmitted from the computer 404 and a function of transmitting an output image generated by the image estimation device 403 to the computer 404.

コンピュータ404は、通信部(送信手段)404a、表示部404b、画像処理部404c、および、記録部404dを有する。通信部404aは、撮像画像に対する処理を画像推定装置403に実行させるための要求を画像推定装置403に送信する機能、および、画像推定装置403により処理された出力画像を受信する機能を有する。表示部404bは、種々の情報を表示する機能を有する。表示部404bにより表示される情報は、例えば、画像推定装置403に送信する撮像画像、および、画像推定装置403から受信した出力画像を含む。画像処理部404cは、画像推定装置403から受信した出力画像に対してさらに画像処理を施す機能を有する。記録部404dは、撮像装置402から取得した撮像画像、および、画像推定装置403から受信した出力画像等を記録する。 The computer 404 includes a communication section (transmission means) 404a, a display section 404b, an image processing section 404c, and a recording section 404d. The communication unit 404a has a function of transmitting a request to the image estimation device 403 for causing the image estimation device 403 to perform processing on a captured image, and a function of receiving an output image processed by the image estimation device 403. The display unit 404b has a function of displaying various information. The information displayed by the display unit 404b includes, for example, the captured image transmitted to the image estimation device 403 and the output image received from the image estimation device 403. The image processing unit 404c has a function of further performing image processing on the output image received from the image estimation device 403. The recording unit 404d records the captured image acquired from the imaging device 402, the output image received from the image estimation device 403, and the like.

次に、図9を参照して、本実施例における画像処理について説明する。図9は、本実施例における出力画像の生成に関するフローチャートである。なお本実施例における画像処理は、実施例1にて説明したDL超解像画像処理(図5)と同等である。図9に示される画像処理は、コンピュータ404を介してユーザにより画像処理開始の指示が成されたことを契機として開始される。 Next, the image processing in this embodiment will be described with reference to FIG. 9. FIG. 9 is a flowchart relating to the generation of an output image in this embodiment. Note that the image processing in this embodiment is equivalent to the DL super-resolution image processing (FIG. 5) described in the first embodiment. The image processing shown in FIG. 9 is started when an instruction to start image processing is given by the user via the computer 404.

まず、コンピュータ404における動作について説明する。ステップS401において、コンピュータ404は、撮像画像に対する処理の要求を画像推定装置403へ送信する。なお、処理対象である撮像画像を画像推定装置403に送信する方法は問わない。例えば、撮像画像は、ステップS401と同時に画像推定装置403にアップロードされてもよく、または、ステップS401以前に画像推定装置403にアップロードされていてもよい。また撮像画像は、画像推定装置403とは異なるサーバ上に記憶された画像でもよい。なお、ステップS401において、コンピュータ404は撮像画像に対する処理の要求と共に、ユーザを認証するID情報等を送信してもよい。 First, the operation of the computer 404 will be explained. In step S401, the computer 404 transmits a request for processing the captured image to the image estimation device 403. Note that the method of transmitting the captured image to be processed to the image estimation device 403 does not matter. For example, the captured image may be uploaded to the image estimation device 403 at the same time as step S401, or may be uploaded to the image estimation device 403 before step S401. Further, the captured image may be an image stored on a server different from the image estimation device 403. Note that in step S401, the computer 404 may transmit ID information for authenticating the user together with a request for processing the captured image.

続いてステップS402において、コンピュータ404は、画像推定装置403内で生成された出力画像を受信する。出力画像は、実施例1と同様にノイズレベルの変動を抑えて、撮像画像をDL超解像画像処理した(高解像度化した)画像である。 Subsequently, in step S402, the computer 404 receives the output image generated within the image estimation device 403. The output image is an image obtained by subjecting the captured image to DL super-resolution image processing (higher resolution) while suppressing fluctuations in noise level as in the first embodiment.

次に、画像推定装置403の動作について説明する。まずステップS501において、画像推定装置403は、コンピュータ404から送信された撮像画像に対する処理の要求を受信する。画像推定装置403は、撮像画像に対する処理(DL超解像画像処理)が指示されたと判定し、ステップS502以降の処理を実行する。 Next, the operation of the image estimation device 403 will be explained. First, in step S501, the image estimation device 403 receives a request to process a captured image transmitted from the computer 404. The image estimation device 403 determines that processing on the captured image (DL super-resolution image processing) has been instructed, and executes the processing from step S502 onwards.

続いてステップS502において、画像推定装置403は、ウエイト情報を取得する。ウエイト情報は実施例1と同様の方法(図4)で学習された情報(学習済みモデル)である。画像推定装置403は、学習装置401からウエイト情報を取得してもよく、または、予め学習装置401から取得され記憶部403aに記憶されたウエイト情報を取得してもよい。続くステップS503は、実施例1のステップS202と同様である。続いてステップS504において、画像推定装置403は、出力画像をコンピュータ404へ送信する。 Subsequently, in step S502, the image estimation device 403 acquires weight information. The weight information is information (learned model) learned using the same method as in Example 1 (FIG. 4). The image estimation device 403 may acquire weight information from the learning device 401, or may acquire weight information that has been acquired from the learning device 401 in advance and stored in the storage unit 403a. The following step S503 is similar to step S202 of the first embodiment. Subsequently, in step S504, the image estimation device 403 transmits the output image to the computer 404.

以上のように、本実施例のように、画像推定装置403を、画像推定装置403と通信可能に接続されたコンピュータ404を用いて制御するように構成してもよい。 As described above, as in this embodiment, the image estimation device 403 may be configured to be controlled using the computer 404 that is communicably connected to the image estimation device 403.

(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention provides a system or device with a program that implements one or more of the functions of the above-described embodiments via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

各実施例によれば、画像処理に伴う画像のノイズの変動を抑制することが可能な画像処理方法、画像処理装置、プログラム、および、記憶媒体を提供することができる。 According to each embodiment, it is possible to provide an image processing method, an image processing apparatus, a program, and a storage medium that can suppress fluctuations in image noise caused by image processing.

以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the invention.

101 学習装置(画像処理装置)
101b ノイズレベル部(ノイズレベル手段)
101c ノイズ画像生成部(ノイズ画像生成手段)
101d ダウンサンプリング部(ダウンサンプリング手段)
101e ノイズ加算部(ノイズ加算手段)
101f 学習部(学習手段)
101 Learning device (image processing device)
101b Noise level section (noise level means)
101c Noise image generation unit (noise image generation means)
101d Downsampling section (downsampling means)
101e Noise addition section (noise addition means)
101f Learning Department (learning means)

Claims (18)

コンピュータを用いて実行される画像処理方法であって、
第1の画像に基づいて、前記第1の画像とはノイズレベルが異なる第2の画像を生成する第1の工程と、
前記第1の画像および前記第2の画像に基づいて、前記第1の画像または前記第2の画像に含まれるノイズに関する第3の画像を生成する第2の工程と、
前記第1の画像と前記第2の画像の少なくとも一方をダウンサンプリングすることで、第4の画像を生成する第3の工程と、
前記第3の画像と前記第4の画像とを重み付け加算することで、第5の画像を生成する第4の工程と、
前記第5の画像と前記第1の画像または前記第2の画像とを用いて、ニューラルネットワーク学習を行う第5の工程と、を有することを特徴とする画像処理方法。
An image processing method performed using a computer, the method comprising:
a first step of generating a second image having a different noise level from the first image based on the first image;
a second step of generating a third image regarding noise contained in the first image or the second image based on the first image and the second image;
a third step of generating a fourth image by downsampling at least one of the first image and the second image;
a fourth step of generating a fifth image by weighted addition of the third image and the fourth image;
An image processing method comprising: a fifth step of performing neural network learning using the fifth image and the first image or the second image.
前記第5の工程において、前記第5の画像を、前記第1の画像または前記第2の画像のうち前記ノイズレベルが高い画像変換するように、前記ニューラルネットワーク学習を行うことを特徴とする請求項1に記載の画像処理方法。 In the fifth step, the neural network is trained to convert the fifth image to an image having a higher noise level among the first image or the second image. The image processing method according to claim 1. 前記第1の工程において、前記第1の画像におけるノイズを低減することで、前記第2の画像を生成することを特徴とする請求項1または2に記載の画像処理方法。 3. The image processing method according to claim 1, wherein in the first step, the second image is generated by reducing noise in the first image. 前記第2の工程において、前記第1の画像と前記第2の画像とを画素毎に減算した後にダウンサンプリングすることで、前記第3の画像を生成することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理方法。 Claims 1 to 3, wherein in the second step, the third image is generated by subtracting the first image and the second image pixel by pixel and then downsampling them. The image processing method according to any one of . 前記第2の工程において、前記第1の画像と前記第2の画像とをそれぞれダウンサンプリングした後に画素毎に減算することで、前記第3の画像を生成することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理方法。 Claims 1 to 3, wherein in the second step, the third image is generated by downsampling the first image and the second image, and then subtracting each pixel. 3. The image processing method according to any one of 3. 前記第1の工程において、前記第1の画像にノイズを付与することで、前記第2の画像を生成することを特徴とする請求項1または2に記載の画像処理方法。 3. The image processing method according to claim 1, wherein in the first step, the second image is generated by adding noise to the first image. 前記第2の工程において、付与した前記ノイズに基づいて前記第3の画像を生成することを特徴とする請求項6に記載の画像処理方法。 7. The image processing method according to claim 6, wherein in the second step, the third image is generated based on the added noise. 前記重み付け加算における重みは、前記第1の画像または前記第2の画像のノイズに基づいて決定されることを特徴とする請求項1乃至7のいずれか一項に記載の画像処理方法。 8. The image processing method according to claim 1, wherein the weight in the weighted addition is determined based on noise in the first image or the second image. 前記重みは、前記ノイズをガウシアンノイズで近似した際の平均値、標準偏差、または、分散の少なくとも一つに基づいて決定されることを特徴とする請求項8に記載の画像処理方法。 9. The image processing method according to claim 8, wherein the weight is determined based on at least one of an average value, standard deviation, or variance when the noise is approximated by Gaussian noise. 前記重みは、前記第1の画像を撮像した際のISO感度に基づいて決定されることを特徴とする請求項8に記載の画像処理方法。 9. The image processing method according to claim 8, wherein the weight is determined based on ISO sensitivity when the first image is captured. 前記ニューラルネットワークは、入力された画像を超解像画像処理することを特徴とする請求項1乃至10のいずれか一項に記載の画像処理方法。 The image processing method according to any one of claims 1 to 10, wherein the neural network performs super-resolution image processing on the input image. 前記ニューラルネットワークに入力画像を入力することで、推定画像を生成する第6の工程を更に有することを特徴とする請求項1乃至11のいずれか一項に記載の画像処理方法。 12. The image processing method according to claim 1, further comprising a sixth step of generating an estimated image by inputting an input image to the neural network. 請求項1乃至12のいずれか一項に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。 A program that causes a computer to execute the image processing method according to any one of claims 1 to 12. コンピュータを用いて実行される学習済みモデルの製造方法であって、
第1の画像に基づいて、前記第1の画像とはノイズレベルが異なる第2の画像を生成する第1の工程と、
前記第1の画像および前記第2の画像に基づいて、前記第1の画像または前記第2の画像に含まれるノイズに関する第3の画像を生成する第2の工程と、
前記第1の画像と前記第2の画像の少なくとも一方をダウンサンプリングすることで、第4の画像を生成する第3の工程と、
前記第3の画像と前記第4の画像とを重み付け加算することで、第5の画像を生成する第4の工程と、
前記第5の画像と前記第1の画像または前記第2の画像とを用いて、ニューラルネットワーク学習を行う第5の工程と、を有することを特徴とする学習済みモデルの製造方法。
A method for manufacturing a trained model executed using a computer, the method comprising:
a first step of generating a second image having a different noise level from the first image based on the first image;
a second step of generating a third image regarding noise contained in the first image or the second image based on the first image and the second image;
a third step of generating a fourth image by downsampling at least one of the first image and the second image;
a fourth step of generating a fifth image by weighted addition of the third image and the fourth image;
A method for manufacturing a trained model, comprising: a fifth step of performing neural network learning using the fifth image and the first image or the second image.
第1の画像に基づいて、前記第1の画像とはノイズレベルが異なる第2の画像を生成するノイズレベル手段と、
前記第1の画像および前記第2の画像に基づいて、前記第1の画像または前記第2の画像に含まれるノイズに関する第3の画像を生成するノイズ画像生成手段と、
前記第1の画像と前記第2の画像の少なくとも一方をダウンサンプリングすることで、第4の画像を生成するダウンサンプリング手段と、
前記第3の画像と前記第4の画像とを重み付け加算することで、第5の画像を生成するノイズ加算手段と、
前記第5の画像と前記第1の画像または前記第2の画像とを用いて、ニューラルネットワーク学習を行う学習手段と、を有することを特徴とする画像処理装置。
noise level means for generating a second image having a different noise level from the first image based on the first image;
Noise image generation means for generating a third image related to noise contained in the first image or the second image based on the first image and the second image;
downsampling means for generating a fourth image by downsampling at least one of the first image and the second image;
noise addition means for generating a fifth image by weighted addition of the third image and the fourth image;
An image processing apparatus comprising: learning means for performing neural network learning using the fifth image and the first image or the second image.
第1の装置と、前記第1の装置と通信可能な第2の装置と、を含む画像処理システムであって、
前記第1の装置は、
第1の画像に基づいて、前記第1の画像とはノイズレベルが異なる第2の画像を生成するノイズレベル手段と、
前記第1の画像および前記第2の画像に基づいて、前記第1の画像または前記第2の画像に含まれるノイズに関する第3の画像を生成するノイズ画像生成手段と、
前記第1の画像と前記第2の画像の少なくとも一方をダウンサンプリングすることで、第4の画像を生成するダウンサンプリング手段と、
前記第3の画像と前記第4の画像とを重み付け加算することで、第5の画像を生成するノイズ加算手段と、
前記第5の画像と前記第1の画像または前記第2の画像とを用いてニューラルネットワーク学習を行う学習手段と、を有し、
前記第2の装置は、前記ニューラルネットワークを用いて入力画像から推定画像を生成する推定手段と、を有する、ことを特徴とする画像処理システム。
An image processing system including a first device and a second device capable of communicating with the first device,
The first device includes:
noise level means for generating a second image having a different noise level from the first image based on the first image;
Noise image generation means for generating a third image related to noise contained in the first image or the second image based on the first image and the second image;
downsampling means for generating a fourth image by downsampling at least one of the first image and the second image;
noise addition means for generating a fifth image by weighted addition of the third image and the fourth image;
a learning means for learning a neural network using the fifth image and the first image or the second image,
The image processing system is characterized in that the second device includes an estimator that generates an estimated image from an input image using the neural network.
第1の装置と、前記第1の装置と通信可能な第2の装置と、前記第2の装置と通信可能な第3の装置と、を含む画像処理システムであって、
前記第1の装置は、
第1の画像に基づいて、前記第1の画像とはノイズレベルが異なる第2の画像を生成するノイズレベル手段と、
前記第1の画像および前記第2の画像に基づいて、前記第1の画像または前記第2の画像に含まれるノイズに関する第3の画像を生成するノイズ画像生成手段と、
前記第1の画像と前記第2の画像の少なくとも一方をダウンサンプリングすることで、第4の画像を生成するダウンサンプリング手段と、
前記第3の画像と前記第4の画像とを重み付け加算することで、第5の画像を生成するノイズ加算手段と、
前記第5の画像と前記第1の画像または前記第2の画像とを用いてニューラルネットワーク学習を行う学習手段と、を有し、
前記第3の装置は、撮像画像に対する処理を前記第2の装置に実行させるための要求を送信する送信手段を有し、
前記第2の装置は、
前記送信手段により送信された前記要求を受信する受信手段と、
前記ニューラルネットワークを用いて入力画像から推定画像を生成する推定手段と、を有することを特徴とする画像処理システム。
An image processing system including a first device, a second device capable of communicating with the first device, and a third device capable of communicating with the second device,
The first device includes:
noise level means for generating a second image having a different noise level from the first image based on the first image;
Noise image generation means for generating a third image related to noise contained in the first image or the second image based on the first image and the second image;
downsampling means for generating a fourth image by downsampling at least one of the first image and the second image;
noise addition means for generating a fifth image by weighted addition of the third image and the fourth image;
a learning means for learning a neural network using the fifth image and the first image or the second image,
The third device includes a transmitting means for transmitting a request for causing the second device to perform processing on the captured image,
The second device includes:
receiving means for receiving the request transmitted by the transmitting means;
An image processing system comprising: estimating means for generating an estimated image from an input image using the neural network.
請求項1乃至11のいずれか一項に記載の画像処理方法を用いて学習された前記ニューラルネットワークを用いて入力画像から推定画像を生成する推定手段を有することを特徴とする画像処理装置。An image processing device comprising: an estimation unit that generates an estimated image from an input image using the neural network trained using the image processing method according to any one of claims 1 to 11.
JP2019233981A 2019-12-25 2019-12-25 Image processing method, program, learned model manufacturing method, image processing device, and image processing system Active JP7455574B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019233981A JP7455574B2 (en) 2019-12-25 2019-12-25 Image processing method, program, learned model manufacturing method, image processing device, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019233981A JP7455574B2 (en) 2019-12-25 2019-12-25 Image processing method, program, learned model manufacturing method, image processing device, and image processing system

Publications (3)

Publication Number Publication Date
JP2021103404A JP2021103404A (en) 2021-07-15
JP2021103404A5 JP2021103404A5 (en) 2022-12-21
JP7455574B2 true JP7455574B2 (en) 2024-03-26

Family

ID=76755169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019233981A Active JP7455574B2 (en) 2019-12-25 2019-12-25 Image processing method, program, learned model manufacturing method, image processing device, and image processing system

Country Status (1)

Country Link
JP (1) JP7455574B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102689127B1 (en) * 2023-11-23 2024-07-26 주식회사 에이아이네이션 Image preprocessing apparatus for increasing or decreasing noise level of actual noise in an image

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010055605A (en) 2008-08-01 2010-03-11 Nikon Corp Image processing method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010055605A (en) 2008-08-01 2010-03-11 Nikon Corp Image processing method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Manuel Fritsche et al.,Frequency Separation for Real-World Super-Resolution,2019 IEEE/CVF International Conference on Computer Vision Workshop (ICCVW),米国,2019年10月27日,pp.3599-3608,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9022593
永野 雄大,外1名,低解像度の料理画像を超解像するためのSRGANの応用,一般社団法人 人工知能学会 第32回全国大会論文集DVD [DVD-ROM] 2018年度 人工知能学会全国大会(第32回),2018年

Also Published As

Publication number Publication date
JP2021103404A (en) 2021-07-15

Similar Documents

Publication Publication Date Title
JP7258604B2 (en) Image processing method, image processing device, program, and method for manufacturing learned model
JP7242185B2 (en) Image processing method, image processing apparatus, image processing program, and storage medium
EP2574039B1 (en) Image pickup device, image processing device, image processing method, and image processing program
JP5331816B2 (en) Image correction apparatus and image correction method
JP5627256B2 (en) Image processing apparatus, imaging apparatus, and image processing program
US20210392313A1 (en) Image processing apparatus, image processing method, storage medium, manufacturing method of learned model, and image processing system
US20220368877A1 (en) Image processing method, image processing apparatus, storage medium, manufacturing method of learned model, and image processing system
JP2020144488A (en) Image processing method, image processing device, program, image processing system, and method of producing trained model
US20240046439A1 (en) Manufacturing method of learning data, learning method, learning data manufacturing apparatus, learning apparatus, and memory medium
JPWO2017169039A1 (en) Image processing apparatus, imaging apparatus, image processing method, and program
EP3979185A1 (en) Image processing method, program, image processing apparatus, trained model producing method, learning method, learning apparatus, and image processing system
CN114170073A (en) Image processing method, image processing apparatus, learning method, learning apparatus, and storage medium
JP7455574B2 (en) Image processing method, program, learned model manufacturing method, image processing device, and image processing system
JP2021140663A (en) Image processing method, image processing device, image processing program, and recording medium
JP2021096747A (en) Image processing method, program, manufacturing method of learned model, image processing system, and image processing system
WO2022215375A1 (en) Image processing method, method for producing machine learning model, image processing device, image processing system, and program
JP7191588B2 (en) Image processing method, image processing device, imaging device, lens device, program, and storage medium
JP2011254262A (en) Image processing device, image processing method
JP7309520B2 (en) Image processing method, image processing device, imaging device, program, storage medium, image processing system, and learned model manufacturing method
JP2021140758A (en) Method for producing learning data, learning method, device for producing learning data, learning device, and program
JP2024137693A (en) IMAGE PROCESSING METHOD, IMAGE PROCESSING DEVICE, PRODUCTION METHOD FOR TRAINED MODEL, LEARNING DEVICE, IMAGE PROCESSING SYSTEM, PROGRAM, AND STORAGE MEDIUM
JP2022110216A (en) Image processing method, image processing device, image processing program, and image processing system
JP2021086272A (en) Image processing method, program, learnt model manufacturing method, image processing apparatus, and image processing system
JP2021039524A (en) Image processing method, image processing device, image processing system, program, and methods for manufacturing trained model
US20240320798A1 (en) Image processing method, image processing apparatus, method for making learned model, learning apparatus, image processing system, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240313

R151 Written notification of patent or utility model registration

Ref document number: 7455574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151