[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102701117B1 - Electronic apparatus capable of image super-resolution based on deep learning and the operating method thereof - Google Patents

Electronic apparatus capable of image super-resolution based on deep learning and the operating method thereof Download PDF

Info

Publication number
KR102701117B1
KR102701117B1 KR1020230071634A KR20230071634A KR102701117B1 KR 102701117 B1 KR102701117 B1 KR 102701117B1 KR 1020230071634 A KR1020230071634 A KR 1020230071634A KR 20230071634 A KR20230071634 A KR 20230071634A KR 102701117 B1 KR102701117 B1 KR 102701117B1
Authority
KR
South Korea
Prior art keywords
output
resolution
image
super
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020230071634A
Other languages
Korean (ko)
Other versions
KR20240102794A (en
Inventor
전광길
Original Assignee
인천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인천대학교 산학협력단 filed Critical 인천대학교 산학협력단
Publication of KR20240102794A publication Critical patent/KR20240102794A/en
Application granted granted Critical
Publication of KR102701117B1 publication Critical patent/KR102701117B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 딥러닝 기반의 이미지 초해상화(super-resolution)가 가능한 전자 장치 및 그 동작 방법을 제시함으로써, 사용자가 보다 편리하게, 낮은 해상도의 이미지로부터 고해상도의 이미지를 획득할 수 있도록 지원할 수 있다.The present invention provides an electronic device capable of image super-resolution based on deep learning and an operating method thereof, thereby enabling a user to more conveniently obtain a high-resolution image from a low-resolution image.

Description

딥러닝 기반의 이미지 초해상화가 가능한 전자 장치 및 그 동작 방법{ELECTRONIC APPARATUS CAPABLE OF IMAGE SUPER-RESOLUTION BASED ON DEEP LEARNING AND THE OPERATING METHOD THEREOF}{ELECTRONIC APPARATUS CAPABLE OF IMAGE SUPER-RESOLUTION BASED ON DEEP LEARNING AND THE OPERATING METHOD THEREOF}

본 발명은 딥러닝 기반의 이미지 초해상화가 가능한 전자 장치 및 그 동작 방법에 대한 것이다.The present invention relates to an electronic device capable of image super-resolution based on deep learning and an operating method thereof.

최근, 이미지의 해상도를 개선하기 위한 다양한 기술들이 등장하고 있다. 낮은 해상도의 이미지를 고해상도의 이미지로 변환하는 기술을 초해상화(super-resolution) 기술이라고 하는데, 이러한 초해상화 기술은 게임, 영화, CCTV 보안 분야, 차량번호 인식 분야 등과 같이 다양한 분야에서 활용될 수 있다.Recently, various technologies have emerged to improve the resolution of images. The technology that converts low-resolution images into high-resolution images is called super-resolution technology, and this super-resolution technology can be used in various fields such as games, movies, CCTV security, and vehicle number recognition.

이미지의 해상도를 개선하는 기술로는, 주변 화소의 화소 값을 기반으로 비어있는 화소들을 채우는 방식의 이미지 보간 기술이 주로 활용되고 있다.The technology that is mainly used to improve the resolution of images is image interpolation, which fills in empty pixels based on the pixel values of surrounding pixels.

아울러, 최근에는 소정의 훈련 데이터를 기초로 결과를 예측하기 위한 학습 모델을 만들 수 있는 기계학습 기반의 인공지능 기술이 등장하고 있다는 점에서, 이미지의 해상도를 개선하는 기술에 대해서도 이러한 인공지능 기술의 활용을 고려할 수 있다.In addition, since machine learning-based artificial intelligence technology has recently emerged that can create a learning model to predict results based on a certain amount of training data, the use of such artificial intelligence technology can also be considered for technologies that improve image resolution.

이와 관련해서, 낮은 해상도의 이미지들과, 해당 이미지들 각각에 대응되는 고해상도의 이미지를 훈련 데이터로 구축해 둔 후, 낮은 해상도의 이미지들을 입력으로 지정하고, 각 이미지에 대응되는 고해상도의 이미지를, 당해 이미지에 대응되는 정답 값으로 매칭시켜, 소정의 딥러닝 모델에 대한 기계학습을 수행함으로써, 이미지의 해상도를 개선하기 위한 학습 모델을 만드는 방법을 고려할 수 있다.In this regard, a method can be considered of creating a learning model for improving the resolution of images by constructing training data with low-resolution images and high-resolution images corresponding to each of the images, designating the low-resolution images as input, matching the high-resolution images corresponding to each image with the corresponding correct answer value, and performing machine learning on a given deep learning model.

본 발명은 딥러닝 기반의 이미지 초해상화가 가능한 전자 장치 및 그 동작 방법을 제시함으로써, 사용자가 보다 편리하게, 낮은 해상도의 이미지로부터 고해상도의 이미지를 획득할 수 있도록 지원하고자 한다.The present invention proposes an electronic device capable of image super-resolution based on deep learning and an operating method thereof, thereby enabling a user to more conveniently obtain a high-resolution image from a low-resolution image.

본 발명의 일실시예에 따른 전자 장치는 사전 수집된 복수의 훈련용 이미지들과, 상기 복수의 훈련용 이미지들 각각에 대응되는 사전 제작된 고해상도 변환 이미지가 저장되어 있는 훈련 데이터 저장부, 상기 훈련 데이터 저장부에 저장되어 있는 상기 복수의 훈련용 이미지들 중 어느 하나의 훈련용 이미지와 그에 대응되는 고해상도 변환 이미지를 선정하여, 상기 선정된 훈련용 이미지를 신경망 모델에 통과시킴으로써, 초해상도(super-resolution) 예측 이미지와 상기 초해상도 예측 이미지가 다운샘플링된 저해상도 예측 이미지를 생성한 후, 상기 초해상도 예측 이미지와 상기 선정된 고해상도 변환 이미지 간의 오차와, 상기 저해상도 예측 이미지와 상기 선정된 훈련용 이미지 간의 오차가 최소가 되도록 하는 기계학습을, 상기 복수의 훈련용 이미지들 각각에 대해 반복 수행함으로써, 초해상화 모델을 생성하는 모델 생성부 및 상기 초해상화 모델의 생성이 완료된 이후에, 사용자에 의해, 제1 실제 이미지가 입력으로 인가되면서 초해상화 명령이 인가되면, 상기 초해상화 모델에 상기 제1 실제 이미지를 입력으로 인가하여, 상기 제1 실제 이미지에 대응되는 초해상도 이미지를 생성하는 이미지 생성부를 포함한다.An electronic device according to one embodiment of the present invention comprises: a training data storage unit storing a plurality of pre-collected training images and a pre-produced high-resolution converted image corresponding to each of the plurality of training images; a model generation unit selecting one of the plurality of training images stored in the training data storage unit and a high-resolution converted image corresponding thereto, and passing the selected training image through a neural network model to generate a super-resolution prediction image and a low-resolution prediction image obtained by downsampling the super-resolution prediction image; and a model generation unit repeatedly performing machine learning for each of the plurality of training images to minimize an error between the super-resolution prediction image and the selected high-resolution converted image and an error between the low-resolution prediction image and the selected training image, thereby generating a super-resolution model; and after the generation of the super-resolution model is completed, when a first real image is input by a user and a super-resolution command is input, the first real image is input to the super-resolution model, and the first real image is generated by applying a machine learning command to the first real image. It includes an image generation unit that generates a corresponding super-resolution image.

또한, 본 발명의 일실시예에 따른 전자 장치의 동작 방법은 사전 수집된 복수의 훈련용 이미지들과, 상기 복수의 훈련용 이미지들 각각에 대응되는 사전 제작된 고해상도 변환 이미지가 저장되어 있는 훈련 데이터 저장부를 유지하는 단계, 상기 훈련 데이터 저장부에 저장되어 있는 상기 복수의 훈련용 이미지들 중 어느 하나의 훈련용 이미지와 그에 대응되는 고해상도 변환 이미지를 선정하여, 상기 선정된 훈련용 이미지를 신경망 모델에 통과시킴으로써, 초해상도 예측 이미지와 상기 초해상도 예측 이미지가 다운샘플링된 저해상도 예측 이미지를 생성한 후, 상기 초해상도 예측 이미지와 상기 선정된 고해상도 변환 이미지 간의 오차와, 상기 저해상도 예측 이미지와 상기 선정된 훈련용 이미지 간의 오차가 최소가 되도록 하는 기계학습을, 상기 복수의 훈련용 이미지들 각각에 대해 반복 수행함으로써, 초해상화 모델을 생성하는 단계 및 상기 초해상화 모델의 생성이 완료된 이후에, 사용자에 의해, 제1 실제 이미지가 입력으로 인가되면서 초해상화 명령이 인가되면, 상기 초해상화 모델에 상기 제1 실제 이미지를 입력으로 인가하여, 상기 제1 실제 이미지에 대응되는 초해상도 이미지를 생성하는 단계를 포함한다.In addition, an operating method of an electronic device according to an embodiment of the present invention comprises the steps of: maintaining a training data storage unit storing a plurality of pre-collected training images and a pre-produced high-resolution converted image corresponding to each of the plurality of training images; selecting one of the plurality of training images stored in the training data storage unit and a high-resolution converted image corresponding thereto, passing the selected training image through a neural network model to generate a super-resolution prediction image and a low-resolution prediction image obtained by downsampling the super-resolution prediction image; and repeatedly performing machine learning for each of the plurality of training images so that an error between the super-resolution prediction image and the selected high-resolution converted image and an error between the low-resolution prediction image and the selected training image are minimized, thereby generating a super-resolution model; and after the generation of the super-resolution model is completed, when a super-resolution command is input by a user while a first real image is input, the first real image is input to the super-resolution model to generate a super-resolution model corresponding to the first real image. It includes a step of generating a super-resolution image.

본 발명은 딥러닝 기반의 이미지 초해상화가 가능한 전자 장치 및 그 동작 방법을 제시함으로써, 사용자가 보다 편리하게, 낮은 해상도의 이미지로부터 고해상도의 이미지를 획득할 수 있도록 지원할 수 있다.The present invention provides an electronic device capable of image super-resolution based on deep learning and an operating method thereof, thereby enabling a user to more conveniently obtain a high-resolution image from a low-resolution image.

도 1은 본 발명의 일실시예에 따른 전자 장치의 구조를 도시한 도면이다.
도 2 내지 도 4는 본 발명의 일실시예에 따른 전자 장치의 동작을 설명하기 위한 도면이다.
도 5는 본 발명의 일실시예에 따른 전자 장치의 동작 방법을 도시한 순서도이다.
FIG. 1 is a drawing illustrating the structure of an electronic device according to one embodiment of the present invention.
FIGS. 2 to 4 are drawings for explaining the operation of an electronic device according to one embodiment of the present invention.
FIG. 5 is a flowchart illustrating an operating method of an electronic device according to an embodiment of the present invention.

이하에서는 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명하기로 한다. 이러한 설명은 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였으며, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 본 명세서 상에서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 사람에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the attached drawings. This description is not intended to limit the present invention to specific embodiments, but should be understood to include all modifications, equivalents, and substitutes included in the spirit and technical scope of the present invention. In describing each drawing, similar reference numerals are used for similar components, and unless otherwise defined, all terms used in this specification, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the art to which the present invention belongs.

본 문서에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다. 또한, 본 발명의 다양한 실시예들에 있어서, 각 구성요소들, 기능 블록들 또는 수단들은 하나 또는 그 이상의 하부 구성요소로 구성될 수 있고, 각 구성요소들이 수행하는 전기, 전자, 기계적 기능들은 전자회로, 집적회로, ASIC(Application Specific Integrated Circuit) 등 공지된 다양한 소자들 또는 기계적 요소들로 구현될 수 있으며, 각각 별개로 구현되거나 2 이상이 하나로 통합되어 구현될 수도 있다. In this document, when a part is said to "include" a certain component, this does not mean that other components are excluded, but rather that other components may be included, unless otherwise specifically stated. In addition, in various embodiments of the present invention, each of the components, functional blocks or means may be composed of one or more subcomponents, and the electrical, electronic and mechanical functions performed by each component may be implemented by various known elements such as electronic circuits, integrated circuits, ASICs (Application Specific Integrated Circuits), or mechanical elements, and each may be implemented separately or two or more may be integrated into one.

한편, 첨부된 블록도의 블록들이나 흐름도의 단계들은 범용 컴퓨터, 특수용 컴퓨터, 휴대용 노트북 컴퓨터, 네트워크 컴퓨터 등 데이터 프로세싱이 가능한 장비의 프로세서나 메모리에 탑재되어 지정된 기능들을 수행하는 컴퓨터 프로그램 명령들(instructions)을 의미하는 것으로 해석될 수 있다. 이들 컴퓨터 프로그램 명령들은 컴퓨터 장치에 구비된 메모리 또는 컴퓨터에서 판독 가능한 메모리에 저장될 수 있기 때문에, 블록도의 블록들 또는 흐름도의 단계들에서 설명된 기능들은 이를 수행하는 명령 수단을 내포하는 제조물로 생산될 수도 있다. 아울러, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 명령들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 가능한 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 정해진 순서와 달리 실행되는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 실질적으로 동시에 수행되거나, 역순으로 수행될 수 있으며, 경우에 따라 일부 블록들 또는 단계들이 생략된 채로 수행될 수도 있다.Meanwhile, the blocks of the attached block diagram or the steps of the flow chart may be interpreted as computer program instructions that are loaded into a processor or memory of a device capable of data processing, such as a general-purpose computer, a special-purpose computer, a portable notebook computer, or a network computer, and perform designated functions. Since these computer program instructions may be stored in a memory equipped in a computer device or a computer-readable memory, the functions described in the blocks of the block diagram or the steps of the flow chart may be produced as a manufactured product that includes a command means for performing the same. In addition, each block or each step may represent a module, segment, or part of code that includes one or more executable instructions for performing a specific logical function(s). In addition, it should be noted that in some alternative embodiments, the functions mentioned in the blocks or steps may be performed in a different order from the specified order. For example, two blocks or steps illustrated in succession may be performed substantially simultaneously or in reverse order, and in some cases, some blocks or steps may be performed with some blocks or steps omitted.

도 1은 본 발명의 일실시예에 따른 전자 장치의 구조를 도시한 도면이다.FIG. 1 is a drawing illustrating the structure of an electronic device according to one embodiment of the present invention.

도 1을 참조하면, 본 발명에 따른 전자 장치(110)는 훈련 데이터 저장부(111), 모델 생성부(112) 및 이미지 생성부(113)를 포함한다.Referring to FIG. 1, an electronic device (110) according to the present invention includes a training data storage unit (111), a model generation unit (112), and an image generation unit (113).

훈련 데이터 저장부(111)에는 사전 수집된 복수의 훈련용 이미지들과, 상기 복수의 훈련용 이미지들 각각에 대응되는 사전 제작된 고해상도 변환 이미지가 저장되어 있다. 여기서, 훈련 데이터 저장부(111)에 저장되어 있는 훈련용 이미지들은 낮은 해상도의 이미지들로 구성해 두는 것이 바람직하고, 이때, 각 훈련용 이미지에 대응되는 고해상도 변환 이미지는, 각 훈련용 이미지를 고해상도로 구현한 이미지로 구성해 두는 것이 바람직하다.The training data storage unit (111) stores a plurality of pre-collected training images and a pre-produced high-resolution converted image corresponding to each of the plurality of training images. Here, it is preferable that the training images stored in the training data storage unit (111) are composed of low-resolution images, and at this time, it is preferable that the high-resolution converted image corresponding to each training image is composed of an image that implements each training image in high resolution.

모델 생성부(112)는 훈련 데이터 저장부(111)에 저장되어 있는 상기 복수의 훈련용 이미지들 중 어느 하나의 훈련용 이미지와 그에 대응되는 고해상도 변환 이미지를 선정하여, 상기 선정된 훈련용 이미지를 신경망 모델에 통과시킴으로써, 초해상도(super-resolution) 예측 이미지와 상기 초해상도 예측 이미지가 다운샘플링된 저해상도 예측 이미지를 생성한 후, 상기 초해상도 예측 이미지와 상기 선정된 고해상도 변환 이미지 간의 오차와, 상기 저해상도 예측 이미지와 상기 선정된 훈련용 이미지 간의 오차가 최소가 되도록 하는 기계학습을, 상기 복수의 훈련용 이미지들 각각에 대해 반복 수행함으로써, 초해상화 모델을 생성한다.The model generation unit (112) selects one training image and its corresponding high-resolution conversion image from among the plurality of training images stored in the training data storage unit (111), passes the selected training image through a neural network model, thereby generating a super-resolution prediction image and a low-resolution prediction image obtained by downsampling the super-resolution prediction image, and then repeatedly performs machine learning for each of the plurality of training images so that the error between the super-resolution prediction image and the selected high-resolution conversion image and the error between the low-resolution prediction image and the selected training image are minimized, thereby generating a super-resolution model.

이때, 본 발명의 일실시예에 따르면, 모델 생성부(112)는 출력맵 생성부(114), 순방향 출력부(115), 역방향 출력부(116), 초해상도 예측부(117), 저해상도 예측부(118) 및 학습 수행부(119)를 포함할 수 있다. 이하에서는 도 2 내지 도 4에 도시된 프레임워크를 기반으로, 모델 생성부(112)의 세부 구성에 대해서 설명하기로 한다.At this time, according to one embodiment of the present invention, the model generation unit (112) may include an output map generation unit (114), a forward output unit (115), a reverse output unit (116), a super-resolution prediction unit (117), a low-resolution prediction unit (118), and a learning execution unit (119). Hereinafter, the detailed configuration of the model generation unit (112) will be described based on the framework illustrated in FIGS. 2 to 4.

출력맵 생성부(114)는 상기 복수의 훈련용 이미지들 중 어느 하나인 제1 훈련용 이미지(LR)가 선정됨에 따라, 상기 제1 훈련용 이미지(LR)에 대한 기계학습 과정이 수행되어야 하는 순서가 되는 경우, 상기 제1 훈련용 이미지(LR)를, T(T는 3이상의 자연수임)개의 합성곱(Convolution)층들(211)에 각각 통과시켜 T개의 출력맵들을 생성한다.When the machine learning process for the first training image (LR) is to be performed in order as the first training image (LR) is selected among the plurality of training images, the output map generation unit (114) passes the first training image (LR) through T (T is a natural number greater than or equal to 3) convolution layers (211) to generate T output maps.

관련해서, T를 3이라고 하는 경우, 출력맵 생성부(114)는 도 2에 도시된 그림과 같이, 상기 제1 훈련용 이미지(LR)를, 도면부호 211에 도시된 그림과 같이, 3개의 합성곱층들(211)에 각각 통과시켜 3개의 출력맵들을 생성할 수 있다.In this regard, when T is 3, the output map generation unit (114) can generate three output maps by passing the first training image (LR) through three convolution layers (211), as shown in the figure in FIG. 2, as shown in the figure at reference numeral 211.

순방향 출력부(115)는 상기 T개의 출력맵들 각각을, 각 출력맵을 입력으로 인가받도록 구성되어 있는 T개의 제1 크로스-러닝 피드백 블록(Cross-learning Feedback Block: CFB)들(212) 각각에 순차적으로 하나씩 입력으로 인가하되, t번째 출력맵이 t번째 제1 CFB에 인가될 때에는, t-1번째 제1 CFB의 출력을 상기 t번째 제1 CFB에 함께 입력으로 인가하는 방식으로, 상기 T개의 제1 CFB들(212) 각각의 출력을 생성함으로써, T개의 순방향 출력들을 생성한다.The forward output unit (115) sequentially applies each of the T output maps as input to each of the T first cross-learning feedback blocks (CFBs) (212) configured to receive each output map as input, and when the t-th output map is applied to the t-th first CFB, the output of the t-1-th first CFB is also applied as input to the t-th first CFB, thereby generating the output of each of the T first CFBs (212), thereby generating the T forward outputs.

관련해서, 전술한 예와 같이, T를 3이라고 하는 경우, 본 발명에서는 도면부호 212에 도시된 그림과 같이, 3개의 제1 CFB들(212)이 존재할 수 있고, 이때, 각 제1 CFB는 3개의 출력맵들 각각을 입력으로 인가받도록 구성되어 있을 수 있다. 이때, 순방향 출력부(115)는 출력맵 생성부(114)를 통해, 3개의 출력맵들이 생성되면, 도면부호 212에 도시된 그림과 같이, 각 출력맵을 제1 CFB에 순차적으로 하나씩 입력으로 인가하되, t번째 출력맵이 t번째 제1 CFB에 인가될 때에는, t-1번째 제1 CFB의 출력을 상기 t번째 제1 CFB에 함께 입력으로 인가하는 방식으로, 상기 3개의 제1 CFB들(212) 각각의 출력을 생성함으로써, 3개의 순방향 출력들을 생성할 수 있다.In this regard, as in the example described above, when T is 3, in the present invention, as shown in the drawing reference numeral 212, there may be three first CFBs (212), and at this time, each first CFB may be configured to receive each of the three output maps as input. At this time, when the three output maps are generated through the forward output unit (115) through the output map generation unit (114), as shown in the drawing reference numeral 212, each output map is sequentially applied as input to the first CFB one by one, but when the t-th output map is applied to the t-th first CFB, the output of the t-1-th first CFB is applied together as input to the t-th first CFB, thereby generating the output of each of the three first CFBs (212), thereby generating three forward outputs.

구체적으로, 순방향 출력부(115)는 도 2에서 '(1)'로 표기한 바와 같이, 1번째 출력맵을 1번째 제1 CFB에 입력으로 인가할 수 있다. 이때, 1번째 제1 CFB의 이전 순번의 CFB는 존재하지 않으므로, 순방향 출력부(115)는 1번째 출력맵만을 1번째 제1 CFB에 입력으로 인가할 수 있다. 그러고 나서, 순방향 출력부(115)는 도 2에서 '(2)'로 표기한 바와 같이, 2번째 출력맵을 2번째 제1 CFB에 입력으로 인가함과 동시에, 1번째 제1 CFB의 출력을 2번째 제1 CFB에 함께 입력으로 인가할 수 있다. 마지막으로, 순방향 출력부(115)는 도 2에서 '(3)'로 표기한 바와 같이, 3번째 출력맵을 3번째 제1 CFB에 입력으로 인가함과 동시에, 2번째 제1 CFB의 출력을 3번째 제1 CFB에 함께 입력으로 인가할 수 있다. 이를 통해, 순방향 출력부(115)는 1, 2, 3번째 제1 CFB들(212) 각각으로부터 출력을 생성함으로써, 3개의 순방향 출력들을 생성할 수 있다.Specifically, the forward output unit (115) can apply the first output map as input to the first CFB, as indicated by '(1)' in Fig. 2. At this time, since the CFB of the previous order of the first CFB does not exist, the forward output unit (115) can apply only the first output map as input to the first CFB. Then, the forward output unit (115) can apply the second output map as input to the second CFB, as indicated by '(2)' in Fig. 2, and at the same time apply the output of the first CFB as input to the second CFB. Finally, the forward output unit (115) can input the third output map to the third first CFB as an input, as indicated by '(3)' in Fig. 2, and simultaneously input the output of the second first CFB to the third first CFB. Through this, the forward output unit (115) can generate three forward outputs by generating outputs from each of the first, second, and third first CFBs (212).

역방향 출력부(116)는 상기 T개의 순방향 출력들 각각을, 각 순방향 출력을 입력으로 인가받도록 구성되어 있는 T개의 제2 CFB들(213) 각각에, 상기 T개의 제1 CFB들(212)에 대한 입력의 인가 순서와 반대되는 순서로 하나씩 입력으로 인가하되, t번째 순방향 출력이 t번째 제2 CFB에 인가될 때에는, t+1번째 제2 CFB의 출력과 t번째 출력맵을 상기 t번째 제2 CFB에 함께 입력으로 인가하는 방식으로, 상기 T개의 제2 CFB들(213) 각각의 출력을 생성함으로써, T개의 역방향 출력들을 생성한다.The reverse output unit (116) applies each of the T forward outputs as inputs to each of the T second CFBs (213) configured to receive each forward output as inputs, one by one, in an order opposite to the order of application of inputs to the T first CFBs (212), but when the t-th forward output is applied to the t-th second CFB, the output of the t+1-th second CFB and the t-th output map are applied together as inputs to the t-th second CFB, thereby generating the outputs of each of the T second CFBs (213), thereby generating the T reverse outputs.

관련해서, 전술한 예와 같이, T를 3이라고 하는 경우, 본 발명에서는 도면부호 213에 도시된 그림과 같이, 3개의 제2 CFB들(213)이 존재할 수 있고, 이때, 각 제2 CFB는, 3개의 제1 CFB(212)들의 순방향 출력을, 각각 입력으로 인가받도록 구성되어 있을 수 있다. 이때, 역방향 출력부(116)는 순방향 출력부(115)를 통해, 3개의 순방향 출력들이 생성되면, 도면부호 213에 도시된 그림과 같이, 각 순방향 출력을, 3개의 제1 CFB(212)들에 대한 입력의 인가 순서와 반대되는 순서로, 제2 CFB 각각에 순차적으로 하나씩 입력으로 인가하되, t번째 순방향 출력이 t번째 제2 CFB에 인가될 때에는, t+1번째 제2 CFB의 출력과 t번째 출력맵을 상기 t번째 제2 CFB에 함께 입력으로 인가하는 방식으로, 상기 3개의 제2 CFB들(213) 각각의 출력을 생성함으로써, 3개의 역방향 출력들을 생성할 수 있다.In relation to this, as in the example described above, when T is 3, in the present invention, as shown in the drawing reference numeral 213, three second CFBs (213) may exist, and at this time, each second CFB may be configured to receive the forward outputs of the three first CFBs (212) as inputs, respectively. At this time, when three forward outputs are generated through the forward output unit (115), as shown in the drawing symbol 213, each forward output is sequentially applied as an input to each of the second CFBs in an order opposite to the order of application of inputs to the three first CFBs (212), but when the t-th forward output is applied to the t-th second CFB, the output of the t+1-th second CFB and the t-th output map are applied together as inputs to the t-th second CFB, thereby generating the output of each of the three second CFBs (213), thereby generating three reverse outputs.

구체적으로, 역방향 출력부(116)는 도 2에서 '(3)'으로 표기한 바와 같이, 3번째 순방향 출력을 3번째 제2 CFB에 입력으로 인가할 수 있다. 이때, 3번째 제2 CFB의 이후 순번의 CFB는 존재하지 않으므로, 순방향 출력부(115)는 3번째 순방향 출력과 3번째 출력맵만을 3번째 제2 CFB에 입력으로 인가할 수 있다. 그러고 나서, 역방향 출력부(116)는 도 2에서 '(2)'로 표기한 바와 같이, 2번째 순방향 출력을 2번째 제2 CFB에 입력으로 인가함과 동시에, 3번째 제2 CFB의 출력과 2번째 출력맵을 2번째 제2 CFB에 함께 입력으로 인가할 수 있다. 마지막으로, 역방향 출력부(116)는 도 2에서 '(1)'로 표기한 바와 같이, 1번째 순방향 출력을 1번째 제1 CFB에 입력으로 인가함과 동시에, 2번째 제2 CFB의 출력과 1번째 출력맵을 1번째 제2 CFB에 함께 입력으로 인가할 수 있다. 이를 통해, 역방향 출력부(116)는 1, 2, 3번째 제2 CFB들(213) 각각으로부터 출력을 생성함으로써, 3개의 역방향 출력들을 생성할 수 있다.Specifically, the reverse output unit (116) can apply the third forward output as input to the third second CFB, as indicated by '(3)' in Fig. 2. At this time, since there is no CFB in the order following the third second CFB, the forward output unit (115) can apply only the third forward output and the third output map as input to the third second CFB. Then, the reverse output unit (116) can apply the second forward output as input to the second second CFB, as indicated by '(2)' in Fig. 2, and at the same time apply the output of the third second CFB and the second output map together as input to the second second CFB. Finally, the reverse output unit (116) can input the first forward output to the first CFB as an input, as indicated by '(1)' in Fig. 2, and simultaneously input the output of the second CFB and the first output map to the first CFB as input. Through this, the reverse output unit (116) can generate three reverse outputs by generating outputs from each of the first, second, and third second CFBs (213).

이때, 본 발명의 일실시예에 따르면, 상기 T개의 제1 CFB들과 상기 T개의 제2 CFB들 각각은, 도 3에 도시된 그림과 같이 5개의 잔차 어텐션 블록들(Residual Attention Block: RAB)이 서로 연결된 제1 연결 블록(311)과, 3개의 RAB들이 서로 연결된 제2 연결 블록(312)으로 구성되어 있는 블록일 수 있다.At this time, according to one embodiment of the present invention, each of the T first CFBs and the T second CFBs may be a block composed of a first connection block (311) in which five residual attention blocks (RABs) are connected to each other, and a second connection block (312) in which three RABs are connected to each other, as illustrated in the diagram of FIG. 3.

이때, CFB는 입력(Fin)이 상기 제1 연결 블록(311)을 구성하는 1번째 RAB에 인가되도록 구성되어 있음과 동시에, 상기 제1 연결 블록(311)을 구성하는 5번째 RAB의 출력(Fout)을 최종 출력으로 산출하도록 구성되어 있을 수 있다.At this time, the CFB may be configured so that the input (F in ) is applied to the first RAB constituting the first connection block (311), and at the same time, the CFB may be configured so as to produce the output (F out ) of the fifth RAB constituting the first connection block (311) as the final output.

이때, CFB는, 상기 제1 연결 블록(311)을 구성하는 1번째 RAB를 통한 출력이 산출되면, 산출된 출력이 상기 제1 연결 블록(311)을 구성하는 2번째 RAB에 입력으로 인가되도록 함과 동시에, 산출된 출력이 업샘플링되어 상기 제2 연결 블록(312)을 구성하는 1번째 RAB에 입력으로 인가되도록 구성되어 있을 수 있다.At this time, the CFB may be configured so that when an output is produced through the first RAB constituting the first connection block (311), the produced output is applied as an input to the second RAB constituting the first connection block (311), and at the same time, the produced output is upsampled and applied as an input to the first RAB constituting the second connection block (312).

이때, 상기 제1 연결 블록(311)을 구성하는 2, 3, 4, 5번째 RAB 각각은, 이전 순번의 RAB의 출력을 인가받도록 구성되되, 3, 4번째 RAB는 각각, 상기 제2 연결 블록(312)을 구성하는 1, 2번째 RAB의 출력이 다운샘플링된 결과를 추가적으로 인가받도록 구성되어 있고, 5번째 RAB는, 2, 3번째 RAB의 출력과 상기 제2 연결 블록(312)을 구성하는 3번째 RAB의 출력이 다운샘플링된 결과를 추가적으로 인가받도록 구성되어 있을 수 있다.At this time, the 2nd, 3rd, 4th, and 5th RABs constituting the first connection block (311) are configured to receive the output of the RAB of the previous order, but the 3rd and 4th RABs are configured to additionally receive the results of downsampling the outputs of the 1st and 2nd RABs constituting the second connection block (312), and the 5th RAB may be configured to additionally receive the results of downsampling the outputs of the 2nd and 3rd RABs and the output of the 3rd RAB constituting the second connection block (312).

또한, 상기 제2 연결 블록(312)을 구성하는 2, 3번째 RAB 각각은, 이전 순번의 RAB의 출력을 인가받도록 구성되어 있음과 동시에, 상기 제1 연결 블록(311)을 구성하는 2, 3번째 RAB의 출력이 업샘플링된 결과를 추가적으로 인가받도록 구성되어 있을 수 있다.In addition, each of the second and third RABs constituting the second connection block (312) may be configured to receive the output of the RAB of the previous order, and additionally receive the upsampled output of the second and third RABs constituting the first connection block (311).

이때, 본 발명의 일실시예에 따르면, 상기 RAB는, 도 4에 도시된 그림과 같이, 입력(Fin)을 합성곱층과 채널 어텐션 모듈 및 공간 어텐션 모듈에 순차적으로 통과시켜 출력을 생성한 후, 생성된 출력과 입력 간의 잔차 연결을 통해 최종 출력(Fout)을 산출하도록 구성된 블록일 수 있다. 여기서, 채널 어텐션이란, 채널에 중점을 두고 강조를 하는 방법으로, 특징맵 채널 간의 관계를 계산하는 모델을 의미하고, 공간 어텐션이란, 채널 어텐션과 다르게 합성곱으로 주변 픽셀 간의 관계를 계산하고, 이러한 과정으로 추출된 특징맵과 요소별 곱셈 연산을 통해 강조를 진행하는 모델을 의미한다.At this time, according to one embodiment of the present invention, the RAB may be a block configured to sequentially pass the input (F in ) through a convolution layer, a channel attention module, and a spatial attention module to generate an output, as illustrated in FIG. 4, and then produce the final output (F out ) through a residual connection between the generated output and the input. Here, channel attention refers to a model that calculates the relationship between feature map channels by focusing on the channel and emphasizing it, and spatial attention refers to a model that calculates the relationship between surrounding pixels by convolution, unlike channel attention, and performs emphasis through an element-by-element multiplication operation with the feature map extracted through this process.

초해상도 예측부(117)는 상기 T개의 순방향 출력들과 상기 T개의 역방향 출력들을, 동일 순번의 출력끼리 결합하여 디컨볼루션(Deconvolution)층(214)에 각각 통과시켜 업샘플링을 수행함으로써, T개의 업샘플링맵들을 생성한 후, 상기 T개의 업샘플링맵들을 결합하여 합성곱층(215)에 통과시킨 결과와 상기 제1 훈련용 이미지에 대해 바이큐빅(bicubic) 보간(216)을 수행한 결과를 서로 결합함으로써, 제1 초해상도 예측 이미지(SR)를 생성한다.The super-resolution prediction unit (117) performs upsampling by combining the T forward outputs and the T reverse outputs, passing them through a deconvolution layer (214) by combining outputs of the same order, thereby generating T upsampling maps, and then combining the results of combining the T upsampling maps and passing them through a convolution layer (215) with the results of performing bicubic interpolation (216) on the first training image, thereby generating a first super-resolution prediction image (SR).

관련해서, 도 2에 도시된 그림과 같이, 3개의 순방향 출력들과 3개의 역방향 출력들이 생성되었다고 하는 경우, 초해상도 예측부(117)는 '(1)'로 표기한 바와 같이, 1번째 순방향 출력과 1번째 역방향 출력을 결합하여 디컨볼루션층에 통과시킴으로써 업샘플링을 수행할 수 있고, '(2)'로 표기한 바와 같이, 2번째 순방향 출력과 2번째 역방향 출력을 결합하여 디컨볼루션층에 통과시킴으로써 업샘플링을 수행할 수 있으며, '(3)'으로 표기한 바와 같이, 3번째 순방향 출력과 3번째 역방향 출력을 결합하여 디컨볼루션층에 통과시킴으로써 업샘플링을 수행할 수 있다.In this regard, as shown in the diagram in FIG. 2, when three forward outputs and three reverse outputs are generated, the super-resolution prediction unit (117) can perform upsampling by combining the first forward output and the first reverse output and passing them through a deconvolution layer, as indicated by '(1)', and can perform upsampling by combining the second forward output and the second reverse output and passing them through a deconvolution layer, as indicated by '(2)', and can perform upsampling by combining the third forward output and the third reverse output and passing them through a deconvolution layer, as indicated by '(3)'.

그러고 나서, 초해상도 예측부(117)는 도면부호 215에 도시된 바와 같이, 3개의 업샘플링맵들을 결합하여 합성곱층(215)에 통과시킬 수 있고, 도면부호 216에 도시된 바와 같이, 상기 제1 훈련용 이미지에 대해 바이큐빅 보간(216)을 수행할 수 있다. 여기서, 바이큐빅 보간이란, 주변 픽셀 값을 기반으로 이미지의 새 픽셀 값을 추정하는 방법론을 의미한다.Then, the super-resolution prediction unit (117) can combine three upsampling maps as illustrated in the reference numeral 215 and pass them to the convolution layer (215), and perform bicubic interpolation (216) on the first training image as illustrated in the reference numeral 216. Here, bicubic interpolation means a methodology for estimating new pixel values of an image based on surrounding pixel values.

그 이후, 초해상도 예측부(117)는 합성곱층(215)의 통과 결과와 바이큐빅 보간(216)의 결과를 결합함으로써, 제1 초해상도 예측 이미지(SR)를 생성할 수 있다.Thereafter, the super-resolution prediction unit (117) can generate a first super-resolution prediction image (SR) by combining the result of passing through the convolution layer (215) and the result of bicubic interpolation (216).

저해상도 예측부(118)는, 초해상도 예측부(117)를 통해, 상기 제1 초해상도 예측 이미지(SR)가 생성되면, 도면부호 217에 도시된 바와 같이, 상기 제1 초해상도 예측 이미지(SR)를 합성곱층(217)에 통과시켜 다운샘플링을 수행함으로써, 제1 저해상도 예측 이미지(LR')를 생성한다.The low-resolution prediction unit (118) generates the first super-resolution prediction image (SR) through the super-resolution prediction unit (117), and then, as shown in the drawing reference numeral 217, passes the first super-resolution prediction image (SR) through the convolution layer (217) to perform downsampling, thereby generating the first low-resolution prediction image (LR').

이렇게, 상기 제1 초해상도 예측 이미지(SR)와 상기 제1 저해상도 예측 이미지(LR')가 생성되면, 학습 수행부(119)는, 상기 제1 초해상도 예측 이미지(SR)와 훈련 데이터 저장부(111)에 저장되어 있는, 상기 제1 훈련용 이미지에 대응되는 제1 고해상도 변환 이미지 간의 제1 오차와, 상기 제1 저해상도 예측 이미지(LR')와 상기 제1 훈련용 이미지(LR) 간의 제2 오차의 가중합(weighted sum)이 최소가 되도록 기계학습을 수행한다.In this way, when the first super-resolution prediction image (SR) and the first low-resolution prediction image (LR') are generated, the learning performing unit (119) performs machine learning so that a weighted sum of a first error between the first super-resolution prediction image (SR) and the first high-resolution converted image corresponding to the first training image stored in the training data storage unit (111) and a second error between the first low-resolution prediction image (LR') and the first training image (LR) is minimized.

관련해서, 학습 수행부(119)는 하기의 수학식 1에 따른 가중합을 손실 값으로 연산한 후, 이 손실 값이 최소가 되도록 기계학습을 수행할 수 있다.In relation to this, the learning execution unit (119) can perform machine learning so that the loss value is minimized after calculating the weighted sum according to the following mathematical expression 1 as a loss value.

여기서, L1은 제1 오차, L2는 제2 오차, SR은 제1 초해상도 예측 이미지, HR은 제1 고해상도 변환 이미지, LR'은 제1 저해상도 예측 이미지, LR은 제1 훈련용 이미지를 의미하며, θ는 사전 지정된 가중치를 의미한다.Here, L 1 represents the first error, L 2 represents the second error, SR represents the first super-resolution prediction image, HR represents the first high-resolution converted image, LR' represents the first low-resolution prediction image, LR represents the first training image, and θ represents a pre-specified weight.

이때, 본 발명의 일실시예에 따르면, 학습 수행부(119)는 상기 수학식 1과 같은 손실 값이 최소가 되도록 역전파(BackPropagation) 처리를 수행할 수 있다.At this time, according to one embodiment of the present invention, the learning execution unit (119) can perform backpropagation processing so that the loss value as in the mathematical expression 1 is minimized.

지금까지 설명한 방식에 따라, 모델 생성부(112)는 훈련 데이터 저장부(111)에 저장되어 있는 상기 복수의 훈련용 이미지들과 그에 대응되는 고해상도 변환 이미지를 기초로 한 기계학습을 반복 수행함으로써, 이미지의 해상도를 향상시키기 위한 초해상화 모델을 생성할 수 있다.According to the method described so far, the model generation unit (112) can generate a super-resolution model for improving the resolution of an image by repeatedly performing machine learning based on the plurality of training images stored in the training data storage unit (111) and the corresponding high-resolution converted images.

이렇게, 모델 생성부(112)를 통해 상기 초해상화 모델의 생성이 완료된 이후에, 사용자에 의해, 제1 실제 이미지가 입력으로 인가되면서 초해상화 명령이 인가되면, 이미지 생성부(113)는 상기 초해상화 모델에 상기 제1 실제 이미지를 입력으로 인가하여, 상기 제1 실제 이미지에 대응되는 초해상도 이미지를 생성한다.In this way, after the generation of the super-resolution model is completed through the model generation unit (112), when a super-resolution command is entered by the user while a first real image is input, the image generation unit (113) inputs the first real image as an input to the super-resolution model and generates a super-resolution image corresponding to the first real image.

이때, 본 발명의 일실시예에 따르면, 이미지 생성부(113)는 상기 초해상화 모델의 생성이 완료된 이후에, 사용자에 의해, 상기 제1 실제 이미지가 입력으로 인가되면서 초해상화 명령이 인가되면, 상기 초해상화 모델에 상기 제1 실제 이미지를 입력으로 인가함으로써, 상기 제1 실제 이미지를, 도면부호 211에 도시된 바와 같이, 상기 T개의 합성곱층들(211)에 각각 통과시켜 T개의 실제 출력맵들을 생성할 수 있다.At this time, according to one embodiment of the present invention, when a super-resolution command is input by a user while the first real image is input after the generation of the super-resolution model is completed, the image generation unit (113) inputs the first real image as an input to the super-resolution model, thereby passing the first real image through each of the T convolution layers (211), as illustrated in the drawing reference numeral 211, to generate T real output maps.

그 이후, 이미지 생성부(113)는 도면부호 212에 도시된 바와 같이, 상기 T개의 실제 출력맵들 각각을, 상기 T개의 제1 CFB들(212) 각각에 순차적으로 하나씩 입력으로 인가하되, t번째 실제 출력맵이 t번째 제1 CFB에 인가될 때에는, t-1번째 제1 CFB의 출력을 상기 t번째 제1 CFB에 함께 입력으로 인가하는 방식으로, 상기 T개의 제1 CFB들(212) 각각의 출력을 생성함으로써, T개의 실제 순방향 출력들을 생성할 수 있다.Thereafter, the image generating unit (113) sequentially applies each of the T actual output maps as input to each of the T first CFBs (212), as illustrated in the drawing symbol 212, but when the t-th actual output map is applied to the t-th first CFB, the output of the t-1-th first CFB is also applied as input to the t-th first CFB, thereby generating the output of each of the T first CFBs (212), thereby generating the T actual forward outputs.

그러고 나서, 이미지 생성부(113)는 도면부호 213에 도시된 바와 같이, 상기 T개의 실제 순방향 출력들 각각을, 상기 T개의 제2 CFB들(213) 각각에, 상기 T개의 제1 CFB들(212)에 대한 입력의 인가 순서와 반대되는 순서로 하나씩 입력으로 인가하되, t번째 실제 순방향 출력이 t번째 제2 CFB에 인가될 때에는, t+1번째 제2 CFB의 출력과 t번째 실제 출력맵을 상기 t번째 제2 CFB에 함께 입력으로 인가하는 방식으로, 상기 T개의 제2 CFB들(213) 각각의 출력을 생성함으로써, T개의 실제 역방향 출력들을 생성할 수 있다.Then, the image generating unit (113) applies each of the T actual forward outputs as inputs to each of the T second CFBs (213) one by one in an order opposite to the order of application of inputs to the T first CFBs (212), as illustrated in the drawing reference numeral 213, but when the t-th actual forward output is applied to the t-th second CFB, the output of the t+1-th second CFB and the t-th actual output map are applied together as inputs to the t-th second CFB, thereby generating the outputs of each of the T second CFBs (213), thereby generating the T actual reverse outputs.

그 이후, 이미지 생성부(113)는 도면부호 214에 도시된 바와 같이, 상기 T개의 실제 순방향 출력들과 상기 T개의 실제 역방향 출력들을, 동일 순번의 출력끼리 결합하여 상기 디컨볼루션층(214)에 각각 통과시켜 업샘플링을 수행함으로써, T개의 실제 업샘플링맵들을 생성한 후, 상기 T개의 실제 업샘플링맵들을 결합하여 합성곱층(215)에 통과시킨 결과와 상기 제1 실제 이미지에 대해 바이큐빅 보간(216)을 수행한 결과를 서로 결합함으로써, 상기 제1 실제 이미지에 대응되는 초해상도 이미지를 생성할 수 있다.Thereafter, the image generation unit (113) performs upsampling by combining the T actual forward outputs and the T actual reverse outputs, as shown in the drawing reference numeral 214, by passing them through the deconvolution layer (214) by combining outputs of the same order, thereby generating T actual upsampling maps, and then combining the results of combining the T actual upsampling maps and passing them through the convolution layer (215) with the results of performing bicubic interpolation (216) on the first actual image, thereby generating a super-resolution image corresponding to the first actual image.

본 발명의 일실시예에 따르면, 전자 장치(110)는, 소정의 인증된 사용자만이, 학습이 완료된 상기 초해상화 모델을 이용하여 소정의 이미지로부터 해상도 개선이 완료된 초해상도 이미지를 획득할 수 있도록 하기 위한, 사용자 인증과 관련된 구성을 더 포함할 수 있다.According to one embodiment of the present invention, the electronic device (110) may further include a configuration related to user authentication so that only a predetermined authenticated user can obtain a super-resolution image with improved resolution from a predetermined image using the super-resolution model for which learning has been completed.

이를 위해, 본 발명의 일실시예에 따르면, 전자 장치(110)는 인증 값 저장부(120), 인증 완료부(121) 및 메시지 표시부(122)를 더 포함할 수 있다.To this end, according to one embodiment of the present invention, the electronic device (110) may further include an authentication value storage unit (120), an authentication completion unit (121), and a message display unit (122).

우선, 본 발명에서는 사용자 인증을 수행하기 위해서, 상기 초해상화 모델을 이용할 수 있는 사람으로 사전 지정된 사용자에 대해, p(p는 2이상의 자연수임)자리수의 제1 사용자 식별번호와 q(q는 2이상의 자연수임)자리수의 제1 비밀번호가 사전 발급되어 있음을 가정한다.First, in order to perform user authentication in the present invention, it is assumed that a first user identification number of p (where p is a natural number greater than or equal to 2) digits and a first password of q (where q is a natural number greater than or equal to 2) digits have been pre-issued to a user who has been pre-designated as a person who can use the super-resolution model.

이때, 인증 값 저장부(120)에는 상기 초해상화 모델을 이용할 수 있는 사용자임을 인증하기 위한, 사전 발급된 인증 값이 저장되어 있을 수 있다.At this time, the authentication value storage unit (120) may store a pre-issued authentication value for authenticating that the user is capable of using the super-resolution model.

여기서, 상기 인증 값은, 상기 제1 사용자 식별번호를 구성하는 p개의 숫자들 각각에 대해 모듈로(modulo)-2 연산이 수행된 결과 값으로 구성된 제1 벡터와, 상기 제1 비밀번호를 구성하는 q개의 숫자들 각각에 대해 모듈로-2 연산이 수행된 결과 값으로 구성된 제2 벡터 간의 합성곱 연산이 수행되어 생성된 결과 값이다.Here, the authentication value is a result value generated by performing a convolution operation between a first vector composed of a result value obtained by performing a modulo-2 operation on each of the p numbers constituting the first user identification number, and a second vector composed of a result value obtained by performing a modulo-2 operation on each of the q numbers constituting the first password.

예컨대, 상기 제1 사용자 식별번호가 '12345'라고 하고, 상기 제1 비밀번호가 '567'이라고 하는 경우, 상기 인증 값은, '12345'를 구성하는 '1', '2', '3', '4', '5' 각각에 대해 모듈로-2 연산이 수행된 연산 결과인 '1', '0', '1', '0', '1'로 구성되는 '[1 0 1 0 1]'이라는 제1 벡터와, '567'을 구성하는 '5', '6', '7' 각각에 대해 모듈로-2 연산이 수행된 연산 결과인 '1', '0', '1'로 구성되는 '[1 0 1]'이라는 제2 벡터 간의 합성곱 연산이 수행되어 생성된 결과 값일 수 있다.For example, if the first user identification number is '12345' and the first password is '567', the authentication value may be a result value generated by performing a convolution operation between a first vector '[1 0 1 0 1]' composed of '1', '0', '1', '0', '1' which are the operation results of performing a modulo-2 operation on '1', '2', '3', '4', '5' which constitute '12345', and a second vector '[1 0 1]' composed of '1', '0', '1' which are the operation results of performing a modulo-2 operation on '5', '6', '7' which constitute '567'.

인증 완료부(121)는, 모델 생성부(120)를 통해, 상기 초해상화 모델의 생성이 완료된 이후에, 사용자로부터 상기 초해상화 모델의 이용을 위한 사용자 인증 요청 명령이 인가되면, 화면 상에, 사용자 인증을 위한 사용자 식별번호와 비밀번호를 입력할 것을 지시하는 메시지를 표시한 후, 사용자에 의해, 상기 제1 사용자 식별번호와 상기 제1 비밀번호가 입력되면, 상기 제1 사용자 식별번호를 구성하는 p개의 숫자들 각각에 대해 모듈로-2 연산을 수행한 결과 값으로 구성된 제1 벡터와, 상기 제1 비밀번호를 구성하는 q개의 숫자들 각각에 대해 모듈로-2 연산을 수행한 결과 값으로 구성된 제2 벡터 간의 합성곱 연산을 수행함으로써, 검증 값을 생성한 후, 상기 검증 값이 상기 인증 값과 일치하는지 확인하여, 서로 일치하는 것으로 확인되면, 사용자 인증을 완료 처리한다.The authentication completion unit (121) displays a message on the screen instructing the user to enter a user identification number and password for user authentication when a user authentication request command for use of the super-resolution model is authorized from the user after the generation of the super-resolution model is completed through the model generation unit (120), and then, when the first user identification number and the first password are entered by the user, a first vector formed by the result values of performing a modulo-2 operation on each of the p numbers constituting the first user identification number and a second vector formed by the result values of performing a modulo-2 operation on each of the q numbers constituting the first password is performed to generate a verification value, and then verifies whether the verification value matches the verification value, and if it is confirmed that they match, the user authentication is completed.

관련해서, 사용자에 의해, '12345'라고 하는 제1 사용자 식별번호와 '567'이라고 하는 제1 비밀번호가 인가되었다면, 인증 완료부(121)는 상기 제1 사용자 식별번호인 '12345'를 구성하는 '1', '2', '3', '4', '5' 각각에 대해 모듈로-2 연산이 수행된 연산 결과인 '1', '0', '1', '0', '1'로 구성되는 '[1 0 1 0 1]'이라는 제1 벡터와, 상기 제1 비밀번호인 '567'을 구성하는 '5', '6', '7' 각각에 대해 모듈로-2 연산이 수행된 연산 결과인 '1', '0', '1'로 구성되는 '[1 0 1]'이라는 제2 벡터 간의 합성곱 연산을 수행함으로써, 상기 검증 값을 생성할 수 있다.In this regard, if a first user identification number, say '12345', and a first password, say '567', are authorized by the user, the authentication completion unit (121) can generate the verification value by performing a convolution operation between a first vector, say '[1 0 1 0 1]', which is composed of '1', '0', '1', '0', '1', which are the results of a modulo-2 operation performed on each of '1', '2', '3', '4', and '5' constituting the first user identification number, '12345', and a second vector, say '[1 0 1]', which is composed of '1', '0', and '1', which are the results of a modulo-2 operation performed on each of '5', '6', and '7' constituting the first password, '567'.

그러고 나서, 인증 완료부(121)는 상기 검증 값이, 인증 값 저장부(120)에 저장되어 있는 상기 인증 값과 일치하는지 확인하여, 서로 일치하는 것으로 확인되면, 사용자에 의해 입력된 상기 제1 사용자 식별번호와 상기 제1 비밀번호가 제대로 입력된 것으로 판단하고, 사용자 인증을 완료 처리할 수 있다.Then, the authentication completion unit (121) checks whether the verification value matches the authentication value stored in the authentication value storage unit (120), and if they match, it determines that the first user identification number and the first password entered by the user have been entered correctly, and can complete the user authentication process.

메시지 표시부(122)는 사용자 인증이 완료 처리되면, 화면 상에, 사용자 인증이 완료되었음을 지시하는 메시지를 표시함과 동시에, 상기 초해상화 모델의 이용을 위한, 실제 이미지를 입력할 것을 지시하는 메시지를 표시한다.When user authentication is completed, the message display unit (122) displays a message on the screen indicating that user authentication is completed, and at the same time displays a message indicating that an actual image for use of the super-resolution model should be input.

이를 통해, 사용자는 상기 메시지를 확인한 후, 소정의 실제 이미지를 전자 장치(110) 상에 인가할 수 있고, 이때, 이미지 생성부(113)는, 사용자에 의해, 상기 제1 실제 이미지가 입력으로 인가되면, 상기 초해상화 모델을 기초로, 상기 제1 실제 이미지에 대응되는 초해상도 이미지를 생성할 수 있다.Through this, after the user confirms the message, the user can apply a predetermined real image to the electronic device (110), and at this time, when the first real image is applied as input by the user, the image generation unit (113) can generate a super-resolution image corresponding to the first real image based on the super-resolution model.

도 5는 본 발명의 일실시예에 따른 전자 장치의 동작 방법을 도시한 순서도이다.FIG. 5 is a flowchart illustrating an operating method of an electronic device according to an embodiment of the present invention.

단계(S510)에서는 사전 수집된 복수의 훈련용 이미지들과, 상기 복수의 훈련용 이미지들 각각에 대응되는 사전 제작된 고해상도 변환 이미지가 저장되어 있는 훈련 데이터 저장부를 유지한다.In step (S510), a training data storage unit is maintained in which a plurality of pre-collected training images and a pre-produced high-resolution converted image corresponding to each of the plurality of training images are stored.

단계(S520)에서는 상기 훈련 데이터 저장부에 저장되어 있는 상기 복수의 훈련용 이미지들 중 어느 하나의 훈련용 이미지와 그에 대응되는 고해상도 변환 이미지를 선정하여, 상기 선정된 훈련용 이미지를 신경망 모델에 통과시킴으로써, 초해상도 예측 이미지와 상기 초해상도 예측 이미지가 다운샘플링된 저해상도 예측 이미지를 생성한 후, 상기 초해상도 예측 이미지와 상기 선정된 고해상도 변환 이미지 간의 오차와, 상기 저해상도 예측 이미지와 상기 선정된 훈련용 이미지 간의 오차가 최소가 되도록 하는 기계학습을, 상기 복수의 훈련용 이미지들 각각에 대해 반복 수행함으로써, 초해상화 모델을 생성한다.In step (S520), one training image and its corresponding high-resolution conversion image are selected from among the plurality of training images stored in the training data storage, and the selected training image is passed through a neural network model to generate a super-resolution prediction image and a low-resolution prediction image obtained by downsampling the super-resolution prediction image. Then, machine learning is repeatedly performed on each of the plurality of training images to minimize the error between the super-resolution prediction image and the selected high-resolution conversion image and the error between the low-resolution prediction image and the selected training image, thereby generating a super-resolution model.

단계(S530)에서는 상기 초해상화 모델의 생성이 완료된 이후에, 사용자에 의해, 제1 실제 이미지가 입력으로 인가되면서 초해상화 명령이 인가되면, 상기 초해상화 모델에 상기 제1 실제 이미지를 입력으로 인가하여, 상기 제1 실제 이미지에 대응되는 초해상도 이미지를 생성한다.In step (S530), after the generation of the super-resolution model is completed, when a super-resolution command is entered by the user while a first real image is input, the first real image is input to the super-resolution model to generate a super-resolution image corresponding to the first real image.

이때, 본 발명의 일실시예에 따르면, 단계(S520)에서는 상기 복수의 훈련용 이미지들 중 어느 하나인 제1 훈련용 이미지가 선정됨에 따라, 상기 제1 훈련용 이미지에 대한 기계학습 과정이 수행되어야 하는 순서가 되는 경우, 상기 제1 훈련용 이미지를, T(T는 3이상의 자연수임)개의 합성곱층들에 각각 통과시켜 T개의 출력맵들을 생성하는 단계, 상기 T개의 출력맵들 각각을, 각 출력맵을 입력으로 인가받도록 구성되어 있는 T개의 제1 CFB들 각각에 순차적으로 하나씩 입력으로 인가하되, t번째 출력맵이 t번째 제1 CFB에 인가될 때에는, t-1번째 제1 CFB의 출력을 상기 t번째 제1 CFB에 함께 입력으로 인가하는 방식으로, 상기 T개의 제1 CFB들 각각의 출력을 생성함으로써, T개의 순방향 출력들을 생성하는 단계, 상기 T개의 순방향 출력들 각각을, 각 순방향 출력을 입력으로 인가받도록 구성되어 있는 T개의 제2 CFB들 각각에, 상기 T개의 제1 CFB들에 대한 입력의 인가 순서와 반대되는 순서로 하나씩 입력으로 인가하되, t번째 순방향 출력이 t번째 제2 CFB에 인가될 때에는, t+1번째 제2 CFB의 출력과 t번째 출력맵을 상기 t번째 제2 CFB에 함께 입력으로 인가하는 방식으로, 상기 T개의 제2 CFB들 각각의 출력을 생성함으로써, T개의 역방향 출력들을 생성하는 단계, 상기 T개의 순방향 출력들과 상기 T개의 역방향 출력들을, 동일 순번의 출력끼리 결합하여 디컨볼루션층에 각각 통과시켜 업샘플링을 수행함으로써, T개의 업샘플링맵들을 생성한 후, 상기 T개의 업샘플링맵들을 결합하여 합성곱층에 통과시킨 결과와 상기 제1 훈련용 이미지에 대해 바이큐빅 보간을 수행한 결과를 서로 결합함으로써, 제1 초해상도 예측 이미지를 생성하는 단계, 상기 제1 초해상도 예측 이미지를 합성곱층에 통과시켜 다운샘플링을 수행함으로써, 제1 저해상도 예측 이미지를 생성하는 단계 및 상기 제1 초해상도 예측 이미지와 상기 훈련 데이터 저장부에 저장되어 있는, 상기 제1 훈련용 이미지에 대응되는 제1 고해상도 변환 이미지 간의 제1 오차와, 상기 제1 저해상도 예측 이미지와 상기 제1 훈련용 이미지 간의 제2 오차의 가중합이 최소가 되도록 기계학습을 수행하는 단계를 포함할 수 있다.At this time, according to one embodiment of the present invention, in step (S520), when the first training image among the plurality of training images is selected, and the machine learning process for the first training image is to be performed in an order, the first training image is passed through T (T is a natural number greater than or equal to 3) convolution layers to generate T output maps, sequentially applying each of the T output maps as an input to each of the T first CFBs configured to receive each output map as an input, but when the t-th output map is applied to the t-th first CFB, the output of the t-1-th first CFB is applied together as an input to the t-th first CFB, thereby generating the output of each of the T first CFBs, thereby generating T forward outputs, applying each of the T forward outputs to each of the T second CFBs configured to receive each forward output as an input to the T first CFBs. A step of generating T reverse outputs by applying inputs one by one in an order opposite to the input order of the inputs, but when the t-th forward output is applied to the t-th second CFB, the output of the t+1-th second CFB and the t-th output map are applied together as inputs to the t-th second CFB, thereby generating outputs of each of the T second CFBs, a step of generating T reverse outputs, a step of combining outputs of the same order of the T forward outputs and the T reverse outputs and passing them through a deconvolution layer to perform upsampling, thereby generating T upsampling maps, and then a step of combining the results of passing the T upsampling maps through a convolution layer and the results of performing bicubic interpolation on the first training image to generate a first super-resolution prediction image, a step of generating a first low-resolution prediction image by passing the first super-resolution prediction image through a convolution layer to perform downsampling, and a step of storing the first super-resolution prediction image and the training data storage in the training data storage, The method may include a step of performing machine learning so that a weighted sum of a first error between a first high-resolution converted image corresponding to the first training image and a second error between the first low-resolution predicted image and the first training image is minimized.

이때, 본 발명의 일실시예에 따르면, 상기 T개의 제1 CFB들과 상기 T개의 제2 CFB들 각각은, 5개의 RAB들이 서로 연결된 제1 연결 블록과, 3개의 RAB들이 서로 연결된 제2 연결 블록으로 구성되어 있는 블록으로서, 입력이 상기 제1 연결 블록을 구성하는 1번째 RAB에 인가되도록 구성되어 있음과 동시에, 상기 제1 연결 블록을 구성하는 5번째 RAB의 출력을 최종 출력으로 산출하도록 구성되어 있고, 이때, 상기 제1 연결 블록을 구성하는 1번째 RAB를 통한 출력이 산출되면, 산출된 출력이 상기 제1 연결 블록을 구성하는 2번째 RAB에 입력으로 인가되도록 함과 동시에, 산출된 출력이 업샘플링되어 상기 제2 연결 블록을 구성하는 1번째 RAB에 입력으로 인가되도록 구성되어 있으며, 이때, 상기 제1 연결 블록을 구성하는 2, 3, 4, 5번째 RAB 각각은, 이전 순번의 RAB의 출력을 인가받도록 구성되되, 3, 4번째 RAB는 각각, 상기 제2 연결 블록을 구성하는 1, 2번째 RAB의 출력이 다운샘플링된 결과를 추가적으로 인가받도록 구성되어 있고, 5번째 RAB는, 2, 3번째 RAB의 출력과 상기 제2 연결 블록을 구성하는 3번째 RAB의 출력이 다운샘플링된 결과를 추가적으로 인가받도록 구성되어 있으며, 상기 제2 연결 블록을 구성하는 2, 3번째 RAB 각각은, 이전 순번의 RAB의 출력을 인가받도록 구성되어 있음과 동시에, 상기 제1 연결 블록을 구성하는 2, 3번째 RAB의 출력이 업샘플링된 결과를 추가적으로 인가받도록 구성되어 있을 수 있다.At this time, according to one embodiment of the present invention, each of the T first CFBs and the T second CFBs is configured as a block consisting of a first connection block in which five RABs are connected to each other and a second connection block in which three RABs are connected to each other, and is configured so that an input is applied to the 1st RAB constituting the first connection block, and at the same time, the output of the 5th RAB constituting the first connection block is output as the final output, and at this time, when the output through the 1st RAB constituting the first connection block is output, the output produced is applied as an input to the 2nd RAB constituting the first connection block, and at the same time, the output produced is upsampled and applied as an input to the 1st RAB constituting the second connection block, and at this time, the 2nd, 3rd, 4th, and 5th RABs constituting the first connection block are configured to receive the output of the RAB of the previous order, while the 3rd and 4th RABs are configured to receive the output of the second connection block, respectively. The outputs of the 1st and 2nd RABs constituting the block are configured to additionally receive downsampled results, the 5th RAB is configured to additionally receive downsampled results of the outputs of the 2nd and 3rd RABs and the output of the 3rd RAB constituting the second connection block, and the 2nd and 3rd RABs constituting the second connection block may each be configured to receive outputs of RABs of a previous order, and at the same time, may be configured to additionally receive upsampled results of the outputs of the 2nd and 3rd RABs constituting the first connection block.

이때, 본 발명의 일실시예에 따르면, 상기 RAB는 입력을 합성곱층과 채널 어텐션 모듈 및 공간 어텐션 모듈에 순차적으로 통과시켜 출력을 생성한 후, 생성된 출력과 입력 간의 잔차 연결을 통해 최종 출력을 산출하도록 구성된 블록일 수 있다.At this time, according to one embodiment of the present invention, the RAB may be a block configured to sequentially pass an input through a convolutional layer, a channel attention module, and a spatial attention module to generate an output, and then produce a final output through a residual connection between the generated output and the input.

또한, 본 발명의 일실시예에 따르면, 단계(S530)에서는 상기 초해상화 모델의 생성이 완료된 이후에, 사용자에 의해, 상기 제1 실제 이미지가 입력으로 인가되면서 초해상화 명령이 인가되면, 상기 초해상화 모델에 상기 제1 실제 이미지를 입력으로 인가함으로써, 상기 제1 실제 이미지를, 상기 T개의 합성곱층들에 각각 통과시켜 T개의 실제 출력맵들을 생성하고, 상기 T개의 실제 출력맵들 각각을, 상기 T개의 제1 CFB들 각각에 순차적으로 하나씩 입력으로 인가하되, t번째 실제 출력맵이 t번째 제1 CFB에 인가될 때에는, t-1번째 제1 CFB의 출력을 상기 t번째 제1 CFB에 함께 입력으로 인가하는 방식으로, 상기 T개의 제1 CFB들 각각의 출력을 생성함으로써, T개의 실제 순방향 출력들을 생성한 후, 상기 T개의 실제 순방향 출력들 각각을, 상기 T개의 제2 CFB들 각각에, 상기 T개의 제1 CFB들에 대한 입력의 인가 순서와 반대되는 순서로 하나씩 입력으로 인가하되, t번째 실제 순방향 출력이 t번째 제2 CFB에 인가될 때에는, t+1번째 제2 CFB의 출력과 t번째 실제 출력맵을 상기 t번째 제2 CFB에 함께 입력으로 인가하는 방식으로, 상기 T개의 제2 CFB들 각각의 출력을 생성함으로써, T개의 실제 역방향 출력들을 생성한 다음, 상기 T개의 실제 순방향 출력들과 상기 T개의 실제 역방향 출력들을, 동일 순번의 출력끼리 결합하여 상기 디컨볼루션층에 각각 통과시켜 업샘플링을 수행함으로써, T개의 실제 업샘플링맵들을 생성한 후, 상기 T개의 실제 업샘플링맵들을 결합하여 합성곱층에 통과시킨 결과와 상기 제1 실제 이미지에 대해 바이큐빅 보간을 수행한 결과를 서로 결합함으로써, 상기 제1 실제 이미지에 대응되는 초해상도 이미지를 생성할 수 있다.In addition, according to one embodiment of the present invention, in step (S530), after the generation of the super-resolution model is completed, when the super-resolution command is input by the user while the first real image is input, the first real image is input to the super-resolution model, thereby generating T real output maps by passing the first real image through each of the T convolution layers, and sequentially applying each of the T real output maps to each of the T first CFBs one by one as an input, but when the t-th real output map is applied to the t-th first CFB, the output of the t-1-th first CFB is applied together as an input to the t-th first CFB, thereby generating the output of each of the T first CFBs, thereby generating T real forward outputs, and then applying each of the T real forward outputs to each of the T second CFBs in an order opposite to the order of application of inputs to the T first CFBs. By applying inputs one by one, but when the t-th actual forward output is applied to the t-th second CFB, the output of the t+1-th second CFB and the t-th actual output map are applied together as inputs to the t-th second CFB, thereby generating outputs of each of the T second CFBs, and then performing upsampling by combining outputs of the same order between the T actual forward outputs and the T actual reverse outputs and passing them through the deconvolution layer respectively, thereby generating T actual upsampling maps, and then combining the results of passing the T actual upsampling maps through the convolution layer and the results of performing bicubic interpolation on the first real image, it is possible to generate a super-resolution image corresponding to the first real image.

또한, 본 발명의 일실시예에 따르면, 상기 전자 장치의 동작 방법은 상기 초해상화 모델을 이용할 수 있는 사용자임을 인증하기 위한, 사전 발급된 인증 값(상기 인증 값은, 사용자에 대해 사전 발급된 p(p는 2이상의 자연수임)자리수의 제1 사용자 식별번호를 구성하는 p개의 숫자들 각각에 대해 모듈로-2 연산이 수행된 결과 값으로 구성된 제1 벡터와, 사용자에 대해 사전 발급된 q(q는 2이상의 자연수임)자리수의 제1 비밀번호를 구성하는 q개의 숫자들 각각에 대해 모듈로-2 연산이 수행된 결과 값으로 구성된 제2 벡터 간의 합성곱 연산이 수행되어 생성된 결과 값임)이 저장되어 있는 인증 값 저장부를 유지하는 단계, 단계(S520)을 통해, 상기 초해상화 모델의 생성이 완료된 이후에, 사용자로부터 상기 초해상화 모델의 이용을 위한 사용자 인증 요청 명령이 인가되면, 화면 상에, 사용자 인증을 위한 사용자 식별번호와 비밀번호를 입력할 것을 지시하는 메시지를 표시한 후, 사용자에 의해, 상기 제1 사용자 식별번호와 상기 제1 비밀번호가 입력되면, 상기 제1 사용자 식별번호를 구성하는 p개의 숫자들 각각에 대해 모듈로-2 연산을 수행한 결과 값으로 구성된 제1 벡터와, 상기 제1 비밀번호를 구성하는 q개의 숫자들 각각에 대해 모듈로-2 연산을 수행한 결과 값으로 구성된 제2 벡터 간의 합성곱 연산을 수행함으로써, 검증 값을 생성한 후, 상기 검증 값이 상기 인증 값과 일치하는지 확인하여, 서로 일치하는 것으로 확인되면, 사용자 인증을 완료 처리하는 단계 및 사용자 인증이 완료 처리되면, 화면 상에, 사용자 인증이 완료되었음을 지시하는 메시지를 표시함과 동시에, 상기 초해상화 모델의 이용을 위한, 실제 이미지를 입력할 것을 지시하는 메시지를 표시하는 단계를 더 포함할 수 있다.In addition, according to one embodiment of the present invention, the operating method of the electronic device comprises: a step of maintaining an authentication value storage unit in which a pre-issued authentication value for authenticating a user who can use the super-resolution model (the authentication value is a result value generated by performing a convolution operation between a first vector composed of a result value of performing a modulo-2 operation on each of p numbers constituting a first user identification number of p (wherein p is a natural number greater than or equal to 2) digits pre-issued to the user and a second vector composed of a result value of performing a modulo-2 operation on each of q numbers constituting a first password of q (wherein q is a natural number greater than or equal to 2) digits pre-issued to the user) is stored; step (S520), after the generation of the super-resolution model is completed, when a user authentication request command for using the super-resolution model is authorized from the user, a message instructing to input a user identification number and password for user authentication is displayed on a screen, and when the first user identification number and the first password are input by the user, The method may further include a step of performing a convolution operation between a first vector formed of a result value of performing a modulo-2 operation on each of p numbers constituting the first user identification number and a second vector formed of a result value of performing a modulo-2 operation on each of q numbers constituting the first password, thereby generating a verification value, and then confirming whether the verification value matches the authentication value, and completing user authentication if they are confirmed to match, and when the user authentication is completed, displaying a message indicating that user authentication is completed on a screen and simultaneously displaying a message indicating to input an actual image for use of the super-resolution model.

이상, 도 5를 참조하여 본 발명의 일실시예에 따른 전자 장치의 동작 방법에 대해 설명하였다. 여기서, 본 발명의 일실시예에 따른 전자 장치의 동작 방법은 도 1 내지 도 4를 이용하여 설명한 전자 장치(110)의 동작에 대한 구성과 대응될 수 있으므로, 이에 대한 보다 상세한 설명은 생략하기로 한다.Above, the operating method of the electronic device according to one embodiment of the present invention has been described with reference to FIG. 5. Here, the operating method of the electronic device according to one embodiment of the present invention can correspond to the configuration for the operation of the electronic device (110) described using FIGS. 1 to 4, and therefore, a more detailed description thereof will be omitted.

본 발명의 일실시예에 따른 전자 장치의 동작 방법은 컴퓨터와의 결합을 통해 실행시키기 위한 저장매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다.The operating method of an electronic device according to one embodiment of the present invention can be implemented as a computer program stored in a storage medium for execution through combination with a computer.

또한, 본 발명의 일실시예에 따른 전자 장치의 동작 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. In addition, the operating method of an electronic device according to an embodiment of the present invention may be implemented in the form of a program command that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program commands, data files, data structures, etc., alone or in combination. The program commands recorded on the medium may be those specially designed and configured for the present invention or may be those known to and usable by those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and hardware devices specially configured to store and execute program commands such as ROMs, RAMs, and flash memories. Examples of the program commands include not only machine language codes generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter, etc.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.Although the present invention has been described with specific details such as specific components and limited examples and drawings, these have been provided only to help a more general understanding of the present invention, and the present invention is not limited to the above examples, and those with common knowledge in the field to which the present invention pertains can make various modifications and variations from this description.

따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Therefore, the idea of the present invention should not be limited to the described embodiments, and all things that are equivalent or equivalent to the claims described below as well as the claims are included in the scope of the idea of the present invention.

110: 전자 장치
111: 훈련 데이터 저장부 112: 모델 생성부
113: 이미지 생성부 114: 출력맵 생성부
115: 순방향 출력부 116: 역방향 출력부
117: 초해상도 예측부 118: 저해상도 예측부
119: 학습 수행부 120: 인증 값 저장부
121: 인증 완료부 122: 메시지 표시부
110: Electronic devices
111: Training data storage unit 112: Model generation unit
113: Image generation section 114: Output map generation section
115: Forward output section 116: Reverse output section
117: Super-resolution prediction unit 118: Low-resolution prediction unit
119: Learning execution unit 120: Authentication value storage unit
121: Authentication completion section 122: Message display section

Claims (14)

사전 수집된 복수의 훈련용 이미지들과, 상기 복수의 훈련용 이미지들 각각에 대응되는 사전 제작된 고해상도 변환 이미지가 저장되어 있는 훈련 데이터 저장부;
상기 훈련 데이터 저장부에 저장되어 있는 상기 복수의 훈련용 이미지들 중 어느 하나의 훈련용 이미지와 그에 대응되는 고해상도 변환 이미지를 선정하여, 상기 선정된 훈련용 이미지를 신경망 모델에 통과시킴으로써, 초해상도(super-resolution) 예측 이미지와 상기 초해상도 예측 이미지가 다운샘플링된 저해상도 예측 이미지를 생성한 후, 상기 초해상도 예측 이미지와 상기 선정된 고해상도 변환 이미지 간의 오차와, 상기 저해상도 예측 이미지와 상기 선정된 훈련용 이미지 간의 오차가 최소가 되도록 하는 기계학습을, 상기 복수의 훈련용 이미지들 각각에 대해 반복 수행함으로써, 초해상화 모델을 생성하는 모델 생성부; 및
상기 초해상화 모델의 생성이 완료된 이후에, 사용자에 의해, 제1 실제 이미지가 입력으로 인가되면서 초해상화 명령이 인가되면, 상기 초해상화 모델에 상기 제1 실제 이미지를 입력으로 인가하여, 상기 제1 실제 이미지에 대응되는 초해상도 이미지를 생성하는 이미지 생성부
를 포함하고,
상기 모델 생성부는
상기 복수의 훈련용 이미지들 중 어느 하나인 제1 훈련용 이미지가 선정됨에 따라, 상기 제1 훈련용 이미지에 대한 기계학습 과정이 수행되어야 하는 순서가 되는 경우, 상기 제1 훈련용 이미지를, T(T는 3이상의 자연수임)개의 합성곱(Convolution)층들에 각각 통과시켜 T개의 출력맵들을 생성하는 출력맵 생성부;
상기 T개의 출력맵들 각각을, 각 출력맵을 입력으로 인가받도록 구성되어 있는 T개의 제1 크로스-러닝 피드백 블록(Cross-learning Feedback Block: CFB)들 각각에 순차적으로 하나씩 입력으로 인가하되, t번째 출력맵이 t번째 제1 CFB에 인가될 때에는, t-1번째 제1 CFB의 출력을 상기 t번째 제1 CFB에 함께 입력으로 인가하는 방식으로, 상기 T개의 제1 CFB들 각각의 출력을 생성함으로써, T개의 순방향 출력들을 생성하는 순방향 출력부;
상기 T개의 순방향 출력들 각각을, 각 순방향 출력을 입력으로 인가받도록 구성되어 있는 T개의 제2 CFB들 각각에, 상기 T개의 제1 CFB들에 대한 입력의 인가 순서와 반대되는 순서로 하나씩 입력으로 인가하되, t번째 순방향 출력이 t번째 제2 CFB에 인가될 때에는, t+1번째 제2 CFB의 출력과 t번째 출력맵을 상기 t번째 제2 CFB에 함께 입력으로 인가하는 방식으로, 상기 T개의 제2 CFB들 각각의 출력을 생성함으로써, T개의 역방향 출력들을 생성하는 역방향 출력부;
상기 T개의 순방향 출력들과 상기 T개의 역방향 출력들을, 동일 순번의 출력끼리 결합하여 디컨볼루션(Deconvolution)층에 각각 통과시켜 업샘플링을 수행함으로써, T개의 업샘플링맵들을 생성한 후, 상기 T개의 업샘플링맵들을 결합하여 합성곱층에 통과시킨 결과와 상기 제1 훈련용 이미지에 대해 바이큐빅(bicubic) 보간을 수행한 결과를 서로 결합함으로써, 제1 초해상도 예측 이미지를 생성하는 초해상도 예측부;
상기 제1 초해상도 예측 이미지를 합성곱층에 통과시켜 다운샘플링을 수행함으로써, 제1 저해상도 예측 이미지를 생성하는 저해상도 예측부; 및
상기 제1 초해상도 예측 이미지와 상기 훈련 데이터 저장부에 저장되어 있는, 상기 제1 훈련용 이미지에 대응되는 제1 고해상도 변환 이미지 간의 제1 오차와, 상기 제1 저해상도 예측 이미지와 상기 제1 훈련용 이미지 간의 제2 오차의 가중합(weighted sum)이 최소가 되도록 기계학습을 수행하는 학습 수행부
를 포함하는 전자 장치.
A training data storage unit storing a plurality of pre-collected training images and a pre-produced high-resolution converted image corresponding to each of the plurality of training images;
A model generation unit that generates a super-resolution model by selecting one training image and its corresponding high-resolution conversion image from among the plurality of training images stored in the training data storage unit, passing the selected training image through a neural network model, thereby generating a super-resolution prediction image and a low-resolution prediction image obtained by downsampling the super-resolution prediction image, and then repeatedly performing machine learning on each of the plurality of training images so that an error between the super-resolution prediction image and the selected high-resolution conversion image and an error between the low-resolution prediction image and the selected training image are minimized; and
After the generation of the above super-resolution model is completed, when a super-resolution command is entered by a user while a first real image is entered as input, an image generation unit that inputs the first real image as input to the super-resolution model and generates a super-resolution image corresponding to the first real image
Including,
The above model generation part
When the machine learning process for the first training image is to be performed in an order in which the first training image is selected from among the plurality of training images, an output map generation unit that generates T output maps by passing the first training image through T (T is a natural number greater than or equal to 3) convolution layers, respectively;
A forward output unit that sequentially inputs each of the T output maps as an input to each of the T first cross-learning feedback blocks (CFBs) configured to receive each output map as an input, and when the t-th output map is input to the t-th first CFB, the output of the t-1-th first CFB is also input to the t-th first CFB, thereby generating T forward outputs by generating the output of each of the T first CFBs;
A reverse output unit configured to generate T reverse outputs by applying each of the T forward outputs as inputs to each of the T second CFBs configured to receive each forward output as input, one by one, in an order opposite to the order of application of inputs to the T first CFBs, but when the t-th forward output is applied to the t-th second CFB, applying the output of the t+1-th second CFB and the t-th output map together as inputs to the t-th second CFB, thereby generating the output of each of the T second CFBs;
A super-resolution prediction unit that generates a first super-resolution prediction image by combining the T forward outputs and the T reverse outputs, passing them through a deconvolution layer by combining outputs of the same order, performing upsampling, generating T upsampling maps, and then combining the results of passing the T upsampling maps through a convolution layer and performing bicubic interpolation on the first training image;
A low-resolution prediction unit that generates a first low-resolution prediction image by performing downsampling by passing the first super-resolution prediction image through a convolution layer; and
A learning performing unit that performs machine learning so that a weighted sum of a first error between the first super-resolution prediction image and the first high-resolution converted image corresponding to the first training image stored in the training data storage unit and a second error between the first low-resolution prediction image and the first training image is minimized.
An electronic device comprising:
삭제delete 제1항에 있어서,
상기 T개의 제1 CFB들과 상기 T개의 제2 CFB들 각각은,
5개의 잔차 어텐션 블록들(Residual Attention Block: RAB)들이 서로 연결된 제1 연결 블록과, 3개의 RAB들이 서로 연결된 제2 연결 블록으로 구성되어 있는 블록으로서, 입력이 상기 제1 연결 블록을 구성하는 1번째 RAB에 인가되도록 구성되어 있음과 동시에, 상기 제1 연결 블록을 구성하는 5번째 RAB의 출력을 최종 출력으로 산출하도록 구성되어 있고, 이때, 상기 제1 연결 블록을 구성하는 1번째 RAB를 통한 출력이 산출되면, 산출된 출력이 상기 제1 연결 블록을 구성하는 2번째 RAB에 입력으로 인가되도록 함과 동시에, 산출된 출력이 업샘플링되어 상기 제2 연결 블록을 구성하는 1번째 RAB에 입력으로 인가되도록 구성되어 있으며, 이때, 상기 제1 연결 블록을 구성하는 2, 3, 4, 5번째 RAB 각각은, 이전 순번의 RAB의 출력을 인가받도록 구성되되, 3, 4번째 RAB는 각각, 상기 제2 연결 블록을 구성하는 1, 2번째 RAB의 출력이 다운샘플링된 결과를 추가적으로 인가받도록 구성되어 있고, 5번째 RAB는, 2, 3번째 RAB의 출력과 상기 제2 연결 블록을 구성하는 3번째 RAB의 출력이 다운샘플링된 결과를 추가적으로 인가받도록 구성되어 있으며, 상기 제2 연결 블록을 구성하는 2, 3번째 RAB 각각은, 이전 순번의 RAB의 출력을 인가받도록 구성되어 있음과 동시에, 상기 제1 연결 블록을 구성하는 2, 3번째 RAB의 출력이 업샘플링된 결과를 추가적으로 인가받도록 구성되어 있는 것을 특징으로 하는 전자 장치.
In the first paragraph,
Each of the T first CFBs and the T second CFBs,
A block comprising a first connection block in which five residual attention blocks (RABs) are connected to each other, and a second connection block in which three RABs are connected to each other, wherein the input is configured to be applied to the first RAB constituting the first connection block, and the output of the fifth RAB constituting the first connection block is output as the final output, and at this time, when the output through the first RAB constituting the first connection block is output, the output thus output is applied as an input to the second RAB constituting the first connection block, and at the same time, the output thus output is upsampled and applied as an input to the first RAB constituting the second connection block, and at this time, the 2nd, 3rd, 4th, and 5th RABs constituting the first connection block are configured to receive the output of the RAB of the previous order, while the 3rd and 4th RABs are configured to receive the output of the 1st and 2nd RABs constituting the second connection block, respectively. An electronic device characterized in that the output is configured to additionally receive a downsampled result, the 5th RAB is configured to additionally receive a downsampled result of the outputs of the 2nd and 3rd RABs and the output of the 3rd RAB constituting the second connection block, and the 2nd and 3rd RABs constituting the second connection block are each configured to receive an output of a RAB of a previous order, and at the same time, the outputs of the 2nd and 3rd RABs constituting the first connection block are configured to additionally receive an upsampled result.
제3항에 있어서,
상기 RAB는
입력을 합성곱층과 채널 어텐션 모듈 및 공간 어텐션 모듈에 순차적으로 통과시켜 출력을 생성한 후, 생성된 출력과 입력 간의 잔차 연결을 통해 최종 출력을 산출하도록 구성된 블록인 것을 특징으로 하는 전자 장치.
In the third paragraph,
The above RAB is
An electronic device characterized by being a block configured to sequentially pass an input through a convolutional layer, a channel attention module, and a spatial attention module to generate an output, and then produce a final output through a residual connection between the generated output and the input.
제1항에 있어서,
상기 이미지 생성부는
상기 초해상화 모델의 생성이 완료된 이후에, 사용자에 의해, 상기 제1 실제 이미지가 입력으로 인가되면서 초해상화 명령이 인가되면, 상기 초해상화 모델에 상기 제1 실제 이미지를 입력으로 인가함으로써, 상기 제1 실제 이미지를, 상기 T개의 합성곱층들에 각각 통과시켜 T개의 실제 출력맵들을 생성하고, 상기 T개의 실제 출력맵들 각각을, 상기 T개의 제1 CFB들 각각에 순차적으로 하나씩 입력으로 인가하되, t번째 실제 출력맵이 t번째 제1 CFB에 인가될 때에는, t-1번째 제1 CFB의 출력을 상기 t번째 제1 CFB에 함께 입력으로 인가하는 방식으로, 상기 T개의 제1 CFB들 각각의 출력을 생성함으로써, T개의 실제 순방향 출력들을 생성한 후, 상기 T개의 실제 순방향 출력들 각각을, 상기 T개의 제2 CFB들 각각에, 상기 T개의 제1 CFB들에 대한 입력의 인가 순서와 반대되는 순서로 하나씩 입력으로 인가하되, t번째 실제 순방향 출력이 t번째 제2 CFB에 인가될 때에는, t+1번째 제2 CFB의 출력과 t번째 실제 출력맵을 상기 t번째 제2 CFB에 함께 입력으로 인가하는 방식으로, 상기 T개의 제2 CFB들 각각의 출력을 생성함으로써, T개의 실제 역방향 출력들을 생성한 다음, 상기 T개의 실제 순방향 출력들과 상기 T개의 실제 역방향 출력들을, 동일 순번의 출력끼리 결합하여 상기 디컨볼루션층에 각각 통과시켜 업샘플링을 수행함으로써, T개의 실제 업샘플링맵들을 생성한 후, 상기 T개의 실제 업샘플링맵들을 결합하여 합성곱층에 통과시킨 결과와 상기 제1 실제 이미지에 대해 바이큐빅 보간을 수행한 결과를 서로 결합함으로써, 상기 제1 실제 이미지에 대응되는 초해상도 이미지를 생성하는 것을 특징으로 하는 전자 장치.
In the first paragraph,
The above image generating unit
After the generation of the super-resolution model is completed, when a super-resolution command is input by the user while the first real image is input, the first real image is input to the super-resolution model, thereby generating T real output maps by passing the first real image through each of the T convolution layers, and sequentially applying each of the T real output maps as an input to each of the T first CFBs, such that when the t-th real output map is applied to the t-th first CFB, the output of the t-1-th first CFB is applied together as an input to the t-th first CFB, thereby generating the output of each of the T first CFBs, and then applying each of the T real forward outputs as an input to each of the T second CFBs, one by one, in an order opposite to the order of application of the inputs to the T first CFBs, such that the t-th real forward output is the t-th An electronic device characterized in that when applied to a second CFB, the output of the t+1th second CFB and the tth actual output map are applied together as input to the tth second CFB, thereby generating the output of each of the T second CFBs, thereby generating T actual reverse outputs, and then performing upsampling by combining outputs of the same order between the T actual forward outputs and the T actual reverse outputs and passing them through the deconvolution layer respectively, thereby generating T actual upsampling maps, and then combining the results of passing the T actual upsampling maps through a convolution layer and the results of performing bicubic interpolation on the first real image, thereby generating a super-resolution image corresponding to the first real image.
제1항에 있어서,
상기 초해상화 모델을 이용할 수 있는 사용자임을 인증하기 위한, 사전 발급된 인증 값 - 상기 인증 값은, 사용자에 대해 사전 발급된 p(p는 2이상의 자연수임)자리수의 제1 사용자 식별번호를 구성하는 p개의 숫자들 각각에 대해 모듈로(modulo)-2 연산이 수행된 결과 값으로 구성된 제1 벡터와, 사용자에 대해 사전 발급된 q(q는 2이상의 자연수임)자리수의 제1 비밀번호를 구성하는 q개의 숫자들 각각에 대해 모듈로-2 연산이 수행된 결과 값으로 구성된 제2 벡터 간의 합성곱 연산이 수행되어 생성된 결과 값임 - 이 저장되어 있는 인증 값 저장부;
상기 모델 생성부를 통해, 상기 초해상화 모델의 생성이 완료된 이후에, 사용자로부터 상기 초해상화 모델의 이용을 위한 사용자 인증 요청 명령이 인가되면, 화면 상에, 사용자 인증을 위한 사용자 식별번호와 비밀번호를 입력할 것을 지시하는 메시지를 표시한 후, 사용자에 의해, 상기 제1 사용자 식별번호와 상기 제1 비밀번호가 입력되면, 상기 제1 사용자 식별번호를 구성하는 p개의 숫자들 각각에 대해 모듈로-2 연산을 수행한 결과 값으로 구성된 제1 벡터와, 상기 제1 비밀번호를 구성하는 q개의 숫자들 각각에 대해 모듈로-2 연산을 수행한 결과 값으로 구성된 제2 벡터 간의 합성곱 연산을 수행함으로써, 검증 값을 생성한 후, 상기 검증 값이 상기 인증 값과 일치하는지 확인하여, 서로 일치하는 것으로 확인되면, 사용자 인증을 완료 처리하는 인증 완료부; 및
사용자 인증이 완료 처리되면, 화면 상에, 사용자 인증이 완료되었음을 지시하는 메시지를 표시함과 동시에, 상기 초해상화 모델의 이용을 위한, 실제 이미지를 입력할 것을 지시하는 메시지를 표시하는 메시지 표시부
를 더 포함하는 전자 장치.
In the first paragraph,
An authentication value storage unit storing a pre-issued authentication value for authenticating a user who can use the above super-resolution model, wherein the authentication value is a result value generated by performing a convolution operation between a first vector composed of a result value obtained by performing a modulo-2 operation on each of p numbers constituting a first user identification number of p digits (p is a natural number greater than or equal to 2) pre-issued for the user and a second vector composed of a result value obtained by performing a modulo-2 operation on each of q numbers constituting a first password of q digits (q is a natural number greater than or equal to 2) pre-issued for the user;
Through the above model generation unit, after the generation of the super-resolution model is completed, if a user authentication request command for using the super-resolution model is authorized from the user, an authentication completion unit which displays a message instructing the user to enter a user identification number and password for user authentication on a screen, and then, when the first user identification number and the first password are entered by the user, performs a convolution operation between a first vector formed by the result values of performing a modulo-2 operation on each of p numbers constituting the first user identification number and a second vector formed by the result values of performing a modulo-2 operation on each of q numbers constituting the first password, thereby generating a verification value, and then verifies whether the verification value matches the authentication value, and if it is confirmed that they match, completes the user authentication; and
When user authentication is completed, a message display section displays a message indicating that user authentication is completed on the screen, and at the same time displays a message indicating that an actual image should be input for use of the super-resolution model.
An electronic device further comprising:
사전 수집된 복수의 훈련용 이미지들과, 상기 복수의 훈련용 이미지들 각각에 대응되는 사전 제작된 고해상도 변환 이미지가 저장되어 있는 훈련 데이터 저장부를 유지하는 단계;
상기 훈련 데이터 저장부에 저장되어 있는 상기 복수의 훈련용 이미지들 중 어느 하나의 훈련용 이미지와 그에 대응되는 고해상도 변환 이미지를 선정하여, 상기 선정된 훈련용 이미지를 신경망 모델에 통과시킴으로써, 초해상도(super-resolution) 예측 이미지와 상기 초해상도 예측 이미지가 다운샘플링된 저해상도 예측 이미지를 생성한 후, 상기 초해상도 예측 이미지와 상기 선정된 고해상도 변환 이미지 간의 오차와, 상기 저해상도 예측 이미지와 상기 선정된 훈련용 이미지 간의 오차가 최소가 되도록 하는 기계학습을, 상기 복수의 훈련용 이미지들 각각에 대해 반복 수행함으로써, 초해상화 모델을 생성하는 단계; 및
상기 초해상화 모델의 생성이 완료된 이후에, 사용자에 의해, 제1 실제 이미지가 입력으로 인가되면서 초해상화 명령이 인가되면, 상기 초해상화 모델에 상기 제1 실제 이미지를 입력으로 인가하여, 상기 제1 실제 이미지에 대응되는 초해상도 이미지를 생성하는 단계
를 포함하고,
상기 초해상화 모델을 생성하는 단계는
상기 복수의 훈련용 이미지들 중 어느 하나인 제1 훈련용 이미지가 선정됨에 따라, 상기 제1 훈련용 이미지에 대한 기계학습 과정이 수행되어야 하는 순서가 되는 경우, 상기 제1 훈련용 이미지를, T(T는 3이상의 자연수임)개의 합성곱(Convolution)층들에 각각 통과시켜 T개의 출력맵들을 생성하는 단계;
상기 T개의 출력맵들 각각을, 각 출력맵을 입력으로 인가받도록 구성되어 있는 T개의 제1 크로스-러닝 피드백 블록(Cross-learning Feedback Block: CFB)들 각각에 순차적으로 하나씩 입력으로 인가하되, t번째 출력맵이 t번째 제1 CFB에 인가될 때에는, t-1번째 제1 CFB의 출력을 상기 t번째 제1 CFB에 함께 입력으로 인가하는 방식으로, 상기 T개의 제1 CFB들 각각의 출력을 생성함으로써, T개의 순방향 출력들을 생성하는 단계;
상기 T개의 순방향 출력들 각각을, 각 순방향 출력을 입력으로 인가받도록 구성되어 있는 T개의 제2 CFB들 각각에, 상기 T개의 제1 CFB들에 대한 입력의 인가 순서와 반대되는 순서로 하나씩 입력으로 인가하되, t번째 순방향 출력이 t번째 제2 CFB에 인가될 때에는, t+1번째 제2 CFB의 출력과 t번째 출력맵을 상기 t번째 제2 CFB에 함께 입력으로 인가하는 방식으로, 상기 T개의 제2 CFB들 각각의 출력을 생성함으로써, T개의 역방향 출력들을 생성하는 단계;
상기 T개의 순방향 출력들과 상기 T개의 역방향 출력들을, 동일 순번의 출력끼리 결합하여 디컨볼루션(Deconvolution)층에 각각 통과시켜 업샘플링을 수행함으로써, T개의 업샘플링맵들을 생성한 후, 상기 T개의 업샘플링맵들을 결합하여 합성곱층에 통과시킨 결과와 상기 제1 훈련용 이미지에 대해 바이큐빅(bicubic) 보간을 수행한 결과를 서로 결합함으로써, 제1 초해상도 예측 이미지를 생성하는 단계;
상기 제1 초해상도 예측 이미지를 합성곱층에 통과시켜 다운샘플링을 수행함으로써, 제1 저해상도 예측 이미지를 생성하는 단계; 및
상기 제1 초해상도 예측 이미지와 상기 훈련 데이터 저장부에 저장되어 있는, 상기 제1 훈련용 이미지에 대응되는 제1 고해상도 변환 이미지 간의 제1 오차와, 상기 제1 저해상도 예측 이미지와 상기 제1 훈련용 이미지 간의 제2 오차의 가중합(weighted sum)이 최소가 되도록 기계학습을 수행하는 단계
를 포함하는 전자 장치의 동작 방법.
A step of maintaining a training data storage unit storing a plurality of pre-collected training images and a pre-produced high-resolution converted image corresponding to each of the plurality of training images;
A step of selecting one training image and its corresponding high-resolution conversion image from among the plurality of training images stored in the training data storage, passing the selected training image through a neural network model to generate a super-resolution prediction image and a low-resolution prediction image obtained by downsampling the super-resolution prediction image, and then repeatedly performing machine learning for each of the plurality of training images so that an error between the super-resolution prediction image and the selected high-resolution conversion image and an error between the low-resolution prediction image and the selected training image are minimized, thereby generating a super-resolution model; and
After the generation of the above super-resolution model is completed, when a super-resolution command is entered by a user while a first real image is entered as input, a step of entering the first real image as input to the super-resolution model to generate a super-resolution image corresponding to the first real image
Including,
The steps for generating the above super-resolution model are:
When a machine learning process for the first training image is to be performed in an order in which a first training image among the plurality of training images is selected, a step of generating T output maps by passing the first training image through T (T is a natural number greater than or equal to 3) convolution layers, respectively;
A step of generating T forward outputs by sequentially applying each of the T output maps as an input to each of the T first cross-learning feedback blocks (CFBs) configured to receive each output map as an input, such that when the t-th output map is applied to the t-th first CFB, the output of the t-1-th first CFB is also applied as an input to the t-th first CFB, thereby generating the output of each of the T first CFBs;
A step of generating T reverse outputs by applying each of the T forward outputs as inputs to each of the T second CFBs configured to receive each forward output as input, one by one, in an order opposite to the order of application of inputs to the T first CFBs, such that when the t-th forward output is applied to the t-th second CFB, the output of the t+1-th second CFB and the t-th output map are applied together as inputs to the t-th second CFB, thereby generating the output of each of the T second CFBs;
A step of generating T upsampling maps by combining outputs of the same order and passing each of the T forward outputs and the T reverse outputs through a deconvolution layer to perform upsampling, and then combining the results of combining the T upsampling maps and passing them through a convolution layer and the results of performing bicubic interpolation on the first training image to generate a first super-resolution prediction image;
A step of generating a first low-resolution prediction image by performing downsampling by passing the first super-resolution prediction image through a convolution layer; and
A step of performing machine learning so that a weighted sum of a first error between the first super-resolution prediction image and the first high-resolution converted image corresponding to the first training image stored in the training data storage unit and a second error between the first low-resolution prediction image and the first training image is minimized.
A method of operating an electronic device comprising:
삭제delete 제7항에 있어서,
상기 T개의 제1 CFB들과 상기 T개의 제2 CFB들 각각은,
5개의 잔차 어텐션 블록들(Residual Attention Block: RAB)들이 서로 연결된 제1 연결 블록과, 3개의 RAB들이 서로 연결된 제2 연결 블록으로 구성되어 있는 블록으로서, 입력이 상기 제1 연결 블록을 구성하는 1번째 RAB에 인가되도록 구성되어 있음과 동시에, 상기 제1 연결 블록을 구성하는 5번째 RAB의 출력을 최종 출력으로 산출하도록 구성되어 있고, 이때, 상기 제1 연결 블록을 구성하는 1번째 RAB를 통한 출력이 산출되면, 산출된 출력이 상기 제1 연결 블록을 구성하는 2번째 RAB에 입력으로 인가되도록 함과 동시에, 산출된 출력이 업샘플링되어 상기 제2 연결 블록을 구성하는 1번째 RAB에 입력으로 인가되도록 구성되어 있으며, 이때, 상기 제1 연결 블록을 구성하는 2, 3, 4, 5번째 RAB 각각은, 이전 순번의 RAB의 출력을 인가받도록 구성되되, 3, 4번째 RAB는 각각, 상기 제2 연결 블록을 구성하는 1, 2번째 RAB의 출력이 다운샘플링된 결과를 추가적으로 인가받도록 구성되어 있고, 5번째 RAB는, 2, 3번째 RAB의 출력과 상기 제2 연결 블록을 구성하는 3번째 RAB의 출력이 다운샘플링된 결과를 추가적으로 인가받도록 구성되어 있으며, 상기 제2 연결 블록을 구성하는 2, 3번째 RAB 각각은, 이전 순번의 RAB의 출력을 인가받도록 구성되어 있음과 동시에, 상기 제1 연결 블록을 구성하는 2, 3번째 RAB의 출력이 업샘플링된 결과를 추가적으로 인가받도록 구성되어 있는 것을 특징으로 하는 전자 장치의 동작 방법.
In Article 7,
Each of the T first CFBs and the T second CFBs,
A block comprising a first connection block in which five residual attention blocks (RABs) are connected to each other, and a second connection block in which three RABs are connected to each other, wherein the input is configured to be applied to the first RAB constituting the first connection block, and the output of the fifth RAB constituting the first connection block is output as the final output, and at this time, when the output through the first RAB constituting the first connection block is output, the output thus output is applied as an input to the second RAB constituting the first connection block, and at the same time, the output thus output is upsampled and applied as an input to the first RAB constituting the second connection block, and at this time, the 2nd, 3rd, 4th, and 5th RABs constituting the first connection block are configured to receive the output of the RAB of the previous order, while the 3rd and 4th RABs are configured to receive the output of the 1st and 2nd RABs constituting the second connection block, respectively. An operating method of an electronic device, characterized in that the output is configured to additionally receive a downsampled result, the 5th RAB is configured to additionally receive a downsampled result of the outputs of the 2nd and 3rd RABs and the output of the 3rd RAB constituting the second connection block, and the 2nd and 3rd RABs constituting the second connection block are each configured to receive an output of a RAB of a previous order, and at the same time, the outputs of the 2nd and 3rd RABs constituting the first connection block are additionally configured to receive an upsampled result.
제9항에 있어서,
상기 RAB는
입력을 합성곱층과 채널 어텐션 모듈 및 공간 어텐션 모듈에 순차적으로 통과시켜 출력을 생성한 후, 생성된 출력과 입력 간의 잔차 연결을 통해 최종 출력을 산출하도록 구성된 블록인 것을 특징으로 하는 전자 장치의 동작 방법.
In Article 9,
The above RAB is
An operating method of an electronic device, characterized in that the block is configured to sequentially pass an input through a convolutional layer, a channel attention module, and a spatial attention module to generate an output, and then produce a final output through a residual connection between the generated output and the input.
제7항에 있어서,
상기 초해상도 이미지를 생성하는 단계는
상기 초해상화 모델의 생성이 완료된 이후에, 사용자에 의해, 상기 제1 실제 이미지가 입력으로 인가되면서 초해상화 명령이 인가되면, 상기 초해상화 모델에 상기 제1 실제 이미지를 입력으로 인가함으로써, 상기 제1 실제 이미지를, 상기 T개의 합성곱층들에 각각 통과시켜 T개의 실제 출력맵들을 생성하고, 상기 T개의 실제 출력맵들 각각을, 상기 T개의 제1 CFB들 각각에 순차적으로 하나씩 입력으로 인가하되, t번째 실제 출력맵이 t번째 제1 CFB에 인가될 때에는, t-1번째 제1 CFB의 출력을 상기 t번째 제1 CFB에 함께 입력으로 인가하는 방식으로, 상기 T개의 제1 CFB들 각각의 출력을 생성함으로써, T개의 실제 순방향 출력들을 생성한 후, 상기 T개의 실제 순방향 출력들 각각을, 상기 T개의 제2 CFB들 각각에, 상기 T개의 제1 CFB들에 대한 입력의 인가 순서와 반대되는 순서로 하나씩 입력으로 인가하되, t번째 실제 순방향 출력이 t번째 제2 CFB에 인가될 때에는, t+1번째 제2 CFB의 출력과 t번째 실제 출력맵을 상기 t번째 제2 CFB에 함께 입력으로 인가하는 방식으로, 상기 T개의 제2 CFB들 각각의 출력을 생성함으로써, T개의 실제 역방향 출력들을 생성한 다음, 상기 T개의 실제 순방향 출력들과 상기 T개의 실제 역방향 출력들을, 동일 순번의 출력끼리 결합하여 상기 디컨볼루션층에 각각 통과시켜 업샘플링을 수행함으로써, T개의 실제 업샘플링맵들을 생성한 후, 상기 T개의 실제 업샘플링맵들을 결합하여 합성곱층에 통과시킨 결과와 상기 제1 실제 이미지에 대해 바이큐빅 보간을 수행한 결과를 서로 결합함으로써, 상기 제1 실제 이미지에 대응되는 초해상도 이미지를 생성하는 것을 특징으로 하는 전자 장치의 동작 방법.
In Article 7,
The steps for generating the above super-resolution image are
After the generation of the super-resolution model is completed, when a super-resolution command is input by the user while the first real image is input, the first real image is input to the super-resolution model, thereby generating T real output maps by passing the first real image through each of the T convolution layers, and sequentially applying each of the T real output maps as an input to each of the T first CFBs, such that when the t-th real output map is applied to the t-th first CFB, the output of the t-1-th first CFB is applied together as an input to the t-th first CFB, thereby generating the output of each of the T first CFBs, and then applying each of the T real forward outputs as an input to each of the T second CFBs, one by one, in an order opposite to the order of application of the inputs to the T first CFBs, such that the t-th real forward output is the t-th An operating method of an electronic device, characterized in that when applied to a second CFB, the output of the t+1th second CFB and the tth actual output map are applied together as input to the tth second CFB, thereby generating the output of each of the T second CFBs, thereby generating T actual reverse outputs, and then performing upsampling by combining outputs of the same order between the T actual forward outputs and the T actual reverse outputs and passing them through the deconvolution layer respectively, thereby generating T actual upsampling maps, and then combining the results of passing the T actual upsampling maps through a convolution layer and the results of performing bicubic interpolation on the first real image, thereby generating a super-resolution image corresponding to the first real image.
제7항에 있어서,
상기 초해상화 모델을 이용할 수 있는 사용자임을 인증하기 위한, 사전 발급된 인증 값 - 상기 인증 값은, 사용자에 대해 사전 발급된 p(p는 2이상의 자연수임)자리수의 제1 사용자 식별번호를 구성하는 p개의 숫자들 각각에 대해 모듈로(modulo)-2 연산이 수행된 결과 값으로 구성된 제1 벡터와, 사용자에 대해 사전 발급된 q(q는 2이상의 자연수임)자리수의 제1 비밀번호를 구성하는 q개의 숫자들 각각에 대해 모듈로-2 연산이 수행된 결과 값으로 구성된 제2 벡터 간의 합성곱 연산이 수행되어 생성된 결과 값임 - 이 저장되어 있는 인증 값 저장부를 유지하는 단계;
상기 초해상화 모델을 생성하는 단계를 통해, 상기 초해상화 모델의 생성이 완료된 이후에, 사용자로부터 상기 초해상화 모델의 이용을 위한 사용자 인증 요청 명령이 인가되면, 화면 상에, 사용자 인증을 위한 사용자 식별번호와 비밀번호를 입력할 것을 지시하는 메시지를 표시한 후, 사용자에 의해, 상기 제1 사용자 식별번호와 상기 제1 비밀번호가 입력되면, 상기 제1 사용자 식별번호를 구성하는 p개의 숫자들 각각에 대해 모듈로-2 연산을 수행한 결과 값으로 구성된 제1 벡터와, 상기 제1 비밀번호를 구성하는 q개의 숫자들 각각에 대해 모듈로-2 연산을 수행한 결과 값으로 구성된 제2 벡터 간의 합성곱 연산을 수행함으로써, 검증 값을 생성한 후, 상기 검증 값이 상기 인증 값과 일치하는지 확인하여, 서로 일치하는 것으로 확인되면, 사용자 인증을 완료 처리하는 단계; 및
사용자 인증이 완료 처리되면, 화면 상에, 사용자 인증이 완료되었음을 지시하는 메시지를 표시함과 동시에, 상기 초해상화 모델의 이용을 위한, 실제 이미지를 입력할 것을 지시하는 메시지를 표시하는 단계
를 더 포함하는 전자 장치의 동작 방법.
In Article 7,
A step for maintaining an authentication value storage unit in which a pre-issued authentication value for authenticating a user who can use the above super-resolution model is stored - the authentication value is a result value generated by performing a convolution operation between a first vector composed of a result value obtained by performing a modulo-2 operation on each of p numbers constituting a first user identification number of p digits (p is a natural number greater than or equal to 2) pre-issued for the user, and a second vector composed of a result value obtained by performing a modulo-2 operation on each of q numbers constituting a first password of q digits (q is a natural number greater than or equal to 2) pre-issued for the user;
Through the step of generating the super-resolution model, after the generation of the super-resolution model is completed, if a user authentication request command for using the super-resolution model is authorized from the user, a message instructing to input a user identification number and password for user authentication is displayed on the screen, and then, when the first user identification number and the first password are entered by the user, a step of performing a convolution operation between a first vector formed by a result value of performing a modulo-2 operation on each of p numbers constituting the first user identification number and a second vector formed by a result value of performing a modulo-2 operation on each of q numbers constituting the first password, thereby generating a verification value, and then checking whether the verification value matches the authentication value, and if it is confirmed that they match, completing the user authentication; and
When user authentication is completed, a step of displaying a message indicating that user authentication is completed on the screen and at the same time displaying a message indicating that an actual image for use of the super-resolution model is to be input
A method of operating an electronic device further comprising:
제7항 및 제9항 내지 제12항 중 어느 한 항의 방법을 컴퓨터와의 결합을 통해 실행시키기 위한 컴퓨터 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium having recorded thereon a computer program for executing the method of any one of claims 7 and 9 to 12 through combination with a computer. 제7항 및 제9항 내지 제12항 중 어느 한 항의 방법을 컴퓨터와의 결합을 통해 실행시키기 위한 저장매체에 저장된 컴퓨터 프로그램.A computer program stored in a storage medium for executing the method of any one of claims 7 and 9 to 12 through combination with a computer.
KR1020230071634A 2022-12-23 2023-06-02 Electronic apparatus capable of image super-resolution based on deep learning and the operating method thereof Active KR102701117B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220182457 2022-12-23
KR1020220182457 2022-12-23

Publications (2)

Publication Number Publication Date
KR20240102794A KR20240102794A (en) 2024-07-03
KR102701117B1 true KR102701117B1 (en) 2024-08-30

Family

ID=91899929

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230071634A Active KR102701117B1 (en) 2022-12-23 2023-06-02 Electronic apparatus capable of image super-resolution based on deep learning and the operating method thereof

Country Status (1)

Country Link
KR (1) KR102701117B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013021635A (en) * 2011-07-14 2013-01-31 Sony Corp Image processor, image processing method, program and recording medium
US20190206026A1 (en) * 2018-01-02 2019-07-04 Google Llc Frame-Recurrent Video Super-Resolution

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013021635A (en) * 2011-07-14 2013-01-31 Sony Corp Image processor, image processing method, program and recording medium
US20190206026A1 (en) * 2018-01-02 2019-07-04 Google Llc Frame-Recurrent Video Super-Resolution

Also Published As

Publication number Publication date
KR20240102794A (en) 2024-07-03

Similar Documents

Publication Publication Date Title
CN113240580B (en) Lightweight image super-resolution reconstruction method based on multi-dimensional knowledge distillation
US12106554B2 (en) Image sequence processing using neural networks
CN111047516A (en) Image processing method, image processing device, computer equipment and storage medium
CN112488923A (en) Image super-resolution reconstruction method and device, storage medium and electronic equipment
KR20200143193A (en) Apparatus and method for object detection
CN114926892B (en) A fundus image matching method, system and readable medium based on deep learning
Lin et al. Zig-zag network for semantic segmentation of RGB-D images
CN118279679B (en) Image classification method, image classification device and medium based on deep learning model
CN113538254A (en) Image restoration method and device, electronic equipment and computer readable storage medium
Zhang et al. Mutual dual-task generator with adaptive attention fusion for image inpainting
WO2025016121A1 (en) Image processing method and apparatus, and electronic device and storage medium
KR102482472B1 (en) Electronic device that can rectangularize an inclined license plate image through machine learning-based vertex extraction and the operating method thereof
KR102701117B1 (en) Electronic apparatus capable of image super-resolution based on deep learning and the operating method thereof
CN114549341B (en) A sample-guided diversified restoration method for face images
CN115423697A (en) Image restoration method, terminal and computer storage medium
KR102679775B1 (en) Electronic apparatus capable of performing image resolution improvement based on deep learning and the operating method thereof
KR102557697B1 (en) Electronic device capable of rectangularizing an inclined license plate image through machine learning-based vertex extraction and homography matrix calculation, and the operating method thereof
Liao et al. FisheyeEX: Polar outpainting for extending the FoV of fisheye lens
Hou et al. Image inpainting via progressive decoder and gradient guidance
CN115564775A (en) Defect detection method and device based on lightweight attention mechanism and storage medium
CN113205521A (en) Image segmentation method of medical image data
KR102824290B1 (en) Electronic apparatus that performs deep learning-based building area detection and the operating method thereof
KR102832723B1 (en) Electronic terminal apparatus capable of performing user authentication by using pattern input mixed with face recognition and operating method thereof
KR102723625B1 (en) Electronic apparatus capable of performing segmentation of a mesh structure constituting a graphic model based on deep learning and the operating method thereof
KR20240100197A (en) Electronic apparatus that detects image change based on deep learning and the operating method thereof

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20230602

PA0201 Request for examination

Patent event code: PA02011R01I

Patent event date: 20230602

Comment text: Patent Application

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20240530

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240826

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20240827

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20240827

End annual number: 3

Start annual number: 1

PG1601 Publication of registration