[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7177280B2 - Image recognition device, image recognition method, and image recognition program - Google Patents

Image recognition device, image recognition method, and image recognition program Download PDF

Info

Publication number
JP7177280B2
JP7177280B2 JP2021541364A JP2021541364A JP7177280B2 JP 7177280 B2 JP7177280 B2 JP 7177280B2 JP 2021541364 A JP2021541364 A JP 2021541364A JP 2021541364 A JP2021541364 A JP 2021541364A JP 7177280 B2 JP7177280 B2 JP 7177280B2
Authority
JP
Japan
Prior art keywords
image
state
input image
recognition
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021541364A
Other languages
Japanese (ja)
Other versions
JPWO2021033242A1 (en
Inventor
勉 堀川
大地 小野
博之 矢部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2021033242A1 publication Critical patent/JPWO2021033242A1/en
Application granted granted Critical
Publication of JP7177280B2 publication Critical patent/JP7177280B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像認識装置、画像認識方法、及び、画像認識プログラムに関する。 The present invention relates to an image recognition device, an image recognition method, and an image recognition program.

画像に対して、当該画像に表された対象を認識する技術がある。例えば、撮像された画像の被写体の人物を認識する技術や、画像の各ピクセルに対して、該ピクセルに表された人物、道路、空等のオブジェクトの種類を認識する(いわゆる、セマンティックセグメンテーション(Semantic segmentation))技術等が知られている。近年、より高精度な認識処理を行うために、教師画像に基づいて学習が実行された機械学習モデルを用いて認識処理が行われることもある。 There are techniques for recognizing an object represented in an image. For example, techniques for recognizing a person in a photographed image, and for each pixel of an image, recognizing the type of object such as a person, road, sky, etc. represented by that pixel (so-called semantic segmentation). segmentation)) technology is known. In recent years, in order to perform recognition processing with higher accuracy, recognition processing may be performed using a machine learning model that has been learned based on a teacher image.

学習が実行された機械学習モデルを用いて認識処理を実行する場合、当該学習に用いられる教師画像を準備する必要がある。撮像装置の姿勢や撮像装置が置かれた位置によって、撮影された画像の画角や撮影画像における鉛直方向の向きは異なる。従って、不作為の条件下で教師画像が撮像された場合、当該教師画像には、画角や向きが様々な撮影画像が含まれる。画角や向きが様々な撮影画像を教師画像として学習が実行された機械学習モデルは、種々の画角や向きで撮影された入力画像に対して認識処理を実行できる反面、必要とされる教師画像の数が多くなり、認識精度の向上が困難である。また、必要な認識精度を確保するためには、パラメータの数を増やす必要があり、計算規模が大型化するという問題がある。 When performing recognition processing using a machine learning model on which learning has been performed, it is necessary to prepare a teacher image used for the learning. The angle of view of a captured image and the vertical orientation of the captured image differ depending on the posture of the imaging device and the position where the imaging device is placed. Therefore, when a teacher image is captured under random conditions, the teacher image includes captured images with various angles of view and orientations. A machine learning model that has been trained using captured images with various angles of view and orientations as teacher images can perform recognition processing on input images captured with various angles of view and orientations. The number of images increases, making it difficult to improve recognition accuracy. In addition, in order to ensure the necessary recognition accuracy, it is necessary to increase the number of parameters, and there is a problem that the scale of calculation becomes large.

本発明は、上記問題点に鑑みてなされたものであり、その目的は、撮影時の撮像装置の状態情報を用いることで、学習時に必要とされる教師画像の数が少なく、認識精度が高く、計算負荷の低い画像認識装置、画像認識方法、及び、画像認識プログラムを提供することである。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems. , an image recognition device, an image recognition method, and an image recognition program with low computational load.

上記課題を解決するために、本発明に係る画像認識装置は、第1状態情報で表される第1状態の撮像装置により撮像された教師画像に基づいて学習が実行された機械学習モデルである認識部と、第2状態の撮像装置により撮像された入力画像と、該第2状態を表す第2状態情報と、を取得する入力画像取得部と、前記第2状態情報に基づいて、前記入力画像に対して、前記第1状態で撮像された画像に近づける変換処理を適用することにより、変換画像を生成する画像変換部と、を含み、前記認識部は、前記変換画像に対する認識処理を実行する、ことを特徴とする。 In order to solve the above problems, an image recognition apparatus according to the present invention is a machine learning model in which learning is performed based on a teacher image captured by an imaging device in a first state represented by first state information. a recognizing unit; an input image obtaining unit that obtains an input image captured by an imaging device in a second state; and second state information representing the second state; an image conversion unit that generates a converted image by applying a conversion process to the image to approximate the image captured in the first state, wherein the recognition unit performs recognition processing on the converted image. characterized in that

本発明の一態様では、前記変換処理は、前記入力画像の回転である、ことを特徴とする。 An aspect of the present invention is characterized in that the conversion processing is rotation of the input image.

本発明の一態様では、前記変換処理は、前記入力画像の一部の切り取りである、ことを特徴とする。 An aspect of the present invention is characterized in that the conversion processing is cutting out a portion of the input image.

本発明の一態様では、切り取られる前記入力画像の一部は、前記入力画像の中心と、前記入力画像に表された水平軸と、を含むことを特徴とする。 An aspect of the invention is characterized in that the portion of the input image that is cropped includes a center of the input image and a horizontal axis represented in the input image.

本発明の一態様では、前記変換処理は、前記入力画像に対するアフィン変換である、ことを特徴とする。 An aspect of the present invention is characterized in that the transformation processing is affine transformation of the input image.

本発明の一態様では、前記認識部は、さらに、第3状態の撮像装置により撮像された教師画像に基づいて、学習が実行済の機械学習モデルであって、前記画像変換部は、前記第1状態または前記第3状態のうち前記第2状態に近い状態で撮像された画像に近づける前記変換処理を行う、ことを特徴とする。 In one aspect of the present invention, the recognition unit is a machine learning model that has already undergone learning based on a teacher image captured by the imaging device in a third state, and the image conversion unit includes the third It is characterized in that the conversion process is performed so as to bring the image closer to the image captured in the first state or the third state, which is closer to the second state.

本発明に係る画像認識方法は、撮像装置により撮像された入力画像と、状態情報と、を取得する入力画像取得ステップと、前記入力画像に対して変換処理を適用することにより、変換画像を生成する画像変換ステップと、第1状態情報で表される第1状態の撮像装置により撮像された教師画像に基づいて学習が実行された機械学習モデルである認識部によって、前記変換画像に対する認識処理を実行する認識ステップと、を含み、前記入力画像は第2状態の撮像装置に撮像された画像であり、前記入力画像取得ステップで取得される状態情報は、前記第2状態を表す第2状態情報であり、前記変換処理は、前記第2状態情報に基づいて、前記入力画像に対して、前記第1状態で撮像された画像に近づける変換処理である、ことを特徴とする。 An image recognition method according to the present invention includes an input image obtaining step of obtaining an input image captured by an imaging device and state information, and applying a conversion process to the input image to generate a converted image. and a recognition unit, which is a machine learning model trained based on a teacher image captured by an imaging device in the first state represented by the first state information, performs recognition processing on the converted image. a recognition step to be executed, wherein the input image is an image captured by an imaging device in a second state, and the state information obtained in the input image obtaining step is second state information representing the second state; and the conversion processing is a conversion processing for bringing the input image closer to the image captured in the first state based on the second state information.

本発明に係る画像認識プログラムは、撮像装置により撮像された入力画像と、状態情報と、を取得する入力画像取得手順と、前記入力画像に対して変換処理を適用することにより、変換画像を生成する画像変換手順と、第1状態情報で表される第1状態の撮像装置により撮像された教師画像に基づいて学習が実行された機械学習モデルである認識部によって、前記変換画像に対する認識処理を実行する認識手順と、をコンピュータに実行させる画像認識プログラムであって、前記入力画像は第2状態の撮像装置に撮像された画像であり、前記入力画像取得ステップで取得される状態情報は、前記第2状態を表す第2状態情報であり、前記変換処理は、前記第2状態情報に基づいて、前記入力画像に対して、前記第1状態で撮像された画像に近づける変換処理である、ことを特徴とする。 An image recognition program according to the present invention generates a transformed image by applying an input image acquisition procedure for acquiring an input image captured by an imaging device and state information, and applying transformation processing to the input image. and a recognition unit, which is a machine learning model trained based on a teacher image captured by an imaging device in the first state represented by the first state information, performs recognition processing on the converted image. an image recognition program for causing a computer to execute a recognition procedure to be executed, wherein the input image is an image captured by an imaging device in a second state, and the state information acquired in the input image acquiring step is the second state information representing a second state, and the conversion process is a conversion process that approximates the input image to an image captured in the first state based on the second state information. characterized by

本発明の一実施形態に係る画像認識装置の構成図である。1 is a configuration diagram of an image recognition device according to an embodiment of the present invention; FIG. 本発明の一実施形態に係る画像認識装置で実装される機能の一例を示す機能ブロック図である。1 is a functional block diagram showing an example of functions implemented in an image recognition device according to one embodiment of the present invention; FIG. 本発明の一実施形態に係る画像処理装置で行われる学習処理の流れの一例を示すフロー図である。FIG. 4 is a flow diagram showing an example of the flow of learning processing performed by the image processing apparatus according to one embodiment of the present invention; 本発明の一実施形態に係る画像処理装置で行われる画像認識の流れの一例を示すフロー図である。FIG. 3 is a flow diagram showing an example of the flow of image recognition performed by the image processing apparatus according to one embodiment of the present invention; 本発明の一実施形態に係る画像認識の一例を示す図である。It is a figure showing an example of image recognition concerning one embodiment of the present invention. 本発明の一実施形態に係る画像認識の一例を示す図である。It is a figure showing an example of image recognition concerning one embodiment of the present invention.

以下、本発明の一実施形態について図面に基づき詳細に説明する。図1は、本実施形態に係る画像認識装置10の構成図である。 An embodiment of the present invention will be described in detail below with reference to the drawings. FIG. 1 is a configuration diagram of an image recognition device 10 according to this embodiment.

本実施形態に係る画像認識装置10は、例えば、ゲームコンソールやパーソナルコンピュータなどのコンピュータである。また、画像認識装置10は、デジタルカメラ等の撮像装置であってもよい。図1に示すように、本実施形態に係る画像認識装置10は、例えば、プロセッサ12、記憶部14、操作部16、表示部18を含んでいる。 The image recognition device 10 according to this embodiment is, for example, a computer such as a game console or a personal computer. Also, the image recognition device 10 may be an imaging device such as a digital camera. As shown in FIG. 1, the image recognition device 10 according to this embodiment includes a processor 12, a storage unit 14, an operation unit 16, and a display unit 18, for example.

プロセッサ12は、例えば画像認識装置10にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。 The processor 12 is a program-controlled device such as a CPU that operates according to a program installed in the image recognition apparatus 10, for example.

記憶部14は、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部14には、プロセッサ12によって実行されるプログラムなどが記憶される。 The storage unit 14 is a storage element such as ROM or RAM, a hard disk drive, or the like. The storage unit 14 stores programs and the like executed by the processor 12 .

操作部16は、キーボード、マウス、ゲームコンソールのコントローラ等のユーザインタフェースであって、ユーザの操作入力を受け付けて、その内容を示す信号をプロセッサ12に出力する。 The operation unit 16 is a user interface such as a keyboard, a mouse, and a controller of a game console, and receives user's operation input and outputs a signal indicating the content of the input to the processor 12 .

表示部18は、液晶ディスプレイ等の表示デバイスであって、プロセッサ12の指示に従って各種の画像を表示する。 The display unit 18 is a display device such as a liquid crystal display, and displays various images according to instructions from the processor 12 .

なお、画像認識装置10は、ネットワークボードなどの通信インタフェース、DVD-ROMやBlu-ray(登録商標)ディスクなどの光ディスクを読み取る光ディスクドライブ、USB(Universal Serial Bus)ポートなどを含んでいてもよい。 The image recognition device 10 may include a communication interface such as a network board, an optical disk drive for reading optical disks such as DVD-ROMs and Blu-ray (registered trademark) disks, a USB (Universal Serial Bus) port, and the like.

図2は、本発明の一実施形態に係る画像認識装置10で実装される機能の一例を示す機能ブロック図である。図2に示すように、画像認識装置10は、認識部204及びパラメータ保存部206を含む学習部202と、入力画像取得部208と、画像変換部210と、を含む。 FIG. 2 is a functional block diagram showing an example of functions implemented in the image recognition device 10 according to one embodiment of the present invention. As shown in FIG. 2 , the image recognition device 10 includes a learning section 202 including a recognition section 204 and a parameter storage section 206 , an input image acquisition section 208 and an image conversion section 210 .

認識部204は、第1状態情報で表される第1状態の撮像装置により撮像された教師画像に基づいて学習が実行された機械学習モデルである。具体的には、例えば、認識部204は、例えば、畳み込みニューラルネットワーク(CNN)により実装された機械学習モデルである。教師画像は、カメラ等の撮像装置により、一定の状態で撮像された複数の画像である。当該状態により、撮像装置のレンズによって定まる水平方向及び鉛直方向の画角(または焦点距離)や、撮像装置の鉛直方向に対する角度などが決定される。当該状態によって、撮像される対象となる実空間における領域が定まる。 The recognition unit 204 is a machine learning model that has been learned based on a teacher image captured by the imaging device in the first state represented by the first state information. Specifically, for example, the recognition unit 204 is a machine learning model implemented by, for example, a convolutional neural network (CNN). A teacher image is a plurality of images captured in a fixed state by an imaging device such as a camera. Depending on this state, the horizontal and vertical angles of view (or focal lengths) determined by the lens of the imaging device, the angle of the imaging device with respect to the vertical direction, and the like are determined. Depending on the state, the area in the real space to be imaged is determined.

すなわち、撮像装置は実空間における一定の領域から入射した光を画像に変換するが、当該領域は、撮像装置に含まれる複数のレンズの位置関係や、撮像装置に含まれる撮像素子の鉛直方向に対する角度等によって定まる。当該領域を決定する要素であるレンズの位置関係や撮像装置の姿勢(撮像素子の角度)等の撮像条件を表す情報を、以下、状態情報と呼称する。教師画像は、例えば、レンズの焦点距離が35mmであって、撮像装置の底面(または、当該撮像装置の内部に配置された撮像素子の下側端部)と鉛直方向とのなす角度が90度(すなわち、撮像装置が水平に固定された状態)であるという固定された状態の撮像装置によって複数撮像される。 In other words, the imaging device converts incident light from a certain area in the real space into an image. It is determined by the angle and the like. Information representing imaging conditions such as the positional relationship of the lens and the attitude of the imaging device (angle of the imaging element), which are elements that determine the area, is hereinafter referred to as state information. For example, the teacher image has a lens focal length of 35 mm, and the angle formed by the bottom surface of the imaging device (or the lower end of the imaging device arranged inside the imaging device) and the vertical direction is 90 degrees. (that is, a state in which the imaging device is horizontally fixed).

また、認識部204は、変換画像に対する認識処理を実行する。具体的には、例えば、認識部204は、後述する変換画像に含まれる被写体の人物や建物等を認識する。また、認識部204は、変換画像の各ピクセルに対して、該ピクセルに表された人物、道路、空等のオブジェクトの種類を認識するセマンティックセグメンテーションを行ってもよい。 Further, the recognition unit 204 executes recognition processing on the converted image. Specifically, for example, the recognition unit 204 recognizes a person, a building, or the like as a subject included in a converted image, which will be described later. The recognition unit 204 may also perform semantic segmentation for recognizing the type of object represented by the pixel, such as a person, road, sky, etc., for each pixel of the transformed image.

認識部204は、上記のような第1状態の撮像装置により撮像された教師画像に基づいて、予め学習が実行された機械学習モデルである。当該学習は、学習に用いられる教師画像が、一定の状態の撮像素子により撮像された画像である点が特徴であるが、その他は従来から知られた方法で行われてもよい。当該学習について、学習の態様を示す図3を参照しながら説明する。 The recognition unit 204 is a machine-learning model that has been pre-learned based on the teacher image captured by the imaging device in the first state as described above. The learning is characterized in that the teacher image used for learning is an image captured by an imaging device in a constant state, but other than that, conventionally known methods may be used. The learning will be described with reference to FIG. 3 showing the mode of learning.

まず、撮像装置が第1状態で固定された状態で、複数の教師画像を撮像する。そして、認識部204は、当該複数の教師画像を取得する(S302)。また、学習部202は、S302で取得された教師画像に対して認識処理が行われた結果を取得する(S304)。当該認識処理は、学習部202に含まれる認識部204によって行われる処理ではなく、従来から知られた任意の方法によって、正解の認識結果が得られる処理である。従って、学習部202は、S302で取得された教師画像に対する正解の認識結果を取得する。 First, a plurality of teacher images are captured while the imaging device is fixed in the first state. Then, the recognition unit 204 acquires the plurality of teacher images (S302). Also, the learning unit 202 acquires the result of recognition processing performed on the teacher image acquired in S302 (S304). The recognition process is not a process performed by the recognition unit 204 included in the learning unit 202, but a process for obtaining a correct recognition result by any conventionally known method. Therefore, the learning unit 202 acquires a correct recognition result for the teacher image acquired in S302.

そして、学習部202は、教師画像及び当該教師画像の正解の認識結果を用いて、認識部204の学習を実行する(S306)。当該学習では、例えば、正解の認識結果と、入力された教師画像に対して認識部204が認識処理を行った結果と、の比較結果(以下、誤差)が特定される。誤差は、0以上1以下の値をとるデータであってもよい。この場合、誤差は例えば、正解の認識結果と、入力された教師画像に対して認識部204が認識処理を行った結果と、が一致する場合に値として0をとり、一致しない場合に値として1をとるデータであってもよい。学習部202は、当該誤差に基づいて、例えば誤差逆伝搬法により、認識部204のパラメータの値が更新される。 Then, the learning unit 202 performs learning of the recognition unit 204 using the teacher image and the correct recognition result of the teacher image (S306). In the learning, for example, a comparison result (hereinafter referred to as an error) between the correct recognition result and the result of recognition processing performed by the recognition unit 204 on the input teacher image is specified. The error may be data having a value of 0 or more and 1 or less. In this case, the error takes a value of 0 when the correct recognition result and the result of the recognition processing performed by the recognition unit 204 on the input teacher image match, and takes a value of 0 when they do not match. Data that takes 1 may be used. Based on the error, the learning unit 202 updates the parameter value of the recognition unit 204 by, for example, the error back propagation method.

そして、学習部202は、事前に定められた終了条件を満たしたか否かを確認する(S308)。事前に定められた終了条件を満たしていない場合は(S308:N)、学習部202は、S306に示す処理に戻る。事前に定められた終了条件を満たした場合は(S308:Y)、本処理例に示す処理を終了する。これにより、認識部204のパラメータの値の更新が、繰り返し実行される。以上のようにして、画像認識装置10に実装されている認識部204は、実行された機械学習モデルである。 Then, the learning unit 202 confirms whether or not a predetermined end condition is satisfied (S308). If the predetermined end condition is not satisfied (S308: N), the learning unit 202 returns to the processing shown in S306. If the predetermined termination condition is satisfied (S308: Y), the processing shown in this processing example is terminated. As a result, updating of the parameter values of the recognition unit 204 is repeatedly executed. As described above, the recognition unit 204 implemented in the image recognition device 10 is a machine learning model that has been executed.

パラメータ保存部206は、機械学習モデルである認識部204のパラメータを保存する。具体的には、例えば、パラメータ保存部206は、図3に示すフローで学習が実行されることによって決定されたパラメータを保存する。 A parameter storage unit 206 stores parameters of the recognition unit 204, which is a machine learning model. Specifically, for example, the parameter storage unit 206 stores parameters determined by performing learning according to the flow shown in FIG.

入力画像取得部208は、第2状態の撮像装置により撮像された入力画像と、該第2状態を表す第2状態情報と、を取得する。具体的には、例えば、入力画像取得部208は、任意の状態(例えば、焦点距離が28mmであって、撮像装置の底面と鉛直方向とのなす角度が120度)の撮像装置によって撮像された画像と、当該状態を表す第2状態情報と、を取得する。 The input image acquisition unit 208 acquires an input image captured by the imaging device in the second state and second state information representing the second state. Specifically, for example, the input image acquisition unit 208 acquires an image captured by an imaging device in an arbitrary state (for example, the focal length is 28 mm and the angle between the bottom surface of the imaging device and the vertical direction is 120 degrees). An image and second state information representing the state are obtained.

ここで、撮像装置の内部に配置されたレンズの動作を制御する制御部は、焦点距離を表す情報を取得できる。また、撮像装置がジャイロセンサを有する場合には、ジャイロセンサは、撮像装置の底面と鉛直方向とのなす角度を表す情報を取得できる。入力画像取得部208は、撮像装置に含まれる制御部やジャイロセンサから第2状態を表す第2状態情報を取得できる。 Here, the control unit that controls the operation of the lens arranged inside the imaging device can acquire information representing the focal length. Also, when the imaging device has a gyro sensor, the gyro sensor can acquire information representing the angle between the bottom surface of the imaging device and the vertical direction. The input image acquisition unit 208 can acquire second state information representing the second state from a control unit or a gyro sensor included in the imaging device.

なお、入力画像取得部208は、認識処理を実行する対象となる画像の数に応じて、複数の入力画像と第2状態情報の組み合わせを取得してもよい。第1状態情報は一定であるが、第2状態は任意でよいため、第2状態情報は取得される入力画像ごとに異なっていてもよい。 Note that the input image acquisition unit 208 may acquire combinations of a plurality of input images and second state information according to the number of images to be subjected to recognition processing. The first state information is constant, but the second state may be arbitrary, so the second state information may be different for each acquired input image.

画像変換部210は、第2状態情報に基づいて、入力画像に対して、第1状態で撮像された画像に近づける変換処理を適用することにより、変換画像を生成する。具体的には、例えば、変換処理は、入力画像の回転である。画像変換部210は、第2状態(焦点距離が28mmであって、撮像装置の底面と鉛直方向とのなす角度が120度)の撮像装置に撮像された入力画像を、第1状態(レンズの焦点距離が28mmであって、撮像装置の底面と鉛直方向とのなす角度が90度)で撮像された画像に近づけるように回転させる。第1状態と第2状態の焦点距離は同じであるため、画角は同じである。一方、第1状態と第2状態の上記角度は、30度異なる。従って、画像変換部210は、入力画像を反時計回りに30度回転させる。 Based on the second state information, the image conversion unit 210 generates a converted image by applying conversion processing to bring the input image closer to the image captured in the first state. Specifically, for example, the transform processing is rotation of the input image. The image conversion unit 210 converts the input image captured by the imaging device in the second state (the focal length is 28 mm and the angle between the bottom surface of the imaging device and the vertical direction is 120 degrees) to the first state (lens The focal length is 28 mm, and the angle between the bottom surface of the imaging device and the vertical direction is 90 degrees). Since the focal lengths in the first state and the second state are the same, the angles of view are the same. On the other hand, the angle between the first state and the second state differs by 30 degrees. Therefore, the image conversion unit 210 rotates the input image counterclockwise by 30 degrees.

なお、変換処理は、入力画像の一部の切り取りであってもよい。具体的には、例えば、画像変換部210は、第2状態(焦点距離が28mmであって、撮像装置の底面と鉛直方向とのなす角度が90度)の撮像装置に撮像された入力画像を、第1状態(レンズの焦点距離が35mmであって、撮像装置の底面と鉛直方向とのなす角度が90度)で撮像された画像に近づけるように切り取る。この場合、第1状態と第2状態の角度は同じである。一方、第1状態と第2状態の焦点距離が異なるため、画角が異なる。従って、画像変換部210は、第2状態で撮像された入力画像のうち、第1状態で撮像された画角に相当する領域を切り取ってもよい。 It should be noted that the conversion processing may be cutting out a part of the input image. Specifically, for example, the image conversion unit 210 converts the input image captured by the imaging device in the second state (the focal length is 28 mm and the angle between the bottom surface of the imaging device and the vertical direction is 90 degrees). , and the image captured in the first state (the focal length of the lens is 35 mm, and the angle between the bottom surface of the imaging device and the vertical direction is 90 degrees). In this case, the angles in the first state and the second state are the same. On the other hand, since the focal lengths are different between the first state and the second state, the angles of view are different. Therefore, the image conversion section 210 may cut out a region corresponding to the angle of view captured in the first state from the input image captured in the second state.

また、変換処理は、入力画像に対するアフィン変換であってもよい。具体的には、画像変換部210は、入力画像を第1状態で撮像された画像に近づけるように、入力画像に対して、拡大縮小、剪断、回転、平行移動を行ってもよい。 Also, the transformation processing may be affine transformation of the input image. Specifically, the image conversion unit 210 may scale, shear, rotate, and translate the input image so as to bring the input image closer to the image captured in the first state.

以上のように、一定の状態である第1状態で撮像された教師画像を用いて学習が実行された機械学習モデルと、撮影時の撮像装置の状態を表す第2状態情報を用いることで、教師画像と入力画像が撮像される際の撮像装置の状態に関する条件を揃えることができる。従って、低い計算負荷で精度の高い認識処理を実行できる。 As described above, by using a machine learning model trained using a teacher image captured in the first state, which is a constant state, and the second state information representing the state of the imaging device at the time of shooting, Conditions regarding the state of the imaging device when the teacher image and the input image are captured can be matched. Therefore, highly accurate recognition processing can be executed with a low computational load.

上記において、第1状態の撮像装置により撮像された教師画像に基づいて学習を実行する実施形態について説明したが、認識部204は、さらに、第3状態の撮像装置により撮像された教師画像に基づいて、学習が実行済の機械学習モデルであってもよい。この場合、第2状態情報に基づいて、画像変換部210は、第1状態または第3状態のうち第2状態に近い状態で撮像された画像に近づける変換処理を行う。 In the above, an embodiment has been described in which learning is performed based on the teacher image captured by the imaging device in the first state. Alternatively, it may be a machine learning model that has already been trained. In this case, based on the second state information, the image conversion unit 210 performs conversion processing to bring the image closer to the image captured in the first state or the third state, which is closer to the second state.

具体的には、例えば、認識部204は、撮像装置が第1状態で固定された状態で撮像された複数の教師画像と、撮像装置が第3状態で固定された状態で撮像された複数の教師画像と、が混合された複数の教師画像に基づいて図3に示すフローで学習が実行された機械学習モデルであってもよい。この場合、撮像装置が第1状態で固定された状態で撮像された複数の教師画像のみを用いて決定されたパラメータとは異なるパラメータが決定される。認識部204は、当該パラメータを用いることによって、認識処理を実行する。 Specifically, for example, the recognition unit 204 recognizes a plurality of teacher images captured with the imaging device fixed in the first state and a plurality of teacher images captured with the imaging device fixed in the third state. It may be a machine learning model in which learning is executed according to the flow shown in FIG. 3 based on a plurality of mixed teacher images. In this case, parameters are determined that are different from parameters determined using only a plurality of teacher images captured with the imaging device fixed in the first state. The recognition unit 204 executes recognition processing by using the parameters.

また、例えば、認識部204は、撮像装置が第1状態で固定された状態で撮像された複数の教師画像に基づいて実行される学習と、撮像装置が第3状態で固定された状態で撮像された複数の教師画像に基づいて実行される学習と、が個別に実行された機械学習モデルであってもよい。この場合、パラメータ保存部206は、第1状態の撮像装置により撮像された教師画像に基づいて学習が実行されたときに決定された第1パラメータと、第3状態の撮像装置により撮像された教師画像に基づいて学習が実行されたときに決定された第3パラメータと、の2種類を保存する。そして、第2状態情報が表す状態が第1状態または第3状態のいずれと近いか判定された後、近いと判定された状態と関連付けられたパラメータが選別される。認識部204は、当該選別されたパラメータを用いることによって、認識処理を実行する。 Further, for example, the recognition unit 204 performs learning based on a plurality of teacher images captured with the imaging device fixed in the first state, and learning performed based on a plurality of teacher images captured with the imaging device fixed in the third state. It may be a machine learning model in which learning is performed based on a plurality of teacher images that have been obtained, and are performed individually. In this case, the parameter storage unit 206 stores the first parameter determined when learning is performed based on the teacher image captured by the imaging device in the first state and the teacher image captured by the imaging device in the third state. and a third parameter determined when image-based learning is performed. Then, after it is determined whether the state represented by the second state information is closer to the first state or the third state, parameters associated with the state determined to be closer are selected. The recognition unit 204 executes recognition processing by using the selected parameters.

上記の場合も、教師画像と入力画像が撮像される際の撮像装置の状態に関する条件を揃えることができるため、低い計算負荷で高精度な認識処理を実行できる。 In the above case as well, conditions regarding the state of the imaging device when the teacher image and the input image are captured can be matched, so highly accurate recognition processing can be executed with a low computational load.

次に、本実施形態に係る画像認識装置10で行われる、認識処理の一例を、図4から図6に例示するフロー図を参照しながら説明する。なお、認識部204は、第1状態だけでなく、第3状態の撮像装置により撮像された教師画像に基づいて、学習が実行済の機械学習モデルであるとする。具体的には、例えば、第1状態は、焦点距離が35mmであって、撮像装置の底面と鉛直方向とのなす角度が90度を表し、第3状態は、焦点距離が28mmであって、撮像装置の底面と鉛直方向とのなす角度が90度を表すとする。 Next, an example of recognition processing performed by the image recognition device 10 according to the present embodiment will be described with reference to flowcharts illustrated in FIGS. 4 to 6. FIG. It is assumed that the recognition unit 204 is a machine learning model that has already been learned based on teacher images captured by the imaging device in the third state as well as in the first state. Specifically, for example, in the first state, the focal length is 35 mm, and the angle between the bottom surface of the imaging device and the vertical direction is 90 degrees. In the third state, the focal length is 28 mm, Assume that the angle between the bottom surface of the imaging device and the vertical direction represents 90 degrees.

まず、入力画像取得部208は、第2状態の撮像装置により撮像された入力画像を取得する(S402)。また、入力画像取得部208は、該第2状態を表す第2状態情報を取得する(S404)。具体的には、図5の例で示す入力画像は、焦点距離が35mmであって、撮像装置の底面と鉛直方向とのなす角度が120度である第2状態の撮像装置に撮像された画像である。また、図6の例で示す入力画像は、焦点距離が20mmであって、撮像装置の底面と鉛直方向とのなす角度が90度である第2状態の撮像装置に撮像された画像である。入力画像取得部208は、図5または図6に示す入力画像が撮像された時の状態を表す第2状態情報を取得する。 First, the input image acquisition unit 208 acquires an input image captured by the imaging device in the second state (S402). Also, the input image acquisition unit 208 acquires second state information representing the second state (S404). Specifically, the input image shown in the example of FIG. 5 is an image captured by the imaging device in the second state in which the focal length is 35 mm and the angle between the bottom surface of the imaging device and the vertical direction is 120 degrees. is. The input image shown in the example of FIG. 6 is an image captured by the imaging device in the second state in which the focal length is 20 mm and the angle between the bottom surface of the imaging device and the vertical direction is 90 degrees. The input image acquisition unit 208 acquires second state information representing the state when the input image shown in FIG. 5 or 6 was captured.

次に、第2状態情報が表す状態が、教師画像が撮像された時の状態である第1状態または第3状態のいずれと近いか判定される(S406)。当該判定は、各状態における焦点距離や撮像装置の底面と鉛直方向とのなす角度の相違の大きさに基づいて判定される。例えば、各状態の焦点距離または上記角度の一方のみが異なる場合、相違の絶対値の大きさに基づいて、第1状態と第3状態のいずれが第2状態に近いか判定される。各状態の焦点距離または上記角度の双方が異なる場合、使用の用途等に応じて、適宜重み付け等を用いて、第1状態と第3状態のいずれが第2状態に近いか判定される。第2状態が第1状態に近いと判定された場合、S408へ進む。 Next, it is determined whether the state represented by the second state information is closer to the first state or the third state, which is the state when the teacher image was captured (S406). The determination is made based on the focal length in each state and the difference in the angle between the bottom surface of the imaging device and the vertical direction. For example, if only one of the focal length or the angle differs in each state, it is determined which of the first state and the third state is closer to the second state based on the magnitude of the absolute value of the difference. When both the focal length and the angle are different in each state, it is determined which of the first state and the third state is closer to the second state by appropriately weighting or the like according to the purpose of use. If it is determined that the second state is close to the first state, the process proceeds to S408.

第2状態が第1状態に近いと判定された場合、画像変換部210は、第2状態情報に基づいて、入力画像に対して、第1状態で撮像された画像に近づける変換処理を適用する(S408)。この場合、図5に示すように、画像変換部210は、入力画像を反時計回りに30度回転させる。なお、図5では回転のみを行った後の画像を記載しているが、画像変換部210は、さらに、画像の上下左右の端部が縦方向及び横方向に平行になるように画像の切り取りを行ってもよい。 When it is determined that the second state is close to the first state, the image conversion unit 210 applies conversion processing to bring the input image closer to the image captured in the first state based on the second state information. (S408). In this case, as shown in FIG. 5, the image conversion unit 210 rotates the input image counterclockwise by 30 degrees. Although FIG. 5 shows the image after only rotation, the image conversion unit 210 further cuts the image so that the top, bottom, left, and right edges of the image are parallel to the vertical and horizontal directions. may be performed.

一方、S406において第2状態が第3状態に近いと判定された場合、S410へ進む。画像変換部210は、第2状態情報に基づいて、入力画像に対して、第3状態で撮像された画像に近づける変換処理を適用する(S410)。この場合、図6に示すように、画像変換部210は、第2状態で撮像された入力画像のうち、第3状態で撮像された画角に相当する領域を切り取る。 On the other hand, if it is determined in S406 that the second state is close to the third state, the process proceeds to S410. Based on the second state information, the image conversion unit 210 applies conversion processing to bring the input image closer to the image captured in the third state (S410). In this case, as shown in FIG. 6, the image conversion unit 210 cuts out a region corresponding to the angle of view captured in the third state from the input image captured in the second state.

ここで、画像変換部210で入力画像の切り取りを行う場合、入力画像のうち重要な領域を含むように切り取る領域を移動させてもよい。重要な領域は、入力画像の中心領域、撮影時にユーザの視線が集中した領域、別途行われた顔認識領域などによって決定される。移動させる大きさは、使用の用途等に応じて、適宜重み付け等を用いて、状態情報の一致度と、切り取った画像に占められる重要な領域の割合と、の合計値を最大化するように決定される。画像変換部210は、第2状態情報に基づいて、入力画像に対して、第1状態で撮像された画像に近づける変換処理を適用するため、切り取る領域が入力画像の端に寄ってしまう場合がある。このように切り取る領域を移動することで、ユーザが意図した領域である可能性の高い領域について画像認識を実行できる。 Here, when the image conversion unit 210 cuts out the input image, the region to be cut out may be moved so as to include an important region of the input image. The important area is determined according to the central area of the input image, the area where the user's line of sight is concentrated when the image is captured, the face recognition area which is separately performed, and the like. The size of the movement should be appropriately weighted according to the purpose of use, etc., so as to maximize the total value of the degree of matching of the state information and the ratio of the important area occupied by the cut out image. It is determined. Based on the second state information, the image conversion unit 210 applies conversion processing to the input image so as to approximate the image captured in the first state. be. By moving the region to be cut out in this manner, image recognition can be executed for a region that is highly likely to be the region intended by the user.

例えば、入力画像の中心領域を含むように切り取る場合、画像変換部210は、図6のように水平軸602及び中心604が含まれるように入力画像を切り取る。なお、水平軸602を表す情報は、撮像装置のジャイロセンサ等から取得した第2状態情報に基づいて判断される。図6の上側画像のように入力画像の水平軸602が画像上部に存在する場合、画像変換部210は、入力画像の上側中央部から、焦点距離が28mmである画角に相当する領域を切り取る。図6の下側画像のように入力画像の水平軸602が画像下部に存在する場合、画像変換部210は、入力画像の下側中央部から、焦点距離が28mmである画角に相当する領域を切り取る。 For example, when cropping to include the central region of the input image, the image transform unit 210 crops the input image to include the horizontal axis 602 and the center 604 as shown in FIG. Information representing the horizontal axis 602 is determined based on the second state information acquired from the gyro sensor or the like of the imaging device. When the horizontal axis 602 of the input image exists at the top of the image, as in the upper image in FIG. 6, the image conversion unit 210 cuts out an area corresponding to the angle of view with a focal length of 28 mm from the upper central portion of the input image. . When the horizontal axis 602 of the input image exists at the bottom of the image as in the lower image of FIG. cut out

そして、S408またはS410で作成された変換画像に対して、認識部204は、画像認識を実行する(S412)。ここでは、パラメータ保存部206は、第1状態の撮像装置により撮像された教師画像に基づいて学習が実行されたときに決定された第1パラメータと、第3状態の撮像装置により撮像された教師画像に基づいて学習が実行されたときに決定された第3パラメータと、の2種類を保存しているとする。S408によって作成された変換画像は、認識部204によって、第1パラメータを用いて、認識処理が実行される。一方、S410によって作成された変換画像は、認識部204によって、第3パラメータを用いて、認識処理が実行される。 Then, the recognition unit 204 performs image recognition on the converted image created in S408 or S410 (S412). Here, the parameter storage unit 206 stores the first parameter determined when learning is performed based on the teacher image captured by the imaging device in the first state, and the teacher image captured by the imaging device in the third state. and a third parameter that was determined when learning was performed based on the images. The converted image created in S408 is subjected to recognition processing by the recognition unit 204 using the first parameter. On the other hand, the converted image created in S410 is subjected to recognition processing by the recognition unit 204 using the third parameter.

以上の機能は、コンピュータである画像認識装置10にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ12で実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して画像認識装置10に供給されてもよい。また、教師画像が撮像されるときの状態は第1状態及び第3状態の2種類に限られず、限定されていれば3種類以上であってもよい。 The functions described above may be implemented by causing the processor 12 to execute a program containing instructions corresponding to the functions described above, which is installed in the image recognition apparatus 10, which is a computer. This program may be supplied to the image recognition apparatus 10 via a computer-readable information storage medium such as an optical disk, magnetic disk, magnetic tape, magneto-optical disk, flash memory, etc., or via the Internet or the like. . Also, the states in which the teacher image is captured are not limited to the two types of the first state and the third state, and may be three or more types as long as they are limited.

なお、本発明は上述の実施形態に限定されるものではない。また、上記の具体的な文字列や数値及び図面中の具体的な文字列や数値は例示であり、これらの文字列や数値には限定されない。 It should be noted that the present invention is not limited to the above-described embodiments. In addition, the specific character strings and numerical values described above and the specific character strings and numerical values in the drawings are examples, and are not limited to these character strings and numerical values.

Claims (4)

第1状態情報で表される第1状態の撮像装置により撮像された教師画像に基づいて学習が実行された機械学習モデルである認識部と、
第2状態の撮像装置により撮像された入力画像と、該第2状態を表す第2状態情報と、を取得する入力画像取得部と、
前記第2状態情報に基づいて、前記入力画像に対して、前記第1状態で撮像された画像に近づける変換処理を適用することにより、変換画像を生成する画像変換部と、
を含み、
前記認識部は、前記変換画像に対する認識処理を実行し、
前記変換処理は、前記入力画像の一部の切り取りであり、
切り取られる前記入力画像の一部は、前記入力画像の中心と、前記入力画像に表された水平軸と、を含むことを特徴とする画像認識装置。
a recognition unit, which is a machine learning model for which learning is performed based on a teacher image captured by the imaging device in the first state represented by the first state information;
an input image acquisition unit that acquires an input image captured by the imaging device in the second state and second state information representing the second state;
an image conversion unit that generates a converted image by applying a conversion process that makes the input image closer to the image captured in the first state based on the second state information;
including
The recognition unit performs recognition processing on the converted image ,
the conversion processing is cutting out a part of the input image;
An image recognition apparatus , wherein the portion of the input image to be cropped includes a center of the input image and a horizontal axis represented in the input image .
前記認識部は、さらに、第3状態の撮像装置により撮像された教師画像に基づいて、学習が実行済の機械学習モデルであって、
前記画像変換部は、前記第1状態または前記第3状態のうち前記第2状態に近い状態で撮像された画像に近づける前記変換処理を行う、
ことを特徴とする請求項に記載の画像認識装置。
The recognition unit is further a machine learning model that has been trained based on the teacher image captured by the imaging device in the third state,
The image conversion unit performs the conversion process to approximate an image captured in a state closer to the second state than the first state or the third state,
2. The image recognition device according to claim 1 , wherein:
撮像装置により撮像された入力画像と、状態情報と、を取得する入力画像取得ステップと、
前記入力画像に対して変換処理を適用することにより、変換画像を生成する画像変換ステップと、
第1状態情報で表される第1状態の撮像装置により撮像された教師画像に基づいて学習が実行された機械学習モデルである認識部によって、前記変換画像に対する認識処理を実行する認識ステップと、
を含み、
前記入力画像は第2状態の撮像装置に撮像された画像であり、
前記入力画像取得ステップで取得される状態情報は、前記第2状態を表す第2状態情報であり、
前記変換処理は、前記第2状態情報に基づいて、前記入力画像に対して、前記第1状態で撮像された画像に近づける変換処理であり、
前記変換処理は、前記入力画像の一部の切り取りであり、
切り取られる前記入力画像の一部は、前記入力画像の中心と、前記入力画像に表された水平軸と、を含む、
ことを特徴とする画像認識方法。
an input image acquisition step of acquiring an input image captured by an imaging device and state information;
an image conversion step of generating a converted image by applying a conversion process to the input image;
a recognition step of performing recognition processing on the converted image by a recognition unit, which is a machine learning model trained based on a teacher image captured by an imaging device in the first state represented by the first state information;
including
the input image is an image captured by the imaging device in the second state;
the state information obtained in the input image obtaining step is second state information representing the second state;
The conversion process is a conversion process that approximates the input image to an image captured in the first state based on the second state information ,
the conversion processing is cutting out a part of the input image;
the portion of the input image that is cropped includes the center of the input image and a horizontal axis represented in the input image;
An image recognition method characterized by:
撮像装置により撮像された入力画像と、状態情報と、を取得する入力画像取得手順と、
前記入力画像に対して変換処理を適用することにより、変換画像を生成する画像変換手順と、
第1状態情報で表される第1状態の撮像装置により撮像された教師画像に基づいて学習が実行された機械学習モデルである認識部によって、前記変換画像に対する認識処理を実行する認識手順と、
をコンピュータに実行させる画像認識プログラムであって、
前記入力画像は第2状態の撮像装置に撮像された画像であり、
前記入力画像取得手順で取得される状態情報は、前記第2状態を表す第2状態情報であり、
前記変換処理は、前記第2状態情報に基づいて、前記入力画像に対して、前記第1状態で撮像された画像に近づける変換処理であり、
前記変換処理は、前記入力画像の一部の切り取りであり、
切り取られる前記入力画像の一部は、前記入力画像の中心と、前記入力画像に表された水平軸と、を含む、
ことを特徴とする画像認識プログラム。
an input image acquisition procedure for acquiring an input image captured by an imaging device and state information;
an image conversion procedure for generating a converted image by applying a conversion process to the input image;
a recognition procedure for executing recognition processing on the converted image by a recognition unit, which is a machine learning model trained based on the teacher image captured by the imaging device in the first state represented by the first state information;
An image recognition program that causes a computer to execute
the input image is an image captured by the imaging device in the second state;
the state information acquired in the input image acquisition step is second state information representing the second state;
The conversion process is a conversion process that approximates the input image to an image captured in the first state based on the second state information ,
the conversion processing is cutting out a part of the input image;
the portion of the input image that is cropped includes the center of the input image and a horizontal axis represented in the input image;
An image recognition program characterized by:
JP2021541364A 2019-08-19 2019-08-19 Image recognition device, image recognition method, and image recognition program Active JP7177280B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/032309 WO2021033242A1 (en) 2019-08-19 2019-08-19 Image recognition device, image recognition method, and image recognition program

Publications (2)

Publication Number Publication Date
JPWO2021033242A1 JPWO2021033242A1 (en) 2021-12-16
JP7177280B2 true JP7177280B2 (en) 2022-11-22

Family

ID=74659886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021541364A Active JP7177280B2 (en) 2019-08-19 2019-08-19 Image recognition device, image recognition method, and image recognition program

Country Status (2)

Country Link
JP (1) JP7177280B2 (en)
WO (1) WO2021033242A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114693694A (en) * 2020-12-25 2022-07-01 日本电气株式会社 Method, apparatus and computer-readable storage medium for image processing
WO2024166600A1 (en) * 2023-02-10 2024-08-15 日本電気株式会社 Learning model generating device, learning model generating method, and computer-readable recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017227957A (en) 2016-06-20 2017-12-28 株式会社リコー Information processing apparatus and information processing system
JP2019125116A (en) 2018-01-15 2019-07-25 キヤノン株式会社 Information processing device, information processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017227957A (en) 2016-06-20 2017-12-28 株式会社リコー Information processing apparatus and information processing system
JP2019125116A (en) 2018-01-15 2019-07-25 キヤノン株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
WO2021033242A1 (en) 2021-02-25
JPWO2021033242A1 (en) 2021-12-16

Similar Documents

Publication Publication Date Title
KR102663519B1 (en) Cross-domain image transformation techniques
CN110163087B (en) Face gesture recognition method and system
CN109859305B (en) Three-dimensional face modeling and recognizing method and device based on multi-angle two-dimensional face
CN110730970B (en) Method and system for optimizing policy controller
CN111723691B (en) Three-dimensional face recognition method and device, electronic equipment and storage medium
CN109934847B (en) Method and device for estimating posture of weak texture three-dimensional object
US11042730B2 (en) Method, apparatus and device for determining an object, and storage medium for the same
JP2022502751A (en) Face keypoint detection method, device, computer equipment and computer program
JP7345664B2 (en) Image processing system and method for landmark position estimation with uncertainty
CN112257696B (en) Sight estimation method and computing equipment
JP2005327076A (en) Parameter estimation method, parameter estimation device and collation method
CN109919971B (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
JP2019029002A (en) Re-positioning method to be used in panoramic images, device thereto, and electronic device
CN111340932A (en) Image processing method and information processing apparatus
JP7177280B2 (en) Image recognition device, image recognition method, and image recognition program
CN117372604B (en) 3D face model generation method, device, equipment and readable storage medium
CN112017212A (en) Training and tracking method and system of face key point tracking model
CN114049674A (en) Three-dimensional face reconstruction method, device and storage medium
CN110598647B (en) Head posture recognition method based on image recognition
CN110060295A (en) Object localization method and device, control device follow equipment and storage medium
CN110321821B (en) Human face alignment initialization method and device based on three-dimensional projection and storage medium
CN110765852B (en) Method and device for acquiring face direction in image
CN112036253A (en) Face key point positioning method based on deep learning
CN115578432B (en) Image processing method, device, electronic equipment and storage medium
US20230401670A1 (en) Multi-scale autoencoder generation method, electronic device and readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221110

R150 Certificate of patent or registration of utility model

Ref document number: 7177280

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150