JP7073092B2 - Image processing equipment, image processing methods and programs - Google Patents
Image processing equipment, image processing methods and programs Download PDFInfo
- Publication number
- JP7073092B2 JP7073092B2 JP2017246040A JP2017246040A JP7073092B2 JP 7073092 B2 JP7073092 B2 JP 7073092B2 JP 2017246040 A JP2017246040 A JP 2017246040A JP 2017246040 A JP2017246040 A JP 2017246040A JP 7073092 B2 JP7073092 B2 JP 7073092B2
- Authority
- JP
- Japan
- Prior art keywords
- common area
- image processing
- shooting
- display
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Generation (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、仮想視点に関するパラメータを設定する技術に関する。 The present invention relates to a technique for setting parameters related to a virtual viewpoint.
複数台の実カメラで撮影した映像を用いて、3次元空間内に仮想的に配置した実際には存在しないカメラ(仮想カメラ)からの映像を再現する技術として、仮想視点映像技術がある。仮想視点映像の生成においては、実カメラで撮影された映像間の死角によって仮想カメラからの映像を再現できない領域が存在する。また、仮想カメラが実カメラよりも撮影シーン内の人物等(オブジェクト)に近づいた場合は、オブジェクトの解像度合いが低下するためボケた映像となる。これらを考慮せずに、仮想カメラの経路(時間軸に沿った仮想カメラの位置移動)を設定すると、得られる仮想視点映像は低画質なものになってしまう。そのため、出来上がった仮想視点映像をプレビュー画面等で確認し、仮想カメラの経路設定を幾度となくやり直す(再設定する)ことになる可能性がある。 There is a virtual viewpoint image technology as a technique for reproducing an image from a camera (virtual camera) that does not actually exist and is virtually arranged in a three-dimensional space by using images taken by a plurality of real cameras. In the generation of the virtual viewpoint image, there is a region where the image from the virtual camera cannot be reproduced due to the blind spot between the images taken by the real camera. Further, when the virtual camera is closer to a person or the like (object) in the shooting scene than the actual camera, the resolution of the object is lowered and the image becomes blurred. If the path of the virtual camera (movement of the position of the virtual camera along the time axis) is set without considering these, the obtained virtual viewpoint image will have low image quality. Therefore, there is a possibility that the completed virtual viewpoint image will be confirmed on the preview screen or the like, and the route setting of the virtual camera will be redone (reset) many times.
この点、例えば実カメラで撮影した映像間での死角の情報をユーザに提示するという技術が提案されている(特許文献1)。この特許文献1の技術においては、死角領域や観察者に見せたくない領域を2Dマップ上に可視化することで、実際に仮想視点映像を生成せずとも、事前に死角領域を確認することを可能にしていた。 In this regard, for example, a technique has been proposed in which information on blind spots between images taken by an actual camera is presented to a user (Patent Document 1). In the technique of Patent Document 1, by visualizing a blind spot area or an area that the observer does not want to see on a 2D map, it is possible to confirm the blind spot area in advance without actually generating a virtual viewpoint image. I was doing it.
しかしながら、上記特許文献1の手法では、仮想視点の設定前に仮想視点の位置と仮想視点映像の品質の対応関係を確認することができなかった。そこで本発明では、仮想視点の設定前に仮想視点の位置と仮想視点映像の品質の対応関係を確認することができるようにする。これにより、仮想カメラの経路設定のやり直し作業を抑制することを目的とする。 However, in the method of Patent Document 1, it was not possible to confirm the correspondence between the position of the virtual viewpoint and the quality of the virtual viewpoint image before setting the virtual viewpoint. Therefore, in the present invention, it is possible to confirm the correspondence between the position of the virtual viewpoint and the quality of the virtual viewpoint image before setting the virtual viewpoint. The purpose of this is to suppress the work of re-setting the route of the virtual camera.
本発明に係る画像処理装置は、第1の撮影装置群に含まれる複数の撮影装置が撮影する撮影領域が重複する第1の共通領域と、前記第1の撮影装置群とは異なる第2の撮影装置群に含まれる複数の撮影装置が撮影する撮影領域が重複する第2の共通領域であって前記第1の共通領域に対応する撮影画像よりも撮影画像の解像度が高い第2の共通領域とを特定する特定手段と、前記特定手段により特定される前記第1の共通領域及び前記第2の共通領域に基づく情報を表示手段に表示させる表示制御手段と、前記表示制御手段により表示手段に表示される情報に基づくユーザ入力に基づいて、前記第1の撮影装置群及び前記第2の撮影装置群に含まれる複数の撮影装置により得られる複数の撮影画像に基づいて生成される仮想視点映像に係る仮想視点を表す情報を決定する決定手段と、を有することを特徴とする。 The image processing apparatus according to the present invention has a first common area in which imaging areas captured by a plurality of imaging devices included in the first imaging device group overlap, and a second image processing apparatus different from the first imaging device group. A second common area in which the shooting areas shot by a plurality of shooting devices included in the shooting device group overlap, and the resolution of the shot image is higher than that of the shot image corresponding to the first common area. The specific means for specifying the above, the display control means for causing the display means to display information based on the first common area and the second common area specified by the specific means, and the display means for the display means. A virtual viewpoint image generated based on a plurality of captured images obtained by a plurality of imaging devices included in the first imaging device group and the second imaging device group based on user input based on the displayed information. It is characterized by having a determination means for determining information representing a virtual viewpoint according to the above.
本発明によれば、仮想カメラの経路設定において、出来上がった仮想視点映像におけるオブジェクトの解像度合いをユーザは事前に把握することができる。これにより、仮想カメラの経路設定のやり直し作業が抑制される。 According to the present invention, the user can grasp in advance the resolution of the object in the completed virtual viewpoint image in the route setting of the virtual camera. As a result, the work of re-setting the route of the virtual camera is suppressed.
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the following embodiments do not limit the present invention, and not all combinations of features described in the present embodiment are essential for the means for solving the present invention. The same configuration will be described with the same reference numerals.
図1は、本実施形態における、仮想視点映像システムの構成の一例を示す図である。図1に示す仮想視点映像システムは、画像処理装置100と2種類のカメラ群109及び110とで構成される。そして、画像処理装置100は、CPU101、メインメモリ102、記憶部103、入力部104、表示部105、外部I/F106を備え、各部がバス107を介して接続されている。まず、CPU101は、画像処理装置100を統括的に制御する演算処理装置であり、記憶部103等に格納された各種プログラムを実行して様々な処理を行う。メインメモリ102は、各種処理で用いるデータやパラメータなどを一時的に格納するほか、CPU101に作業領域を提供する。記憶部103は、各種プログラムやGUI(グラフィカル・ユーザ・インターフェイス)表示に必要な各種データを記憶する大容量記憶装置で、例えばハードディスクやシリコンディスク等の不揮発性メモリが用いられる。入力部104は、キーボードやマウス、電子ペン、タッチパネル等の装置であり、様々なユーザ入力を受け付ける。表示部105は、液晶パネルなどで構成され、仮想視点映像生成時の仮想カメラの経路設定のためのGUI表示などを行う。外部I/F部106は、カメラ群109及び110を構成する各カメラとネットワーク(ここではLAN108)を介して接続され、映像データや制御信号データの送受信を行う。バス107は上述の各部を接続し、データ転送を行う。
FIG. 1 is a diagram showing an example of the configuration of a virtual viewpoint video system in the present embodiment. The virtual viewpoint video system shown in FIG. 1 includes an
上記2種類のカメラ群は、それぞれズームカメラ群109と広角カメラ群110である。ズームカメラ群109は、画角の狭いレンズ(例えば10度)を搭載した複数台のカメラで構成されている。広角カメラ群110は、画角の広いレンズ(例えば45度)を搭載した複数台のカメラで構成されている。そして、ズームカメラ群109及び広角カメラ群110を構成している各カメラはLAN108経由で画像処理装置100に接続されている。また、ズームカメラ群109及び広角カメラ群110は画像処理装置100からの制御信号をもとに、撮影の開始と停止、カメラ設定(シャッタースピード、絞りなど)の変更、撮影した映像データの転送を行う。
The above two types of cameras are a
なお、システム構成については、上記以外にも、様々な構成要素が存在するが、本発明の主眼ではないので、その説明は省略する。 Regarding the system configuration, there are various components other than the above, but since it is not the main subject of the present invention, the description thereof will be omitted.
図2(a)は、例えばサッカー等を行う競技場に、ズームカメラ群109と広角カメラ群110の2種類のカメラ群からなる撮像システムにおけるカメラ配置の一例を示した図である。競技を行うフィールド201上にはオブジェクト202としての選手が存在している。そして、ズームカメラ群109を構成する12台のズームカメラ203と広角カメラ群110を構成する12台の広角カメラ204がフィールド201を取り囲むように配置されている。図2(b)において点線で囲まれた領域213は、ズームカメラ203の撮影領域を示している。ズームカメラ203は画角が狭いため撮影領域は狭いが、オブジェクト202を撮影した際の解像度合いは高いという特性を持つ。また、図2(c)において点線で囲まれた領域214は、広角カメラ204の撮影領域を示している。広角カメラ204は画角が広いため撮影領域は広いが、オブジェクト202を撮影した際の解像度合いは低いという特性を持つ。なお、図2(b)では撮影領域の形状を便宜的に楕円で示しているが、後述のとおり各カメラの実際の撮影領域の形状は矩形・台形であるのが一般的である。
FIG. 2A is a diagram showing an example of camera arrangement in an imaging system including two types of camera groups, a
図3は、画像処理装置100において仮想視点映像が生成されるまでの全体の流れを示したフローチャートである。この一連の処理は、CPU101が、所定のプログラムを記憶部103から読み込んでメインメモリ102に展開し、これをCPU101が実行することで実現される。
FIG. 3 is a flowchart showing the entire flow until the virtual viewpoint image is generated in the
ステップ301では、ズームカメラ群109及び広角カメラ群110に対して、撮影時の露光条件等の撮影パラメータと撮影開始の信号が送信される。各カメラ群に属する各カメラは、受信した撮影パラメータに従って撮影を開始し、得られた映像データを各カメラ内のメモリに保持する。
In step 301, shooting parameters such as exposure conditions at the time of shooting and a signal for starting shooting are transmitted to the
ステップ302では、ズームカメラ群109に属する各ズームカメラ203によって撮影された複数視点映像データ及び広角カメラ群110に属する各広角カメラ204によって撮影された複数視点映像データが取得される。取得された複数視点(ここでは各12視点)の映像データは、メインメモリ102に展開される。
In step 302, the multi-viewpoint video data taken by each
ステップ303では、ステップ302で取得した複数視点映像データを用いてオブジェクトの3次元形状の推定処理が実行される。推定手法としては、オブジェクトの輪郭情報を用いるVisual-hull手法や、三角測量を用いたMulti-view stereo手法など公知の手法を適用すればよい。 In step 303, the three-dimensional shape estimation process of the object is executed using the multi-viewpoint video data acquired in step 302. As the estimation method, a known method such as a Visual-hull method using the contour information of the object or a Multi-view stereo method using triangulation may be applied.
ステップ304では、推定したオブジェクト形状データに基づき、自由始点映像の生成に必要な仮想カメラの移動経路といった各種パラメータが設定される。仮想カメラのパラメータ設定に関する処理の詳細に関しては、後に詳述する。 In step 304, various parameters such as the movement path of the virtual camera necessary for generating the free start point image are set based on the estimated object shape data. The details of the processing related to the parameter setting of the virtual camera will be described in detail later.
ステップ305では、設定された仮想カメラパラメータに従って、仮想視点映像が生成される。仮想視点映像は、推定されたオブジェクト形状に対して、設定された仮想カメラから見た映像をコンピュータグラフィックスの技術を用いることで生成することができる。 In step 305, a virtual viewpoint image is generated according to the set virtual camera parameters. The virtual viewpoint image can be generated by using computer graphics technology to generate an image viewed from a set virtual camera with respect to the estimated object shape.
ステップ306では、仮想カメラのパラメータ設定を変更して新たな仮想視点映像を生成するかどうかが判定される。この処理は、不図示のプレビュー画面に表示された仮想視点映像を見て、その画質等を確認したユーザからの指示に基づいてなされる。ユーザが仮想視点映像を生成し直したいと考えた場合は、改めて仮想カメラに関するパラメータ設定を行なう(ステップ304に戻る。)。そして、パラメータを変更すると、変更後の内容で仮想視点映像が改めて生成される。一方、生成された仮想視点映像に問題がなければ本処理を終える。以上が、本実施形態に係る、仮想視点映像が生成されるまでの大まかな流れである。 In step 306, it is determined whether or not to change the parameter settings of the virtual camera to generate a new virtual viewpoint image. This process is performed based on an instruction from the user who has confirmed the image quality and the like by looking at the virtual viewpoint image displayed on the preview screen (not shown). If the user wants to regenerate the virtual viewpoint image, the parameters related to the virtual camera are set again (return to step 304). Then, when the parameter is changed, the virtual viewpoint image is generated again with the changed content. On the other hand, if there is no problem with the generated virtual viewpoint image, this process ends. The above is a rough flow until the virtual viewpoint image is generated according to the present embodiment.
続いて、前述のステップ304における仮想カメラのパラメータ設定処理で使用するGUI画面の準備処理について説明する。図4は、仮想カメラのパラメータ設定に使用するGUI画面が生成される過程を示すフローチャートである。なお図4の処理は、図3で示す各処理に先駆けて実行されていても良いし、ステップ304が実行されるタイミングで実行されても良い。 Subsequently, the preparation process of the GUI screen used in the parameter setting process of the virtual camera in the above-mentioned step 304 will be described. FIG. 4 is a flowchart showing a process of generating a GUI screen used for setting parameters of a virtual camera. The process of FIG. 4 may be executed prior to each process shown in FIG. 3, or may be executed at the timing when step 304 is executed.
ステップ401では、すべてのカメラ群(ここではズームカメラ群と109と広角カメラ群110の2種類)のカメラ情報が取得される。カメラ情報には、各カメラ群に属するカメラの設置場所、注視点位置、画角といった情報が含まれる。本実施形態において注視点位置とは、24台のすべてのカメラの撮影の中心となる位置である。これらの情報は予め記憶部103に保持しておいたものを読み出して取得してもよいし、LAN108を介して各カメラ(或いは各カメラ群を代表する1台のカメラ)にアクセスして取得してもよい。
In
ステップ402では、取得した各カメラ群のカメラ情報に基づいて、略同じ画角を有する複数のカメラの撮影領域が重複する領域(共通撮影領域)が、カメラ群単位で導出される。ここで、「略同じ」と表現しているのはカメラから注視点までの距離の差によってカメラ間で微細な画角の変動が発生するためである。なお、同じカメラ群に属する各カメラの画角は完全に同じでなくてもよい。図5は、カメラ群毎の共通撮影領域の導出方法を説明する図である。いま、フィールド201に対して同じカメラ群に属する2台のカメラ501と502が同じ注視点を向いて撮影を行っている。このとき、カメラ501とカメラ502が属するカメラ群の撮影領域は、カメラ501から注視点に向けた四角錐とフィールド201との交面511と、カメラ502から注視点に向けた四角錐とフィールド201との交面512とが重複する領域513として求められる。ここでは、説明の便宜上、カメラ501と502の2台で説明を行ったが、3台以上でも考え方は同じである。こうして、各カメラ群についての共通撮影領域が導出される。
In step 402, a region (common shooting region) in which the shooting regions of a plurality of cameras having substantially the same angle of view overlap is derived for each camera group based on the acquired camera information of each camera group. Here, the expression "substantially the same" is due to the fact that the difference in the distance from the camera to the gazing point causes minute fluctuations in the angle of view between the cameras. The angles of view of the cameras belonging to the same camera group do not have to be exactly the same. FIG. 5 is a diagram illustrating a method of deriving a common shooting area for each camera group. Now, two
ステップ403では、フィールド201を含む撮影空間全体の俯瞰図(フィールドマップ)上に、導出したカメラ群毎の共通撮影領域のそれぞれが認識可能な態様で可視化して投影される。図6は、フィールドマップ上に、カメラ群毎の共通撮影領域が認識可能に投影された結果の一例を示す図である。図6において、矩形の枠600がフィールドマップを示す。そして、破線の楕円601がズームカメラ群109の共通撮影領域(以下、ズームカメラ群撮影領域)を示している。ズームカメラ群撮影領域601内では、ズームカメラ群109で撮影した複数視点映像を用いた仮想視点映像の生成が可能である。ズームカメラ群撮影領域601内では、オブジェクトの解像度合いが相対的に高いため、仮想カメラをオブジェクトに近づけても(仮想カメラの高さを低くしても)、仮想視点映像の画質を維持することが可能である。本実施形態の場合、ズームカメラ群撮影領域601は、ズームカメラ群109に属する12台全てのズームカメラ203の撮影領域が重複する領域となっている。そして、一点鎖線の楕円602が広角カメラ群110の共通撮影領域(以下、広角カメラ群撮影領域)を示している。広角カメラ群撮影領域602内では、広角カメラ群110で撮影した複数視点映像を用いた仮想視点映像の生成が可能である。広角カメラ群撮影領域602内では、オブジェクトの解像度合いが相対的に低いため、仮想カメラをオブジェクトに一定以上近づける(仮想カメラの高さを一定以下に低くする)と、仮想視点映像の画質が悪化することになる。本実施形態の場合、広角カメラ群撮影領域602は、広角カメラ群110に属する12台全ての広角カメラ204の撮影領域が重複する領域となっている。また、フィールドマップ600内の斜線で示す領域603は、本実施形態において画角の広い広角カメラ群110に属する各広角カメラ204の撮影領域が重複せず、一定の品質の仮想視点映像生成が不可能な領域(以下、仮想視点映像生成不可領域)を示している。図6の例では、ズームカメラ群撮影領域と広角カメラ群撮影領域の外縁がそれぞれ破線と一点鎖線で示され、さらに仮想視点映像生成不可領域が斜線で示されているが、これに限定されない。仮想視点映像を生成可能なカメラ群毎の共通撮影領域がユーザに認識可能なように表示されていればよく、例えば色分けなどによって各領域を示してもよい。なお、図6では、説明の便宜上、各カメラ群の共通撮影領域の形状を楕円で示しているが、実際には多角形となる。このようにして、仮想カメラのパラメータ設定処理で使用するGUI画面の準備が整う。
In step 403, each of the derived common shooting areas for each camera group is visualized and projected in a recognizable manner on a bird's-eye view (field map) of the entire shooting space including the
次に、本実施形態に係る、仮想カメラのパラメータ設定処理について、図7のフローを参照して説明する。図7の処理は、図3のステップ304の処理に対応する。まず、ステップ701では、仮想カメラのパラメータ設定用GUI画面が表示部105に表示される。図8は、GUI画面の一例を示す図である。図8(a)に示すGUI画面800では、前述の準備処理で得られたフィールドマップ600が画面左側に表示されており、その上に前述のステップ303で推定したオブジェクト形状810がマッピングされている。
Next, the parameter setting process of the virtual camera according to the present embodiment will be described with reference to the flow of FIG. 7. The process of FIG. 7 corresponds to the process of step 304 of FIG. First, in step 701, the GUI screen for setting the parameters of the virtual camera is displayed on the
ステップ702では、表示されたGUI画面を介して、仮想カメラの移動経路(カメラパス)や注視点の移動経路(注視点パス)の指定を受け付ける。ユーザは、ボタン801又は803を押下した後、フィールドマップ600上でマウス等を操作してカーソルを移動することで、その移動軌跡をカメラパス又は注視点パスとして指定する。図8(a)において太線の矢印811は指定されたカメラパスを、点線の矢印812は指定された注視点パスを示している。このようにして指定されたカメラパスと注視点パスとは、設定フレームにおいて整合するように対応付けられている。つまり、仮想視点映像が例えば600フレームで構成されている場合、それぞれのパスをフレーム数で分割した各分割点を矢印の開始点から順に対応させておく。ユーザがカメラパス811上の任意の位置(座標)にカーソルを移動し、マウス等のクリック操作を行うと、カーソルに最も近い分割点P0を選択・表示し、P0に対応する注視点位置Q0も表示する。このとき、仮想カメラから見た画角領域813も同時に表示される。ユーザは注視点Q0、オブジェクト810、画角領域813の位置関係を把握することができるため、注視点Q0やオブジェクト810がズームカメラ群撮影領域601、広角カメラ群撮影領域602及び仮想視点映像生成不可領域603のうち、どの領域に収まるか、すなわち、仮想視点映像がどのような解像度になるかを確認しつつ指定作業を行うことができる。そのため、カメラパス等を適切に設定することができ、指定作業のやり直し回数を抑制することができる。なお、P0、Q0をマウス等で移動させることにより、パスの修正を行うことも可能である。また、仮想カメラパスのフィールド201からの高さはデフォルト値(例えば、15m)となり、注視点パスの高さは仮想カメラパスよりも低いデフォルト値(例えば、1m)を設定する。
In step 702, the designation of the movement path (camera path) of the virtual camera and the movement path (gaze point path) of the gazing point is accepted via the displayed GUI screen. After pressing the
ステップ703では、仮想カメラおよび注視点の高さ調整を行うか否かによって処理の切り分けがなされる。ユーザがカメラパス高さ編集ボタン802または、注視点パス高さ編集ボタン804を押下した場合は、ステップ704に進む。
In step 703, the processing is separated depending on whether or not the height of the virtual camera and the gazing point is adjusted. When the user presses the camera path
ステップ704では、仮想カメラおよび注視点の高さを調整する処理(高さ調整処理)が実行される。ここでは、仮想カメラの高さを調整する処理を例に説明を行う。ユーザは、カメラパス811上の任意の位置(座標)にカーソルを移動し、マウス等のクリック操作を行うことによって、高さを変更したい仮想カメラの位置(高さ編集点)を指定する。ここでも、ステップ703と同様にカーソルに最も近い分割点を高さ編集点として選択・表示する。図8(b)において、カメラパス811上に×印で示された箇所が、ユーザによって指定された高さ編集点を示している。この高さ編集点は複数個設定することが可能である。図8(b)の例では、P1とP2の2つの高さ編集点が設定されており、それに合わせて、P1とP2と対応する注視点パス812上の点Q1、Q2を表示する。また、P1とQ1、P2とQ2を結ぶ距離をGUI上に表示する。これは、仮想カメラと注視点との距離によって仮想視点映像内のオブジェクトのサイズが変化するためである。距離が近い程、オブジェクトのサイズが大きくなり、ボケた映像になりやすくなる。図8(b)の場合、P1~Q1間が24mで、P2~Q2間が20mとなっており、P2~Q2の方がよりボケやすい映像となる。高さ編集点が設定されると、GUI画面800内に高さ設定ウィンドウ820が表示され、ユーザは高さ設定ウィンドウ820内の各編集点に対応する入力欄821に任意の値(単位:m)を入力することによって当該位置における仮想カメラの高さを変更することができる。この際もユーザは、ズームカメラ群撮影領域601や広角カメラ群撮影領域602、仮想カメラと注視点との間の距離を確認しながら任意の値を指定できるため、仮想カメラの高さを適切に設定できる。なお、高さ編集点によって高度が変更された箇所以外の高さは、近接する位置の高さ編集点又はデフォルト値から補間して、高さが急激に変化しないように調整される。
In step 704, a process of adjusting the height of the virtual camera and the gazing point (height adjustment process) is executed. Here, the process of adjusting the height of the virtual camera will be described as an example. The user moves the cursor to an arbitrary position (coordinates) on the
以上が、本実施形態に係る仮想カメラのパラメータ設定処理の内容である。なお、本実施形態のGUI画面では、各カメラ群撮影領域を2次元で表示していたが、3次元表示してもよい。 The above is the content of the parameter setting process of the virtual camera according to this embodiment. In the GUI screen of this embodiment, each camera group shooting area is displayed in two dimensions, but it may be displayed in three dimensions.
以上のとおり本実施形態によれば、仮想カメラの移動経路や高さといったパラメータを、ユーザは各カメラ群の撮影領域を把握しながら設定することできる。これにより仮想視点映像生成時におけるパラメータ設定作業のやり直しを抑制することが可能となる。 As described above, according to the present embodiment, the user can set parameters such as the movement path and height of the virtual camera while grasping the shooting area of each camera group. This makes it possible to suppress redoing the parameter setting work when generating a virtual viewpoint image.
実施形態1では、仮想カメラのパラメータ設定用GUI画面上にカメラ群毎の共通撮影領域を可視化してフィールドマップ上に投影することで、カメラパス等を適切に設定できるようにした。次に、仮想カメラの高さ調整においてオブジェクトの解像度合いを直接的にユーザが確認できるようにする態様について、実施形態2として説明する。 In the first embodiment, the common shooting area for each camera group is visualized on the GUI screen for parameter setting of the virtual camera and projected on the field map so that the camera path and the like can be set appropriately. Next, an embodiment in which the user can directly confirm the resolution of the object in adjusting the height of the virtual camera will be described as the second embodiment.
基本的なシステム構成や自視点映像生成処理の大まかな流れは実施形態1と同一であるため説明を省略し、以下では差異点を中心に説明する。 Since the basic system configuration and the general flow of the self-viewpoint video generation process are the same as those in the first embodiment, the description thereof will be omitted, and the differences will be mainly described below.
図9は、本実施形態に係る、仮想カメラの高さ調整処理(前述のステップ704)の詳細を示したフローチャートである。 FIG. 9 is a flowchart showing the details of the height adjustment process of the virtual camera (step 704 described above) according to the present embodiment.
ステップ901では、高さ編集点の指定を受け付ける。ここでも前述の図8(b)に示すようにP1とP2の2点が指定されたものとする。続くステップ902では、指定された高さ編集点における高さの下限値を取得する。高さの下限値とは、オブジェクトの解像度合いとして許容し得る最低限のレベルに対応する仮想カメラの高さを示し、仮想カメラと注視点との間の距離と、仮想カメラの画角、注視点の位置するカメラ群撮影領域の組合せで予め決定しておく。つまり、注視点が高解像度のカメラ群撮影領域に位置する場合、仮想カメラと注視点との間の距離を短くできるため、高さの下限値は低くなる。一方、注視点が低解像度のカメラ群撮影領域に位置する場合、高さの下限値は高くなる。また、画角が広い場合は高さ下限値が低くなり、画角が狭い場合は高さ下限値が高くなる。解像度合いが許容できるか否かは、例えば実カメラにおけるオブジェクトの解像度合いを下回るかどうかといった基準に依って判断される。高さ下限値の取得にあたっては、まず、指定された高さ編集点の注視点座標を取得し、当該座標に対応する各カメラ群撮影領域の分類情報、仮想カメラと注視点との間の距離及び仮想カメラの画角の情報を取得する。分類情報とは、座標位置毎に付与された、ズームカメラ群撮影領域601や広角カメラ群撮影領域602であることを示すフラグなどの情報を意味する。そして、取得したこれらの情報に基づき、指定された高さ編集点における仮想カメラの高さ下限値を取得する。
In step 901, the designation of the height edit point is accepted. Here, too, it is assumed that two points, P1 and P2, are designated as shown in FIG. 8B described above. In the following step 902, the lower limit of the height at the specified height edit point is acquired. The lower limit of height indicates the height of the virtual camera corresponding to the minimum acceptable level for the resolution of the object, the distance between the virtual camera and the gazing point, the angle of view of the virtual camera, and the note. It is determined in advance by the combination of the camera group shooting areas where the viewpoint is located. That is, when the gazing point is located in the high-resolution camera group shooting area, the distance between the virtual camera and the gazing point can be shortened, so that the lower limit of the height is low. On the other hand, when the gazing point is located in the low-resolution camera group shooting area, the lower limit of the height becomes high. Further, when the angle of view is wide, the lower limit of height is low, and when the angle of view is narrow, the lower limit of height is high. Whether or not the resolution is acceptable is determined based on criteria such as whether or not the resolution is lower than that of the object in the actual camera. To obtain the lower limit of height, first, the gazing point coordinates of the specified height editing point are acquired, the classification information of each camera group shooting area corresponding to the coordinates, and the distance between the virtual camera and the gazing point. And the information of the angle of view of the virtual camera is acquired. The classification information means information such as a flag indicating that the zoom camera
ステップ903では、取得した高さ下限値に対応する仮想視点映像のサンプル画像を表示する。サンプル画像は、実カメラの映像からオブジェクトを切り出したものである。切り出し手法を、図11(a)及び(b)を用いて説明する。図11(a)は、ある実カメラで撮影した画像1101を示す。画像1101には、5人の選手に相当するオブジェクトA~Eが写っている。この画像1101に対して、オブジェクトA~Eのそれぞれの顔や背番号を既存の認識技術を用いて識別することで、オブジェクト毎にその領域を切り出したサンプル画像が得られる。得られたサンプル画像のデータは、その画素数(幅と高さ)の情報と共に記憶部103に保持する。図11(b)は、別の実カメラで撮影した画像1102を示す。この画像1102に対しても同様の処理を施してサンプル画像を取得する。そして、新たに作成したサンプル画像の画素数が、その前に作成したサンプル画像の画素数を上回るならば、新たに作成したサンプル画像で上書き(更新)するという処理を、オブジェクト単位で繰り返す。この処理を全ての実カメラで実行することにより、最も解像度の高いサンプル画像をオブジェクト毎に用意できる。サンプル画像を表示する際には、仮想カメラとオブジェクトとの距離、仮想カメラの画角に応じて、サンプル画像を縮小する。この縮小の方法を、図11(c)を用いて説明する。まず、注視点に最も近いオブジェクトを検出し、そのオブジェクトのサンプル画像のデータを記憶部103からメインメモリ102に読み込む。次に、仮想カメラとオブジェクトとの間の距離、仮想カメラの画角から、仮想視点映像におけるオブジェクト領域の画素数を算出する。具体的には、検出されたオブジェクトの位置に、選手の標準的な身長サイズの三次元モデル1122を配置し、仮想カメラ1121から見た場合のプレビュー画像1123を描画することで算出できる。そして、プレビュー画像1123におけるオブジェクト領域とサンプル画像の画素数(幅と高さ)とが一致・または近似値になるように、サンプル画像を縮小する。縮小後は、GUI画面800に表示するため、適切なサイズに単純補間で拡大する。サンプル画像は、例えば図10(a)に示すサブウインドウのような形式でGUI画面800上に表示する。これによりユーザは、高さを下限値まで下げた場合のオブジェクトの解像度合いを実際の画像で確認できる。このとき、図10(a)に示すように、対応する高さ下限値をサンプル画像と併せて表示すようにしてもよい。
In step 903, a sample image of the virtual viewpoint image corresponding to the acquired lower limit of height is displayed. The sample image is an object cut out from the image of the actual camera. The cutting method will be described with reference to FIGS. 11 (a) and 11 (b). FIG. 11A shows an
ステップ904では、指定された高さ編集点について、高さ設定ウィンドウ820を介して入力された高さの変更を受け付ける。続くステップ905では、変更後の高さが、高さ下限値を下回っているかどうかを判定する。変更後の高さが下限値を下回っている場合は、ステップ906に進む。一方、変更後の高さが下限値以上の場合は、本処理を抜ける。
In step 904, the height change input via the
ステップ906では、サンプル画像を変更後の高さに応じた内容、すなわち、許容の限界を超えた低解像度のサンプル画像に更新する。図10(b)は、更新後のサンプル画像の一例を示しており、高さ調整点P2に対応するサンプル画像がボケているのが分かる。この更新後のサンプル画像は、上述のステップ903と同様、設定後の仮想カメラと注視点との間の距離ならびに仮想カメラの画角に応じて、オブジェクト固有のサンプル画像を縮小・拡大表示したものである。この際、高さ下限値を下回ったことを示す、例えば「下限値を下回っています。」といったメッセージの表示(警告表示)を行ってもよい。続くステップ907では、高さの再変更の有無に応じて処理を切り替える。新たな高さの指定があった場合はステップ904に戻る。新たな高さの指定がなかった場合は本処理を抜ける。 In step 906, the sample image is updated with the content according to the height after the change, that is, the sample image having a low resolution exceeding the allowable limit. FIG. 10B shows an example of the updated sample image, and it can be seen that the sample image corresponding to the height adjustment point P2 is out of focus. The sample image after this update is a reduced / enlarged display of the sample image peculiar to the object according to the distance between the virtual camera and the gazing point after setting and the angle of view of the virtual camera, as in step 903 described above. Is. At this time, a message indicating that the height has fallen below the lower limit, for example, "It has fallen below the lower limit" may be displayed (warning display). In the following step 907, the process is switched depending on whether or not the height is changed again. If a new height is specified, the process returns to step 904. If no new height is specified, this process is exited.
なお、本実施形態では、実際の試合を撮影した実カメラの映像をサンプル画像として用いたが、例えば、練習中の映像やスタジオで撮影したポートレートなどを用いても良いし、コンピュータグラフィックスを用いて、人物をレンダリングした画像を用いてもよい。また、解像度を確認できれば良いので、実際のオブジェクトとは別のオブジェクトを用いた画像をサンプル画像としても構わない。 In this embodiment, the image of the actual camera that shot the actual game is used as a sample image, but for example, the image during practice or the portrait taken in the studio may be used, or computer graphics may be used. You may use the image which rendered the person. Further, as long as the resolution can be confirmed, an image using an object different from the actual object may be used as a sample image.
以上が、本実施形態に係る仮想カメラの高さ調整処理の内容である。本実施形態の場合、仮想カメラの高さを編集する際に、指定した高さ編集点における高さの下限値に対応するサンプル画像が可視化されて表示されるため、ユーザはより適切な高さを判断し易くなる。 The above is the content of the height adjustment process of the virtual camera according to the present embodiment. In the case of the present embodiment, when editing the height of the virtual camera, the sample image corresponding to the lower limit of the height at the specified height editing point is visualized and displayed, so that the user can use the more appropriate height. It becomes easier to judge.
実施形態1では、仮想カメラのパラメータ設定用GUI画面上にカメラ群毎の共通撮影領域を可視化してフィールドマップ上に投影することで、カメラパス等を適切に設定できるようにした。次に、オブジェクトの解像度合いが急激に変動する領域をユーザが確認できるようにする態様について、実施形態3として説明する。 In the first embodiment, the common shooting area for each camera group is visualized on the GUI screen for parameter setting of the virtual camera and projected on the field map so that the camera path and the like can be set appropriately. Next, an embodiment in which the user can confirm the region where the resolution of the object fluctuates abruptly will be described as the third embodiment.
基本的なシステム構成や仮想視点映像生成処理の大まかな流れは実施形態1と同一であるため説明を省略し、以下では差異点を中心に説明する。 Since the basic system configuration and the general flow of the virtual viewpoint image generation process are the same as those in the first embodiment, the description thereof will be omitted, and the differences will be mainly described below.
図12は、本実施形態に係る、注視点パスの設定処理(前述のステップ702に相当)の詳細を示したフローチャートである。 FIG. 12 is a flowchart showing the details of the gazing point path setting process (corresponding to step 702 described above) according to the present embodiment.
ステップ1201では、注視点の指定を受け付けた後に、注視点パスを探索する。これは注視点の座標値がどのカメラ群の撮影領域を移動するかを調査する処理である。次に、ステップ1202では、探索によって判明した注視点パスが、複数のカメラ群の撮影領域を交差するかどうかを判定する。図13は、この交差判定を説明する図である。図13の例では、広角カメラ群撮影領域602から開始した注視点パス812が、ズームカメラ群撮影領域601を通過し、再び広角カメラ群撮影領域602に戻っている。よって、この場合は交差していると判定されることになる。このように交差しているとの判定結果の場合はステップ1203に進む。一方、交差していないとの判定結果の場合は、本処理を終了する。ステップ1203では、図13に示すように、解像度の段差マーク1301を、撮影領域と注視点パスとが交差する座標位置に表示する。これは、指定された注視点が、複数のカメラ群の撮影領域を跨ぐように移動することで、カメラの焦点距離が変化する段差マーク1301近辺で解像感が急激に変動する可能性があり、それをユーザに警告するためである。このような場合、段差マーク1301近辺では、仮想カメラを注視点から遠ざける等の処置をユーザは取る必要がある。
In step 1201, after accepting the designation of the gazing point, the gazing point path is searched. This is a process of investigating which camera group the coordinate value of the gazing point moves in. Next, in step 1202, it is determined whether or not the gazing point path found by the search intersects the shooting areas of the plurality of camera groups. FIG. 13 is a diagram illustrating this intersection determination. In the example of FIG. 13, the
以上が、本実施形態に係る解像感変動の警告処理の内容である。本実施形態の場合、仮想カメラや注視点パスを編集する際に、仮想視点映像の解像感の変動が可視化されるため、ユーザはより適切な仮想カメラや注視点のパス設定を判断し易くなる。 The above is the content of the warning process of the change in resolution according to the present embodiment. In the case of this embodiment, since the fluctuation of the resolution of the virtual viewpoint image is visualized when editing the virtual camera or the gazing point path, it is easy for the user to determine a more appropriate virtual camera or gazing point path setting. Become.
なお、上記の実施形態1~3においては、画像処理装置100が仮想カメラ(仮想視点)の設定用GUIの生成、当該GUIの表示、当該GUIに対するユーザ操作の受け付け、及び、仮想視点映像の生成のすべてを行う例を説明した。しかし、この例に限らない。例えば、GUIの生成・表示とユーザ操作の受け付けを行う装置と、当該ユーザ操作に基づいて仮想視点映像を生成する装置が別々の装置であっても良い。また、GUIの生成を行う(典型的には1台の)装置と、GUIの表示及びユーザ操作を受け付ける複数の装置と、仮想視点映像を生成する1又は複数の装置とを有する仮想視点映像システムに本発明を適用することも可能である。
In the above embodiments 1 to 3, the
また、上述の実施形態1~3では、ズームカメラ群109に属するすべてのカメラの撮影領域が重複する共通撮影領域と、広角カメラ群110に属するすべてのカメラの撮影領域が重複する共通撮影領域とを識別可能に表示させる例を中心に説明した。しかしこの例に限らない。例えば、ズームカメラ群109に属する12台のカメラのうち、10台以上のカメラの撮影領域が重複している領域を共通撮影領域としても良い。
Further, in the above-described embodiments 1 to 3, the common shooting area in which the shooting areas of all the cameras belonging to the
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
Claims (17)
前記特定手段により特定される前記第1の共通領域及び前記第2の共通領域に基づく情報を表示手段に表示させる表示制御手段と、
前記表示制御手段により表示手段に表示される情報に基づくユーザ入力に基づいて、前記第1の撮影装置群及び前記第2の撮影装置群に含まれる複数の撮影装置により得られる複数の撮影画像に基づいて生成される仮想視点映像に係る仮想視点を表す情報を決定する決定手段と、
を有することを特徴とする画像処理装置。 A first common area where the shooting areas shot by the plurality of shooting devices included in the first shooting device group overlap, and a plurality of shootings included in the second shooting device group different from the first shooting device group. A specific means for identifying a second common area in which the shooting areas captured by the apparatus overlap and the resolution of the captured image is higher than that of the captured image corresponding to the first common area .
A display control means for causing the display means to display information based on the first common area and the second common area specified by the specific means.
Based on the user input based on the information displayed on the display means by the display control means, the plurality of captured images obtained by the plurality of imaging devices included in the first imaging device group and the second imaging device group can be obtained. A determination means for determining information representing a virtual viewpoint related to a virtual viewpoint image generated based on the
An image processing device characterized by having.
前記特定手段は、前記記憶手段から取得される前記撮影情報に基づいて、前記第1の共通領域及び第2の共通領域を特定する、
ことを特徴とする請求項5に記載の画像処理装置。 It has a storage means for storing the shooting information, and has a storage means.
The specifying means identifies the first common area and the second common area based on the photographing information acquired from the storage means.
The image processing apparatus according to claim 5.
前記特定手段は、前記ネットワークを介して前記複数の撮影装置から取得される前記撮影情報に基づいて、前記第1の共通領域及び第2の共通領域を特定する、
ことを特徴とする請求項5に記載の画像処理装置。 The plurality of photographing devices included in the first photographing apparatus group and the second photographing apparatus group are connected via a network.
The specifying means identifies the first common area and the second common area based on the shooting information acquired from the plurality of shooting devices via the network.
The image processing apparatus according to claim 5.
前記特定工程において特定される前記第1の共通領域及び前記第2の共通領域に基づく情報を表示する表示工程と、
前記表示工程において表示される情報に基づくユーザ入力に基づいて、前記第1の撮影装置群及び前記第2の撮影装置群に含まれる複数の撮影装置により得られる複数の撮影画像に基づいて生成される仮想視点映像に係る仮想視点を表す情報を決定する決定工程と、
を有することを特徴とする画像処理方法。 A first common area in which shooting areas taken by a plurality of shooting devices included in the first shooting device group overlap, and a plurality of shootings included in a second shooting device group different from the first shooting device group. A specific step of specifying a second common area in which the shooting areas taken by the apparatus overlap and the resolution of the shot image is higher than that of the shot image corresponding to the first common area .
A display step for displaying information based on the first common area and the second common area specified in the specific step, and a display step.
Based on user input based on the information displayed in the display step, it is generated based on a plurality of captured images obtained by the plurality of imaging devices included in the first imaging device group and the second imaging device group. The decision process to determine the information representing the virtual viewpoint related to the virtual viewpoint image and
An image processing method characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/860,768 US10970915B2 (en) | 2017-01-06 | 2018-01-03 | Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017001042 | 2017-01-06 | ||
JP2017001042 | 2017-01-06 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018113683A JP2018113683A (en) | 2018-07-19 |
JP2018113683A5 JP2018113683A5 (en) | 2021-02-12 |
JP7073092B2 true JP7073092B2 (en) | 2022-05-23 |
Family
ID=62912594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017246040A Active JP7073092B2 (en) | 2017-01-06 | 2017-12-22 | Image processing equipment, image processing methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7073092B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10818077B2 (en) | 2018-12-14 | 2020-10-27 | Canon Kabushiki Kaisha | Method, system and apparatus for controlling a virtual camera |
JP7458731B2 (en) | 2019-09-30 | 2024-04-01 | キヤノン株式会社 | Image generation system, image processing device, information processing device, image generation method, and program |
CN110910482B (en) * | 2019-11-29 | 2023-10-31 | 四川航天神坤科技有限公司 | Method, system and readable storage medium for video data organization and scheduling |
WO2021152955A1 (en) * | 2020-01-30 | 2021-08-05 | 富士フイルム株式会社 | Information processing device, information processing method, and program |
US11431952B2 (en) * | 2020-05-11 | 2022-08-30 | Sony Interactive Entertainment Inc. | User selection of virtual camera location to produce video using synthesized input from multiple cameras |
CN113364975B (en) | 2021-05-10 | 2022-05-20 | 荣耀终端有限公司 | Image fusion method and electronic equipment |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005348307A (en) | 2004-06-07 | 2005-12-15 | Olympus Corp | Image generating method and image generating device |
JP2012109719A (en) | 2010-11-16 | 2012-06-07 | Canon Inc | Video processing device and control method therefor |
JP2015076062A (en) | 2013-10-11 | 2015-04-20 | 富士通テン株式会社 | Image display device, image display system, image display method, and program |
JP2016066322A (en) | 2014-09-26 | 2016-04-28 | 富士通テン株式会社 | Image processor and image display system |
WO2016208562A1 (en) | 2015-06-26 | 2016-12-29 | 京セラ株式会社 | Electronic device, electronic device actuating method, and control program |
-
2017
- 2017-12-22 JP JP2017246040A patent/JP7073092B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005348307A (en) | 2004-06-07 | 2005-12-15 | Olympus Corp | Image generating method and image generating device |
JP2012109719A (en) | 2010-11-16 | 2012-06-07 | Canon Inc | Video processing device and control method therefor |
JP2015076062A (en) | 2013-10-11 | 2015-04-20 | 富士通テン株式会社 | Image display device, image display system, image display method, and program |
JP2016066322A (en) | 2014-09-26 | 2016-04-28 | 富士通テン株式会社 | Image processor and image display system |
WO2016208562A1 (en) | 2015-06-26 | 2016-12-29 | 京セラ株式会社 | Electronic device, electronic device actuating method, and control program |
Also Published As
Publication number | Publication date |
---|---|
JP2018113683A (en) | 2018-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10970915B2 (en) | Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium | |
JP7073092B2 (en) | Image processing equipment, image processing methods and programs | |
JP7051457B2 (en) | Image processing equipment, image processing methods, and programs | |
CN108510595B (en) | Image processing apparatus, image processing method, and storage medium | |
JP6849430B2 (en) | Image processing equipment, image processing methods, and programs | |
US10762653B2 (en) | Generation apparatus of virtual viewpoint image, generation method, and storage medium | |
JP6742869B2 (en) | Image processing apparatus and image processing method | |
KR102342668B1 (en) | Image processing apparatus, image processing method and storage medium | |
JP2005050035A (en) | Image photographing device and image processing method | |
JP2011239361A (en) | System and method for ar navigation and difference extraction for repeated photographing, and program thereof | |
JP7027049B2 (en) | Image processing equipment, image processing methods and programs | |
EP3567550A1 (en) | Image processing apparatus, control method of image processing apparatus, and computer-readable storage medium | |
JP2019083402A (en) | Image processing apparatus, image processing system, image processing method, and program | |
JP2020024619A (en) | Information processing apparatus, information processing method, and program | |
CN108629799B (en) | Method and equipment for realizing augmented reality | |
KR20110088995A (en) | Method and system to visualize surveillance camera videos within 3d models, and program recording medium | |
JP7013144B2 (en) | Image processing equipment, image processing methods and programs | |
US20240346745A1 (en) | Image processing apparatus, method for controlling the same, and non-transitory computer-readable storage medium | |
JP6348318B2 (en) | Image processing apparatus, method, and program | |
JP2019144958A (en) | Image processing device, image processing method, and program | |
JP4262013B2 (en) | Image processing method and image generation apparatus | |
CN116012508B (en) | Lane line rendering method, device and storage medium | |
US12095964B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2022038176A (en) | Control device, control method, and program | |
JP2009258862A (en) | Video display device and image display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201222 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220511 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7073092 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |