JP7536531B2 - Image processing device, image processing method, image processing system, and program. - Google Patents
Image processing device, image processing method, image processing system, and program. Download PDFInfo
- Publication number
- JP7536531B2 JP7536531B2 JP2020114814A JP2020114814A JP7536531B2 JP 7536531 B2 JP7536531 B2 JP 7536531B2 JP 2020114814 A JP2020114814 A JP 2020114814A JP 2020114814 A JP2020114814 A JP 2020114814A JP 7536531 B2 JP7536531 B2 JP 7536531B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- coloring
- image processing
- captured
- virtual viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 30
- 238000003672 processing method Methods 0.000 title claims description 18
- 238000000034 method Methods 0.000 claims description 42
- 238000004040 coloring Methods 0.000 claims description 35
- 238000003384 imaging method Methods 0.000 claims description 34
- 238000009877 rendering Methods 0.000 claims description 32
- 238000010586 diagram Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 7
- 238000013507 mapping Methods 0.000 description 4
- 230000000903 blocking effect Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001681 protective effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 102100035893 CD151 antigen Human genes 0.000 description 1
- 101000946874 Homo sapiens CD151 antigen Proteins 0.000 description 1
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Image Generation (AREA)
Description
本発明は、仮想視点画像を生成する際のオブジェクトの三次元モデルへの色付けに関する。 The present invention relates to coloring three-dimensional models of objects when generating virtual viewpoint images.
昨今、複数の実在するカメラ(実カメラ)をそれぞれ異なる位置に設置して多視点で同期撮像し、当該撮像により得られた複数視点画像を用いて、実在しない仮想的なカメラ(仮想カメラ)からの見えを表す仮想視点画像を生成する技術が注目されている。この仮想視点画像によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の映像と比較してユーザに高臨場感を与えられる。 Recently, a technology that has attracted attention involves installing multiple real cameras (real cameras) in different positions, capturing images synchronously from multiple viewpoints, and using the multiple viewpoint images obtained by the capture to generate a virtual viewpoint image that represents the view from a non-existent virtual camera (virtual camera). With this virtual viewpoint image, for example, it is possible to view highlight scenes of a soccer or basketball game from various angles, providing the user with a higher sense of realism than with normal video.
仮想視点画像の生成においては、まず、複数の実カメラで撮像された映像をサーバなどに集約し、該映像内のオブジェクト(被写体)の三次元モデルを生成する。そして、この三次元モデルに対して、指定された仮想視点に基づき色付け(テクスチャの貼り付け)を行い、さらに射影変換などの二次元変換を行って、二次元の仮想視点画像が得られる。上記生成プロセスのうち三次元モデルへの色付けには、視点依存テクスチャマッピングの手法がよく用いられる(非特許文献1)。視点依存テクスチャマッピングでは、オブジェクト上の着目する点の色を決定する際、複数の実カメラそれぞれの撮像画像上の対応点における色を重み付きでブレンドする。こうすることで、各視点に対応する撮像画像間の色の差異、三次元モデル形状、カメラパラメータの誤差などに起因する色変化の不連続性を抑制し、より自然なテクスチャ表現を実現している。 In generating a virtual viewpoint image, first, images captured by multiple real cameras are collected on a server or the like, and a three-dimensional model of the object (subject) in the image is generated. This three-dimensional model is then colored (texture is applied) based on the specified virtual viewpoint, and two-dimensional transformation such as projective transformation is further performed to obtain a two-dimensional virtual viewpoint image. In the above generation process, a viewpoint-dependent texture mapping technique is often used to color the three-dimensional model (Non-Patent Document 1). In viewpoint-dependent texture mapping, when determining the color of a point of interest on an object, the colors of corresponding points on the images captured by multiple real cameras are blended with weighting. In this way, discontinuity in color changes caused by color differences between captured images corresponding to each viewpoint, errors in the three-dimensional model shape, camera parameters, etc. are suppressed, and a more natural texture expression is achieved.
上記視点依存テクスチャマッピングにおいては、仮想カメラに近い位置に存在する実カメラの撮像画像が用いられる。そのため、仮想カメラとオブジェクトとの間に構造物があると、当該構造物の色がオブジェクトの色付けに使用され、不自然な見た目となることがあった。例えば、サッカーの試合において、仮想カメラに近い位置の実カメラがゴールネット越しに選手を捉えている場合、その3次元モデルにはゴールネットを含むテクスチャが貼り付けられてしまう。このような色付けが施された仮想視点画像は、実際の見た目と異なるだけでなく、選手の動きやディテイルが分かりにくいという問題がある。また、ゴールの内側から選手を見るような位置に仮想カメラが設定された場合には、当該仮想カメラからは見えないはずのゴールネットのテクスチャが選手の三次元モデルに貼り付けられることになり不自然な仮想視点画像となってしまう。 In the viewpoint-dependent texture mapping, an image captured by a real camera located close to the virtual camera is used. Therefore, if there is a structure between the virtual camera and the object, the color of the structure is used to color the object, which can result in an unnatural appearance. For example, in a soccer game, if a real camera located close to the virtual camera captures a player through the goal net, a texture including the goal net is pasted onto the 3D model. A virtual viewpoint image with such coloring not only differs from the actual appearance, but also has the problem that the player's movements and details are difficult to understand. In addition, if a virtual camera is set in a position to view a player from inside the goal, the texture of the goal net, which should not be visible from the virtual camera, is pasted onto the 3D model of the player, resulting in an unnatural virtual viewpoint image.
本開示の技術は、上記課題に鑑みてなされたものであり、その目的は、オブジェクトを遮るような構造物が存在する場合でも、仮想視点画像において当該オブジェクトの色を適切に再現することである。 The technology disclosed herein has been developed in consideration of the above problems, and its purpose is to properly reproduce the color of an object in a virtual viewpoint image even when a structure that blocks the object is present.
本開示に係る画像処理装置は、オブジェクトの三次元形状を表す形状データを用いてレンダリング処理を行って仮想視点に応じた仮想視点画像を生成する画像処理装置であって、前記レンダリング処理における前記オブジェクトの色付けのための処理方法を決定する決定手段と、決定された処理方法に従って、前記オブジェクトの色付けをするレンダリング手段と、を備え、前記形状データは、撮像対象領域の周囲に配置された複数の第1の撮像装置で撮像を行って得られた複数の第1の撮像画像に基づき生成され、前記撮像対象領域には、構造物が存在し、前記決定手段は、前記色付けのための色情報を、前記複数の第1の撮像画像に含まれる撮像画像から取得するか、前記オブジェクトを前記構造物によって遮られることなく撮像できる位置に配置された第2の撮像装置で撮像を行って得られた第2の撮像画像から取得するかを、前記仮想視点、前記構造物及び前記オブジェクトの位置関係に基づいて決定する、ことを特徴とする。 The image processing device according to the present disclosure is an image processing device that performs a rendering process using shape data representing a three-dimensional shape of an object to generate a virtual viewpoint image corresponding to a virtual viewpoint, and is equipped with a determination means for determining a processing method for coloring the object in the rendering process, and a rendering means for coloring the object according to the determined processing method, the shape data being generated based on a plurality of first captured images obtained by capturing images using a plurality of first imaging devices arranged around an imaging target area, a structure being present in the imaging target area, and the determination means determining whether color information for the coloring is to be obtained from captured images included in the plurality of first captured images, or from a second captured image obtained by capturing images using a second imaging device arranged in a position where the object can be captured without being obstructed by the structure, based on the positional relationship between the virtual viewpoint, the structure, and the object.
本開示の技術によれば、オブジェクトを遮るような構造物が存在する場合でも、仮想視点画像において当該オブジェクトの色を適切に再現することができる。 The technology disclosed herein makes it possible to properly reproduce the color of an object in a virtual viewpoint image, even when a structure that blocks the object is present.
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 The following describes an embodiment of the present invention with reference to the drawings. Note that the following embodiment does not limit the present invention, and not all of the combinations of features described in the present embodiment are necessarily essential to the solution of the present invention. Note that the same components are described with the same reference numerals.
[実施形態1]
(基本的なシステム構成)
図1は、本実施形態に係る画像処理システムの構成の一例を示すブロック図である。画像処理システム100は、撮像モジュール110a~110j及び120、スイッチングハブ115、サーバ116、データベース(DB)117、制御装置118、及び表示装置119を有する。撮像モジュール110a~110jのそれぞれには、カメラ111a~111jとカメラアダプタ112a~112jが、それぞれ内部配線によって接続されて存在する(a~jは、a,b,c,d,e,f,g,h,I,jの10個である。)。同様に、撮像モジュール120内には、カメラ121とカメラアダプタ122が内部配線によって接続されて存在する。各撮像モジュール110a~110j及び120は、ネットワークケーブルによって伝送を行う。スイッチングハブ(以下、「HUB」と表記)115は、各ネットワーク装置間のルーティングを行う装置である。撮像モジュール110a~110j及び120それぞれは、ネットワークケーブル113a~113kでHUB115に接続されている。同様に、サーバ116と制御装置118もネットワークケーブル113lと113nでそれぞれHUB115に接続されている。また、サーバ116とDb117との間がネットワークケーブル113mで接続されている。そして、制御装置118と表示装置119との間は、映像用ケーブル114で接続されている。カメラ111a~111j及び121は、同期信号に基づいて互いに高精度に同期して撮像を行う。本実施形態において、各撮像モジュール110a~110jは、図2(a)に示すように、撮像対象領域であるサッカーのフィールドを囲むように設置される。図2(a)は、フィールドを真上から見た状態の図であり、各撮像モジュール110a~110jは、地上からある一定の同じ高さに設置されているものとする。一方、撮像モジュール120は、図2(b)に示すように、その位置が固定された構造物であるサッカーゴールの内側からフィールドの中央(すなわち、選手等のオブジェクトが存在する方向)に向けて設置される。なお、図2(b)は図2(a)における一点鎖線で囲まれた部分の拡大図である。以下の説明においては、フィールドの周囲に設置された撮像モジュール110a~110jを「外カメラ」と呼び、サッカーゴールの内側に設置された撮像モジュール120を「内カメラ」と呼ぶこととする。なお、本実施形態では外カメラ110の台数を10台、内カメラ120の台数を1台としているが、あくまでも一例でありこれに限定されない。
[Embodiment 1]
(Basic system configuration)
FIG. 1 is a block diagram showing an example of the configuration of an image processing system according to this embodiment. The
サーバ116は、外カメラ110から送信されてきた撮像画像の加工、オブジェクトの三次元モデルの生成、生成された三次元モデルへの色付け(或いは「テクスチャの貼り付け」、「テクスチャマッピング」とも呼ばれる)などを行う。本実施形態において三次元モデルの生成対象となるオブジェクトは、選手やボールといった動体オブジェクトである。ここで、「三次元モデル」とは、オブジェクトの三次元形状を表す形状データを意味している。サーバ116は、本システムの時刻同期を行うための時刻同期信号を生成するタイムサーバ機能も有している。データベース(以下、「DB」と表記)117は、サーバ116で加工した画像データや生成された三次元モデル等のデータを蓄積したり、蓄積されているデータをサーバ116に提供したりする。制御装置118は、外カメラ110、内カメラ120、サーバ116を制御する情報処理装置である。また、制御装置118は、仮想カメラ(仮想視点)の設定にも利用される。表示装置119は、制御装置118においてユーザが仮想視点を指定するための設定用ユーザインタフェース画面(UI画面)の表示や、生成された仮想視点画像の閲覧用UI画面の表示などを行う。
The
(画像処理システムの動作)
次に、画像処理システム100における大まかな動作を説明する。外カメラ110aにて得られた撮像画像は前景背景分離等の所定の画像処理が施された後、外カメラ110bに伝送される。同様に外カメラ110bは、外カメラ110bにて得た撮像画像を、外カメラ110aから受け取った撮像画像と合わせて外カメラ110cに伝送する。このような動作を続けることにより、10セット分の撮像画像(前景画像を含む)が、外カメラ110jからHUB115に伝わり、その後、サーバ116へ伝送される。また、内カメラ120にて得られた撮像画像は前景背景分離等の所定の画像処理が施された後、HUB115を介してサーバ116へ伝送される。
(Operation of Image Processing System)
Next, the general operation of the
サーバ116は、外カメラ110j及び内カメラ120から取得した視点の異なる撮像画像データ(以下、「複数視点画像データ」と呼ぶ。)に基づき、オブジェクトの三次元モデルの生成やレンダリング処理を行う。また、サーバ116は、時刻及び同期信号を各外カメラ110a~110j及び内カメラ120に対して送信する。時刻と同期信号を受信した各外カメラ110a~110j及び内カメラ120は、受信した時刻及び同期信号を用いて撮像を行い、撮像画像のフレーム同期を行う。即ち、各外カメラ110及び内カメラ120では同じ時刻に同期してフレーム単位で撮像が行われる。
The
(サーバのハードウェア構成)
続いて、仮想視点画像の生成を担うサーバ116のハードウェア構成について、図3を用いて説明する。なお、DB117、制御装置118、カメラアダプタ112及び122といった各装置も、基本的には同様のハードウェア構成を有している。サーバ116は、CPU201、ROM202、RAM203、補助記憶装置204、通信I/F205及びバス206を有する。
(Server hardware configuration)
Next, the hardware configuration of the
CPU201は、ROM202やRAM203に格納されているプログラムやデータを用いてサーバ116の全体を制御し、後述の図4に示す各機能部を実現する。なお、サーバ116がCPU201とは異なる1又は複数の専用のハードウェアを有し、CPU201による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM202は、変更を必要としないプログラムなどを格納する。RAM203は、補助記憶装置204から提供されるプログラムやデータ、及び通信I/F205を介して外部から提供されるデータなどを一時記憶する。補助記憶装置204は、例えばHDDやSSD等で構成され、画像データや音声データといった入力データの他、後述の各種処理で参照されるテーブル、各種アプリケーションプログラムなど、様々なデータやプログラムを記憶する。通信I/F205は、外部装置との通信に用いられる。例えば、サーバ116が外部装置と有線で接続される場合には、通信用のケーブルが通信I/F205に接続される。サーバ116が外部装置と無線通信する機能を有する場合には、通信I/F205はアンテナを備える。バス206は、上記各部を繋いでデータや信号を伝達する。なお、本実施形態では、制御装置118にて設定された仮想カメラ(仮想視点)の位置・姿勢を示す情報(仮想視点情報)に基づく仮想視点画像がサーバ116にて生成され、それをユーザは表示装置119にて視聴するシステム構成としている。しかし、システム構成はこれに限定されるものではなく、例えば仮想視点情報を入力するためのユーザインタフェース機能と仮想視点画像を視聴するためのユーザインタフェース機能とを兼ね備えた1台の情報処理装置が組み込まれていてもよい。
The
(サーバの機能構成)
図4は、本実施形態に係る、オブジェクトの三次元モデルの生成や仮想視点情報に基づくレンダリング処理を行う画像処理装置としての、サーバ116の機能構成を示すブロック図である。サーバ116は、三次元モデル生成部401、処理方法決定部402及びレンダリング部403を有する。また、サーバ116は、CPU201がRAM203やROM202に格納されている所定のプログラムを実行することで図4に示す各部の機能を実現する。なお、本実施形態では、1台のサーバ116にて上記各部の機能を実現する構成とするが、複数台のサーバによって上記各部の機能が分散して実現されるような構成でもよい。例えば、三次元モデル生成部401の機能を担うサーバと、処理方法決定部402及びレンダリング部403の2つの機能を担うサーバとに分けてもよい。
(Server Functional Configuration)
4 is a block diagram showing the functional configuration of the
サーバ116に入力された複数視点画像データ(同期撮影による複数の視点に対応した撮像画像)のデータは、まず、三次元モデル生成部401に入力される。
The multiple viewpoint image data (images captured corresponding to multiple viewpoints captured by synchronous shooting) input to the
三次元モデル生成部401は、視点の異なる各撮像画像に対し、まずオブジェクトのシルエット抽出を行なう。そして、得られたシルエット画像(前景画像)と別途入力された各外カメラ110のカメラパラメータを用いて、視体積交差法などによってオブジェクトの三次元形状を表す形状データとしての三次元モデルを生成する。カメラパラメータには、外部パラメータ、内部パラメータ、歪曲パラメータが含まれる。内部パラメータとは、焦点距離や、主点と呼ばれる光学的中心を表すパラメータを指す。外部パラメータとは、カメラの位置・視線方向、視線方向を軸とする回転角を表すパラメータである。また、歪曲パラメータとは、レンズの屈折率の違いによって生じる半径方向の画像の歪みや、レンズとイメージプレーンが平行にならないことによって生じる円周方向の歪みを表す係数である。本実施形態では、撮像シーンとして複数の選手が広大なフィールド上を動き回るサッカーの試合を想定している。すなわち、三次元モデル生成部401で生成される三次元モデルは、選手やボールのオブジェクトそれぞれの三次元形状を表すデータである。各オブジェクトの三次元モデルにおいては、その三次元形状が、例えばボクセルと呼ばれる単位立方体の集合(塊)として表現される。なお、三次元形状の表現形式には、ボクセル形式の代わりに点群形式やポリゴン形式など他の形式を用いてもよい。
The three-dimensional
処理方法決定部402は、仮想カメラの位置・姿勢を示す仮想視点情報、撮像シーン内に存在する構造物の位置情報、選手等のオブジェクトの位置情報に基づき、レンダリング時の処理方法を決定する。具体的には、仮想カメラ、構造物、オブジェクトの相互の位置関係を解析し、三次元モデルへの色付けに、外カメラ110の撮像画像の色情報(テクスチャ情報)を使用するか、内カメラ120の撮像画像の色情報を使用するかを決定する。「三次元モデルの色付け」とは、三次元モデルを構成するボクセルの三次元位置に基づき撮像画像の画素を選択して仮想視点画像における画素値を決める処理と言い換えることができる。ここで、仮想視点情報は、制御装置118において例えばユーザがジョイスティック等を用いて撮像空間内に仮想カメラを設定することで生成され、制御装置118からサーバ116へと入力されるものとする。撮像シーン内に存在する構造物とは、撮像空間内に設置等されており外力を与えない限り動かない静止物体であり、本実施形態ではゴールネットを含んだサッカーゴールを想定している。構造物の位置は固定されているため、試合開始前などのタイミングで予めその位置座標を取得し補助記憶装置204等に保持しておけばよい。オブジェクトの位置情報は、上述の三次元モデルの生成時に生成されたものを三次元モデル生成部401から取得する。なお、構造物やオブジェクトの位置情報には、撮像空間における三次元位置を特定する位置座標(世界座標)と、その大きさを特定する情報が含まれる。
The processing
レンダリング部403は、処理方法決定部402が決定したレンダリング処理方法に従い、三次元モデル生成部401が生成した三次元モデルに対し、仮想視点情報に基づき色付け(テクスチャの貼り付け)を行って、仮想視点からの見えを表す画像を生成する。
The
(レンダリング処理の詳細)
続いて、本実施形態におけるレンダリング処理について、具体例を示しつつ詳しく説明する。図5は、前述の図2において、サッカーゴール301越しにゴールキーパー302を捉えるような位置に仮想カメラ303を設定した場合のカメラ配置を、フィールド真上からの俯瞰で示した図である。そして、図6は、仮想カメラ303からの視界(画角)を示している。図6から明らかなように、仮想カメラ303からゴールキーパー302を見たとき、サッカーゴール301のゴールネット301aが、ゴールキーパー302を遮るように存在することになる。このようなケースを想定しつつ、サーバ116が有する処理方法決定部402及びレンダリング部403の動作について、図7に示すフローチャートに沿って説明する。なお、図7のフローチャートに示す一連の処理は、三次元モデル生成部401においてオブジェクトの三次元モデルの生成が完了した段階で、CPU201が補助記憶装置204に格納された所定の制御プログラムをRAM203に展開してこれを実行することで実現される。図7のフローに示す各ステップのうち、S707、S708、S710、S711の各処理はレンダリング部403が担当し、残りのステップは処理方法決定部402が担当する。なお、以下の説明において記号「S」はステップを表す。
(Details of the rendering process)
Next, the rendering process in this embodiment will be described in detail with a specific example. FIG. 5 is a diagram showing a camera arrangement in FIG. 2, in which the
S701では、制御装置118から入力された仮想視点情報で特定される仮想カメラの視界(画角)に存在する1以上のオブジェクトの中から、レンダリング処理の対象となる注目するオブジェクトが決定される。
In S701, an object of interest to be subjected to the rendering process is determined from one or more objects present in the field of view (angle of view) of the virtual camera specified by the virtual viewpoint information input from the
続くS702では、仮想カメラの一定範囲内に存在する近傍の外カメラが、外カメラ110a~110jの中から決定される。仮想カメラの位置は上述の仮想視点情報によって特定され、外カメラ110a~110jそれぞれの位置は上述のカメラパラメータによって特定される。ここでは、設定された仮想カメラに最も近い位置にある1つの外カメラを選択するものとする。具体的には、10台ある外カメラ110a~110jのうち、その視界(画角)が仮想カメラの視界(画角)と重複する割合が最大である外カメラを1つ選択する。例えば、前述の図5に示した位置に設定された仮想カメラ303の場合には、外カメラ110fが選択されることになる。図8(a)は、前述の図5に示すカメラ配置における、ゴールキーパー302、サッカーゴール301、外カメラ110f、内カメラ120及び仮想カメラ303の位置関係を、フィールドの長手方向側面から見た場合の図である。また、図8(b)は、仮想カメラ303の光軸方向の延長線上でゴールネット301aの内側の位置に、仮想カメラ303’が設定された場合の位置関係を示す図である。図8(a)及び(b)いずれのケースにおいても、仮想カメラ303及び303’の視界と外カメラ110fの視界とが大きく重なることになる。このようにして、仮想カメラに最も近い位置にある外カメラが決定されるとS703に進む。なお、本実施形態では最近傍の外カメラを1台だけ決定しているが、これに限定されない。例えば仮想カメラの一定範囲内にある複数の外カメラを決定し、仮想カメラからの距離に応じてそれぞれ重み付けを行う等して以下の処理を行ってもよい。
In the next step S702, a nearby external camera within a certain range of the virtual camera is determined from the
S703では、注目オブジェクトの三次元モデルを構成するボクセルの中から、色付けの対象となる注目するボクセルが決定される。なお、注目するボクセルは、複数のボクセルから成る集合体(注目ボクセル群)であってもよい。次のS704では、S703で決定した注目ボクセルをS702で決定した外カメラから見た場合に、当該注目ボクセルを遮蔽する位置に構造物が存在するか否かが判定される。判定の際には、予め決まった位置に配置されている構造物の位置情報と、S702で決定された外カメラの位置情報を、RAM203或いは補助記憶装置204から読み込んで使用する。例えば、上記図8(a)及び(b)のケースであれば、ゴールキーパー302の三次元モデルにおける注目ボクセルの色付けに、外カメラ110fの撮像画像における対応する画素位置の色情報を使えるかどうかが判定されることになる。つまり、本ステップにおける判定では、固定された位置の構造物(ここではゴールネット301a)が注目オブジェクト(ゴールキーパー302)の一部でも遮蔽するかどうかを判定していることになる。いま、図8(a)及び(b)のどちらのケースでも、仮想カメラに一番近い外カメラは110fである。従って、図示されるように、ゴールキーパー302と外カメラ110fとの間にはサッカーゴール301が存在するので、ゴールネット301aがゴールキーパー302の手前に映り込むことになる。つまり、図8(a)及び(b)いずれのケースにおいても、ゴールネット301aによってゴールキーパー302が遮られる状態にある。よって、図8(a)及び(b)のケースでは、注目ボクセルを遮蔽する構造物(以下、「遮蔽物」と表記)が存在すると判定されることになる。判定の結果、注目ボクセルに対し遮蔽物が存在する場合はS705に進み、存在しない場合はS709に進む。
In S703, a voxel of interest to be colored is determined from among the voxels constituting the three-dimensional model of the target object. The voxel of interest may be a group of multiple voxels (a group of target voxels). In the next step S704, it is determined whether or not a structure is present at a position that blocks the voxel of interest determined in S703 when the voxel of interest is viewed from the external camera determined in S702. When making the determination, the position information of the structure located at a predetermined position and the position information of the external camera determined in S702 are read from the
S704にて遮蔽物が存在すると判定された場合のS705では、注目ボクセルへの色付けのための色情報を、当該遮蔽物(ここではゴールネット301a)の内側に設置してある内カメラの撮像画像から取得できるかどうかが判定される。ここで、“色情報を取得できる”とは、遮蔽物を含む他のオブジェクトが映り込むことなく、注目オブジェクト本来の色が撮像画像における対応する画素位置から適切に得られることを意味する。上述の図8(a)及び(b)のケースでは、内カメラ120とゴールキーパー302との間には、他の選手等を含め邪魔になるオブジェクトが存在しない。よって、注目ボクセルを色付けするための色情報を、内カメラ120の撮像画像から取得できると判定されることになる。判定の結果、内カメラ120の撮像画像から色情報が取得できる場合はS706に進み、取得できない場合はS711に進む。S706では、注目ボクセルへの色付けに、内カメラの撮像画像の色情報を用いるかどうかが判定される。この判定は、不図示のUI画面を介したユーザ選択に係らしめてもよいし、一定の条件に従って自動判定するようにしてもよい。一定の条件としては、例えば注目オブジェクトの属性(選手、審判、ボールなどのオブジェクト種別を表す情報)に応じて決定する方法が考えられる。内カメラの撮像画像の色情報を使用して色付けする場合はS707に進み、そうでない場合は708に進む。なお、内カメラの撮像画像の色情報を取得可能(S705でYes)と判定された段階でS706の判定をスキップしてS707に進むようにしてもよい。
In S705, when it is determined in S704 that an obstruction exists, it is determined whether color information for coloring the target voxel can be obtained from the image captured by the internal camera installed inside the obstruction (here, the goal net 301a). Here, "color information can be obtained" means that the original color of the target object is appropriately obtained from the corresponding pixel position in the captured image without other objects, including the obstruction, being reflected. In the cases of FIG. 8(a) and (b) above, there are no obstructing objects, including other players, between the
S707では、注目ボクセルに対して内カメラの撮像画像における対応する画素位置から得られる色情報を使用した色付けが実行される。また、S708では、注目ボクセルに対し、いずれかの外カメラ(例えばS702で決定した仮想カメラの最近傍の外カメラ)の撮像画像における対応する画素位置から得られる色情報を使用した色付けが実行される。S707又はS708のレンダリング処理終了後はS712に進む。 In S707, the voxel of interest is colored using color information obtained from the corresponding pixel position in the image captured by the internal camera. In S708, the voxel of interest is colored using color information obtained from the corresponding pixel position in the image captured by one of the external cameras (for example, the external camera closest to the virtual camera determined in S702). After the rendering process in S707 or S708 is completed, the process proceeds to S712.
S704にて遮蔽物が存在しないと判定された場合のS709では、注目ボクセルへの色付けのための色情報が、何れかの外カメラ(S702で決定した外カメラを含む)の撮像画像から取得できるかどうかが判定される。フィールド上には、サッカーゴールのような構造物以外にも複数の選手や審判などが存在するので、S704にて遮蔽物が存在しないと判定された場合であっても、注目オブジェクトとの間に別の選手等が存在する場合もあり得る。そこで、この点を加味して、注目ボクセルへの色付けに使用する色情報を外カメラの撮像画像から取得できるかどうかが判定される。具体的には、まず、仮想カメラの位置座標、仮想カメラの視界(画角)内に存在する全オブジェクトの位置座標、全外カメラのカメラパラメータに基づき、仮想カメラ、外カメラ、各オブジェクトの位置関係を割り出す。そして、注目オブジェクトの色情報(ここではゴールキーパー本来の色)を取得可能な、外カメラの撮像画像があるかどうかが判定される。判定の結果、いずれかの外カメラ110a~110jの撮像画像から注目オブジェクト本来の色情報を取得可能な場合はS710に進み、取得できない場合はS711に進む。
In S709, if it is determined in S704 that no obstruction exists, it is determined whether color information for coloring the target voxel can be obtained from an image captured by any of the external cameras (including the external camera determined in S702). Since there are multiple players and referees on the field in addition to structures such as soccer goals, even if it is determined in S704 that no obstruction exists, there may be other players between the target object and the object. Taking this into consideration, it is determined whether color information to be used for coloring the target voxel can be obtained from an image captured by an external camera. Specifically, first, the positional relationship between the virtual camera, the external camera, and each object is calculated based on the position coordinates of the virtual camera, the position coordinates of all objects present within the field of view (angle of view) of the virtual camera, and the camera parameters of all the external cameras. Then, it is determined whether there is an image captured by an external camera from which color information of the target object (here, the goalkeeper's original color) can be obtained. If the result of the determination is that the original color information of the target object can be obtained from the image captured by any of the
S710では、注目ボクセルに対し、S709にて色情報を取得可能と判定された外カメラの撮像画像の対応する画素位置から色情報を取得して色付けが実行される。また、どの実カメラ(全外カメラと内カメラ)の撮像画像からも色情報を取得できない場合のS711では、注目ボクセルの周辺領域の色情報を用いた補正(補間処理)によって注目ボクセルに対し色付けを行う。もしくは色付け自体を行わずに色情報を持たない透明なボクセルとして処理してもよい。そして、S710又はS711の色付け処理終了後はS712に進む。 In S710, coloring is performed on the voxel of interest by acquiring color information from the corresponding pixel position of the image captured by the outer camera for which it was determined in S709 that color information can be acquired. In addition, in S711, if color information cannot be acquired from the image captured by any of the real cameras (all outer cameras and inner camera), the voxel of interest is colored by correction (interpolation process) using color information from the surrounding area of the voxel of interest. Alternatively, the voxel of interest may not be colored at all and may be processed as a transparent voxel with no color information. Then, after the coloring process of S710 or S711 is completed, the process proceeds to S712.
S712では、注目オブジェクトを構成する全てのボクセルに対して色付け処理が完了したか否か(未着色のボクセルの有無)が判定される。全ボクセルに対する色付け処理が完了していればS713に進み、未処理のボクセルがあればS703に戻って次の注目ボクセルを決定して処理を続行する。 In S712, it is determined whether or not coloring has been completed for all voxels that make up the target object (whether or not there are any uncolored voxels). If coloring has been completed for all voxels, the process proceeds to S713, and if there are any unprocessed voxels, the process returns to S703 to determine the next target voxel and continue processing.
S713では、仮想カメラの視界(画角)に存在するすべてのオブジェクトについてレンダリング処理が完了したか否かが判定される。完了していれば本処理を終了する。一方、未処理のオブジェクトがあればS701に戻って次の注目オブジェクトを決定して処理を続行する。 In S713, it is determined whether rendering has been completed for all objects present in the field of view (angle of view) of the virtual camera. If it has been completed, this process ends. On the other hand, if there are unprocessed objects, the process returns to S701 to determine the next object of interest and continue processing.
以上が、本実施形態に係るレンダリング処理の内容である。図9(a)及び(b)は、前述の図5及び図6におけるゴールキーパー302を注目オブジェクトとして本実施形態のレンダリング処理を行った結果の一例をそれぞれ示している。図9(a)は、最終的にS708にてレンダリング処理された場合の結果を示しており、ゴールキーパー302にゴールネット304が映り込んでいる。一方、図9(b)は、最終的にS707にてレンダリング処理された場合の結果を示しており、ゴールキーパー302にゴールネット304が映り込んでおらず、ゴールキーパー302が本来持つ色で色付けされている。このようなレンダリング処理により、三次元モデルに対し適切な色付けが施された仮想視点画像が得られることになる。
The above is the content of the rendering process according to this embodiment. Figures 9(a) and (b) respectively show examples of the results of the rendering process of this embodiment when the
<変形例>
なお、図7のフローチャートでは、内カメラの撮像画像から色付けのための色情報を取得するのは、遮蔽物がある場合に限定されている。すなわち、仮想カメラから注目オブジェクトを見たときに遮蔽物がない場合には、外カメラの撮像画像から色情報を優先的に取得して三次元モデルに色付けすることを前提としている。しかしながら、このような構成に限定されるものではない。例えば、注目オブジェクトに対する遮蔽物がない場合でも、内カメラの撮像画像から色情報を取得して、その三次元モデルの色付けを行うような構成でも構わない。さらには、内カメラの撮像画像を、外カメラの撮像画像と共に三次元モデル生成時に用いても構わない。
<Modification>
In the flowchart of FIG. 7, color information for coloring is acquired from the image captured by the internal camera only when there is an obstruction. In other words, it is assumed that when there is no obstruction when the target object is viewed from the virtual camera, color information is preferentially acquired from the image captured by the external camera and the three-dimensional model is colored. However, the present invention is not limited to such a configuration. For example, even when there is no obstruction to the target object, color information may be acquired from the image captured by the internal camera and the three-dimensional model may be colored. Furthermore, the image captured by the internal camera may be used together with the image captured by the external camera when generating the three-dimensional model.
また、仮想カメラ(仮想視点)を設定可能な領域のうち、構造物によって遮蔽される可能性が高い領域を予め算出してその情報を保持しておき、遮蔽物の有無の判定に利用してもよい。図10は、前述の図5で示した模式図に、外カメラの撮像画像による適切な色付けが不能となる仮想カメラの位置を示す領域を重畳させた図である。図10において、斜線領域1000の範囲内で仮想カメラを設定した場合、外カメラ110e、110f、110gの撮像画像には常にゴールネットが映り込むことになる。これは、斜線領域1000内からゴールキーパー302を見た場合には、常にゴールネットが邪魔になることを意味し、外カメラ110e、110f、110gの撮像画像からはゴールキーパー302本来の色情報を取得できないことを意味している。つまり、斜線領域1000内に仮想カメラを設定した場合において、ゴールキーパー302本来の色をその三次元モデルの色付けに使用したい場合は、必然的に内カメラ120の撮像画像を使用することになる。そこで、前述の図7のフローチャートのS704の判定の際、仮想視点情報で特定される仮想カメラが上記斜線領域1000のような特定の領域内に設定されている場合には常に「遮蔽物あり」と判断してS705に進むようにしてもよい。
In addition, among the areas where the virtual camera (virtual viewpoint) can be set, the areas that are likely to be blocked by structures may be calculated in advance, the information may be stored, and the information may be used to determine the presence or absence of a blocking object. FIG. 10 is a diagram in which an area indicating the position of the virtual camera where appropriate coloring by the image captured by the outer camera is not possible is superimposed on the schematic diagram shown in FIG. 5 described above. In FIG. 10, if the virtual camera is set within the range of the hatched
また、本実施形態では、サッカーの試合におけるシュートシーン等をゴールキーパーの背面側から見た場合の仮想視点画像の生成を念頭に、ネット状の構造物が遮蔽物となる例を用いて説明を行ったがこれに限定されない。まず、サッカー同様にゴールネットが使用される競技、例えばハンドボール、フットサル、水球といった競技については、上述の実施形態をそのまま適用することが可能である。また、対戦相手がネットを挟んで存在する競技、例えばバレーボール、テニス、バドミントン、卓球といった競技についても本実施形態を応用することができる。この場合は、ネットを挟んだ両側にそれぞれ自陣側を撮影する内カメラを設置すればよい。また、バスケットボールではゴールネットの他、アクリル製のゴールボードについても遮蔽物として扱うことが可能である。さらには、例えば野球や陸上競技の投てき種目などのように防護ネットが使用される競技にも応用可能である。この場合は、競技領域の内側(防護ネットよりも選手に近い位置)に内カメラを設置すればよい。 In this embodiment, the example of a net-like structure being an obstruction has been described with the generation of a virtual viewpoint image of a shooting scene in a soccer game as viewed from the back side of the goalkeeper in mind, but the present invention is not limited to this. First, the above embodiment can be applied as is to sports in which a goal net is used like soccer, such as handball, futsal, and water polo. This embodiment can also be applied to sports in which opponents are on either side of a net, such as volleyball, tennis, badminton, and table tennis. In this case, it is sufficient to install internal cameras on both sides of the net to capture the player's side. In addition to the goal net in basketball, it is also possible to treat acrylic goal boards as obstructions. Furthermore, it is also possible to apply the present invention to sports in which a protective net is used, such as baseball and throwing events in track and field. In this case, it is sufficient to install internal cameras inside the playing area (closer to the player than the protective net).
以上のとおり本実施形態によれば、オブジェクトの三次元モデルに色付けを行う際に、当該オブジェクトを遮蔽する位置に構造物が存在していても適切に色付けを行うことができる。 As described above, according to this embodiment, when coloring a three-dimensional model of an object, the object can be appropriately colored even if a structure is present in a position that occludes the object.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Examples
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.
Claims (12)
前記レンダリング処理における前記オブジェクトの色付けのための処理方法を決定する決定手段と、
決定された処理方法に従って、前記オブジェクトの色付けをするレンダリング手段と、
を備え、
前記形状データは、撮像対象領域の周囲に配置された複数の第1の撮像装置で撮像を行って得られた複数の第1の撮像画像に基づき生成され、
前記撮像対象領域には、構造物が存在し、
前記決定手段は、
前記色付けのための色情報を、前記複数の第1の撮像画像に含まれる撮像画像から取得するか、前記オブジェクトを前記構造物によって遮られることなく撮像できる位置に配置された第2の撮像装置で撮像を行って得られた第2の撮像画像から取得するかを、前記仮想視点、前記構造物及び前記オブジェクトの位置関係に基づいて決定する、
ことを特徴とする画像処理装置。 An image processing device that performs rendering processing using shape data representing a three-dimensional shape of an object to generate a virtual viewpoint image corresponding to a virtual viewpoint,
a determining means for determining a processing method for coloring the object in the rendering process;
a rendering means for coloring the object in accordance with the determined processing method;
Equipped with
the shape data is generated based on a plurality of first captured images obtained by performing imaging using a plurality of first imaging devices arranged around an imaging target area;
a structure is present in the imaging target area,
The determining means is
determining whether color information for the coloring is to be acquired from a captured image included in the plurality of first captured images, or from a second captured image acquired by capturing an image with a second imaging device disposed at a position where the object can be captured without being obstructed by the structure, based on a positional relationship between the virtual viewpoint, the structure, and the object;
13. An image processing device comprising:
前記色付けのための色情報を第2の撮像画像から取得可能である場合に、当該第2の撮像画像から前記色付けのための色情報を取得するかどうかをユーザに選択させるためのユーザインタフェース画面を表示し、
前記ユーザインタフェース画面を介したユーザ選択に基づき、前記色付けのための色情報を、前記複数の第1の撮像画像に含まれる撮像画像から取得するか前記第2の撮像画像から取得するかを決定する、
ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 The determining means is
displaying a user interface screen for allowing a user to select whether or not to acquire color information for the coloring from the second captured image, when color information for the coloring can be acquired from the second captured image;
determining whether color information for the coloring is to be acquired from a captured image included in the plurality of first captured images or from the second captured image based on a user selection via the user interface screen;
6. The image processing device according to claim 1,
前記保持された情報が示す前記特定の領域内に前記仮想視点が設定されている場合、前記決定手段は、前記色付けのための色情報を第2の撮像画像から取得する、と決定する、
ことを特徴とする請求項1に記載の画像処理装置。 a means for storing information on a specific area in which the object is likely to be blocked by the structure, among the areas in which the virtual viewpoint can be set;
When the virtual viewpoint is set within the specific area indicated by the stored information, the determination means determines that color information for the coloring is to be acquired from a second captured image.
2. The image processing device according to claim 1,
前記決定手段は、前記ボクセル又は点群の単位で、前記色付けにおける処理方法を決定し、
前記レンダリング手段は、前記ボクセル又は点群の単位で、前記色付けを行う、
ことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。 the shape data represents a three-dimensional shape of the object in voxels or a point cloud;
The determining means determines a processing method for the coloring in units of the voxels or the point clouds,
The rendering means performs the coloring in units of the voxels or points.
9. The image processing device according to claim 1,
前記レンダリング処理における前記オブジェクトの色付けのための処理方法を決定する決定ステップと、
決定された処理方法に従って、前記オブジェクトの色付けをするレンダリングステップと、
を有し、
前記形状データは、撮像対象領域の周囲に配置された複数の第1の撮像装置で撮像を行って得られた複数の第1の撮像画像に基づき生成され、
前記撮像対象領域には、構造物が存在し、
前記決定ステップでは、前記色付けのための色情報を、前記複数の第1の撮像画像に含まれる撮像画像から取得するか、前記オブジェクトを前記構造物によって遮られることなく撮像できる位置に配置された第2の撮像装置で撮像を行って得られた第2の撮像画像から取得するかを、前記仮想視点、前記構造物及び前記オブジェクトの位置関係に基づいて決定する、
ことを特徴とする画像処理方法。 An image processing method for generating a virtual viewpoint image according to a virtual viewpoint by performing a rendering process using shape data representing a three-dimensional shape of an object, comprising:
a determining step of determining a processing method for coloring the object in the rendering process;
a rendering step of coloring said object in accordance with the determined processing method;
having
the shape data is generated based on a plurality of first captured images obtained by performing imaging using a plurality of first imaging devices arranged around an imaging target area;
A structure is present in the imaging target area,
In the determining step, whether color information for the coloring is to be obtained from a captured image included in the plurality of first captured images or from a second captured image obtained by capturing an image with a second imaging device disposed at a position where the object can be captured without being obstructed by the structure is determined based on a positional relationship between the virtual viewpoint, the structure, and the object.
13. An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020114814A JP7536531B2 (en) | 2020-07-02 | 2020-07-02 | Image processing device, image processing method, image processing system, and program. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020114814A JP7536531B2 (en) | 2020-07-02 | 2020-07-02 | Image processing device, image processing method, image processing system, and program. |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022012755A JP2022012755A (en) | 2022-01-17 |
JP7536531B2 true JP7536531B2 (en) | 2024-08-20 |
Family
ID=80148895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020114814A Active JP7536531B2 (en) | 2020-07-02 | 2020-07-02 | Image processing device, image processing method, image processing system, and program. |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7536531B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019095936A (en) | 2017-11-20 | 2019-06-20 | キヤノン株式会社 | Image processor, method for processing image, and program |
JP2020005089A (en) | 2018-06-27 | 2020-01-09 | キヤノン株式会社 | Imaging system, image processing apparatus, image processing method, and program |
JP2020013216A (en) | 2018-07-13 | 2020-01-23 | キヤノン株式会社 | Device, control method, and program |
-
2020
- 2020-07-02 JP JP2020114814A patent/JP7536531B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019095936A (en) | 2017-11-20 | 2019-06-20 | キヤノン株式会社 | Image processor, method for processing image, and program |
JP2020005089A (en) | 2018-06-27 | 2020-01-09 | キヤノン株式会社 | Imaging system, image processing apparatus, image processing method, and program |
JP2020013216A (en) | 2018-07-13 | 2020-01-23 | キヤノン株式会社 | Device, control method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2022012755A (en) | 2022-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11217006B2 (en) | Methods and systems for performing 3D simulation based on a 2D video image | |
US11798224B2 (en) | Generation apparatus, system and method for generating virtual viewpoint image | |
US10789764B2 (en) | Systems and associated methods for creating a viewing experience | |
JP6894962B2 (en) | Image data capture method, device, and program for free-viewpoint video | |
US9117310B2 (en) | Virtual camera system | |
JP7187182B2 (en) | Data generator, method and program | |
US20190132529A1 (en) | Image processing apparatus and image processing method | |
JP2018180655A (en) | Image processing device, image generation method, and program | |
US11798233B2 (en) | Generation device, generation method and storage medium for three-dimensional model that remove a portion of the three-dimensional model | |
US20230281912A1 (en) | Method and system for generating a target image from plural multi-plane images | |
JP2008217593A (en) | Subject area extraction device and subject area extraction program | |
JP6799468B2 (en) | Image processing equipment, image processing methods and computer programs | |
JP6759375B2 (en) | Systems, methods and programs that generate virtual viewpoint images | |
JP7536531B2 (en) | Image processing device, image processing method, image processing system, and program. | |
JP6392739B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP7265825B2 (en) | Generation device, generation method and program | |
JP7278720B2 (en) | Generation device, generation method and program | |
JP2021018570A (en) | Image processing apparatus, image processing system, image processing method and program | |
JP6450306B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US20230334767A1 (en) | Image processing apparatus, image processing method, and storage medium | |
WO2023100703A1 (en) | Image production system, image production method, and program | |
WO2023100704A1 (en) | Image production system, image production method, and program | |
JP2023132320A (en) | Image processing system, image processing method, and computer program | |
JP2023080290A (en) | Information processing apparatus, control method of the same and program | |
JP2017102784A (en) | Image processing system, image processing method and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230623 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240523 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240709 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240807 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7536531 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |