JP2008217243A - Image creation device - Google Patents
Image creation device Download PDFInfo
- Publication number
- JP2008217243A JP2008217243A JP2007051695A JP2007051695A JP2008217243A JP 2008217243 A JP2008217243 A JP 2008217243A JP 2007051695 A JP2007051695 A JP 2007051695A JP 2007051695 A JP2007051695 A JP 2007051695A JP 2008217243 A JP2008217243 A JP 2008217243A
- Authority
- JP
- Japan
- Prior art keywords
- image
- view
- floor
- camera
- floor surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
Description
この発明は、複数のカメラ等で撮影された多視点画像からスポーツ鑑賞や監視などの用途に有用な画像を生成する画像生成装置に関するものである。 The present invention relates to an image generation apparatus that generates images useful for sports appreciation and monitoring from multi-viewpoint images captured by a plurality of cameras or the like.
従来の画像生成装置では、ある方向から撮影された3次元空間内のある領域の画像P1と、別の方向から撮影された同一領域の画像P2との間で中間視点画像を生成する場合、その画像P1と画像P2から3次元空間内の任意の点に対応する点V1,V2を見つけ、それらの点V1,V2を線形補間することで、中間視点画像を生成するようにしている(例えば、非特許文献1を参照)。 In a conventional image generation apparatus, when generating an intermediate viewpoint image between an image P1 of a certain region in a three-dimensional space photographed from a certain direction and an image P2 of the same region photographed from another direction, An intermediate viewpoint image is generated by finding points V1 and V2 corresponding to arbitrary points in the three-dimensional space from the images P1 and P2 and linearly interpolating these points V1 and V2 (for example, (Refer nonpatent literature 1).
例えば、下記の線形補間式を用いて、点V1,V2を線形補間する。
また、v1,v2,v3は、点V1,V2,V3の位置ベクトルを表している。
For example, the points V1 and V2 are linearly interpolated using the following linear interpolation formula.
Further, v1, v2, and v3 represent position vectors of the points V1, V2, and V3.
従来の画像生成装置は以上のように構成されているので、画像P1と画像P2の間で中間視点画像を生成する際、3次元空間内の任意の点に対応する点V1,V2を線形補間する。しかし、点V1,V2を線形補間する場合、3次元空間内に存在する物体の中間位置が不自然な位置に決定されることがあり、その場合には、不自然な位置に決定された中間位置を基準にして、2つの物体間の距離や床面画像が生成されるため、画像P1,P2や中間視点画像間で表示を切り替える際、物体や床などが縮むように見えたり、不自然な位置に物体が移動したりすることがあるなどの課題があった。 Since the conventional image generating apparatus is configured as described above, when generating an intermediate viewpoint image between the image P1 and the image P2, the points V1 and V2 corresponding to arbitrary points in the three-dimensional space are linearly interpolated. To do. However, when the points V1 and V2 are linearly interpolated, the intermediate position of the object existing in the three-dimensional space may be determined as an unnatural position. In this case, the intermediate position determined as the unnatural position is determined. Since the distance between two objects and the floor image are generated based on the position, when switching the display between the images P1 and P2 and the intermediate viewpoint image, the object, the floor, etc. may appear to be shrunk or unnatural. There was a problem that an object sometimes moved to a position.
この発明は上記のような課題を解決するためになされたもので、複数の多視点画像を切り替える際、滑らかで違和感のない中間画像を表示することができる画像生成装置を得ることを目的とする。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an image generation apparatus capable of displaying an intermediate image that is smooth and has no sense of incongruity when a plurality of multi-viewpoint images are switched. .
この発明に係る画像生成装置は、床面に置かれている1以上の物体の床面上の位置を床面の平面図上の位置に変換する平面射影変換手段と、平面射影変換手段により変換された1以上の物体の平面図上の位置の中から、その平面図上では見かけ上異なる同一物品に係る複数の位置を特定し、複数の位置の中間点を決定する中間点決定手段と、中間点決定手段により決定された中間点をマルチビュー画像上の位置に変換し、マルチビュー画像上の位置に応じて床面の画像を生成する床面画像生成手段とを設け、中間画像生成手段が複数のカメラ画像内の床面に置かれている1以上の物体の画像と床面画像生成手段により生成された床面の画像から、マルチビュー画像生成手段により生成された複数のマルチビュー画像間の中間画像を生成するようにしたものである。 The image generation apparatus according to the present invention includes a plane projection conversion means for converting a position on the floor surface of one or more objects placed on the floor surface into a position on a floor plan of the floor, and conversion by the plane projection conversion means. Intermediate point determination means for specifying a plurality of positions related to the same article that are apparently different on the plan view from among the positions on the plan view of the one or more objects, and determining intermediate points of the plurality of positions; An intermediate image generation unit configured to convert the intermediate point determined by the intermediate point determination unit into a position on the multi-view image and generate a floor image according to the position on the multi-view image; A plurality of multi-view images generated by the multi-view image generation unit from the images of one or more objects placed on the floor surface in the plurality of camera images and the floor image generated by the floor surface image generation unit Will generate an intermediate image It is obtained by the.
この発明によれば、床面に置かれている1以上の物体の床面上の位置を床面の平面図上の位置に変換する平面射影変換手段と、平面射影変換手段により変換された1以上の物体の平面図上の位置の中から、その平面図上では見かけ上異なる同一物品に係る複数の位置を特定し、複数の位置の中間点を決定する中間点決定手段と、中間点決定手段により決定された中間点をマルチビュー画像上の位置に変換し、マルチビュー画像上の位置に応じて床面の画像を生成する床面画像生成手段とを設け、中間画像生成手段が複数のカメラ画像内の床面に置かれている1以上の物体の画像と床面画像生成手段により生成された床面の画像から、マルチビュー画像生成手段により生成された複数のマルチビュー画像間の中間画像を生成するように構成したので、複数の多視点画像を切り替える際、滑らかで違和感のない中間画像を表示することができる効果がある。 According to the present invention, the plane projection conversion means for converting the position on the floor surface of one or more objects placed on the floor surface into the position on the floor plan of the floor, and the 1 converted by the plane projection conversion means. Among the positions on the plan view of the object described above, a plurality of positions related to the same article that are apparently different on the plan view are specified, and a midpoint determination means for determining a midpoint between the plurality of positions, and a midpoint determination Means for converting the intermediate point determined by the means to a position on the multi-view image, and generating a floor image according to the position on the multi-view image. An intermediate between a plurality of multi-view images generated by the multi-view image generating means from the image of one or more objects placed on the floor surface in the camera image and the floor image generated by the floor image generating means Configured to generate images In, when switching a plurality of multi-view images, there is an effect that can be displayed smooth, no feeling of strangeness intermediate image.
実施の形態1.
図1はこの発明の実施の形態1による画像生成装置のマルチビュー画像生成手段を示す構成図である。
図1の画像生成装置の場合、N台のカメラを使用して、ある3次元領域をそれぞれ異なる方向から撮影した複数の画像に対して、上記領域内に存在するある物体が、全ての画像で同じ大きさになるように各画像を拡大または縮小し、かつ、画像内の同じ座標に位置するよう移動し、さらに、水平方向や垂直方向の歪を補正するようにしている。
なお、上記のような画像を、N台のカメラにより撮影されたN枚の画像を用いて生成した後、それらの画像をカメラの並びの順番に表示すると、ある物体を中心に等距離の視点をカメラの並びに沿って順番に移動させたような画像効果を得ることができる。以後、上記のような効果をマルチビュー効果または単にマルチビューと称する。
これ以降の説明では、N台のカメラで、水平な平面である床面にいくつかの物体が置かれている領域を撮影し、その領域に対してマルチビュー効果を有する画像を生成するものとする。
1 is a block diagram showing a multi-view image generating means of an image generating apparatus according to
In the case of the image generating apparatus of FIG. 1, for a plurality of images obtained by photographing N-dimensional images from different directions using N cameras, an object existing in the region is all images. Each image is enlarged or reduced so as to have the same size, moved so as to be positioned at the same coordinates in the image, and further, distortion in the horizontal direction or the vertical direction is corrected.
In addition, after generating the above images using N images taken by N cameras, when these images are displayed in the order of camera arrangement, an equidistant viewpoint centered on an object It is possible to obtain an image effect such that the images are sequentially moved along the camera. Hereinafter, such an effect is referred to as a multi-view effect or simply a multi-view.
In the following description, it is assumed that an area in which several objects are placed on the floor surface, which is a horizontal plane, is captured by N cameras, and an image having a multi-view effect is generated for the area. To do.
図において、マルチビュー画像生成手段30は相互に異なる方向から同一の3次元領域が撮影された複数のカメラ画像のマルチビュー変換を実施して、複数のカメラ画像内の床面に置かれているマルチビュー対象の物体の位置及び大きさが一致している複数のマルチビュー画像を生成する処理を実施する。 In the figure, the multi-view image generation means 30 performs multi-view conversion of a plurality of camera images in which the same three-dimensional area is photographed from different directions, and is placed on the floor surface in the plurality of camera images. A process of generating a plurality of multi-view images in which the positions and sizes of the objects to be multi-viewed match is executed.
カメラ1−1〜1−Nは相互に異なる方向から同一の3次元領域を撮影し、その3次元領域の撮影結果であるオリジナル画像n(1≦n≦N)を出力する。
画像データ一時保存部2はカメラ1−n(1≦n≦N)から出力されたオリジナル画像n(1≦n≦N)を一時的に保存するメモリである。
ただし、この実施の形態1では、以降、説明の簡単化のために、N=8であるものとして説明する。
The cameras 1-1 to 1-N photograph the same three-dimensional area from different directions, and output an original image n (1 ≦ n ≦ N) that is a photographing result of the three-dimensional area.
The image data
In the first embodiment, however, it is assumed that N = 8 for the sake of simplicity.
マルチビュー位置指定部3は画像データ一時保存部2に保存されている8枚のオリジナル画像nの中から任意のオリジナル画像n1(1≦n1≦8)の選択を受け付け、そのオリジナル画像n1に存在するマルチビュー対象の物体(ユーザがマルチビューを希望する物体)の床面上の位置を示す画像座標の指定を受け付ける処理を実施する。
マルチビュー位置指定部3における画像座標の読み取りは、ユーザがオリジナル画像n1を見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
The multi-view
The image coordinates are read by the multi-view
基準位置指定部4は画像データ一時保存部2に保存されている8枚のオリジナル画像nの中から任意のオリジナル画像n2(1≦n2≦8)の選択を受け付け、そのオリジナル画像n2に存在する垂直基準棒が床面に垂直に接している床面上の位置を示す画像座標の指定を受け付ける処理を実施する。
基準位置指定部4における画像座標の読み取りは、ユーザがオリジナル画像n2を見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
The reference
The reading of the image coordinates in the reference
床面座標読取部5は画像データ一時保存部2に保存されているオリジナル画像n(1≦n≦8)の、例えば床面上に共通に存在しているマーキング(図2を参照)の頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を読み取る処理を実施する。ここでは頂点(1)〜(4)は床面にマーキングされた四角形の頂点であるが、四角形でなくてもよく、4点以上であればよい。
水平消失点算出部6は画像データ一時保存部2に保存されているオリジナル画像n(1≦n≦8)毎に、オリジナル画像nの水平消失点(例えば、カメラ1−nの光軸を床面に垂直な方向に投影した床面上の直線の無限遠点をオリジナル画像に投影した消失点)の画像座標を算出する処理を実施する。
垂直消失点算出部7は画像データ一時保存部2に保存されているオリジナル画像n(1≦n≦8)毎に、オリジナル画像nの垂直消失点(床面に垂直な直線の無限遠点を画像に投影した消失点)の画像座標を算出する処理を実施する。
The floor surface coordinate reading unit 5 is an apex of the marking (see FIG. 2) that exists in common on the floor surface of the original image n (1 ≦ n ≦ 8) stored in the image data
For each original image n (1 ≦ n ≦ 8) stored in the image data
For each original image n (1 ≦ n ≦ 8) stored in the image data
平面射影変換行列算出部8はオリジナル画像n1と他のオリジナル画像n(オリジナル画像n1を除く)におけるマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を使用して、オリジナル画像n1と他のオリジナル画像n(オリジナル画像n1を除く)間で、床面を構成する平面の平面射影変換行列Hn1-1〜Hn1-8(1≦n1≦8の7個)を算出する処理を実施する。
また、平面射影変換行列算出部8はオリジナル画像n2と他のオリジナル画像n(オリジナル画像n2を除く)におけるマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を使用して、オリジナル画像n2と他のオリジナル画像n(オリジナル画像n2を除く)間で、床面を構成する平面の平面射影変換行列Hn2-1〜Hn2-8(1≦n2≦8の7個)を算出する処理を実施する。
平面射影変換行列の算出方法は、例えば、非特許文献「出口光一郎 “ロボットビジョンの基礎”p47(本文献ではホモグラフィー行列と記載されている)」に記載されている。
The planar projective transformation matrix calculation unit 8 images the marking vertex (1), vertex (2), vertex (3), and vertex (4) in the original image n 1 and other original images n (excluding the original image n 1 ). Using the coordinates, a plane projective transformation matrix H n1-1 to H n1-8 (1 ≦ 1) of the plane constituting the floor surface between the original image n 1 and another original image n (excluding the original image n 1 ). The process of calculating 7 pieces of n 1 ≦ 8 is performed.
The plane projective transformation matrix calculation unit 8 also performs marking vertex (1), vertex (2), vertex (3), vertex (4) in the original image n 2 and other original images n (excluding the original image n 2 ). The plane projection transformation matrices H n2-1 to H n2-8 of the plane constituting the floor surface between the original image n 2 and another original image n (excluding the original image n 2 ) A process of calculating 7 of 1 ≦ n 2 ≦ 8 is performed.
The calculation method of the planar projective transformation matrix is described in, for example, a non-patent document “Koichiro Deguchi“ Basics of Robot Vision ”p47 (described as a homography matrix in this document)”.
マルチビュー位置算出部9は平面射影変換行列算出部8により算出された平面射影変換行列Hn1-1〜Hn1-8を用いて、オリジナル画像n(オリジナル画像n1を除く)に存在するマルチビュー対象の物体の床面上の位置を示す画像座標を算出する処理を実施する。即ち、平面射影変換行列Hn1-1〜Hn1-8を用いて、マルチビュー位置指定部3により指定が受け付けられたマルチビュー対象の物体の床面上の位置を示す画像座標(または、マルチビュー画像座標変換部22により変換された画像座標)を、オリジナル画像n(オリジナル画像n1を除く)の画像座標に変換することにより、オリジナル画像n(オリジナル画像n1を除く)に存在するマルチビュー対象の物体の床面上の位置を示す画像座標を算出する処理を実施する。
Multi-view
基準位置算出部10は平面射影変換行列算出部8により算出された平面射影変換行列Hn2-1〜Hn2-8を用いて、オリジナル画像n(オリジナル画像n2を除く)に存在する垂直基準棒の床面上の位置を示す画像座標を算出する処理を実施する。即ち、平面射影変換行列Hn2-1〜Hn2-8を用いて、基準位置指定部4により指定が受け付けられたオリジナル画像n2内の垂直基準棒の床面位置を示す画像座標を、オリジナル画像n(オリジナル画像n2を除く)の画像座標に変換する処理を実施することにより、オリジナル画像n(オリジナル画像n2を除く)に存在する垂直基準棒の床面上の位置を示す画像座標を算出する処理を実施する。
The reference
画像内倍率算出部11はマルチビュー位置算出部9により算出されたオリジナル画像nに存在するマルチビュー対象の床面位置を示す画像座標と、基準位置算出部10により算出されたオリジナル画像nに存在する垂直基準棒の床面位置を示す画像座標と、水平消失点算出部6により算出されたオリジナル画像nの水平消失点の画像座標とを用いて、マルチビュー対象の物体を垂直基準棒と同じ奥行きの床面位置まで移動させた場合のマルチビュー対象の物体の画像内倍率(マルチビュー対象の物体の大きさの見え方の変化倍率)を算出する処理を実施する。
The in-image
カメラ水平軸歪補正パラメータ算出部12は垂直消失点算出部7により算出されたオリジナル画像nの垂直消失点から、オリジナル画像nを撮影する際のカメラ1−nの傾きに起因する水平軸歪の補正パラメータを算出する処理を実施する。
透視投影歪補正パラメータ算出部13は垂直消失点算出部7により算出されたオリジナル画像nの垂直消失点から、カメラ1−nの撮影時に3次元空間を2次元平面に透視投影することに起因する画像の透視投影歪の補正パラメータを算出する処理を実施する。
The camera horizontal axis distortion correction
The perspective projection distortion correction
1次補正画像生成部14はカメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータとを用いて、オリジナル画像nの水平軸歪と透視投影歪を補正し、補正後の画像を1次補正画像n(1≦n≦8)として出力する。
基準長読取部15は1次補正画像生成部14から出力された1次補正画像n内の垂直基準棒の見かけの長さを読み取る処理を実施する。
The primary correction
The reference length reading unit 15 performs a process of reading the apparent length of the vertical reference bar in the primary correction image n output from the primary correction
画像間倍率算出部16は画像内倍率算出部11により算出されたマルチビュー対象の物体の画像内倍率と、基準長読取部15により読み取られた1次補正画像n内の垂直基準棒の見かけの長さを用いて、1次補正画像n(1≦n≦8)におけるマルチビュー対象の物体を同じ大きさで表示する場合の画像間倍率を1次補正画像n毎に算出する処理を実施する。
このとき、画像間倍率を用いて、1次補正画像nを拡大又は縮小して、大きさを補正するようにしてもよい。
The
At this time, the size may be corrected by enlarging or reducing the primary correction image n using the inter-image magnification.
2次補正画像生成部17はカメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータと、画像間倍率算出部16により算出された画像間倍率とを用いて、2次透視変換を実施することにより、オリジナル画像n(1≦n≦8)の歪や大きさを補正し、補正後の画像を2次補正画像n(1≦n≦8)として出力する。
The secondary correction image generation unit 17 includes a horizontal axis distortion correction parameter calculated by the camera horizontal axis distortion correction
2次透視変換座標算出部18は2次補正画像生成部17がカメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータと、画像間倍率算出部16により算出された画像間倍率とを用いて、2次透視変換を実施した場合のマルチビュー対象の物体の画像座標(マルチビュー対象の物体の移動先の画像座標)を算出する処理を実施する。
移動パラメータ算出部19は2次透視変換座標算出部18により算出されたマルチビュー対象の物体の移動先の画像座標と、画像中心とのずれを移動パラメータとして算出する処理を実施する。
The secondary perspective transformation coordinate
The movement
マルチビュー画像生成部20は移動パラメータ算出部19により算出された移動パラメータにしたがって、2次補正画像生成部17から出力された2次補正画像n(1≦n≦8)を移動させることにより、マルチビュー対象の物体が画像の中心に存在するマルチビュー画像n(1≦n≦8)を生成する処理を実施する。
マルチビュー位置指定部21はマルチビュー画像生成部20により生成されたマルチビュー画像n(1≦n≦8)に対して、新たなマルチビューの位置の指定を受け付ける処理を実施する。
The multi-view
The multi-view
マルチビュー画像座標変換部22は移動パラメータ算出部19により算出された移動パラメータの逆移動パラメータと、2次透視変換座標算出部18により算出された2次透視変換の逆変換と、平面射影変換行列算出部8により算出された平面射影変換行列の逆変換行列とを用いて、マルチビュー位置指定部21により指定が受け付けられたマルチビュー画像n(1≦n≦8)上の座標位置を、オリジナル画像n(1≦n≦8)上の座標位置に変換する処理を実施する。
The multi-view image coordinate
図10はこの発明の実施の形態1による画像生成装置の一部(マルチビュー画像生成手段を除く部分)を示す構成図である。
ただし、図1に記述しているカメラ1−1〜1−N及び画像データ一時保存部2については、図10でも記述している。
FIG. 10 is a block diagram showing a part of the image generating apparatus (part excluding the multi-view image generating means) according to
However, the cameras 1-1 to 1-N and the image data
背景画像データ保存部41は画像データ一時保存部2からカメラ1−n(1≦n≦N)により撮影された背景画像nを取得して、その背景画像nをカメラ1−n毎に保存するメモリである。
ここで、「背景画像」は、画面内に動いている物体や、今後動くことが予想される物体が撮影されていない画像である。
この実施の形態1では、背景画像を取得した後は、カメラ1−nの移動は行わないものとする。
背景画像は、ユーザが複数の画像の中から選択するようにしてもよいし、ユーザが生成するようにしてもよい。また、後述する方法を実施して、自動的に生成するようにしてもよい。
一般的には、動く物体が何もない状態を撮影して背景画像とすることが多い。
背景画像の自動的な選択方法又は生成方法としては、例えば、動く物体が撮影されている画像からメディアンフィルタなどを用いて背景画像を生成する方法などがある。
背景画像データ保存部41に保存する背景画像は、周期的又は非周期的に取得しなおしてもよい。また、背景画像毎の差分などを求めて、人物などのオブジェクト抽出に影響を与えないことが判明している変動がある閾値以上あったとき、背景画像を更新するようにしてもよい。
The background image
Here, the “background image” is an image in which an object moving in the screen or an object expected to move in the future is not photographed.
In the first embodiment, the camera 1-n is not moved after the background image is acquired.
The background image may be selected by the user from a plurality of images, or may be generated by the user. Further, it may be automatically generated by executing a method described later.
In general, a background image is often obtained by photographing a state where there is no moving object.
As a background image automatic selection method or generation method, for example, there is a method of generating a background image from an image of a moving object photographed using a median filter or the like.
The background image stored in the background image
オブジェクト抽出部42は画像データ一時保存部2からカメラ1−n(1≦n≦N)により撮影されたオリジナル画像nを取得するとともに、背景画像データ保存部41からカメラ1−nにより撮影された背景画像nを取得して、そのオリジナル画像nと背景画像nに対する画像処理を実施して、オリジナル画像n内のオブジェクト(床面に置かれている物体)を抽出する処理を実施する。即ち、オリジナル画像nと背景画像nにおける同じ位置の画素の差分などを求めて動きのある画素を判定し、動きのある画素の位置を2値画像で表現し、その2値画像に対して収縮処理、拡大処理、ラベリング処理などを実施して、オリジナル画像n内のオブジェクトを抽出する。
収縮処理、拡大処理、ラベリング処理などは、例えば「井上誠喜 C言語で学ぶ実践画像処理 オーム社」に開示されている。
The
Shrinkage processing, enlargement processing, labeling processing, and the like are disclosed in, for example, “Practical image processing learned by C language Ohmsha”.
オブジェクト位置座標算出部43はオブジェクト抽出部42がオブジェクトを抽出すると、例えば、そのオブジェクト領域の重心と、平面射影変換行列算出部8により算出された平面射影変換行列と、垂直消失点算出部7により算出された垂直消失点とを用いて、オリジナル画像n内におけるオブジェクトの位置座標を算出する処理を実施する。
床平面図入力部44はカメラ1−1,1−2,・・・,1−Nで共通に撮影される床面の平面図の取り込みを行う。
「床面の平面図」は、例えば、床面にマーキングされている四角形の形状が正方形であれば正方形であり、縦横比がa:bの長方形であればa:bの長方形であり、四角形の4つの頂点が相似形で決定することができればよく、大きさは適当でよい。
また、四角形以外の三角形や、それ以外の多角形や、それ以外の形状であってもよく、平面上の4つ以上の点の位置関係が、幾何学的な相似形であればよい。
When the
The floor plan
The “plan view of the floor surface” is, for example, a square if the quadrangular shape marked on the floor surface is a square, and an a: b rectangle if the aspect ratio is an a: b rectangle. As long as the four vertices can be determined in a similar shape, the size may be appropriate.
Further, it may be a triangle other than a quadrangle, a polygon other than that, or any other shape, and the positional relationship between four or more points on the plane may be a geometric similarity.
画像内床面座標指定部45は背景画像データ保存部41に保存されている背景画像nにおいて、床平面図入力部44により取り込まれた床面の頂点に対応する点の座標(床面の位置座標)を指定する処理を実施する。
床面の位置座標の指定方法は、ユーザが画像を見ながら指定してもよいし、何らかの方法で自動的に指定してもよい。
この実施の形態1では、背景画像における床面座標を指定しているが、背景画像以外のオリジナル画像における床面座標を指定するようにしてよい。
The floor coordinate designating
The method for specifying the position coordinates of the floor surface may be specified by the user while viewing the image, or may be automatically specified by some method.
In the first embodiment, the floor surface coordinates in the background image are designated, but the floor surface coordinates in the original image other than the background image may be designated.
入力画像座標取得部46はオブジェクト位置座標算出部43により算出されたオリジナル画像n内のオブジェクトの位置座標、または、画像内床面座標指定部45により指定された背景画像n内の床面の位置座標のいずれか一方を選択する処理を実施する。
なお、オブジェクト抽出部42、オブジェクト位置座標算出部43、床平面図入力部44、画像内床面座標指定部45及び入力画像座標取得部46から床面位置取得手段が構成されている。
The input image coordinate
The
マルチビュー変換式生成部47はマルチビュー画像生成手段30によるマルチビュー変換時の画像変換パラメータとして、カメラ水平軸歪補正パラメータ算出部12により算出したカメラ水平軸歪補正パラメータと、透視投影歪補正パラメータ算出部13により算出した透視投影歪補正パラメータと、画像間倍率算出部16により算出された画像間倍率とを収集し、そのカメラ水平軸歪補正パラメータ、透視投影歪補正パラメータ及び画像間倍率を用いて、オリジナル画像をマルチビュー画像に変換したとき、そのオリジナル画像上のある位置の座標が、マルチビュー画像上のどの座標に変換されるかを算出することができるマルチビュー変換式(例えば、3×3の行列)を生成する処理を実施する。
逆マルチビュー変換式生成部48はマルチビュー変換式生成部47により生成されたマルチビュー変換式の逆変換式である逆マルチビュー変換式を生成する処理を実施する。逆マルチビュー変換式により、マルチビュー画像上のある位置の座標がマルチビュー変換される前のオリジナル画像では、どの座標であったのかを算出することができる。
The multi-view conversion
The inverse multiview conversion
変換画像座標算出部49はマルチビュー変換式生成部47により生成されたマルチビュー変換式を用いて、入力画像座標取得部46により選択されたオリジナル画像n内のオブジェクトの位置座標(または、背景画像n内の床面の位置座標)をマルチビュー画像上の位置座標に変換する処理を実施する。
オリジナル画像座標算出部50は逆マルチビュー変換式生成部48により生成された逆マルチビュー変換式を用いて、変換画像座標算出部49により変換されたマルチビュー画像上の位置座標(各カメラ1−n(1≦n≦N)のオリジナル画像nから変換されたマルチビュー画像上の位置座標)を、ある1つのカメラ(例えば、カメラ1−1)のオリジナル画像上の位置座標に変換する処理を実施する。
ここで、ある1つのカメラのオリジナル画像は、例えば、現在、画像生成装置により表示されているオリジナル画像であってもよいし、マルチビュー画像を撮影したカメラのオリジナル画像であってもよいし、その他のカメラのオリジナル画像であってもよい。
The converted image coordinate
The original image coordinate
Here, the original image of a certain camera may be, for example, the original image currently displayed by the image generation device, or the original image of the camera that captured the multi-view image, It may be an original image of another camera.
平面射影変換算出部51は床平面図入力部44により取り込まれた床面の頂点(平面図上の4点以上の座標値)と、画像内床面座標指定部45により指定された背景画像n内の床面の位置座標(床面の頂点に対応する4点以上の座標値)とから、床平面図座標算出部53が床平面図座標を算出する際に使用する平面射影変換行列(例えば、3×3の行列)をカメラ1−n毎に算出する処理を実施する。
平面射影変換算出部52は床平面図入力部44により取り込まれた床面の頂点(平面図上の4点以上の座標値)と、画像内床面座標指定部45により指定された背景画像n内の床面の位置座標(床面の頂点に対応する4点以上の座標値)とから、オリジナル画像座標算出部55がオリジナル画像上の座標を算出する際に使用する平面射影変換行列(例えば、3×3の行列)をカメラ1−n毎に算出する処理を実施する。
なお、あるカメラで撮影された画像においては、平面射影変換算出部51により算出される平面射影変換行列と、平面射影変換算出部52により算出される平面射影変換行列とが、互いに逆行列の関係である場合が多いので、その場合には、どちらか一方の平面射影変換行列を算出してから、その平面射影変換行列の逆行列を数学的に算出して、残る一方の平面射影変換行列を求めるようにしてもよい。
The plane projective
The plane projective
Note that, in an image shot by a certain camera, the plane projection transformation matrix calculated by the plane projection
床平面図座標算出部53は平面射影変換算出部51により算出された平面射影変換行列を用いて、オリジナル画像座標算出部50により算出されたオリジナル画像上の位置座標(例えば、カメラ1−1のオリジナル画像上の位置座標)を床面の平面図上の位置座標に変換する処理を実施する。
なお、マルチビュー変換式生成部47、逆マルチビュー変換式生成部48、変換画像座標算出部49、オリジナル画像座標算出部50、平面射影変換算出部51及び床平面図座標算出部53から平面射影変換手段が構成されている。
The floor plan coordinate
Note that the multi-view conversion
床平面図中間座標算出部54は床平面図座標算出部53により変換された1以上のオブジェクトの平面図上の位置座標の中から、平面図上では、見かけ上異なる同一オブジェクトに係る複数の位置座標を特定し、複数の位置座標の中間点を決定する処理を実施する。
即ち、床平面図中間座標算出部54は同一オブジェクトに係る複数の位置座標の中間点を決定する際、マルチビュー対象の物体の平面図上の位置を中心とする円又は楕円の円弧上にある点を中間点として決定する。なお、床平面図中間座標算出部54は中間点決定手段を構成している。
The floor plan intermediate coordinate
That is, the floor plan intermediate coordinate
オリジナル画像座標算出部55は平面射影変換算出部52により算出された平面射影変換行列を用いて、床平面図中間座標算出部54により決定された中間点をオリジナル画像上の位置座標に変換する処理を実施する。
このとき、1つのオリジナル画像上の座標に変換してもよいし、カメラが異なるいくつかのオリジナル画像上の座標に変換してもよい。
変換画像座標算出部56はマルチビュー変換式生成部47により生成されたマルチビュー変換式を用いて、オリジナル画像座標算出部55により変換されたオリジナル画像上の位置座標をマルチビュー画像上の位置座標に変換する処理を実施する。
The original image coordinate
At this time, it may be converted into coordinates on one original image, or may be converted into coordinates on several original images with different cameras.
The converted image coordinate
床面中間画像用平面射影変換算出部57は変換画像座標算出部49により変換されたマルチビュー画像上の位置座標と、変換画像座標算出部56により変換されたマルチビュー画像上の位置座標とから、床面中間画像生成部59が床面の中間画像を生成する際に使用する平面射影変換行列(例えば、3×3の行列)を算出する処理を実施する。
床面領域抽出部58は画像データ一時保存部2に保存されているカメラ1−n(1≦n≦N)の背景画像nから床面領域を抽出する処理を実施する。
床面領域の抽出方法として、ユーザが背景画像から床面領域を指定する方法がある。
また、例えば、平面射影変換行列算出部8により算出されたカメラ間の平面射影変換行列を用いて、あるカメラにより撮影された背景画像を、別のカメラにより撮影された背景画像に変換し、両者の画素毎の差分を行って、その差分がある閾値以下である画素に対し、例えば、収縮処理、拡大処理などを実施して床面領域を決定するようにしてもよい。
また、背景画像を使用しないで、オブジェクトが撮影されている画像からメディアンフィルタなどを用いて背景画像に相当する画像を生成して利用するようにしてもよい。
The floor surface intermediate image plane projection
The floor
As a method for extracting a floor area, there is a method in which a user designates a floor area from a background image.
Further, for example, using a plane projection conversion matrix between cameras calculated by the plane projection conversion matrix calculation unit 8, a background image shot by one camera is converted into a background image shot by another camera, and both The floor area may be determined by performing, for example, a contraction process, an enlargement process, or the like on pixels whose difference is equal to or less than a certain threshold.
Further, without using a background image, an image corresponding to the background image may be generated and used from an image in which an object is photographed using a median filter or the like.
床面中間画像生成部59は床面中間画像用平面射影変換算出部57により算出された平面射影変換行列を用いて、床面領域抽出部58により抽出された床面領域を床面の中間画像に変換する処理を実施する。
なお、平面射影変換算出部52、オリジナル画像座標算出部55、変換画像座標算出部56、床面中間画像用平面射影変換算出部57、床面領域抽出部58及び床面中間画像生成部59から床面画像生成手段が構成されている。
The floor intermediate
From the plane projection
中間画像用オブジェクト生成部60はオブジェクト抽出部42により抽出されたオブジェクトから中間画像用のオブジェクトを生成する処理を実施する。
中間画像用のオブジェクトの生成方法は、例えば、非特許文献「矢口悟志他 “未校正多視点カメラシステムを用いた任意視点画像生成”情報処理学会論文誌:コンピュータビジョンとイメージメディア Vol.42 No.SIG 6(CVIM 2) June 2001」に開示されており、特に、「3.2節 式(3)(p13)」に記述されている任意視点画像を用いて中間画像用のオブジェクトを生成する。
The intermediate image object generation unit 60 performs processing for generating an intermediate image object from the objects extracted by the
A method for generating an object for an intermediate image is described in, for example, the non-patent document “Satoru Yaguchi et al. SIG 6 (CVIM 2) June 2001 ”, and in particular, an object for an intermediate image is generated using an arbitrary viewpoint image described in“ Section 3.2 (3) (p13) ”.
オブジェクトサイズ修正部61は中間画像オブジェクト生成部60により生成された中間画像用のオブジェクトがオリジナル画像座標算出部55により変換されたマルチビュー画像上の位置座標に存在するものとして、マルチビュー変換式生成部47により生成されたマルチビュー変換式を用いて、中間画像用のオブジェクトのサイズを修正する処理を実施する。
中間画像生成部62は変換画像座標算出部56により変換されたマルチビュー画像上の位置座標において、オブジェクトサイズ修正部61によりサイズが修正された中間画像用のオブジェクトを床面中間画像生成部59により生成された床面の中間画像に上書きすることにより、中間画像を生成する処理を実施する。
なお、中間画像用オブジェクト生成部60、オブジェクトサイズ修正部61及び中間画像生成部62から中間画像生成手段が構成されている。
The object
The intermediate
The intermediate image generating unit 60, the object
次に動作について説明する。
図2は8台のカメラ1−n(1≦n≦8)を使用して画像を撮影している様子を示す説明図であり、図3はカメラ1−1,1−3,1−5,1−7により撮影された画像を示す説明図である。
Next, the operation will be described.
FIG. 2 is an explanatory diagram showing a situation where images are taken using eight cameras 1-n (1 ≦ n ≦ 8), and FIG. 3 shows cameras 1-1, 1-3, and 1-5. , 1-7 are explanatory diagrams showing images taken by 1-7.
この実施の形態1では、図2に示すように、水平な平面で構成される床面を考え、その床面に「ぬいぐるみ」や「花瓶」を置き、「ぬいぐるみ」や「花瓶」の周囲を囲むように、ほぼ同じ大きさの三脚に固定された8台のカメラ1−n(1≦n≦8)を並べるものとする。
ただし、8台のカメラ1−n(1≦n≦8)の全てが、図2に示している「全カメラの視野に入る床面領域」を撮影できる位置に設置されているものとする。
図2では、8台のカメラ1−nの設置形態や「全カメラの視野に入る床面領域」を、円形又は楕円形の点線で示しているが、実際にはこの点線は存在しなくてよい。
In the first embodiment, as shown in FIG. 2, a floor surface composed of a horizontal plane is considered, and a “stuffed animal” or “vase” is placed on the floor surface, and the surroundings of the “stuffed animal” or “vase” are arranged. It is assumed that eight cameras 1-n (1 ≦ n ≦ 8) fixed on a tripod of substantially the same size are arranged so as to surround.
However, it is assumed that all of the eight cameras 1-n (1 ≦ n ≦ 8) are installed at positions where the “floor surface area within the field of view of all cameras” shown in FIG.
In FIG. 2, the installation form of the eight cameras 1-n and the “floor area that falls within the field of view of all cameras” are indicated by a circular or elliptical dotted line. However, this dotted line does not actually exist. Good.
また、図2の例では、「全カメラの視野に入る床面領域」の枠一杯に収まる四角形のマーキングが施されており、8台のカメラ1−n(1≦n≦8)の全てが「ぬいぐるみ」や「花瓶」に邪魔されずにマーキングの4つの角を撮影できる状態にあるものとする。
図2の例では、四角形のマーキングを利用するものについて示しているが、4点以上を撮影できるものであれば、四角形のマーキングに限るものではない。
また、8台のカメラ1−nが4点を同時に撮影するものとしているが、少なくとも4つ以上の同じ点が、異なる2つのカメラで同時に撮影できればよく、四角形の4角でなくてもよい。
Further, in the example of FIG. 2, a square marking that fits the frame of “a floor area that falls within the field of view of all cameras” is provided, and all eight cameras 1-n (1 ≦ n ≦ 8) It is assumed that the four corners of the marking can be photographed without being disturbed by “stuffed animals” or “vases”.
In the example of FIG. 2, a case using a quadrangular marking is shown, but it is not limited to a quadrangular marking as long as four or more points can be photographed.
In addition, although eight cameras 1-n are supposed to shoot four points at the same time, it is sufficient that at least four or more of the same points can be shot simultaneously by two different cameras, and they may not be quadrangular four corners.
図2において、垂直基準棒は「全カメラの視野に入る床面領域」の中央付近に垂直に立てられた棒であり、全体の長さの2分の1の位置にマーキングが施されている。
この垂直基準棒の最上位の頂点と、中央のマーキングと、床面と接している接点は、8台のカメラ1−n(1≦n≦8)の全てが「ぬいぐるみ」や「花瓶」に邪魔されずに撮影できる状態にあるものとする。
また、この垂直基準棒は十分細く、カメラ1−n(1≦n≦8)により撮影された場合、直線と見なすことができるものとする。
In FIG. 2, the vertical reference bar is a bar that stands vertically near the center of the “floor area that enters the field of view of all cameras”, and is marked at a position that is half the total length. .
The topmost vertex of the vertical reference bar, the center marking, and the contact point in contact with the floor surface are all the eight cameras 1-n (1 ≦ n ≦ 8) are used as “stuffed animals” and “vases”. It is assumed that the camera can be photographed without interruption.
The vertical reference rod is sufficiently thin and can be regarded as a straight line when photographed by the camera 1-n (1 ≦ n ≦ 8).
図2の例では、垂直基準棒は、異なる方向毎に撮影された場合の大きさの読み取りと、平面に垂直な直線の無限遠点を画像に投影した消失点を算出することを目的に利用されるものである。
垂直基準棒は、精度を高めるため、上記のような形態をしているが、垂直基準棒を大きさの読み取りのみに使用し、消失点の算出には、後で述べるような別の方法で算出するようにしてもよい。この場合、垂直基準棒は、上記のような形態でなくてもよく、例えば、実際の人などで代用してもよい。
In the example of FIG. 2, the vertical reference rod is used for the purpose of reading the size when taken in different directions and calculating the vanishing point obtained by projecting the infinity point of a straight line perpendicular to the plane onto the image. It is what is done.
The vertical reference bar is shaped as described above to improve accuracy, but the vertical reference bar is used only for reading the size, and the vanishing point is calculated by another method as described later. You may make it calculate. In this case, the vertical reference rod does not have to have the form as described above, and may be substituted by, for example, an actual person.
図2の垂直基準棒は、全体の長さの2分の1の位置にマーキングが施されているが、2分の1の位置でなくてもよく、その比率が分っていればよい。
また、図2の垂直基準棒は、「全カメラの視野に入る床面領域」の中央付近に立てられているが、中央付近でなくてよい。
また、図2の垂直基準棒は、最上位の頂点と、床面と接している接点と、中央のマーキングが、全てのカメラ1−n(1≦n≦8)から撮影可能としているが、必ずしも同じ垂直基準棒が撮影可能でなくてもよい。例えば、カメラ1−1とカメラ1−2で共通に撮影された垂直基準棒Aと、カメラ1−1とカメラ1−3で共通に撮影された垂直基準棒Bとが同じでなくてもよい。この場合は、カメラ1−1において、垂直基準棒Aの大きさと、垂直基準棒Bの大きさが分ればよい。
The vertical reference bar in FIG. 2 is marked at a position of a half of the entire length, but may not be a position of a half, and it is sufficient that the ratio is known.
Further, the vertical reference bar in FIG. 2 is set near the center of the “floor surface area that enters the field of view of all cameras”, but it may not be near the center.
In addition, the vertical reference bar in FIG. 2 can be photographed from all the cameras 1-n (1 ≦ n ≦ 8), with the topmost vertex, the contact point in contact with the floor surface, and the central marking. It is not always necessary to photograph the same vertical reference rod. For example, the vertical reference bar A photographed in common by the camera 1-1 and the camera 1-2 and the vertical reference stick B photographed in common by the camera 1-1 and the camera 1-3 may not be the same. . In this case, it is only necessary to know the size of the vertical reference rod A and the size of the vertical reference rod B in the camera 1-1.
なお、この実施の形態1では、垂直方向や大きさの基準として、棒である垂直基準棒を利用しているが、この場合、いったん設置してしまえば形が崩れにくく、直線の測定が容易である利点がある。
この実施の形態1では、垂直基準棒を利用しているが、紐などを利用してもよい。この場合、先端に錘などを付け、その錘を垂直に垂らして、先端が床に接するようにすればよい。この場合、垂直方向の精度が高く、また、長さの調整が容易である利点がある。
In the first embodiment, a vertical reference rod, which is a rod, is used as a reference for the vertical direction and size. In this case, once installed, the shape is not easily lost, and straight lines can be easily measured. There is an advantage that is.
In the first embodiment, a vertical reference rod is used, but a string or the like may be used. In this case, a weight or the like is attached to the tip, and the weight is suspended vertically so that the tip contacts the floor. In this case, there are advantages that the accuracy in the vertical direction is high and the length can be easily adjusted.
図2では、カメラ1−7用の水平基準棒が描かれている。
水平基準棒は、例えば、対象とするカメラ(図3の例では、カメラ1−7)の光軸が、床面に垂直な方向に沿って、平面に投影した直線に平行となるように床面に設置されている。
また、水平基準棒の長さの2分の1の箇所にマーキングが施されている。この水平基準棒の両端と中央のマーキングは、カメラ1−7から「ぬいぐるみ」や「花瓶」に邪魔されず、撮影できる状態にあるものとする。
また、この水平基準棒は十分細く、カメラ1−7により撮影された場合、直線と見なすことができるものとする。
In FIG. 2, a horizontal reference bar for the camera 1-7 is drawn.
The horizontal reference bar is, for example, a floor so that the optical axis of the target camera (camera 1-7 in the example of FIG. 3) is parallel to a straight line projected onto a plane along a direction perpendicular to the floor surface. It is installed on the surface.
In addition, marking is provided at a half of the length of the horizontal reference bar. It is assumed that the markings at both ends and the center of the horizontal reference bar are ready to be photographed without being disturbed by the “stuffed toy” or “vase” from the camera 1-7.
The horizontal reference rod is sufficiently thin and can be regarded as a straight line when photographed by the camera 1-7.
また、この水平基準棒は、全体の長さの2分の1の位置にマーキングが施されているが、2分の1の位置でなくてもよく、その比率が分っていればよい。
また、水平基準棒は、例えば「カメラの光軸を床面に垂直な方向に沿って床面に投影した直線に平行になるように床面に設置されている」としているが、この場合、精度が向上しやすいという利点がある。
この他、水平基準棒は、どちらの方向でもよく、その水平基準棒を含む床面上の直線の無限遠点を、画像に投影した消失点を利用すればよい。この場合、カメラ毎に、水平基準棒を移動させなくてよい利点がある。
In addition, the horizontal reference bar is marked at a position that is a half of the entire length, but it may not be a position that is a half, and it is sufficient that the ratio is known.
In addition, the horizontal reference bar is, for example, “installed on the floor so that the optical axis of the camera is parallel to a straight line projected on the floor along the direction perpendicular to the floor”, but in this case, There is an advantage that accuracy is easily improved.
In addition, the horizontal reference bar may be in either direction, and a vanishing point obtained by projecting a straight infinity point on the floor surface including the horizontal reference bar onto the image may be used. In this case, there is an advantage that it is not necessary to move the horizontal reference rod for each camera.
さらに、図2に示すように「床面にマーキングされた四角形の辺」を利用してもよい。
また、この四角形を正方形や長方形、平行四辺形としておき、その向かい合った2つの辺を用いて床面上の直線の無限遠点を求め、その無限遠点を画像に投影した消失点を利用してもよい。
なお、この実施の形態1では、水平基準棒という棒を水平方向の基準として利用しているが、上記で記載した「垂直基準棒の代わりに紐を用いる例」のように、紐などで代替してもよい。その場合、紐が直線状になるように張力をかけておく必要があるが、垂直基準棒を紐で代替した場合と同じような利点が得られる。
Furthermore, as shown in FIG. 2, “a square side marked on the floor surface” may be used.
In addition, this quadrilateral is set as a square, a rectangle, or a parallelogram, and the infinity point of the straight line on the floor surface is obtained using the two sides facing each other, and the vanishing point obtained by projecting the infinity point onto the image is used. May be.
In the first embodiment, a bar called a horizontal reference bar is used as a horizontal reference, but it can be replaced with a string or the like as described above in the “example of using a string instead of a vertical reference bar”. May be. In that case, it is necessary to apply tension so that the string becomes a straight line, but the same advantage as the case where the vertical reference bar is replaced with the string can be obtained.
この実施の形態1では、カメラ1−1〜1−8は、外部からの同じ同期タイミングによってシャッターを切り、また、同じ同期タイミングのフレームによって画像を撮影する。
このような同期したタイミングによる撮影は、被写体が動く場合には必須であるが、例えば、「ぬいぐるみ」や「花瓶」、水平基準棒/垂直基準棒、床面のマーキングなどが動かない場合は、同期していなくてもよい。その場合は、カメラ1−1〜1−8を8台用意しないで、1台のカメラで順次撮影してもよい。
また、被写体が動く場合には必須であるとしたが、撮影するフレーム周期が十分短くて、その間に動く量が十分少なければ、必ずしも同期していなくてもよい。
In the first embodiment, the cameras 1-1 to 1-8 release the shutter at the same synchronization timing from the outside, and shoot an image with a frame at the same synchronization timing.
Shooting with such synchronized timing is essential when the subject moves. For example, if the stuffed animal, vase, horizontal reference bar / vertical reference bar, floor marking, etc. do not move, It does not have to be synchronized. In that case, it is possible to sequentially shoot with one camera without preparing eight cameras 1-1 to 1-8.
Although it is indispensable when the subject moves, it does not necessarily have to be synchronized if the frame period to be photographed is sufficiently short and the amount of movement during that period is small enough.
また、この実施の形態1では、「ぬいぐるみ」や「花瓶」などのマルチビューしたい被写体と、マルチビューするために必要なパラメータを得るための水平基準棒/垂直基準棒や床面のマーキングなどを撮影した後、カメラを移動させないまま、水平基準棒/垂直基準棒や床面のマーキングなどを撤去して、「ぬいぐるみ」などのマルチビューしたい被写体を設置して撮影するようにしてもよい。この場合、カメラを動かさないように注意する必要があるが、水平基準棒/垂直基準棒や床面のマーキングが、マルチビューしたい被写体に遮られること無く撮影できるという利点がある。 In the first embodiment, a subject to be multi-viewed such as “stuffed toy” or “vase”, a horizontal reference bar / vertical reference bar for obtaining a parameter necessary for multi-viewing, a floor marking, etc. After taking a picture, the horizontal reference bar / vertical reference stick and the marking on the floor surface may be removed without moving the camera, and a subject to be multi-viewed such as “stuffed toy” may be placed and photographed. In this case, care must be taken not to move the camera, but there is an advantage that the horizontal reference bar / vertical reference bar and the marking on the floor surface can be photographed without being obstructed by the subject to be multiviewed.
以下、画像生成装置におけるマルチビュー画像生成手段30の処理内容を具体的に説明する。
カメラ1−n(1≦n≦8)が相互に異なる方向から同一の3次元領域を撮影すると、画像データ一時保存部2がカメラ1−n(1≦n≦8)により撮影されたオリジナル画像n(1≦n≦8)を一時的に保存する。
Hereinafter, the processing content of the multi-view image generation means 30 in the image generation apparatus will be described in detail.
When the camera 1-n (1 ≦ n ≦ 8) captures the same three-dimensional area from different directions, the image data
マルチビュー位置指定部3は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)の中から任意のオリジナル画像n1の選択を受け付け、そのオリジナル画像n1に存在するマルチビュー対象の物体(ユーザがマルチビューを希望する物体)の床面上の位置を示す画像座標の指定を受け付ける処理を実施する。
マルチビュー位置指定部3における画像座標の読み取りは、ユーザがオリジナル画像n1を見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
When the image data
The image coordinates are read by the multi-view
また、基準位置指定部4は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)の中から任意のオリジナル画像n2の選択を受け付け、そのオリジナル画像n2に存在する垂直基準棒が床面に垂直に接している床面上の位置を示す画像座標の指定を受け付ける処理を実施する。
基準位置指定部4における画像座標の読み取りは、ユーザがオリジナル画像n2を見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
床面座標読取部5は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)の床面上に共通に存在しているマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を読み取る処理を実施する。
床面座標読取部5における画像座標の読み取りは、ユーザがオリジナル画像nを見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
Further, when the image data
The reading of the image coordinates in the reference
When the image data
The reading of the image coordinates in the floor surface coordinate reading unit 5 may be performed by, for example, operating the mouse to specify the position in the image while the user views the original image n, thereby reading the image coordinates at that position. Alternatively, it may be automatically specified by some method.
また、水平消失点算出部6は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)毎に、オリジナル画像nの水平消失点、即ち、例えば、カメラ1−nの光軸を床面に垂直な方向に投影した床面上の直線の無限遠点をオリジナル画像に投影した消失点の画像座標を算出する。
水平消失点の算出方法としては、例えば、上記床面の上記条件を満たす直線上におかれた水平基準棒を使用して求めることができる。
即ち、水平基準棒には、マーキングが施されており、そのマーキングの実際の位置と、画像上の見かけの位置から水平消失点を求めることができる(水平消失点の詳細な求め方は、垂直消失点の求め方と同様であるため、後述する垂直消失点の求め方を参照)。
この他、上記床面上の直線に平行な直線を2つ以上設定して、それらの直線を画像に投影した場合の交点を消失点として利用することもできる。
In addition, when the image data
As a method of calculating the horizontal vanishing point, for example, it can be obtained by using a horizontal reference bar placed on a straight line that satisfies the above-mentioned conditions of the floor surface.
That is, the horizontal reference bar is marked, and the horizontal vanishing point can be obtained from the actual position of the marking and the apparent position on the image. Since this is the same as the method for obtaining the vanishing point, see the method for obtaining the vertical vanishing point described later).
In addition, it is also possible to set two or more straight lines parallel to the straight line on the floor and use the intersection point when these straight lines are projected on the image as vanishing points.
垂直消失点算出部7は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)毎に、オリジナル画像nの垂直消失点、即ち、床面に垂直な直線の無限遠点を画像に投影した消失点の画像座標を算出する。
以下、垂直消失点の算出方法の一例を説明する。
この実施の形態1では、全てのオリジナル画像n(1≦n≦8)に垂直基準棒が存在しており、垂直基準棒は、図6に示すように、その長さ方向の中央にマーキングが施されている。
垂直基準棒が図6に示すように画像に投影されている場合において、垂直基準棒上の3点X1、X2、X3と、3点X1、X2、X3を通る直線上の無限遠点X∞が、画像において、それぞれx1、x2、x3、x∞に投影されたものとする。
When the image data
Hereinafter, an example of a method for calculating the vertical vanishing point will be described.
In the first embodiment, a vertical reference bar exists in all original images n (1 ≦ n ≦ 8), and the vertical reference bar has a marking at the center in the length direction as shown in FIG. It has been subjected.
When the vertical reference bar is projected on the image as shown in FIG. 6, the three points X1, X2, and X3 on the vertical reference bar and the infinity point X ∞ on the straight line passing through the three points X1, X2, and X3. but in the image, respectively x1, x2, x3, and those projected to x ∞.
このとき、このような直線上の4点から計算される複比は、投影前後では不変であるので、以下の式(1)が成立する。
また、|x1−x2|/|x1−x3|は、画像座標から得ることができるので、垂直消失点x∞の座標(xvin,yvin)を算出することができる。
詳細は非特許文献「小島他 “消失点を用いた多視点カメラキャリブレーション”FIT2004」に開示されている。
この他、上記床面に垂直な直線(棒などで代用する)を2つ以上設定して、それらの直線を画像に投影した場合の2つの直線の交点を垂直消失点として利用することもできる。
At this time, since the cross ratio calculated from the four points on the straight line is unchanged before and after the projection, the following equation (1) is established.
Since | x 1 −x 2 | / | x 1 −x 3 | can be obtained from the image coordinates, the coordinates (x vin , y vin ) of the vertical vanishing point x ∞ can be calculated.
Details are disclosed in the non-patent document “Kojima et al.“ Multi-viewpoint camera calibration using vanishing points ”FIT 2004”.
In addition, it is possible to set two or more straight lines (substitute with a bar or the like) perpendicular to the floor surface and use the intersection of the two straight lines as a vertical vanishing point when these straight lines are projected on an image. .
平面射影変換行列算出部8は、床面座標読取部5がオリジナル画像n(1≦n≦8)の例えば、床面上に共通に存在しているマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を読み取ると、オリジナル画像n1と他のオリジナル画像n(オリジナル画像n1を除く)におけるマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を使用して、オリジナル画像n1と他のオリジナル画像n(オリジナル画像n1を除く)間で、床面を構成する平面の平面射影変換行列Hn1-1〜Hn1-8(1≦n1≦8の7個)を算出する。
また、平面射影変換行列算出部8は、オリジナル画像n2と他のオリジナル画像n(オリジナル画像n2を除く)におけるマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を使用して、オリジナル画像n2と他のオリジナル画像n(オリジナル画像n2を除く)間で、床面を構成する平面の平面射影変換行列Hn2-1〜Hn2-8(1≦n2≦8の7個)を算出する。
なお、平面射影変換行列の算出方法は、例えば、非特許文献「出口光一郎 “ロボットビジョンの基礎”p47(本文献ではホモグラフィー行列と記載されている)」に記載されている。
The planar projective transformation matrix calculation unit 8 is configured such that the floor coordinate reading unit 5 has the marking vertex (1) and vertex (2) that are commonly present on the floor surface of the original image n (1 ≦ n ≦ 8), for example. When the image coordinates of the vertex (3) and the vertex (4) are read, the marking vertex (1), vertex (2), vertex (in the original image n 1 and other original images n (excluding the original image n 1 ) 3) Using the image coordinates of the vertex (4), a plane projective transformation matrix H n1− of the plane constituting the floor surface between the original image n 1 and another original image n (excluding the original image n 1 ). 1 to H n1-8 (1 ≦ n 1 ≦ 7) are calculated.
Further, the plane projective transformation matrix calculation unit 8 performs marking vertex (1), vertex (2), vertex (3), vertex (4) in the original image n 2 and other original images n (excluding the original image n 2 ). ), The plane projection transformation matrices H n2-1 to H n2-8 of the plane constituting the floor surface between the original image n 2 and another original image n (excluding the original image n 2 ) are used. (7 of 1 ≦ n 2 ≦ 8) is calculated.
The calculation method of the planar projective transformation matrix is described in, for example, the non-patent document “Koichiro Deguchi“ Basics of Robot Vision ”p47 (described as a homography matrix in this document)”.
マルチビュー位置算出部9は、平面射影変換行列算出部8が平面射影変換行列Hn1-1〜Hn1-8を算出すると、その平面射影変換行列Hn1-1〜Hn1-8を用いて、オリジナル画像n(オリジナル画像n1を除く)に存在するマルチビュー対象の物体の床面上の位置を示す画像座標を算出する。
即ち、マルチビュー位置算出部9は、平面射影変換行列Hn1-1〜Hn1-8を用いて、マルチビュー位置指定部3により指定が受け付けられたマルチビュー対象の物体の床面上の位置を示す画像座標、または、マルチビュー画像座標変換部22により変換された画像座標を、オリジナル画像n(オリジナル画像n1を除く)の画像座標に変換することにより、オリジナル画像n(オリジナル画像n1を除く)に存在するマルチビュー対象の物体の床面上の位置を示す画像座標を算出する。
なお、マルチビュー位置指定部3により指定が受け付けられたマルチビュー対象の物体の床面上の位置を示す画像座標を変換するか、あるいは、マルチビュー画像座標変換部22により変換された画像座標を変換するかは、例えば、システムの起動時のみ、前者を選択するようにしてもよいし、両者を常に監視しておいて、変化があった方を選択するようにしてもよい。
When the plane projection transformation matrix calculation unit 8 calculates the plane projection transformation matrices H n1-1 to H n1-8 , the multi-view
That is, the multi-view
Note that the image coordinates indicating the position on the floor surface of the object of the multi-view target that has been designated by the multi-view
基準位置算出部10は、平面射影変換行列算出部8が平面射影変換行列Hn2-1〜Hn2-8を算出すると、その平面射影変換行列Hn2-1〜Hn2-8を用いて、オリジナル画像n(オリジナル画像n2を除く)に存在する垂直基準棒の床面上の位置を示す画像座標を算出する。
即ち、基準位置算出部10は、平面射影変換行列Hn2-1〜Hn2-8を用いて、基準位置指定部4により指定が受け付けられたオリジナル画像n2内の垂直基準棒の床面位置を示す画像座標を、オリジナル画像n(オリジナル画像n2を除く)の画像座標に変換することにより、オリジナル画像n(オリジナル画像n2を除く)に存在する垂直基準棒の床面上の位置を示す画像座標を算出する。
When the plane projection transformation matrix calculation unit 8 calculates the plane projection transformation matrices H n2-1 to H n2-8 , the reference
That is, the reference
ここまでは、マルチビュー位置指定部3により選択が受け付けられたオリジナル画像がオリジナル画像n1であり、基準位置指定部4により選択が受け付けられたオリジナル画像がオリジナル画像n2であるものについて示したが、オリジナル画像n1とオリジナル画像n2が別々の画像でも、同一の画像でもよい。
オリジナル画像n1とオリジナル画像n2が同一のオリジナル画像であれば(n1=n2)、平面射影行列は、Hn1-1〜Hn1-8(1≦n1≦8)の7個のみでよい。
以後、n1=n2である場合について説明する。
Up to this point, the original image whose selection has been received by the multi-view
If the original image n 1 and the original image n 2 are the same original image (n 1 = n 2 ), there are seven plane projection matrices H n1-1 to H n1-8 (1 ≦ n 1 ≦ 8). Only need.
Hereinafter, a case where n 1 = n 2 will be described.
画像内倍率算出部11は、マルチビュー位置算出部9がオリジナル画像n(1≦n≦8)に存在するマルチビュー対象の床面位置を示す画像座標を算出し、基準位置算出部10がオリジナル画像nに存在する垂直基準棒の床面上の位置を示す画像座標を算出すると、それらの画像座標と、水平消失点算出部6により算出されたオリジナル画像nの水平消失点の画像座標とを用いて、マルチビュー対象の物体を垂直基準棒と同じ奥行きの床面位置まで移動させた場合のマルチビュー対象の物体の画像内倍率mn(マルチビュー対象の物体の大きさの見え方の変化倍率)を算出する。
The in-image
以下、画像内倍率の算出方法を説明する。
図4は水平消失点が画像中心にある場合で、カメラの光軸が床面に平行になるように、かつ、カメラ画像の横軸がほぼ床面に平行になるように設置されている例を示す説明図である。
また、図5は水平消失点が画像の中心より上方にある場合で、カメラ画像の横軸がほぼ床面に平行であるが、カメラの光軸を水平な床面に対して、やや下向きにして撮影している例を示す説明図である。
Hereinafter, a method for calculating the in-image magnification will be described.
FIG. 4 shows an example in which the horizontal vanishing point is at the center of the image, and the camera is installed so that the optical axis of the camera is parallel to the floor and the horizontal axis of the camera image is substantially parallel to the floor. It is explanatory drawing which shows.
FIG. 5 shows a case where the horizontal vanishing point is above the center of the image, and the horizontal axis of the camera image is substantially parallel to the floor surface, but the optical axis of the camera is slightly downward with respect to the horizontal floor surface. It is explanatory drawing which shows the example currently image | photographed.
図4及び図5において、水平消失点の座標を(xhin,yhin)、マルチビュー対象の物体の位置座標を(xmv,ymv)、垂直基準棒と同じ奥行きの位置座標を(xb,yb)とすると、マルチビュー対象の物体を垂直基準棒の位置に移動させた場合、マルチビュー対象の物体の大きさは以下の式(2)のように近似することができる。したがって、以下の式(2)から画像内倍率mnを算出することができる。
カメラ水平軸歪補正パラメータ算出部12は、垂直消失点算出部7がオリジナル画像n(1≦n≦8)の垂直消失点x∞の座標(xvin,yvin)を算出すると、オリジナル画像nの垂直消失点x∞の座標(xvin,yvin)を用いて、オリジナル画像nを撮影する際のカメラ1−nの傾きに起因する水平軸歪の補正パラメータを算出する。
即ち、カメラ水平軸歪補正パラメータ算出部12は、例えば、図6に示すような画像の垂直軸に対して、画像の中心点B(xsize/2,ysize/2)と垂直消失点x∞とを結ぶ直線の傾き(角度rz)をカメラ水平軸歪と近似できると見なして、その角度rzを算出する。
例えば、オリジナル画像の横サイズがxsize、縦サイズがysizeであり、垂直消失点x∞の座標が(xvin,yvin)であって、yvin≫xsize、yvin≫ysizeであるとすると、以下の式(3)が成立する。
That is, for example, the camera horizontal axis distortion correction
For example, the horizontal size of the original image is x size , the vertical size is y size , the coordinates of the vertical vanishing point x ∞ are (x vin , y vin ), and y vin >> x size , y vin >> y size If there is, the following equation (3) is established.
ここでは、画像の垂直軸に対して、画像の中心点B(xsize/2,ysize/2)と垂直消失点x∞とを結ぶ直線の傾き(角度rz)をカメラ水平軸歪と近似できると見なして、その角度rzを算出するものについて示したが、画像の垂直軸に対して、画像の上端の中点(xsize/2,0)や、画像の下端の中点(xsize/2,ysize)とを結ぶ直線の傾きをカメラ水平軸歪と近似できると見なしてもよい。
さらに、近似ではなく、正確な角度を算出して利用してもよい。
また、これ以外の画像の上端の中点(xsize/2,0)と、画像の下端の中点(xsize/2,ysize)を結ぶ直線上の点を用いてもよく、これ以外の画像内部の点を用いてもよい。さらには、画像を含む平面上の点を利用してもよい。
Here, with respect to the vertical axis of the image, the inclination (angle rz) of the straight line connecting the center point B (x size / 2, y size / 2) of the image and the vertical vanishing point x ∞ is approximated to the camera horizontal axis distortion. Assuming that it is possible to calculate the angle rz, the center point of the upper end of the image (x size / 2, 0) and the center point of the lower end of the image (x size are shown). / 2, y size ) may be regarded as being able to approximate the camera horizontal axis distortion.
Furthermore, instead of approximation, an accurate angle may be calculated and used.
Also, the other image of the upper end of the middle point (x size / 2,0), the midpoint of the lower end of the image (x size / 2, y size ) may be used a point on a line connecting the, other A point inside the image may be used. Furthermore, you may utilize the point on the plane containing an image.
透視投影歪補正パラメータ算出部13は、垂直消失点算出部7がオリジナル画像n(1≦n≦8)の垂直消失点x∞の座標(xvin,yvin)を算出すると、垂直消失点x∞の座標(xvin,yvin)を用いて、カメラ1−nの撮影時に3次元空間を2次元平面に透視投影することに起因する画像の透視投影歪の補正パラメータを算出する。
透視投影歪は、カメラで撮影することにより生じたと考えられる歪、即ち、3次元空間内の物体を平面に射影変換したことによって発生したと考えられる歪であり、例えば、3次元空間において、水平な床面に対して垂直な直線が複数ある場合、それらの直線を画像に透視投影した場合、画像上では直線が互いに平行でなくなる現象である。
The perspective projection distortion correction
The perspective projection distortion is a distortion that is considered to be caused by photographing with a camera, that is, a distortion that is considered to be generated by projective transformation of an object in a three-dimensional space to a plane. This is a phenomenon in which when there are a plurality of straight lines perpendicular to the floor surface and the straight lines are projected on the image, the straight lines are not parallel to each other on the image.
透視投影歪補正パラメータ算出部13では、図6に示すように、先にカメラ水平軸歪を補正した画像に対して、画像の中心点B(xsize/2,ysize/2)を含む画像の水平ラインの第1画素(0,ysize/2)と垂直消失点とを結ぶ直線と、カメラ水平軸歪を補正した後の画像の垂直軸とのなす角(角度rx)で透視投影歪が近似できると見なして、その角度rxを算出する。
例えば、オリジナル画像の横サイズがxsize、縦サイズがysizeであり、垂直消失点x∞の座標が(xvin,yvin)であって、yvin≫xsize、yvin≫ysizeであるとすると、以下の式(4)が成立する。
For example, the horizontal size of the original image is x size , the vertical size is y size , the coordinates of the vertical vanishing point x ∞ are (x vin , y vin ), and y vin >> x size , y vin >> y size If there is, the following equation (4) is established.
ここでは、水平軸歪の補正角度rzが十分小さいものとして、透視投影歪の補正角度rxを、「画像の中心点B(xsize/2,ysize/2)を含む画像の水平ラインの第1画素(0,ysize/2)における垂直軸の傾き(角度rx)で透視投影歪が近似できる」と見なしているが、図6に示すように、直線BX∞に垂直な画像の中心点を通る直線上の点の座標を利用してもよい。
また、「画像の中心点B(xsize/2,ysize/2)を含む画像の水平ラインの第xsize画素(xsize,ysize/2)における垂直軸の傾きで透視投影歪が近似できる」としてもよく、その他の画像の左右両端上の点を結ぶ直線を利用してもよく、これ以外の画像内の点を結ぶ直線を利用してもよい。
さらに、近似ではなく、正確な角度を算出して利用してもよい。
Here, assuming that the horizontal axis distortion correction angle rz is sufficiently small, the perspective projection distortion correction angle rx is defined as “the first horizontal line of the image including the center point B (x size / 2, y size / 2) of the image”. It is assumed that the perspective projection distortion can be approximated by the inclination (angle rx) of the vertical axis at one pixel (0, y size / 2). However, as shown in FIG. 6, the center point of the image perpendicular to the straight line BX ∞ The coordinates of a point on a straight line passing through may be used.
Further, “the perspective projection distortion is approximated by the inclination of the vertical axis at the x size pixel (x size , y size / 2) of the horizontal line of the image including the center point B (x size / 2, y size / 2) of the image. Can be used ", a straight line connecting points on the left and right ends of another image may be used, or a straight line connecting points in the other image may be used.
Furthermore, instead of approximation, an accurate angle may be calculated and used.
1次補正画像生成部14は、カメラ水平軸歪補正パラメータ算出部12が水平軸歪の補正パラメータを算出し、透視投影歪補正パラメータ算出部13が透視投影歪の補正パラメータを算出すると、その水平軸歪の補正パラメータと透視投影歪の補正パラメータとを用いて、オリジナル画像nの水平軸歪と透視投影歪を補正し、補正後の画像を1次補正画像n(1≦n≦8)として出力する。
即ち、1次補正画像生成部14は、図7に示すように、3次元座標の原点を画像中心とし、かつ、その画像がXY平面に含まれるように3次元座標軸を設定し、透視投影のスクリーンをZ軸に垂直な平面上に設定し、また、視点をZ軸上に設定する場合を考える。
このとき、画像をZ軸の周りにrz回転し、X軸の周りにrx回転した場合のスクリーンへの透視投影像を算出し、これを1次補正画像として出力する。
このとき、rzはカメラ水平歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータであり、rxは透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータである。
When the camera horizontal axis distortion correction
That is, as shown in FIG. 7, the primary corrected
At this time, the image is rotated by rz around the Z axis, and a perspective projection image on the screen when the image is rotated by rx around the X axis is calculated and output as a primary correction image.
At this time, rz is a horizontal axis distortion correction parameter calculated by the camera horizontal distortion correction
図8は図7の3次元座標をX軸の正方向から見た説明図である。
図8の例では、カメラ水平軸歪補正パラメータ算出部12が画像中心における水平軸歪の補正パラメータを算出し、透視投影歪補正パラメータ算出部13が画像中心を含む画像の水平軸上の点における透視変換歪補正パラメータを算出し、1次補正画像生成部14が画像中心を原点とする透視投影変換を実施するが、画像中心でない点の水平軸歪の補正パラメータと透視変換歪の補正パラメータを算出しておき、その画像中心でない点を原点とする透視投影変換を実施してもよい。また、両者を一致させないで、透視変換を行ってもよい。
FIG. 8 is an explanatory view of the three-dimensional coordinates of FIG. 7 viewed from the positive direction of the X axis.
In the example of FIG. 8, the camera horizontal axis distortion correction
基準長読取部15は、1次補正画像生成部14が1次補正画像n(1≦n≦8)を出力すると、その1次補正画像n内の垂直基準棒の見かけの長さLnを読み取る。このとき、ユーザが1次補正画像nを見ながら読み取ってもよいし、何らかの方法で自動的に読み取ってもよい。
ここでは、1次補正画像n内の垂直基準棒の見かけの長さLnを読み取るものについて示したが、オリジナル画像n内の垂直基準棒の見かけの長さLnを読み取るようにしてもよい。
この場合、処理が単純になるため、処理速度の向上を図ることができる効果がある。
画像間倍率算出部16は、基準長読取部15が1次補正画像n内の垂直基準棒の見かけの長さLnを読み取ると、1次補正画像n内の垂直基準棒の見かけの長さLnと、画像内倍率算出部11により算出されたマルチビュー対象の物体の画像内倍率mnとを用いて、1次補正画像n(1≦n≦8)におけるマルチビュー対象の物体を同じ大きさで表示する場合の画像間倍率mo1nを1次補正画像n毎に算出する。
When the primary correction
Here, the reading of the apparent length L n of the vertical reference bar in the primary correction image n is shown, but the apparent length L n of the vertical reference bar in the original image n may be read. .
In this case, since the process becomes simple, there is an effect that the processing speed can be improved.
When the reference length reading unit 15 reads the apparent length L n of the vertical reference bar in the primary correction image n, the inter-image
式(5)のL1は、倍率molnを適当な範囲に収めるために使用される定数であるため、実際の基準棒の見かけの長さそのものでなくてもよく、全てのオリジナル画像nで同じであればよい。
Since L 1 in equation (5) is a constant used to keep the magnification moln within an appropriate range, it does not have to be the apparent length of the actual reference bar itself, and in all original images n If it is the same.
2次補正画像生成部17は、画像間倍率算出部16が画像間倍率mo1nを1次補正画像n毎に算出すると、その画像間倍率mo1nと、カメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータとを用いて、2次透視変換を実施することにより、オリジナル画像n(1≦n≦8)の歪や大きさを補正し、補正後の画像を2次補正画像n(1≦n≦8)として出力する。
即ち、2次補正画像生成部17は、1次補正画像生成部14と同様に、3次元座標軸を設定して、スクリーン上に透視変換画像を生成し、2次補正画像として出力する。
このとき、1次補正画像生成部14では、Z軸の回転rzとX軸の回転rx以外のパラメータである画像の倍率(スクリーン上に透視変換された画像の倍率)が1倍であるものを示したが、この2次補正画像生成部17では、上記スクリーン上の倍率をmo1nとしている。
When the inter-image
That is, like the primary correction
At this time, the primary correction
2次透視変換座標算出部18は、2次補正画像生成部17がカメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータと、画像間倍率算出部16により算出された画像間倍率とを用いて、2次透視変換を実施した場合のマルチビュー対象の物体の画像座標(マルチビュー対象の物体の移動先の画像座標)を算出する。
移動パラメータ算出部19は、2次透視変換座標算出部18がマルチビュー対象の物体の移動先の画像座標を算出すると、その移動先の画像座標と、画像中心(例えば、640×480の画像の場合、画像中心は(320,240))とのずれを移動パラメータとして算出する。
ここでは、画像中心にマルチビュー対象の物体が移動するように、画像中心とのずれを算出するものについて示したが、画像内の他の位置にマルチビュー対象の物体が移動するように、他の位置とのずれを算出するようにしてもよい。
The secondary perspective transformation coordinate
When the secondary perspective transformation coordinate
In this example, the deviation from the center of the image is calculated so that the multi-view target object moves to the center of the image. The deviation from the position may be calculated.
マルチビュー画像生成部20は、移動パラメータ算出部19が移動パラメータを算出すると、その移動パラメータにしたがって、2次補正画像生成部17から出力された2次補正画像n(1≦n≦8)を移動させることにより、マルチビュー対象の物体が画像の中心に存在するマルチビュー画像n(1≦n≦8)を生成する。
即ち、マルチビュー画像生成部20は、2次補正画像生成部17から出力された2次補正画像n(1≦n≦8)を移動パラメータが示す移動量だけ移動することにより、2次補正画像n(1≦n≦8)からマルチビュー画像n(1≦n≦8)を生成する。
When the movement
That is, the multi-view
図9は「ぬいぐるみ」の大きさが各画像で同じであり、かつ、「ぬいぐるみ」が各画像の中心に位置するように、図3の画像を変換している例を示す説明図である。
ただし、見易くするため、各画像に写っていた水平基準棒と垂直基準棒を省いている。
FIG. 9 is an explanatory diagram illustrating an example in which the image of FIG. 3 is converted so that the size of the “stuffed animal” is the same in each image and the “stuffed animal” is positioned at the center of each image.
However, for ease of viewing, the horizontal reference bar and the vertical reference bar that are shown in each image are omitted.
マルチビュー位置指定部21は、マルチビュー画像生成部20により生成されたマルチビュー画像n(1≦n≦8)に対して、新たなマルチビューの位置の指定を受け付ける処理を実施する。
新たなマルチビューの位置の指定は、ユーザがマルチビュー画像を見ながら指定してもよいし、何らかの方法で自動的に指定してもよい。
The multi-view
The new multi-view position may be specified while the user is viewing the multi-view image, or may be automatically specified by some method.
マルチビュー画像座標変換部22は、マルチビュー位置指定部21から新たなマルチビューの位置を受けると、移動パラメータ算出部19により算出された移動パラメータの逆移動パラメータと、2次透視変換座標算出部18により算出された2次透視変換の逆変換と、平面射影変換行列算出部8により算出された平面射影変換行列の逆変換行列とを用いて、マルチビュー位置指定部21により指定が受け付けられたマルチビュー画像n(1≦n≦8)上の座標位置(新たなマルチビューの位置)を、オリジナル画像n(1≦n≦8)上の座標位置に変換する。
ここでは、平面射影変換行列算出部8により算出された平面射影変換行列の逆変換行列を用いて、マルチビュー画像n(1≦n≦8)上の座標位置をオリジナル画像n(1≦n≦8)上の座標位置に変換するものについて示したが、平面射影変換行列の逆変換行列を用いないことでオリジナル画像n(1≦n≦8)上の座標位置に変換された段階の座標位置を、マルチビュー位置算出部9により算出されるオリジナル画像n毎のマルチビュー位置に相当する座標位置の代用としてもよい。
When the multi-view image coordinate
Here, using the inverse transformation matrix of the planar projection transformation matrix calculated by the planar projection transformation matrix calculation unit 8, the coordinate position on the multi-view image n (1 ≦ n ≦ 8) is converted to the original image n (1 ≦ n ≦ 8). 8) Although shown about what is converted to the upper coordinate position, the coordinate position at the stage of being converted to the coordinate position on the original image n (1 ≦ n ≦ 8) by not using the inverse transformation matrix of the planar projective transformation matrix May be substituted for the coordinate position corresponding to the multi-view position for each original image n calculated by the multi-view
ここまでは、画像生成装置におけるマルチビュー画像生成手段30の処理内容である。
マルチビュー画像生成手段30を図1のように構成することにより、下記の効果を奏することができる。
マルチビュー画像生成手段30では、マルチビュー位置算出部9により算出されたマルチビュー対象の物体の位置と、基準位置算出部10により算出された垂直基準棒の床面位置と、基準長読取部15により算出された垂直基準棒の大きさを用いて、オリジナル画像n(1≦n≦8)におけるマルチビュー対象の物体の位置を揃え、かつ、マルチビュー対象の物体の大きさを同じにする画像倍率をオリジナル画像n毎に算出し、その画像倍率にしたがってオリジナル画像nを変換するように構成したので、高精度のカメラキャリブレーションを実施することなく、被写体の大きさや位置などが一致している見易い臨場感のある画像を生成することができる効果を奏する。
Up to this point, the processing content of the multi-view image generation unit 30 in the image generation apparatus has been described.
By configuring the multi-view image generating means 30 as shown in FIG. 1, the following effects can be obtained.
In the multi-view image generation unit 30, the position of the object to be multi-view calculated by the multi-view
即ち、この実施の形態1によれば、ある平面に接して置かれている物体がある方向から撮影された画像Aの変換後のマルチビュー画像と、その物体が別の方向から撮影された画像Bの変換後のマルチビュー画像とにおいては、上記物体の位置が同じで、かつ、大きさが等しいものになる。
また、マルチビュー画像を見ながら、平面上の異なる位置に置かれている別の物体の位置を指定することにより、その別の物体の位置が同じで、かつ、大きささが等しい新たなマルチビュー画像を、画像Aと画像Bから容易に生成することができる。
In other words, according to the first embodiment, an object placed in contact with a certain plane and a multi-view image after conversion of the image A photographed from a certain direction and an image obtained by photographing the object from another direction. In the multi-view image after the conversion of B, the position of the object is the same and the size is the same.
In addition, by specifying the position of another object placed at a different position on the plane while viewing the multi-view image, a new multi-view with the same position and the same size of the other object An image can be easily generated from images A and B.
例えば、上記カメラの光軸を床面に対して垂直に投影した直線である平面上の直線の無限遠点をオリジナル画像に投影した点である消失点(水平消失点)の位置と、画像Aと画像Bに写っている同じ物体Sの位置及び大きさと、物体Tの位置とから、物体Tの大きさが変換後の画像で同じになるような倍率を求めるので、物体Sと物体Tが上記平面内のどこにあっても、大きさを同じにするための倍率を精度良く求めることができる。
画像Aと画像Bのカメラの横方向の傾きに起因する歪と、撮影時の透視投影の原理に起因する歪とを、上記平面に対して垂直な直線の無限遠点を画像に投影した点である消失点(垂直消失点)と画像内部の点を結ぶ直線が画像の垂直軸となす角を、3次元空間に置いた画像の回転角として回転した後の透視投影変換を利用して、画像補正を行っているので、画像補正に伴って生じる物体の歪が少ない画像補正を行うことができる。また、補正に必要なパラメータを容易に決定することができる。
For example, the position of a vanishing point (horizontal vanishing point), which is a point obtained by projecting an infinite point of a straight line on a plane, which is a straight line obtained by projecting the optical axis of the camera perpendicularly to the floor surface, and an image A And the position and size of the same object S appearing in the image B and the position of the object T, a magnification is obtained so that the size of the object T is the same in the converted image. The magnification for making the size the same can be obtained with high precision anywhere in the plane.
A point obtained by projecting a distortion caused by the horizontal tilt of the camera of images A and B and a distortion caused by the principle of perspective projection at the time of photographing onto an image at a point at a straight line at infinity perpendicular to the plane. Using the perspective projection transformation after rotating the angle formed by the straight line connecting the vanishing point (vertical vanishing point) and the point inside the image with the vertical axis of the image as the rotation angle of the image placed in the three-dimensional space, Since image correction is performed, it is possible to perform image correction with less distortion of an object caused by image correction. In addition, parameters necessary for correction can be easily determined.
画像A内の物体が置かれている位置aの座標が分った場合に、画像B内の物体が置かれている位置bの座標を、上記平面に関する平面射影変換行列を用いて算出することで、位置aと位置bが画像内で同じ位置にくるような画像の移動を、平面上のすべての点に対し、精度よく、また効率よく行うことができる。 When the coordinates of the position a where the object in the image A is placed are known, the coordinates of the position b where the object in the image B is placed are calculated using the plane projective transformation matrix for the plane. Thus, the movement of the image such that the position a and the position b are at the same position in the image can be accurately and efficiently performed for all points on the plane.
なお、この実施の形態1では、カメラを“理想的なピンホールカメラモデル”と仮定している。この“理想的なピンホールカメラモデル”では、カメラの内部パラメータであるカメラの光学中心がオリジナル画像の画像中心と一致し、また、その他のカメラの内部パラメータも、カメラ座標のXYZ軸が互いに直交し、かつ、そのカメラ座標とそのカメラによって撮影された画像座標とが一致するような値であると仮定される。
これらの仮定が成立しないときは、上記仮定の誤差を考慮して、上記アルゴリズムを改良する必要がある。ただし、多くの場合、通常のカメラで撮影した画像を用いて、この実施の形態1の処理内容を実施しても問題が生じることは少ない。
“理想的なピンホールカメラモデル”、“カメラの内部パラメータ”については、非特許文献「出口光一郎 ロボットビジョンの基礎 コロナ社」などに開示されている。
In the first embodiment, the camera is assumed to be an “ideal pinhole camera model”. In this “ideal pinhole camera model”, the camera's optical center, which is an internal parameter of the camera, coincides with the image center of the original image, and the XYZ axes of the camera coordinates of other camera's internal parameters are orthogonal to each other. In addition, it is assumed that the camera coordinates coincide with the image coordinates photographed by the camera.
When these assumptions do not hold, it is necessary to improve the algorithm in consideration of errors in the assumptions. However, in many cases, there is little problem even if the processing content of the first embodiment is performed using an image captured by a normal camera.
The “ideal pinhole camera model” and “internal parameters of the camera” are disclosed in non-patent documents such as Koichiro Deguchi Robot Vision Basic Corona.
また、この実施の形態1では、カメラのオリジナル画像に対して、レンズ歪(歪曲収差)を無視している。
この“レンズ歪”には、たる型歪や糸巻き型歪と呼ばれる歪が含まれるが、この“レンズ歪”は良いレンズを良い条件で使用する限り、無視できるものである。ただし、使用レンズの性能やカメラと被写体の距離、撮影後にカメラで行われる画像処理などによっては、必ずしも無視できない場合がある。
この“レンズ歪”が無視できない場合は、オリジナル画像に対してレンズ歪を補正してから、この実施の形態1のオリジナル画像として使用すればよく、それ以降のアルゴリズムを改良する必要はない。
レンズ収差歪の補正に関しては、非特許文献「出口光一郎 ロボットビジョンの基礎 コロナ社」などに開示されている。
In the first embodiment, lens distortion (distortion aberration) is ignored for the original image of the camera.
This “lens distortion” includes distortion called barrel distortion and pincushion distortion, but this “lens distortion” is negligible as long as a good lens is used under good conditions. However, it may not always be ignored depending on the performance of the lens used, the distance between the camera and the subject, and image processing performed by the camera after shooting.
If this “lens distortion” cannot be ignored, the lens distortion is corrected for the original image and then used as the original image of the first embodiment, and the subsequent algorithm does not need to be improved.
The correction of lens aberration distortion is disclosed in a non-patent document “Koichiro Deguchi Robot Vision Basic Corona”.
次に、画像生成装置における図10の処理部の処理内容を具体的に説明する。
図10の例では、N台(N=8)のカメラが設置されているが、カメラ1−1,1−3,1−5,1−7により撮影されたオリジナル画像のみを使用するものとし、それ以外のカメラ1−2,1−4,1−6,1−8により撮影されたオリジナル画像は使用しないものとする。数多くのカメラを使用すれば、画像生成装置で生成されるマルチビュー画像の中間画像の精度が向上する。
ここで、マルチビュー画像の中間画像は、例えば、カメラ1−1により撮影されたオリジナル画像がマルチビュー変換されたマルチビュー画像と、カメラ1−3により撮影されたオリジナル画像がマルチビュー変換されたマルチビュー画像とがあるとき、2つのマルチビュー画像の中間の位置にある仮想的なカメラで撮影された画像に相当する画像のことである。
Next, the processing content of the processing unit in FIG. 10 in the image generation apparatus will be specifically described.
In the example of FIG. 10, N cameras (N = 8) are installed, but only original images taken by the cameras 1-1, 1-3, 1-5, and 1-7 are used. The other original images taken by the cameras 1-2, 1-4, 1-6, and 1-8 are not used. If a large number of cameras are used, the accuracy of the intermediate image of the multi-view image generated by the image generation device is improved.
Here, the intermediate image of the multi-view image is, for example, a multi-view image obtained by multi-view conversion of the original image captured by the camera 1-1 and a multi-view conversion of the original image captured by the camera 1-3. When there is a multi-view image, it is an image corresponding to an image photographed by a virtual camera located at an intermediate position between two multi-view images.
背景画像データ保存部41は、画像データ一時保存部2からカメラ1−n(1≦n≦8)により撮影された背景画像であるオリジナル画像nを取得して、その背景画像nをカメラ1−n毎に保存する。
ここで、「背景画像」は、画面内に動いている物体や、今後動くことが予想される物体が撮影されていない画像である。
背景画像は、ユーザが複数の画像の中から選択するようにしてもよいし、ユーザが生成するようにしてもよい。また、後述する方法を実施して、自動的に生成するようにしてもよい。
一般的には、動く物体が何もない状態を撮影して背景画像とすることが多い。
背景画像の自動的な選択方法又は生成方法としては、例えば、動く物体が撮影されている画像からメディアンフィルタなどを用いて背景画像を生成する方法などがある。
背景画像データ保存部41に保存する背景画像は、周期的又は非周期的に取得しなおしてもよい。また、背景画像毎の差分などを求めて、人物などのオブジェクト抽出に影響を与えないことが判明している変動がある閾値以上あったとき、背景画像を更新するようにしてもよい。
The background image
Here, the “background image” is an image in which an object moving in the screen or an object expected to move in the future is not photographed.
The background image may be selected by the user from a plurality of images, or may be generated by the user. Further, it may be automatically generated by executing a method described later.
In general, a background image is often obtained by photographing a state where there is no moving object.
As a background image automatic selection method or generation method, for example, there is a method of generating a background image from an image of a moving object photographed using a median filter or the like.
The background image stored in the background image
オブジェクト抽出部42は、画像データ一時保存部2からカメラ1−nにより撮影されたオリジナル画像nを取得するとともに、背景画像データ保存部41からカメラ1−nにより撮影された背景画像nを取得する。
次に、オブジェクト抽出部42は、そのオリジナル画像nと背景画像nに対する画像処理を実施して、オリジナル画像n内のオブジェクトを抽出する。
即ち、オブジェクト抽出部42は、オリジナル画像nと背景画像nにおける同じ位置の画素の差分などを求めて動きのある画素を判定し、動きのある画素の位置を2値画像で表現し、その2値画像に対して収縮処理、拡大処理、ラベリング処理などを実施して、オリジナル画像n内のオブジェクトを抽出する。
収縮処理、拡大処理、ラベリング処理などは、例えば「井上誠喜 C言語で学ぶ実践画像処理 オーム社」に開示されている。
The
Next, the
That is, the
Shrinkage processing, enlargement processing, labeling processing, and the like are disclosed in, for example, “Practical image processing learned by C language Ohmsha”.
ここで、オリジナル画像n内のオブジェクトは、例えば、背景画像の撮影後に置かれた「ぬいぐるみ」や、背景画像の領域を通過する「歩行者」などが該当する。
図28はオブジェクトを説明する説明図であり、(a)は背景画像、(b)はオブジェクトを含む画像、(c)は(b)のオブジェクトを含む画像と(a)の背景画像の差分を求めることにより抽出されるオブジェクトの像である。
また、図11はカメラ1−1,1−3,1−5,1−7により撮影された背景画像(図28(a)の背景画像に相当する)を示し、図12はカメラ1−1,1−3,1−5,1−7により撮影されたオブジェクトを含む画像(図28(b)のオブジェクトを含む画像に相当する)を示している。このとき、カメラ1−1,1−3,1−5,1−7は移動せずに、図11及び図12の画像を撮影している。
Here, the object in the original image n corresponds to, for example, a “stuffed toy” placed after shooting the background image or a “pedestrian” passing through the background image area.
FIG. 28 is an explanatory diagram for explaining an object. (A) is a background image, (b) is an image including the object, (c) is a difference between the image including the object of (b) and the background image of (a). It is an image of the object extracted by obtaining.
FIG. 11 shows a background image (corresponding to the background image of FIG. 28A) taken by the cameras 1-1, 1-3, 1-5, and 1-7, and FIG. 12 shows the camera 1-1. , 1-3, 1-5, and 1-7, an image including an object (corresponding to an image including the object in FIG. 28B) is shown. At this time, the cameras 1-1, 1-3, 1-5, and 1-7 do not move and take the images of FIGS. 11 and 12.
ただし、図11及び図12では、垂直方向や水平方向の消失点は既に判明しているとして、それらの消失点を計測するための垂直基準棒や水平基準棒を撮影していない。
また、図11の背景画像には、床面の四角形のマーキングしか書き込んでいない。
図14はオブジェクト抽出部42により抽出されるカメラ1−1,1−3,1−5,1−7のオブジェクトの像である。
However, in FIGS. 11 and 12, the vanishing points in the vertical direction and the horizontal direction are already known, and the vertical reference bar and the horizontal reference bar for measuring the vanishing points are not photographed.
Further, only the square marking on the floor surface is written in the background image of FIG.
FIG. 14 is an image of the objects of the cameras 1-1, 1-3, 1-5, and 1-7 extracted by the
ここでは、オブジェクト抽出部42が、例えば、人物などが撮影されていない背景画像と、人物が撮影されている画像との差分を求めてオブジェクトを抽出するものを示しているが、人物が撮影されている画像の画素やブロック毎の動きをフレーム毎に比較することで検出して、オブジェクトを抽出するようにしてもよい。
また、2つ以上のカメラによる画像を画素やブロック毎に比較する(例えば、ステレオマッチングと呼ばれる処理)ことで、オブジェクトまでの距離を求めて、オブジェクトを抽出するようにしてもよい。
それ以外の方法としては、例えば、音波やレーザー光線を用いる3次元的な測定などを実施して、オブジェクトを抽出するようにしてもよい。
Here, although the
Further, by comparing the images from two or more cameras for each pixel or block (for example, a process called stereo matching), the distance to the object may be obtained to extract the object.
As another method, for example, an object may be extracted by performing three-dimensional measurement using a sound wave or a laser beam.
オブジェクト位置座標算出部43は、オブジェクト抽出部42がオブジェクトを抽出すると、オリジナル画像n内におけるオブジェクトの位置座標を算出する。
即ち、オブジェクト位置座標算出部43は、オブジェクト抽出部42により抽出されたオブジェクトの像の重心点や、オブジェクトの像の内部の点であって、最近傍の輪郭までの距離が最大の点などから、画像の下方向の消失点方向、または、画像の垂直方向の消失点方向に引いた垂直線を画像毎に求める。
次に、オブジェクト位置座標算出部43は、平面射影変換行列算出部8により算出された平面射影変換行列を用いて、画像毎の垂直線のうちのある画像の垂直線を別の画像上に変換し、変換した垂直線と、別の画像の垂直線との交点をオブジェクトの位置として算出する。
The object position coordinate
That is, the object position coordinate
Next, the object position coordinate
図15はオブジェクト位置座標算出部43により算出されたオブジェクトの位置を示す説明図である。
図15において、実線は、あるカメラで撮影されたオリジナル画像(例えば、オリジナル画像1とする)から抽出されたオブジェクト1の重心点などから、その画像の垂直方向の消失点に向かって引かれた垂直線である。
破線は、別のカメラで撮影されたオリジナル画像(例えば、オリジナル画像2とする)内のオブジェクトのうち、オリジナル画像1のオブジェクト1と同じオブジェクトに対し、その重心点などから垂直方向の消失点に引いた直線を、平面射影変換行列算出部8により算出された平面射影変換行列を用いて、オリジナル画像1上に書き込んだ直線である。
このとき、あるオブジェクトが存在する領域をカメラ1−1,1−2,1−3,・・・,1−7で取り囲んで撮影している場合、異なるカメラで撮影された各オリジナル画像内のオブジェクトの位置は異なる。
FIG. 15 is an explanatory diagram showing the position of the object calculated by the object position coordinate
In FIG. 15, a solid line is drawn from the center of gravity of the
A broken line indicates a vanishing point in the vertical direction from the center of gravity of an object in the original image (for example, the original image 2) taken by another camera, for the same object as the
At this time, when an area where a certain object exists is surrounded by the cameras 1-1, 1-2, 1-3,..., 1-7, the area in each original image captured by a different camera is captured. The position of the object is different.
この例では、全てのオリジナル画像nにおいて、オブジェクトの位置を算出しているが、ある1つのカメラにより撮影された画像において、オブジェクトの位置を算出し、平面射影変換行列算出部8により算出された平面射影変換行列を用いて、そのオブジェクトの位置を他のカメラにより撮影されたオリジナル画像上の位置に変換し、その位置を当該オリジナル画像内のオブジェクトの位置としてもよい。
このほか、抽出されたオブジェクトの像の最下位点を単純にオブジェクトの位置座標としてもよいし、オブジェクトの像を縦方向にいくつかに分割し、分割した部分画像毎の最下位点の座標値の平均をオブジェクトの位置座標としてもよい。このとき、位置座標のx座標値とy座標値を異なる方法で決定してもよい。
In this example, the position of the object is calculated in all the original images n. However, the position of the object is calculated in an image photographed by a certain camera, and is calculated by the planar projective transformation matrix calculation unit 8. Using the planar projective transformation matrix, the position of the object may be converted to a position on the original image taken by another camera, and the position may be used as the position of the object in the original image.
In addition, the lowest point of the extracted object image may be simply used as the position coordinates of the object, or the image of the object is divided into several parts in the vertical direction, and the coordinate value of the lowest point of each divided partial image. The average of these may be used as the position coordinates of the object. At this time, the x coordinate value and the y coordinate value of the position coordinate may be determined by different methods.
また、オブジェクトの像が例えば人物であることや、その人物までの撮影距離をあらかじめ予想することで、オブジェクト位置座標算出部43により算出されたオブジェクトの位置座標を修正してもよい。
これらの方法は、画像内部に複数のオブジェクトが抽出された場合、精度の高い方法(例えば、図15で示した方法)でオブジェクトの位置座標を決定する前に、あるカメラのオリジナル画像内のあるオブジェクトが、別のカメラのオリジナル画像内のどのオブジェクトに対応するかを決定するのに使用してもよい。
Further, the position coordinates of the object calculated by the object position coordinate
In these methods, when a plurality of objects are extracted in an image, before the position coordinates of the object are determined by a highly accurate method (for example, the method shown in FIG. 15), It may be used to determine which object in the original image of another camera corresponds to the object.
床平面図入力部44は、カメラ1−1,1−2,・・・,1−Nで共通に撮影される床面の平面図の取り込みを行う。
「床面の平面図」においては、例えば、床面にマーキングされている四角形の形状が正方形であれば、「床面の平面図」内のその四角形は正方形であり、縦横比がa:bの長方形であればa:bの長方形であり、四角形の4つの頂点が相似形で決定することができればよく、大きさは適当でよい。
また、床面にマーキングされている形状が四角形以外の三角形や、それ以外の多角形や、それ以外の形状であってもよく、平面上の4つ以上の点の位置関係が、「床面の平面図」においては幾何学的な相似形であればよい。
この実施の形態1では、正方形の4つ頂点を床面上にマーキングしている例を示すが、部屋の床の4隅や上部が平面である台など、そのマーキングの内側のみに平面が存在するものであってもよい。
図3、図12及び「床面の平面図」である図16では、床面にマーキングされた四角形を実線で示している。
なお、これ以降の説明では、四角形の頂点(1)が画像の中心付近に配置されているものとする(図16を参照)。
The floor
In the “plan view of the floor surface”, for example, if the quadrangular shape marked on the floor surface is a square, the square in the “plan view of the floor surface” is a square, and the aspect ratio is a: b. Is a rectangle of a: b, and it is sufficient that the four vertices of the quadrangle can be determined by similar shapes, and the size may be appropriate.
In addition, the shape marked on the floor surface may be a triangle other than a quadrangle, other polygons, or other shapes, and the positional relationship between four or more points on the plane is “floor surface”. In the “plan view” of FIG.
In the first embodiment, an example is shown in which four vertices of a square are marked on the floor surface, but there are planes only inside the markings, such as platforms where the four corners and upper part of the floor of the room are flat surfaces. You may do.
In FIG. 3, FIG. 12, and FIG. 16, which is a “plan view of the floor surface”, a quadrangle marked on the floor surface is indicated by a solid line.
In the following description, it is assumed that the square vertex (1) is arranged near the center of the image (see FIG. 16).
画像内床面座標指定部45は、背景画像データ保存部2に保存されている背景画像nにおいて、床平面図入力部44により取り込まれた床面の頂点(1)〜(4)に対応する点の座標(床面の位置座標)を指定する。
床面の位置座標の指定方法は、ユーザが画像を見ながら指定してもよいし、何らかの方法で自動的に指定してもよい。
この実施の形態1では、背景画像における床面座標を指定しているが、背景画像以外のオリジナル画像における床面座標を指定するようにしてよい。
The in-image floor coordinate
The method for specifying the position coordinates of the floor surface may be specified by the user while viewing the image, or may be automatically specified by some method.
In the first embodiment, the floor surface coordinates in the background image are designated, but the floor surface coordinates in the original image other than the background image may be designated.
図13はカメラ1−1,1−3,1−5,1−7により撮影されたオリジナル画像内において指定された床面の位置座標を示している。破線は見やすいように補助線として記載している。
ここでは、床平面図入力部44で決定した床面上の位置が、そのオリジナル画像内のどの位置にあたるかを、画像内床面座標指定部45で座標を指定しているものを示したが、逆に、画像内床面座標指定部45で指定したオリジナル画像内の床面上の位置を、平面図入力部44で床面の平面図として入力するようにしてもよい。
また、直接、オリジナル画像上で指定するのではなく、オリジナル画像をマルチビュー変換したマルチビュー画像上で指定し、後述する逆マルチビュー変換でオリジナル画像上の座標に変換してもよい。
また、平面射影変換行列算出部8により算出された平面射影変換行列を用いて、別のカメラにより撮影されたオリジナル画像上の位置から、必要とするカメラで撮影されたオリジナル画像上の座標に変換するようにしてもよい。
FIG. 13 shows the position coordinates of the floor surface designated in the original image taken by the cameras 1-1, 1-3, 1-5, and 1-7. The broken lines are shown as auxiliary lines for easy viewing.
In this example, the position on the floor determined by the floor
Further, instead of specifying directly on the original image, the original image may be specified on a multi-view image obtained by multi-view conversion, and converted to coordinates on the original image by inverse multi-view conversion described later.
Also, using the plane projection transformation matrix calculated by the plane projection transformation matrix calculator 8, the position on the original image taken by another camera is converted to the coordinates on the original image taken by the required camera. You may make it do.
この実施の形態1では、床平面図入力部44で指定された点に対応する点を、画像内床面座標指定部45で指定しているが、これは床平面図入力部44で、正方形や長方形など平面図を作成しやすい図形を指定した上で、その図形を床面にマーキングし、画像内床面座標指定部45が、その様子を撮影した画像から、そのマーキングした位置の座標を指定している。これには、平面図が作成しやすく、また、床面のマーキングが容易であるという効果がある。
このほか、図1の床面座標読取部5で読み取った床面上の位置を床面上で測定するなどして、床平面図入力部44で床面の平面図を生成してもよい。この場合は、既に床面座標読取部5で床面の座標を読み取っているので、画像内床面座標指定部45は不要である。
In the first embodiment, the point corresponding to the point designated by the floor
In addition, the floor plan
入力画像座標取得部46は、オブジェクト位置座標算出部43により算出されたオリジナル画像n内のオブジェクトの位置座標、または、画像内床面座標指定部45により指定された背景画像n内の床面の位置座標のいずれか一方を選択する。
The input image coordinate
マルチビュー変換式生成部47は、マルチビュー画像生成手段30によるマルチビュー変換時の画像変換パラメータとして、カメラ水平軸歪補正パラメータ算出部12により算出したカメラ水平軸歪補正パラメータと、透視投影歪補正パラメータ算出部13により算出した透視投影歪補正パラメータと、画像間倍率算出部16により算出された画像間倍率とを収集する。
次に、マルチビュー変換式生成部47は、そのカメラ水平軸歪補正パラメータ、透視投影歪補正パラメータ及び画像間倍率を用いて、カメラ1−1,1−3,1−5,1−7により撮影されたオリジナル画像をマルチビュー画像に変換したとき、それらのオリジナル画像上のある位置の座標が、マルチビュー画像上のどの座標に変換されるかを算出することができるマルチビュー変換式(例えば、3×3の行列)を生成する。
なお、マルチビュー変換式は、カメラ水平軸歪補正パラメータ、透視投影歪補正パラメータ及び画像間倍率を変数とするオリジナル画像とマルチビュー画像間の画像変換式である。
The multi-view conversion
Next, the multi-view conversion
Note that the multi-view conversion formula is an image conversion formula between an original image and a multi-view image using the camera horizontal axis distortion correction parameter, the perspective projection distortion correction parameter, and the magnification between images as variables.
逆マルチビュー変換式生成部48は、マルチビュー変換式生成部47がマルチビュー変換式を生成すると、マルチビュー画像上のある位置の座標が、マルチビュー変換される前のオリジナル画像ではどの座標であったのかを算出することができる逆マルチビュー変換式を生成する。
逆マルチビュー変換式は、マルチビュー変換式生成部47により生成されたマルチビュー変換式の逆行列を数学的に算出することで求めることができる。
また、それ以外の方法として、例えば、マルチビュー変換を構成する幾つかの変換を、逆に実行することで、逆マルチビュー変換式を求めてもよい。
When the multi-view conversion
The inverse multiview conversion equation can be obtained by mathematically calculating the inverse matrix of the multiview conversion equation generated by the multiview conversion
As another method, for example, an inverse multi-view transformation expression may be obtained by executing several transformations constituting the multi-view transformation in reverse.
変換画像座標算出部49は、入力画像座標取得部46がオリジナル画像n内のオブジェクトの位置座標、または、背景画像n内の床面の位置座標を選択し、マルチビュー変換式生成部47がマルチビュー変換式を生成すると、そのマルチビュー変換式を用いて、入力画像座標取得部46により選択されたオリジナル画像n内のオブジェクトの位置座標(または、背景画像n内の床面の位置座標)をマルチビュー画像上の位置座標に変換する。
図18はカメラ1−1,1−3,1−5,1−7により撮影されたオリジナル画像(図3又は図12の画像を参照)を変換して、図9に示すようなマルチビュー画像が生成されるとき、図13で示される床面上の位置が変換画像座標算出部49によって変換されるマルチビュー画像上の位置を示している。
また、図19は図9に示すようなマルチビュー画像が生成されるとき、図14で示されるオブジェクトの位置が変換画像座標算出部49によって変換されるマルチビュー画像上の位置を示している。
なお、図19では、オブジェクトの位置は×印で示している。図18の破線は変換後の頂点の位置がイメージしやすいように書き込んだ補助線、図19の破線は変換後のオブジェクトの形状がイメージしやすいよう書き込んだ補助線である。
In the converted image coordinate
FIG. 18 shows a multi-view image as shown in FIG. 9 by converting the original image (see the image in FIG. 3 or FIG. 12) taken by the cameras 1-1, 1-3, 1-5, and 1-7. Is generated, the position on the floor surface shown in FIG. 13 indicates the position on the multi-view image converted by the converted image coordinate
FIG. 19 shows the position on the multi-view image where the converted image coordinate
In FIG. 19, the position of the object is indicated by a cross. The broken line in FIG. 18 is an auxiliary line written so that the converted vertex position can be easily imaged, and the broken line in FIG. 19 is an auxiliary line written so that the shape of the converted object can be easily imaged.
オリジナル画像座標算出部50は、変換画像座標算出部49がオリジナル画像n内のオブジェクトの位置座標(または、背景画像n内の床面の位置座標)をマルチビュー画像上の位置座標に変換すると、逆マルチビュー変換式生成部48により生成された逆マルチビュー変換式を用いて、マルチビュー画像上の位置座標(各カメラ1−n(1≦n≦8)のオリジナル画像nから変換されたマルチビュー画像上の位置座標)を、ある1つのカメラ(例えば、カメラ1−1)のオリジナル画像上の位置座標に変換する。
ここで、ある1つのカメラのオリジナル画像は、例えば、現在、画像生成装置により表示されているオリジナル画像であってもよいし、マルチビュー画像を撮影したカメラのオリジナル画像であってもよいし、その他のカメラのオリジナル画像であってもよい。
図21はカメラ1−1,1−3,1−5,1−7により撮影されたオリジナル画像のマルチビュー変換画像(図20の画像を参照)内のオブジェクト(ぬいぐるみ、花瓶)の位置を、カメラ1−1で撮影したオリジナル画像のマルチビュー変換画像上に変換している例を示している。
When the converted image coordinate calculating
Here, the original image of a certain camera may be, for example, the original image currently displayed by the image generation device, or the original image of the camera that captured the multi-view image, It may be an original image of another camera.
FIG. 21 shows the position of an object (stuffed animal, vase) in a multi-view converted image (see the image of FIG. 20) of the original image taken by the cameras 1-1, 1-3, 1-5, 1-7. An example is shown in which an original image captured by the camera 1-1 is converted into a multi-view converted image.
平面射影変換算出部51は、床平面図入力部44により取り込まれた床面の頂点(平面図上の4点以上の座標値)と、画像内床面座標指定部45により指定された背景画像n内の床面の位置座標(床面の頂点に対応する4点以上の座標値)とから、床平面図座標算出部53が床平面図座標を算出する際に使用する平面射影変換行列(例えば、3×3の行列)をカメラ1−n毎に算出する。
なお、平面射影変換行列の算出方法は、例えば、非特許文献「出口光一郎 “ロボットビジョンの基礎”p47(本文献ではホモグラフィー行列と記載されている)」に記載されている。
The plane projective
The calculation method of the planar projective transformation matrix is described in, for example, the non-patent document “Koichiro Deguchi“ Basics of Robot Vision ”p47 (described as a homography matrix in this document)”.
平面射影変換算出部52は、床平面図入力部44により取り込まれた床面の頂点(平面図上の4点以上の座標値)と、画像内床面座標指定部45により指定された背景画像n内の床面の位置座標(床面の頂点に対応する4点以上の座標値)とから、オリジナル画像座標算出部55がオリジナル画像上の座標を算出する際に使用する平面射影変換行列(例えば、3×3の行列)をカメラ1−n毎に算出する。
なお、あるカメラで撮影された画像においては、平面射影変換算出部51により算出される平面射影変換行列と、平面射影変換算出部52により算出される平面射影変換行列とが、互いに逆行列の関係である場合が多いので、その場合には、どちらか一方の平面射影変換行列を算出してから、その平面射影変換行列の逆行列を数学的に算出して、残る一方の平面射影変換行列を求めるようにしてもよい。
The plane projective
Note that, in an image shot by a certain camera, the plane projection transformation matrix calculated by the plane projection
床平面図座標算出部53は、オリジナル画像座標算出部50がマルチビュー画像上の位置座標(各カメラ1−n(1≦n≦8)のオリジナル画像nから変換されたマルチビュー画像上の位置座標)を、ある1つのカメラ(例えば、カメラ1−1)のオリジナル画像上の位置座標に変換すると、平面射影変換算出部51により算出された平面射影変換行列を用いて、そのオリジナル画像上の位置座標を床面の平面図上の位置座標に変換する。
図16は床面の平面図を示しており、図17はカメラ1−1により撮影されたオブジェクト(ぬいぐるみ、花瓶)の平面図上の位置を示している。
また、図22はカメラ1−1,1−3,1−5,1−7により撮影されたオブジェクト(ぬいぐるみ、花瓶)と、マーキング(図面の記載が煩雑になるため、カメラ1−1により撮影されたマーキングのみ)の平面図上の位置を示している。
The floor plan coordinate
FIG. 16 shows a plan view of the floor surface, and FIG. 17 shows a position on the plan view of an object (stuffed animal, vase) photographed by the camera 1-1.
FIG. 22 shows objects (stuffed animals, vases) and markings (cameras 1-1, 1-3, 1-5, 1-7) and markings (photographs are taken by the camera 1-1 because the drawing is complicated). (Only marked markings) are shown on the plan view.
図22において、K1はカメラ1−1により撮影された花瓶の平面図上の位置、K3はカメラ1−3により撮影された花瓶の平面図上の位置、K5はカメラ1−5により撮影された花瓶の平面図上の位置、K7はカメラ1−7により撮影された花瓶の平面図上の位置である。
Nはカメラ1−1,1−3,1−5,1−7により撮影されたぬいぐるみの平面図上の位置である。ぬいぐるみは、マルチビュー対象の物品であるため、カメラ1−1,1−3,1−5,1−7により撮影されたオリジナル画像の変換画像であるマルチビュー画像において同じ位置である。そのため、床面の平面図上では、見かけ上、1点になっている。
In FIG. 22, K1 is a position on the plan view of the vase photographed by the camera 1-1, K3 is a position on the plan view of the vase photographed by the camera 1-3, and K5 is photographed by the camera 1-5. A position on the plan view of the vase, K7, is a position on the plan view of the vase taken by the camera 1-7.
N is a position on the plan view of the stuffed toy photographed by the cameras 1-1, 1-3, 1-5, and 1-7. Since the stuffed animal is a multi-view target article, it is at the same position in the multi-view image that is a converted image of the original image photographed by the cameras 1-1, 1-3, 1-5, and 1-7. Therefore, it is apparently one point on the floor plan.
床平面図中間座標算出部54は、床平面図座標算出部53がオリジナル画像上の位置座標を床面の平面図上の位置座標に変換すると、1以上のオブジェクト(ぬいぐるみ、花瓶)の平面図上の位置座標の中から、平面図上では、見かけ上異なる同一オブジェクト(花瓶)の位置を示す点K1,K3,K5,K7を特定し、点K1,K3,K5,K7の中間点を決定する。
ここでの中間点は、例えば、点K1→点K3に移動する途中の曲線上の点という意味であって、ちょうど、中間(中央)に位置する点という意味ではない。
具体的には、以下のようにして、点K1,K3,K5,K7の中間点を決定する。
When the floor plan view coordinate
The intermediate point here means, for example, a point on the curve in the middle of moving from the point K1 to the point K3, and does not mean a point located in the middle (center).
Specifically, an intermediate point between the points K1, K3, K5, and K7 is determined as follows.
ここでは、点K1と点K3の間に3つの中間点K1-1,K1-2,K1-3を決定する例を説明する。
床平面図中間座標算出部54は、図23に示すように、点Nと点K1の距離をd1、点Nと点K3の距離をd3、点Nの座標を(nx,ny)とし、点Nを中心とする点K1を通る円(図23の破線を参照)を用意する。
このとき、円周上の点(x、y)は、以下のような式(6)で表現される。
Floor plan view intermediate coordinate calculating
At this time, the point (x, y) on the circumference is expressed by the following equation (6).
次に、床平面図中間座標算出部54は、平面図上の線分N−K1と線分N−K3のなす角をα0として、なす角α0を4分割する。
そして、床平面図中間座標算出部54は、分割後のなす角α1,α2,α3,α4に対応する線分が円周と交わる点をK1-1p,K1-2p,K1-3pとする。以下、K1-1p,K1-2p,K1-3pをK1-mpのように表記する。ただし、m=1,2,3である。
Next, the floor plan intermediate coordinate
Then, the floor plan intermediate coordinate
次に、床平面図中間座標算出部54は、点Nと円周上の点K1-mpを結ぶ直線上で、点Nからの距離Lmが以下の式(7)で表現される点を中間点K1-mに決定する。
ここでは、中間点K1-1,K1-2,K1-3を決定する際、点Nを中心とする点K1を通る円周を決定するものについて示したが、点Nを中心とする点K3を通る円周を決定し、例えば、点Nと円周上の点K1-mpを結ぶ直線上で、点Nからの距離Lmが以下の式(8)で表現される点を中間点K1-1,K1-2,K1-3に決定するようにしてもよい。
図24は点K1と点K3の中間点K1-1,K1-2,K1-3と同様の方法で、点K3と点K5の中間点、点K5と点K7の中間点、点K7と点K1の中間点を求めた例を示している。
図中、なす角α1〜α4,β1〜β4,γ1〜γ4,δ1〜δ4は、それぞれ線分N−K1と線分N−K3のなす角α0,線分N−K3と線分N−K5のなす角β0,線分N−K5と線分N−K7のなす角γ0,線分N−K7と線分N−K1のなす角δ0を4等分して中間点を決定しているため、以下の式(9)〜(12)が成立する。
FIG. 24 shows the same method as the intermediate points K1-1, K1-2, and K1-3 between the points K1 and K3, the intermediate point between the points K3 and K5, the intermediate point between the points K5 and K7, and the point K7 and the point K7. The example which calculated | required the intermediate point of K1 is shown.
In the figure, angles α 1 to α 4 , β 1 to β 4 , γ 1 to γ 4 , and δ 1 to δ 4 are angles α 0 and line segments formed by
ここでは、4等分しているのでχ=0.25にしているが、分割数が異なればχは0.25以外の値であってもよい。
χα,χβ,χγ,χδの値は、点Nに対するなす角α0,β0,γ0,δ0を分割する割合に応じて変化する。
Here, χ = 0.25 because it is divided into four equal parts, but χ may be a value other than 0.25 if the number of divisions is different.
The values of χ α , χ β , χ γ , χ δ vary according to the ratio of dividing the angles α 0 , β 0 , γ 0 , δ 0 made with respect to the point N.
上記の例では、点Nを中心とする点K1(または、K3,K5,K7)を通る円や楕円を用いて中間点を求めているが、点N(ぬいぐるみが置かれている点)の位置が影響を与えるように、点K1と点K3(または、点K3と点K5、点K5と点K7、点K7と点K1)の中間点を決定すればよく、例えば、点K1(または、K3,K5,K7)を通るスプライン曲線などを用いてもよい。
また、例えば、点K1と点K3の中間点を決定する際に、点Nの位置のみが影響するのではなく、点K5や点K7のいずれか一方、または、点K5や点K7の両方が影響を与えるようにしてもよい。
この例では、4台のカメラしか使用していないため、実際の点がK1,K3,K5,K7の4点しかないが、さらに、実際の点が多い場合、それらの点の位置に応じて影響の度合いが異なるようにしてもよい(例えば、位置が隣接する度合いが近い点ほど、大きな値を与えるようにする)。
In the above example, an intermediate point is obtained using a circle or ellipse passing through the point K1 (or K3, K5, K7) centered on the point N, but the point N (the point where the stuffed animal is placed) An intermediate point between the point K1 and the point K3 (or the point K3 and the point K5, the point K5 and the point K7, and the point K7 and the point K1) may be determined so that the position affects, for example, the point K1 (or Spline curves passing through K3, K5, and K7) may be used.
Further, for example, when determining an intermediate point between the point K1 and the point K3, not only the position of the point N is affected, but either the point K5 or the point K7, or both the point K5 and the point K7 are You may make it affect.
In this example, since only four cameras are used, there are only four actual points K1, K3, K5, and K7. However, when there are many actual points, depending on the positions of these points. The degree of influence may be different (for example, a larger value is given to a point having a closer degree of adjacent positions).
ここでは、点K1と点K3の中間点を決定する際、線分N−K1と線分N−K3のなす角α0を数値M(M=4)で等しく分割して、3つの中間点K1-1,K1-2,K1-3を決定するものについて示したが、等しく分割しなくてもよい。その場合、それらの点の位置を考慮して、分割比率を変えてもよい。また、実際の点(K1,K3,K5,K7)に近いほど細かく分割してもよい。
この例では、角度で分割しているが、円や楕円の円周長、それ以外の曲線長(スプライン曲線など)で分割して中間点を決定してもよい。
Here, when determining an intermediate point between the points K1 and K3, the angle α 0 formed by the line segment N-K1 and the line segment N-K3 is equally divided by a numerical value M (M = 4) to obtain three intermediate points. Although what has determined K1-1, K1-2, and K1-3 has been shown, it need not be equally divided. In that case, the division ratio may be changed in consideration of the positions of those points. Further, the closer to the actual point (K1, K3, K5, K7), the finer the division may be.
In this example, the angle is divided, but the intermediate point may be determined by dividing the circle or ellipse by the circumference length or other curve length (spline curve or the like).
図26はカメラ1−1,1−3により撮影されたオリジナル画像内の花瓶の位置が、床面の平面図上の座標に変換された点K1,K3と、同じく、カメラ1−1,1−3により撮影されたオリジナル画像内の四角形の頂点が、床面の平面図上の座標に変換された点を示している。また点Nはぬいぐるみの位置を示している。
カメラ1−1により撮影された四角形の頂点は頂点(1)、頂点(2)、頂点(3)、頂点(4)で示し、カメラ1−3により撮影された四角形の頂点は頂点(1)3、頂点(2)3、頂点(3)3、頂点(4)3で示している。
FIG. 26 shows points K1 and K3 in which the positions of the vases in the original images taken by the cameras 1-1 and 1-3 are converted into coordinates on the floor plan, as well as the cameras 1-1 and 1. The square vertices in the original image photographed by -3 indicate points converted into coordinates on the floor plan. Point N indicates the position of the stuffed animal.
The vertices of the rectangle photographed by the camera 1-1 are indicated by the vertex (1), the vertex (2), the vertex (3), and the vertex (4), and the vertex of the square photographed by the camera 1-3 is the vertex (1). 3, vertex (2) 3, vertex (3) 3, and vertex (4) 3.
また、図26では、カメラ1−1により撮影された四角形の頂点(1)、頂点(2)、頂点(3)、頂点(4)と、カメラ1−3により撮影された四角形の頂点(1)3、頂点(2)3、頂点(3)3、頂点(4)3との中間点(ここでの中間点は、例えば、頂点(1)→頂点(1)3に移動する途中の曲線上の点という意味であり、ちょうど、中間(中央)に位置する点という意味ではない)である頂点(1)−1、頂点(2)−1、頂点(3)−1、頂点(4)−1の決定方法を示している。 In FIG. 26, the vertex (1), vertex (2), vertex (3), and vertex (4) of the rectangle photographed by the camera 1-1, and the vertex (1) of the rectangle photographed by the camera 1-3. ) 3, vertex (2) 3, vertex (3) 3, and vertex (4) 3 are intermediate points (the intermediate point here is, for example, a curve in the middle of moving from vertex (1) to vertex (1) 3) Vertex (1) -1, Vertex (2) -1, Vertex (3) -1, Vertex (4), which means the upper point, not just the middle (center) point) -1 determination method is shown.
この決定方法は、基本的には図23や図24で示している方法と同じである。
例えば、線分(頂点(1)−点N)と線分(頂点(1)3−点N)とがなす角度Aに対する線分(頂点(1)−点N)と線分(頂点(1)−1 −点N)とがなす角度aの割合λは、線分(頂点(2)−点N)と線分(頂点(2)3−点N)とがなす角度Bに対する線分(頂点(2)−点N)と線分(頂点(2)−1 −点N)とがなす角度bの割合に等しい。
この割合λは、線分(頂点(3)−点N)と線分(頂点(3)3−点N)とがなす角度Cに対する線分(頂点(3)−点N)と線分(頂点(3)−1 −点N)とがなす角度cの割合、および線分(頂点(4)−点N)と線分(頂点(4)3−点N)とがなす角度Dに対する線分(頂点(4)−点N)と線分(頂点(4)−1 −点N)とがなす角度dの割合とも等しい。
これらを式で示すと、以下のようになる。
For example, a line segment (vertex (1) -point N) and a line segment (vertex (1) with respect to an angle A formed by the line segment (vertex (1) -point N) and the line segment (vertex (1) -point N) ) -1−the ratio λ of the angle a formed by the point N) is a line segment with respect to the angle B formed by the line segment (vertex (2) −point N) and the line segment (vertex (2) 3-point N) ( It is equal to the ratio of the angle b formed by the vertex (2) -point N) and the line segment (vertex (2) -1-point N).
This ratio λ is the line segment (vertex (3) −point N) and line segment (angle (vertex (3) −point N)) with respect to the angle C formed by the line segment (vertex (3) −point N) and line segment (vertex (3) −point N). The ratio of the angle c formed by the vertex (3) -1-point N) and the line with respect to the angle D formed by the line segment (vertex (4) -point N) and the line segment (vertex (4) 3-point N) It is also equal to the ratio of the angle d formed by the minute (vertex (4) -point N) and the line segment (vertex (4) -1-point N).
These can be expressed as follows.
オリジナル画像座標算出部55は、上記のようにして、床平面図中間座標算出部54が中間点(例えば、中間点K1-1,K1-2,K1-3など)を決定すると、平面射影変換算出部52により算出された平面射影変換行列を用いて、その中間点をオリジナル画像上の位置座標に変換する。
このとき、1つのオリジナル画像上の座標に変換してもよいし、カメラが異なるいくつかのオリジナル画像上の座標に変換してもよい。
When the floor plan intermediate coordinate
At this time, it may be converted into coordinates on one original image, or may be converted into coordinates on several original images with different cameras.
変換画像座標算出部56は、オリジナル画像座標算出部55が中間点をオリジナル画像上の位置座標に変換すると、マルチビュー変換式生成部47により生成されたマルチビュー変換式を用いて、そのオリジナル画像上の位置座標をマルチビュー画像上の位置座標に変換する。
図25(a)は図24におけるオブジェクト位置の中間点をマルチビュー画像上の位置座標に変換している例を示し、図25(b)は従来方式により決定された中間視点位置の例を示している。また図27は、床面上の頂点の中間点を、マルチビュー画像上の位置座標に変換している例を示している。
When the original image coordinate
FIG. 25A shows an example in which the intermediate point of the object position in FIG. 24 is converted into position coordinates on the multi-view image, and FIG. 25B shows an example of the intermediate viewpoint position determined by the conventional method. ing. FIG. 27 shows an example in which an intermediate point between vertices on the floor surface is converted into position coordinates on the multi-view image.
床面中間画像用平面射影変換算出部57は、変換画像座標算出部56がオリジナル画像上の位置座標をマルチビュー画像上の位置座標に変換すると、そのマルチビュー画像上の位置座標と、変換画像座標算出部49により変換されたマルチビュー画像上の位置座標とから、床面中間画像生成部59が床面の中間画像を生成する際に使用する平面射影変換行列(例えば、3×3の行列)を算出する。
なお、平面射影変換行列の算出方法は、例えば、非特許文献「出口光一郎 “ロボットビジョンの基礎”p47(本文献ではホモグラフィー行列と記載されている)」に記載されている。
When the converted image coordinate
The calculation method of the planar projective transformation matrix is described in, for example, the non-patent document “Koichiro Deguchi“ Basics of Robot Vision ”p47 (described as a homography matrix in this document)”.
床面領域抽出部58は、画像データ一時保存部2に保存されているカメラ1−n(1≦n≦8)の背景画像nから床面領域を抽出する。
床面領域の抽出としては、例えば、ユーザが背景画像から床面領域を指定するようにすればよい。
あるいは、平面射影変換行列算出部8により算出されたカメラ間の平面射影変換行列を用いて、あるカメラにより撮影された背景画像を、別のカメラにより撮影された背景画像に変換し、両者の画素毎の差分を行って、その差分がある閾値以下である画素に対し、例えば、収縮処理、拡大処理などを実施して床面領域を決定するようにしてもよい。
また、背景画像を使用しないで、オブジェクトが撮影されている画像からメディアンフィルタなどを用いて背景画像に相当する画像を生成して利用するようにしてもよい。
例えば、図28(d)はユーザにより指定された床面領域を示し、図28(e)は床面領域の抽出結果を示している。
なお、図28(d)では、ユーザが背景画像の床面のうち、机などの立体物で床面が隠されている領域を除く領域を床面として指定している様子を示している。
The floor
As the extraction of the floor area, for example, the user may specify the floor area from the background image.
Alternatively, using a plane projection transformation matrix between cameras calculated by the plane projection transformation matrix calculation unit 8, a background image shot by one camera is converted into a background image shot by another camera, and both pixels The floor area may be determined by performing a difference for each pixel and performing, for example, a contraction process, an enlargement process, or the like on a pixel whose difference is equal to or less than a certain threshold value.
Further, without using a background image, an image corresponding to the background image may be generated and used from an image in which an object is photographed using a median filter or the like.
For example, FIG. 28D shows a floor area specified by the user, and FIG. 28E shows a floor area extraction result.
FIG. 28D shows a state in which the user designates, as the floor surface, an area other than the area where the floor surface is hidden by a three-dimensional object such as a desk among the floor surface of the background image.
床面中間画像生成部59は、床面領域抽出部58が背景画像から床面領域を抽出すると、床面中間画像用平面射影変換算出部57により算出された平面射影変換行列を用いて、その床面領域を床面の中間画像に変換する。
この例では、カメラ1−1とカメラ1−3の中間であれば、カメラ1−1又はカメラ1−3により撮影された背景画像のみから床面の中間画像を生成するが、カメラ1−1により撮影された背景画像とカメラ1−3により撮影された背景画像の両方から中間画像をそれぞれ生成し、2つの中間画像に例えば中間位置の度合いに応じた重みを付けて平均化するようにしてもよい。
When the floor
In this example, if it is intermediate between the camera 1-1 and the camera 1-3, an intermediate image of the floor surface is generated only from the background image photographed by the camera 1-1 or the camera 1-3. An intermediate image is generated from both the background image captured by the
中間画像用オブジェクト生成部60は、オブジェクト抽出部42がオリジナル画像からオブジェクトを抽出すると、そのオブジェクトから中間画像用のオブジェクトを生成する。
中間画像用のオブジェクトの生成方法は、例えば、非特許文献「矢口悟志他 “未校正多視点カメラシステムを用いた任意視点画像生成”情報処理学会論文誌:コンピュータビジョンとイメージメディア Vol.42 No.SIG 6(CVIM 2) June 2001」に開示されており、特に、「3.2節 式(3)(p13)」に記述されている任意視点画像を用いて中間画像用のオブジェクトを生成する。
床平面図中間座標算出部54により算出された中間点K1-1,K1-2,K1-3が、線分N−K1と線分N−K3のなす角α0を4等分することで決定された点である場合、上記「3.2節 式(3)(p13)」のωの値は、例えば、0.25、0.5、0.75であるとする。
When the
A method for generating an object for an intermediate image is described in, for example, the non-patent document “Satoru Yaguchi et al. SIG 6 (CVIM 2) June 2001 ”, and in particular, an object for an intermediate image is generated using an arbitrary viewpoint image described in“ Section 3.2 (3) (p13) ”.
The intermediate points K1-1, K1-2, and K1-3 calculated by the floor plan intermediate coordinate
ここでは、任意視点画像を用いて中間画像用のオブジェクトを生成するものについて示したが、例えば、カメラ1−1のオリジナル画像から抽出されたオブジェクトや、カメラ1−3のオリジナル画像から抽出されたオブジェクトをそのまま中間画像用のオブジェクトとして利用するようにしてもよいし、カメラ1−1のオリジナル画像から抽出されたオブジェクトとカメラ1−3のオリジナル画像から抽出されたオブジェクトとに重みを付けて平均化したオブジェクトを中間画像用のオブジェクトとして利用するようにしてもよい。 Here, an example in which an object for an intermediate image is generated using an arbitrary viewpoint image is shown. For example, an object extracted from an original image of the camera 1-1 or an original image of the camera 1-3 is extracted. The object may be used as an object for an intermediate image as it is, or an object extracted from the original image of the camera 1-1 and an object extracted from the original image of the camera 1-3 are weighted and averaged. The converted object may be used as an intermediate image object.
オブジェクトサイズ修正部61は、中間画像オブジェクト生成部60が中間画像用のオブジェクトを生成すると、その中間画像用のオブジェクトがオリジナル画像座標算出部55により変換されたマルチビュー画像上の位置座標に存在するものとして、マルチビュー変換式生成部47により生成されたマルチビュー変換式を用いて、中間画像用のオブジェクトのサイズを修正する。
中間画像用のオブジェクトのサイズを修正するに際して、例えば、カメラ1−1のマルチビュー画像におけるオブジェクトの大きさと、カメラ1−3のマルチビュー画像におけるオブジェクトの大きさを測定して、両者の大きさが線形に変化するように、中間位置のオブジェクトの大きさを修正するようにしてもよい。
When the intermediate image object generation unit 60 generates an intermediate image object, the object
When correcting the size of the object for the intermediate image, for example, the size of the object in the multi-view image of the camera 1-1 and the size of the object in the multi-view image of the camera 1-3 are measured. The size of the object at the intermediate position may be corrected so that changes linearly.
中間画像生成部62は、床面中間画像生成部59が床面の中間画像を生成し、オブジェクトサイズ修正部61が中間画像用のオブジェクトのサイズを修正すると、変換画像座標算出部56により変換された中間画像上のオブジェクト位置座標において、オブジェクトサイズ修正部61によりサイズが修正された中間画像用のオブジェクトを床面の中間画像に上書きすることにより、中間画像を生成する。この様子を図27に示す。図27においては、
このとき、図23又は図24において、対応するオブジェクト位置の中間点を決定する比率λと、図26において、対応する床面上の頂点の中間点を決定する比率χとを同じにすることで、生成した中間画像のオブジェクト位置と、床面の中間画像とを組み合わせることで、精度が高くて違和感のない中間画像を生成することができる。このとき、以下の式が成立する。
The intermediate
At this time, the ratio λ for determining the intermediate point of the corresponding object position in FIG. 23 or FIG. 24 and the ratio χ for determining the intermediate point of the corresponding vertex on the floor surface in FIG. By combining the object position of the generated intermediate image and the intermediate image of the floor surface, it is possible to generate an intermediate image with high accuracy and no sense of incongruity. At this time, the following equation is established.
図23又は図24においては、下記の式(14)が成立する。
なお、αn(n=1,2,3,4など)は、カメラ1−1からカメラ1−3に関する角度α0を分割する中間点による角度であるが、必ずしも、α1=α2=α3=α4・・・・ではない。
これを言い換えれば、例えば、点K1−1に由来する中間位置にオブジェクトを上書きする場合は、点K1−1の決定方法である「カメラ1−1とカメラ1−3の中間点にオブジェクトを上書きする際、カメラ1−1→カメラ1−3のオブジェクト位置の曲線を決定する角度分割比率が、そのオブジェクトを書き込む床面の中間画像の生成に使用する床面の中間点を決定する際の比率に等しい」ということができる。
Note that α n (n = 1, 2, 3, 4, etc.) is an angle by an intermediate point that divides the angle α 0 with respect to the camera 1-1 to the camera 1-3, but is not necessarily α 1 = α 2 = It is not α 3 = α 4 .
In other words, for example, when an object is overwritten at an intermediate position derived from the point K1-1, “the object is overwritten at the intermediate point between the camera 1-1 and the camera 1-3, which is the determination method of the point K1-1. When the angle division ratio for determining the curve of the object position of the camera 1-1 → camera 1-3 is determined, the ratio at which the intermediate point of the floor surface used for generating the intermediate image of the floor surface on which the object is written is determined. Is equal to ".
以上で明らかなように、この実施の形態1によれば、床面に置かれている1以上の物体の床面上の位置を床面の平面図上の位置に変換する平面射影変換手段と、平面射影変換手段により変換された1以上の物体の平面図上の位置の中から、その平面図上では見かけ上異なる同一物品に係る複数の位置を特定し、複数の位置の中間点を決定する中間点決定手段と、中間点決定手段により決定された中間点をマルチビュー画像上の位置に変換し、マルチビュー画像上の位置に応じて床面の画像を生成する床面画像生成手段とを設け、中間画像生成手段が複数のカメラ画像内の床面に置かれている1以上の物体の画像と床面画像生成手段により生成された床面の画像から、マルチビュー画像生成手段により生成された複数のマルチビュー画像の間の中間画像を生成するように構成したので、複数の多視点画像を切り替える際、滑らかで違和感のない中間画像を表示することができる効果を奏する。 As apparent from the above, according to the first embodiment, the plane projection conversion means for converting the position on the floor surface of one or more objects placed on the floor surface into the position on the floor plan. From among the positions on the plan view of one or more objects converted by the plane projective conversion means, a plurality of positions related to the same article that are apparently different on the plan view are specified, and intermediate points of the plurality of positions are determined. Intermediate point determination means for converting the intermediate point determined by the intermediate point determination means to a position on the multi-view image, and generating a floor surface image according to the position on the multi-view image; And the intermediate image generation means is generated by the multi-view image generation means from the image of one or more objects placed on the floor in the plurality of camera images and the floor image generated by the floor image generation means. Between multiple multi-view images Since it is configured to generate between images, when switching the plurality of the multi-view image, an effect that can be displayed in an intermediate image not smooth and discomfort.
また、この実施の形態1では、例えば、カメラ1−1とカメラ1−3の中間点を平面図における中心角を4等分した3つの中間点で決定しているので、カメラ1−1のマルチビュー画像、3つの中間画像、カメラ1−3の中間画像を順に表示すると、マルチビュー対象のオブジェクト(ぬいぐるみ)を中心にして、撮影カメラをカメラ1−1の撮影位置から、カメラ1−3の撮影位置に3次元的に一定の速度で移動したかのような画像効果が得られる。 In the first embodiment, for example, the intermediate point between the camera 1-1 and the camera 1-3 is determined by three intermediate points obtained by dividing the central angle in the plan view into four equal parts. When the multi-view image, the three intermediate images, and the intermediate image of the camera 1-3 are sequentially displayed, the camera 1-3 is moved from the shooting position of the camera 1-1 around the multi-view target object (stuffed animal). The image effect can be obtained as if the camera were moved to the shooting position at a constant speed three-dimensionally.
また、床面の平面図において、円や楕円を用いて中間位置を決定しているため、マルチビュー対象のオブジェクト(ぬいぐるみ)からカメラまでの3次元的な距離を等しく保ったまま、カメラ1−1の位置からカメラ1−3の位置にカメラを移動したかのような画像効果を得ることができる。
また、例えば、カメラ1−1からカメラ1−3、カメラ1−5を経由して、カメラ1−1に戻るような中間画像を生成した場合、オブジェクトの位置及び大きさや、前後の移動方向の違和感を招くことなく、実際の画像であるカメラ1−1,1−3,1−5,1−7のオリジナル画像と、その前後の中間画像とを切り替えることができる。また、床面の位置及び大きさや、前後の移動方向の違和感を招くことなく、実際の画像であるカメラ1−1,1−3,1−5,1−7のオリジナル画像と、その前後の中間画像とを切り替えることができる。
Further, in the plan view of the floor surface, since the intermediate position is determined using a circle or an ellipse, the three-dimensional distance from the object to be multiviewed (stuffed toy) to the camera is kept equal while the camera 1- An image effect as if the camera was moved from the
Further, for example, when an intermediate image that returns from the camera 1-1 to the camera 1-1 via the camera 1-3 and the camera 1-5 is generated, the position and size of the object and the moving direction of the object Without causing a sense of incongruity, it is possible to switch between the original images of the cameras 1-1, 1-3, 1-5, and 1-7, which are actual images, and the intermediate images before and after that. In addition, the original images of the cameras 1-1, 1-3, 1-5, and 1-7, which are actual images, and the front and back of the images can be obtained without causing a sense of incongruity between the position and size of the floor surface and the moving direction of the front and rear. An intermediate image can be switched.
なお、この実施の形態1では、例えば、隣接するカメラ1−1と1−3、1−3と1−5、1−5と1−7、1−7と1−1の間を、平面図上の中心角に対して4分割することで、カメラ1−1→カメラ1−3、カメラ1−3→カメラ1−5、カメラ1−5→カメラ1−7、カメラ1−7→カメラ1−1への切り替えの際に、カメラが3次元的に等速度で移動しているかのような画像効果を得ているが、もし、カメラを1−1→1−3→1−5→1−7→1−1のように連続的に切り替える場合、これらのカメラ1−1,1−3,1−5,1−7がマルチビュー対象のオブジェクト(ぬいぐるみ)に対するなす角度が等しくないので、一連の連続的な切り替え操作としては、実際のカメラ位置毎に速度が変化するような画像効果になる場合がある。
このような画像効果が好ましくない場合は、一連の連続的な切り替えを行う最初と最後のカメラ位置がなす中心角度をある数値で等分割するように中間位置を決定すればよい。
In the first embodiment, for example, between the adjacent cameras 1-1 and 1-3, 1-3 and 1-5, 1-5 and 1-7, and 1-7 and 1-1 are planar. By dividing into four with respect to the central angle in the figure, camera 1-1 → camera 1-3, camera 1-3 → camera 1-5, camera 1-5 → camera 1-7, camera 1-7 → camera At the time of switching to 1-1, an image effect is obtained as if the camera is moving three-dimensionally at a constant speed. If the camera is changed from 1-1 → 1-3 → 1-5 → When switching continuously from 1-7 to 1-1, the angles formed by the cameras 1-1, 1-3, 1-5, and 1-7 with respect to the multi-view target object (stuffed animal) are not equal. As a series of continuous switching operations, there may be an image effect in which the speed changes for each actual camera position. That.
If such an image effect is not preferable, the intermediate position may be determined so that the center angle formed by the first and last camera positions for performing a series of continuous switching is equally divided by a certain numerical value.
また、この実施の形態1では、図24に示すように、いったん床面の平面図上で中間位置を決定してから、図25に示すようにマルチビュー画像上の中間点を決定しているが、例えば、変換画像座標算出部49がオリジナル画像n内のオブジェクトの位置座標をマルチビュー画像上の位置座標に変換すると、直接、マルチビュー変換画像上で、円又は楕円や、それ以外の曲線を利用して中間点を決定するようにしてもよい。
このとき、中間画像において、3次元的な移動速度や大きさに違和感が生じないように、3次元的に遠い位置ほど見かけ上の移動速度が遅くなるようにしてもよい。また、3次元的に遠い位置ほど表示サイズが小さくなるように表示してもよい。
In the first embodiment, as shown in FIG. 24, the intermediate position is once determined on the floor plan, and then the intermediate point on the multi-view image is determined as shown in FIG. However, for example, when the converted image coordinate
At this time, in the intermediate image, the apparent movement speed may be slower as the position is farther three-dimensionally so that the three-dimensional movement speed and size do not feel strange. Further, the display size may be displayed so that the display size becomes smaller as the position is farther three-dimensionally.
また、この実施の形態1では、マルチビュー画像の中間画像を生成するものについて示しているが、マルチビュー変換以外の変換画像の中間画像を生成するようにしてもよい。
例えば、カメラの位置や光軸の方向、床面や床面上のオブジェクト(ぬいぐるみ、花瓶)の位置などを3次元空間の座標で表現することで、各カメラで撮影した画像から、ぬいぐるみや花瓶の画像内の位置と大きさが同じである変換画像を生成し、その変換画像の中間画像を生成するようにしてもよい。
In the first embodiment, an intermediate image of a multi-view image is generated. However, an intermediate image of a converted image other than the multi-view conversion may be generated.
For example, by expressing the position of the camera, the direction of the optical axis, the position of the floor or the object (stuffed animal, vase) on the floor surface in 3D space coordinates, etc. A converted image having the same position and size in the image may be generated, and an intermediate image of the converted image may be generated.
1−1〜1−N カメラ、2 画像データ一時保存部、3 マルチビュー位置指定部、4 基準位置指定部、5 床面座標読取部、6 水平消失点算出部、7 垂直消失点算出部、8 平面射影変換行列算出部、9 マルチビュー位置算出部、10 基準位置算出部、11 画像内倍率算出部、12 カメラ水平軸歪補正パラメータ算出部、13 透視投影歪補正パラメータ算出部、14 1次補正画像生成部、15 基準長読取部、16 画像間倍率算出部、17 2次補正画像生成部、18 2次透視変換座標算出部、19 移動パラメータ算出部、20 マルチビュー画像生成部、21 マルチビュー位置指定部、22 マルチビュー画像座標変換部、30 マルチビュー画像生成手段、41 背景画像データ保存部、42 オブジェクト抽出部(床面位置取得手段)、43 オブジェクト位置座標算出部(床面位置取得手段)、44 床平面図入力部(床面位置取得手段)、45 画像内床面座標指定部(床面位置取得手段)、46 入力画像座標取得部(床面位置取得手段)、47 マルチビュー変換式生成部(平面射影変換手段)、48 逆マルチビュー変換式生成部(平面射影変換手段)、49 変換画像座標算出部(平面射影変換手段)、50 オリジナル画像座標算出部(平面射影変換手段)、51 平面射影変換算出部(平面射影変換手段)、52 平面射影変換算出部(床面画像生成手段)、53 床平面図座標算出部(平面射影変換手段)、54 床平面図中間座標算出部(中間点決定手段)、55 オリジナル画像座標算出部(床面画像生成手段)、56 変換画像座標算出部(床面画像生成手段)、57 床面中間画像用平面射影変換算出部(床面画像生成手段)、58 床面領域抽出部(床面画像生成手段)、59 床面中間画像生成部(床面画像生成手段)、60 中間画像用オブジェクト生成部(中間画像生成手段)、61 オブジェクトサイズ修正部(中間画像生成手段)、62 中間画像生成部(中間画像生成手段)。 1-1 to 1-N camera, 2 image data temporary storage unit, 3 multi-view position designation unit, 4 reference position designation unit, 5 floor surface coordinate reading unit, 6 horizontal vanishing point calculation unit, 7 vertical vanishing point calculation unit, 8 plane projection transformation matrix calculation unit, 9 multi-view position calculation unit, 10 reference position calculation unit, 11 intra-image magnification calculation unit, 12 camera horizontal axis distortion correction parameter calculation unit, 13 perspective projection distortion correction parameter calculation unit, 14 primary Correction image generation unit, 15 Reference length reading unit, 16 Inter-image magnification calculation unit, 17 Secondary correction image generation unit, 18 Secondary perspective transformation coordinate calculation unit, 19 Movement parameter calculation unit, 20 Multi view image generation unit, 21 Multi View position designation unit, 22 multi-view image coordinate conversion unit, 30 multi-view image generation means, 41 background image data storage unit, 42 object extraction unit (floor surface) Position acquisition unit), 43 object position coordinate calculation unit (floor surface position acquisition unit), 44 floor plan input unit (floor surface position acquisition unit), 45 in-image floor coordinate designation unit (floor surface position acquisition unit), 46 Input image coordinate acquisition unit (floor surface position acquisition unit), 47 Multi-view conversion formula generation unit (plane projection conversion unit), 48 Inverse multi-view conversion formula generation unit (plane projection conversion unit), 49 Conversion image coordinate calculation unit (plane Projection conversion unit), 50 Original image coordinate calculation unit (plane projection conversion unit), 51 Plane projection conversion calculation unit (plane projection conversion unit), 52 Plane projection conversion calculation unit (floor surface image generation unit), 53 Floor plan view coordinates Calculation unit (planar projection conversion unit), 54 floor plan intermediate coordinate calculation unit (intermediate point determination unit), 55 original image coordinate calculation unit (floor surface image generation unit), 56 converted image coordinate calculation unit (floor Image generation means), 57 floor surface intermediate image plane projection conversion calculation section (floor surface image generation means), 58 floor area extraction section (floor surface image generation means), 59 floor surface intermediate image generation section (floor surface image generation) Means), 60 intermediate image object generation unit (intermediate image generation unit), 61 object size correction unit (intermediate image generation unit), 62 intermediate image generation unit (intermediate image generation unit).
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007051695A JP2008217243A (en) | 2007-03-01 | 2007-03-01 | Image creation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007051695A JP2008217243A (en) | 2007-03-01 | 2007-03-01 | Image creation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008217243A true JP2008217243A (en) | 2008-09-18 |
Family
ID=39837236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007051695A Pending JP2008217243A (en) | 2007-03-01 | 2007-03-01 | Image creation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008217243A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011227613A (en) * | 2010-04-16 | 2011-11-10 | Canon Inc | Image processor and method |
WO2011148595A1 (en) * | 2010-05-26 | 2011-12-01 | 日本電気株式会社 | Image processing device, image processing method, and image processing program |
WO2013105205A1 (en) * | 2012-01-10 | 2013-07-18 | 日本電気株式会社 | Image processing apparatus, image processing method, and image processing program |
US8781252B2 (en) | 2010-08-16 | 2014-07-15 | Samsung Electronics Co., Ltd. | Image processing apparatus and method |
US8953046B2 (en) | 2010-04-16 | 2015-02-10 | Canon Kabushiki Kaisha | Information processing apparatus for selecting a camera to be used to generate a virtual viewpoint video from images shot by a plurality of cameras |
JP2017097799A (en) * | 2015-11-27 | 2017-06-01 | 日本電信電話株式会社 | Image processor, image processing method and computer program |
US20190228565A1 (en) * | 2016-10-11 | 2019-07-25 | Canon Kabushiki Kaisha | Image processing system, method of controlling image processing system, and storage medium |
JP2020046744A (en) * | 2018-09-14 | 2020-03-26 | キヤノン株式会社 | Image processing apparatus, background image generation method, and program |
US10748328B2 (en) | 2016-04-28 | 2020-08-18 | Live2D Inc. | Recording medium, information processing apparatus, influence degree deriving method, and image generation method |
US11272153B2 (en) | 2017-12-25 | 2022-03-08 | Canon Kabushiki Kaisha | Information processing apparatus, method for controlling the same, and recording medium |
CN115018877A (en) * | 2021-03-03 | 2022-09-06 | 腾讯科技(深圳)有限公司 | Special effect display method, device and equipment for ground area and storage medium |
EP2936806B1 (en) * | 2012-12-18 | 2023-03-29 | QUALCOMM Incorporated | Realistic point of view video method and apparatus |
-
2007
- 2007-03-01 JP JP2007051695A patent/JP2008217243A/en active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8717419B2 (en) | 2010-04-16 | 2014-05-06 | Canon Kabushiki Kaisha | Image processing apparatus and method |
US8953046B2 (en) | 2010-04-16 | 2015-02-10 | Canon Kabushiki Kaisha | Information processing apparatus for selecting a camera to be used to generate a virtual viewpoint video from images shot by a plurality of cameras |
JP2011227613A (en) * | 2010-04-16 | 2011-11-10 | Canon Inc | Image processor and method |
WO2011148595A1 (en) * | 2010-05-26 | 2011-12-01 | 日本電気株式会社 | Image processing device, image processing method, and image processing program |
US9053522B2 (en) | 2010-05-26 | 2015-06-09 | Nec Corporation | Image processing device, image processing method, and image processing program |
JP5825256B2 (en) * | 2010-05-26 | 2015-12-02 | 日本電気株式会社 | Image processing apparatus, image processing method, and image processing program |
US8781252B2 (en) | 2010-08-16 | 2014-07-15 | Samsung Electronics Co., Ltd. | Image processing apparatus and method |
WO2013105205A1 (en) * | 2012-01-10 | 2013-07-18 | 日本電気株式会社 | Image processing apparatus, image processing method, and image processing program |
EP2936806B1 (en) * | 2012-12-18 | 2023-03-29 | QUALCOMM Incorporated | Realistic point of view video method and apparatus |
JP2017097799A (en) * | 2015-11-27 | 2017-06-01 | 日本電信電話株式会社 | Image processor, image processing method and computer program |
US10748328B2 (en) | 2016-04-28 | 2020-08-18 | Live2D Inc. | Recording medium, information processing apparatus, influence degree deriving method, and image generation method |
US11037364B2 (en) * | 2016-10-11 | 2021-06-15 | Canon Kabushiki Kaisha | Image processing system for generating a virtual viewpoint image, method of controlling image processing system, and storage medium |
US20190228565A1 (en) * | 2016-10-11 | 2019-07-25 | Canon Kabushiki Kaisha | Image processing system, method of controlling image processing system, and storage medium |
US11272153B2 (en) | 2017-12-25 | 2022-03-08 | Canon Kabushiki Kaisha | Information processing apparatus, method for controlling the same, and recording medium |
JP2020046744A (en) * | 2018-09-14 | 2020-03-26 | キヤノン株式会社 | Image processing apparatus, background image generation method, and program |
JP7271115B2 (en) | 2018-09-14 | 2023-05-11 | キヤノン株式会社 | Image processing device, background image generation method and program |
CN115018877A (en) * | 2021-03-03 | 2022-09-06 | 腾讯科技(深圳)有限公司 | Special effect display method, device and equipment for ground area and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008217243A (en) | Image creation device | |
JP4065488B2 (en) | 3D image generation apparatus, 3D image generation method, and storage medium | |
US10789765B2 (en) | Three-dimensional reconstruction method | |
EP0684585B1 (en) | Image forming method and apparatus | |
JP6363863B2 (en) | Information processing apparatus and information processing method | |
JP5725953B2 (en) | Imaging apparatus, control method therefor, and information processing apparatus | |
WO2019082797A1 (en) | Reconfiguration method and reconfiguration device | |
JP2006113807A (en) | Image processor and image processing program for multi-eye-point image | |
JP2011129082A (en) | Three-dimensional object recognition device and three-dimensional object recognition method | |
JP2011060216A (en) | Device and method of processing image | |
WO2019065536A1 (en) | Reconfiguration method and reconfiguration device | |
JP6304244B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
KR101813617B1 (en) | Camera rig method for acquiring 3d data, camera rig system performing the same, and storage medium storing the same | |
JPWO2019230813A1 (en) | 3D reconstruction method and 3D reconstruction device | |
JP2019128641A (en) | Image processing device, image processing method and program | |
JP2003179800A (en) | Device for generating multi-viewpoint image, image processor, method and computer program | |
JPWO2018052100A1 (en) | Image processing apparatus, image processing method, and image processing program | |
JPWO2019225682A1 (en) | 3D reconstruction method and 3D reconstruction device | |
JP4860431B2 (en) | Image generation device | |
JP6409769B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
JP2021128592A (en) | Image processing device, image processing method, learned model generation method, and program | |
JP2005063041A (en) | Three-dimensional modeling apparatus, method, and program | |
JP6595878B2 (en) | Element image group generation apparatus and program thereof | |
JP5001400B2 (en) | Shield removal display device | |
JP2014096761A (en) | Image processing apparatus, and control method and control program of the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080707 |