[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2008217243A - Image creation device - Google Patents

Image creation device Download PDF

Info

Publication number
JP2008217243A
JP2008217243A JP2007051695A JP2007051695A JP2008217243A JP 2008217243 A JP2008217243 A JP 2008217243A JP 2007051695 A JP2007051695 A JP 2007051695A JP 2007051695 A JP2007051695 A JP 2007051695A JP 2008217243 A JP2008217243 A JP 2008217243A
Authority
JP
Japan
Prior art keywords
image
view
floor
camera
floor surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007051695A
Other languages
Japanese (ja)
Inventor
Minoru Wada
稔 和田
Hiroshi Ito
浩 伊藤
Kazuo Sugimoto
和夫 杉本
Shuichi Yamagishi
秀一 山岸
Etsuhisa Yamada
悦久 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2007051695A priority Critical patent/JP2008217243A/en
Publication of JP2008217243A publication Critical patent/JP2008217243A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image creation device for displaying a smooth intermediate image without any feeling of incompatibility in switching a plurality of multi-aspect images. <P>SOLUTION: This image creation device is provided with an intermediate point determination means for specifying a plurality of positions relating to apparently different same articles on the plan view of one or more objects, and for determining the intermediate points of the plurality of positions; and a floor surface image generation means for converting the intermediate points into positions on a multi-view image, and for generating the image of a floor surface according to the positions on the multi-view images, and configured to generate an intermediate image between a plurality of multi-view images from the images of one or more objects placed on the floor surface in a plurality of camera images and the image of the floor surface. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、複数のカメラ等で撮影された多視点画像からスポーツ鑑賞や監視などの用途に有用な画像を生成する画像生成装置に関するものである。   The present invention relates to an image generation apparatus that generates images useful for sports appreciation and monitoring from multi-viewpoint images captured by a plurality of cameras or the like.

従来の画像生成装置では、ある方向から撮影された3次元空間内のある領域の画像P1と、別の方向から撮影された同一領域の画像P2との間で中間視点画像を生成する場合、その画像P1と画像P2から3次元空間内の任意の点に対応する点V1,V2を見つけ、それらの点V1,V2を線形補間することで、中間視点画像を生成するようにしている(例えば、非特許文献1を参照)。   In a conventional image generation apparatus, when generating an intermediate viewpoint image between an image P1 of a certain region in a three-dimensional space photographed from a certain direction and an image P2 of the same region photographed from another direction, An intermediate viewpoint image is generated by finding points V1 and V2 corresponding to arbitrary points in the three-dimensional space from the images P1 and P2 and linearly interpolating these points V1 and V2 (for example, (Refer nonpatent literature 1).

例えば、下記の線形補間式を用いて、点V1,V2を線形補間する。

Figure 2008217243
ただし、V3は中間点、αは重みを表している。
また、v1,v2,v3は、点V1,V2,V3の位置ベクトルを表している。 For example, the points V1 and V2 are linearly interpolated using the following linear interpolation formula.
Figure 2008217243
However, V3 represents an intermediate point and α represents a weight.
Further, v1, v2, and v3 represent position vectors of the points V1, V2, and V3.

稲本他、「視点位置の内挿に基づく3次元サッカー映像の自由視点鑑賞システム」映像情報メディア学会 Vol.58 No.4 pp529−539 2004Inamoto et al., “Free viewpoint appreciation system for 3D soccer video based on interpolation of viewpoint position”, Video Information Media Society Vol. 58 No. 4 pp529-539 2004

従来の画像生成装置は以上のように構成されているので、画像P1と画像P2の間で中間視点画像を生成する際、3次元空間内の任意の点に対応する点V1,V2を線形補間する。しかし、点V1,V2を線形補間する場合、3次元空間内に存在する物体の中間位置が不自然な位置に決定されることがあり、その場合には、不自然な位置に決定された中間位置を基準にして、2つの物体間の距離や床面画像が生成されるため、画像P1,P2や中間視点画像間で表示を切り替える際、物体や床などが縮むように見えたり、不自然な位置に物体が移動したりすることがあるなどの課題があった。   Since the conventional image generating apparatus is configured as described above, when generating an intermediate viewpoint image between the image P1 and the image P2, the points V1 and V2 corresponding to arbitrary points in the three-dimensional space are linearly interpolated. To do. However, when the points V1 and V2 are linearly interpolated, the intermediate position of the object existing in the three-dimensional space may be determined as an unnatural position. In this case, the intermediate position determined as the unnatural position is determined. Since the distance between two objects and the floor image are generated based on the position, when switching the display between the images P1 and P2 and the intermediate viewpoint image, the object, the floor, etc. may appear to be shrunk or unnatural. There was a problem that an object sometimes moved to a position.

この発明は上記のような課題を解決するためになされたもので、複数の多視点画像を切り替える際、滑らかで違和感のない中間画像を表示することができる画像生成装置を得ることを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an image generation apparatus capable of displaying an intermediate image that is smooth and has no sense of incongruity when a plurality of multi-viewpoint images are switched. .

この発明に係る画像生成装置は、床面に置かれている1以上の物体の床面上の位置を床面の平面図上の位置に変換する平面射影変換手段と、平面射影変換手段により変換された1以上の物体の平面図上の位置の中から、その平面図上では見かけ上異なる同一物品に係る複数の位置を特定し、複数の位置の中間点を決定する中間点決定手段と、中間点決定手段により決定された中間点をマルチビュー画像上の位置に変換し、マルチビュー画像上の位置に応じて床面の画像を生成する床面画像生成手段とを設け、中間画像生成手段が複数のカメラ画像内の床面に置かれている1以上の物体の画像と床面画像生成手段により生成された床面の画像から、マルチビュー画像生成手段により生成された複数のマルチビュー画像間の中間画像を生成するようにしたものである。   The image generation apparatus according to the present invention includes a plane projection conversion means for converting a position on the floor surface of one or more objects placed on the floor surface into a position on a floor plan of the floor, and conversion by the plane projection conversion means. Intermediate point determination means for specifying a plurality of positions related to the same article that are apparently different on the plan view from among the positions on the plan view of the one or more objects, and determining intermediate points of the plurality of positions; An intermediate image generation unit configured to convert the intermediate point determined by the intermediate point determination unit into a position on the multi-view image and generate a floor image according to the position on the multi-view image; A plurality of multi-view images generated by the multi-view image generation unit from the images of one or more objects placed on the floor surface in the plurality of camera images and the floor image generated by the floor surface image generation unit Will generate an intermediate image It is obtained by the.

この発明によれば、床面に置かれている1以上の物体の床面上の位置を床面の平面図上の位置に変換する平面射影変換手段と、平面射影変換手段により変換された1以上の物体の平面図上の位置の中から、その平面図上では見かけ上異なる同一物品に係る複数の位置を特定し、複数の位置の中間点を決定する中間点決定手段と、中間点決定手段により決定された中間点をマルチビュー画像上の位置に変換し、マルチビュー画像上の位置に応じて床面の画像を生成する床面画像生成手段とを設け、中間画像生成手段が複数のカメラ画像内の床面に置かれている1以上の物体の画像と床面画像生成手段により生成された床面の画像から、マルチビュー画像生成手段により生成された複数のマルチビュー画像間の中間画像を生成するように構成したので、複数の多視点画像を切り替える際、滑らかで違和感のない中間画像を表示することができる効果がある。   According to the present invention, the plane projection conversion means for converting the position on the floor surface of one or more objects placed on the floor surface into the position on the floor plan of the floor, and the 1 converted by the plane projection conversion means. Among the positions on the plan view of the object described above, a plurality of positions related to the same article that are apparently different on the plan view are specified, and a midpoint determination means for determining a midpoint between the plurality of positions, and a midpoint determination Means for converting the intermediate point determined by the means to a position on the multi-view image, and generating a floor image according to the position on the multi-view image. An intermediate between a plurality of multi-view images generated by the multi-view image generating means from the image of one or more objects placed on the floor surface in the camera image and the floor image generated by the floor image generating means Configured to generate images In, when switching a plurality of multi-view images, there is an effect that can be displayed smooth, no feeling of strangeness intermediate image.

実施の形態1.
図1はこの発明の実施の形態1による画像生成装置のマルチビュー画像生成手段を示す構成図である。
図1の画像生成装置の場合、N台のカメラを使用して、ある3次元領域をそれぞれ異なる方向から撮影した複数の画像に対して、上記領域内に存在するある物体が、全ての画像で同じ大きさになるように各画像を拡大または縮小し、かつ、画像内の同じ座標に位置するよう移動し、さらに、水平方向や垂直方向の歪を補正するようにしている。
なお、上記のような画像を、N台のカメラにより撮影されたN枚の画像を用いて生成した後、それらの画像をカメラの並びの順番に表示すると、ある物体を中心に等距離の視点をカメラの並びに沿って順番に移動させたような画像効果を得ることができる。以後、上記のような効果をマルチビュー効果または単にマルチビューと称する。
これ以降の説明では、N台のカメラで、水平な平面である床面にいくつかの物体が置かれている領域を撮影し、その領域に対してマルチビュー効果を有する画像を生成するものとする。
Embodiment 1 FIG.
1 is a block diagram showing a multi-view image generating means of an image generating apparatus according to Embodiment 1 of the present invention.
In the case of the image generating apparatus of FIG. 1, for a plurality of images obtained by photographing N-dimensional images from different directions using N cameras, an object existing in the region is all images. Each image is enlarged or reduced so as to have the same size, moved so as to be positioned at the same coordinates in the image, and further, distortion in the horizontal direction or the vertical direction is corrected.
In addition, after generating the above images using N images taken by N cameras, when these images are displayed in the order of camera arrangement, an equidistant viewpoint centered on an object It is possible to obtain an image effect such that the images are sequentially moved along the camera. Hereinafter, such an effect is referred to as a multi-view effect or simply a multi-view.
In the following description, it is assumed that an area in which several objects are placed on the floor surface, which is a horizontal plane, is captured by N cameras, and an image having a multi-view effect is generated for the area. To do.

図において、マルチビュー画像生成手段30は相互に異なる方向から同一の3次元領域が撮影された複数のカメラ画像のマルチビュー変換を実施して、複数のカメラ画像内の床面に置かれているマルチビュー対象の物体の位置及び大きさが一致している複数のマルチビュー画像を生成する処理を実施する。   In the figure, the multi-view image generation means 30 performs multi-view conversion of a plurality of camera images in which the same three-dimensional area is photographed from different directions, and is placed on the floor surface in the plurality of camera images. A process of generating a plurality of multi-view images in which the positions and sizes of the objects to be multi-viewed match is executed.

カメラ1−1〜1−Nは相互に異なる方向から同一の3次元領域を撮影し、その3次元領域の撮影結果であるオリジナル画像n(1≦n≦N)を出力する。
画像データ一時保存部2はカメラ1−n(1≦n≦N)から出力されたオリジナル画像n(1≦n≦N)を一時的に保存するメモリである。
ただし、この実施の形態1では、以降、説明の簡単化のために、N=8であるものとして説明する。
The cameras 1-1 to 1-N photograph the same three-dimensional area from different directions, and output an original image n (1 ≦ n ≦ N) that is a photographing result of the three-dimensional area.
The image data temporary storage unit 2 is a memory for temporarily storing an original image n (1 ≦ n ≦ N) output from the camera 1-n (1 ≦ n ≦ N).
In the first embodiment, however, it is assumed that N = 8 for the sake of simplicity.

マルチビュー位置指定部3は画像データ一時保存部2に保存されている8枚のオリジナル画像nの中から任意のオリジナル画像n1(1≦n1≦8)の選択を受け付け、そのオリジナル画像n1に存在するマルチビュー対象の物体(ユーザがマルチビューを希望する物体)の床面上の位置を示す画像座標の指定を受け付ける処理を実施する。
マルチビュー位置指定部3における画像座標の読み取りは、ユーザがオリジナル画像n1を見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
The multi-view position designating unit 3 accepts the selection of an arbitrary original image n 1 (1 ≦ n 1 ≦ 8) from the eight original images n stored in the image data temporary storage unit 2, and the original image n A process of accepting designation of image coordinates indicating the position on the floor surface of the multi-view target object (object that the user desires for multi-view) existing in 1 is performed.
The image coordinates are read by the multi-view position designating unit 3 while the user views the original image n 1 and, for example, operates the mouse to designate the position in the image, thereby reading the image coordinates at that position. Alternatively, it may be automatically specified by some method.

基準位置指定部4は画像データ一時保存部2に保存されている8枚のオリジナル画像nの中から任意のオリジナル画像n2(1≦n2≦8)の選択を受け付け、そのオリジナル画像n2に存在する垂直基準棒が床面に垂直に接している床面上の位置を示す画像座標の指定を受け付ける処理を実施する。
基準位置指定部4における画像座標の読み取りは、ユーザがオリジナル画像n2を見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
The reference position specifying unit 4 accepts the selection of an arbitrary original image n 2 (1 ≦ n 2 ≦ 8) from the eight original images n stored in the image data temporary storage unit 2, and the original image n 2. The process of accepting designation of image coordinates indicating the position on the floor surface where the vertical reference bar present in FIG.
The reading of the image coordinates in the reference position specifying unit 4 may be performed by reading the image coordinates of the position by, for example, operating the mouse and specifying the position in the image while the user views the original image n 2. Alternatively, it may be automatically specified by some method.

床面座標読取部5は画像データ一時保存部2に保存されているオリジナル画像n(1≦n≦8)の、例えば床面上に共通に存在しているマーキング(図2を参照)の頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を読み取る処理を実施する。ここでは頂点(1)〜(4)は床面にマーキングされた四角形の頂点であるが、四角形でなくてもよく、4点以上であればよい。
水平消失点算出部6は画像データ一時保存部2に保存されているオリジナル画像n(1≦n≦8)毎に、オリジナル画像nの水平消失点(例えば、カメラ1−nの光軸を床面に垂直な方向に投影した床面上の直線の無限遠点をオリジナル画像に投影した消失点)の画像座標を算出する処理を実施する。
垂直消失点算出部7は画像データ一時保存部2に保存されているオリジナル画像n(1≦n≦8)毎に、オリジナル画像nの垂直消失点(床面に垂直な直線の無限遠点を画像に投影した消失点)の画像座標を算出する処理を実施する。
The floor surface coordinate reading unit 5 is an apex of the marking (see FIG. 2) that exists in common on the floor surface of the original image n (1 ≦ n ≦ 8) stored in the image data temporary storage unit 2. (1) A process of reading the image coordinates of the vertex (2), the vertex (3), and the vertex (4) is performed. Here, the vertices (1) to (4) are quadrangular vertices marked on the floor surface.
For each original image n (1 ≦ n ≦ 8) stored in the image data temporary storage unit 2, the horizontal vanishing point calculation unit 6 uses the horizontal vanishing point of the original image n (for example, the optical axis of the camera 1-n as the floor). The process of calculating the image coordinates of the vanishing point obtained by projecting the infinity point of the straight line on the floor surface projected in the direction perpendicular to the surface onto the original image is performed.
For each original image n (1 ≦ n ≦ 8) stored in the image data temporary storage unit 2, the vertical vanishing point calculation unit 7 calculates a vertical vanishing point of the original image n (a straight line infinity point perpendicular to the floor surface). The process of calculating the image coordinates of the vanishing points projected on the image is performed.

平面射影変換行列算出部8はオリジナル画像n1と他のオリジナル画像n(オリジナル画像n1を除く)におけるマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を使用して、オリジナル画像n1と他のオリジナル画像n(オリジナル画像n1を除く)間で、床面を構成する平面の平面射影変換行列Hn1-1〜Hn1-8(1≦n1≦8の7個)を算出する処理を実施する。
また、平面射影変換行列算出部8はオリジナル画像n2と他のオリジナル画像n(オリジナル画像n2を除く)におけるマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を使用して、オリジナル画像n2と他のオリジナル画像n(オリジナル画像n2を除く)間で、床面を構成する平面の平面射影変換行列Hn2-1〜Hn2-8(1≦n2≦8の7個)を算出する処理を実施する。
平面射影変換行列の算出方法は、例えば、非特許文献「出口光一郎 “ロボットビジョンの基礎”p47(本文献ではホモグラフィー行列と記載されている)」に記載されている。
The planar projective transformation matrix calculation unit 8 images the marking vertex (1), vertex (2), vertex (3), and vertex (4) in the original image n 1 and other original images n (excluding the original image n 1 ). Using the coordinates, a plane projective transformation matrix H n1-1 to H n1-8 (1 ≦ 1) of the plane constituting the floor surface between the original image n 1 and another original image n (excluding the original image n 1 ). The process of calculating 7 pieces of n 1 ≦ 8 is performed.
The plane projective transformation matrix calculation unit 8 also performs marking vertex (1), vertex (2), vertex (3), vertex (4) in the original image n 2 and other original images n (excluding the original image n 2 ). The plane projection transformation matrices H n2-1 to H n2-8 of the plane constituting the floor surface between the original image n 2 and another original image n (excluding the original image n 2 ) A process of calculating 7 of 1 ≦ n 2 ≦ 8 is performed.
The calculation method of the planar projective transformation matrix is described in, for example, a non-patent document “Koichiro Deguchi“ Basics of Robot Vision ”p47 (described as a homography matrix in this document)”.

マルチビュー位置算出部9は平面射影変換行列算出部8により算出された平面射影変換行列Hn1-1〜Hn1-8を用いて、オリジナル画像n(オリジナル画像n1を除く)に存在するマルチビュー対象の物体の床面上の位置を示す画像座標を算出する処理を実施する。即ち、平面射影変換行列Hn1-1〜Hn1-8を用いて、マルチビュー位置指定部3により指定が受け付けられたマルチビュー対象の物体の床面上の位置を示す画像座標(または、マルチビュー画像座標変換部22により変換された画像座標)を、オリジナル画像n(オリジナル画像n1を除く)の画像座標に変換することにより、オリジナル画像n(オリジナル画像n1を除く)に存在するマルチビュー対象の物体の床面上の位置を示す画像座標を算出する処理を実施する。 Multi-view position calculating unit 9 using the homography matrix H n1-1 ~H n1-8 calculated by planar projective transformation matrix calculation unit 8, present in the original image n (excluding original image n 1) Multi A process of calculating image coordinates indicating the position of the object to be viewed on the floor surface is performed. That is, using the plane projection transformation matrices H n1-1 to H n1-8 , the image coordinates indicating the position on the floor surface of the object of the multi-view target accepted by the multi-view position designating unit 3 (or the multi-view By converting the image coordinates converted by the view image coordinate conversion unit 22 into the image coordinates of the original image n (excluding the original image n 1 ), the multi-image existing in the original image n (excluding the original image n 1 ) is converted. A process of calculating image coordinates indicating the position of the object to be viewed on the floor surface is performed.

基準位置算出部10は平面射影変換行列算出部8により算出された平面射影変換行列Hn2-1〜Hn2-8を用いて、オリジナル画像n(オリジナル画像n2を除く)に存在する垂直基準棒の床面上の位置を示す画像座標を算出する処理を実施する。即ち、平面射影変換行列Hn2-1〜Hn2-8を用いて、基準位置指定部4により指定が受け付けられたオリジナル画像n2内の垂直基準棒の床面位置を示す画像座標を、オリジナル画像n(オリジナル画像n2を除く)の画像座標に変換する処理を実施することにより、オリジナル画像n(オリジナル画像n2を除く)に存在する垂直基準棒の床面上の位置を示す画像座標を算出する処理を実施する。 The reference position calculation unit 10 uses the plane projection transformation matrices H n2-1 to H n2-8 calculated by the plane projection transformation matrix calculation unit 8 to use the vertical reference existing in the original image n (excluding the original image n 2 ). A process of calculating image coordinates indicating the position of the bar on the floor is performed. That is, using the plane projection transformation matrices H n2-1 to H n2-8 , the image coordinates indicating the floor position of the vertical reference bar in the original image n 2 that has been designated by the reference position designating unit 4 are converted into the original coordinates. by carrying out the processing of converting the image coordinates of the image n (excluding the original image n 2), image coordinates indicating the position on the floor surface of the vertical reference rod present in the original image n (excluding the original image n 2) The process of calculating is performed.

画像内倍率算出部11はマルチビュー位置算出部9により算出されたオリジナル画像nに存在するマルチビュー対象の床面位置を示す画像座標と、基準位置算出部10により算出されたオリジナル画像nに存在する垂直基準棒の床面位置を示す画像座標と、水平消失点算出部6により算出されたオリジナル画像nの水平消失点の画像座標とを用いて、マルチビュー対象の物体を垂直基準棒と同じ奥行きの床面位置まで移動させた場合のマルチビュー対象の物体の画像内倍率(マルチビュー対象の物体の大きさの見え方の変化倍率)を算出する処理を実施する。   The in-image magnification calculation unit 11 is present in the original image n calculated by the multi-view position calculation unit 9 and in the original image n calculated by the reference position calculation unit 10. The object of the multi-view target is the same as the vertical reference bar using the image coordinates indicating the floor position of the vertical reference bar and the horizontal vanishing point image coordinates of the original image n calculated by the horizontal vanishing point calculation unit 6. A process of calculating an in-image magnification (change magnification of how the size of the object of the multi-view target is viewed) when the object is moved to the floor position of the depth is performed.

カメラ水平軸歪補正パラメータ算出部12は垂直消失点算出部7により算出されたオリジナル画像nの垂直消失点から、オリジナル画像nを撮影する際のカメラ1−nの傾きに起因する水平軸歪の補正パラメータを算出する処理を実施する。
透視投影歪補正パラメータ算出部13は垂直消失点算出部7により算出されたオリジナル画像nの垂直消失点から、カメラ1−nの撮影時に3次元空間を2次元平面に透視投影することに起因する画像の透視投影歪の補正パラメータを算出する処理を実施する。
The camera horizontal axis distortion correction parameter calculation unit 12 calculates the horizontal axis distortion caused by the tilt of the camera 1-n when shooting the original image n from the vertical vanishing point of the original image n calculated by the vertical vanishing point calculation unit 7. A process for calculating a correction parameter is performed.
The perspective projection distortion correction parameter calculation unit 13 is based on perspective projection of a three-dimensional space onto a two-dimensional plane from the vertical vanishing point of the original image n calculated by the vertical vanishing point calculation unit 7 when the camera 1-n is photographed. Processing for calculating a correction parameter for perspective projection distortion of an image is performed.

1次補正画像生成部14はカメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータとを用いて、オリジナル画像nの水平軸歪と透視投影歪を補正し、補正後の画像を1次補正画像n(1≦n≦8)として出力する。
基準長読取部15は1次補正画像生成部14から出力された1次補正画像n内の垂直基準棒の見かけの長さを読み取る処理を実施する。
The primary correction image generation unit 14 uses the horizontal axis distortion correction parameter calculated by the camera horizontal axis distortion correction parameter calculation unit 12 and the perspective projection distortion correction parameter calculated by the perspective projection distortion correction parameter calculation unit 13. Then, the horizontal axis distortion and the perspective projection distortion of the original image n are corrected, and the corrected image is output as a primary corrected image n (1 ≦ n ≦ 8).
The reference length reading unit 15 performs a process of reading the apparent length of the vertical reference bar in the primary correction image n output from the primary correction image generation unit 14.

画像間倍率算出部16は画像内倍率算出部11により算出されたマルチビュー対象の物体の画像内倍率と、基準長読取部15により読み取られた1次補正画像n内の垂直基準棒の見かけの長さを用いて、1次補正画像n(1≦n≦8)におけるマルチビュー対象の物体を同じ大きさで表示する場合の画像間倍率を1次補正画像n毎に算出する処理を実施する。
このとき、画像間倍率を用いて、1次補正画像nを拡大又は縮小して、大きさを補正するようにしてもよい。
The inter-image magnification calculator 16 calculates the in-image magnification of the object to be viewed by the multi-view target calculated by the in-image magnification calculator 11 and the apparent vertical reference bar in the primary correction image n read by the reference length reader 15. Using the length, a process of calculating an image-to-image magnification for each primary correction image n in a case where an object to be multiviewed in the primary correction image n (1 ≦ n ≦ 8) is displayed with the same size is performed. .
At this time, the size may be corrected by enlarging or reducing the primary correction image n using the inter-image magnification.

2次補正画像生成部17はカメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータと、画像間倍率算出部16により算出された画像間倍率とを用いて、2次透視変換を実施することにより、オリジナル画像n(1≦n≦8)の歪や大きさを補正し、補正後の画像を2次補正画像n(1≦n≦8)として出力する。   The secondary correction image generation unit 17 includes a horizontal axis distortion correction parameter calculated by the camera horizontal axis distortion correction parameter calculation unit 12, a perspective projection distortion correction parameter calculated by the perspective projection distortion correction parameter calculation unit 13, and an image. By performing secondary perspective transformation using the inter-image magnification calculated by the inter-image magnification calculation unit 16, the distortion and size of the original image n (1 ≦ n ≦ 8) are corrected, and the corrected image Is output as a secondary corrected image n (1 ≦ n ≦ 8).

2次透視変換座標算出部18は2次補正画像生成部17がカメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータと、画像間倍率算出部16により算出された画像間倍率とを用いて、2次透視変換を実施した場合のマルチビュー対象の物体の画像座標(マルチビュー対象の物体の移動先の画像座標)を算出する処理を実施する。
移動パラメータ算出部19は2次透視変換座標算出部18により算出されたマルチビュー対象の物体の移動先の画像座標と、画像中心とのずれを移動パラメータとして算出する処理を実施する。
The secondary perspective transformation coordinate calculation unit 18 is calculated by the secondary correction image generation unit 17 by the horizontal axis distortion correction parameter calculated by the camera horizontal axis distortion correction parameter calculation unit 12 and the perspective projection distortion correction parameter calculation unit 13. The image coordinates of the multi-view target object when the second perspective transformation is performed using the perspective projection distortion correction parameter and the inter-image magnification calculated by the inter-image magnification calculating unit 16 (the multi-view target object image coordinates). A process of calculating the image coordinates of the movement destination is performed.
The movement parameter calculation unit 19 performs a process of calculating, as a movement parameter, a shift between the image coordinates of the movement destination of the multi-view target object calculated by the secondary perspective transformation coordinate calculation unit 18 and the image center.

マルチビュー画像生成部20は移動パラメータ算出部19により算出された移動パラメータにしたがって、2次補正画像生成部17から出力された2次補正画像n(1≦n≦8)を移動させることにより、マルチビュー対象の物体が画像の中心に存在するマルチビュー画像n(1≦n≦8)を生成する処理を実施する。
マルチビュー位置指定部21はマルチビュー画像生成部20により生成されたマルチビュー画像n(1≦n≦8)に対して、新たなマルチビューの位置の指定を受け付ける処理を実施する。
The multi-view image generation unit 20 moves the secondary correction image n (1 ≦ n ≦ 8) output from the secondary correction image generation unit 17 in accordance with the movement parameter calculated by the movement parameter calculation unit 19. A process of generating a multi-view image n (1 ≦ n ≦ 8) in which a multi-view target object exists at the center of the image is performed.
The multi-view position designation unit 21 performs a process of receiving designation of a new multi-view position for the multi-view image n (1 ≦ n ≦ 8) generated by the multi-view image generation unit 20.

マルチビュー画像座標変換部22は移動パラメータ算出部19により算出された移動パラメータの逆移動パラメータと、2次透視変換座標算出部18により算出された2次透視変換の逆変換と、平面射影変換行列算出部8により算出された平面射影変換行列の逆変換行列とを用いて、マルチビュー位置指定部21により指定が受け付けられたマルチビュー画像n(1≦n≦8)上の座標位置を、オリジナル画像n(1≦n≦8)上の座標位置に変換する処理を実施する。   The multi-view image coordinate conversion unit 22 is a reverse movement parameter of the movement parameter calculated by the movement parameter calculation unit 19, an inverse conversion of the secondary perspective conversion calculated by the secondary perspective conversion coordinate calculation unit 18, and a planar projection conversion matrix. Using the inverse transformation matrix of the planar projective transformation matrix calculated by the calculation unit 8, the coordinate position on the multi-view image n (1 ≦ n ≦ 8) received by the multi-view position specification unit 21 is converted into the original A process of converting to a coordinate position on the image n (1 ≦ n ≦ 8) is performed.

図10はこの発明の実施の形態1による画像生成装置の一部(マルチビュー画像生成手段を除く部分)を示す構成図である。
ただし、図1に記述しているカメラ1−1〜1−N及び画像データ一時保存部2については、図10でも記述している。
FIG. 10 is a block diagram showing a part of the image generating apparatus (part excluding the multi-view image generating means) according to Embodiment 1 of the present invention.
However, the cameras 1-1 to 1-N and the image data temporary storage unit 2 described in FIG. 1 are also described in FIG.

背景画像データ保存部41は画像データ一時保存部2からカメラ1−n(1≦n≦N)により撮影された背景画像nを取得して、その背景画像nをカメラ1−n毎に保存するメモリである。
ここで、「背景画像」は、画面内に動いている物体や、今後動くことが予想される物体が撮影されていない画像である。
この実施の形態1では、背景画像を取得した後は、カメラ1−nの移動は行わないものとする。
背景画像は、ユーザが複数の画像の中から選択するようにしてもよいし、ユーザが生成するようにしてもよい。また、後述する方法を実施して、自動的に生成するようにしてもよい。
一般的には、動く物体が何もない状態を撮影して背景画像とすることが多い。
背景画像の自動的な選択方法又は生成方法としては、例えば、動く物体が撮影されている画像からメディアンフィルタなどを用いて背景画像を生成する方法などがある。
背景画像データ保存部41に保存する背景画像は、周期的又は非周期的に取得しなおしてもよい。また、背景画像毎の差分などを求めて、人物などのオブジェクト抽出に影響を与えないことが判明している変動がある閾値以上あったとき、背景画像を更新するようにしてもよい。
The background image data storage unit 41 acquires the background image n captured by the camera 1-n (1 ≦ n ≦ N) from the image data temporary storage unit 2, and stores the background image n for each camera 1-n. It is memory.
Here, the “background image” is an image in which an object moving in the screen or an object expected to move in the future is not photographed.
In the first embodiment, the camera 1-n is not moved after the background image is acquired.
The background image may be selected by the user from a plurality of images, or may be generated by the user. Further, it may be automatically generated by executing a method described later.
In general, a background image is often obtained by photographing a state where there is no moving object.
As a background image automatic selection method or generation method, for example, there is a method of generating a background image from an image of a moving object photographed using a median filter or the like.
The background image stored in the background image data storage unit 41 may be acquired periodically or aperiodically. Further, the background image may be updated when a difference or the like for each background image is obtained and when there is a certain threshold or more that has been found not to affect the extraction of objects such as persons.

オブジェクト抽出部42は画像データ一時保存部2からカメラ1−n(1≦n≦N)により撮影されたオリジナル画像nを取得するとともに、背景画像データ保存部41からカメラ1−nにより撮影された背景画像nを取得して、そのオリジナル画像nと背景画像nに対する画像処理を実施して、オリジナル画像n内のオブジェクト(床面に置かれている物体)を抽出する処理を実施する。即ち、オリジナル画像nと背景画像nにおける同じ位置の画素の差分などを求めて動きのある画素を判定し、動きのある画素の位置を2値画像で表現し、その2値画像に対して収縮処理、拡大処理、ラベリング処理などを実施して、オリジナル画像n内のオブジェクトを抽出する。
収縮処理、拡大処理、ラベリング処理などは、例えば「井上誠喜 C言語で学ぶ実践画像処理 オーム社」に開示されている。
The object extraction unit 42 acquires the original image n captured by the camera 1-n (1 ≦ n ≦ N) from the image data temporary storage unit 2 and is captured by the camera 1-n from the background image data storage unit 41. A background image n is acquired, and image processing is performed on the original image n and the background image n to extract an object (an object placed on the floor) in the original image n. That is, a pixel having motion is determined by obtaining a difference between pixels at the same position in the original image n and the background image n, the position of the pixel having motion is represented by a binary image, and the binary image is contracted. An object in the original image n is extracted by performing processing, enlargement processing, labeling processing, and the like.
Shrinkage processing, enlargement processing, labeling processing, and the like are disclosed in, for example, “Practical image processing learned by C language Ohmsha”.

オブジェクト位置座標算出部43はオブジェクト抽出部42がオブジェクトを抽出すると、例えば、そのオブジェクト領域の重心と、平面射影変換行列算出部8により算出された平面射影変換行列と、垂直消失点算出部7により算出された垂直消失点とを用いて、オリジナル画像n内におけるオブジェクトの位置座標を算出する処理を実施する。
床平面図入力部44はカメラ1−1,1−2,・・・,1−Nで共通に撮影される床面の平面図の取り込みを行う。
「床面の平面図」は、例えば、床面にマーキングされている四角形の形状が正方形であれば正方形であり、縦横比がa:bの長方形であればa:bの長方形であり、四角形の4つの頂点が相似形で決定することができればよく、大きさは適当でよい。
また、四角形以外の三角形や、それ以外の多角形や、それ以外の形状であってもよく、平面上の4つ以上の点の位置関係が、幾何学的な相似形であればよい。
When the object extraction unit 42 extracts an object, the object position coordinate calculation unit 43 uses, for example, the center of gravity of the object region, the plane projection transformation matrix calculated by the plane projection transformation matrix calculation unit 8, and the vertical vanishing point calculation unit 7. A process of calculating the position coordinates of the object in the original image n is performed using the calculated vertical vanishing point.
The floor plan view input unit 44 captures a plan view of the floor surface photographed in common by the cameras 1-1, 1-2,.
The “plan view of the floor surface” is, for example, a square if the quadrangular shape marked on the floor surface is a square, and an a: b rectangle if the aspect ratio is an a: b rectangle. As long as the four vertices can be determined in a similar shape, the size may be appropriate.
Further, it may be a triangle other than a quadrangle, a polygon other than that, or any other shape, and the positional relationship between four or more points on the plane may be a geometric similarity.

画像内床面座標指定部45は背景画像データ保存部41に保存されている背景画像nにおいて、床平面図入力部44により取り込まれた床面の頂点に対応する点の座標(床面の位置座標)を指定する処理を実施する。
床面の位置座標の指定方法は、ユーザが画像を見ながら指定してもよいし、何らかの方法で自動的に指定してもよい。
この実施の形態1では、背景画像における床面座標を指定しているが、背景画像以外のオリジナル画像における床面座標を指定するようにしてよい。
The floor coordinate designating unit 45 in the image has the coordinates of the point corresponding to the vertex of the floor surface captured by the floor plan input unit 44 (the position of the floor surface) in the background image n stored in the background image data storage unit 41. (Coordinates) is specified.
The method for specifying the position coordinates of the floor surface may be specified by the user while viewing the image, or may be automatically specified by some method.
In the first embodiment, the floor surface coordinates in the background image are designated, but the floor surface coordinates in the original image other than the background image may be designated.

入力画像座標取得部46はオブジェクト位置座標算出部43により算出されたオリジナル画像n内のオブジェクトの位置座標、または、画像内床面座標指定部45により指定された背景画像n内の床面の位置座標のいずれか一方を選択する処理を実施する。
なお、オブジェクト抽出部42、オブジェクト位置座標算出部43、床平面図入力部44、画像内床面座標指定部45及び入力画像座標取得部46から床面位置取得手段が構成されている。
The input image coordinate acquisition unit 46 calculates the position coordinates of the object in the original image n calculated by the object position coordinate calculation unit 43 or the position of the floor surface in the background image n specified by the in-image floor surface coordinate specification unit 45. A process of selecting one of the coordinates is performed.
The object extraction unit 42, the object position coordinate calculation unit 43, the floor plan input unit 44, the in-image floor coordinate specification unit 45, and the input image coordinate acquisition unit 46 constitute a floor surface acquisition unit.

マルチビュー変換式生成部47はマルチビュー画像生成手段30によるマルチビュー変換時の画像変換パラメータとして、カメラ水平軸歪補正パラメータ算出部12により算出したカメラ水平軸歪補正パラメータと、透視投影歪補正パラメータ算出部13により算出した透視投影歪補正パラメータと、画像間倍率算出部16により算出された画像間倍率とを収集し、そのカメラ水平軸歪補正パラメータ、透視投影歪補正パラメータ及び画像間倍率を用いて、オリジナル画像をマルチビュー画像に変換したとき、そのオリジナル画像上のある位置の座標が、マルチビュー画像上のどの座標に変換されるかを算出することができるマルチビュー変換式(例えば、3×3の行列)を生成する処理を実施する。
逆マルチビュー変換式生成部48はマルチビュー変換式生成部47により生成されたマルチビュー変換式の逆変換式である逆マルチビュー変換式を生成する処理を実施する。逆マルチビュー変換式により、マルチビュー画像上のある位置の座標がマルチビュー変換される前のオリジナル画像では、どの座標であったのかを算出することができる。
The multi-view conversion equation generation unit 47 uses the camera horizontal axis distortion correction parameter calculated by the camera horizontal axis distortion correction parameter calculation unit 12 and the perspective projection distortion correction parameter as image conversion parameters when the multi-view image generation unit 30 performs multi-view conversion. The perspective projection distortion correction parameter calculated by the calculation unit 13 and the inter-image magnification calculated by the inter-image magnification calculation unit 16 are collected, and the camera horizontal axis distortion correction parameter, the perspective projection distortion correction parameter, and the inter-image magnification are used. Thus, when the original image is converted into a multi-view image, a multi-view conversion formula (for example, 3) can be calculated as to which coordinate on the multi-view image is converted from a certain position on the original image. A process of generating (× 3 matrix) is performed.
The inverse multiview conversion equation generation unit 48 performs a process of generating an inverse multiview conversion equation that is an inverse conversion equation of the multiview conversion equation generated by the multiview conversion equation generation unit 47. By the inverse multi-view conversion formula, it is possible to calculate which coordinate is in the original image before the coordinate of a certain position on the multi-view image is subjected to the multi-view conversion.

変換画像座標算出部49はマルチビュー変換式生成部47により生成されたマルチビュー変換式を用いて、入力画像座標取得部46により選択されたオリジナル画像n内のオブジェクトの位置座標(または、背景画像n内の床面の位置座標)をマルチビュー画像上の位置座標に変換する処理を実施する。
オリジナル画像座標算出部50は逆マルチビュー変換式生成部48により生成された逆マルチビュー変換式を用いて、変換画像座標算出部49により変換されたマルチビュー画像上の位置座標(各カメラ1−n(1≦n≦N)のオリジナル画像nから変換されたマルチビュー画像上の位置座標)を、ある1つのカメラ(例えば、カメラ1−1)のオリジナル画像上の位置座標に変換する処理を実施する。
ここで、ある1つのカメラのオリジナル画像は、例えば、現在、画像生成装置により表示されているオリジナル画像であってもよいし、マルチビュー画像を撮影したカメラのオリジナル画像であってもよいし、その他のカメラのオリジナル画像であってもよい。
The converted image coordinate calculation unit 49 uses the multi-view conversion formula generated by the multi-view conversion formula generation unit 47 to use the position coordinates (or background image) of the object in the original image n selected by the input image coordinate acquisition unit 46. The processing of converting the position coordinates of the floor surface in n) into the position coordinates on the multi-view image is performed.
The original image coordinate calculation unit 50 uses the inverse multiview conversion equation generated by the inverse multiview conversion equation generation unit 48 to use the position coordinates (each camera 1- 1) on the multiview image converted by the conversion image coordinate calculation unit 49. a process of converting n (position coordinates on the multi-view image converted from the original image n of 1 ≦ n ≦ N) into position coordinates on the original image of a certain camera (for example, camera 1-1). carry out.
Here, the original image of a certain camera may be, for example, the original image currently displayed by the image generation device, or the original image of the camera that captured the multi-view image, It may be an original image of another camera.

平面射影変換算出部51は床平面図入力部44により取り込まれた床面の頂点(平面図上の4点以上の座標値)と、画像内床面座標指定部45により指定された背景画像n内の床面の位置座標(床面の頂点に対応する4点以上の座標値)とから、床平面図座標算出部53が床平面図座標を算出する際に使用する平面射影変換行列(例えば、3×3の行列)をカメラ1−n毎に算出する処理を実施する。
平面射影変換算出部52は床平面図入力部44により取り込まれた床面の頂点(平面図上の4点以上の座標値)と、画像内床面座標指定部45により指定された背景画像n内の床面の位置座標(床面の頂点に対応する4点以上の座標値)とから、オリジナル画像座標算出部55がオリジナル画像上の座標を算出する際に使用する平面射影変換行列(例えば、3×3の行列)をカメラ1−n毎に算出する処理を実施する。
なお、あるカメラで撮影された画像においては、平面射影変換算出部51により算出される平面射影変換行列と、平面射影変換算出部52により算出される平面射影変換行列とが、互いに逆行列の関係である場合が多いので、その場合には、どちらか一方の平面射影変換行列を算出してから、その平面射影変換行列の逆行列を数学的に算出して、残る一方の平面射影変換行列を求めるようにしてもよい。
The plane projective transformation calculation unit 51 uses the floor surface vertices (coordinate values of four or more points on the plan view) captured by the floor plan view input unit 44 and the background image n specified by the in-image floor surface coordinate specification unit 45. A plane projective transformation matrix (for example, a plane projection transformation matrix used when the floor plan view coordinate calculation unit 53 calculates the floor plan view coordinates from the position coordinates (four or more coordinate values corresponding to the vertices of the floor surface) of (3 × 3 matrix) is calculated for each camera 1-n.
The plane projective transformation calculation unit 52 uses the floor surface vertices (coordinate values of four or more points on the plan view) captured by the floor plan view input unit 44 and the background image n specified by the in-image floor surface coordinate specification unit 45. A plane projective transformation matrix (for example, a plane projection transformation matrix used when the original image coordinate calculation unit 55 calculates the coordinates on the original image from the position coordinates of the floor surface (coordinate values of four or more points corresponding to the vertices of the floor surface). (3 × 3 matrix) is calculated for each camera 1-n.
Note that, in an image shot by a certain camera, the plane projection transformation matrix calculated by the plane projection transformation calculation unit 51 and the plane projection transformation matrix calculated by the plane projection transformation calculation unit 52 are inversely related to each other. In this case, after calculating one of the plane projection transformation matrices, calculate the inverse of the plane projection transformation matrix mathematically, and calculate the remaining one of the plane projection transformation matrices. You may make it ask.

床平面図座標算出部53は平面射影変換算出部51により算出された平面射影変換行列を用いて、オリジナル画像座標算出部50により算出されたオリジナル画像上の位置座標(例えば、カメラ1−1のオリジナル画像上の位置座標)を床面の平面図上の位置座標に変換する処理を実施する。
なお、マルチビュー変換式生成部47、逆マルチビュー変換式生成部48、変換画像座標算出部49、オリジナル画像座標算出部50、平面射影変換算出部51及び床平面図座標算出部53から平面射影変換手段が構成されている。
The floor plan coordinate calculation unit 53 uses the plane projection conversion matrix calculated by the plane projection conversion calculation unit 51 to use the position coordinates on the original image (for example, the camera 1-1) calculated by the original image coordinate calculation unit 50. A process of converting the position coordinates on the original image) to the position coordinates on the floor plan of the floor is performed.
Note that the multi-view conversion formula generation unit 47, the inverse multi-view conversion formula generation unit 48, the converted image coordinate calculation unit 49, the original image coordinate calculation unit 50, the plane projection conversion calculation unit 51, and the floor plan view coordinate calculation unit 53 perform planar projection. Conversion means is configured.

床平面図中間座標算出部54は床平面図座標算出部53により変換された1以上のオブジェクトの平面図上の位置座標の中から、平面図上では、見かけ上異なる同一オブジェクトに係る複数の位置座標を特定し、複数の位置座標の中間点を決定する処理を実施する。
即ち、床平面図中間座標算出部54は同一オブジェクトに係る複数の位置座標の中間点を決定する際、マルチビュー対象の物体の平面図上の位置を中心とする円又は楕円の円弧上にある点を中間点として決定する。なお、床平面図中間座標算出部54は中間点決定手段を構成している。
The floor plan intermediate coordinate calculation unit 54 selects a plurality of positions related to the same object on the plan view from among the position coordinates on the plan view of one or more objects converted by the floor plan coordinate calculation unit 53. A process of specifying coordinates and determining an intermediate point of a plurality of position coordinates is performed.
That is, the floor plan intermediate coordinate calculation unit 54 lies on a circle or ellipse arc centered at the position on the plan view of the object to be multiviewed when determining the intermediate point of a plurality of position coordinates related to the same object. A point is determined as the midpoint. The floor plan intermediate coordinate calculation unit 54 constitutes an intermediate point determination unit.

オリジナル画像座標算出部55は平面射影変換算出部52により算出された平面射影変換行列を用いて、床平面図中間座標算出部54により決定された中間点をオリジナル画像上の位置座標に変換する処理を実施する。
このとき、1つのオリジナル画像上の座標に変換してもよいし、カメラが異なるいくつかのオリジナル画像上の座標に変換してもよい。
変換画像座標算出部56はマルチビュー変換式生成部47により生成されたマルチビュー変換式を用いて、オリジナル画像座標算出部55により変換されたオリジナル画像上の位置座標をマルチビュー画像上の位置座標に変換する処理を実施する。
The original image coordinate calculation unit 55 uses the plane projection conversion matrix calculated by the plane projection conversion calculation unit 52 to convert the midpoint determined by the floor plan intermediate coordinate calculation unit 54 into position coordinates on the original image. To implement.
At this time, it may be converted into coordinates on one original image, or may be converted into coordinates on several original images with different cameras.
The converted image coordinate calculation unit 56 uses the multi-view conversion formula generated by the multi-view conversion formula generation unit 47 to convert the position coordinate on the original image converted by the original image coordinate calculation unit 55 into the position coordinate on the multi-view image. Perform the process of converting to.

床面中間画像用平面射影変換算出部57は変換画像座標算出部49により変換されたマルチビュー画像上の位置座標と、変換画像座標算出部56により変換されたマルチビュー画像上の位置座標とから、床面中間画像生成部59が床面の中間画像を生成する際に使用する平面射影変換行列(例えば、3×3の行列)を算出する処理を実施する。
床面領域抽出部58は画像データ一時保存部2に保存されているカメラ1−n(1≦n≦N)の背景画像nから床面領域を抽出する処理を実施する。
床面領域の抽出方法として、ユーザが背景画像から床面領域を指定する方法がある。
また、例えば、平面射影変換行列算出部8により算出されたカメラ間の平面射影変換行列を用いて、あるカメラにより撮影された背景画像を、別のカメラにより撮影された背景画像に変換し、両者の画素毎の差分を行って、その差分がある閾値以下である画素に対し、例えば、収縮処理、拡大処理などを実施して床面領域を決定するようにしてもよい。
また、背景画像を使用しないで、オブジェクトが撮影されている画像からメディアンフィルタなどを用いて背景画像に相当する画像を生成して利用するようにしてもよい。
The floor surface intermediate image plane projection conversion calculation unit 57 uses the position coordinates on the multi-view image converted by the conversion image coordinate calculation unit 49 and the position coordinates on the multi-view image converted by the conversion image coordinate calculation unit 56. Then, a process of calculating a plane projection transformation matrix (for example, a 3 × 3 matrix) used when the floor intermediate image generation unit 59 generates an intermediate image of the floor is performed.
The floor area extraction unit 58 performs a process of extracting a floor area from the background image n of the camera 1-n (1 ≦ n ≦ N) stored in the image data temporary storage unit 2.
As a method for extracting a floor area, there is a method in which a user designates a floor area from a background image.
Further, for example, using a plane projection conversion matrix between cameras calculated by the plane projection conversion matrix calculation unit 8, a background image shot by one camera is converted into a background image shot by another camera, and both The floor area may be determined by performing, for example, a contraction process, an enlargement process, or the like on pixels whose difference is equal to or less than a certain threshold.
Further, without using a background image, an image corresponding to the background image may be generated and used from an image in which an object is photographed using a median filter or the like.

床面中間画像生成部59は床面中間画像用平面射影変換算出部57により算出された平面射影変換行列を用いて、床面領域抽出部58により抽出された床面領域を床面の中間画像に変換する処理を実施する。
なお、平面射影変換算出部52、オリジナル画像座標算出部55、変換画像座標算出部56、床面中間画像用平面射影変換算出部57、床面領域抽出部58及び床面中間画像生成部59から床面画像生成手段が構成されている。
The floor intermediate image generation unit 59 uses the plane projection transformation matrix calculated by the floor surface intermediate image plane projection transformation calculation unit 57 to convert the floor area extracted by the floor area extraction unit 58 into the intermediate image of the floor surface. Perform the process of converting to.
From the plane projection conversion calculation unit 52, the original image coordinate calculation unit 55, the converted image coordinate calculation unit 56, the floor surface intermediate image plane projection conversion calculation unit 57, the floor surface area extraction unit 58, and the floor surface intermediate image generation unit 59. Floor surface image generation means is configured.

中間画像用オブジェクト生成部60はオブジェクト抽出部42により抽出されたオブジェクトから中間画像用のオブジェクトを生成する処理を実施する。
中間画像用のオブジェクトの生成方法は、例えば、非特許文献「矢口悟志他 “未校正多視点カメラシステムを用いた任意視点画像生成”情報処理学会論文誌:コンピュータビジョンとイメージメディア Vol.42 No.SIG 6(CVIM 2) June 2001」に開示されており、特に、「3.2節 式(3)(p13)」に記述されている任意視点画像を用いて中間画像用のオブジェクトを生成する。
The intermediate image object generation unit 60 performs processing for generating an intermediate image object from the objects extracted by the object extraction unit 42.
A method for generating an object for an intermediate image is described in, for example, the non-patent document “Satoru Yaguchi et al. SIG 6 (CVIM 2) June 2001 ”, and in particular, an object for an intermediate image is generated using an arbitrary viewpoint image described in“ Section 3.2 (3) (p13) ”.

オブジェクトサイズ修正部61は中間画像オブジェクト生成部60により生成された中間画像用のオブジェクトがオリジナル画像座標算出部55により変換されたマルチビュー画像上の位置座標に存在するものとして、マルチビュー変換式生成部47により生成されたマルチビュー変換式を用いて、中間画像用のオブジェクトのサイズを修正する処理を実施する。
中間画像生成部62は変換画像座標算出部56により変換されたマルチビュー画像上の位置座標において、オブジェクトサイズ修正部61によりサイズが修正された中間画像用のオブジェクトを床面中間画像生成部59により生成された床面の中間画像に上書きすることにより、中間画像を生成する処理を実施する。
なお、中間画像用オブジェクト生成部60、オブジェクトサイズ修正部61及び中間画像生成部62から中間画像生成手段が構成されている。
The object size correction unit 61 generates a multi-view conversion formula on the assumption that the intermediate image object generated by the intermediate image object generation unit 60 exists in the position coordinates on the multi-view image converted by the original image coordinate calculation unit 55. Using the multi-view conversion formula generated by the unit 47, a process for correcting the size of the object for the intermediate image is performed.
The intermediate image generation unit 62 uses the floor surface intermediate image generation unit 59 to convert the intermediate image object whose size has been corrected by the object size correction unit 61 at the position coordinates on the multi-view image converted by the converted image coordinate calculation unit 56. A process of generating an intermediate image is performed by overwriting the generated intermediate image of the floor surface.
The intermediate image generating unit 60, the object size correcting unit 61, and the intermediate image generating unit 62 constitute intermediate image generating means.

次に動作について説明する。
図2は8台のカメラ1−n(1≦n≦8)を使用して画像を撮影している様子を示す説明図であり、図3はカメラ1−1,1−3,1−5,1−7により撮影された画像を示す説明図である。
Next, the operation will be described.
FIG. 2 is an explanatory diagram showing a situation where images are taken using eight cameras 1-n (1 ≦ n ≦ 8), and FIG. 3 shows cameras 1-1, 1-3, and 1-5. , 1-7 are explanatory diagrams showing images taken by 1-7.

この実施の形態1では、図2に示すように、水平な平面で構成される床面を考え、その床面に「ぬいぐるみ」や「花瓶」を置き、「ぬいぐるみ」や「花瓶」の周囲を囲むように、ほぼ同じ大きさの三脚に固定された8台のカメラ1−n(1≦n≦8)を並べるものとする。
ただし、8台のカメラ1−n(1≦n≦8)の全てが、図2に示している「全カメラの視野に入る床面領域」を撮影できる位置に設置されているものとする。
図2では、8台のカメラ1−nの設置形態や「全カメラの視野に入る床面領域」を、円形又は楕円形の点線で示しているが、実際にはこの点線は存在しなくてよい。
In the first embodiment, as shown in FIG. 2, a floor surface composed of a horizontal plane is considered, and a “stuffed animal” or “vase” is placed on the floor surface, and the surroundings of the “stuffed animal” or “vase” are arranged. It is assumed that eight cameras 1-n (1 ≦ n ≦ 8) fixed on a tripod of substantially the same size are arranged so as to surround.
However, it is assumed that all of the eight cameras 1-n (1 ≦ n ≦ 8) are installed at positions where the “floor surface area within the field of view of all cameras” shown in FIG.
In FIG. 2, the installation form of the eight cameras 1-n and the “floor area that falls within the field of view of all cameras” are indicated by a circular or elliptical dotted line. However, this dotted line does not actually exist. Good.

また、図2の例では、「全カメラの視野に入る床面領域」の枠一杯に収まる四角形のマーキングが施されており、8台のカメラ1−n(1≦n≦8)の全てが「ぬいぐるみ」や「花瓶」に邪魔されずにマーキングの4つの角を撮影できる状態にあるものとする。
図2の例では、四角形のマーキングを利用するものについて示しているが、4点以上を撮影できるものであれば、四角形のマーキングに限るものではない。
また、8台のカメラ1−nが4点を同時に撮影するものとしているが、少なくとも4つ以上の同じ点が、異なる2つのカメラで同時に撮影できればよく、四角形の4角でなくてもよい。
Further, in the example of FIG. 2, a square marking that fits the frame of “a floor area that falls within the field of view of all cameras” is provided, and all eight cameras 1-n (1 ≦ n ≦ 8) It is assumed that the four corners of the marking can be photographed without being disturbed by “stuffed animals” or “vases”.
In the example of FIG. 2, a case using a quadrangular marking is shown, but it is not limited to a quadrangular marking as long as four or more points can be photographed.
In addition, although eight cameras 1-n are supposed to shoot four points at the same time, it is sufficient that at least four or more of the same points can be shot simultaneously by two different cameras, and they may not be quadrangular four corners.

図2において、垂直基準棒は「全カメラの視野に入る床面領域」の中央付近に垂直に立てられた棒であり、全体の長さの2分の1の位置にマーキングが施されている。
この垂直基準棒の最上位の頂点と、中央のマーキングと、床面と接している接点は、8台のカメラ1−n(1≦n≦8)の全てが「ぬいぐるみ」や「花瓶」に邪魔されずに撮影できる状態にあるものとする。
また、この垂直基準棒は十分細く、カメラ1−n(1≦n≦8)により撮影された場合、直線と見なすことができるものとする。
In FIG. 2, the vertical reference bar is a bar that stands vertically near the center of the “floor area that enters the field of view of all cameras”, and is marked at a position that is half the total length. .
The topmost vertex of the vertical reference bar, the center marking, and the contact point in contact with the floor surface are all the eight cameras 1-n (1 ≦ n ≦ 8) are used as “stuffed animals” and “vases”. It is assumed that the camera can be photographed without interruption.
The vertical reference rod is sufficiently thin and can be regarded as a straight line when photographed by the camera 1-n (1 ≦ n ≦ 8).

図2の例では、垂直基準棒は、異なる方向毎に撮影された場合の大きさの読み取りと、平面に垂直な直線の無限遠点を画像に投影した消失点を算出することを目的に利用されるものである。
垂直基準棒は、精度を高めるため、上記のような形態をしているが、垂直基準棒を大きさの読み取りのみに使用し、消失点の算出には、後で述べるような別の方法で算出するようにしてもよい。この場合、垂直基準棒は、上記のような形態でなくてもよく、例えば、実際の人などで代用してもよい。
In the example of FIG. 2, the vertical reference rod is used for the purpose of reading the size when taken in different directions and calculating the vanishing point obtained by projecting the infinity point of a straight line perpendicular to the plane onto the image. It is what is done.
The vertical reference bar is shaped as described above to improve accuracy, but the vertical reference bar is used only for reading the size, and the vanishing point is calculated by another method as described later. You may make it calculate. In this case, the vertical reference rod does not have to have the form as described above, and may be substituted by, for example, an actual person.

図2の垂直基準棒は、全体の長さの2分の1の位置にマーキングが施されているが、2分の1の位置でなくてもよく、その比率が分っていればよい。
また、図2の垂直基準棒は、「全カメラの視野に入る床面領域」の中央付近に立てられているが、中央付近でなくてよい。
また、図2の垂直基準棒は、最上位の頂点と、床面と接している接点と、中央のマーキングが、全てのカメラ1−n(1≦n≦8)から撮影可能としているが、必ずしも同じ垂直基準棒が撮影可能でなくてもよい。例えば、カメラ1−1とカメラ1−2で共通に撮影された垂直基準棒Aと、カメラ1−1とカメラ1−3で共通に撮影された垂直基準棒Bとが同じでなくてもよい。この場合は、カメラ1−1において、垂直基準棒Aの大きさと、垂直基準棒Bの大きさが分ればよい。
The vertical reference bar in FIG. 2 is marked at a position of a half of the entire length, but may not be a position of a half, and it is sufficient that the ratio is known.
Further, the vertical reference bar in FIG. 2 is set near the center of the “floor surface area that enters the field of view of all cameras”, but it may not be near the center.
In addition, the vertical reference bar in FIG. 2 can be photographed from all the cameras 1-n (1 ≦ n ≦ 8), with the topmost vertex, the contact point in contact with the floor surface, and the central marking. It is not always necessary to photograph the same vertical reference rod. For example, the vertical reference bar A photographed in common by the camera 1-1 and the camera 1-2 and the vertical reference stick B photographed in common by the camera 1-1 and the camera 1-3 may not be the same. . In this case, it is only necessary to know the size of the vertical reference rod A and the size of the vertical reference rod B in the camera 1-1.

なお、この実施の形態1では、垂直方向や大きさの基準として、棒である垂直基準棒を利用しているが、この場合、いったん設置してしまえば形が崩れにくく、直線の測定が容易である利点がある。
この実施の形態1では、垂直基準棒を利用しているが、紐などを利用してもよい。この場合、先端に錘などを付け、その錘を垂直に垂らして、先端が床に接するようにすればよい。この場合、垂直方向の精度が高く、また、長さの調整が容易である利点がある。
In the first embodiment, a vertical reference rod, which is a rod, is used as a reference for the vertical direction and size. In this case, once installed, the shape is not easily lost, and straight lines can be easily measured. There is an advantage that is.
In the first embodiment, a vertical reference rod is used, but a string or the like may be used. In this case, a weight or the like is attached to the tip, and the weight is suspended vertically so that the tip contacts the floor. In this case, there are advantages that the accuracy in the vertical direction is high and the length can be easily adjusted.

図2では、カメラ1−7用の水平基準棒が描かれている。
水平基準棒は、例えば、対象とするカメラ(図3の例では、カメラ1−7)の光軸が、床面に垂直な方向に沿って、平面に投影した直線に平行となるように床面に設置されている。
また、水平基準棒の長さの2分の1の箇所にマーキングが施されている。この水平基準棒の両端と中央のマーキングは、カメラ1−7から「ぬいぐるみ」や「花瓶」に邪魔されず、撮影できる状態にあるものとする。
また、この水平基準棒は十分細く、カメラ1−7により撮影された場合、直線と見なすことができるものとする。
In FIG. 2, a horizontal reference bar for the camera 1-7 is drawn.
The horizontal reference bar is, for example, a floor so that the optical axis of the target camera (camera 1-7 in the example of FIG. 3) is parallel to a straight line projected onto a plane along a direction perpendicular to the floor surface. It is installed on the surface.
In addition, marking is provided at a half of the length of the horizontal reference bar. It is assumed that the markings at both ends and the center of the horizontal reference bar are ready to be photographed without being disturbed by the “stuffed toy” or “vase” from the camera 1-7.
The horizontal reference rod is sufficiently thin and can be regarded as a straight line when photographed by the camera 1-7.

また、この水平基準棒は、全体の長さの2分の1の位置にマーキングが施されているが、2分の1の位置でなくてもよく、その比率が分っていればよい。
また、水平基準棒は、例えば「カメラの光軸を床面に垂直な方向に沿って床面に投影した直線に平行になるように床面に設置されている」としているが、この場合、精度が向上しやすいという利点がある。
この他、水平基準棒は、どちらの方向でもよく、その水平基準棒を含む床面上の直線の無限遠点を、画像に投影した消失点を利用すればよい。この場合、カメラ毎に、水平基準棒を移動させなくてよい利点がある。
In addition, the horizontal reference bar is marked at a position that is a half of the entire length, but it may not be a position that is a half, and it is sufficient that the ratio is known.
In addition, the horizontal reference bar is, for example, “installed on the floor so that the optical axis of the camera is parallel to a straight line projected on the floor along the direction perpendicular to the floor”, but in this case, There is an advantage that accuracy is easily improved.
In addition, the horizontal reference bar may be in either direction, and a vanishing point obtained by projecting a straight infinity point on the floor surface including the horizontal reference bar onto the image may be used. In this case, there is an advantage that it is not necessary to move the horizontal reference rod for each camera.

さらに、図2に示すように「床面にマーキングされた四角形の辺」を利用してもよい。
また、この四角形を正方形や長方形、平行四辺形としておき、その向かい合った2つの辺を用いて床面上の直線の無限遠点を求め、その無限遠点を画像に投影した消失点を利用してもよい。
なお、この実施の形態1では、水平基準棒という棒を水平方向の基準として利用しているが、上記で記載した「垂直基準棒の代わりに紐を用いる例」のように、紐などで代替してもよい。その場合、紐が直線状になるように張力をかけておく必要があるが、垂直基準棒を紐で代替した場合と同じような利点が得られる。
Furthermore, as shown in FIG. 2, “a square side marked on the floor surface” may be used.
In addition, this quadrilateral is set as a square, a rectangle, or a parallelogram, and the infinity point of the straight line on the floor surface is obtained using the two sides facing each other, and the vanishing point obtained by projecting the infinity point onto the image is used. May be.
In the first embodiment, a bar called a horizontal reference bar is used as a horizontal reference, but it can be replaced with a string or the like as described above in the “example of using a string instead of a vertical reference bar”. May be. In that case, it is necessary to apply tension so that the string becomes a straight line, but the same advantage as the case where the vertical reference bar is replaced with the string can be obtained.

この実施の形態1では、カメラ1−1〜1−8は、外部からの同じ同期タイミングによってシャッターを切り、また、同じ同期タイミングのフレームによって画像を撮影する。
このような同期したタイミングによる撮影は、被写体が動く場合には必須であるが、例えば、「ぬいぐるみ」や「花瓶」、水平基準棒/垂直基準棒、床面のマーキングなどが動かない場合は、同期していなくてもよい。その場合は、カメラ1−1〜1−8を8台用意しないで、1台のカメラで順次撮影してもよい。
また、被写体が動く場合には必須であるとしたが、撮影するフレーム周期が十分短くて、その間に動く量が十分少なければ、必ずしも同期していなくてもよい。
In the first embodiment, the cameras 1-1 to 1-8 release the shutter at the same synchronization timing from the outside, and shoot an image with a frame at the same synchronization timing.
Shooting with such synchronized timing is essential when the subject moves. For example, if the stuffed animal, vase, horizontal reference bar / vertical reference bar, floor marking, etc. do not move, It does not have to be synchronized. In that case, it is possible to sequentially shoot with one camera without preparing eight cameras 1-1 to 1-8.
Although it is indispensable when the subject moves, it does not necessarily have to be synchronized if the frame period to be photographed is sufficiently short and the amount of movement during that period is small enough.

また、この実施の形態1では、「ぬいぐるみ」や「花瓶」などのマルチビューしたい被写体と、マルチビューするために必要なパラメータを得るための水平基準棒/垂直基準棒や床面のマーキングなどを撮影した後、カメラを移動させないまま、水平基準棒/垂直基準棒や床面のマーキングなどを撤去して、「ぬいぐるみ」などのマルチビューしたい被写体を設置して撮影するようにしてもよい。この場合、カメラを動かさないように注意する必要があるが、水平基準棒/垂直基準棒や床面のマーキングが、マルチビューしたい被写体に遮られること無く撮影できるという利点がある。   In the first embodiment, a subject to be multi-viewed such as “stuffed toy” or “vase”, a horizontal reference bar / vertical reference bar for obtaining a parameter necessary for multi-viewing, a floor marking, etc. After taking a picture, the horizontal reference bar / vertical reference stick and the marking on the floor surface may be removed without moving the camera, and a subject to be multi-viewed such as “stuffed toy” may be placed and photographed. In this case, care must be taken not to move the camera, but there is an advantage that the horizontal reference bar / vertical reference bar and the marking on the floor surface can be photographed without being obstructed by the subject to be multiviewed.

以下、画像生成装置におけるマルチビュー画像生成手段30の処理内容を具体的に説明する。
カメラ1−n(1≦n≦8)が相互に異なる方向から同一の3次元領域を撮影すると、画像データ一時保存部2がカメラ1−n(1≦n≦8)により撮影されたオリジナル画像n(1≦n≦8)を一時的に保存する。
Hereinafter, the processing content of the multi-view image generation means 30 in the image generation apparatus will be described in detail.
When the camera 1-n (1 ≦ n ≦ 8) captures the same three-dimensional area from different directions, the image data temporary storage unit 2 is an original image captured by the camera 1-n (1 ≦ n ≦ 8). n (1 ≦ n ≦ 8) is temporarily stored.

マルチビュー位置指定部3は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)の中から任意のオリジナル画像n1の選択を受け付け、そのオリジナル画像n1に存在するマルチビュー対象の物体(ユーザがマルチビューを希望する物体)の床面上の位置を示す画像座標の指定を受け付ける処理を実施する。
マルチビュー位置指定部3における画像座標の読み取りは、ユーザがオリジナル画像n1を見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
When the image data temporary storage unit 2 stores the original image n (1 ≦ n ≦ 8), the multi-view position specifying unit 3 stores an arbitrary original image n 1 from the original image n (1 ≦ n ≦ 8). A process of accepting selection and accepting designation of image coordinates indicating a position on the floor surface of an object to be viewed in the original image n 1 (an object for which the user desires multi-view) is performed.
The image coordinates are read by the multi-view position designating unit 3 while the user views the original image n 1 and, for example, operates the mouse to designate the position in the image, thereby reading the image coordinates at that position. Alternatively, it may be automatically specified by some method.

また、基準位置指定部4は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)の中から任意のオリジナル画像n2の選択を受け付け、そのオリジナル画像n2に存在する垂直基準棒が床面に垂直に接している床面上の位置を示す画像座標の指定を受け付ける処理を実施する。
基準位置指定部4における画像座標の読み取りは、ユーザがオリジナル画像n2を見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
床面座標読取部5は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)の床面上に共通に存在しているマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を読み取る処理を実施する。
床面座標読取部5における画像座標の読み取りは、ユーザがオリジナル画像nを見ながら、例えば、マウスを操作して画像内の位置を指定することにより、その位置の画像座標を読み取るようにしてもよいし、何らかの方法で自動的に指定可能としてもよい。
Further, when the image data temporary storage unit 2 stores the original image n (1 ≦ n ≦ 8), the reference position specifying unit 4 selects an arbitrary original image n 2 from the original image n (1 ≦ n ≦ 8). And a process of receiving designation of image coordinates indicating the position on the floor surface where the vertical reference bar existing in the original image n 2 is in contact with the floor surface.
The reading of the image coordinates in the reference position specifying unit 4 may be performed by reading the image coordinates of the position by, for example, operating the mouse and specifying the position in the image while the user views the original image n 2. Alternatively, it may be automatically specified by some method.
When the image data temporary storage unit 2 stores the original image n (1 ≦ n ≦ 8), the floor surface coordinate reading unit 5 exists in common on the floor surface of the original image n (1 ≦ n ≦ 8). Processing for reading the image coordinates of the vertex (1), vertex (2), vertex (3), and vertex (4) of the marking is performed.
The reading of the image coordinates in the floor surface coordinate reading unit 5 may be performed by, for example, operating the mouse to specify the position in the image while the user views the original image n, thereby reading the image coordinates at that position. Alternatively, it may be automatically specified by some method.

また、水平消失点算出部6は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)毎に、オリジナル画像nの水平消失点、即ち、例えば、カメラ1−nの光軸を床面に垂直な方向に投影した床面上の直線の無限遠点をオリジナル画像に投影した消失点の画像座標を算出する。
水平消失点の算出方法としては、例えば、上記床面の上記条件を満たす直線上におかれた水平基準棒を使用して求めることができる。
即ち、水平基準棒には、マーキングが施されており、そのマーキングの実際の位置と、画像上の見かけの位置から水平消失点を求めることができる(水平消失点の詳細な求め方は、垂直消失点の求め方と同様であるため、後述する垂直消失点の求め方を参照)。
この他、上記床面上の直線に平行な直線を2つ以上設定して、それらの直線を画像に投影した場合の交点を消失点として利用することもできる。
In addition, when the image data temporary storage unit 2 stores the original image n (1 ≦ n ≦ 8), the horizontal vanishing point calculation unit 6 performs horizontal processing of the original image n for each original image n (1 ≦ n ≦ 8). The vanishing point, for example, the image coordinates of the vanishing point obtained by projecting the infinity point of a straight line on the floor surface obtained by projecting the optical axis of the camera 1-n in the direction perpendicular to the floor surface is calculated.
As a method of calculating the horizontal vanishing point, for example, it can be obtained by using a horizontal reference bar placed on a straight line that satisfies the above-mentioned conditions of the floor surface.
That is, the horizontal reference bar is marked, and the horizontal vanishing point can be obtained from the actual position of the marking and the apparent position on the image. Since this is the same as the method for obtaining the vanishing point, see the method for obtaining the vertical vanishing point described later).
In addition, it is also possible to set two or more straight lines parallel to the straight line on the floor and use the intersection point when these straight lines are projected on the image as vanishing points.

垂直消失点算出部7は、画像データ一時保存部2がオリジナル画像n(1≦n≦8)を保存すると、そのオリジナル画像n(1≦n≦8)毎に、オリジナル画像nの垂直消失点、即ち、床面に垂直な直線の無限遠点を画像に投影した消失点の画像座標を算出する。
以下、垂直消失点の算出方法の一例を説明する。
この実施の形態1では、全てのオリジナル画像n(1≦n≦8)に垂直基準棒が存在しており、垂直基準棒は、図6に示すように、その長さ方向の中央にマーキングが施されている。
垂直基準棒が図6に示すように画像に投影されている場合において、垂直基準棒上の3点X1、X2、X3と、3点X1、X2、X3を通る直線上の無限遠点Xが、画像において、それぞれx1、x2、x3、xに投影されたものとする。
When the image data temporary storage unit 2 stores the original image n (1 ≦ n ≦ 8), the vertical vanishing point calculation unit 7 calculates the vertical vanishing point of the original image n for each original image n (1 ≦ n ≦ 8). That is, the image coordinates of the vanishing point obtained by projecting a straight line infinity point perpendicular to the floor surface to the image are calculated.
Hereinafter, an example of a method for calculating the vertical vanishing point will be described.
In the first embodiment, a vertical reference bar exists in all original images n (1 ≦ n ≦ 8), and the vertical reference bar has a marking at the center in the length direction as shown in FIG. It has been subjected.
When the vertical reference bar is projected on the image as shown in FIG. 6, the three points X1, X2, and X3 on the vertical reference bar and the infinity point X on the straight line passing through the three points X1, X2, and X3. but in the image, respectively x1, x2, x3, and those projected to x ∞.

このとき、このような直線上の4点から計算される複比は、投影前後では不変であるので、以下の式(1)が成立する。

Figure 2008217243
式(1)において、Xは無限に遠い点であるから|X−X2|/|X−X3|=1であり、また、垂直基準棒の実距離の比は|X1−X2|/|X1−X3|=2である。
また、|x1−x2|/|x1−x3|は、画像座標から得ることができるので、垂直消失点xの座標(xvin,yvin)を算出することができる。
詳細は非特許文献「小島他 “消失点を用いた多視点カメラキャリブレーション”FIT2004」に開示されている。
この他、上記床面に垂直な直線(棒などで代用する)を2つ以上設定して、それらの直線を画像に投影した場合の2つの直線の交点を垂直消失点として利用することもできる。 At this time, since the cross ratio calculated from the four points on the straight line is unchanged before and after the projection, the following equation (1) is established.
Figure 2008217243
In the formula (1), X infinitely distant point because it | X ∞ -X 2 | / | X ∞ -X 3 | a = 1, also, the ratio of the actual distance of the vertical reference rod | X 1 -X 2 | / | X 1 -X 3 | a = 2.
Since | x 1 −x 2 | / | x 1 −x 3 | can be obtained from the image coordinates, the coordinates (x vin , y vin ) of the vertical vanishing point x can be calculated.
Details are disclosed in the non-patent document “Kojima et al.“ Multi-viewpoint camera calibration using vanishing points ”FIT 2004”.
In addition, it is possible to set two or more straight lines (substitute with a bar or the like) perpendicular to the floor surface and use the intersection of the two straight lines as a vertical vanishing point when these straight lines are projected on an image. .

平面射影変換行列算出部8は、床面座標読取部5がオリジナル画像n(1≦n≦8)の例えば、床面上に共通に存在しているマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を読み取ると、オリジナル画像n1と他のオリジナル画像n(オリジナル画像n1を除く)におけるマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を使用して、オリジナル画像n1と他のオリジナル画像n(オリジナル画像n1を除く)間で、床面を構成する平面の平面射影変換行列Hn1-1〜Hn1-8(1≦n1≦8の7個)を算出する。
また、平面射影変換行列算出部8は、オリジナル画像n2と他のオリジナル画像n(オリジナル画像n2を除く)におけるマーキングの頂点(1)、頂点(2)、頂点(3)、頂点(4)の画像座標を使用して、オリジナル画像n2と他のオリジナル画像n(オリジナル画像n2を除く)間で、床面を構成する平面の平面射影変換行列Hn2-1〜Hn2-8(1≦n2≦8の7個)を算出する。
なお、平面射影変換行列の算出方法は、例えば、非特許文献「出口光一郎 “ロボットビジョンの基礎”p47(本文献ではホモグラフィー行列と記載されている)」に記載されている。
The planar projective transformation matrix calculation unit 8 is configured such that the floor coordinate reading unit 5 has the marking vertex (1) and vertex (2) that are commonly present on the floor surface of the original image n (1 ≦ n ≦ 8), for example. When the image coordinates of the vertex (3) and the vertex (4) are read, the marking vertex (1), vertex (2), vertex (in the original image n 1 and other original images n (excluding the original image n 1 ) 3) Using the image coordinates of the vertex (4), a plane projective transformation matrix H n1− of the plane constituting the floor surface between the original image n 1 and another original image n (excluding the original image n 1 ). 1 to H n1-8 (1 ≦ n 1 ≦ 7) are calculated.
Further, the plane projective transformation matrix calculation unit 8 performs marking vertex (1), vertex (2), vertex (3), vertex (4) in the original image n 2 and other original images n (excluding the original image n 2 ). ), The plane projection transformation matrices H n2-1 to H n2-8 of the plane constituting the floor surface between the original image n 2 and another original image n (excluding the original image n 2 ) are used. (7 of 1 ≦ n 2 ≦ 8) is calculated.
The calculation method of the planar projective transformation matrix is described in, for example, the non-patent document “Koichiro Deguchi“ Basics of Robot Vision ”p47 (described as a homography matrix in this document)”.

マルチビュー位置算出部9は、平面射影変換行列算出部8が平面射影変換行列Hn1-1〜Hn1-8を算出すると、その平面射影変換行列Hn1-1〜Hn1-8を用いて、オリジナル画像n(オリジナル画像n1を除く)に存在するマルチビュー対象の物体の床面上の位置を示す画像座標を算出する。
即ち、マルチビュー位置算出部9は、平面射影変換行列Hn1-1〜Hn1-8を用いて、マルチビュー位置指定部3により指定が受け付けられたマルチビュー対象の物体の床面上の位置を示す画像座標、または、マルチビュー画像座標変換部22により変換された画像座標を、オリジナル画像n(オリジナル画像n1を除く)の画像座標に変換することにより、オリジナル画像n(オリジナル画像n1を除く)に存在するマルチビュー対象の物体の床面上の位置を示す画像座標を算出する。
なお、マルチビュー位置指定部3により指定が受け付けられたマルチビュー対象の物体の床面上の位置を示す画像座標を変換するか、あるいは、マルチビュー画像座標変換部22により変換された画像座標を変換するかは、例えば、システムの起動時のみ、前者を選択するようにしてもよいし、両者を常に監視しておいて、変化があった方を選択するようにしてもよい。
When the plane projection transformation matrix calculation unit 8 calculates the plane projection transformation matrices H n1-1 to H n1-8 , the multi-view position calculation unit 9 uses the plane projection transformation matrices H n1-1 to H n1-8. Then, the image coordinates indicating the position on the floor surface of the object of the multi-view target existing in the original image n (excluding the original image n 1 ) are calculated.
That is, the multi-view position calculation unit 9 uses the plane projection transformation matrices H n1-1 to H n1-8 to determine the position on the floor of the object to be multi-viewed that has been designated by the multi-view position designation unit 3. Or the image coordinates converted by the multi-view image coordinate conversion unit 22 is converted into the image coordinates of the original image n (excluding the original image n 1 ), thereby obtaining the original image n (original image n 1). Image coordinates indicating the position on the floor surface of the object of the multi-view target existing in (1) is calculated.
Note that the image coordinates indicating the position on the floor surface of the object of the multi-view target that has been designated by the multi-view position designating unit 3 are converted, or the image coordinates converted by the multi-view image coordinate converting unit 22 are converted. For conversion, for example, the former may be selected only when the system is activated, or both may be monitored constantly and the one that has changed may be selected.

基準位置算出部10は、平面射影変換行列算出部8が平面射影変換行列Hn2-1〜Hn2-8を算出すると、その平面射影変換行列Hn2-1〜Hn2-8を用いて、オリジナル画像n(オリジナル画像n2を除く)に存在する垂直基準棒の床面上の位置を示す画像座標を算出する。
即ち、基準位置算出部10は、平面射影変換行列Hn2-1〜Hn2-8を用いて、基準位置指定部4により指定が受け付けられたオリジナル画像n2内の垂直基準棒の床面位置を示す画像座標を、オリジナル画像n(オリジナル画像n2を除く)の画像座標に変換することにより、オリジナル画像n(オリジナル画像n2を除く)に存在する垂直基準棒の床面上の位置を示す画像座標を算出する。
When the plane projection transformation matrix calculation unit 8 calculates the plane projection transformation matrices H n2-1 to H n2-8 , the reference position calculation unit 10 uses the plane projection transformation matrices H n2-1 to H n2-8 . Image coordinates indicating the position of the vertical reference bar on the floor surface existing in the original image n (excluding the original image n 2 ) are calculated.
That is, the reference position calculation unit 10 uses the plane projection transformation matrices H n2-1 to H n2-8 to specify the floor position of the vertical reference bar in the original image n 2 that has been specified by the reference position specification unit 4. Is converted into the image coordinates of the original image n (excluding the original image n 2 ), so that the position on the floor surface of the vertical reference bar existing in the original image n (excluding the original image n 2 ) is converted. The image coordinates shown are calculated.

ここまでは、マルチビュー位置指定部3により選択が受け付けられたオリジナル画像がオリジナル画像n1であり、基準位置指定部4により選択が受け付けられたオリジナル画像がオリジナル画像n2であるものについて示したが、オリジナル画像n1とオリジナル画像n2が別々の画像でも、同一の画像でもよい。
オリジナル画像n1とオリジナル画像n2が同一のオリジナル画像であれば(n1=n2)、平面射影行列は、Hn1-1〜Hn1-8(1≦n1≦8)の7個のみでよい。
以後、n1=n2である場合について説明する。
Up to this point, the original image whose selection has been received by the multi-view position specifying unit 3 is the original image n 1 , and the original image whose selection has been received by the reference position specifying unit 4 is the original image n 2 . However, the original image n 1 and the original image n 2 may be separate images or the same image.
If the original image n 1 and the original image n 2 are the same original image (n 1 = n 2 ), there are seven plane projection matrices H n1-1 to H n1-8 (1 ≦ n 1 ≦ 8). Only need.
Hereinafter, a case where n 1 = n 2 will be described.

画像内倍率算出部11は、マルチビュー位置算出部9がオリジナル画像n(1≦n≦8)に存在するマルチビュー対象の床面位置を示す画像座標を算出し、基準位置算出部10がオリジナル画像nに存在する垂直基準棒の床面上の位置を示す画像座標を算出すると、それらの画像座標と、水平消失点算出部6により算出されたオリジナル画像nの水平消失点の画像座標とを用いて、マルチビュー対象の物体を垂直基準棒と同じ奥行きの床面位置まで移動させた場合のマルチビュー対象の物体の画像内倍率mn(マルチビュー対象の物体の大きさの見え方の変化倍率)を算出する。 The in-image magnification calculation unit 11 calculates image coordinates indicating the floor surface position of the multi-view target existing in the original image n (1 ≦ n ≦ 8) by the multi-view position calculation unit 9, and the reference position calculation unit 10 performs the original position calculation. When the image coordinates indicating the position on the floor surface of the vertical reference bar existing in the image n are calculated, the image coordinates and the image coordinates of the horizontal vanishing point of the original image n calculated by the horizontal vanishing point calculating unit 6 are obtained. Use this to move the multi-view target object to the floor position at the same depth as the vertical reference bar. In-image magnification m n of the multi-view target object (change in the appearance of the multi-view target object Magnification) is calculated.

以下、画像内倍率の算出方法を説明する。
図4は水平消失点が画像中心にある場合で、カメラの光軸が床面に平行になるように、かつ、カメラ画像の横軸がほぼ床面に平行になるように設置されている例を示す説明図である。
また、図5は水平消失点が画像の中心より上方にある場合で、カメラ画像の横軸がほぼ床面に平行であるが、カメラの光軸を水平な床面に対して、やや下向きにして撮影している例を示す説明図である。
Hereinafter, a method for calculating the in-image magnification will be described.
FIG. 4 shows an example in which the horizontal vanishing point is at the center of the image, and the camera is installed so that the optical axis of the camera is parallel to the floor and the horizontal axis of the camera image is substantially parallel to the floor. It is explanatory drawing which shows.
FIG. 5 shows a case where the horizontal vanishing point is above the center of the image, and the horizontal axis of the camera image is substantially parallel to the floor surface, but the optical axis of the camera is slightly downward with respect to the horizontal floor surface. It is explanatory drawing which shows the example currently image | photographed.

図4及び図5において、水平消失点の座標を(xhin,yhin)、マルチビュー対象の物体の位置座標を(xmv,ymv)、垂直基準棒と同じ奥行きの位置座標を(xb,yb)とすると、マルチビュー対象の物体を垂直基準棒の位置に移動させた場合、マルチビュー対象の物体の大きさは以下の式(2)のように近似することができる。したがって、以下の式(2)から画像内倍率mnを算出することができる。

Figure 2008217243
また、これらの垂直基準棒の位置や大きさ、および水平消失点の位置を図4や図5に示すように利用することで、被写体である物体の大きさや人物の身長などを精度よく推定することができる。また、それらの物体や人物の大きさがわかっている場合、その物体や人物が存在する床面上の位置を容易に知ることができる。 4 and 5, the coordinates of the horizontal vanishing point are (x hin , y hin ), the position coordinates of the multi-view target object are (x mv , y mv ), and the position coordinates of the same depth as the vertical reference bar are (x Assuming that b , y b ), the size of the multi-view target object can be approximated by the following equation (2) when the multi-view target object is moved to the position of the vertical reference bar. Therefore, the in-image magnification m n can be calculated from the following equation (2).
Figure 2008217243
Further, by using the position and size of these vertical reference bars and the position of the horizontal vanishing point as shown in FIG. 4 and FIG. 5, the size of the object that is the subject, the height of the person, etc. can be accurately estimated. be able to. Further, when the sizes of these objects and persons are known, the position on the floor where the objects and persons are present can be easily known.

カメラ水平軸歪補正パラメータ算出部12は、垂直消失点算出部7がオリジナル画像n(1≦n≦8)の垂直消失点xの座標(xvin,yvin)を算出すると、オリジナル画像nの垂直消失点xの座標(xvin,yvin)を用いて、オリジナル画像nを撮影する際のカメラ1−nの傾きに起因する水平軸歪の補正パラメータを算出する。
即ち、カメラ水平軸歪補正パラメータ算出部12は、例えば、図6に示すような画像の垂直軸に対して、画像の中心点B(xsize/2,ysize/2)と垂直消失点xとを結ぶ直線の傾き(角度rz)をカメラ水平軸歪と近似できると見なして、その角度rzを算出する。
例えば、オリジナル画像の横サイズがxsize、縦サイズがysizeであり、垂直消失点xの座標が(xvin,yvin)であって、yvin≫xsize、yvin≫ysizeであるとすると、以下の式(3)が成立する。

Figure 2008217243
When the vertical vanishing point calculating unit 7 calculates the coordinates (x vin , y vin ) of the vertical vanishing point x of the original image n (1 ≦ n ≦ 8), the camera horizontal axis distortion correction parameter calculating unit 12 calculates the original image n. Using the coordinates (x vin , y vin ) of the vertical vanishing point x , a correction parameter for the horizontal axis distortion caused by the tilt of the camera 1-n when the original image n is captured is calculated.
That is, for example, the camera horizontal axis distortion correction parameter calculation unit 12 performs the image center point B (x size / 2, y size / 2) and the vertical vanishing point x with respect to the vertical axis of the image as shown in FIG. Considering that the inclination (angle rz) of the straight line connecting can be approximated to the camera horizontal axis distortion, the angle rz is calculated.
For example, the horizontal size of the original image is x size , the vertical size is y size , the coordinates of the vertical vanishing point x are (x vin , y vin ), and y vin >> x size , y vin >> y size If there is, the following equation (3) is established.
Figure 2008217243

ここでは、画像の垂直軸に対して、画像の中心点B(xsize/2,ysize/2)と垂直消失点xとを結ぶ直線の傾き(角度rz)をカメラ水平軸歪と近似できると見なして、その角度rzを算出するものについて示したが、画像の垂直軸に対して、画像の上端の中点(xsize/2,0)や、画像の下端の中点(xsize/2,ysize)とを結ぶ直線の傾きをカメラ水平軸歪と近似できると見なしてもよい。
さらに、近似ではなく、正確な角度を算出して利用してもよい。
また、これ以外の画像の上端の中点(xsize/2,0)と、画像の下端の中点(xsize/2,ysize)を結ぶ直線上の点を用いてもよく、これ以外の画像内部の点を用いてもよい。さらには、画像を含む平面上の点を利用してもよい。
Here, with respect to the vertical axis of the image, the inclination (angle rz) of the straight line connecting the center point B (x size / 2, y size / 2) of the image and the vertical vanishing point x is approximated to the camera horizontal axis distortion. Assuming that it is possible to calculate the angle rz, the center point of the upper end of the image (x size / 2, 0) and the center point of the lower end of the image (x size are shown). / 2, y size ) may be regarded as being able to approximate the camera horizontal axis distortion.
Furthermore, instead of approximation, an accurate angle may be calculated and used.
Also, the other image of the upper end of the middle point (x size / 2,0), the midpoint of the lower end of the image (x size / 2, y size ) may be used a point on a line connecting the, other A point inside the image may be used. Furthermore, you may utilize the point on the plane containing an image.

透視投影歪補正パラメータ算出部13は、垂直消失点算出部7がオリジナル画像n(1≦n≦8)の垂直消失点xの座標(xvin,yvin)を算出すると、垂直消失点xの座標(xvin,yvin)を用いて、カメラ1−nの撮影時に3次元空間を2次元平面に透視投影することに起因する画像の透視投影歪の補正パラメータを算出する。
透視投影歪は、カメラで撮影することにより生じたと考えられる歪、即ち、3次元空間内の物体を平面に射影変換したことによって発生したと考えられる歪であり、例えば、3次元空間において、水平な床面に対して垂直な直線が複数ある場合、それらの直線を画像に透視投影した場合、画像上では直線が互いに平行でなくなる現象である。
The perspective projection distortion correction parameter calculation unit 13 calculates the vertical vanishing point x when the vertical vanishing point calculation unit 7 calculates the coordinates (x vin , y vin ) of the vertical vanishing point x of the original image n (1 ≦ n ≦ 8). Using the coordinates (x vin , y vin ) of , a correction parameter for the perspective projection distortion of the image resulting from the perspective projection of the three-dimensional space onto the two-dimensional plane at the time of photographing by the camera 1-n is calculated.
The perspective projection distortion is a distortion that is considered to be caused by photographing with a camera, that is, a distortion that is considered to be generated by projective transformation of an object in a three-dimensional space to a plane. This is a phenomenon in which when there are a plurality of straight lines perpendicular to the floor surface and the straight lines are projected on the image, the straight lines are not parallel to each other on the image.

透視投影歪補正パラメータ算出部13では、図6に示すように、先にカメラ水平軸歪を補正した画像に対して、画像の中心点B(xsize/2,ysize/2)を含む画像の水平ラインの第1画素(0,ysize/2)と垂直消失点とを結ぶ直線と、カメラ水平軸歪を補正した後の画像の垂直軸とのなす角(角度rx)で透視投影歪が近似できると見なして、その角度rxを算出する。
例えば、オリジナル画像の横サイズがxsize、縦サイズがysizeであり、垂直消失点xの座標が(xvin,yvin)であって、yvin≫xsize、yvin≫ysizeであるとすると、以下の式(4)が成立する。

Figure 2008217243
As shown in FIG. 6, the perspective projection distortion correction parameter calculation unit 13 includes an image including the center point B (x size / 2, y size / 2) of the image with respect to the image whose camera horizontal axis distortion has been corrected previously. Perspective projection distortion at an angle (angle rx) between the straight line connecting the first pixel (0, y size / 2) of the horizontal line and the vertical vanishing point and the vertical axis of the image after correcting the camera horizontal axis distortion Is approximated and the angle rx is calculated.
For example, the horizontal size of the original image is x size , the vertical size is y size , the coordinates of the vertical vanishing point x are (x vin , y vin ), and y vin >> x size , y vin >> y size If there is, the following equation (4) is established.
Figure 2008217243

ここでは、水平軸歪の補正角度rzが十分小さいものとして、透視投影歪の補正角度rxを、「画像の中心点B(xsize/2,ysize/2)を含む画像の水平ラインの第1画素(0,ysize/2)における垂直軸の傾き(角度rx)で透視投影歪が近似できる」と見なしているが、図6に示すように、直線BXに垂直な画像の中心点を通る直線上の点の座標を利用してもよい。
また、「画像の中心点B(xsize/2,ysize/2)を含む画像の水平ラインの第xsize画素(xsize,ysize/2)における垂直軸の傾きで透視投影歪が近似できる」としてもよく、その他の画像の左右両端上の点を結ぶ直線を利用してもよく、これ以外の画像内の点を結ぶ直線を利用してもよい。
さらに、近似ではなく、正確な角度を算出して利用してもよい。
Here, assuming that the horizontal axis distortion correction angle rz is sufficiently small, the perspective projection distortion correction angle rx is defined as “the first horizontal line of the image including the center point B (x size / 2, y size / 2) of the image”. It is assumed that the perspective projection distortion can be approximated by the inclination (angle rx) of the vertical axis at one pixel (0, y size / 2). However, as shown in FIG. 6, the center point of the image perpendicular to the straight line BX The coordinates of a point on a straight line passing through may be used.
Further, “the perspective projection distortion is approximated by the inclination of the vertical axis at the x size pixel (x size , y size / 2) of the horizontal line of the image including the center point B (x size / 2, y size / 2) of the image. Can be used ", a straight line connecting points on the left and right ends of another image may be used, or a straight line connecting points in the other image may be used.
Furthermore, instead of approximation, an accurate angle may be calculated and used.

1次補正画像生成部14は、カメラ水平軸歪補正パラメータ算出部12が水平軸歪の補正パラメータを算出し、透視投影歪補正パラメータ算出部13が透視投影歪の補正パラメータを算出すると、その水平軸歪の補正パラメータと透視投影歪の補正パラメータとを用いて、オリジナル画像nの水平軸歪と透視投影歪を補正し、補正後の画像を1次補正画像n(1≦n≦8)として出力する。
即ち、1次補正画像生成部14は、図7に示すように、3次元座標の原点を画像中心とし、かつ、その画像がXY平面に含まれるように3次元座標軸を設定し、透視投影のスクリーンをZ軸に垂直な平面上に設定し、また、視点をZ軸上に設定する場合を考える。
このとき、画像をZ軸の周りにrz回転し、X軸の周りにrx回転した場合のスクリーンへの透視投影像を算出し、これを1次補正画像として出力する。
このとき、rzはカメラ水平歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータであり、rxは透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータである。
When the camera horizontal axis distortion correction parameter calculation unit 12 calculates a correction parameter for horizontal axis distortion and the perspective projection distortion correction parameter calculation unit 13 calculates a correction parameter for perspective projection distortion, the primary correction image generation unit 14 calculates the horizontal correction. Using the correction parameter for axial distortion and the correction parameter for perspective projection distortion, the horizontal axis distortion and perspective projection distortion of the original image n are corrected, and the corrected image is defined as a primary corrected image n (1 ≦ n ≦ 8). Output.
That is, as shown in FIG. 7, the primary corrected image generation unit 14 sets the three-dimensional coordinate axis so that the origin of the three-dimensional coordinate is the image center and the image is included in the XY plane, and performs perspective projection. Consider a case where the screen is set on a plane perpendicular to the Z axis and the viewpoint is set on the Z axis.
At this time, the image is rotated by rz around the Z axis, and a perspective projection image on the screen when the image is rotated by rx around the X axis is calculated and output as a primary correction image.
At this time, rz is a horizontal axis distortion correction parameter calculated by the camera horizontal distortion correction parameter calculation unit 12, and rx is a perspective projection distortion correction parameter calculated by the perspective projection distortion correction parameter calculation unit 13.

図8は図7の3次元座標をX軸の正方向から見た説明図である。
図8の例では、カメラ水平軸歪補正パラメータ算出部12が画像中心における水平軸歪の補正パラメータを算出し、透視投影歪補正パラメータ算出部13が画像中心を含む画像の水平軸上の点における透視変換歪補正パラメータを算出し、1次補正画像生成部14が画像中心を原点とする透視投影変換を実施するが、画像中心でない点の水平軸歪の補正パラメータと透視変換歪の補正パラメータを算出しておき、その画像中心でない点を原点とする透視投影変換を実施してもよい。また、両者を一致させないで、透視変換を行ってもよい。
FIG. 8 is an explanatory view of the three-dimensional coordinates of FIG. 7 viewed from the positive direction of the X axis.
In the example of FIG. 8, the camera horizontal axis distortion correction parameter calculation unit 12 calculates a horizontal axis distortion correction parameter at the image center, and the perspective projection distortion correction parameter calculation unit 13 at a point on the horizontal axis of the image including the image center. The perspective transformation distortion correction parameter is calculated, and the primary correction image generation unit 14 performs the perspective projection transformation with the image center as the origin. The horizontal axis distortion correction parameter and the perspective transformation distortion correction parameter of the point that is not the image center are set. It may be calculated and perspective projection conversion with the point that is not the center of the image as the origin may be performed. Further, the perspective transformation may be performed without matching the two.

基準長読取部15は、1次補正画像生成部14が1次補正画像n(1≦n≦8)を出力すると、その1次補正画像n内の垂直基準棒の見かけの長さLnを読み取る。このとき、ユーザが1次補正画像nを見ながら読み取ってもよいし、何らかの方法で自動的に読み取ってもよい。
ここでは、1次補正画像n内の垂直基準棒の見かけの長さLnを読み取るものについて示したが、オリジナル画像n内の垂直基準棒の見かけの長さLnを読み取るようにしてもよい。
この場合、処理が単純になるため、処理速度の向上を図ることができる効果がある。
画像間倍率算出部16は、基準長読取部15が1次補正画像n内の垂直基準棒の見かけの長さLnを読み取ると、1次補正画像n内の垂直基準棒の見かけの長さLnと、画像内倍率算出部11により算出されたマルチビュー対象の物体の画像内倍率mnとを用いて、1次補正画像n(1≦n≦8)におけるマルチビュー対象の物体を同じ大きさで表示する場合の画像間倍率mo1nを1次補正画像n毎に算出する。
When the primary correction image generation unit 14 outputs the primary correction image n (1 ≦ n ≦ 8), the reference length reading unit 15 determines the apparent length L n of the vertical reference bar in the primary correction image n. read. At this time, the user may read while viewing the primary correction image n, or may automatically read by some method.
Here, the reading of the apparent length L n of the vertical reference bar in the primary correction image n is shown, but the apparent length L n of the vertical reference bar in the original image n may be read. .
In this case, since the process becomes simple, there is an effect that the processing speed can be improved.
When the reference length reading unit 15 reads the apparent length L n of the vertical reference bar in the primary correction image n, the inter-image magnification calculation unit 16 apparent length of the vertical reference bar in the primary correction image n The same multi-view target object in the primary correction image n (1 ≦ n ≦ 8) is used by using L n and the intra-image magnification m n of the multi-view target object calculated by the intra-image magnification calculation unit 11. An inter-image magnification ratio m o1n when displaying in size is calculated for each primary correction image n.

Figure 2008217243
ただし、L1はオリジナル画像n1の1次補正画像n1から基準長読取部15により読み取られ垂直基準棒の長さである。
式(5)のL1は、倍率molnを適当な範囲に収めるために使用される定数であるため、実際の基準棒の見かけの長さそのものでなくてもよく、全てのオリジナル画像nで同じであればよい。
Figure 2008217243
However, L 1 is the length of the vertical reference rod read by reference length reading unit 15 from the primary corrected image n 1 original image n 1.
Since L 1 in equation (5) is a constant used to keep the magnification moln within an appropriate range, it does not have to be the apparent length of the actual reference bar itself, and in all original images n If it is the same.

2次補正画像生成部17は、画像間倍率算出部16が画像間倍率mo1nを1次補正画像n毎に算出すると、その画像間倍率mo1nと、カメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータとを用いて、2次透視変換を実施することにより、オリジナル画像n(1≦n≦8)の歪や大きさを補正し、補正後の画像を2次補正画像n(1≦n≦8)として出力する。
即ち、2次補正画像生成部17は、1次補正画像生成部14と同様に、3次元座標軸を設定して、スクリーン上に透視変換画像を生成し、2次補正画像として出力する。
このとき、1次補正画像生成部14では、Z軸の回転rzとX軸の回転rx以外のパラメータである画像の倍率(スクリーン上に透視変換された画像の倍率)が1倍であるものを示したが、この2次補正画像生成部17では、上記スクリーン上の倍率をmo1nとしている。
When the inter-image magnification calculation unit 16 calculates the inter-image magnification m o1n for each primary correction image n, the secondary correction image generation unit 17 uses the inter-image magnification m o1n and the camera horizontal axis distortion correction parameter calculation unit 12. By performing secondary perspective transformation using the calculated horizontal axis distortion correction parameter and the perspective projection distortion correction parameter calculated by the perspective projection distortion correction parameter calculation unit 13, the original image n (1 ≦ 1) is obtained. n ≦ 8) is corrected, and the corrected image is output as a secondary corrected image n (1 ≦ n ≦ 8).
That is, like the primary correction image generation unit 14, the secondary correction image generation unit 17 sets a three-dimensional coordinate axis, generates a perspective transformation image on the screen, and outputs it as a secondary correction image.
At this time, the primary correction image generation unit 14 has an image magnification (magnification of the image perspective-transformed on the screen) which is a parameter other than the Z-axis rotation rz and the X-axis rotation rx being 1 ×. As shown, the secondary correction image generation unit 17 sets the magnification on the screen to m o1n .

2次透視変換座標算出部18は、2次補正画像生成部17がカメラ水平軸歪補正パラメータ算出部12により算出された水平軸歪の補正パラメータと、透視投影歪補正パラメータ算出部13により算出された透視投影歪の補正パラメータと、画像間倍率算出部16により算出された画像間倍率とを用いて、2次透視変換を実施した場合のマルチビュー対象の物体の画像座標(マルチビュー対象の物体の移動先の画像座標)を算出する。
移動パラメータ算出部19は、2次透視変換座標算出部18がマルチビュー対象の物体の移動先の画像座標を算出すると、その移動先の画像座標と、画像中心(例えば、640×480の画像の場合、画像中心は(320,240))とのずれを移動パラメータとして算出する。
ここでは、画像中心にマルチビュー対象の物体が移動するように、画像中心とのずれを算出するものについて示したが、画像内の他の位置にマルチビュー対象の物体が移動するように、他の位置とのずれを算出するようにしてもよい。
The secondary perspective transformation coordinate calculation unit 18 is calculated by the correction parameter for the horizontal axis distortion calculated by the camera horizontal axis distortion correction parameter calculation unit 12 by the secondary correction image generation unit 17 and the perspective projection distortion correction parameter calculation unit 13. The image coordinates of the multi-view target object when the second perspective transformation is performed using the perspective projection distortion correction parameter and the inter-image magnification calculated by the inter-image magnification calculation unit 16 (multi-view target object). Image coordinates of the movement destination).
When the secondary perspective transformation coordinate calculation unit 18 calculates the image coordinates of the movement destination of the multi-view target object, the movement parameter calculation unit 19 and the image coordinates of the movement destination and the image center (for example, 640 × 480 image) are obtained. In this case, the deviation from the center of the image (320, 240) is calculated as a movement parameter.
In this example, the deviation from the center of the image is calculated so that the multi-view target object moves to the center of the image. The deviation from the position may be calculated.

マルチビュー画像生成部20は、移動パラメータ算出部19が移動パラメータを算出すると、その移動パラメータにしたがって、2次補正画像生成部17から出力された2次補正画像n(1≦n≦8)を移動させることにより、マルチビュー対象の物体が画像の中心に存在するマルチビュー画像n(1≦n≦8)を生成する。
即ち、マルチビュー画像生成部20は、2次補正画像生成部17から出力された2次補正画像n(1≦n≦8)を移動パラメータが示す移動量だけ移動することにより、2次補正画像n(1≦n≦8)からマルチビュー画像n(1≦n≦8)を生成する。
When the movement parameter calculation unit 19 calculates the movement parameter, the multi-view image generation unit 20 outputs the secondary correction image n (1 ≦ n ≦ 8) output from the secondary correction image generation unit 17 according to the movement parameter. By moving the object, a multi-view image n (1 ≦ n ≦ 8) in which the object to be multi-viewed exists at the center of the image is generated.
That is, the multi-view image generation unit 20 moves the secondary correction image n (1 ≦ n ≦ 8) output from the secondary correction image generation unit 17 by the movement amount indicated by the movement parameter, thereby correcting the secondary correction image. A multi-view image n (1 ≦ n ≦ 8) is generated from n (1 ≦ n ≦ 8).

図9は「ぬいぐるみ」の大きさが各画像で同じであり、かつ、「ぬいぐるみ」が各画像の中心に位置するように、図3の画像を変換している例を示す説明図である。
ただし、見易くするため、各画像に写っていた水平基準棒と垂直基準棒を省いている。
FIG. 9 is an explanatory diagram illustrating an example in which the image of FIG. 3 is converted so that the size of the “stuffed animal” is the same in each image and the “stuffed animal” is positioned at the center of each image.
However, for ease of viewing, the horizontal reference bar and the vertical reference bar that are shown in each image are omitted.

マルチビュー位置指定部21は、マルチビュー画像生成部20により生成されたマルチビュー画像n(1≦n≦8)に対して、新たなマルチビューの位置の指定を受け付ける処理を実施する。
新たなマルチビューの位置の指定は、ユーザがマルチビュー画像を見ながら指定してもよいし、何らかの方法で自動的に指定してもよい。
The multi-view position designation unit 21 performs a process of receiving designation of a new multi-view position for the multi-view image n (1 ≦ n ≦ 8) generated by the multi-view image generation unit 20.
The new multi-view position may be specified while the user is viewing the multi-view image, or may be automatically specified by some method.

マルチビュー画像座標変換部22は、マルチビュー位置指定部21から新たなマルチビューの位置を受けると、移動パラメータ算出部19により算出された移動パラメータの逆移動パラメータと、2次透視変換座標算出部18により算出された2次透視変換の逆変換と、平面射影変換行列算出部8により算出された平面射影変換行列の逆変換行列とを用いて、マルチビュー位置指定部21により指定が受け付けられたマルチビュー画像n(1≦n≦8)上の座標位置(新たなマルチビューの位置)を、オリジナル画像n(1≦n≦8)上の座標位置に変換する。
ここでは、平面射影変換行列算出部8により算出された平面射影変換行列の逆変換行列を用いて、マルチビュー画像n(1≦n≦8)上の座標位置をオリジナル画像n(1≦n≦8)上の座標位置に変換するものについて示したが、平面射影変換行列の逆変換行列を用いないことでオリジナル画像n(1≦n≦8)上の座標位置に変換された段階の座標位置を、マルチビュー位置算出部9により算出されるオリジナル画像n毎のマルチビュー位置に相当する座標位置の代用としてもよい。
When the multi-view image coordinate conversion unit 22 receives a new multi-view position from the multi-view position specifying unit 21, the multi-view image coordinate conversion unit 22 and the secondary perspective conversion coordinate calculation unit Using the inverse transformation of the secondary perspective transformation calculated by 18 and the inverse transformation matrix of the plane projection transformation matrix calculated by the plane projection transformation matrix calculation unit 8, the designation is accepted by the multiview position designation unit 21. The coordinate position (new multi-view position) on the multi-view image n (1 ≦ n ≦ 8) is converted to the coordinate position on the original image n (1 ≦ n ≦ 8).
Here, using the inverse transformation matrix of the planar projection transformation matrix calculated by the planar projection transformation matrix calculation unit 8, the coordinate position on the multi-view image n (1 ≦ n ≦ 8) is converted to the original image n (1 ≦ n ≦ 8). 8) Although shown about what is converted to the upper coordinate position, the coordinate position at the stage of being converted to the coordinate position on the original image n (1 ≦ n ≦ 8) by not using the inverse transformation matrix of the planar projective transformation matrix May be substituted for the coordinate position corresponding to the multi-view position for each original image n calculated by the multi-view position calculation unit 9.

ここまでは、画像生成装置におけるマルチビュー画像生成手段30の処理内容である。
マルチビュー画像生成手段30を図1のように構成することにより、下記の効果を奏することができる。
マルチビュー画像生成手段30では、マルチビュー位置算出部9により算出されたマルチビュー対象の物体の位置と、基準位置算出部10により算出された垂直基準棒の床面位置と、基準長読取部15により算出された垂直基準棒の大きさを用いて、オリジナル画像n(1≦n≦8)におけるマルチビュー対象の物体の位置を揃え、かつ、マルチビュー対象の物体の大きさを同じにする画像倍率をオリジナル画像n毎に算出し、その画像倍率にしたがってオリジナル画像nを変換するように構成したので、高精度のカメラキャリブレーションを実施することなく、被写体の大きさや位置などが一致している見易い臨場感のある画像を生成することができる効果を奏する。
Up to this point, the processing content of the multi-view image generation unit 30 in the image generation apparatus has been described.
By configuring the multi-view image generating means 30 as shown in FIG. 1, the following effects can be obtained.
In the multi-view image generation unit 30, the position of the object to be multi-view calculated by the multi-view position calculation unit 9, the floor surface position of the vertical reference bar calculated by the reference position calculation unit 10, and the reference length reading unit 15 Using the size of the vertical reference bar calculated by the above, the positions of the multiview target objects in the original image n (1 ≦ n ≦ 8) are aligned, and the sizes of the multiview target objects are the same. Since the magnification is calculated for each original image n and the original image n is converted in accordance with the image magnification, the size and position of the subject match without performing high-precision camera calibration. There is an effect that it is possible to generate an easy-to-see realistic image.

即ち、この実施の形態1によれば、ある平面に接して置かれている物体がある方向から撮影された画像Aの変換後のマルチビュー画像と、その物体が別の方向から撮影された画像Bの変換後のマルチビュー画像とにおいては、上記物体の位置が同じで、かつ、大きさが等しいものになる。
また、マルチビュー画像を見ながら、平面上の異なる位置に置かれている別の物体の位置を指定することにより、その別の物体の位置が同じで、かつ、大きささが等しい新たなマルチビュー画像を、画像Aと画像Bから容易に生成することができる。
In other words, according to the first embodiment, an object placed in contact with a certain plane and a multi-view image after conversion of the image A photographed from a certain direction and an image obtained by photographing the object from another direction. In the multi-view image after the conversion of B, the position of the object is the same and the size is the same.
In addition, by specifying the position of another object placed at a different position on the plane while viewing the multi-view image, a new multi-view with the same position and the same size of the other object An image can be easily generated from images A and B.

例えば、上記カメラの光軸を床面に対して垂直に投影した直線である平面上の直線の無限遠点をオリジナル画像に投影した点である消失点(水平消失点)の位置と、画像Aと画像Bに写っている同じ物体Sの位置及び大きさと、物体Tの位置とから、物体Tの大きさが変換後の画像で同じになるような倍率を求めるので、物体Sと物体Tが上記平面内のどこにあっても、大きさを同じにするための倍率を精度良く求めることができる。
画像Aと画像Bのカメラの横方向の傾きに起因する歪と、撮影時の透視投影の原理に起因する歪とを、上記平面に対して垂直な直線の無限遠点を画像に投影した点である消失点(垂直消失点)と画像内部の点を結ぶ直線が画像の垂直軸となす角を、3次元空間に置いた画像の回転角として回転した後の透視投影変換を利用して、画像補正を行っているので、画像補正に伴って生じる物体の歪が少ない画像補正を行うことができる。また、補正に必要なパラメータを容易に決定することができる。
For example, the position of a vanishing point (horizontal vanishing point), which is a point obtained by projecting an infinite point of a straight line on a plane, which is a straight line obtained by projecting the optical axis of the camera perpendicularly to the floor surface, and an image A And the position and size of the same object S appearing in the image B and the position of the object T, a magnification is obtained so that the size of the object T is the same in the converted image. The magnification for making the size the same can be obtained with high precision anywhere in the plane.
A point obtained by projecting a distortion caused by the horizontal tilt of the camera of images A and B and a distortion caused by the principle of perspective projection at the time of photographing onto an image at a point at a straight line at infinity perpendicular to the plane. Using the perspective projection transformation after rotating the angle formed by the straight line connecting the vanishing point (vertical vanishing point) and the point inside the image with the vertical axis of the image as the rotation angle of the image placed in the three-dimensional space, Since image correction is performed, it is possible to perform image correction with less distortion of an object caused by image correction. In addition, parameters necessary for correction can be easily determined.

画像A内の物体が置かれている位置aの座標が分った場合に、画像B内の物体が置かれている位置bの座標を、上記平面に関する平面射影変換行列を用いて算出することで、位置aと位置bが画像内で同じ位置にくるような画像の移動を、平面上のすべての点に対し、精度よく、また効率よく行うことができる。   When the coordinates of the position a where the object in the image A is placed are known, the coordinates of the position b where the object in the image B is placed are calculated using the plane projective transformation matrix for the plane. Thus, the movement of the image such that the position a and the position b are at the same position in the image can be accurately and efficiently performed for all points on the plane.

なお、この実施の形態1では、カメラを“理想的なピンホールカメラモデル”と仮定している。この“理想的なピンホールカメラモデル”では、カメラの内部パラメータであるカメラの光学中心がオリジナル画像の画像中心と一致し、また、その他のカメラの内部パラメータも、カメラ座標のXYZ軸が互いに直交し、かつ、そのカメラ座標とそのカメラによって撮影された画像座標とが一致するような値であると仮定される。
これらの仮定が成立しないときは、上記仮定の誤差を考慮して、上記アルゴリズムを改良する必要がある。ただし、多くの場合、通常のカメラで撮影した画像を用いて、この実施の形態1の処理内容を実施しても問題が生じることは少ない。
“理想的なピンホールカメラモデル”、“カメラの内部パラメータ”については、非特許文献「出口光一郎 ロボットビジョンの基礎 コロナ社」などに開示されている。
In the first embodiment, the camera is assumed to be an “ideal pinhole camera model”. In this “ideal pinhole camera model”, the camera's optical center, which is an internal parameter of the camera, coincides with the image center of the original image, and the XYZ axes of the camera coordinates of other camera's internal parameters are orthogonal to each other. In addition, it is assumed that the camera coordinates coincide with the image coordinates photographed by the camera.
When these assumptions do not hold, it is necessary to improve the algorithm in consideration of errors in the assumptions. However, in many cases, there is little problem even if the processing content of the first embodiment is performed using an image captured by a normal camera.
The “ideal pinhole camera model” and “internal parameters of the camera” are disclosed in non-patent documents such as Koichiro Deguchi Robot Vision Basic Corona.

また、この実施の形態1では、カメラのオリジナル画像に対して、レンズ歪(歪曲収差)を無視している。
この“レンズ歪”には、たる型歪や糸巻き型歪と呼ばれる歪が含まれるが、この“レンズ歪”は良いレンズを良い条件で使用する限り、無視できるものである。ただし、使用レンズの性能やカメラと被写体の距離、撮影後にカメラで行われる画像処理などによっては、必ずしも無視できない場合がある。
この“レンズ歪”が無視できない場合は、オリジナル画像に対してレンズ歪を補正してから、この実施の形態1のオリジナル画像として使用すればよく、それ以降のアルゴリズムを改良する必要はない。
レンズ収差歪の補正に関しては、非特許文献「出口光一郎 ロボットビジョンの基礎 コロナ社」などに開示されている。
In the first embodiment, lens distortion (distortion aberration) is ignored for the original image of the camera.
This “lens distortion” includes distortion called barrel distortion and pincushion distortion, but this “lens distortion” is negligible as long as a good lens is used under good conditions. However, it may not always be ignored depending on the performance of the lens used, the distance between the camera and the subject, and image processing performed by the camera after shooting.
If this “lens distortion” cannot be ignored, the lens distortion is corrected for the original image and then used as the original image of the first embodiment, and the subsequent algorithm does not need to be improved.
The correction of lens aberration distortion is disclosed in a non-patent document “Koichiro Deguchi Robot Vision Basic Corona”.

次に、画像生成装置における図10の処理部の処理内容を具体的に説明する。
図10の例では、N台(N=8)のカメラが設置されているが、カメラ1−1,1−3,1−5,1−7により撮影されたオリジナル画像のみを使用するものとし、それ以外のカメラ1−2,1−4,1−6,1−8により撮影されたオリジナル画像は使用しないものとする。数多くのカメラを使用すれば、画像生成装置で生成されるマルチビュー画像の中間画像の精度が向上する。
ここで、マルチビュー画像の中間画像は、例えば、カメラ1−1により撮影されたオリジナル画像がマルチビュー変換されたマルチビュー画像と、カメラ1−3により撮影されたオリジナル画像がマルチビュー変換されたマルチビュー画像とがあるとき、2つのマルチビュー画像の中間の位置にある仮想的なカメラで撮影された画像に相当する画像のことである。
Next, the processing content of the processing unit in FIG. 10 in the image generation apparatus will be specifically described.
In the example of FIG. 10, N cameras (N = 8) are installed, but only original images taken by the cameras 1-1, 1-3, 1-5, and 1-7 are used. The other original images taken by the cameras 1-2, 1-4, 1-6, and 1-8 are not used. If a large number of cameras are used, the accuracy of the intermediate image of the multi-view image generated by the image generation device is improved.
Here, the intermediate image of the multi-view image is, for example, a multi-view image obtained by multi-view conversion of the original image captured by the camera 1-1 and a multi-view conversion of the original image captured by the camera 1-3. When there is a multi-view image, it is an image corresponding to an image photographed by a virtual camera located at an intermediate position between two multi-view images.

背景画像データ保存部41は、画像データ一時保存部2からカメラ1−n(1≦n≦8)により撮影された背景画像であるオリジナル画像nを取得して、その背景画像nをカメラ1−n毎に保存する。
ここで、「背景画像」は、画面内に動いている物体や、今後動くことが予想される物体が撮影されていない画像である。
背景画像は、ユーザが複数の画像の中から選択するようにしてもよいし、ユーザが生成するようにしてもよい。また、後述する方法を実施して、自動的に生成するようにしてもよい。
一般的には、動く物体が何もない状態を撮影して背景画像とすることが多い。
背景画像の自動的な選択方法又は生成方法としては、例えば、動く物体が撮影されている画像からメディアンフィルタなどを用いて背景画像を生成する方法などがある。
背景画像データ保存部41に保存する背景画像は、周期的又は非周期的に取得しなおしてもよい。また、背景画像毎の差分などを求めて、人物などのオブジェクト抽出に影響を与えないことが判明している変動がある閾値以上あったとき、背景画像を更新するようにしてもよい。
The background image data storage unit 41 acquires an original image n which is a background image captured by the camera 1-n (1 ≦ n ≦ 8) from the image data temporary storage unit 2 and uses the background image n as the camera 1-n. Save every n.
Here, the “background image” is an image in which an object moving in the screen or an object expected to move in the future is not photographed.
The background image may be selected by the user from a plurality of images, or may be generated by the user. Further, it may be automatically generated by executing a method described later.
In general, a background image is often obtained by photographing a state where there is no moving object.
As a background image automatic selection method or generation method, for example, there is a method of generating a background image from an image of a moving object photographed using a median filter or the like.
The background image stored in the background image data storage unit 41 may be acquired periodically or aperiodically. Further, the background image may be updated when a difference or the like for each background image is obtained and when there is a certain threshold or more that has been found not to affect the extraction of objects such as persons.

オブジェクト抽出部42は、画像データ一時保存部2からカメラ1−nにより撮影されたオリジナル画像nを取得するとともに、背景画像データ保存部41からカメラ1−nにより撮影された背景画像nを取得する。
次に、オブジェクト抽出部42は、そのオリジナル画像nと背景画像nに対する画像処理を実施して、オリジナル画像n内のオブジェクトを抽出する。
即ち、オブジェクト抽出部42は、オリジナル画像nと背景画像nにおける同じ位置の画素の差分などを求めて動きのある画素を判定し、動きのある画素の位置を2値画像で表現し、その2値画像に対して収縮処理、拡大処理、ラベリング処理などを実施して、オリジナル画像n内のオブジェクトを抽出する。
収縮処理、拡大処理、ラベリング処理などは、例えば「井上誠喜 C言語で学ぶ実践画像処理 オーム社」に開示されている。
The object extraction unit 42 acquires the original image n captured by the camera 1-n from the image data temporary storage unit 2, and acquires the background image n captured by the camera 1-n from the background image data storage unit 41. .
Next, the object extraction unit 42 performs image processing on the original image n and the background image n, and extracts objects in the original image n.
That is, the object extraction unit 42 determines a moving pixel by obtaining a difference between pixels at the same position in the original image n and the background image n, and expresses the position of the moving pixel as a binary image. An object in the original image n is extracted by performing contraction processing, enlargement processing, labeling processing, and the like on the value image.
Shrinkage processing, enlargement processing, labeling processing, and the like are disclosed in, for example, “Practical image processing learned by C language Ohmsha”.

ここで、オリジナル画像n内のオブジェクトは、例えば、背景画像の撮影後に置かれた「ぬいぐるみ」や、背景画像の領域を通過する「歩行者」などが該当する。
図28はオブジェクトを説明する説明図であり、(a)は背景画像、(b)はオブジェクトを含む画像、(c)は(b)のオブジェクトを含む画像と(a)の背景画像の差分を求めることにより抽出されるオブジェクトの像である。
また、図11はカメラ1−1,1−3,1−5,1−7により撮影された背景画像(図28(a)の背景画像に相当する)を示し、図12はカメラ1−1,1−3,1−5,1−7により撮影されたオブジェクトを含む画像(図28(b)のオブジェクトを含む画像に相当する)を示している。このとき、カメラ1−1,1−3,1−5,1−7は移動せずに、図11及び図12の画像を撮影している。
Here, the object in the original image n corresponds to, for example, a “stuffed toy” placed after shooting the background image or a “pedestrian” passing through the background image area.
FIG. 28 is an explanatory diagram for explaining an object. (A) is a background image, (b) is an image including the object, (c) is a difference between the image including the object of (b) and the background image of (a). It is an image of the object extracted by obtaining.
FIG. 11 shows a background image (corresponding to the background image of FIG. 28A) taken by the cameras 1-1, 1-3, 1-5, and 1-7, and FIG. 12 shows the camera 1-1. , 1-3, 1-5, and 1-7, an image including an object (corresponding to an image including the object in FIG. 28B) is shown. At this time, the cameras 1-1, 1-3, 1-5, and 1-7 do not move and take the images of FIGS. 11 and 12.

ただし、図11及び図12では、垂直方向や水平方向の消失点は既に判明しているとして、それらの消失点を計測するための垂直基準棒や水平基準棒を撮影していない。
また、図11の背景画像には、床面の四角形のマーキングしか書き込んでいない。
図14はオブジェクト抽出部42により抽出されるカメラ1−1,1−3,1−5,1−7のオブジェクトの像である。
However, in FIGS. 11 and 12, the vanishing points in the vertical direction and the horizontal direction are already known, and the vertical reference bar and the horizontal reference bar for measuring the vanishing points are not photographed.
Further, only the square marking on the floor surface is written in the background image of FIG.
FIG. 14 is an image of the objects of the cameras 1-1, 1-3, 1-5, and 1-7 extracted by the object extracting unit 42.

ここでは、オブジェクト抽出部42が、例えば、人物などが撮影されていない背景画像と、人物が撮影されている画像との差分を求めてオブジェクトを抽出するものを示しているが、人物が撮影されている画像の画素やブロック毎の動きをフレーム毎に比較することで検出して、オブジェクトを抽出するようにしてもよい。
また、2つ以上のカメラによる画像を画素やブロック毎に比較する(例えば、ステレオマッチングと呼ばれる処理)ことで、オブジェクトまでの距離を求めて、オブジェクトを抽出するようにしてもよい。
それ以外の方法としては、例えば、音波やレーザー光線を用いる3次元的な測定などを実施して、オブジェクトを抽出するようにしてもよい。
Here, although the object extraction part 42 shows what extracts the object by calculating | requiring the difference of the background image in which the person etc. were not imaged, and the image in which the person was image | photographed, a person is imaged. The object may be extracted by detecting the motion of each pixel or block of the image being compared for each frame.
Further, by comparing the images from two or more cameras for each pixel or block (for example, a process called stereo matching), the distance to the object may be obtained to extract the object.
As another method, for example, an object may be extracted by performing three-dimensional measurement using a sound wave or a laser beam.

オブジェクト位置座標算出部43は、オブジェクト抽出部42がオブジェクトを抽出すると、オリジナル画像n内におけるオブジェクトの位置座標を算出する。
即ち、オブジェクト位置座標算出部43は、オブジェクト抽出部42により抽出されたオブジェクトの像の重心点や、オブジェクトの像の内部の点であって、最近傍の輪郭までの距離が最大の点などから、画像の下方向の消失点方向、または、画像の垂直方向の消失点方向に引いた垂直線を画像毎に求める。
次に、オブジェクト位置座標算出部43は、平面射影変換行列算出部8により算出された平面射影変換行列を用いて、画像毎の垂直線のうちのある画像の垂直線を別の画像上に変換し、変換した垂直線と、別の画像の垂直線との交点をオブジェクトの位置として算出する。
The object position coordinate calculation unit 43 calculates the position coordinates of the object in the original image n when the object extraction unit 42 extracts the object.
That is, the object position coordinate calculation unit 43 determines the center of gravity of the object image extracted by the object extraction unit 42, the point inside the object image, and the point having the maximum distance to the nearest contour. Then, a vertical line drawn in the vanishing point direction in the lower direction of the image or the vanishing point direction in the vertical direction of the image is obtained for each image.
Next, the object position coordinate calculation unit 43 converts the vertical line of one image among the vertical lines for each image onto another image using the plane projection conversion matrix calculated by the plane projection conversion matrix calculation unit 8. Then, the intersection of the converted vertical line and the vertical line of another image is calculated as the object position.

図15はオブジェクト位置座標算出部43により算出されたオブジェクトの位置を示す説明図である。
図15において、実線は、あるカメラで撮影されたオリジナル画像(例えば、オリジナル画像1とする)から抽出されたオブジェクト1の重心点などから、その画像の垂直方向の消失点に向かって引かれた垂直線である。
破線は、別のカメラで撮影されたオリジナル画像(例えば、オリジナル画像2とする)内のオブジェクトのうち、オリジナル画像1のオブジェクト1と同じオブジェクトに対し、その重心点などから垂直方向の消失点に引いた直線を、平面射影変換行列算出部8により算出された平面射影変換行列を用いて、オリジナル画像1上に書き込んだ直線である。
このとき、あるオブジェクトが存在する領域をカメラ1−1,1−2,1−3,・・・,1−7で取り囲んで撮影している場合、異なるカメラで撮影された各オリジナル画像内のオブジェクトの位置は異なる。
FIG. 15 is an explanatory diagram showing the position of the object calculated by the object position coordinate calculation unit 43.
In FIG. 15, a solid line is drawn from the center of gravity of the object 1 extracted from an original image (for example, the original image 1) taken by a certain camera toward the vanishing point in the vertical direction of the image. It is a vertical line.
A broken line indicates a vanishing point in the vertical direction from the center of gravity of an object in the original image (for example, the original image 2) taken by another camera, for the same object as the object 1 of the original image 1. The drawn straight line is a straight line written on the original image 1 by using the plane projection transformation matrix calculated by the plane projection transformation matrix calculation unit 8.
At this time, when an area where a certain object exists is surrounded by the cameras 1-1, 1-2, 1-3,..., 1-7, the area in each original image captured by a different camera is captured. The position of the object is different.

この例では、全てのオリジナル画像nにおいて、オブジェクトの位置を算出しているが、ある1つのカメラにより撮影された画像において、オブジェクトの位置を算出し、平面射影変換行列算出部8により算出された平面射影変換行列を用いて、そのオブジェクトの位置を他のカメラにより撮影されたオリジナル画像上の位置に変換し、その位置を当該オリジナル画像内のオブジェクトの位置としてもよい。
このほか、抽出されたオブジェクトの像の最下位点を単純にオブジェクトの位置座標としてもよいし、オブジェクトの像を縦方向にいくつかに分割し、分割した部分画像毎の最下位点の座標値の平均をオブジェクトの位置座標としてもよい。このとき、位置座標のx座標値とy座標値を異なる方法で決定してもよい。
In this example, the position of the object is calculated in all the original images n. However, the position of the object is calculated in an image photographed by a certain camera, and is calculated by the planar projective transformation matrix calculation unit 8. Using the planar projective transformation matrix, the position of the object may be converted to a position on the original image taken by another camera, and the position may be used as the position of the object in the original image.
In addition, the lowest point of the extracted object image may be simply used as the position coordinates of the object, or the image of the object is divided into several parts in the vertical direction, and the coordinate value of the lowest point of each divided partial image. The average of these may be used as the position coordinates of the object. At this time, the x coordinate value and the y coordinate value of the position coordinate may be determined by different methods.

また、オブジェクトの像が例えば人物であることや、その人物までの撮影距離をあらかじめ予想することで、オブジェクト位置座標算出部43により算出されたオブジェクトの位置座標を修正してもよい。
これらの方法は、画像内部に複数のオブジェクトが抽出された場合、精度の高い方法(例えば、図15で示した方法)でオブジェクトの位置座標を決定する前に、あるカメラのオリジナル画像内のあるオブジェクトが、別のカメラのオリジナル画像内のどのオブジェクトに対応するかを決定するのに使用してもよい。
Further, the position coordinates of the object calculated by the object position coordinate calculation unit 43 may be corrected by predicting in advance the image of the object, for example, a person or the shooting distance to the person.
In these methods, when a plurality of objects are extracted in an image, before the position coordinates of the object are determined by a highly accurate method (for example, the method shown in FIG. 15), It may be used to determine which object in the original image of another camera corresponds to the object.

床平面図入力部44は、カメラ1−1,1−2,・・・,1−Nで共通に撮影される床面の平面図の取り込みを行う。
「床面の平面図」においては、例えば、床面にマーキングされている四角形の形状が正方形であれば、「床面の平面図」内のその四角形は正方形であり、縦横比がa:bの長方形であればa:bの長方形であり、四角形の4つの頂点が相似形で決定することができればよく、大きさは適当でよい。
また、床面にマーキングされている形状が四角形以外の三角形や、それ以外の多角形や、それ以外の形状であってもよく、平面上の4つ以上の点の位置関係が、「床面の平面図」においては幾何学的な相似形であればよい。
この実施の形態1では、正方形の4つ頂点を床面上にマーキングしている例を示すが、部屋の床の4隅や上部が平面である台など、そのマーキングの内側のみに平面が存在するものであってもよい。
図3、図12及び「床面の平面図」である図16では、床面にマーキングされた四角形を実線で示している。
なお、これ以降の説明では、四角形の頂点(1)が画像の中心付近に配置されているものとする(図16を参照)。
The floor plan input unit 44 captures a plan view of the floor surface photographed in common by the cameras 1-1, 1-2,.
In the “plan view of the floor surface”, for example, if the quadrangular shape marked on the floor surface is a square, the square in the “plan view of the floor surface” is a square, and the aspect ratio is a: b. Is a rectangle of a: b, and it is sufficient that the four vertices of the quadrangle can be determined by similar shapes, and the size may be appropriate.
In addition, the shape marked on the floor surface may be a triangle other than a quadrangle, other polygons, or other shapes, and the positional relationship between four or more points on the plane is “floor surface”. In the “plan view” of FIG.
In the first embodiment, an example is shown in which four vertices of a square are marked on the floor surface, but there are planes only inside the markings, such as platforms where the four corners and upper part of the floor of the room are flat surfaces. You may do.
In FIG. 3, FIG. 12, and FIG. 16, which is a “plan view of the floor surface”, a quadrangle marked on the floor surface is indicated by a solid line.
In the following description, it is assumed that the square vertex (1) is arranged near the center of the image (see FIG. 16).

画像内床面座標指定部45は、背景画像データ保存部2に保存されている背景画像nにおいて、床平面図入力部44により取り込まれた床面の頂点(1)〜(4)に対応する点の座標(床面の位置座標)を指定する。
床面の位置座標の指定方法は、ユーザが画像を見ながら指定してもよいし、何らかの方法で自動的に指定してもよい。
この実施の形態1では、背景画像における床面座標を指定しているが、背景画像以外のオリジナル画像における床面座標を指定するようにしてよい。
The in-image floor coordinate designation unit 45 corresponds to the vertices (1) to (4) of the floor surface captured by the floor plan input unit 44 in the background image n stored in the background image data storage unit 2. Specifies the coordinates of the point (floor surface position coordinates).
The method for specifying the position coordinates of the floor surface may be specified by the user while viewing the image, or may be automatically specified by some method.
In the first embodiment, the floor surface coordinates in the background image are designated, but the floor surface coordinates in the original image other than the background image may be designated.

図13はカメラ1−1,1−3,1−5,1−7により撮影されたオリジナル画像内において指定された床面の位置座標を示している。破線は見やすいように補助線として記載している。
ここでは、床平面図入力部44で決定した床面上の位置が、そのオリジナル画像内のどの位置にあたるかを、画像内床面座標指定部45で座標を指定しているものを示したが、逆に、画像内床面座標指定部45で指定したオリジナル画像内の床面上の位置を、平面図入力部44で床面の平面図として入力するようにしてもよい。
また、直接、オリジナル画像上で指定するのではなく、オリジナル画像をマルチビュー変換したマルチビュー画像上で指定し、後述する逆マルチビュー変換でオリジナル画像上の座標に変換してもよい。
また、平面射影変換行列算出部8により算出された平面射影変換行列を用いて、別のカメラにより撮影されたオリジナル画像上の位置から、必要とするカメラで撮影されたオリジナル画像上の座標に変換するようにしてもよい。
FIG. 13 shows the position coordinates of the floor surface designated in the original image taken by the cameras 1-1, 1-3, 1-5, and 1-7. The broken lines are shown as auxiliary lines for easy viewing.
In this example, the position on the floor determined by the floor plan input unit 44 indicates which position in the original image is designated by the in-image floor coordinate designating unit 45. On the contrary, the position on the floor surface in the original image designated by the in-image floor surface coordinate designating unit 45 may be inputted by the plan view input unit 44 as a floor plan of the floor surface.
Further, instead of specifying directly on the original image, the original image may be specified on a multi-view image obtained by multi-view conversion, and converted to coordinates on the original image by inverse multi-view conversion described later.
Also, using the plane projection transformation matrix calculated by the plane projection transformation matrix calculator 8, the position on the original image taken by another camera is converted to the coordinates on the original image taken by the required camera. You may make it do.

この実施の形態1では、床平面図入力部44で指定された点に対応する点を、画像内床面座標指定部45で指定しているが、これは床平面図入力部44で、正方形や長方形など平面図を作成しやすい図形を指定した上で、その図形を床面にマーキングし、画像内床面座標指定部45が、その様子を撮影した画像から、そのマーキングした位置の座標を指定している。これには、平面図が作成しやすく、また、床面のマーキングが容易であるという効果がある。
このほか、図1の床面座標読取部5で読み取った床面上の位置を床面上で測定するなどして、床平面図入力部44で床面の平面図を生成してもよい。この場合は、既に床面座標読取部5で床面の座標を読み取っているので、画像内床面座標指定部45は不要である。
In the first embodiment, the point corresponding to the point designated by the floor plan input unit 44 is designated by the in-image floor coordinate designating unit 45. After designating a figure that is easy to create a plan view, such as a rectangle or a rectangle, the figure is marked on the floor surface, and the in-image floor surface coordinate designating unit 45 determines the coordinates of the marked position from the image of the appearance. It is specified. This has the effect that it is easy to create a plan view and that it is easy to mark the floor surface.
In addition, the floor plan view input unit 44 may generate a plan view of the floor surface by measuring the position on the floor surface read by the floor coordinate reading unit 5 of FIG. In this case, since the floor surface coordinate reading unit 5 has already read the coordinates of the floor surface, the in-image floor surface coordinate designating unit 45 is unnecessary.

入力画像座標取得部46は、オブジェクト位置座標算出部43により算出されたオリジナル画像n内のオブジェクトの位置座標、または、画像内床面座標指定部45により指定された背景画像n内の床面の位置座標のいずれか一方を選択する。   The input image coordinate acquisition unit 46 calculates the position coordinates of the object in the original image n calculated by the object position coordinate calculation unit 43 or the floor surface in the background image n specified by the in-image floor surface coordinate specification unit 45. Select one of the position coordinates.

マルチビュー変換式生成部47は、マルチビュー画像生成手段30によるマルチビュー変換時の画像変換パラメータとして、カメラ水平軸歪補正パラメータ算出部12により算出したカメラ水平軸歪補正パラメータと、透視投影歪補正パラメータ算出部13により算出した透視投影歪補正パラメータと、画像間倍率算出部16により算出された画像間倍率とを収集する。
次に、マルチビュー変換式生成部47は、そのカメラ水平軸歪補正パラメータ、透視投影歪補正パラメータ及び画像間倍率を用いて、カメラ1−1,1−3,1−5,1−7により撮影されたオリジナル画像をマルチビュー画像に変換したとき、それらのオリジナル画像上のある位置の座標が、マルチビュー画像上のどの座標に変換されるかを算出することができるマルチビュー変換式(例えば、3×3の行列)を生成する。
なお、マルチビュー変換式は、カメラ水平軸歪補正パラメータ、透視投影歪補正パラメータ及び画像間倍率を変数とするオリジナル画像とマルチビュー画像間の画像変換式である。
The multi-view conversion equation generation unit 47 uses the camera horizontal axis distortion correction parameter calculated by the camera horizontal axis distortion correction parameter calculation unit 12 and the perspective projection distortion correction as image conversion parameters at the time of multi-view conversion by the multi-view image generation unit 30. The perspective projection distortion correction parameter calculated by the parameter calculation unit 13 and the inter-image magnification calculated by the inter-image magnification calculation unit 16 are collected.
Next, the multi-view conversion equation generation unit 47 uses the camera horizontal axis distortion correction parameter, the perspective projection distortion correction parameter, and the inter-image magnification, and the cameras 1-1, 1-3, 1-5, and 1-7. A multi-view conversion formula that can calculate which coordinates on a multi-view image are converted to coordinates of a certain position on the original image when the photographed original image is converted into a multi-view image (for example, 3 × 3 matrix).
Note that the multi-view conversion formula is an image conversion formula between an original image and a multi-view image using the camera horizontal axis distortion correction parameter, the perspective projection distortion correction parameter, and the magnification between images as variables.

逆マルチビュー変換式生成部48は、マルチビュー変換式生成部47がマルチビュー変換式を生成すると、マルチビュー画像上のある位置の座標が、マルチビュー変換される前のオリジナル画像ではどの座標であったのかを算出することができる逆マルチビュー変換式を生成する。
逆マルチビュー変換式は、マルチビュー変換式生成部47により生成されたマルチビュー変換式の逆行列を数学的に算出することで求めることができる。
また、それ以外の方法として、例えば、マルチビュー変換を構成する幾つかの変換を、逆に実行することで、逆マルチビュー変換式を求めてもよい。
When the multi-view conversion expression generation unit 47 generates the multi-view conversion expression, the inverse multi-view conversion expression generation unit 48 uses the coordinates of a certain position on the multi-view image in the original image before the multi-view conversion. Generate an inverse multi-view transformation formula that can calculate whether or not there was.
The inverse multiview conversion equation can be obtained by mathematically calculating the inverse matrix of the multiview conversion equation generated by the multiview conversion equation generation unit 47.
As another method, for example, an inverse multi-view transformation expression may be obtained by executing several transformations constituting the multi-view transformation in reverse.

変換画像座標算出部49は、入力画像座標取得部46がオリジナル画像n内のオブジェクトの位置座標、または、背景画像n内の床面の位置座標を選択し、マルチビュー変換式生成部47がマルチビュー変換式を生成すると、そのマルチビュー変換式を用いて、入力画像座標取得部46により選択されたオリジナル画像n内のオブジェクトの位置座標(または、背景画像n内の床面の位置座標)をマルチビュー画像上の位置座標に変換する。
図18はカメラ1−1,1−3,1−5,1−7により撮影されたオリジナル画像(図3又は図12の画像を参照)を変換して、図9に示すようなマルチビュー画像が生成されるとき、図13で示される床面上の位置が変換画像座標算出部49によって変換されるマルチビュー画像上の位置を示している。
また、図19は図9に示すようなマルチビュー画像が生成されるとき、図14で示されるオブジェクトの位置が変換画像座標算出部49によって変換されるマルチビュー画像上の位置を示している。
なお、図19では、オブジェクトの位置は×印で示している。図18の破線は変換後の頂点の位置がイメージしやすいように書き込んだ補助線、図19の破線は変換後のオブジェクトの形状がイメージしやすいよう書き込んだ補助線である。
In the converted image coordinate calculation unit 49, the input image coordinate acquisition unit 46 selects the position coordinate of the object in the original image n or the position coordinate of the floor in the background image n, and the multi-view conversion formula generation unit 47 selects the multi-position conversion formula generation unit 47. When the view conversion formula is generated, the position coordinate of the object in the original image n selected by the input image coordinate acquisition unit 46 (or the position coordinate of the floor in the background image n) is selected using the multi-view conversion formula. Convert to position coordinates on multi-view image.
FIG. 18 shows a multi-view image as shown in FIG. 9 by converting the original image (see the image in FIG. 3 or FIG. 12) taken by the cameras 1-1, 1-3, 1-5, and 1-7. Is generated, the position on the floor surface shown in FIG. 13 indicates the position on the multi-view image converted by the converted image coordinate calculation unit 49.
FIG. 19 shows the position on the multi-view image where the converted image coordinate calculation unit 49 converts the position of the object shown in FIG. 14 when the multi-view image shown in FIG. 9 is generated.
In FIG. 19, the position of the object is indicated by a cross. The broken line in FIG. 18 is an auxiliary line written so that the converted vertex position can be easily imaged, and the broken line in FIG. 19 is an auxiliary line written so that the shape of the converted object can be easily imaged.

オリジナル画像座標算出部50は、変換画像座標算出部49がオリジナル画像n内のオブジェクトの位置座標(または、背景画像n内の床面の位置座標)をマルチビュー画像上の位置座標に変換すると、逆マルチビュー変換式生成部48により生成された逆マルチビュー変換式を用いて、マルチビュー画像上の位置座標(各カメラ1−n(1≦n≦8)のオリジナル画像nから変換されたマルチビュー画像上の位置座標)を、ある1つのカメラ(例えば、カメラ1−1)のオリジナル画像上の位置座標に変換する。
ここで、ある1つのカメラのオリジナル画像は、例えば、現在、画像生成装置により表示されているオリジナル画像であってもよいし、マルチビュー画像を撮影したカメラのオリジナル画像であってもよいし、その他のカメラのオリジナル画像であってもよい。
図21はカメラ1−1,1−3,1−5,1−7により撮影されたオリジナル画像のマルチビュー変換画像(図20の画像を参照)内のオブジェクト(ぬいぐるみ、花瓶)の位置を、カメラ1−1で撮影したオリジナル画像のマルチビュー変換画像上に変換している例を示している。
When the converted image coordinate calculating unit 49 converts the position coordinates of the object in the original image n (or the position coordinates of the floor surface in the background image n) into the position coordinates on the multi-view image, the original image coordinate calculating unit 49 Using the inverse multi-view transformation expression generated by the inverse multi-view transformation expression generator 48, the position coordinates on the multi-view image (multi-points converted from the original image n of each camera 1-n (1 ≦ n ≦ 8)). The position coordinates on the view image) are converted into the position coordinates on the original image of a certain camera (for example, camera 1-1).
Here, the original image of a certain camera may be, for example, the original image currently displayed by the image generation device, or the original image of the camera that captured the multi-view image, It may be an original image of another camera.
FIG. 21 shows the position of an object (stuffed animal, vase) in a multi-view converted image (see the image of FIG. 20) of the original image taken by the cameras 1-1, 1-3, 1-5, 1-7. An example is shown in which an original image captured by the camera 1-1 is converted into a multi-view converted image.

平面射影変換算出部51は、床平面図入力部44により取り込まれた床面の頂点(平面図上の4点以上の座標値)と、画像内床面座標指定部45により指定された背景画像n内の床面の位置座標(床面の頂点に対応する4点以上の座標値)とから、床平面図座標算出部53が床平面図座標を算出する際に使用する平面射影変換行列(例えば、3×3の行列)をカメラ1−n毎に算出する。
なお、平面射影変換行列の算出方法は、例えば、非特許文献「出口光一郎 “ロボットビジョンの基礎”p47(本文献ではホモグラフィー行列と記載されている)」に記載されている。
The plane projective transformation calculation unit 51 uses the floor vertices (coordinate values of four or more points on the plan view) captured by the floor plan input unit 44 and the background image specified by the in-image floor coordinate specification unit 45. The plane projection transformation matrix (when the floor plan view coordinate calculation unit 53 calculates the floor plan view coordinates from the position coordinates (four or more coordinate values corresponding to the vertices of the floor surface) of the floor in n) For example, a 3 × 3 matrix) is calculated for each camera 1-n.
The calculation method of the planar projective transformation matrix is described in, for example, the non-patent document “Koichiro Deguchi“ Basics of Robot Vision ”p47 (described as a homography matrix in this document)”.

平面射影変換算出部52は、床平面図入力部44により取り込まれた床面の頂点(平面図上の4点以上の座標値)と、画像内床面座標指定部45により指定された背景画像n内の床面の位置座標(床面の頂点に対応する4点以上の座標値)とから、オリジナル画像座標算出部55がオリジナル画像上の座標を算出する際に使用する平面射影変換行列(例えば、3×3の行列)をカメラ1−n毎に算出する。
なお、あるカメラで撮影された画像においては、平面射影変換算出部51により算出される平面射影変換行列と、平面射影変換算出部52により算出される平面射影変換行列とが、互いに逆行列の関係である場合が多いので、その場合には、どちらか一方の平面射影変換行列を算出してから、その平面射影変換行列の逆行列を数学的に算出して、残る一方の平面射影変換行列を求めるようにしてもよい。
The plane projective transformation calculation unit 52 uses the floor vertices (coordinate values of four or more points on the plan view) captured by the floor plan input unit 44 and the background image specified by the in-image floor coordinate specification unit 45. The plane projection transformation matrix (when the original image coordinate calculation unit 55 calculates the coordinates on the original image from the position coordinates (four or more coordinate values corresponding to the vertices of the floor surface) of the floor surface in n. For example, a 3 × 3 matrix) is calculated for each camera 1-n.
Note that, in an image shot by a certain camera, the plane projection transformation matrix calculated by the plane projection transformation calculation unit 51 and the plane projection transformation matrix calculated by the plane projection transformation calculation unit 52 are inversely related to each other. In this case, after calculating one of the plane projection transformation matrices, calculate the inverse of the plane projection transformation matrix mathematically, and calculate the remaining one of the plane projection transformation matrices. You may make it ask.

床平面図座標算出部53は、オリジナル画像座標算出部50がマルチビュー画像上の位置座標(各カメラ1−n(1≦n≦8)のオリジナル画像nから変換されたマルチビュー画像上の位置座標)を、ある1つのカメラ(例えば、カメラ1−1)のオリジナル画像上の位置座標に変換すると、平面射影変換算出部51により算出された平面射影変換行列を用いて、そのオリジナル画像上の位置座標を床面の平面図上の位置座標に変換する。
図16は床面の平面図を示しており、図17はカメラ1−1により撮影されたオブジェクト(ぬいぐるみ、花瓶)の平面図上の位置を示している。
また、図22はカメラ1−1,1−3,1−5,1−7により撮影されたオブジェクト(ぬいぐるみ、花瓶)と、マーキング(図面の記載が煩雑になるため、カメラ1−1により撮影されたマーキングのみ)の平面図上の位置を示している。
The floor plan coordinate calculation unit 53 is configured so that the original image coordinate calculation unit 50 converts the position coordinate on the multi-view image (the position on the multi-view image converted from the original image n of each camera 1-n (1 ≦ n ≦ 8)). (Coordinate) is converted into position coordinates on the original image of one camera (for example, camera 1-1), the plane projection transformation matrix calculated by the plane projection transformation calculation unit 51 is used. The position coordinates are converted into the position coordinates on the floor plan.
FIG. 16 shows a plan view of the floor surface, and FIG. 17 shows a position on the plan view of an object (stuffed animal, vase) photographed by the camera 1-1.
FIG. 22 shows objects (stuffed animals, vases) and markings (cameras 1-1, 1-3, 1-5, 1-7) and markings (photographs are taken by the camera 1-1 because the drawing is complicated). (Only marked markings) are shown on the plan view.

図22において、K1はカメラ1−1により撮影された花瓶の平面図上の位置、K3はカメラ1−3により撮影された花瓶の平面図上の位置、K5はカメラ1−5により撮影された花瓶の平面図上の位置、K7はカメラ1−7により撮影された花瓶の平面図上の位置である。
Nはカメラ1−1,1−3,1−5,1−7により撮影されたぬいぐるみの平面図上の位置である。ぬいぐるみは、マルチビュー対象の物品であるため、カメラ1−1,1−3,1−5,1−7により撮影されたオリジナル画像の変換画像であるマルチビュー画像において同じ位置である。そのため、床面の平面図上では、見かけ上、1点になっている。
In FIG. 22, K1 is a position on the plan view of the vase photographed by the camera 1-1, K3 is a position on the plan view of the vase photographed by the camera 1-3, and K5 is photographed by the camera 1-5. A position on the plan view of the vase, K7, is a position on the plan view of the vase taken by the camera 1-7.
N is a position on the plan view of the stuffed toy photographed by the cameras 1-1, 1-3, 1-5, and 1-7. Since the stuffed animal is a multi-view target article, it is at the same position in the multi-view image that is a converted image of the original image photographed by the cameras 1-1, 1-3, 1-5, and 1-7. Therefore, it is apparently one point on the floor plan.

床平面図中間座標算出部54は、床平面図座標算出部53がオリジナル画像上の位置座標を床面の平面図上の位置座標に変換すると、1以上のオブジェクト(ぬいぐるみ、花瓶)の平面図上の位置座標の中から、平面図上では、見かけ上異なる同一オブジェクト(花瓶)の位置を示す点K1,K3,K5,K7を特定し、点K1,K3,K5,K7の中間点を決定する。
ここでの中間点は、例えば、点K1→点K3に移動する途中の曲線上の点という意味であって、ちょうど、中間(中央)に位置する点という意味ではない。
具体的には、以下のようにして、点K1,K3,K5,K7の中間点を決定する。
When the floor plan view coordinate calculation unit 53 converts the position coordinates on the original image into the position coordinates on the floor plan, the floor plan intermediate coordinate calculation unit 54 is a plan view of one or more objects (stuffed animals, vases). From the upper position coordinates, points K1, K3, K5, and K7 that indicate the positions of the apparently different objects (vases) are identified on the plan view, and intermediate points of the points K1, K3, K5, and K7 are determined. To do.
The intermediate point here means, for example, a point on the curve in the middle of moving from the point K1 to the point K3, and does not mean a point located in the middle (center).
Specifically, an intermediate point between the points K1, K3, K5, and K7 is determined as follows.

ここでは、点K1と点K3の間に3つの中間点K1-1,K1-2,K1-3を決定する例を説明する。
床平面図中間座標算出部54は、図23に示すように、点Nと点K1の距離をd1、点Nと点K3の距離をd3、点Nの座標を(nx,ny)とし、点Nを中心とする点K1を通る円(図23の破線を参照)を用意する。
このとき、円周上の点(x、y)は、以下のような式(6)で表現される。

Figure 2008217243
ただし、xは平面図の横方向の座標値、yは平面図の縦方向の座標値である。 Here, an example will be described in which three intermediate points K1-1, K1-2, and K1-3 are determined between the points K1 and K3.
Floor plan view intermediate coordinate calculating unit 54, as shown in FIG. 23, the distance between the point N and the point K1 d1, the distance between the point N and the point K3 d3, and the coordinates of the point N and (n x, n y) A circle (see the broken line in FIG. 23) passing through the point K1 centered on the point N is prepared.
At this time, the point (x, y) on the circumference is expressed by the following equation (6).
Figure 2008217243
Here, x is a coordinate value in the horizontal direction of the plan view, and y is a coordinate value in the vertical direction of the plan view.

次に、床平面図中間座標算出部54は、平面図上の線分N−K1と線分N−K3のなす角をα0として、なす角α0を4分割する。
そして、床平面図中間座標算出部54は、分割後のなす角α1,α2,α3,α4に対応する線分が円周と交わる点をK1-1p,K1-2p,K1-3pとする。以下、K1-1p,K1-2p,K1-3pをK1-mpのように表記する。ただし、m=1,2,3である。
Next, the floor plan intermediate coordinate calculation unit 54 divides the formed angle α 0 into four with the angle formed by the line segment N-K1 and the line segment N-K3 on the plan view being α 0 .
Then, the floor plan intermediate coordinate calculation unit 54 determines the points where the line segments corresponding to the angles α 1 , α 2 , α 3 , α 4 formed after the division intersect with the circumference K1-1p, K1-2p, K1−. 3p. Hereinafter, K1-1p, K1-2p, and K1-3p are expressed as K1-mp. However, m = 1, 2, 3.

次に、床平面図中間座標算出部54は、点Nと円周上の点K1-mpを結ぶ直線上で、点Nからの距離Lmが以下の式(7)で表現される点を中間点K1-mに決定する。

Figure 2008217243
ただし、Mは点K1と点K3を結ぶ中間点の総数、mは中間点のうち、点K1に近い方から順番に数えた番号であり(1≦m≦M−1)、この例では、M=4、m=1,2,3である。 Next, the floor plan intermediate coordinate calculation unit 54 determines the intermediate point where the distance Lm from the point N is expressed by the following equation (7) on the straight line connecting the point N and the point K1-mp on the circumference. Determine the point K1-m.
Figure 2008217243
However, M is the total number of intermediate points connecting the points K1 and K3, m is a number sequentially counted from the intermediate points closer to the point K1 (1 ≦ m ≦ M−1), and in this example, M = 4 and m = 1, 2, 3.

ここでは、中間点K1-1,K1-2,K1-3を決定する際、点Nを中心とする点K1を通る円周を決定するものについて示したが、点Nを中心とする点K3を通る円周を決定し、例えば、点Nと円周上の点K1-mpを結ぶ直線上で、点Nからの距離Lmが以下の式(8)で表現される点を中間点K1-1,K1-2,K1-3に決定するようにしてもよい。

Figure 2008217243
また、ここでは、点Nを中心とする点K1(または点K3)を通る円周を決定してから、点K1と点K3の中間点K1-1,K1-2,K1-3を決定するようにしているが、点Nを中心として、点K1と点K3を通る楕円を決定した上で、線分N−K1と線分N−K3のなす角α0をM分割(この例では、M=4)して、中間点K1-1,K1-2,K1-3を求めるようにしてもよい。 Here, the intermediate points K1-1, K1-2, and K1-3 are determined for determining the circumference passing through the point K1 centered on the point N. However, the point K3 centered on the point N is shown. For example, on a straight line connecting the point N and the point K1-mp on the circumference, a point where the distance Lm from the point N is expressed by the following equation (8) is defined as the intermediate point K1- It may be determined to be 1, K1-2, K1-3.
Figure 2008217243
Further, here, after determining the circumference passing through the point K1 (or the point K3) centered on the point N, intermediate points K1-1, K1-2, and K1-3 between the points K1 and K3 are determined. However, after determining the ellipse passing through the points K1 and K3 with the point N as the center, the angle α 0 formed by the line segment N-K1 and the line segment N-K3 is divided into M (in this example, M = 4), and intermediate points K1-1, K1-2, K1-3 may be obtained.

図24は点K1と点K3の中間点K1-1,K1-2,K1-3と同様の方法で、点K3と点K5の中間点、点K5と点K7の中間点、点K7と点K1の中間点を求めた例を示している。
図中、なす角α1〜α4,β1〜β4,γ1〜γ4,δ1〜δ4は、それぞれ線分N−K1と線分N−K3のなす角α0,線分N−K3と線分N−K5のなす角β0,線分N−K5と線分N−K7のなす角γ0,線分N−K7と線分N−K1のなす角δ0を4等分して中間点を決定しているため、以下の式(9)〜(12)が成立する。
FIG. 24 shows the same method as the intermediate points K1-1, K1-2, and K1-3 between the points K1 and K3, the intermediate point between the points K3 and K5, the intermediate point between the points K5 and K7, and the point K7 and the point K7. The example which calculated | required the intermediate point of K1 is shown.
In the figure, angles α 1 to α 4 , β 1 to β 4 , γ 1 to γ 4 , and δ 1 to δ 4 are angles α 0 and line segments formed by line segment N-K 1 and line segment N-K 3 , respectively. An angle β 0 formed by N-K3 and line segment N-K5, an angle γ 0 formed by line segment N-K5 and line segment N-K7, and an angle δ 0 formed by line segment N-K7 and line segment N-K1 are set to 4 Since the midpoint is determined by equally dividing, the following equations (9) to (12) are established.

Figure 2008217243
Figure 2008217243

ここでは、4等分しているのでχ=0.25にしているが、分割数が異なればχは0.25以外の値であってもよい。
χα,χβ,χγ,χδの値は、点Nに対するなす角α0,β0,γ0,δ0を分割する割合に応じて変化する。
Here, χ = 0.25 because it is divided into four equal parts, but χ may be a value other than 0.25 if the number of divisions is different.
The values of χ α , χ β , χ γ , χ δ vary according to the ratio of dividing the angles α 0 , β 0 , γ 0 , δ 0 made with respect to the point N.

上記の例では、点Nを中心とする点K1(または、K3,K5,K7)を通る円や楕円を用いて中間点を求めているが、点N(ぬいぐるみが置かれている点)の位置が影響を与えるように、点K1と点K3(または、点K3と点K5、点K5と点K7、点K7と点K1)の中間点を決定すればよく、例えば、点K1(または、K3,K5,K7)を通るスプライン曲線などを用いてもよい。
また、例えば、点K1と点K3の中間点を決定する際に、点Nの位置のみが影響するのではなく、点K5や点K7のいずれか一方、または、点K5や点K7の両方が影響を与えるようにしてもよい。
この例では、4台のカメラしか使用していないため、実際の点がK1,K3,K5,K7の4点しかないが、さらに、実際の点が多い場合、それらの点の位置に応じて影響の度合いが異なるようにしてもよい(例えば、位置が隣接する度合いが近い点ほど、大きな値を与えるようにする)。
In the above example, an intermediate point is obtained using a circle or ellipse passing through the point K1 (or K3, K5, K7) centered on the point N, but the point N (the point where the stuffed animal is placed) An intermediate point between the point K1 and the point K3 (or the point K3 and the point K5, the point K5 and the point K7, and the point K7 and the point K1) may be determined so that the position affects, for example, the point K1 (or Spline curves passing through K3, K5, and K7) may be used.
Further, for example, when determining an intermediate point between the point K1 and the point K3, not only the position of the point N is affected, but either the point K5 or the point K7, or both the point K5 and the point K7 are You may make it affect.
In this example, since only four cameras are used, there are only four actual points K1, K3, K5, and K7. However, when there are many actual points, depending on the positions of these points. The degree of influence may be different (for example, a larger value is given to a point having a closer degree of adjacent positions).

ここでは、点K1と点K3の中間点を決定する際、線分N−K1と線分N−K3のなす角α0を数値M(M=4)で等しく分割して、3つの中間点K1-1,K1-2,K1-3を決定するものについて示したが、等しく分割しなくてもよい。その場合、それらの点の位置を考慮して、分割比率を変えてもよい。また、実際の点(K1,K3,K5,K7)に近いほど細かく分割してもよい。
この例では、角度で分割しているが、円や楕円の円周長、それ以外の曲線長(スプライン曲線など)で分割して中間点を決定してもよい。
Here, when determining an intermediate point between the points K1 and K3, the angle α 0 formed by the line segment N-K1 and the line segment N-K3 is equally divided by a numerical value M (M = 4) to obtain three intermediate points. Although what has determined K1-1, K1-2, and K1-3 has been shown, it need not be equally divided. In that case, the division ratio may be changed in consideration of the positions of those points. Further, the closer to the actual point (K1, K3, K5, K7), the finer the division may be.
In this example, the angle is divided, but the intermediate point may be determined by dividing the circle or ellipse by the circumference length or other curve length (spline curve or the like).

図26はカメラ1−1,1−3により撮影されたオリジナル画像内の花瓶の位置が、床面の平面図上の座標に変換された点K1,K3と、同じく、カメラ1−1,1−3により撮影されたオリジナル画像内の四角形の頂点が、床面の平面図上の座標に変換された点を示している。また点Nはぬいぐるみの位置を示している。
カメラ1−1により撮影された四角形の頂点は頂点(1)、頂点(2)、頂点(3)、頂点(4)で示し、カメラ1−3により撮影された四角形の頂点は頂点(1)3、頂点(2)3、頂点(3)3、頂点(4)3で示している。
FIG. 26 shows points K1 and K3 in which the positions of the vases in the original images taken by the cameras 1-1 and 1-3 are converted into coordinates on the floor plan, as well as the cameras 1-1 and 1. The square vertices in the original image photographed by -3 indicate points converted into coordinates on the floor plan. Point N indicates the position of the stuffed animal.
The vertices of the rectangle photographed by the camera 1-1 are indicated by the vertex (1), the vertex (2), the vertex (3), and the vertex (4), and the vertex of the square photographed by the camera 1-3 is the vertex (1). 3, vertex (2) 3, vertex (3) 3, and vertex (4) 3.

また、図26では、カメラ1−1により撮影された四角形の頂点(1)、頂点(2)、頂点(3)、頂点(4)と、カメラ1−3により撮影された四角形の頂点(1)3、頂点(2)3、頂点(3)3、頂点(4)3との中間点(ここでの中間点は、例えば、頂点(1)→頂点(1)3に移動する途中の曲線上の点という意味であり、ちょうど、中間(中央)に位置する点という意味ではない)である頂点(1)−1、頂点(2)−1、頂点(3)−1、頂点(4)−1の決定方法を示している。   In FIG. 26, the vertex (1), vertex (2), vertex (3), and vertex (4) of the rectangle photographed by the camera 1-1, and the vertex (1) of the rectangle photographed by the camera 1-3. ) 3, vertex (2) 3, vertex (3) 3, and vertex (4) 3 are intermediate points (the intermediate point here is, for example, a curve in the middle of moving from vertex (1) to vertex (1) 3) Vertex (1) -1, Vertex (2) -1, Vertex (3) -1, Vertex (4), which means the upper point, not just the middle (center) point) -1 determination method is shown.

この決定方法は、基本的には図23や図24で示している方法と同じである。
例えば、線分(頂点(1)−点N)と線分(頂点(1)3−点N)とがなす角度Aに対する線分(頂点(1)−点N)と線分(頂点(1)−1 −点N)とがなす角度aの割合λは、線分(頂点(2)−点N)と線分(頂点(2)3−点N)とがなす角度Bに対する線分(頂点(2)−点N)と線分(頂点(2)−1 −点N)とがなす角度bの割合に等しい。
この割合λは、線分(頂点(3)−点N)と線分(頂点(3)3−点N)とがなす角度Cに対する線分(頂点(3)−点N)と線分(頂点(3)−1 −点N)とがなす角度cの割合、および線分(頂点(4)−点N)と線分(頂点(4)3−点N)とがなす角度Dに対する線分(頂点(4)−点N)と線分(頂点(4)−1 −点N)とがなす角度dの割合とも等しい。
これらを式で示すと、以下のようになる。

Figure 2008217243
This determination method is basically the same as the method shown in FIGS.
For example, a line segment (vertex (1) -point N) and a line segment (vertex (1) with respect to an angle A formed by the line segment (vertex (1) -point N) and the line segment (vertex (1) -point N) ) -1−the ratio λ of the angle a formed by the point N) is a line segment with respect to the angle B formed by the line segment (vertex (2) −point N) and the line segment (vertex (2) 3-point N) ( It is equal to the ratio of the angle b formed by the vertex (2) -point N) and the line segment (vertex (2) -1-point N).
This ratio λ is the line segment (vertex (3) −point N) and line segment (angle (vertex (3) −point N)) with respect to the angle C formed by the line segment (vertex (3) −point N) and line segment (vertex (3) −point N). The ratio of the angle c formed by the vertex (3) -1-point N) and the line with respect to the angle D formed by the line segment (vertex (4) -point N) and the line segment (vertex (4) 3-point N) It is also equal to the ratio of the angle d formed by the minute (vertex (4) -point N) and the line segment (vertex (4) -1-point N).
These can be expressed as follows.
Figure 2008217243

オリジナル画像座標算出部55は、上記のようにして、床平面図中間座標算出部54が中間点(例えば、中間点K1-1,K1-2,K1-3など)を決定すると、平面射影変換算出部52により算出された平面射影変換行列を用いて、その中間点をオリジナル画像上の位置座標に変換する。
このとき、1つのオリジナル画像上の座標に変換してもよいし、カメラが異なるいくつかのオリジナル画像上の座標に変換してもよい。
When the floor plan intermediate coordinate calculation unit 54 determines intermediate points (for example, intermediate points K1-1, K1-2, K1-3, etc.) as described above, the plane image transformation conversion is performed. Using the planar projective transformation matrix calculated by the calculation unit 52, the intermediate point is converted into position coordinates on the original image.
At this time, it may be converted into coordinates on one original image, or may be converted into coordinates on several original images with different cameras.

変換画像座標算出部56は、オリジナル画像座標算出部55が中間点をオリジナル画像上の位置座標に変換すると、マルチビュー変換式生成部47により生成されたマルチビュー変換式を用いて、そのオリジナル画像上の位置座標をマルチビュー画像上の位置座標に変換する。
図25(a)は図24におけるオブジェクト位置の中間点をマルチビュー画像上の位置座標に変換している例を示し、図25(b)は従来方式により決定された中間視点位置の例を示している。また図27は、床面上の頂点の中間点を、マルチビュー画像上の位置座標に変換している例を示している。
When the original image coordinate calculation unit 55 converts the intermediate point to a position coordinate on the original image, the converted image coordinate calculation unit 56 uses the multi-view conversion formula generated by the multi-view conversion formula generation unit 47 to convert the original image. The upper position coordinates are converted into position coordinates on the multi-view image.
FIG. 25A shows an example in which the intermediate point of the object position in FIG. 24 is converted into position coordinates on the multi-view image, and FIG. 25B shows an example of the intermediate viewpoint position determined by the conventional method. ing. FIG. 27 shows an example in which an intermediate point between vertices on the floor surface is converted into position coordinates on the multi-view image.

床面中間画像用平面射影変換算出部57は、変換画像座標算出部56がオリジナル画像上の位置座標をマルチビュー画像上の位置座標に変換すると、そのマルチビュー画像上の位置座標と、変換画像座標算出部49により変換されたマルチビュー画像上の位置座標とから、床面中間画像生成部59が床面の中間画像を生成する際に使用する平面射影変換行列(例えば、3×3の行列)を算出する。
なお、平面射影変換行列の算出方法は、例えば、非特許文献「出口光一郎 “ロボットビジョンの基礎”p47(本文献ではホモグラフィー行列と記載されている)」に記載されている。
When the converted image coordinate calculation unit 56 converts the position coordinates on the original image into the position coordinates on the multi-view image, the floor intermediate image plane projection conversion calculation unit 57 converts the position coordinates on the multi-view image and the converted image. A plane projection transformation matrix (for example, a 3 × 3 matrix) used when the floor intermediate image generation unit 59 generates an intermediate image of the floor surface from the position coordinates on the multi-view image converted by the coordinate calculation unit 49. ) Is calculated.
The calculation method of the planar projective transformation matrix is described in, for example, the non-patent document “Koichiro Deguchi“ Basics of Robot Vision ”p47 (described as a homography matrix in this document)”.

床面領域抽出部58は、画像データ一時保存部2に保存されているカメラ1−n(1≦n≦8)の背景画像nから床面領域を抽出する。
床面領域の抽出としては、例えば、ユーザが背景画像から床面領域を指定するようにすればよい。
あるいは、平面射影変換行列算出部8により算出されたカメラ間の平面射影変換行列を用いて、あるカメラにより撮影された背景画像を、別のカメラにより撮影された背景画像に変換し、両者の画素毎の差分を行って、その差分がある閾値以下である画素に対し、例えば、収縮処理、拡大処理などを実施して床面領域を決定するようにしてもよい。
また、背景画像を使用しないで、オブジェクトが撮影されている画像からメディアンフィルタなどを用いて背景画像に相当する画像を生成して利用するようにしてもよい。
例えば、図28(d)はユーザにより指定された床面領域を示し、図28(e)は床面領域の抽出結果を示している。
なお、図28(d)では、ユーザが背景画像の床面のうち、机などの立体物で床面が隠されている領域を除く領域を床面として指定している様子を示している。
The floor area extraction unit 58 extracts a floor area from the background image n of the camera 1-n (1 ≦ n ≦ 8) stored in the image data temporary storage unit 2.
As the extraction of the floor area, for example, the user may specify the floor area from the background image.
Alternatively, using a plane projection transformation matrix between cameras calculated by the plane projection transformation matrix calculation unit 8, a background image shot by one camera is converted into a background image shot by another camera, and both pixels The floor area may be determined by performing a difference for each pixel and performing, for example, a contraction process, an enlargement process, or the like on a pixel whose difference is equal to or less than a certain threshold value.
Further, without using a background image, an image corresponding to the background image may be generated and used from an image in which an object is photographed using a median filter or the like.
For example, FIG. 28D shows a floor area specified by the user, and FIG. 28E shows a floor area extraction result.
FIG. 28D shows a state in which the user designates, as the floor surface, an area other than the area where the floor surface is hidden by a three-dimensional object such as a desk among the floor surface of the background image.

床面中間画像生成部59は、床面領域抽出部58が背景画像から床面領域を抽出すると、床面中間画像用平面射影変換算出部57により算出された平面射影変換行列を用いて、その床面領域を床面の中間画像に変換する。
この例では、カメラ1−1とカメラ1−3の中間であれば、カメラ1−1又はカメラ1−3により撮影された背景画像のみから床面の中間画像を生成するが、カメラ1−1により撮影された背景画像とカメラ1−3により撮影された背景画像の両方から中間画像をそれぞれ生成し、2つの中間画像に例えば中間位置の度合いに応じた重みを付けて平均化するようにしてもよい。
When the floor area extraction unit 58 extracts a floor area from the background image, the floor intermediate image generation unit 59 uses the plane projection transformation matrix calculated by the plane projection conversion calculator 57 for the floor intermediate image, Convert the floor area to an intermediate image of the floor.
In this example, if it is intermediate between the camera 1-1 and the camera 1-3, an intermediate image of the floor surface is generated only from the background image photographed by the camera 1-1 or the camera 1-3. An intermediate image is generated from both the background image captured by the camera 1 and the background image captured by the camera 1-3, and the two intermediate images are weighted according to the degree of the intermediate position, for example, and averaged. Also good.

中間画像用オブジェクト生成部60は、オブジェクト抽出部42がオリジナル画像からオブジェクトを抽出すると、そのオブジェクトから中間画像用のオブジェクトを生成する。
中間画像用のオブジェクトの生成方法は、例えば、非特許文献「矢口悟志他 “未校正多視点カメラシステムを用いた任意視点画像生成”情報処理学会論文誌:コンピュータビジョンとイメージメディア Vol.42 No.SIG 6(CVIM 2) June 2001」に開示されており、特に、「3.2節 式(3)(p13)」に記述されている任意視点画像を用いて中間画像用のオブジェクトを生成する。
床平面図中間座標算出部54により算出された中間点K1-1,K1-2,K1-3が、線分N−K1と線分N−K3のなす角α0を4等分することで決定された点である場合、上記「3.2節 式(3)(p13)」のωの値は、例えば、0.25、0.5、0.75であるとする。
When the object extraction unit 42 extracts an object from the original image, the intermediate image object generation unit 60 generates an intermediate image object from the object.
A method for generating an object for an intermediate image is described in, for example, the non-patent document “Satoru Yaguchi et al. SIG 6 (CVIM 2) June 2001 ”, and in particular, an object for an intermediate image is generated using an arbitrary viewpoint image described in“ Section 3.2 (3) (p13) ”.
The intermediate points K1-1, K1-2, and K1-3 calculated by the floor plan intermediate coordinate calculation unit 54 divide the angle α 0 formed by the line segment N-K1 and the line segment N-K3 into four equal parts. In the case of the determined point, the value of ω in “Section 3.2 (3) (p13)” is, for example, 0.25, 0.5, and 0.75.

ここでは、任意視点画像を用いて中間画像用のオブジェクトを生成するものについて示したが、例えば、カメラ1−1のオリジナル画像から抽出されたオブジェクトや、カメラ1−3のオリジナル画像から抽出されたオブジェクトをそのまま中間画像用のオブジェクトとして利用するようにしてもよいし、カメラ1−1のオリジナル画像から抽出されたオブジェクトとカメラ1−3のオリジナル画像から抽出されたオブジェクトとに重みを付けて平均化したオブジェクトを中間画像用のオブジェクトとして利用するようにしてもよい。   Here, an example in which an object for an intermediate image is generated using an arbitrary viewpoint image is shown. For example, an object extracted from an original image of the camera 1-1 or an original image of the camera 1-3 is extracted. The object may be used as an object for an intermediate image as it is, or an object extracted from the original image of the camera 1-1 and an object extracted from the original image of the camera 1-3 are weighted and averaged. The converted object may be used as an intermediate image object.

オブジェクトサイズ修正部61は、中間画像オブジェクト生成部60が中間画像用のオブジェクトを生成すると、その中間画像用のオブジェクトがオリジナル画像座標算出部55により変換されたマルチビュー画像上の位置座標に存在するものとして、マルチビュー変換式生成部47により生成されたマルチビュー変換式を用いて、中間画像用のオブジェクトのサイズを修正する。
中間画像用のオブジェクトのサイズを修正するに際して、例えば、カメラ1−1のマルチビュー画像におけるオブジェクトの大きさと、カメラ1−3のマルチビュー画像におけるオブジェクトの大きさを測定して、両者の大きさが線形に変化するように、中間位置のオブジェクトの大きさを修正するようにしてもよい。
When the intermediate image object generation unit 60 generates an intermediate image object, the object size correction unit 61 exists at the position coordinates on the multi-view image converted by the original image coordinate calculation unit 55. As an example, the size of the intermediate image object is corrected using the multi-view conversion formula generated by the multi-view conversion formula generation unit 47.
When correcting the size of the object for the intermediate image, for example, the size of the object in the multi-view image of the camera 1-1 and the size of the object in the multi-view image of the camera 1-3 are measured. The size of the object at the intermediate position may be corrected so that changes linearly.

中間画像生成部62は、床面中間画像生成部59が床面の中間画像を生成し、オブジェクトサイズ修正部61が中間画像用のオブジェクトのサイズを修正すると、変換画像座標算出部56により変換された中間画像上のオブジェクト位置座標において、オブジェクトサイズ修正部61によりサイズが修正された中間画像用のオブジェクトを床面の中間画像に上書きすることにより、中間画像を生成する。この様子を図27に示す。図27においては、
このとき、図23又は図24において、対応するオブジェクト位置の中間点を決定する比率λと、図26において、対応する床面上の頂点の中間点を決定する比率χとを同じにすることで、生成した中間画像のオブジェクト位置と、床面の中間画像とを組み合わせることで、精度が高くて違和感のない中間画像を生成することができる。このとき、以下の式が成立する。
The intermediate image generation unit 62 is converted by the converted image coordinate calculation unit 56 when the floor intermediate image generation unit 59 generates an intermediate image of the floor and the object size correction unit 61 corrects the size of the object for the intermediate image. The intermediate image is generated by overwriting the intermediate image on the floor surface with the intermediate image object whose size has been corrected by the object size correction unit 61 at the object position coordinates on the intermediate image. This is shown in FIG. In FIG.
At this time, the ratio λ for determining the intermediate point of the corresponding object position in FIG. 23 or FIG. 24 and the ratio χ for determining the intermediate point of the corresponding vertex on the floor surface in FIG. By combining the object position of the generated intermediate image and the intermediate image of the floor surface, it is possible to generate an intermediate image with high accuracy and no sense of incongruity. At this time, the following equation is established.

図23又は図24においては、下記の式(14)が成立する。

Figure 2008217243
また、図26において、下記の式(15)が成立する場合、下記の式(16)が成立する。
Figure 2008217243
In FIG. 23 or FIG. 24, the following formula (14) is established.
Figure 2008217243
In FIG. 26, when the following equation (15) is established, the following equation (16) is established.
Figure 2008217243

なお、αn(n=1,2,3,4など)は、カメラ1−1からカメラ1−3に関する角度α0を分割する中間点による角度であるが、必ずしも、α1=α2=α3=α4・・・・ではない。
これを言い換えれば、例えば、点K1−1に由来する中間位置にオブジェクトを上書きする場合は、点K1−1の決定方法である「カメラ1−1とカメラ1−3の中間点にオブジェクトを上書きする際、カメラ1−1→カメラ1−3のオブジェクト位置の曲線を決定する角度分割比率が、そのオブジェクトを書き込む床面の中間画像の生成に使用する床面の中間点を決定する際の比率に等しい」ということができる。
Note that α n (n = 1, 2, 3, 4, etc.) is an angle by an intermediate point that divides the angle α 0 with respect to the camera 1-1 to the camera 1-3, but is not necessarily α 1 = α 2 = It is not α 3 = α 4 .
In other words, for example, when an object is overwritten at an intermediate position derived from the point K1-1, “the object is overwritten at the intermediate point between the camera 1-1 and the camera 1-3, which is the determination method of the point K1-1. When the angle division ratio for determining the curve of the object position of the camera 1-1 → camera 1-3 is determined, the ratio at which the intermediate point of the floor surface used for generating the intermediate image of the floor surface on which the object is written is determined. Is equal to ".

以上で明らかなように、この実施の形態1によれば、床面に置かれている1以上の物体の床面上の位置を床面の平面図上の位置に変換する平面射影変換手段と、平面射影変換手段により変換された1以上の物体の平面図上の位置の中から、その平面図上では見かけ上異なる同一物品に係る複数の位置を特定し、複数の位置の中間点を決定する中間点決定手段と、中間点決定手段により決定された中間点をマルチビュー画像上の位置に変換し、マルチビュー画像上の位置に応じて床面の画像を生成する床面画像生成手段とを設け、中間画像生成手段が複数のカメラ画像内の床面に置かれている1以上の物体の画像と床面画像生成手段により生成された床面の画像から、マルチビュー画像生成手段により生成された複数のマルチビュー画像の間の中間画像を生成するように構成したので、複数の多視点画像を切り替える際、滑らかで違和感のない中間画像を表示することができる効果を奏する。   As apparent from the above, according to the first embodiment, the plane projection conversion means for converting the position on the floor surface of one or more objects placed on the floor surface into the position on the floor plan. From among the positions on the plan view of one or more objects converted by the plane projective conversion means, a plurality of positions related to the same article that are apparently different on the plan view are specified, and intermediate points of the plurality of positions are determined. Intermediate point determination means for converting the intermediate point determined by the intermediate point determination means to a position on the multi-view image, and generating a floor surface image according to the position on the multi-view image; And the intermediate image generation means is generated by the multi-view image generation means from the image of one or more objects placed on the floor in the plurality of camera images and the floor image generated by the floor image generation means. Between multiple multi-view images Since it is configured to generate between images, when switching the plurality of the multi-view image, an effect that can be displayed in an intermediate image not smooth and discomfort.

また、この実施の形態1では、例えば、カメラ1−1とカメラ1−3の中間点を平面図における中心角を4等分した3つの中間点で決定しているので、カメラ1−1のマルチビュー画像、3つの中間画像、カメラ1−3の中間画像を順に表示すると、マルチビュー対象のオブジェクト(ぬいぐるみ)を中心にして、撮影カメラをカメラ1−1の撮影位置から、カメラ1−3の撮影位置に3次元的に一定の速度で移動したかのような画像効果が得られる。   In the first embodiment, for example, the intermediate point between the camera 1-1 and the camera 1-3 is determined by three intermediate points obtained by dividing the central angle in the plan view into four equal parts. When the multi-view image, the three intermediate images, and the intermediate image of the camera 1-3 are sequentially displayed, the camera 1-3 is moved from the shooting position of the camera 1-1 around the multi-view target object (stuffed animal). The image effect can be obtained as if the camera were moved to the shooting position at a constant speed three-dimensionally.

また、床面の平面図において、円や楕円を用いて中間位置を決定しているため、マルチビュー対象のオブジェクト(ぬいぐるみ)からカメラまでの3次元的な距離を等しく保ったまま、カメラ1−1の位置からカメラ1−3の位置にカメラを移動したかのような画像効果を得ることができる。
また、例えば、カメラ1−1からカメラ1−3、カメラ1−5を経由して、カメラ1−1に戻るような中間画像を生成した場合、オブジェクトの位置及び大きさや、前後の移動方向の違和感を招くことなく、実際の画像であるカメラ1−1,1−3,1−5,1−7のオリジナル画像と、その前後の中間画像とを切り替えることができる。また、床面の位置及び大きさや、前後の移動方向の違和感を招くことなく、実際の画像であるカメラ1−1,1−3,1−5,1−7のオリジナル画像と、その前後の中間画像とを切り替えることができる。
Further, in the plan view of the floor surface, since the intermediate position is determined using a circle or an ellipse, the three-dimensional distance from the object to be multiviewed (stuffed toy) to the camera is kept equal while the camera 1- An image effect as if the camera was moved from the position 1 to the position of the camera 1-3 can be obtained.
Further, for example, when an intermediate image that returns from the camera 1-1 to the camera 1-1 via the camera 1-3 and the camera 1-5 is generated, the position and size of the object and the moving direction of the object Without causing a sense of incongruity, it is possible to switch between the original images of the cameras 1-1, 1-3, 1-5, and 1-7, which are actual images, and the intermediate images before and after that. In addition, the original images of the cameras 1-1, 1-3, 1-5, and 1-7, which are actual images, and the front and back of the images can be obtained without causing a sense of incongruity between the position and size of the floor surface and the moving direction of the front and rear. An intermediate image can be switched.

なお、この実施の形態1では、例えば、隣接するカメラ1−1と1−3、1−3と1−5、1−5と1−7、1−7と1−1の間を、平面図上の中心角に対して4分割することで、カメラ1−1→カメラ1−3、カメラ1−3→カメラ1−5、カメラ1−5→カメラ1−7、カメラ1−7→カメラ1−1への切り替えの際に、カメラが3次元的に等速度で移動しているかのような画像効果を得ているが、もし、カメラを1−1→1−3→1−5→1−7→1−1のように連続的に切り替える場合、これらのカメラ1−1,1−3,1−5,1−7がマルチビュー対象のオブジェクト(ぬいぐるみ)に対するなす角度が等しくないので、一連の連続的な切り替え操作としては、実際のカメラ位置毎に速度が変化するような画像効果になる場合がある。
このような画像効果が好ましくない場合は、一連の連続的な切り替えを行う最初と最後のカメラ位置がなす中心角度をある数値で等分割するように中間位置を決定すればよい。
In the first embodiment, for example, between the adjacent cameras 1-1 and 1-3, 1-3 and 1-5, 1-5 and 1-7, and 1-7 and 1-1 are planar. By dividing into four with respect to the central angle in the figure, camera 1-1 → camera 1-3, camera 1-3 → camera 1-5, camera 1-5 → camera 1-7, camera 1-7 → camera At the time of switching to 1-1, an image effect is obtained as if the camera is moving three-dimensionally at a constant speed. If the camera is changed from 1-1 → 1-3 → 1-5 → When switching continuously from 1-7 to 1-1, the angles formed by the cameras 1-1, 1-3, 1-5, and 1-7 with respect to the multi-view target object (stuffed animal) are not equal. As a series of continuous switching operations, there may be an image effect in which the speed changes for each actual camera position. That.
If such an image effect is not preferable, the intermediate position may be determined so that the center angle formed by the first and last camera positions for performing a series of continuous switching is equally divided by a certain numerical value.

また、この実施の形態1では、図24に示すように、いったん床面の平面図上で中間位置を決定してから、図25に示すようにマルチビュー画像上の中間点を決定しているが、例えば、変換画像座標算出部49がオリジナル画像n内のオブジェクトの位置座標をマルチビュー画像上の位置座標に変換すると、直接、マルチビュー変換画像上で、円又は楕円や、それ以外の曲線を利用して中間点を決定するようにしてもよい。
このとき、中間画像において、3次元的な移動速度や大きさに違和感が生じないように、3次元的に遠い位置ほど見かけ上の移動速度が遅くなるようにしてもよい。また、3次元的に遠い位置ほど表示サイズが小さくなるように表示してもよい。
In the first embodiment, as shown in FIG. 24, the intermediate position is once determined on the floor plan, and then the intermediate point on the multi-view image is determined as shown in FIG. However, for example, when the converted image coordinate calculation unit 49 converts the position coordinates of the object in the original image n into the position coordinates on the multi-view image, the circle, ellipse, or other curve is directly displayed on the multi-view converted image. The intermediate point may be determined using.
At this time, in the intermediate image, the apparent movement speed may be slower as the position is farther three-dimensionally so that the three-dimensional movement speed and size do not feel strange. Further, the display size may be displayed so that the display size becomes smaller as the position is farther three-dimensionally.

また、この実施の形態1では、マルチビュー画像の中間画像を生成するものについて示しているが、マルチビュー変換以外の変換画像の中間画像を生成するようにしてもよい。
例えば、カメラの位置や光軸の方向、床面や床面上のオブジェクト(ぬいぐるみ、花瓶)の位置などを3次元空間の座標で表現することで、各カメラで撮影した画像から、ぬいぐるみや花瓶の画像内の位置と大きさが同じである変換画像を生成し、その変換画像の中間画像を生成するようにしてもよい。
In the first embodiment, an intermediate image of a multi-view image is generated. However, an intermediate image of a converted image other than the multi-view conversion may be generated.
For example, by expressing the position of the camera, the direction of the optical axis, the position of the floor or the object (stuffed animal, vase) on the floor surface in 3D space coordinates, etc. A converted image having the same position and size in the image may be generated, and an intermediate image of the converted image may be generated.

この発明の実施の形態1による画像生成装置のマルチビュー画像生成手段を示す構成図である。It is a block diagram which shows the multi view image generation means of the image generation apparatus by Embodiment 1 of this invention. 8台のカメラ1−n(1≦n≦8)を使用して画像を撮影している様子を示す説明図である。It is explanatory drawing which shows a mode that the image is image | photographed using eight cameras 1-n (1 <= n <= 8). カメラ1−1,1−3,1−5,1−7により撮影された画像を示す説明図である。It is explanatory drawing which shows the image image | photographed with the camera 1-1, 1-3, 1-5, 1-7. 水平消失点が画像中心にあり、カメラの光軸が床面に平行になるように、かつ、カメラ画像の横軸がほぼ床面に並行になるように設置されている例を示す説明図である。It is explanatory drawing which shows the example installed so that the horizontal vanishing point is in the center of the image, the optical axis of the camera is parallel to the floor surface, and the horizontal axis of the camera image is substantially parallel to the floor surface. is there. カメラ画像の横軸がほぼ床面に並行であるが、カメラの光軸を水平な床面に対して、やや下向きにして撮影している例を示す説明図である。It is explanatory drawing which shows the example which is making the horizontal axis of a camera image substantially parallel to a floor surface, and makes the optical axis of a camera face down slightly with respect to a horizontal floor surface. カメラの水平軸歪と透視投影歪の補正パラメータの算出を説明する説明図である。It is explanatory drawing explaining calculation of the correction parameter of the horizontal axis distortion of a camera, and perspective projection distortion. オリジナル画像nの水平軸歪と透視投影歪の補正を説明する説明図である。It is explanatory drawing explaining correction | amendment of the horizontal axis distortion and perspective projection distortion of the original image n. 図7の3次元座標をX軸の正方向から見た説明図である。It is explanatory drawing which looked at the three-dimensional coordinate of FIG. 7 from the positive direction of the X-axis. 図3の画像の変換例を示す説明図である。It is explanatory drawing which shows the example of a conversion of the image of FIG. この発明の実施の形態1による画像生成装置の一部(マルチビュー画像生成手段を除く部分)を示す構成図である。It is a block diagram which shows a part (part except a multi view image generation means) of the image generation apparatus by Embodiment 1 of this invention. カメラ1−1,1−3,1−5,1−7により撮影された背景画像を示す説明図である。It is explanatory drawing which shows the background image image | photographed with the camera 1-1, 1-3, 1-5, 1-7. カメラ1−1,1−3,1−5,1−7により撮影されたオブジェクトを含む画像を示す説明図である。It is explanatory drawing which shows the image containing the object image | photographed with the cameras 1-1, 1-3, 1-5, and 1-7. カメラ1−1,1−3,1−5,1−7により撮影されたオリジナル画像内において指定された床面の位置座標を示す説明図である。It is explanatory drawing which shows the position coordinate of the floor surface designated within the original image image | photographed with the camera 1-1, 1-3, 1-5, 1-7. オブジェクト抽出部42により抽出されるカメラ1−1,1−3,1−5,1−7のオブジェクトの像を示す説明図である。It is explanatory drawing which shows the image of the object of the cameras 1-1, 1-3, 1-5, and 1-7 extracted by the object extraction part 42. FIG. オブジェクト位置座標算出部43により算出されたオブジェクトの位置を示す説明図である。It is explanatory drawing which shows the position of the object calculated by the object position coordinate calculation part 43. FIG. マーキングされた床面の平面図を示す説明図である。It is explanatory drawing which shows the top view of the marked floor surface. カメラ1−1により撮影されたオブジェクト(ぬいぐるみ、花瓶)の平面図上の位置を示す説明図である。It is explanatory drawing which shows the position on the top view of the object (stuffed animal, vase) image | photographed with the camera 1-1. 図13で示される床面上の位置が変換画像座標算出部49によって変換されるマルチビュー画像上の位置を示す説明図である。It is explanatory drawing which shows the position on the multi view image in which the position on the floor surface shown by FIG. 13 is converted by the conversion image coordinate calculation part 49. 図13で示されるオブジェクトの位置が変換画像座標算出部49によって変換されるマルチビュー画像上の位置を示す説明図である。It is explanatory drawing which shows the position on the multi view image in which the position of the object shown by FIG. 13 is converted by the conversion image coordinate calculation part 49. カメラ1−1,1−3,1−5,1−7により撮影されたオリジナル画像内のオブジェクト(ぬいぐるみ、花瓶)の位置を示す説明図である。It is explanatory drawing which shows the position of the object (stuffed animal, vase) in the original image image | photographed with the camera 1-1, 1-3, 1-5, 1-7. カメラ1−1,1−3,1−5,1−7により撮影されたオリジナル画像内のオブジェクト(ぬいぐるみ、花瓶)の位置をカメラ1−1のオリジナル画像上の位置座標に変換している例を示す説明図である。An example in which the position of an object (stuffed animal, vase) in an original image photographed by the cameras 1-1, 1-3, 1-5, and 1-7 is converted into position coordinates on the original image of the camera 1-1. It is explanatory drawing which shows. カメラ1−1,1−3,1−5,1−7により撮影されたオブジェクト(ぬいぐるみ、花瓶)と、マーキング(図面の記載が煩雑になるため、カメラ1−1により撮影されたマーキングのみ)の平面図上の位置を示す説明図である。Objects (stuffed animals, vases) photographed by the cameras 1-1, 1-3, 1-5, and 1-7, and markings (only the marking photographed by the camera 1-1 because the drawing is complicated) It is explanatory drawing which shows the position on the top view. 中間点の決定方法を示す説明図である。It is explanatory drawing which shows the determination method of an intermediate point. 中間点の決定方法を示す説明図である。It is explanatory drawing which shows the determination method of an intermediate point. 図24における中間点をオリジナル画像上の位置座標に変換している例を示す説明図である。It is explanatory drawing which shows the example which has converted the intermediate point in FIG. 24 into the position coordinate on an original image. カメラ1−1,1−3により撮影されたオリジナル画像内の花瓶の位置が、床面の平面図上の座標に変換された点K1,K3と、同じく、カメラ1−1,1−3により撮影されたオリジナル画像内の四角形の頂点が、床面の平面図上の座標に変換された点を示す説明図である。The positions of the vases in the original images photographed by the cameras 1-1 and 1-3 are converted into the coordinates K1 and K3 on the floor plan and the cameras 1-1 and 1-3. It is explanatory drawing which shows the point by which the square vertex in the image | photographed original image was converted into the coordinate on the floor plan of a floor surface. 図26の中間点をマルチビュー画像上の位置に変換した例を示す説明図である。It is explanatory drawing which shows the example which converted the intermediate point of FIG. 26 into the position on a multi view image. オブジェクトを説明する説明図であり、(a)は背景画像、(b)はオブジェクトを含む画像、(c)は(b)のオブジェクトを含む画像と(a)の背景画像の差分を求めることにより抽出されるオブジェクトの像である。It is explanatory drawing explaining an object, (a) is a background image, (b) is an image containing an object, (c) is the difference of the image containing the object of (b), and the background image of (a). It is an image of the object to be extracted.

符号の説明Explanation of symbols

1−1〜1−N カメラ、2 画像データ一時保存部、3 マルチビュー位置指定部、4 基準位置指定部、5 床面座標読取部、6 水平消失点算出部、7 垂直消失点算出部、8 平面射影変換行列算出部、9 マルチビュー位置算出部、10 基準位置算出部、11 画像内倍率算出部、12 カメラ水平軸歪補正パラメータ算出部、13 透視投影歪補正パラメータ算出部、14 1次補正画像生成部、15 基準長読取部、16 画像間倍率算出部、17 2次補正画像生成部、18 2次透視変換座標算出部、19 移動パラメータ算出部、20 マルチビュー画像生成部、21 マルチビュー位置指定部、22 マルチビュー画像座標変換部、30 マルチビュー画像生成手段、41 背景画像データ保存部、42 オブジェクト抽出部(床面位置取得手段)、43 オブジェクト位置座標算出部(床面位置取得手段)、44 床平面図入力部(床面位置取得手段)、45 画像内床面座標指定部(床面位置取得手段)、46 入力画像座標取得部(床面位置取得手段)、47 マルチビュー変換式生成部(平面射影変換手段)、48 逆マルチビュー変換式生成部(平面射影変換手段)、49 変換画像座標算出部(平面射影変換手段)、50 オリジナル画像座標算出部(平面射影変換手段)、51 平面射影変換算出部(平面射影変換手段)、52 平面射影変換算出部(床面画像生成手段)、53 床平面図座標算出部(平面射影変換手段)、54 床平面図中間座標算出部(中間点決定手段)、55 オリジナル画像座標算出部(床面画像生成手段)、56 変換画像座標算出部(床面画像生成手段)、57 床面中間画像用平面射影変換算出部(床面画像生成手段)、58 床面領域抽出部(床面画像生成手段)、59 床面中間画像生成部(床面画像生成手段)、60 中間画像用オブジェクト生成部(中間画像生成手段)、61 オブジェクトサイズ修正部(中間画像生成手段)、62 中間画像生成部(中間画像生成手段)。   1-1 to 1-N camera, 2 image data temporary storage unit, 3 multi-view position designation unit, 4 reference position designation unit, 5 floor surface coordinate reading unit, 6 horizontal vanishing point calculation unit, 7 vertical vanishing point calculation unit, 8 plane projection transformation matrix calculation unit, 9 multi-view position calculation unit, 10 reference position calculation unit, 11 intra-image magnification calculation unit, 12 camera horizontal axis distortion correction parameter calculation unit, 13 perspective projection distortion correction parameter calculation unit, 14 primary Correction image generation unit, 15 Reference length reading unit, 16 Inter-image magnification calculation unit, 17 Secondary correction image generation unit, 18 Secondary perspective transformation coordinate calculation unit, 19 Movement parameter calculation unit, 20 Multi view image generation unit, 21 Multi View position designation unit, 22 multi-view image coordinate conversion unit, 30 multi-view image generation means, 41 background image data storage unit, 42 object extraction unit (floor surface) Position acquisition unit), 43 object position coordinate calculation unit (floor surface position acquisition unit), 44 floor plan input unit (floor surface position acquisition unit), 45 in-image floor coordinate designation unit (floor surface position acquisition unit), 46 Input image coordinate acquisition unit (floor surface position acquisition unit), 47 Multi-view conversion formula generation unit (plane projection conversion unit), 48 Inverse multi-view conversion formula generation unit (plane projection conversion unit), 49 Conversion image coordinate calculation unit (plane Projection conversion unit), 50 Original image coordinate calculation unit (plane projection conversion unit), 51 Plane projection conversion calculation unit (plane projection conversion unit), 52 Plane projection conversion calculation unit (floor surface image generation unit), 53 Floor plan view coordinates Calculation unit (planar projection conversion unit), 54 floor plan intermediate coordinate calculation unit (intermediate point determination unit), 55 original image coordinate calculation unit (floor surface image generation unit), 56 converted image coordinate calculation unit (floor Image generation means), 57 floor surface intermediate image plane projection conversion calculation section (floor surface image generation means), 58 floor area extraction section (floor surface image generation means), 59 floor surface intermediate image generation section (floor surface image generation) Means), 60 intermediate image object generation unit (intermediate image generation unit), 61 object size correction unit (intermediate image generation unit), 62 intermediate image generation unit (intermediate image generation unit).

Claims (5)

相互に異なる方向から同一の3次元領域が撮影された複数のカメラ画像のマルチビュー変換を実施して、上記複数のカメラ画像内の床面に置かれているマルチビュー対象の物体の位置及び大きさが一致している複数のマルチビュー画像を生成するマルチビュー画像生成手段と、上記複数のカメラ画像から床面に置かれている1以上の物体の床面上の位置を取得する床面位置取得手段と、上記床面位置取得手段により取得された1以上の物体の床面上の位置を上記床面の平面図上の位置に変換する平面射影変換手段と、上記平面射影変換手段により変換された1以上の物体の平面図上の位置の中から、上記平面図上では見かけ上異なる同一物品に係る複数の位置を特定し、複数の位置の中間点を決定する中間点決定手段と、上記中間点決定手段により決定された中間点をマルチビュー画像上の位置に変換し、上記マルチビュー画像上の位置に応じて床面の画像を生成する床面画像生成手段と、上記複数のカメラ画像内の床面に置かれている1以上の物体の画像と上記床面画像生成手段により生成された床面の画像から、上記マルチビュー画像生成手段により生成された複数のマルチビュー画像間の中間画像を生成する中間画像生成手段とを備えた画像生成装置。   Multi-view transformation of a plurality of camera images in which the same three-dimensional area is photographed from different directions, and the position and size of the object to be multi-viewed placed on the floor in the plurality of camera images Multi-view image generating means for generating a plurality of multi-view images having the same height, and a floor surface position for acquiring a position on the floor surface of one or more objects placed on the floor surface from the plurality of camera images An acquisition means, a plane projection conversion means for converting a position on the floor surface of one or more objects acquired by the floor surface position acquisition means to a position on a floor plan of the floor surface, and conversion by the plane projection conversion means Intermediate point determining means for identifying a plurality of positions related to the same article that are apparently different on the plan view from among the positions on the plan view of the one or more objects, and determining intermediate points of the plurality of positions; Intermediate point determination means A floor image generation means for converting the determined intermediate point to a position on the multi-view image and generating a floor image according to the position on the multi-view image; and a floor surface in the plurality of camera images An intermediate image between a plurality of multi-view images generated by the multi-view image generating unit is generated from the image of one or more objects placed on the floor and the floor image generated by the floor image generating unit. An image generation apparatus comprising intermediate image generation means. 平面射影変換手段は、マルチビュー画像生成手段によるマルチビュー変換時の画像変換パラメータを用いて、床面位置取得手段により取得された1以上の物体の床面上の位置をマルチビュー画像上の位置に変換してから、上記マルチビュー画像上の位置を任意のカメラ画像上の位置に変換し、上記任意のカメラ画像上の位置を床面の平面図上の位置に変換することを特徴とする請求項1記載の画像生成装置。   The plane projection conversion means uses the image conversion parameters at the time of multiview conversion by the multiview image generation means to determine the position on the floor surface of one or more objects acquired by the floor surface position acquisition means. And converting the position on the multi-view image to a position on an arbitrary camera image, and converting the position on the arbitrary camera image to a position on a floor plan of the floor surface The image generation apparatus according to claim 1. 中間点決定手段は、同一物品に係る複数の位置の中間点を決定する際、平面射影変換手段により変換されたマルチビュー対象の物体の平面図上の位置を中心とする円又は楕円の円弧上にある点を中間点として決定することを特徴とする請求項1または請求項2記載の画像生成装置。   The midpoint determination means determines a midpoint between a plurality of positions related to the same article on a circular or elliptical arc centered on the position on the plan view of the object to be multi-view converted by the plane projection conversion means. The image generating apparatus according to claim 1, wherein a point at a point is determined as an intermediate point. 中間点決定手段は、同一物品に係る2つの位置の中間点を決定する際、2つの位置のうちの少なくとも一方を通る円又は楕円を用意し、一方の位置と円又は楕円の中心点を結ぶ線分と、他方の位置と上記中心点を結ぶ線分とのなす角を所定の比率で分割し、分割後のなす角に対応する上記円又は楕円の円弧上の点を中間点として決定することを特徴とする請求項3記載の画像生成装置。   When determining an intermediate point between two positions related to the same article, the intermediate point determination means prepares a circle or an ellipse that passes through at least one of the two positions, and connects one position to the center point of the circle or the ellipse. The angle formed by the line segment and the line segment connecting the other position and the center point is divided at a predetermined ratio, and the point on the arc of the circle or ellipse corresponding to the angle formed after the division is determined as an intermediate point. The image generating apparatus according to claim 3. 床面画像生成手段は、マルチビュー画像生成手段によるマルチビュー変換時の画像変換パラメータを用いて、中間点決定手段により決定された中間点をマルチビュー画像上の位置に変換することを特徴とする請求項1から請求項4のうちのいずれか1項記載の画像生成装置。   The floor image generation means converts the intermediate point determined by the intermediate point determination means to a position on the multi-view image using the image conversion parameter at the time of multi-view conversion by the multi-view image generation means. The image generation device according to claim 1.
JP2007051695A 2007-03-01 2007-03-01 Image creation device Pending JP2008217243A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007051695A JP2008217243A (en) 2007-03-01 2007-03-01 Image creation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007051695A JP2008217243A (en) 2007-03-01 2007-03-01 Image creation device

Publications (1)

Publication Number Publication Date
JP2008217243A true JP2008217243A (en) 2008-09-18

Family

ID=39837236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007051695A Pending JP2008217243A (en) 2007-03-01 2007-03-01 Image creation device

Country Status (1)

Country Link
JP (1) JP2008217243A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227613A (en) * 2010-04-16 2011-11-10 Canon Inc Image processor and method
WO2011148595A1 (en) * 2010-05-26 2011-12-01 日本電気株式会社 Image processing device, image processing method, and image processing program
WO2013105205A1 (en) * 2012-01-10 2013-07-18 日本電気株式会社 Image processing apparatus, image processing method, and image processing program
US8781252B2 (en) 2010-08-16 2014-07-15 Samsung Electronics Co., Ltd. Image processing apparatus and method
US8953046B2 (en) 2010-04-16 2015-02-10 Canon Kabushiki Kaisha Information processing apparatus for selecting a camera to be used to generate a virtual viewpoint video from images shot by a plurality of cameras
JP2017097799A (en) * 2015-11-27 2017-06-01 日本電信電話株式会社 Image processor, image processing method and computer program
US20190228565A1 (en) * 2016-10-11 2019-07-25 Canon Kabushiki Kaisha Image processing system, method of controlling image processing system, and storage medium
JP2020046744A (en) * 2018-09-14 2020-03-26 キヤノン株式会社 Image processing apparatus, background image generation method, and program
US10748328B2 (en) 2016-04-28 2020-08-18 Live2D Inc. Recording medium, information processing apparatus, influence degree deriving method, and image generation method
US11272153B2 (en) 2017-12-25 2022-03-08 Canon Kabushiki Kaisha Information processing apparatus, method for controlling the same, and recording medium
CN115018877A (en) * 2021-03-03 2022-09-06 腾讯科技(深圳)有限公司 Special effect display method, device and equipment for ground area and storage medium
EP2936806B1 (en) * 2012-12-18 2023-03-29 QUALCOMM Incorporated Realistic point of view video method and apparatus

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8717419B2 (en) 2010-04-16 2014-05-06 Canon Kabushiki Kaisha Image processing apparatus and method
US8953046B2 (en) 2010-04-16 2015-02-10 Canon Kabushiki Kaisha Information processing apparatus for selecting a camera to be used to generate a virtual viewpoint video from images shot by a plurality of cameras
JP2011227613A (en) * 2010-04-16 2011-11-10 Canon Inc Image processor and method
WO2011148595A1 (en) * 2010-05-26 2011-12-01 日本電気株式会社 Image processing device, image processing method, and image processing program
US9053522B2 (en) 2010-05-26 2015-06-09 Nec Corporation Image processing device, image processing method, and image processing program
JP5825256B2 (en) * 2010-05-26 2015-12-02 日本電気株式会社 Image processing apparatus, image processing method, and image processing program
US8781252B2 (en) 2010-08-16 2014-07-15 Samsung Electronics Co., Ltd. Image processing apparatus and method
WO2013105205A1 (en) * 2012-01-10 2013-07-18 日本電気株式会社 Image processing apparatus, image processing method, and image processing program
EP2936806B1 (en) * 2012-12-18 2023-03-29 QUALCOMM Incorporated Realistic point of view video method and apparatus
JP2017097799A (en) * 2015-11-27 2017-06-01 日本電信電話株式会社 Image processor, image processing method and computer program
US10748328B2 (en) 2016-04-28 2020-08-18 Live2D Inc. Recording medium, information processing apparatus, influence degree deriving method, and image generation method
US11037364B2 (en) * 2016-10-11 2021-06-15 Canon Kabushiki Kaisha Image processing system for generating a virtual viewpoint image, method of controlling image processing system, and storage medium
US20190228565A1 (en) * 2016-10-11 2019-07-25 Canon Kabushiki Kaisha Image processing system, method of controlling image processing system, and storage medium
US11272153B2 (en) 2017-12-25 2022-03-08 Canon Kabushiki Kaisha Information processing apparatus, method for controlling the same, and recording medium
JP2020046744A (en) * 2018-09-14 2020-03-26 キヤノン株式会社 Image processing apparatus, background image generation method, and program
JP7271115B2 (en) 2018-09-14 2023-05-11 キヤノン株式会社 Image processing device, background image generation method and program
CN115018877A (en) * 2021-03-03 2022-09-06 腾讯科技(深圳)有限公司 Special effect display method, device and equipment for ground area and storage medium

Similar Documents

Publication Publication Date Title
JP2008217243A (en) Image creation device
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
US10789765B2 (en) Three-dimensional reconstruction method
EP0684585B1 (en) Image forming method and apparatus
JP6363863B2 (en) Information processing apparatus and information processing method
JP5725953B2 (en) Imaging apparatus, control method therefor, and information processing apparatus
WO2019082797A1 (en) Reconfiguration method and reconfiguration device
JP2006113807A (en) Image processor and image processing program for multi-eye-point image
JP2011129082A (en) Three-dimensional object recognition device and three-dimensional object recognition method
JP2011060216A (en) Device and method of processing image
WO2019065536A1 (en) Reconfiguration method and reconfiguration device
JP6304244B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
KR101813617B1 (en) Camera rig method for acquiring 3d data, camera rig system performing the same, and storage medium storing the same
JPWO2019230813A1 (en) 3D reconstruction method and 3D reconstruction device
JP2019128641A (en) Image processing device, image processing method and program
JP2003179800A (en) Device for generating multi-viewpoint image, image processor, method and computer program
JPWO2018052100A1 (en) Image processing apparatus, image processing method, and image processing program
JPWO2019225682A1 (en) 3D reconstruction method and 3D reconstruction device
JP4860431B2 (en) Image generation device
JP6409769B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP2021128592A (en) Image processing device, image processing method, learned model generation method, and program
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
JP6595878B2 (en) Element image group generation apparatus and program thereof
JP5001400B2 (en) Shield removal display device
JP2014096761A (en) Image processing apparatus, and control method and control program of the same

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080707