JP7061092B2 - Image processing equipment and programs - Google Patents
Image processing equipment and programs Download PDFInfo
- Publication number
- JP7061092B2 JP7061092B2 JP2019062997A JP2019062997A JP7061092B2 JP 7061092 B2 JP7061092 B2 JP 7061092B2 JP 2019062997 A JP2019062997 A JP 2019062997A JP 2019062997 A JP2019062997 A JP 2019062997A JP 7061092 B2 JP7061092 B2 JP 7061092B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- inverted
- feature amount
- marker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Description
本発明は、簡素な処理で画像における鏡像関係に関する情報を推定することのできる画像処理装置及びプログラムに関する。 The present invention relates to an image processing apparatus and a program capable of estimating information regarding a mirror image relationship in an image by simple processing.
撮像画像を用いて3次元計測を行う場合、鏡などの反射性物体は情景が写りこむため、3次元計測が不可能であった。即ち、情景が広がっているのか情景が写りこんでいるのかを区別できないため、反射性領域に奥行が存在すると誤認する。解決策としては、3次元計測において反射性領域からの計測を排除する技術が求められる。特許文献1は、反射性領域を特定する領域特定装置を開示する。特許文献1は、予め定められた動きをするパターンを投影し、投影された風景を撮影した映像から鏡に反転して写るパターンの虚像の動きベクトルを算出した後に、前記パターンの動きと異なる動きベクトルが発生する領域を反射性領域として特定する。 When three-dimensional measurement is performed using a captured image, it is impossible to perform three-dimensional measurement because a scene is reflected in a reflective object such as a mirror. That is, since it is not possible to distinguish whether the scene is wide or the scene is reflected, it is misunderstood that the depth exists in the reflective region. As a solution, a technique for excluding the measurement from the reflective region in the three-dimensional measurement is required. Patent Document 1 discloses a region specifying device for specifying a reflective region. Patent Document 1 projects a pattern having a predetermined motion, calculates a motion vector of a virtual image of the pattern reflected in a mirror from a captured image of the projected landscape, and then calculates a motion different from the motion of the pattern. The area where the vector is generated is specified as the reflective area.
しかしながら、以上のような従来技術には次の課題があった。特許文献1は、パターンを投影する投影部が必要であるため装置が大掛かりになるという問題がある。また、仮に投影部を小さくできたとしても、反射性領域に写る投影部を撮像部が撮像できる位置関係が限定的かつ局所的になるという問題がある。 However, the above-mentioned conventional techniques have the following problems. Patent Document 1 has a problem that the device becomes large because a projection unit for projecting a pattern is required. Further, even if the projection unit can be made smaller, there is a problem that the positional relationship in which the image pickup unit can image the projection unit reflected in the reflective region becomes limited and local.
この反射性領域の特定に関する問題は、撮像画像内における反射性領域の存在によって発生する鏡像関係の推定の問題に帰着することができる。鏡像関係自体は、反射性領域が存在せずとも、発生しうるものである。 This problem of specifying the reflective region can be reduced to the problem of estimating the mirror image relationship caused by the presence of the reflective region in the captured image. The mirror image relationship itself can occur even in the absence of a reflective region.
上記の従来技術の課題に鑑み、本発明は、簡素な処理で画像における鏡像関係に関する情報を推定することのできる画像処理装置及びプログラムを提供することを目的とする。 In view of the above problems of the prior art, it is an object of the present invention to provide an image processing apparatus and a program capable of estimating information regarding a mirror image relationship in an image by simple processing.
上記目的を達成するため、本発明は画像処理装置であって、画像より、特徴点と、当該特徴点における特徴量及び/又は当該特徴量を鏡像反転させた反転特徴量と、を特徴情報として算出する算出部と、前記特徴情報同士を照合して、特徴量と反転特徴量とが相互に一致すると判定されるもの同士を照合情報として得る照合部と、前記照合情報が得られた場合に、前記画像内において鏡像関係がある旨を推定する推定部と、を備えることを特徴とする。また、コンピュータを前記画像処理装置として機能させるプログラムであることを特徴とする。 In order to achieve the above object, the present invention is an image processing apparatus, and the feature point and the feature amount at the feature point and / or the inverted feature amount obtained by mirror-inverting the feature amount are used as feature information from the image. When the calculation unit to be calculated, the collation unit that collates the feature information with each other and obtains the collation information as the collation information that is determined to match the feature amount and the inverted feature amount with each other, and when the collation information is obtained. It is characterized by including an estimation unit for estimating that there is a mirror image relationship in the image. Further, the program is characterized in that the computer functions as the image processing device.
本発明によれば、照合処理という簡素な処理によって画像における鏡像関係に関する情報を推定することが可能となる。 According to the present invention, it is possible to estimate information regarding a mirror image relationship in an image by a simple process called a collation process.
図1は、一実施形態に係る画像処理装置の機能ブロック図である。画像処理装置10は、撮像部1、算出部2、照合部3、推定部4及び処理部5を備える。各部の処理内容は以下の通りである。
FIG. 1 is a functional block diagram of an image processing apparatus according to an embodiment. The image processing device 10 includes an image pickup unit 1, a calculation unit 2, a collation unit 3, an estimation unit 4, and a
撮像部1は、ハードウェアとしてはカメラで構成され、ユーザ操作等を受けて鏡等による反射性領域を含む情景を撮像し、当該撮像画像を撮像画像として算出部2へ出力する。 The image pickup unit 1 is composed of a camera as hardware, receives a user operation or the like to capture a scene including a reflective region by a mirror or the like, and outputs the captured image to the calculation unit 2 as an image pickup image.
図2は、撮像部1と反射性領域との配置の例を示すことで、本実施形態における撮像の態様を模式的に示す図である。説明を容易とするため図2は2次元(断面)で表しているが実際は3次元で構成される。図2の点Aが撮像部1のカメラ座標を表し、線分CDが反射性領域を示す。撮像画像の情景内に点B1が存在したとき、鏡面CD上には点Eとして写りこみ、線分CDに対して対称点B1'に虚像が存在するように撮像部Aからは見える。(ここで反射の法則より∠B1-E-C=∠B1'-E-Cであり、線分長B1-E=線分長B1'-Eである。)即ち、撮像画像には点B1と点B1'が撮像される。同様に、撮像画像の情景内に点B2,B3が存在した場合、撮像画像には虚像としてB2',B3'も撮像される。 FIG. 2 is a diagram schematically showing an embodiment of imaging in the present embodiment by showing an example of arrangement of an imaging unit 1 and a reflective region. Although FIG. 2 is shown in two dimensions (cross section) for ease of explanation, it is actually configured in three dimensions. The point A in FIG. 2 represents the camera coordinates of the imaging unit 1, and the line segment CD indicates the reflective region. When the point B1 is present in the scene of the captured image, it is reflected as the point E on the mirror surface CD, and the image pickup unit A can see that a virtual image exists at the symmetry point B1'with respect to the line segment CD. (Here, according to the law of reflection, ∠B1-E-C = ∠B1'-E-C, and line segment length B1-E = line segment length B1'-E.) That is, point B1 and point B1'in the captured image. Is imaged. Similarly, when points B2 and B3 are present in the scene of the captured image, B2'and B3' are also captured as virtual images in the captured image.
算出部2は、算出部は、撮像部で撮像された撮像画像から特徴点pi(i=1,2,…)(撮像画像内での画素の位置座標で特定される特徴点pi=(ui,vi))と、この特徴点pi周りの特徴量fiと、この特徴量fiを鏡像反転させた反転特徴量R(fi)とを算出し、算出された特徴点および特徴量ならびに反転特徴量を紐づけたものとして特徴情報(pi,fi,R(fi))(i=1,2,…)を照合部へ出力する。 In the calculation unit 2, the calculation unit uses the feature point p i (i = 1,2, ...) (feature point p i = specified by the position coordinates of the pixels in the captured image) from the captured image captured by the image pickup unit. (u i , v i )), the feature quantity f i around this feature point p i , and the inverted feature quantity R (f i ), which is a mirror image of this feature quantity f i , calculated. The feature information (p i , f i , R (f i )) (i = 1, 2, ...) Is output to the collation unit as a link between the point, the feature amount, and the inverted feature amount.
当該算出する特徴点および特徴量には既知のマーカ等(拡張現実における正方マーカ等)を利用してもよい。マーカ等を利用する場合、特徴点はマーカ周囲の点(例えば正方マーカであればその四隅)に相当し、特徴量はマーカの種類に相当する。あるいは、マーカ内にさらに自然特徴量として検出可能な模様を施しておき、SIFT(Scale Invariant Feature Transform)やSURF(Speeded Up Robust Features)などの局所画像特徴量を利用できる。 A known marker or the like (a square marker or the like in augmented reality) may be used for the feature points and feature quantities to be calculated. When a marker or the like is used, the feature points correspond to the points around the marker (for example, the four corners of a square marker), and the feature amount corresponds to the type of marker. Alternatively, a pattern that can be detected as a natural feature amount is further provided in the marker, and a local image feature amount such as SIFT (Scale Invariant Feature Transform) or SURF (Speeded Up Robust Features) can be used.
また、当該算出する特徴点および特徴量の両方に関して、SIFT(Scale Invariant Feature Transform)やSURF(Speeded Up Robust Features)などの局所画像特徴量における特徴点及び特徴量を利用できる。 Further, for both the feature points and the feature quantities to be calculated, the feature points and the feature quantities in the local image feature quantities such as SIFT (Scale Invariant Feature Transform) and SURF (Speeded Up Robust Features) can be used.
特徴量fiから反転特徴量R(fi)を求める手法に関して、以下の第1~第3実施形態が可能である。 Regarding the method of obtaining the inverted feature amount R (f i ) from the feature amount f i , the following first to third embodiments are possible.
第1実施形態では、特徴空間において特徴量の反転処理を実施する。高速計算が可能であるため、処理時間を短縮できる効果が得られる。 In the first embodiment, the feature amount inversion process is performed in the feature space. Since high-speed calculation is possible, the effect of shortening the processing time can be obtained.
例えば、マーカ等を利用する場合、特徴点を逆順に並べることで射影変換係数を算出・適用し特徴量としてのマーカ種別を特定する。すなわち、マーカ特定(本実施形態とは異なり、マーカの反転を考慮しない通常の場合)は一般に以下の手順1,2からなるものである。
(手順1)撮像画像から検出されたマーカの特徴点と、予めリファレンスとして登録しておくマーカの特徴点(マーカを囲むリファレンス点)との可能な対応付けパターンを列挙する。(特徴点が外周上にN個並ぶ場合、N通りのパターンとなる。)
(手順2)上記列挙した対応付けパターンの各々でリファレンスマーカを平面射影変換で変形して、撮像画像内のマーカ領域に重ね合わせ、領域同士の相違(差分二乗和等で評価すればよい)となるような対応付けパターンを正解(特徴点対応及びこれによって定まるマーカ向きの正解)とする。
For example, when a marker or the like is used, the projective transformation coefficient is calculated and applied by arranging the feature points in the reverse order to specify the marker type as the feature amount. That is, the marker specification (unlike the present embodiment, in a normal case where the inversion of the marker is not considered) generally comprises the following steps 1 and 2.
(Procedure 1) List possible correspondence patterns between the feature points of the marker detected from the captured image and the feature points of the marker (reference points surrounding the marker) registered in advance as a reference. (If N feature points are lined up on the outer circumference, the pattern will be N ways.)
(Procedure 2) In each of the above-listed mapping patterns, the reference marker is transformed by planar projective transformation, superimposed on the marker region in the captured image, and the difference between the regions (evaluate by the sum of squares of differences, etc.). The matching pattern is the correct answer (correspondence to feature points and the correct answer for markers determined by this).
本実施形態においては、リファレンスマーカの形状及び模様に関しては反転しない通常の状態の1通りのもののみを用意しておき、(手順1)のパターンとして反転した場合も追加考慮するようにする(特徴点が外周状にN個並ぶ場合、反転しない場合のN通りと、反転する場合のN通りとの合計2N通りのパターンを考慮する)ことで、高速にマーカ種別(反転の有無の識別を含む)を特定することができる。(手順2)において、反転しないパターンから正解が得られればマーカは非反転状態であり、反転したパターンから正解が得られればマーカは反転状態であることを判定できる。 In the present embodiment, only one reference marker in a normal state where the shape and pattern of the reference marker are not inverted is prepared, and the case of being inverted as the pattern of (Procedure 1) is additionally considered (feature). When N points are lined up in an outer shape, a total of 2N patterns of N patterns when not inverted and N patterns when inverted are taken into consideration), and the marker type (including identification of the presence or absence of inversion is included) at high speed. ) Can be specified. In (Procedure 2), it can be determined that the marker is in the non-inverted state if the correct answer is obtained from the non-inverted pattern, and the marker is in the inverted state if the correct answer is obtained from the inverted pattern.
図3はマーカが正方マーカ等であり特徴点が四隅(N=4)の場合での、特徴空間での反転を説明するための模式例を示す図である。リファレンスマーカRLには、左上、右上、右下、左下の順(時計回り)に頂点r1,r2,r3,r4を定義した際のリファレンス模様(不図示)が定義されている。一方、撮像画像からはマーカの4頂点の候補として時計回りにp1,p2,p3,p4が特徴点として検出されたものとする。この場合、反転しない通常回りNOで以下の4通り
(p1→p2→p3→p4)、(p2→p3→p4→p1)、(p3→p4→p1→p2)及び(p4→p1→p2→p3)と、
また、反転回りROで以下の4通り
(p2→p1→p4→p3)、(p1→p4→p3→p2)、(p4→p3→p2→p1)及び(p3→p2→p1→p4)と、
をそれぞれ、左上、右上、右下、左下の順の頂点(r1→r2→r3→r4)に対応しているものとして、平面射影変換でリファレンスマーカRLの模様を変形して撮像画像内のマーカ領域に割り当てて最もマッチするものを求めればよい。(逆に、撮像画像内のマーカ領域を変形してリファレンスマーカRLの模様に割り当ててもよい。)
FIG. 3 is a diagram showing a schematic example for explaining inversion in the feature space when the marker is a square marker or the like and the feature points are four corners (N = 4). The reference marker RL defines a reference pattern (not shown) when the vertices r1, r2, r3, and r4 are defined in the order of upper left, upper right, lower right, and lower left (clockwise). On the other hand, it is assumed that p1, p2, p3, and p4 are detected as feature points in the clockwise direction as candidates for the four vertices of the marker from the captured image. In this case, there are the following four ways of normal rotation NO that does not reverse.
(p1 → p2 → p3 → p4), (p2 → p3 → p4 → p1), (p3 → p4 → p1 → p2) and (p4 → p1 → p2 → p3),
In addition, the following 4 ways of reversing RO
(p2 → p1 → p4 → p3), (p1 → p4 → p3 → p2), (p4 → p3 → p2 → p1) and (p3 → p2 → p1 → p4),
Corresponds to the vertices (r1 → r2 → r3 → r4) in the order of upper left, upper right, lower right, and lower left, respectively. All you have to do is allocate it to the area and find the one that best matches. (Conversely, the marker area in the captured image may be deformed and assigned to the pattern of the reference marker RL.)
平面射影変換の際、反転回りROの対応付けで変換した場合にはリファレンスマーカRFの模様も鏡像反転されることとなるので、リファレンスマーカに関しては反転しない通常パターンの模様のみを登録しておけばよい。 In the case of plane projection conversion, if the conversion is performed by associating the inversion rotation RO, the pattern of the reference marker RF will also be mirror-inverted, so for the reference marker, only the pattern of the normal pattern that does not invert should be registered. good.
なお、上記ではマーカ(模様)は1通りとして、マーカの特徴点割り当てを反転も考慮した特徴点空間で実施する場合を説明したが、マーカ自体が2通り以上ある場合は各マーカについて同様の手順を取り、最もマッチするマーカ種別を算出結果とすればよい。 In the above, the case where the marker (pattern) is used as one type and the feature point assignment of the marker is performed in the feature point space in consideration of inversion has been described. However, when there are two or more markers, the same procedure is performed for each marker. And the most matching marker type may be used as the calculation result.
以上、マーカ等の場合の特徴空間での反転を説明したが、特徴量としてSIFTを用いる場合、以下の非特許文献1,2等に開示される手法で特徴空間において特徴量fiから反転特徴量R(fi)を求めればよい。
[非特許文献1] X. Gat, et al., ``MIFT: A Mirror Reflection Invariant Feature Descriptor,'' ACCV, pp. 536-545, 2009.
[非特許文献2] M. Su, et al., ``MBR-SIFT: A mirror reflected invariant feature descriptor using a binary representation for image matching,'' PloS One, vol. 12, no. 5, 2017.
The inversion in the feature space in the case of a marker or the like has been described above, but when SIFT is used as the feature amount, the inversion feature is inverted from the feature amount f i in the feature amount by the method disclosed in Non-Patent Documents 1 and 2 below. The quantity R (f i ) can be obtained.
[Non-Patent Document 1] X. Gat, et al., `` MIFT: A Mirror Reflection Invariant Feature Descriptor,'' ACCV, pp. 536-545, 2009.
[Non-Patent Document 2] M. Su, et al., `` MBR-SIFT: A mirror reflected invariant feature descriptor using a binary representation for image matching,'' PloS One, vol. 12, no. 5, 2017.
第2実施形態では、マーカ等を利用する場合において当該マーカMj(j=1,2,…)に加え、左右反転させた反転マーカR(Mj)(j=1,2,…)も認識できるよう登録しておく。この際、反転マーカR(Mj)を反転する前の元のマーカMjに対応付けておくことで、撮像画像から統一的に特徴量を算出し、反転マーカに該当する領域の特徴量を反転特徴量とする。このとき、マーカ等の特徴点に対し特徴量(マーカ種別)は1対1対応だが、このマーカ種別が反転か否かの情報が付与される。 In the second embodiment, in the case of using a marker or the like, in addition to the marker M j (j = 1,2, ...), the inverted marker R (M j ) (j = 1,2, ...) Register so that it can be recognized. At this time, by associating the inversion marker R (M j ) with the original marker M j before inversion, the feature amount is uniformly calculated from the captured image, and the feature amount in the area corresponding to the inversion marker is calculated. Inverted features. At this time, the feature amount (marker type) has a one-to-one correspondence with the feature points such as markers, but information on whether or not this marker type is inverted is given.
すなわち、第1実施形態で説明した(手順1)及び(手順2)を、(手順1)において反転を考慮せずに通常通りに実施し、且つ、候補となるマーカとしては、通常マーカMjに加え反転マーカR(Mj)も用いるようにすればよい。 That is, (Procedure 1) and (Procedure 2) described in the first embodiment are carried out as usual in (Procedure 1) without considering inversion, and as a candidate marker, the normal marker M j In addition, the inversion marker R (M j ) may be used.
この場合、既に説明した特徴情報(pi,fi,R(fi))はデータ形式を例えば次のように修正して取得するようにすればよい。通常マーカとして特徴点が検出された場合は特徴情報(pi,fi,・)(i=1,2,…)(「・」は反転特徴R(fi)の該当なしで通常特徴fiのみが検出されていること、すなわち通常マーカに対応する特徴点であることを表す)とし、反転マーカとして特徴点が検出された場合は特徴情報(pi,・,R(fi))(「・」は通常特徴fiの該当なしで反転特徴R(fi)のみが検出されていること、すなわち反転マーカに対応する特徴点であることを表す)とすればよい。 In this case, the feature information (p i , f i , R (f i )) already described may be obtained by modifying the data format as follows, for example. If a feature point is detected as a normal marker, the feature information (p i , f i , ・) (i = 1,2,…) (“・” is the inversion feature R (f i ) and the normal feature f It is assumed that only i is detected, that is, it is a feature point corresponding to a normal marker), and if a feature point is detected as an inversion marker, feature information (p i , ·, R (f i )). (“・” Indicates that only the inversion feature R (f i ) is detected without the corresponding feature f i , that is, it is a feature point corresponding to the inversion marker).
なお、マーカMjから反転マーカR(Mj)を得る際は、画像上の所定軸に関して反転すればよく、例えば横幅方向の中央軸(縦方向軸)に関して左右反転してもよいし、縦幅方向の中央軸(横方向軸)に関して上下反転してもよいし、任意の斜め方向の軸に関して反転してもよい。 When the inversion marker R (M j ) is obtained from the marker M j , it may be inverted with respect to a predetermined axis on the image, for example, it may be inverted horizontally with respect to the central axis (vertical axis) in the horizontal direction, or vertically. It may be turned upside down with respect to the central axis (horizontal axis) in the width direction, or may be turned upside down with respect to any diagonal axis.
第3実施形態では、撮像画像を特徴点pi及び特徴量fiを求めた後にさらに、撮像画像を鏡像反転したもの(反転画像と呼ぶ)から対応する反転特徴量R(fi)を求めることができる。 In the third embodiment, the feature point p i and the feature amount f i of the captured image are obtained, and then the corresponding inverted feature amount R (f i ) is obtained from the mirror image inverted image of the captured image (referred to as an inverted image). be able to.
ここで、反転画像における特徴点の位置は、元の特徴点piの反転位置R(pi)として、撮像画像から反転画像を得る際に用いた変換を利用して求めることにより、反転画像における特徴点の検出処理を省略することができる。同様に、SIFT等の局所特徴量を用いる場合であれば、元の特徴点piの近傍領域N(pi)(N(pi)⊂撮像画像)のみに関して、その反転領域R(N(pi))(R(N(pi))⊂反転画像)を求め、この反転された近傍領域R(N(pi))を対象として反転特徴量R(fi)を検出することで、画像全体を反転する手間を省略することができる。また、マーカ等を特徴量として用いる場合であれば、元の撮像画像におけるマーカ特徴点で囲まれるマーカ領域(マーカ特徴点を内包する領域)のみを反転して、この反転マーカ領域からマーカ検出するようにすればよい。 Here, the position of the feature point in the inverted image is obtained as the inverted position R (p i ) of the original feature point p i by using the transformation used when obtaining the inverted image from the captured image. The feature point detection process in the above can be omitted. Similarly , when local features such as SIFT are used, the inverted region R (N (N (N (N p i )) (R (N (p i )) ⊂ inverted image) is obtained, and the inverted feature R (f i ) is detected for this inverted neighborhood region R (N (p i )). , It is possible to save the trouble of inverting the entire image. When a marker or the like is used as a feature amount, only the marker region (the region containing the marker feature points) surrounded by the marker feature points in the original captured image is inverted, and the marker is detected from this inverted marker region. You can do it.
以上のようにして、特徴点pi及び特徴量fiを求め、反転位置R(pi)等の情報からさらに反転特徴量R(fi)を求め、(反転位置R(pi)等の情報は含めることなく、)特徴情報(pi,fi,R(fi))を得ることができる。なお、撮像画像から反転画像を得るための変換に関しては、第2実施形態においてマーカMjから反転マーカR(Mj)を得る際と同様に、画像上や領域上の所定軸に関して反転する変換を用いればよい。 As described above, the feature point p i and the feature quantity f i are obtained, and the inversion feature quantity R (f i ) is further obtained from the information such as the inversion position R (p i ), and (inversion position R (p i ) etc. Feature information (p i , f i , R (f i )) can be obtained without including the information of. Regarding the conversion for obtaining the inverted image from the captured image, as in the case of obtaining the inverted marker R (M j ) from the marker M j in the second embodiment, the conversion is inverted with respect to a predetermined axis on the image or the region. Should be used.
照合部3は、算出部2から得た特徴情報を照合し、相互に鏡像関係にあると判定される特徴情報を照合情報として推定部4へと出力する。 The collation unit 3 collates the feature information obtained from the calculation unit 2, and outputs the feature information determined to be in a mirror image relationship to the estimation unit 4 as collation information.
この照合処理においては、各特徴情報(pi,fi,R(fi))をクエリとし、このクエリから見た別の全ての特徴情報(pj,fj,R(fj))(j≠i)をリファレンスとして、クエリに対して鏡像関係にあると判定されるリファレンスを検索する。具体的には、クエリの特徴量fiに対して、リファレンスの反転特徴量R(fj)の中から一致していると判定されるものを検索することにより、対応するクエリ特徴量fiとリファレンス特徴量fjとが互いに鏡像関係(MR(fi,fj)と表記する)にある旨の判定を得るようにすればよい。 In this collation process, each feature information (p i , f i , R (f i )) is used as a query, and all other feature information (p j , f j , R (f j )) seen from this query. Using (j ≠ i) as a reference, search for a reference that is judged to have a mirror image relationship with the query. Specifically, the corresponding query feature amount f i is obtained by searching for the inversion feature amount R (f j ) of the reference that is determined to match the feature amount f i of the query. It suffices to obtain a judgment that the reference feature quantity f j and the reference feature quantity f j are in a mirror image relationship (expressed as MR (f i , f j )).
判定は、これら特徴量同士の距離d(fi,R(fj))が判定用の所定閾値TH未満である場合(以下の式(1)が成立する場合)に、一致しているものと判定すればよい。
d(fi,R(fj))<TH …(1)
Judgment is consistent when the distance d (f i , R (f j )) between these feature quantities is less than the predetermined threshold value TH for judgment (when the following equation (1) holds). It may be determined that.
d (f i , R (f j )) <TH… (1)
あるいは、クエリの反転特徴量R(fi)に対して、リファレンスの特徴量fjの中から以下の式(2)を満たすことにより一致しているものと判定されるものを鏡像関係MR(fi,fj)にあるものとして検索してもよい。
d(R(fi),fj)<TH …(2)
Alternatively, among the feature quantities f j of the reference, those that are determined to match by satisfying the following equation (2) with respect to the inversion feature quantity R (f i ) of the query are mirror image-related MRs ( You may search as if it is in f i , f j ).
d (R (f i ), f j ) <TH… (2)
あるいは、共通のインデクスi,jによって上記の式(1),(2)の両方を満たすものを、鏡像関係MR(fi,fj)にあるものと判定するようにしてもよい。 Alternatively, a common index i, j that satisfies both of the above equations (1) and (2) may be determined to be in the mirror image relation MR (f i , f j ).
ここで、照合処理においては、以下の第1追加処理及び/又は第2追加処理を行うようにしてもよい。 Here, in the collation process, the following first additional process and / or second additional process may be performed.
(第1追加処理)
各特徴情報(pi,fi,R(fi))のうち、その特徴量fiと反転特徴量R(fi)との距離d(fi,R(fi))が予め設定しておく閾値TH2よりも小さいもの(以下の式(3)が成立するもの)に関しては、クエリ及びリファレンスとして用いる対象、すなわち照合対象から除外するようして、誤照合が発生することを抑制するようにしてもよい。
d(fi,R(fi))<TH2 …(3)
(1st additional processing)
Of each feature information (p i , f i , R (f i )), the distance d (f i , R (f i )) between the feature amount f i and the inverted feature amount R (f i ) is set in advance. For those smaller than the threshold value TH2 (those for which the following equation (3) holds), they are excluded from the target used as a query and reference, that is, the collation target to suppress the occurrence of erroneous collation. You may do so.
d (f i , R (f i )) <TH2… (3)
(第2追加処理)
撮像画像に対して任意の既存手法による領域分割処理(例えば、色ヒストグラムを用いるミーンシフト法による領域分割や、畳込ニューラルネットワーク等の深層学習を用いた物体検出による領域分割など)を行い、クエリとしての各特徴情報(pi,fi,R(fi))の特徴点piが領域分割結果における領域V内にある(pi∈Vとなる)場合に、同じ領域Vに対応する特徴点pjが属する(pj∈Vとなる)ような特徴情報(pj,fj,R(fj))(j≠i)は、リファレンスから除外するようにしてもよい。
(Second additional processing)
The captured image is subjected to region division processing by any existing method (for example, region division by the Mean shift method using the color histogram, region division by object detection using deep learning such as a convolutional neural network, etc.) and querying. When the feature point p i of each feature information (p i , f i , R (f i )) is in the region V in the region division result (p i ∈ V), it corresponds to the same region V. The feature information (p j , f j , R (f j )) (j ≠ i) to which the feature point p j belongs (p j ∈ V) may be excluded from the reference.
図2で説明したような原理によって鏡像関係MR(fi,fj)が発生する場合、対応する特徴点pi及びpjが同一領域Vに含まれる状況(pi∈V且つpj∈Vとなる状況)は稀であると考えられるため、第2追加処理により、不要な照合処理を削減して照合を高速化することができる。 When the mirror image relation MR (f i , f j ) occurs by the principle as explained in FIG. 2, the situation where the corresponding feature points p i and p j are included in the same region V (p i ∈ V and p j ∈). Since the situation of V) is considered to be rare, the second additional processing can reduce unnecessary collation processing and speed up collation.
以上の説明は、特徴情報が特徴点、特徴量及び反転特徴量の組み合わせ(pi,fi,R(fi))として得られていることを前提とした。算出部2において第2実施形態を利用することで、通常マーカMjに加え反転マーカR(Mj)も予め登録しておき、特徴情報(pi,fi,・)(通常特徴量のみ)又は特徴情報(pi,・,R(fi))(反転特徴量のみ)の形で特徴情報が得られている場合も同様に、次のようにすればよい。すなわち、通常特徴量として算出されたマーカMiをクエリとし、反転特徴量として算出された反転マーカR(Mj)の中から、その反転マーカすなわち対応する通常マーカR(R(Mj))=Mjが一致している(Mj=Miとなるもの)ものがある場合、鏡像関係MR(Mi,R(Mj))があるものと判断すればよい。 The above explanation is based on the premise that the feature information is obtained as a combination of the feature point, the feature amount and the inverted feature amount (p i , f i , R (f i )). By using the second embodiment in the calculation unit 2, the inversion marker R (M j ) is registered in advance in addition to the normal marker M j , and the feature information (p i , f i , ·) (only the normal feature amount). ) Or the feature information (p i , ·, R (f i )) (only the inverted feature amount), the same can be done as follows. That is, the marker M i calculated as a normal feature is used as a query, and from the inversion marker R (M j ) calculated as an inversion feature, the inversion marker, that is, the corresponding normal marker R (R (M j )). If = M j matches (M j = M i ), it can be judged that there is a mirror image relation MR (M i , R (M j )).
推定部4は、照合部3で少なくとも1つの照合情報が得られた際に、撮像画像内において鏡像関係がある旨(鏡像関係MR(fi,fj)が少なくとも1つは存在する旨)を推定結果として出力する。 The estimation unit 4 indicates that there is a mirror image relationship in the captured image when at least one collation information is obtained by the collation unit 3 (that there is at least one mirror image relationship MR (f i , f j )). Is output as the estimation result.
推定部4はさらに、照合部3で得られる照合情報より、撮像画像における反射性領域の情報として、反射性領域に属する点の情報及び/又は反射性領域の領域情報を推定し、推定結果として出力してよい。 The estimation unit 4 further estimates the information of the points belonging to the reflective region and / or the region information of the reflective region as the information of the reflective region in the captured image from the collation information obtained by the collation unit 3, and as the estimation result. You may output it.
具体的には、鏡像関係MR(fi,fj)の特徴点pi=(ui,vi)及びpj=(uj,vj)(画素座標)に関して対応する撮像画像のワールド座標としての3次元空間座標Xi=(xi,yi,zi)及びXj=(xj,yj,zj)を求め、この2点の垂直2等分面P(Xi,Xj)(3次元空間内の面)を求める。ここで、3次元空間座標Xi,Xjを求めるためには、任意の既存手法による3次元復元を利用してよい。撮像部1を構成するカメラに関しては予めキャリブレーションを行っておき、カメラパラメータを求めておけばよい。例えば、映像上で2特徴点pi=(ui,vi)及びpj=(uj,vj)を追跡して、少なくとも2枚の画像においてこの2特徴点を求めておき、運動視差やステレオカメラ手法(エピポーラ幾何の手法)で3次元空間座標Xi,Xjを求めてもよい。あるいは、特徴点が正方マーカ等の頂点として構成されていれば、平面射影変換行列を求めることで、3次元空間座標Xi,Xjを求めてもよい。 Specifically, the world of the captured image corresponding to the feature points p i = (u i , v i ) and p j = (u j , v j ) (pixel coordinates) of the mirror image-related MR (f i , f j ). Find the three-dimensional spatial coordinates X i = (x i , y i , z i ) and X j = (x j , y j , z j ) as coordinates, and divide these two points into two perpendicular planes P (X i) . , X j ) (plane in three-dimensional space) is calculated. Here, in order to obtain the three-dimensional spatial coordinates X i and X j , three-dimensional restoration by any existing method may be used. The cameras constituting the image pickup unit 1 may be calibrated in advance to obtain the camera parameters. For example, two feature points p i = (u i , v i ) and p j = (u j , v j ) are tracked on the video, and these two feature points are obtained in at least two images, and the movement is performed. Three-dimensional spatial coordinates X i and X j may be obtained by parallax or stereo camera method (epipolar geometry method). Alternatively, if the feature points are configured as vertices of a square marker or the like, the three-dimensional spatial coordinates X i and X j may be obtained by obtaining the planar projective transformation matrix.
さらに、鏡像関係MR(fi,fj)にある3次元空間座標Xi,Xjのうち、撮像部1を構成するカメラレンズ中心の位置に3次元空間内での距離が遠い側を虚像とし、近い側を実像として、虚像とカメラレンズ中心とを結ぶ直線と、垂直2等分面P(Xi,Xj)との交点が、反射性領域に属する点であると推定することができる。事前知識として撮像画像内には鏡などで1つの平面の反射性領域があることが既知であれば、垂直2等分面P(Xi,Xj)を反射性領域として推定してよい。 Furthermore, of the three-dimensional space coordinates X i and X j in the mirror image-related MR (f i , f j ), the side that is far away in the three-dimensional space at the position of the center of the camera lens constituting the image pickup unit 1 is a virtual image. Assuming that the near side is the real image, it can be estimated that the intersection of the straight line connecting the virtual image and the center of the camera lens and the vertical bisection plane P (X i , X j ) belongs to the reflective region. can. If it is known in advance that there is a reflective region of one plane in the captured image by a mirror or the like, the vertical bisection plane P (X i , X j ) may be estimated as the reflective region.
図2の例であれば、点Aがカメラレンズ中心であり、点B1が実像であり、点B1'が虚像であり、垂直2等分面は辺C-Dの属する面として与えられ、垂直2等分面と、直線A-B1'(カメラレンズ中心Aと虚像B1'とを結ぶ直線)の交点Eを、(3次元空間内の点として、)反射性領域に属する点であると推定することができる。 In the example of FIG. 2, the point A is the center of the camera lens, the point B1 is the real image, the point B1'is the imaginary image, and the vertically bisected plane is given as the plane to which the sides C-D belong. Estimate that the intersection E of the dividing surface and the straight line A-B1'(the straight line connecting the center A of the camera lens and the imaginary image B1') belongs to the reflective region (as a point in the three-dimensional space). Can be done.
なお、鏡像関係MR(fi,fj)が複数存在し、垂直2等分面P(Xi,Xj)も複数求まる場合、最尤推定により、これら複数の垂直2等分面に最もフィットする面を反射性領域として推定してもよい。 If there are multiple mirror image-related MRs (f i , f j ) and multiple vertical bisection planes P (X i , X j ) are also obtained, maximum likelihood estimation is performed on these multiple vertical bisection planes. The fitted surface may be estimated as the reflective region.
また、正方マーカ等のマーカMjとこれを反転させた反転マーカR(Mj)とが照合結果において得られている場合、マーカの特徴点から平面射影変換行列を算出することにより、マーカMjが属する空間内平面PLj及び反転マーカR(Mj)が属する空間内平面RPLjを求め、これら2平面PLj及びRPLjへの最短距離が等距離となる2等分面を反射性領域として推定してもよい。ここで、撮像画像内には鏡などで1つの平面の反射性領域があることが事前知識とする。 If a marker M j such as a square marker and an inverted marker R (M j ) obtained by reversing the marker M j are obtained in the collation result, the marker M is calculated by calculating the plane projection transformation matrix from the feature points of the markers. Find the in-space plane PL j to which j belongs and the in-space plane RPL j to which the inversion marker R (M j ) belongs . It may be estimated as a region. Here, it is assumed in advance that there is a reflective region of one plane in the captured image by a mirror or the like.
図4は、画像処理装置10にて撮像画像Pを処理した際の模式例を示す図である。撮像画像P内には鏡等の平面として反射性領域RFが存在し、その下端が線Lで示されている。マーカM1は実像として、マーカM2は虚像として撮像画像Pに撮影されており、マーカM1内から特徴点p1~p6が算出され、マーカM2内から特徴点p7~p12が算出され、これらは線L1~L6として示すようにそれぞれが鏡像関係にあるものとして判定されている。 FIG. 4 is a diagram showing a schematic example when the captured image P is processed by the image processing device 10. A reflective region RF exists as a plane of a mirror or the like in the captured image P, and the lower end thereof is indicated by a line L. The marker M1 is captured as a real image and the marker M2 is captured as a virtual image on the captured image P. The feature points p1 to p6 are calculated from within the marker M1, and the feature points p7 to p12 are calculated from within the marker M2. As shown by ~ L6, they are judged to be in a mirror image relationship.
処理部5では、推定部4にて鏡像関係MR(fi,fj)が少なくとも1つは存在する旨が推定されたことをトリガとして、撮像画像なども利用したうえで、任意の処理を行うことが可能である。
In the
図5は、処理部5における処理の模式例を示す図であり、図4の撮像画像Pに対して、実像としてのマーカM1には第1重畳表示AR1を加え、虚像としてのマーカM2には第2重畳表示AR2を加えている。これら表示AR1,AR2は、反射性領域RFに対して対称なもの、すなわち実際の鏡による実像と虚像との関係として、表示させるようにしてもよい。重畳表示を行うための手法には、任意の既存手法を利用してよい。また、例えば、実像であるマーカM1に関しては重畳を行わず、虚像としてのマーカM2のみに関して、第2重畳表示AR2のみを加えるといったことも可能である。
FIG. 5 is a diagram showing a schematic example of processing in the
いずれが実像側でいずれが虚像側かは、鏡像関係MR(fi,fj)において、既に説明した手法(カメラレンズ中心からの空間距離の大小による判定)によって判定すればよい。このように、マーカM1(実像として判定された特徴点群)に対しては第1態様の表示AR1を行い、マーカM2(虚像として判定された特徴点群)に対しては第2態様の表示AR2を、処理部5において実施することが可能である。処理部5においてこのような表示AR1,AR2を重畳表示する際は、光学シースルー方式を用いてもよいし、ビデオシースルー方式を用いてもよい。
Which is the real image side and which is the virtual image side may be determined by the method already described (determination by the size of the spatial distance from the center of the camera lens) in the mirror image-related MR (f i , f j ). In this way, the display AR1 of the first aspect is performed for the marker M1 (the feature point group determined as a real image), and the display of the second aspect is performed for the marker M2 (the feature point group determined as a virtual image). AR2 can be implemented in the
以下、補足事項を説明する。 The supplementary matters will be described below.
(1)マーカ等は利用せずに、SIFT等の局所特徴量のみを利用する場合、特徴量に関するリファレンス情報(マーカの場合における事前登録情報)を予め用意しておく必要はなく、算出部2で得た特徴情報のみを対象として照合処理を行うことが可能である。また、 SIFT等の局所特徴量を利用する場合において、特徴量及び/又は反転特徴量に関するリファレンス情報を用意しておき、算出部2においては、撮像画像から算出される全ての特徴情報のうち、リファレンス情報のいずれかに特徴量及び/又は反転特徴量がマッチするような特徴情報のみを、照合部3へと出力するようにしてもよい。特徴点及び特徴量としては、既存手法であるOpenPose等によって検出される、人体等のスケルトンデータ(骨格関節データ)を利用するようにしてもよい。 (1) When using only local features such as SIFT without using markers, it is not necessary to prepare reference information (pre-registration information in the case of markers) regarding features in advance, and the calculation unit 2 It is possible to perform collation processing only for the feature information obtained in. Further, when using a local feature amount such as SIFT, reference information regarding the feature amount and / or the inverted feature amount is prepared, and in the calculation unit 2, among all the feature information calculated from the captured image, the feature amount and / or the inverted feature amount are prepared. Only the feature information whose feature amount and / or the inverted feature amount match with any of the reference information may be output to the collation unit 3. As the feature points and features, skeleton data (skeletal joint data) of the human body or the like detected by the existing method such as OpenPose may be used.
(2)図6は、一般的なコンピュータ装置70におけるハードウェア構成を示す図であり、画像処理装置10はこのような構成を有する1台以上のコンピュータ装置70として実現可能である。コンピュータ装置70は、所定命令を実行するCPU(中央演算装置)71、CPU71の実行命令の一部又は全部をCPU71に代わって又はCPU71と連携して実行する専用プロセッサ72(GPU(グラフィック演算装置)や深層学習専用プロセッサ等)、CPU71や専用プロセッサ72にワークエリアを提供する主記憶装置としてのRAM73、補助記憶装置としてのROM74、通信インタフェース75、ディスプレイ76、カメラ77、マウス、キーボード、タッチパネル等によりユーザ入力を受け付ける入力インタフェース78と、これらの間でデータを授受するためのバスBと、を備える。
(2) FIG. 6 is a diagram showing a hardware configuration in a general computer device 70, and the image processing device 10 can be realized as one or more computer devices 70 having such a configuration. The computer device 70 is a CPU (central processing unit) 71 that executes a predetermined instruction, and a dedicated processor 72 (GPU (graphic calculation device)) that executes a part or all of the execution instructions of the
画像処理装置10の各部は、各部の機能に対応する所定のプログラムをROM74から読み込んで実行するCPU71及び/又は専用プロセッサ72によって実現することができる。ここで、撮影関連の処理が行われる場合にはさらに、カメラ77が連動して動作し、表示関連の処理が行われる場合にはさらに、ディスプレイ76が連動して動作し、データ送受信に関する通信関連の処理が行われる場合にはさらに通信インタフェース75が連動して動作する。
Each part of the image processing apparatus 10 can be realized by a
例えば、撮像画像は、通信インタフェース75を介してネットワーク上から取得してもよいし、ユーザ操作されるカメラ77で直接に撮像して取得してもよい。処理部5で得た処理結果(重畳表示)をディスプレイ76において表示するようにしてもよい。2台以上のコンピュータ装置70によって画像処理装置10がシステムとして実現される場合、ネットワーク経由で各処理に必要な情報を送受信するようにすればよい。
For example, the captured image may be acquired from the network via the
10…画像処理装置、1…撮像部、2…算出部、3…照合部、4…推定部、5…処理部 10 ... image processing device, 1 ... imaging unit, 2 ... calculation unit, 3 ... collation unit, 4 ... estimation unit, 5 ... processing unit
Claims (11)
前記特徴情報同士を照合して、特徴量と反転特徴量とが相互に一致すると判定されるもの同士を照合情報として得る照合部と、
前記照合情報が得られた場合に、前記画像内において鏡像関係がある旨を推定する推定部と、を備え、
前記照合部では、前記特徴情報のうち、対応する特徴量及び反転特徴量の相違が小さいと判定されるものを、前記照合する対象から除外することを特徴とする画像処理装置。 From the image, a calculation unit that calculates the feature points, the feature amount at the feature point, and the inverted feature amount obtained by mirror-inverting the feature amount as feature information.
A collation unit that collates the feature information with each other and obtains as collation information what is determined that the feature amount and the inverted feature amount match each other.
It is provided with an estimation unit that estimates that there is a mirror image relationship in the image when the collation information is obtained .
The collation unit is an image processing apparatus characterized in that, among the feature information, those whose difference between the corresponding feature amount and the inverted feature amount is determined to be small is excluded from the collation target .
前記特徴情報同士を照合して、特徴量と反転特徴量とが相互に一致すると判定されるもの同士を照合情報として得る照合部と、
前記照合情報が得られた場合に、前記画像内において鏡像関係がある旨を推定する推定部と、を備え、
前記推定部では、照合情報において対応している特徴点同士に関して、前記画像に対応するワールド座標系における3次元空間座標を求めたうえで、前記画像を撮像したカメラのレンズ中心から当該3次元空間座標の近い側を実像の特徴点とし、遠い側を虚像の特徴点として推定することを特徴とする画像処理装置。 From the image, a calculation unit that calculates the feature points, the feature amount at the feature point, and the inverted feature amount obtained by mirror-inverting the feature amount as feature information.
A collation unit that collates the feature information with each other and obtains as collation information what is determined that the feature amount and the inverted feature amount match each other.
It is provided with an estimation unit that estimates that there is a mirror image relationship in the image when the collation information is obtained .
In the estimation unit, the three-dimensional space coordinates in the world coordinate system corresponding to the image are obtained for the feature points corresponding to each other in the collation information, and then the three-dimensional space is obtained from the lens center of the camera that captured the image. An image processing device characterized in that the side close to the coordinates is used as a feature point of a real image and the side far from the coordinates is used as a feature point of a virtual image.
前記特徴情報同士を照合して、特徴量と反転特徴量とが相互に一致すると判定されるもの同士を照合情報として得る照合部と、
前記照合情報が得られた場合に、前記画像内において鏡像関係がある旨を推定する推定部と、を備え、
前記特徴点は平面状マーカを囲むリファレンス点として定義されるものであり、
前記特徴量は前記平面状マーカの種別であり、
前記算出部は、前記画像から抽出される複数の特徴点が囲む領域を、平面状マーカを囲むリファレンス点の所定順番に割り当てて、平面状マーカと当該囲む領域との間の平面射影変換を求め、当該変換により最もマッチする際の囲む領域を、前記平面状マーカの領域として検出することで前記特徴量を算出し、且つ、
前記算出部は、前記画像から抽出される複数の特徴点が囲む領域を、平面状マーカを囲むリファレンス点の所定順番の逆順に割り当てて、平面状マーカと当該囲む領域との間の平面射影変換を求め、当該変換により最もマッチする際の囲む領域を、前記マーカの反転した領域として検出することで前記反転特徴量を算出することを特徴とする画像処理装置。 From the image, a calculation unit that calculates the feature points, the feature amount at the feature point, and the inverted feature amount obtained by mirror-inverting the feature amount as feature information.
A collation unit that collates the feature information with each other and obtains as collation information what is determined that the feature amount and the inverted feature amount match each other.
It is provided with an estimation unit that estimates that there is a mirror image relationship in the image when the collation information is obtained .
The feature points are defined as reference points surrounding the planar marker.
The feature amount is a type of the planar marker, and is
The calculation unit allocates a region surrounded by a plurality of feature points extracted from the image in a predetermined order of reference points surrounding the planar marker, and obtains a planar projective transformation between the planar marker and the surrounding region. , The feature amount is calculated by detecting the surrounding area at the time of the best match by the conversion as the area of the planar marker, and
The calculation unit allocates a region surrounded by a plurality of feature points extracted from the image in the reverse order of a predetermined order of reference points surrounding the planar marker, and performs a planar projective transformation between the planar marker and the surrounding region. The image processing apparatus is characterized in that the inverted feature amount is calculated by detecting the surrounding region at the time of the most matching by the transformation as the inverted region of the marker .
前記特徴情報同士を照合して、特徴量と反転特徴量とが相互に一致すると判定されるもの同士を照合情報として得る照合部と、
前記照合情報が得られた場合に、前記画像内において鏡像関係がある旨を推定する推定部と、を備え、
前記特徴点は平面状マーカを囲むリファレンス点として定義されるものであり、
前記特徴量は前記平面状マーカの種別であり、
平面状マーカの各々には、鏡像反転させた反転平面状マーカが定義されており、
前記算出部では、前記画像より平面状マーカが検出された場合には当該平面状マーカの種別を前記特徴量として算出し、
前記算出部では、前記画像より反転平面状マーカが検出された場合には当該反転平面状マーカの種別を前記反転特徴量として算出することを特徴とする画像処理装置。 From the image, a calculation unit that calculates the feature points, the feature amount at the feature point, and the inverted feature amount obtained by mirror-inverting the feature amount as feature information.
A collation unit that collates the feature information with each other and obtains as collation information what is determined that the feature amount and the inverted feature amount match each other.
It is provided with an estimation unit that estimates that there is a mirror image relationship in the image when the collation information is obtained .
The feature points are defined as reference points surrounding the planar marker.
The feature amount is a type of the planar marker, and is
An inverted planar marker that is mirror image inverted is defined for each of the planar markers.
When the planar marker is detected from the image, the calculation unit calculates the type of the planar marker as the feature amount.
The image processing unit is characterized in that when an inverted planar marker is detected from the image, the calculation unit calculates the type of the inverted planar marker as the inverted feature amount .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019062997A JP7061092B2 (en) | 2019-03-28 | 2019-03-28 | Image processing equipment and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019062997A JP7061092B2 (en) | 2019-03-28 | 2019-03-28 | Image processing equipment and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020161080A JP2020161080A (en) | 2020-10-01 |
JP7061092B2 true JP7061092B2 (en) | 2022-04-27 |
Family
ID=72639554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019062997A Active JP7061092B2 (en) | 2019-03-28 | 2019-03-28 | Image processing equipment and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7061092B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112556580B (en) * | 2021-03-01 | 2021-09-03 | 北京领邦智能装备股份公司 | Method, device, system, electronic device and storage medium for measuring three-dimensional size |
JP7506036B2 (en) | 2021-07-29 | 2024-06-25 | Kddi株式会社 | Apparatus, method and program for discriminating mirror images |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012203691A (en) | 2011-03-25 | 2012-10-22 | Toshiba Corp | Image identification device and image identification method |
JP2014142770A (en) | 2013-01-23 | 2014-08-07 | Denso Wave Inc | Apparatus for displaying augmented reality |
JP2018205937A (en) | 2017-05-31 | 2018-12-27 | 日本放送協会 | Image retrieval device and program |
JP2019211850A (en) | 2018-05-31 | 2019-12-12 | 株式会社日立製作所 | Skeleton detection device and skeleton detection method |
-
2019
- 2019-03-28 JP JP2019062997A patent/JP7061092B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012203691A (en) | 2011-03-25 | 2012-10-22 | Toshiba Corp | Image identification device and image identification method |
JP2014142770A (en) | 2013-01-23 | 2014-08-07 | Denso Wave Inc | Apparatus for displaying augmented reality |
JP2018205937A (en) | 2017-05-31 | 2018-12-27 | 日本放送協会 | Image retrieval device and program |
JP2019211850A (en) | 2018-05-31 | 2019-12-12 | 株式会社日立製作所 | Skeleton detection device and skeleton detection method |
Non-Patent Citations (1)
Title |
---|
佐野友祐, 外3名,"SIFT特徴量の拡張と対称性平面物体検出への応用",電子情報通信学会論文誌,日本,社団法人電子情報通信学会,2009年08月01日,第J92-D巻, 第8号,p.1176-1185 |
Also Published As
Publication number | Publication date |
---|---|
JP2020161080A (en) | 2020-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5713159B2 (en) | Three-dimensional position / orientation measurement apparatus, method and program using stereo images | |
EP1596330B1 (en) | Estimating position and orientation of markers in digital images | |
CN108369741B (en) | Method and system for registration data | |
JP5248806B2 (en) | Information processing apparatus and information processing method | |
Zhou | A new minimal solution for the extrinsic calibration of a 2D LIDAR and a camera using three plane-line correspondences | |
TWI419081B (en) | Method and system for providing augmented reality based on marker tracing, and computer program product thereof | |
US9141873B2 (en) | Apparatus for measuring three-dimensional position, method thereof, and program | |
WO2005027038A2 (en) | Systems and methods for directly generating a view using a layered approach | |
JP6744747B2 (en) | Information processing apparatus and control method thereof | |
Taketomi et al. | Real-time and accurate extrinsic camera parameter estimation using feature landmark database for augmented reality | |
EP3048555A1 (en) | Image processing device, image processing method, and image processing program | |
CN111583381B (en) | Game resource map rendering method and device and electronic equipment | |
EP3633606B1 (en) | Information processing device, information processing method, and program | |
CN115439607A (en) | Three-dimensional reconstruction method and device, electronic equipment and storage medium | |
JP7061092B2 (en) | Image processing equipment and programs | |
JP2008309595A (en) | Object recognizing device and program used for it | |
JP6579659B2 (en) | Light source estimation apparatus and program | |
CN113362445A (en) | Method and device for reconstructing object based on point cloud data | |
Bethmann et al. | Object-based multi-image semi-global matching–concept and first results | |
EP1997072A2 (en) | Method for determining a depth map from images, device for determining a depth map | |
JP2014102805A (en) | Information processing device, information processing method and program | |
Ranade et al. | Novel single view constraints for manhattan 3d line reconstruction | |
JP7533937B2 (en) | Image processing device, image processing method, and program | |
Dibene et al. | Prepare for ludicrous speed: marker-based instantaneous binocular rolling shutter localization | |
Kurka et al. | Automatic estimation of camera parameters from a solid calibration box |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220401 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220413 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7061092 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |