JP4815597B2 - Image processing method, image processing apparatus, and image processing program - Google Patents
Image processing method, image processing apparatus, and image processing program Download PDFInfo
- Publication number
- JP4815597B2 JP4815597B2 JP2006167873A JP2006167873A JP4815597B2 JP 4815597 B2 JP4815597 B2 JP 4815597B2 JP 2006167873 A JP2006167873 A JP 2006167873A JP 2006167873 A JP2006167873 A JP 2006167873A JP 4815597 B2 JP4815597 B2 JP 4815597B2
- Authority
- JP
- Japan
- Prior art keywords
- analysis
- image processing
- image data
- correlation value
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、対象物の変化前と変化後の二枚の画像の相関値を求め最大となった点を移動先とみなす画像相関法により、対象物の変位、変形および歪みを測定する画像処理方法、画像処理装置および画像処理プログラムに関するものである。 The present invention provides an image processing for measuring the displacement, deformation, and distortion of an object by an image correlation method that obtains a correlation value between two images before and after the change of the object and regards the maximum point as a destination. The present invention relates to a method, an image processing apparatus, and an image processing program.
従来、物体の変位・変形を画像処理によって求める方法として、画像相関法が用いられている。画像相関法は、変化前と変化後の二枚の画像を用い、一方の画像データ上で他方の画像データの部分領域(基準画像)を走査させながら相関値を計算し、最大相関値が得られる点に基準画像が存在するとみなすものであり、二次元画像の変位量測定では、基準画像を二次元方向に走査させることで二次元の変位量を導き出すことができる。このような画像による測定は、接触式による測定が不可能な測定対象や、測定範囲や測定点の数が多いときに有効である。
ところで、一般に画像相関法による測定では、測定対象が並進運動する場合を前提に解析が行われていた(例えば、特許文献1)。そのため、測定対象が大きく変形し、回転やせん断変形、伸縮等の変形を伴っている場合には解析を行うことが困難であった。
By the way, in general, in the measurement by the image correlation method, the analysis is performed on the assumption that the measurement object is translated (for example, Patent Document 1). For this reason, it is difficult to perform analysis when the measurement target is greatly deformed and accompanied by deformation such as rotation, shear deformation, and expansion / contraction.
そこで発明者らは、画像相関法において基準画像を幾何学変換により回転させる手法を提案している(非特許文献1)。この手法は、基準画像をある角度ずつ回転させその都度走査させることを繰り返すもので、従来の並進運動のみを考慮する手法では対象が10度程度回転すると解析不能になっていたところ、この手法では30度回転した場合でもおおむね解析が可能である。
また、画像相関法による処理を行う際に、対象画像にアフィン変換を施す発明が提案されている(特許文献2)。ここでアフィン変換とは、平行移動、回転、左右反転、拡大/縮小、せん断の組み合わせによる座標変換である。ただし特許文献2においては、平行移動、回転、拡大/縮小(x方向およびy方向に同じ倍率)のみを考慮している。この発明は、対象物の画像データ上を走査してあらかじめ登録されたモデル画像との相関値を求めるもので、アフィン変換のパラメータを変化させながら走査を所定回数繰り返し、最大相関値となる点を導き出す。さらに、何度もアフィン変換することを避けるため、対象を二値化処理して主軸角を求め、それに基づきアフィン変換のパラメータを定める。
In addition, there has been proposed an invention in which affine transformation is performed on a target image when performing processing by an image correlation method (Patent Document 2). Here, the affine transformation is coordinate transformation by a combination of parallel movement, rotation, left / right reversal, enlargement / reduction, and shear. However, in Patent Document 2, only translation, rotation, and enlargement / reduction (same magnification in the x and y directions) are considered. The present invention scans the image data of an object to obtain a correlation value with a pre-registered model image, and repeats scanning a predetermined number of times while changing the affine transformation parameters to obtain the maximum correlation value. derive. Furthermore, in order to avoid performing affine transformation many times, the object is binarized to obtain a main shaft angle, and parameters of the affine transformation are determined based on it.
しかしながら、非特許文献1の手法においては、基準画像の変換に際して回転しか考慮されていなかったため、連続体を対象とした場合、変形を伴わない移動や回転および連続体の微小部分は歪まないとみなせる小変形については解析可能であったが、微小部分の歪みまで考慮して解析することは不可能であった。
また、特許文献2の発明は、あらかじめ登録されたモデル画像により対象物の認識および位置の計測を行うものであり、連続体の変形を対象とすることはできなかった。さらに、主軸角からアフィン変換のパラメータを定める方法も、連続体の変形を計測するような場合には一つの主軸角を定めることができず、用いることができなかった。
However, in the method of Non-Patent Document 1, only rotation is considered when converting the reference image. Therefore, when a continuum is targeted, movement and rotation without deformation and a minute part of the continuum can be regarded as not distorted. Although it was possible to analyze small deformations, it was impossible to analyze in consideration of the distortion of a minute part.
In addition, the invention of Patent Document 2 recognizes an object and measures a position using a model image registered in advance, and cannot be used for deformation of a continuum. Furthermore, the method of determining the affine transformation parameters from the main shaft angle cannot be used because one main shaft angle cannot be determined when measuring deformation of a continuum.
本発明は、上記事情を鑑みたものであり、主に連続体を対象とし、画像相関法によりその変位、変形および歪みを測定することができる画像処理方法、画像処理装置および画像処理プログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides an image processing method, an image processing apparatus, and an image processing program that are mainly intended for a continuum and that can measure displacement, deformation, and distortion by an image correlation method. The purpose is to do.
本発明のうち請求項1の発明は、画像データ取得手段が対象物の変化前画像データおよび変化後画像データを受け付ける画像データ取得過程と、パラメータ取得手段が変化前画像データ上の解析点の座標および解析点を中心とする微小領域の大きさならびに解析点の移動量解析範囲、回転角解析範囲および歪み解析範囲の数値データを受け付けるパラメータ取得過程と、回転処理手段が微小領域をアフィン変換により回転角解析範囲において所定角度ずつ回転させたマスクを生成する回転処理過程と、第一相関値算出手段が変化後画像データ上の移動量解析範囲において各マスクを走査しながら変化後画像データとの相関値を計算する第一相関値算出過程と、位置角度検出手段が最大相関値となる位置および角度を検出する位置角度検出過程と、伸縮処理手段が最大相関値を示すマスクをアフィン変換により歪み解析範囲において所定伸縮率ずつ伸縮させた二次マスクを生成する伸縮処理過程と、第二相関値算出手段が各二次マスクと変化後画像データとの相関値を計算する第二相関値算出過程と、伸縮率検出手段が最大相関値となる伸縮率を検出する伸縮率検出過程と、状態決定手段が最大相関値を与える位置、角度および伸縮率から、それぞれ解析点の移動量、回転角および歪みを決定する状態決定過程と、を備えることを特徴とする。 According to the first aspect of the present invention, the image data acquisition means accepts the pre-change image data and the post-change image data of the object, and the parameter acquisition means coordinates the analysis points on the pre-change image data. Parameter acquisition process that accepts numerical data of the size of the micro area centered on the analysis point and the moving amount analysis range, rotation angle analysis range, and distortion analysis range of the analysis point, and the rotation processing means rotates the micro area by affine transformation A rotation process for generating a mask rotated by a predetermined angle in the angular analysis range, and a correlation between the first correlation value calculation means and the changed image data while scanning each mask in the movement amount analysis range on the changed image data First correlation value calculation process for calculating the value and position angle detection process for detecting the position and angle at which the position angle detection means has the maximum correlation value The expansion / contraction processing means generates a secondary mask obtained by expanding / contracting the mask showing the maximum correlation value by a predetermined expansion / contraction ratio in the distortion analysis range by affine transformation, and the second correlation value calculating means changes with each secondary mask. A second correlation value calculation process for calculating a correlation value with the post-image data, an expansion / contraction ratio detection process for detecting an expansion / contraction ratio at which the expansion / contraction ratio detection means becomes the maximum correlation value, and a position where the state determination means gives the maximum correlation value, And a state determination process for determining the amount of movement of the analysis point, the rotation angle, and the distortion from the angle and the expansion / contraction rate, respectively.
また、請求項2の発明は、前記微小領域の形状が、円形であることを特徴とする。 The invention according to claim 2 is characterized in that the shape of the minute region is circular.
さらに、請求項3の発明は、連続体上の複数点についての変位、変形および歪みの解析を行う場合において、解析範囲決定手段が解析しようとする現解析点の移動量、回転角および歪みのうち少なくとも一つについて、現解析点の近傍の点ですでに解析した前解析点の移動量、回転角および歪みの値を基準とした相対的な解析範囲を定める解析範囲決定過程を備えることを特徴とする。 Furthermore, in the invention of claim 3, when analyzing the displacement, deformation, and distortion at a plurality of points on the continuum, the analysis range determining means analyzes the movement amount, rotation angle, and distortion of the current analysis point to be analyzed. For at least one of them, the analysis range determination process for determining a relative analysis range based on the movement amount, rotation angle and distortion value of the previous analysis point already analyzed at a point in the vicinity of the current analysis point is provided. Features.
また、請求項4の発明は、画像処理装置であって、変化前および変化後の対象物を撮像し、変化前画像データおよび変化後画像データとして出力する撮像手段と、請求項1、2又は3記載の画像処理方法を実行する画像処理手段と、を備えることを特徴とする。 Further, the invention of claim 4 is an image processing apparatus, which is an image processing device for capturing an image of an object before and after change, and outputting the image as pre-change image data and post-change image data. And an image processing means for executing the image processing method according to 3.
さらに、請求項5の発明は、画像処理プログラムであって、コンピュータに、請求項1、2又は3記載の画像処理方法を実行させることを特徴とする。 Further, the invention of claim 5 is an image processing program, characterized by causing a computer to execute the image processing method of claim 1, 2 or 3.
本発明のうち請求項1の発明によれば、対象物に接触することなく、変化前画像データおよび変化後画像データのみから対象物の変位、変形および歪みを測定することができる。特に、画像相関の際に微小領域に対してアフィン変換による伸縮を適用することで、従来の方法では不可能であった微小部分の歪みを伴う大きな変形についても解析可能であり、また従来可能であった解析についてもより高い精度で行うことができる。さらに、歪みから各点の応力を直接的に把握することも可能である。なお、本発明の具体的な用途としては、金属の大変形の測定を始めとし、橋やビル等の構造体の変形、地滑り等の土砂災害の予兆システム等の解析が考えられる。 According to the first aspect of the present invention, the displacement, deformation and distortion of the object can be measured from only the pre-change image data and the post-change image data without contacting the object. In particular, by applying expansion / contraction by affine transformation to a minute region during image correlation, it is possible to analyze large deformations with distortion of minute parts, which was impossible with the conventional method. This analysis can be performed with higher accuracy. Furthermore, it is also possible to directly grasp the stress at each point from the strain. Specific applications of the present invention include the measurement of large deformation of metals, analysis of structures such as bridges and buildings, and landslide disaster prediction systems such as landslides.
本発明のうち請求項2の発明によれば、微小領域の形状を円形とすることで、微小領域をアフィン変換により回転させた場合でも領域内に含まれる計算点数が変化せず、回転させない場合と同じ条件で解析することができる。 According to the second aspect of the present invention, the shape of the minute region is circular, so that even when the minute region is rotated by affine transformation, the number of calculation points included in the region does not change and is not rotated. Can be analyzed under the same conditions.
本発明のうち請求項3の発明によれば、連続体上のある点の解析範囲をその近傍の点の解析結果から定めることで、解析範囲を限定し、計算量を低減することができる。 According to the third aspect of the present invention, by defining the analysis range of a certain point on the continuum from the analysis results of the points in the vicinity thereof, the analysis range can be limited and the amount of calculation can be reduced.
本発明のうち請求項4の発明によれば、使用者は、撮像手段により対象物を撮像し、画像処理手段により画像データを処理することで、本発明の画像処理方法による測定を行うことができる。 According to the invention of claim 4 of the present invention, the user can measure by the image processing method of the present invention by imaging the object by the imaging means and processing the image data by the image processing means. it can.
本発明のうち請求項5の発明によれば、使用者は、汎用のパーソナルコンピュータ等によって、本発明の画像処理方法を実施することができる。 According to the invention of claim 5 of the present invention, the user can carry out the image processing method of the present invention with a general-purpose personal computer or the like.
本発明は、対象物の変化前と変化後の二枚の画像の相関値を求め最大となった点を移動先とみなす画像相関法により、対象物の変位、変形および歪みを測定するものである。そこでまず、本発明において用いられる画像のアフィン変換について式により説明する。 The present invention measures the displacement, deformation, and distortion of an object by an image correlation method that obtains the correlation value between two images before and after the change of the object and regards the maximum point as the destination. is there. Therefore, first, an affine transformation of an image used in the present invention will be described using equations.
アフィン変換による座標変換式は、変換前の座標を(x,y)、変換後の座標を(x’,y’)、回転中心の座標を(qx,qy)、回転角をθ、x方向およびy方向の伸縮率を(sx,sy)としてとして式(1)で表される。
式(2)の逆行列を計算すると式(3)となる。
次に、本発明で用いる画像相関の手法について図および式により説明する。図1に示すのは、本発明の画像処理方法の概念図である。ここでは対象物Tとして、片持ち梁を想定する。 Next, the image correlation method used in the present invention will be described with reference to the drawings and equations. FIG. 1 is a conceptual diagram of the image processing method of the present invention. Here, a cantilever is assumed as the object T.
まず、変化前画像データ1上において、解析点3の座標と、解析点3を中心とする微小領域4の形状および大きさを定める。この微小領域4を変化後画像データ2上において1画素ずつシフトさせながら相関値を計算し、最大相関値が得られる点に解析点3が存在するとみなす。 First, on the pre-change image data 1, the coordinates of the analysis point 3 and the shape and size of the minute region 4 centered on the analysis point 3 are determined. The correlation value is calculated while shifting the minute region 4 on the changed image data 2 pixel by pixel, and the analysis point 3 is considered to exist at the point where the maximum correlation value is obtained.
微小領域4の大きさは、小さいほど空間分解能が高くなるが、測定の精度は低下しエラーが生じやすくなる。よってそのバランスを考慮して実施者が決定すべきものであるが、ここでは15×15画素とする。解析点3の変位がある程度予想できる場合は、変位する方向に短く、変位しない方向に長い形状としてもよい。 As the size of the minute region 4 is smaller, the spatial resolution is higher, but the measurement accuracy is lowered and an error is likely to occur. Therefore, it should be determined by the practitioner in consideration of the balance, but here it is 15 × 15 pixels. When the displacement of the analysis point 3 can be predicted to some extent, the shape may be short in the direction of displacement and long in the direction of not displacement.
また、微小領域4をシフトさせる範囲(移動量解析範囲5)については、対象物Tの変位がまったく予想できない場合は変化後画像データ2上全域となるが、ある程度予想できる場合は、その予想範囲内でシフトさせればよい。例えば図1に示すような場合には、梁は必ず下方に変位すると考えられるので、移動量解析範囲5を解析点3よりも下方の範囲のみに限定してもよい。 Further, the range (movement amount analysis range 5) for shifting the minute region 4 is the entire region on the post-change image data 2 when the displacement of the object T cannot be predicted at all, but when it can be predicted to some extent, the expected range. Shift within. For example, in the case shown in FIG. 1, it is considered that the beam is surely displaced downward. Therefore, the movement amount analysis range 5 may be limited to only the range below the analysis point 3.
ここで、ある点の相関値は、変化前後の画像において、当該点1画素とその近傍8画素の計9画素の差分をとり、その差分値によって求めることにする。式(5)において、変化前画像の点(x,y)における光強度の差分値をg(x,y)、変化後画像の点(x,y)における光強度の差分値をg’(x,y)として、相関値S(Δx,Δy)を求める。最大相関値を示すときの変位量がΔx,Δyとなる。
なお、ここに挙げた手法は一例であり、画像データ相互の類似度を判断できる手法であればどのようなものであってもよい。 Note that the method described here is merely an example, and any method can be used as long as it can determine the degree of similarity between image data.
次に、微小領域4の回転について説明する。対象物Tの変位が平行移動又は微小な回転のみである場合には上記の方法のみで対応できるが、大きな回転変位を伴う場合、上記の方法では適切な点で最大相関値が得られない。そこで、微小領域4をアフィン変換により回転させて相関をとる必要がある。ここでは、式(4)において伸縮の項を省いた以下の式(6)を用いる。
式(6)により所定角度ずつ回転させたそれぞれの微小領域4を、ここではマスク8とよぶ。ここで、回転中心は微小領域4の中心であり、すなわち解析点3の座標となる。このように生成されるマスク8を、一枚ずつ変化後画像データ2上においてシフトさせながら相関値を計算し、最大相関値が得られるΔx,Δyおよびθが、それぞれ解析点3の移動量および回転角とみなされる。 Each minute region 4 rotated by a predetermined angle according to equation (6) is referred to as a mask 8 here. Here, the rotation center is the center of the minute region 4, that is, the coordinates of the analysis point 3. The correlation value is calculated while shifting the mask 8 generated in this way on the changed image data 2 one by one, and Δx, Δy and θ at which the maximum correlation value is obtained are the movement amount of the analysis point 3 and It is regarded as a rotation angle.
ここで、微小領域4を回転させる範囲(回転角解析範囲6)については、対象物Tの回転がまったく予想できない場合は0°〜360°の全域となるが、ある程度予想できる場合は、その予想範囲内で回転させればよい。また、初めから細かい角度毎(例えば、1°毎)のマスク8を生成してもよいが、粗い角度毎(例えば、5°毎)のマスク8を生成してそれぞれの相関値を計算し、最大相関値が得られた角度の近傍で細かい角度毎のマスク8を生成して再び相関値を計算すると、全体のマスク8生成数が減り、解析時間を短縮することができる。 Here, the range in which the minute region 4 is rotated (rotation angle analysis range 6) is the entire range of 0 ° to 360 ° when the rotation of the object T cannot be predicted at all. Rotate within the range. Further, the mask 8 may be generated for each fine angle (for example, every 1 °) from the beginning, but the mask 8 for each rough angle (for example, every 5 °) may be generated to calculate the respective correlation values. If the mask 8 for each fine angle is generated in the vicinity of the angle where the maximum correlation value is obtained and the correlation value is calculated again, the total number of masks 8 generated decreases, and the analysis time can be shortened.
なお、このように微小領域4を回転させる場合、微小領域4の形状が問題となる。すなわち、微小領域4の形状が正方形の場合、図2(a)に示すように、回転させることで変形後画像と相関をとるための計算点数が減少してしまい(図では25点→17点)、同じ条件を保つことができない。そこで、図2(b)に示すように、微小領域4を円形とすれば、回転させても計算点数が減少しない。 In addition, when rotating the micro area | region 4 in this way, the shape of the micro area | region 4 becomes a problem. That is, when the shape of the minute region 4 is a square, as shown in FIG. 2A, the number of calculation points for correlating with the deformed image is reduced by rotating (25 points → 17 points in the figure). ), Can not keep the same conditions. Therefore, as shown in FIG. 2B, if the minute region 4 is circular, the number of calculation points does not decrease even if it is rotated.
次に、微小領域4の伸縮について説明する。上記の手法に加えて、さらに微小領域4の伸縮を考慮することにより、解析点3の歪みを求めることができる。 Next, the expansion and contraction of the minute region 4 will be described. In addition to the above method, the distortion at the analysis point 3 can be obtained by considering the expansion and contraction of the minute region 4.
上記の手法により移動量および回転角が定められた微小領域4について、式(4)により所定伸縮率ずつ伸縮させたそれぞれの微小領域4を、ここでは二次マスク9とよぶ。このように生成される二次マスク9について、一枚ずつ変化後画像データ2との相関値を計算し、最大相関値が得られるsx,syが、x方向およびy方向の歪みとみなされる。 Here, each of the micro regions 4 in which the movement amount and the rotation angle are determined by the above-described method is expanded and contracted by a predetermined expansion / contraction rate according to the equation (4), and is referred to as a secondary mask 9 here. For the secondary mask 9 generated in this way, the correlation values with the image data 2 after change are calculated one by one, and s x and s y that give the maximum correlation value are regarded as distortions in the x and y directions. It is.
ここで、微小領域4を伸縮させる範囲(歪み解析範囲7)については、変化前画像データ1および変化後画像データ2を見比べて定めてもよいし、対象物Tの材質の歪みの限界値(破壊に至る直前の歪みの値)がわかる場合にはその値から定めてもよい。 Here, the range (distortion analysis range 7) in which the minute region 4 is expanded or contracted may be determined by comparing the pre-change image data 1 and the post-change image data 2 or the limit value of the distortion of the material of the object T ( If the value of the strain immediately before breaking) is known, it may be determined from that value.
以上より、解析点3の移動量、回転角および歪みが求められた。この一連の解析を対象物Tの全域に渡って行えば、対象物全体の変位、変形および歪みの状態を把握することができる。 From the above, the movement amount, rotation angle, and distortion of the analysis point 3 were obtained. If this series of analyzes is performed over the entire area of the object T, the state of displacement, deformation and distortion of the entire object can be grasped.
なお、上記の手法においては、変化前画像データ1上において解析点3および微小領域4を定め、それを変化後画像データ2上においてシフトさせたが、これとは逆に、変化後画像データ2上において解析点3および微小領域4を定め、それを変化前画像データ1上においてシフトさせてもよい。前者の方法によれば、変化前の対象物の各点の移動先が把握できるので、ある物体に力を加えたときにどのように変形するか、といったことを検討する場合に好適である。一方、後者の方法によれば、変化後の対象物Tの各点の移動元が把握できるので、地滑りの際にどの部分がどのように変位したのか、といったことを検討する場合に好適である。 In the above method, the analysis point 3 and the minute region 4 are defined on the pre-change image data 1 and shifted on the post-change image data 2. On the contrary, the post-change image data 2 The analysis point 3 and the minute region 4 may be defined on the top, and may be shifted on the pre-change image data 1. According to the former method, since the movement destination of each point of the target object before the change can be grasped, it is suitable for examining how to deform when a force is applied to a certain object. On the other hand, according to the latter method, since the movement source of each point of the object T after the change can be grasped, it is suitable for examining which part is displaced and how during the landslide. .
実際に本発明の画像処理方法を実施するには、以下に示す画像処理装置および画像処理プログラムを利用する。 In order to actually carry out the image processing method of the present invention, the following image processing apparatus and image processing program are used.
本発明の画像処理プログラムは、キーボードやマウス等からなる入力装置、ディスプレイ等からなる出力装置、本プログラムの命令を順番に実行するCPU、本プログラムおよび本プログラムの実行に必要なデータおよび計算結果等を保存しておく記憶装置を構成要素とする標準的なコンピュータにより実行され、コンピュータが各種の手段として機能する。また、本発明の画像処理装置における撮像手段200は、一般的なデジタルカメラからなり、画像処理手段100は、前記プログラムが実行されるコンピュータにより構成される。図3に示すのは、本発明の画像処理装置の第一実施形態の構成を示すブロック図であり、図4に示すのは、本発明の画像処理装置の第一実施形態が実行する画像処理方法の流れを示すフローチャートである。 The image processing program of the present invention includes an input device composed of a keyboard and a mouse, an output device composed of a display, a CPU that executes instructions of the program in order, the program, data necessary for execution of the program, calculation results, etc. Is executed by a standard computer including a storage device for storing the computer, and the computer functions as various means. In addition, the imaging unit 200 in the image processing apparatus of the present invention includes a general digital camera, and the image processing unit 100 includes a computer that executes the program. FIG. 3 is a block diagram showing the configuration of the first embodiment of the image processing apparatus of the present invention, and FIG. 4 shows the image processing executed by the first embodiment of the image processing apparatus of the present invention. It is a flowchart which shows the flow of a method.
最初の過程は画像データ取得過程であり、撮像手段200が、対象物の変化前画像および変化後画像を撮像し、それを画像データ取得手段101が、変化前画像データおよび変化後画像データとして取得する。画像データの解像度は、両者が同じであれば特に限定されないが、もちろん高解像度であるほうが解析の精度は高くなる。また、この段階で画像データ上の明らかに対象物でない部分(背景に相当する部分)を省いてしまってもよい。 The first process is an image data acquisition process, in which the imaging unit 200 captures a pre-change image and a post-change image of an object, and the image data acquisition unit 101 acquires the pre-change image data and post-change image data. To do. The resolution of the image data is not particularly limited as long as both are the same, but of course, the higher the resolution, the higher the analysis accuracy. Further, at this stage, a portion (a portion corresponding to the background) that is clearly not an object on the image data may be omitted.
次はパラメータ取得過程であり、パラメータ取得手段102が、使用者による入力手段300からのパラメータの入力を受け付ける。入力手段300は一般的なキーボードやマウス等の入力装置からなる。ここでは、解析点の座標および解析点を中心とする微小領域の大きさならびに解析点の移動量解析範囲(例えば、x方向およびy方向に±80画素)、回転角解析範囲(例えば、±30°)および歪み解析範囲(例えば、x方向およびy方向に0.9〜1.1)を設定し、さらに1画素に対応する実寸を設定する。解析点の座標は複数指定することもできる。また、微小領域の形状も指定することができ、形状に合わせて、矩形であれば縦横の長さ、円形であれば半径を指定する。 Next is a parameter acquisition process, in which the parameter acquisition unit 102 receives input of parameters from the input unit 300 by the user. The input unit 300 includes a general input device such as a keyboard and a mouse. Here, the coordinates of the analysis point, the size of the minute area centered on the analysis point, the analysis range of the analysis point movement amount (for example, ± 80 pixels in the x direction and the y direction), and the rotation angle analysis range (for example, ± 30) °) and a distortion analysis range (for example, 0.9 to 1.1 in the x direction and the y direction), and an actual size corresponding to one pixel is set. Multiple coordinates of analysis points can be specified. Also, the shape of the minute region can be specified, and according to the shape, the vertical and horizontal lengths are specified for a rectangle, and the radius is specified for a circle.
次はフィルタリング過程であり、フィルタリング手段151が、変化前画像データおよび変化後画像データに対してフィルタ処理を行い、画像を先鋭化する。フィルタには種々のものがあるが、ここではラプラシアンフィルタが好適である。このような処理を行うことで、画像のエッジが強調され、測定精度が向上する。 Next, a filtering process is performed, and the filtering unit 151 performs a filtering process on the pre-change image data and the post-change image data to sharpen the image. Although there are various types of filters, a Laplacian filter is preferable here. By performing such processing, the edge of the image is enhanced and the measurement accuracy is improved.
次は回転処理過程であり、回転処理手段103が、解析点を中心とした微小領域をアフィン変換により回転させたマスクを生成する。例えば、回転角解析範囲を±30°、回転単位を1°とすれば、60枚のマスクが生成される。 Next, a rotation process is performed, and the rotation processing unit 103 generates a mask obtained by rotating a minute region around the analysis point by affine transformation. For example, if the rotation angle analysis range is ± 30 ° and the rotation unit is 1 °, 60 masks are generated.
次は第一相関値算出過程であり、第一相関値算出手段104が、各マスクをx方向およびy方向へ1画素ずつシフトさせながら、変形後画像との相関値を計算する。シフトさせる範囲は、先に設定した移動量解析範囲であり、設定した範囲内におけるすべてのΔx,Δy,θの組み合わせについての相関値が求められる。 The next is a first correlation value calculation process, in which the first correlation value calculation means 104 calculates a correlation value with the transformed image while shifting each mask pixel by pixel in the x and y directions. The range to be shifted is the previously set movement amount analysis range, and correlation values are obtained for all combinations of Δx, Δy, θ within the set range.
次は位置角度検出過程であり、位置角度検出手段105が、第一相関値算出過程において得られた相関値の中から最大相関値を検出し、最大相関値を与えるΔx,Δyおよびθを解析点の移動量および回転角とみなす。 Next is a position angle detection process. The position angle detection means 105 detects the maximum correlation value from the correlation values obtained in the first correlation value calculation process, and analyzes Δx, Δy, and θ giving the maximum correlation value. It is regarded as the amount of movement of the point and the rotation angle.
次は伸縮処理過程であり、伸縮処理手段106が、位置角度検出過程において最大相関値が得られたマスクについて、アフィン変換により伸縮させた二次マスクを生成する。例えば、伸縮率解析範囲をx方向およびy方向にそれぞれ0.9〜1.1、伸縮単位を0.01とすれば、440枚のマスクが生成される。 The next is an expansion / contraction process, and the expansion / contraction processing means 106 generates a secondary mask that is expanded / contracted by affine transformation for the mask having the maximum correlation value obtained in the position angle detection process. For example, if the expansion / contraction rate analysis range is 0.9 to 1.1 in the x and y directions and the expansion / contraction unit is 0.01, 440 masks are generated.
次は第二相関値算出過程であり、第二相関値算出手段107が、各マスクと変形後画像との相関値を計算する。設定した範囲内におけるすべてのsx,syの組み合わせについての相関値が求められる。 Next is a second correlation value calculation process, and the second correlation value calculation means 107 calculates a correlation value between each mask and the transformed image. All s x within the defined range, the correlation values for the combination of s y are determined.
次は伸縮率検出過程であり、伸縮率検出手段108が、第二相関値算出過程において得られた相関値の中から最大相関値を検出し、最大相関値を与えるsx,syを解析点の歪みとみなす。 The following is a scaling factor detection process, the expansion ratio detection means 108 detects the maximum correlation value from among the correlation values obtained in the second correlation value calculating step, analyzing the s x, s y giving the maximum correlation value Considered as point distortion.
次は状態決定過程であり、状態決定手段109が、位置角度検出過程において最大相関値を与えるΔx,Δyおよびθならびに伸縮率検出過程において最大相関値を与えるsx,syを、解析点の移動量、回転角および歪みとみなし、変化後の解析点の状態を決定する。 The following is a state determination process, the state determining unit 109, [Delta] x that gives the maximum correlation value at position angle detection process, s x which gives the maximum correlation value in Δy and θ as well as the expansion ratio detection process, the s y, the analysis points Considering the amount of movement, rotation angle, and distortion, the state of the analysis point after change is determined.
以上の過程により、ある解析点についての移動量、回転角および歪みが求められる。解析点を複数指定した場合、その数の分だけ回転処理過程〜状態決定過程を繰り返す。 Through the above process, the movement amount, rotation angle, and distortion for a certain analysis point are obtained. When a plurality of analysis points are designated, the rotation process to the state determination process are repeated by the number of analysis points.
すべての解析点についての移動量、回転角および歪みが求められたあと、最後は出力過程であり、出力手段400が、解析結果を出力・表示する。出力手段400は一般的なディスプレイ等の出力装置からなる。出力の形式は、各解析点の移動量、回転角および歪みの数値データをリストにして表示するものや、変位をベクトルで表示するもの、等変位線を色の濃淡やカラーで表示するものなど、どのようなものであってもよい。 After the movement amount, rotation angle, and distortion for all analysis points are obtained, the last is an output process, and the output unit 400 outputs and displays the analysis result. The output unit 400 includes an output device such as a general display. The output format is a list that displays numerical data of the movement amount, rotation angle, and distortion of each analysis point, a display that displays displacement as a vector, a display that displays equal displacement lines in shades of color and colors, etc. Anything is acceptable.
図5に示すのは、本発明の画像処理装置の第二実施形態の構成を示すブロック図であり、図6に示すのは、本発明の画像処理装置の第二実施形態が実行する画像処理方法の流れを示すフローチャートである。 FIG. 5 is a block diagram showing the configuration of the second embodiment of the image processing apparatus of the present invention, and FIG. 6 shows the image processing executed by the second embodiment of the image processing apparatus of the present invention. It is a flowchart which shows the flow of a method.
ここで、第二実施形態の考え方を示す。解析範囲の設定に際して、第一実施形態においては、全解析点について同じ解析範囲で計算を行うか、解析点毎に解析範囲を設定するが、連続体の変位・変形について考える場合には、さらに効率的に解析範囲を定めることができる。すなわち、連続体上のある点の移動量、回転角および歪みの値は、その点の近傍の点の各値に極めて近いものと考えられる。そこで、ある点の解析範囲を定めるにあたり、その近傍の点ですでに解析した点の移動量、回転角および歪みの値を基準とした相対的な解析範囲を定めることができる。この方法によれば、連続体上の各解析点において相対的な解析範囲を狭くすることができるので、解析時間を短縮することができる。以下において、第一実施形態と異なる部分のみ説明する。 Here, the concept of the second embodiment will be described. In setting the analysis range, in the first embodiment, calculation is performed in the same analysis range for all analysis points, or an analysis range is set for each analysis point, but when considering displacement / deformation of a continuum, The analysis range can be determined efficiently. In other words, the amount of movement, rotation angle, and distortion of a point on the continuum are considered to be very close to the values of points near that point. Therefore, when determining the analysis range of a certain point, it is possible to determine a relative analysis range based on the amount of movement, rotation angle, and distortion of a point already analyzed at a nearby point. According to this method, since the relative analysis range can be narrowed at each analysis point on the continuum, the analysis time can be shortened. Below, only a different part from 1st embodiment is demonstrated.
第一実施形態では、パラメータ取得過程において移動量解析範囲、回転角解析範囲および歪み解析範囲が設定されていたが、これらはこれから解析しようとする現解析点を基準に定められていた(例えば、「現解析点から±80画素」)。一方、第二実施形態では、解析範囲決定過程において、解析範囲決定手段110が、パラメータ取得手段102が受け付けた使用者の相対的解析範囲の入力値と、状態決定手段109が決定した現解析点の近傍の点ですでに解析した前解析点の移動量、回転角および歪みのデータとを読み込み、それらの値から解析範囲を設定する(例えば、使用者の相対的解析範囲の入力値が±5画素、前解析点の移動量が+10画素であれば、「現解析点から+5画素〜+15画素」)。この方法による場合、現解析点の移動量、回転角および歪みは、前解析点のそれらと非常に近いと考えられるため、各解析範囲を狭く設定することができ、結果として計算量が少なくなる。 In the first embodiment, the movement amount analysis range, the rotation angle analysis range, and the distortion analysis range are set in the parameter acquisition process, but these are determined based on the current analysis point to be analyzed (for example, “± 80 pixels from the current analysis point”). On the other hand, in the second embodiment, in the analysis range determination process, the analysis range determination unit 110 receives the input value of the user's relative analysis range received by the parameter acquisition unit 102 and the current analysis point determined by the state determination unit 109. The movement amount, rotation angle, and distortion data of the previous analysis point that has already been analyzed at points in the vicinity of is read and the analysis range is set from these values (for example, the input value of the relative analysis range of the user is ± If the movement amount of 5 pixels and the previous analysis point is +10 pixels, “+5 to +15 pixels from the current analysis point”). If this method is used, the amount of movement, rotation angle, and distortion of the current analysis point are considered to be very close to those of the previous analysis point, so each analysis range can be set narrow, resulting in less computation. .
なお、画像相関法を用いる際には、対象物の表面に特徴ある模様や印が付いている必要がある。対象物表面が元々ランダムな模様であればそれを使えばよいが、模様がない場合や不適切な模様がある場合は、ランダムなドットを塗布するとよい。この際、ドットの数や分布および大きさ等が測定精度に影響するが、白地に黒の円形ドットを塗布する場合、同じ直径のドットよりランダムな直径のドットを塗布するほうが、測定精度がよい。また、黒いドット部分より白い地の部分の比率が高い方が、測定精度がよい。さらに、種々の色(例えば、赤、緑、青)のドットを塗布してもよい。 When using the image correlation method, it is necessary that a characteristic pattern or mark be attached to the surface of the object. If the surface of the object is originally a random pattern, it may be used, but if there is no pattern or an inappropriate pattern, random dots may be applied. At this time, the number, distribution, and size of the dots affect the measurement accuracy. However, when applying a black circular dot on a white background, it is better to apply a dot with a random diameter than a dot with the same diameter. . In addition, the measurement accuracy is better when the ratio of the white background portion is higher than the black dot portion. Furthermore, you may apply | coat the dot of various colors (for example, red, green, blue).
また、画像相関法の解析による変位量測定の最小単位は1画素であり、基本的にはそれ以下の感度で測定することができない。しかし、二次元サブピクセル処理によって1画素の1/10程度の感度で測定することができる。この方法は、最大相関点とその近傍8点の相関値による近似曲面を最小二乗法により作成し、真の最大相関位置を1画素以下の単位で求めることにより、1画素以下の変位を得る方法である。これにより、変位が微小な場合でも適切な結果が得られる。 In addition, the minimum unit of displacement measurement by analysis of the image correlation method is one pixel, and basically it cannot be measured with a sensitivity lower than that. However, it is possible to measure with a sensitivity of about 1/10 of one pixel by two-dimensional sub-pixel processing. In this method, an approximate curved surface based on the correlation value of the maximum correlation point and its neighboring eight points is created by the least square method, and the true maximum correlation position is obtained in units of one pixel or less to obtain a displacement of one pixel or less. It is. Thereby, an appropriate result can be obtained even when the displacement is very small.
上記実施形態ではプログラムによりコンピュータを各手段として機能させているが、各手段の一部又は全部をそれぞれ専用のハードウェアにより構成するものであってもよい。また、各過程の順序は、同等の結果を得られる範囲で上記実施形態と異なるものであってもよく、二以上の過程が並列的に実行されるものであってもよい。 In the above embodiment, the computer functions as each means by a program. However, a part or all of each means may be configured by dedicated hardware. Moreover, the order of each process may differ from the said embodiment in the range in which an equivalent result is obtained, and two or more processes may be performed in parallel.
以下において、本発明の画像処理方法により実際に物体の変形を測定した解析例を示す。測定対象は金属製の防振ダンパで、これを油圧シリンダで加力して変形させたものであり、解析にはその一部分を拡大した画像を用いた。図7に示すのが解析に用いた画像であり、(a)は変化前画像、(b)は変化後画像である。画像中の防振ダンパの下部は固定されており、上部は右方へ変位している。 In the following, an analysis example in which the deformation of an object is actually measured by the image processing method of the present invention will be shown. The object to be measured was a metal vibration damper, which was deformed by applying force with a hydraulic cylinder, and an enlarged image was used for analysis. FIG. 7 shows an image used for the analysis, where (a) is a pre-change image and (b) is a post-change image. The lower part of the anti-vibration damper in the image is fixed, and the upper part is displaced to the right.
まず、比較対照のために、測定対象の並進運動のみを考慮し、回転を考慮しない手法による解析を行う。図8に示すのがその解析結果で、(a)は各点の移動量を色の濃淡で表したものであり(色が濃いほど移動量が大きい)、(b)は各点の移動の様子をベクトルにより表したものである。(a)においては、所々に色の濃淡が不連続に変化している部分があり、正確な解析結果が得られていないことがわかる。また(b)においても、所々に周囲と異なる向きのベクトルが存在する。 First, for comparison purposes, analysis is performed using a method that considers only the translational motion of the measurement object and does not consider rotation. FIG. 8 shows the result of the analysis. (A) shows the amount of movement of each point in shades of color (the darker the color, the larger the amount of movement), and (b) shows the movement of each point. The state is represented by a vector. In (a), there are portions where the color shading changes discontinuously in some places, and it can be seen that an accurate analysis result is not obtained. Also in (b), there are vectors in different directions from the surroundings.
次に、本発明の手法による解析を行う。本発明の手法では、並進および回転を考慮した解析により測定対象の移動量および回転角が求められ、さらに伸縮を考慮した解析により測定対象の歪みが求められる。まず図9に示すのは移動量の解析結果で、(a)および(b)が表すものは図8の場合と同様である。回転も考慮して解析すると、(a)においては色の濃淡の不連続な部分がほとんど見られず、正確な解析結果が得られていることがわかる。また(b)においても、周囲と異なる向きのベクトルは見られない。 Next, analysis by the method of the present invention is performed. In the method of the present invention, the movement amount and the rotation angle of the measurement object are obtained by analysis in consideration of translation and rotation, and the distortion of the measurement object is obtained by analysis in consideration of expansion and contraction. First, FIG. 9 shows the analysis result of the movement amount, and (a) and (b) represent the same as in the case of FIG. When analysis is performed in consideration of rotation, it can be seen that in (a), there are almost no discontinuous portions of color shading, and an accurate analysis result is obtained. Also in (b), a vector having a direction different from the surroundings is not seen.
さらに、伸縮を考慮した解析について、ここでは解析点を図10のように三点選んだ。解析点Aは歪みが少ないと考えられる点、解析点Bは歪みがわずかに生じていると考えられる点、解析点Cは大きな歪みが生じていると考えられる点である。解析にあたっては、伸縮率解析範囲をx方向およびy方向にそれぞれ0.960〜1.040、伸縮単位を0.005とした。図11の(a)、(b)、(c)はそれぞれ、A、B、Cの各点における相関値の計算結果を示すものである。これらより最大相関値が求められ、それを与える伸縮率が各点の歪みとなる。 Further, for analysis considering expansion and contraction, three analysis points were selected here as shown in FIG. The analysis point A is a point where the distortion is considered to be small, the analysis point B is a point where the distortion is considered to be slightly generated, and the analysis point C is a point where the distortion is considered to be large. In the analysis, the expansion / contraction rate analysis range was 0.960 to 1.040 in the x and y directions, and the expansion / contraction unit was 0.005. (A), (b), and (c) of FIG. 11 show the calculation results of correlation values at points A, B, and C, respectively. From these, the maximum correlation value is obtained, and the expansion / contraction rate giving it is the distortion at each point.
表1に、各点の座標と、移動量、回転角および歪みの解析結果を示す。座標は画像の左上を原点とし、右方向をx方向、下方向をy方向とした。表より、解析点Aは歪みがほとんどなく、解析点Bはy方向に2%の歪みがあり、解析点Cはx方向およびy方向にそれぞれ2%の歪みがあることがわかる。
以上のように、本発明の手法によれば、測定対象の移動量および回転角を高い精度で求めることができる。さらに、従来の手法では不可能であった歪みの解析も可能であり、対象物の状態をより詳細に把握することができる。 As described above, according to the method of the present invention, the movement amount and the rotation angle of the measurement object can be obtained with high accuracy. Furthermore, it is possible to analyze distortion that was impossible with the conventional method, and to grasp the state of the object in more detail.
1 変化前画像データ
2 変化後画像データ
3 解析点
4 微小領域
5 移動量解析範囲
6 回転角解析範囲
7 歪み解析範囲
8 マスク
9 二次マスク
T 対象物
100 画像処理手段
101 画像データ取得手段
102 パラメータ取得手段
103 回転処理手段
104 第一相関値算出手段
105 位置角度検出手段
106 伸縮処理手段
107 第二相関値算出手段
108 伸縮率検出手段
109 状態決定手段
110 解析範囲決定手段
200 撮像手段
DESCRIPTION OF SYMBOLS 1 Image data before change 2 Image data after change 3 Analysis point 4 Micro area 5 Movement amount analysis range 6 Rotation angle analysis range 7 Distortion analysis range 8 Mask 9 Secondary mask T Target object 100 Image processing means 101 Image data acquisition means 102 Parameter Acquisition means 103 Rotation processing means 104 First correlation value calculation means 105 Position angle detection means 106 Expansion / contraction processing means 107 Second correlation value calculation means 108 Expansion / contraction rate detection means 109 State determination means 110 Analysis range determination means 200 Imaging means
Claims (5)
パラメータ取得手段(102)が変化前画像データ(1)上の解析点(3)の座標および解析点(3)を中心とする微小領域(4)の大きさならびに解析点(3)の移動量解析範囲(5)、回転角解析範囲(6)および歪み解析範囲(7)の数値データを受け付けるパラメータ取得過程と、
回転処理手段(103)が微小領域(4)をアフィン変換により回転角解析範囲(6)において所定角度ずつ回転させたマスク(8)を生成する回転処理過程と、
第一相関値算出手段(104)が変化後画像データ(2)上の移動量解析範囲(5)において各マスク(8)を走査しながら変化後画像データ(2)との相関値を計算する第一相関値算出過程と、
位置角度検出手段(105)が最大相関値となる位置および角度を検出する位置角度検出過程と、
伸縮処理手段(106)が最大相関値を示すマスク(8)をアフィン変換により歪み解析範囲(7)において所定伸縮率ずつ伸縮させた二次マスク(9)を生成する伸縮処理過程と、
第二相関値算出手段(107)が各二次マスク(9)と変化後画像データ(2)との相関値を計算する第二相関値算出過程と、
伸縮率検出手段(108)が最大相関値となる伸縮率を検出する伸縮率検出過程と、
状態決定手段(109)が最大相関値を与える位置、角度および伸縮率から、それぞれ解析点の移動量、回転角および歪みを決定する状態決定過程と、
を備えることを特徴とする画像処理方法。 An image data acquisition process in which the image data acquisition means (101) receives the pre-change image data (1) and the post-change image data (2) of the object (T);
The parameter acquisition means (102) coordinates the analysis point (3) on the pre-change image data (1), the size of the minute region (4) around the analysis point (3), and the amount of movement of the analysis point (3). A parameter acquisition process for receiving numerical data of an analysis range (5), a rotation angle analysis range (6), and a strain analysis range (7);
A rotation processing step in which the rotation processing means (103) generates a mask (8) by rotating the minute region (4) by a predetermined angle in the rotation angle analysis range (6) by affine transformation;
The first correlation value calculation means (104) calculates the correlation value with the after-change image data (2) while scanning each mask (8) in the movement amount analysis range (5) on the after-change image data (2). A first correlation value calculation process;
A position angle detection process in which the position angle detection means (105) detects the position and angle at which the maximum correlation value is obtained;
An expansion / contraction processing step (106) for generating a secondary mask (9) in which the expansion / contraction processing means (106) expands / contracts the mask (8) showing the maximum correlation value by a predetermined expansion / contraction ratio in the distortion analysis range (7) by affine transformation;
A second correlation value calculating unit (107) for calculating a correlation value between each secondary mask (9) and the post-change image data (2);
An expansion / contraction rate detection process in which the expansion / contraction rate detection means (108) detects an expansion / contraction rate that has a maximum correlation value;
A state determination process in which the state determination means (109) determines the amount of movement, rotation angle, and distortion of the analysis point from the position, angle, and expansion / contraction rate at which the maximum correlation value is given;
An image processing method comprising:
解析範囲決定手段(110)が解析しようとする現解析点の移動量、回転角および歪みのうち少なくとも一つについて、現解析点の近傍の点ですでに解析した前解析点の移動量、回転角および歪みの値を基準とした相対的な解析範囲を定める解析範囲決定過程を備えることを特徴とする請求項1又は2記載の画像処理方法。 When analyzing displacement, deformation and distortion of multiple points on a continuum,
At least one of the movement amount, rotation angle, and distortion of the current analysis point to be analyzed by the analysis range determining means (110) is the movement amount and rotation of the previous analysis point that has already been analyzed at a point in the vicinity of the current analysis point. The image processing method according to claim 1, further comprising an analysis range determination step for determining a relative analysis range based on the angle and the distortion value.
請求項1、2又は3記載の画像処理方法を実行する画像処理手段(100)と、
を備えることを特徴とする画像処理装置。 Imaging means (200) for capturing an image of the object (T) before and after the change and outputting it as image data before the change (1) and image data after the change (2);
Image processing means (100) for executing the image processing method according to claim 1, 2 or 3,
An image processing apparatus comprising:
請求項1、2又は3記載の画像処理方法を実行させることを特徴とする画像処理プログラム。
On the computer,
An image processing program for executing the image processing method according to claim 1, 2 or 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006167873A JP4815597B2 (en) | 2006-06-16 | 2006-06-16 | Image processing method, image processing apparatus, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006167873A JP4815597B2 (en) | 2006-06-16 | 2006-06-16 | Image processing method, image processing apparatus, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007333647A JP2007333647A (en) | 2007-12-27 |
JP4815597B2 true JP4815597B2 (en) | 2011-11-16 |
Family
ID=38933250
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006167873A Active JP4815597B2 (en) | 2006-06-16 | 2006-06-16 | Image processing method, image processing apparatus, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4815597B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5429864B2 (en) * | 2009-07-24 | 2014-02-26 | 独立行政法人物質・材料研究機構 | Strain measurement pattern |
JP6153318B2 (en) * | 2012-11-30 | 2017-06-28 | キヤノン株式会社 | Image processing apparatus, image processing method, image processing program, and storage medium |
CN113465525A (en) * | 2021-06-21 | 2021-10-01 | 贵州铭源新能源科技发展有限公司 | Geological disaster hidden danger point deformation characterization method based on stereoscopic vision |
CN113742438B (en) * | 2021-08-19 | 2022-03-18 | 中国科学院地理科学与资源研究所 | Method and device for determining landslide susceptibility distribution map and storage medium |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2836104B2 (en) * | 1989-07-07 | 1998-12-14 | トヨタ自動車株式会社 | Object posture detection device |
JPH07220026A (en) * | 1994-01-31 | 1995-08-18 | Omron Corp | Method and device for picture processing |
JPH09128550A (en) * | 1995-10-31 | 1997-05-16 | Omron Corp | Method and device for processing image |
JPH09304019A (en) * | 1996-05-15 | 1997-11-28 | Ishikawajima Harima Heavy Ind Co Ltd | Position and attitude detecting method of object |
US6266452B1 (en) * | 1999-03-18 | 2001-07-24 | Nec Research Institute, Inc. | Image registration method |
JP3263931B2 (en) * | 1999-09-22 | 2002-03-11 | 富士重工業株式会社 | Stereo matching device |
JP3899915B2 (en) * | 2001-12-06 | 2007-03-28 | 旭硝子株式会社 | Optical strain evaluation method and evaluation apparatus |
JP4189925B2 (en) * | 2003-09-05 | 2008-12-03 | 福岡県 | Surface displacement measuring method and surface displacement measuring apparatus |
JP2006113832A (en) * | 2004-10-15 | 2006-04-27 | Canon Inc | Stereoscopic image processor and program |
-
2006
- 2006-06-16 JP JP2006167873A patent/JP4815597B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2007333647A (en) | 2007-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4917351B2 (en) | Calibration method in three-dimensional shape measuring apparatus | |
JP6302219B2 (en) | MTF measuring apparatus and MTF measuring program | |
JP6083747B2 (en) | Position and orientation detection system | |
JP3837575B2 (en) | Speeding up of super-resolution processing | |
JP6716996B2 (en) | Image processing program, image processing apparatus, and image processing method | |
JP2016103095A (en) | Image processing device, image processing method and program | |
JP2011118553A (en) | Image processing apparatus, image processing method and computer program | |
JP5317250B2 (en) | Image processing method and image processing apparatus | |
JP5603798B2 (en) | Defect detection apparatus, defect detection method, and computer program | |
JP4815597B2 (en) | Image processing method, image processing apparatus, and image processing program | |
JP7434032B2 (en) | Information processing device, information processing method, and program | |
KR101627950B1 (en) | Image processing device, distortion correction map creation device, and semiconductor measurement device | |
JP6594170B2 (en) | Image processing apparatus, image processing method, image projection system, and program | |
JP2021018676A (en) | Information processor, information processing method, and program | |
JP2012008657A (en) | Apparatus and method for generating object shape | |
JP2009146150A (en) | Method and device for detecting feature position | |
JP2015114949A (en) | Image processor, image processing method, program for image processor, and recording medium | |
JP5620741B2 (en) | Information processing apparatus, information processing method, and program | |
JP6867766B2 (en) | Information processing device and its control method, program | |
JP5904168B2 (en) | Feature point extraction method and feature point extraction device for captured image | |
JP2011118554A (en) | Image processing apparatus, image processing method and computer program | |
JP2016176800A (en) | Displacement or strain calculating program, and displacement or strain measuring method | |
JP7393179B2 (en) | Photography equipment | |
JP6682167B2 (en) | Template matching device, method, and program | |
JP2012124598A (en) | Edge interpolation apparatus or method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090515 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110728 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110802 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |