JP2022144063A - Sensor-to-sensor error angle estimation method and position identification method - Google Patents
Sensor-to-sensor error angle estimation method and position identification method Download PDFInfo
- Publication number
- JP2022144063A JP2022144063A JP2021044905A JP2021044905A JP2022144063A JP 2022144063 A JP2022144063 A JP 2022144063A JP 2021044905 A JP2021044905 A JP 2021044905A JP 2021044905 A JP2021044905 A JP 2021044905A JP 2022144063 A JP2022144063 A JP 2022144063A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- error angle
- error
- state
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
Abstract
Description
本発明は、複数のセンサが搭載されたシステムに適用可能である。 The present invention is applicable to systems equipped with multiple sensors.
センサ間のアライメントを正確に測定しキャリブレーションすることは、センサフュージョンを行うシステムにおいて重要である。しかしながら、キャリブレーション後、システムを稼働する中で、センサ間のアライメントがある誤差角でずれてしまうことが考えられる。例えば、地上での位置同定システムではセンサデータを使用して求めたい行列を最小二乗法にて推定する手法が存在する。 Accurately measuring and calibrating the alignment between sensors is important in a system that performs sensor fusion. However, after calibration, it is conceivable that the alignment between the sensors will deviate by a certain error angle while the system is in operation. For example, in a ground position identification system, there is a method of estimating a desired matrix using the least squares method using sensor data.
しかしながら、前記手法では、特定のシステムにおける使用が保証されているが、センサ間誤差角を推定したい対象のシステムが変化した場合には、推定法の再構成が必要となる。それに対し、システムの内部演算プロセスまたは構成自体が変化した場合でも適用することができるセンサ間誤差角推定方法が求められている。 However, while the above approach is guaranteed to work in a particular system, the estimation method needs to be reconfigured if the system for which the sensor-to-sensor error angle is to be estimated changes. Accordingly, there is a need for a sensor-to-sensor error angle estimation method that can be applied even if the system's internal computational processes or the configuration itself changes.
上記を鑑み、本発明に係るセンサ間誤差角推定方法は、
第1のセンサと第2のセンサとの間のセンサ間誤差角を推定する方法であって、
搭載されている筐体の第1の状態を取得する第1のセンサ、および前記筐体における前記第1の状態とは異なる第2の状態を取得する第2のセンサが搭載された筐体の姿勢を変更する姿勢変更ステップと、
前記姿勢変更ステップの前後で前記第1のセンサと前記第2のセンサにより前記第1の状態と前記第2の状態を取得する状態取得ステップと、
前記状態取得ステップで取得した前記第1の状態および前記第2の状態に基づいて筐体の状態を推定する状態推定ステップと、
前記状態推定ステップで推定される推定値に対応する真値を取得する真値取得ステップと、
前記第1のセンサと前記第2のセンサ間に擬似的な誤差角を設定し、前記推定値と前記真値との間の推定誤差値を導出する推定誤差導出ステップと、
導出された前記推定誤差値を用いて、前記センサ間誤差角を導出するセンサ間誤差角推定ステップと
を含むことを特徴とする。
In view of the above, the inter-sensor error angle estimation method according to the present invention includes:
A method of estimating a sensor-to-sensor error angle between a first sensor and a second sensor, comprising:
A housing equipped with a first sensor that acquires a first state of a mounted housing and a second sensor that acquires a second state different from the first state of the housing. a posture change step for changing the posture;
a state acquiring step of acquiring the first state and the second state by the first sensor and the second sensor before and after the posture changing step;
a state estimation step of estimating a state of the housing based on the first state and the second state obtained in the state obtaining step;
a true value acquisition step of acquiring a true value corresponding to the estimated value estimated in the state estimation step;
an estimated error deriving step of setting a pseudo error angle between the first sensor and the second sensor and deriving an estimated error value between the estimated value and the true value;
and an inter-sensor error angle estimation step of deriving the inter-sensor error angle using the derived estimated error value.
本発明によれば、疑似的にセンサ間に誤差角を与えて、真値と推定値との推定誤差値を導出することで、推定値誤差を最小にする尤もらしいセンサ間誤差角を推定することにより、システムの内部演算プロセスまたは構成に依存せずにセンサ間誤差角の推定を行うことができる。 According to the present invention, a plausible inter-sensor error angle that minimizes the estimated value error is estimated by giving a pseudo error angle between sensors and deriving an estimated error value between the true value and the estimated value. This allows estimation of the sensor-to-sensor error angle independent of the internal computational processes or configuration of the system.
以下、本発明の好適な実施形態について説明を行う。なお、以下に説明する実施の形態は、特許請求の範囲に記載された本発明の内容を限定するものではない。また以下で説明される構成のすべてが本発明の必須構成要件であるとは限らない。以下センサ間の誤差角を推定する手法の一例として、惑星や衛星などの重力を有する星の上の探査機の位置を同定するシステムを例に挙げる。 Preferred embodiments of the present invention are described below. It should be noted that the embodiments described below do not limit the content of the present invention described in the claims. Moreover, not all the configurations described below are essential constituent elements of the present invention. As an example of the method of estimating the error angle between sensors, a system for identifying the position of a spacecraft on a star with gravity such as a planet or a satellite is taken as an example.
1 位置推定理論
1-1 位置推定システム構成
本実施形態における、星上の位置を同定するシステムの構成例は、図1、図2に示すようなものとなる。図 1に示す通り、自己位置同定機200は、加速度センサ3とスタートラッカー(STT)5を含み、各センサから得られた情報を処理する演算装置1によって、自己位置同定機200を搭載した探査機の星上の位置を推定する。このとき、星上の位置は、緯度経度情報を用いて定義する。
1 Position Estimation Theory 1-1 Position Estimation System Configuration An example of the configuration of a system for identifying a position on a star in this embodiment is as shown in FIGS. 1 and 2. FIG. As shown in FIG. 1, the self-
図1のシステムを構成する自己位置同定機200の一例としては、図2に示すように、加速度センサ3とSTT5を探査機の筐体300に搭載する構成が挙げられる。それぞれのセンサに座標系を定義し、加速度センサ(ACC)3に固定された座標系をACC座標系A、STT5に固定された座標系はSTT座標系Sとする。また本構成例においては、STT座標系Sと機体座標系は一致しているとする。仮に一致しない場合であっても、SST座標系Sで算出された結果を機体座標系に変換すれば良い。
As an example of the self-
後述するように、位置同定を行うためには座標系Sと座標系A間の回転行列が必要となる。しかしながら、様々な要因によって、各センサが機械的な取り付け誤差を生じることで、位置同定の精度に大きく影響を与える。このため、センサ間の回転行列を正確に推定することが要求される。ここで本構成例において、センサ間誤差角の定義はSTT座標系Sを基準とし、図2に示すように加速度センサ3のACC座標系AがACC座標系A’へと変化した角度として定義する。その他、詳細な構成などについては後述する。
As will be described later, a rotation matrix between the coordinate system S and the coordinate system A is required for position identification. However, various factors cause mechanical mounting errors in each sensor, which greatly affect the accuracy of position identification. Therefore, it is required to accurately estimate the rotation matrix between sensors. In this configuration example, the inter-sensor error angle is defined as an angle at which the ACC coordinate system A of the
1-2 重力ベクトルからの自己位置同定手法
まずは、上述した加速度センサ3のACC座標系A’へのズレを考慮せずに、本実施形態において、ある星上の探査機の緯度経度を、重力ベクトルを用いて推定する方法について説明する。この手法は、図3に示す星の固定座標系Cに対する重力加速度ベクトルgc=[gc
x, gc
y, gc
z]を計算し、以下の式を用いて緯度φと経度λを計算する。
重力加速度ベクトルは自己位置同定機200に搭載されている加速度センサ3の出力から得る。このとき、重力ベクトルは加速度センサ3のACC座標系Aで観測されたベクトルgAとなる。自己位置を推定するためには、加速度センサ3によって得られた重力ベクトルgAをACC座標系Aから星の固定座標系Cへ座標変換を行い、式(1)、(2)へ各軸方向の重力ベクトルの大きさを代入する必要がある。
A gravitational acceleration vector is obtained from the output of the
1-3 ACC座標系Aから星の固定座標系Cへの回転行列の導出
ACC座標系Aから星の固定座標系Cへの回転行列Rc/A は、慣性座標系Iから星の固定座標系Cへの回転行列Rc/Iと、ACC座標系Aから慣性座標系Iへの回転行列RI/Aを用いて、以下の式のように表される。なお、慣性座標系Iは、例えば地球における定義であればJ2000系などの基準座標系に代表される、各軸を空間に固定した座標系として定義されるものを使用することができるが、これに限られない。
式(3)は、グリニッジ恒星時ξとSTT座標系Sから慣性座標系Iへの回転行列RI/S 、ACC座標系AからSTT座標系Sへの回転行列RS/Aを用いて以下のように書き直すことができる。
ここで行列Rzはz軸回りの座標回転行列、行列RNPは歳差章動を考慮する回転行列である。図 1に示すクロック12から取得される時刻情報により、行列Rz(ξ)、行列RNP が算出される。また、行列RI/SはSTT5によって決定した姿勢情報から求まる行列である。行列RS/Aはあらかじめ計測したSTT5と加速度センサ3間の関係を表す回転行列である。これらセンサ情報から求められた回転行列を用いることで回転行列Rc/Aを求めることができる。回転行列Rc/Aと加速度センサ座標系Aで観測された重力方向ベクトルgAを用いて、星の固定座標系Cに対する重力方向ベクトル gcは以下のように計算する事ができる。
式(5)で求められた各軸の重力方向ベクトルの要素を式(1)、(2)に代入することで、自己位置同定システム100を搭載した探査機の星上の緯度経度が求められる。
By substituting the elements of the gravitational direction vector of each axis obtained by the expression (5) into the expressions (1) and (2), the latitude and longitude on the star of the spacecraft equipped with the self-
1-4 センサ間誤差角の考慮
精度良く位置同定を行うためには、式(4)において加速度センサ座標系AからSTT座標系Sへの回転行列RS/A を使用前に精度良く求めておくことが必要である。しかしながら、上述したように様々な要因(例えば振動等の要因)によりその回転行列が変化する可能性がある。つまり、STT5に対する加速度センサ3間の回転行列が行列RS/A からRS/A’ へと変化する(図2)。
1-4 Consideration of inter-sensor error angle In order to perform position identification with high accuracy, the rotation matrix R S/A from the acceleration sensor coordinate system A to the STT coordinate system S in Equation (4) must be obtained with high accuracy before use. It is necessary to leave However, as described above, the rotation matrix may change due to various factors (for example, factors such as vibration). That is, the rotation matrix between the
自己位置同定システム100を地球上で使用した場合、約0.01度の角度誤差は地上距離1.0km程度に相当するため、著しく自己位置同定の精度を低下させる。このため補正回転行列RA/A’ を使用時に推定し、星の固定座標系Cに対する重力方向ベクトルを以下の式のように補正回転行列RA/A’ を加えて計算する必要がある。
1-5 センサ間誤差角の推定手法
本実施形態では、センサ間誤差角行列ΔΘ=(Δθx, Δθy, Δθz) を推定する手法として、内部演算において疑似的にセンサ間誤差角行列ΔΘpを補正回転行列RA/A’に代入し、真値と推定値の推定誤差との関係を表す関数に用いられる行列を記録していく。例えば、RA/A’は以下の回転行列で表すことができる。
式(7)の補正回転行列RA/A’を含む本実施形態例である位置同定手法へ、取り付け誤差を有した加速度センサ3により測定される重力ベクトルgA’、STT5から得られる姿勢情報行列qを代入し、ある星上での位置を計算する。このとき、擬似的なセンサ間誤差角(擬似誤差角)ΔΘpは内部演算で変更され、取得した真の位置情報(ここでは緯度φTと経度λT)との推定誤差行列ΔPを最終的に出力する。なお、真の位置情報(真値)の取得については、例えば後述の相対VLBI法などが好適に用いられる。これら一連のプロセスを関数fと定義すると以下の式で表される。
この推定誤差行列ΔPと関数fへ入力した疑似誤差角行列ΔΘpの値の関係を関数で表す。式(8)から、例えば推定誤差行列ΔPと擬似誤差角ΔΘpの関係を以下のような線形方程式で表せるとすれば、次式のようになる。
この式(9)の関係を満たす係数行列G(q)2×3と行列H(q)2×1を導出することで、センサ間誤差角行列ΔΘを推定する。係数行列G(q)2×3と行列H(q)2×1は、STT5と加速度センサ3を搭載した筐体300の姿勢を変化させ、各姿勢情報行列q毎に計算される。つまり、加速度センサ3によってACC座標系A’に対する重力方向ベクトルgA’を、またSTT5においては、撮像した画像から抽出した星ベクトルと、あらかじめ内部に有している星カタログのデータを用いて推定される姿勢情報行列qを変化させながら、各姿勢で疑似誤差角行列ΔΘpを変化させ、係数行列G(q)2×3と行列H(q)2×1を計算し、記録する。求めたいセンサ間誤差角行列ΔΘは推定誤差行列ΔPが0となる値であるので、式9を変形し、以下の方程式をセンサ間誤差角ΔΘについて解くことで解を得る。
この場合、行列G-1 2n×3は行列G2n×3の疑似逆行列である。 In this case, the matrix G −1 2n×3 is the pseudo-inverse of the matrix G 2n×3 .
2 センサ間誤差角推定手法
2-1 位置同定手法におけるセンサ間誤差角推定法のフローチャート
図4は本実施形態に係る位置同定手法におけるセンサ間誤差角推定法を含めたフローチャートの例である。図4に示す手順の一例は、ある星上での自己位置同定システム100に搭載されている加速度センサ3とSTT5間に生じているセンサ間の各軸の誤差角を推定する手法が含まれる。
2 Inter-sensor Error Angle Estimation Method 2-1 Flowchart of Inter-sensor Error Angle Estimation Method in Position Identification Method FIG. 4 is an example of a flowchart including an inter-sensor error angle estimation method in the position identification method according to this embodiment. An example of the procedure shown in FIG. 4 includes a method of estimating the error angle of each axis between the
なお、この手法は、自己位置同定を目的としない、まったく異なるシステムに搭載することも可能である。例えば、この手法が対象とするシステムは、人工衛星や車など、複数のセンサ情報を用いてある状態を推定するシステムであり、その推定した状態の真値を取得する手段があること、加えてその姿勢依存性を考慮する場合は、システムの姿勢を変更する手段があればよい。 It should be noted that this technique can also be implemented in a completely different system that is not intended for self-localization. For example, the system targeted by this method is a system that estimates a certain state using information from multiple sensors such as satellites and vehicles. If the attitude dependency is taken into consideration, it is sufficient to have means to change the attitude of the system.
図4に示すように、まず加速度センサ3とSTT5を搭載した筐体300の姿勢行列qを予め設定された初期値q1に決める(ステップS1)。この筐体300の姿勢はジンバルなどの機構で変更ができるものであるとする。その後、擬似誤差角行列ΔΘpの初期値をステップS2においてx,y,zの各軸0度として、自己位置同定(ステップS3)による計算を行う。自己位置同定の詳細な処理については後述する。
As shown in FIG. 4, first, the orientation matrix q of the
次に、ステップS4において、現在の姿勢情報行列qに対しそれまでにステップS3で推定した位置と真値との推定誤差行列ΔPと擬似誤差角行列ΔΘpの関係を例えば線形関数ΔP=G(q)ΔΘp+H (q)(式(9))で近似し、係数行列G(q)と行列H(q)を導出する。これらの行列はステップS5において記憶部21に記録される。ステップS4、S5の詳細な処理についても後述する。
Next, in step S4, the relationship between the estimated error matrix ΔP and the pseudo-error angle matrix ΔΘp between the position estimated in step S3 and the true value for the current attitude information matrix q is calculated by, for example, a linear function ΔP=G( q) Approximate with ΔΘ p +H (q) (equation (9)) to derive coefficient matrix G(q) and matrix H(q). These matrices are recorded in the
ステップS6では、擬似誤差角行列ΔΘpに依存した推定誤差行列ΔPのデータをm組取得したか否かの判断を行う。この時点で、m組のデータを取得していない場合は、ステップS2の前に戻り、内部演算処理において、擬似誤差角行列ΔΘpを変更し、再度自己位置の推定を行う。この時、本実施形態におけるステップS2では、求めたい精度以下の刻み値で直前の値から変更することを繰り返す。求めたい精度以下での刻み値で変更を加えていくことで、擬似誤差角行列ΔΘpに対応した出力値(本構成例では推定誤差行列ΔP)の変化の分解能を上げる効果が得られる。 In step S6, it is determined whether or not m sets of data of the estimated error matrix ΔP dependent on the pseudo error angular matrix ΔΘ p have been acquired. At this point, if m sets of data have not been acquired, the process returns to step S2, changes the pseudo error angle matrix ΔΘ p in the internal arithmetic processing, and estimates the self-position again. At this time, in step S2 in the present embodiment, the value is repeatedly changed from the immediately preceding value by a step value equal to or less than the desired accuracy. By making changes in increments below the desired accuracy, it is possible to obtain the effect of increasing the resolution of changes in the output value (estimated error matrix ΔP in this configuration example) corresponding to the pseudo error angular matrix ΔΘ p .
一般的に、位置同定手法の例では、筐体300の姿勢が変化することが考えられる。本実施形態においては、自己位置同定システム100を搭載した探査機が傾斜した際のデータも考慮したセンサ間誤差角行列ΔΘを導出するため、姿勢依存のデータをn組取得する。このため、ステップS7においては、姿勢依存のデータをn組取得しているかどうかを判定する。
Generally, in the example of the position identification method, it is conceivable that the posture of the
この判定処理において、姿勢依存のデータがn組取得されていなければステップS1の前に戻り、筐体300の姿勢をジンバル4によって変更する。具体的には、駆動機構制御部40により予め決められた角度だけ姿勢変更するための指令を出力し、駆動機構41を駆動することで姿勢を変更する。
In this determination processing, if n sets of attitude-dependent data have not been acquired, the process returns to step S1 and the attitude of the
姿勢変更後、ステップS2の内部演算処理において、擬似誤差角行列ΔΘpを再度各軸0度に再設定し、自己位置同定プロセスの計算を行う。これらのデータ数は、擬似誤差角行列ΔΘpに対する推定値と真値との推定誤差行列ΔPの関係を表すことができるデータ数を十分に取得できるかで決定される。データ数の設定に関しては、擬似誤差角行列ΔΘpが推定誤差行列ΔPと線形の関係にあれば、強い非線形の関係にある場合に比べて多くのデータ数を必要としない。このデータ数は、自己位置同定システム100を使用するユーザによってあらかじめ設定されても良い。
After changing the attitude, in the internal calculation processing in step S2, the pseudo error angle matrix ΔΘ p is reset to 0 degrees for each axis, and the self-localization process is calculated. The number of these data is determined by whether or not a sufficient number of data can be obtained to represent the relationship between the estimated value and the true value of the estimated error matrix ΔP for the pseudo error angular matrix ΔΘ p . Regarding the setting of the number of data, if the pseudo error angle matrix ΔΘ p is in a linear relationship with the estimated error matrix ΔP, a large number of data is not required compared to the case of a strong nonlinear relationship. This number of data may be preset by the user using the self-
図4の例の場合であれば、擬似誤差角行列ΔΘpに依存したデータ数がm組取得され、それらの値に基づいて線形関数ΔP=GΔΘp+H が推定される。 In the example of FIG. 4, m sets of data depending on the pseudo-error angular matrix ΔΘ p are obtained, and the linear function ΔP=GΔΘ p +H is estimated based on these values.
一方、筐体300の姿勢依存のデータ数はn組取得されるので、擬似誤差角行列ΔΘpと推定誤差行列ΔPの関係を示す係数行列Gと行列Hの最終的なサイズは2n×3と2n×1 となる。最終的に求められた係数行列Gと行列Hは、ステップS6とS7での条件判定がなされ、ステップS8において使用される。
On the other hand, since n sets of attitude-dependent data of the
ステップS8では、これまでに得られた2n×3の係数行列Gと2n×1の行列Hを用いて、式(10)に基づき推定値と真値との推定誤差行列ΔPが0となるセンサ間誤差角行列ΔΘを求める。 In step S8, using the 2n × 3 coefficient matrix G and the 2n × 1 matrix H obtained so far, sensor Calculate the error angle matrix ΔΘ.
なお、上記の説明においては、ステップS4、S5において変換行列(係数行列G(q)と行列H(q))の導出とデータ保持を行う例について説明したが、タイミングはこれに限られず、ステップS6でデータをm組取得したと判定したあとで、実行するように構成しても良いし、ステップS7に遷移するまでは取得したデータの保持のみを行い、ステップS7で姿勢依存のデータをn組取得したあとで、n組分の変換行列をまとめて導出しても良い。 In the above description, an example of deriving the transformation matrix (coefficient matrix G(q) and matrix H(q)) and holding the data in steps S4 and S5 was described, but the timing is not limited to this. After it is determined that m sets of data have been acquired in S6, it may be configured to be executed. After acquiring the pairs, the transformation matrices for n pairs may be derived collectively.
図5は図4の自己位置同定プロセス(ステップS3)の手順の一例を示すフローチャート図である。この例では、ステップS11において、時刻が取得される。この時刻は、システム内に設けられたクロック12などから取得される、もしくは外部から取得することができるように構成される。ステップS12(状態取得ステップ)では自己位置同定に必要となる加速度センサ3によって取得される重力ベクトル、加えてSTT5によって決定される慣性座標系Iに対する姿勢情報行列qを取得する。このとき、各センサからのデータを所定のサンプリング時間で取得する。
FIG. 5 is a flow chart showing an example of the self-localization process (step S3) of FIG. In this example, time is acquired in step S11. This time is obtained from a
ステップS13では、センサデータのノイズを除去するためにフィルタリングを行う。2つのセンサ間のサンプリング周波数が異なり、ダウンサンプリングが必要となる場合には、エイリアシングを考慮したフィルターが適用される。 In step S13, filtering is performed to remove noise in the sensor data. If the sampling frequencies between the two sensors are different and downsampling is required, an aliasing filter is applied.
ステップS14では取得された時刻、慣性座標系Iに対するSTT座標系Sの姿勢情報行列q、STT座標系Sと加速センサ座標系A間の座標変換行列Rc/Aを用いて、加速度センサ座標系Aから星の固定座標系Cへの座標変換行列Rc/Aを式(4)に基づいて導出する。 In step S14, using the obtained time, the attitude information matrix q of the STT coordinate system S with respect to the inertial coordinate system I, and the coordinate transformation matrix R c/A between the STT coordinate system S and the acceleration sensor coordinate system A, the acceleration sensor coordinate system A coordinate transformation matrix R c/A from A to the fixed coordinate system C of the star is derived based on equation (4).
この座標変換行列Rc/Aと補正回転行列RA/A’を用いてステップS15において加速度センサ座標系A’にて求められた重力方向ベクトルgA’を式(6)に基づいて星の固定座標系Cへ変換し、重力方向ベクトルgcを算出する。この時、センサ間誤差角行列ΔΘの推定を行う場合には、補正回転行列RA/A’は、ステップS4でNoとなることによりステップS2にて逐次変更される。位置同定手法を用いて純粋な位置推定を行う(本来の目的である、探査機の位置を同定するために実際に用いられる)場合には、一連のセンサ間誤差角推定手法によって推定されたセンサ間誤差角行列ΔΘから求められる行列RA/A’がステップS15にて用いられる。ステップS16(状態推定ステップ)では、星の固定座標系に対する重力ベクトルを用いて、筐体300を搭載した探査機の位置を式(1)、(2)を用いて推定する。
Using this coordinate transformation matrix R c /A and the corrected rotation matrix R A /A' , the direction of gravity vector g A' obtained in the acceleration sensor coordinate system A' in step S15 is calculated as Convert to the fixed coordinate system C, and calculate the gravitational direction vector g c . At this time, when estimating the inter-sensor error angle matrix ΔΘ, the corrected rotation matrix R A/A′ is changed sequentially in step S2 as the result of No in step S4. In the case of pure position estimation using localization techniques (which is actually used to identify the position of the rover, which is its original purpose), the sensors estimated by a series of sensor-to-sensor error angle estimation techniques A matrix R A/A' obtained from the inter-angle error angle matrix ΔΘ is used in step S15. In step S16 (state estimation step), the position of the spacecraft on which the
図6は図4のステップS6における変換行列導出プロセスの手順の一例を示すフローチャート図である。この例では、ステップS21(真値取得ステップ)において、推定値に対応する真値を取得する。ステップS22(推定誤差導出ステップ)では、推定値と真値の推定誤差値である推定誤差行列ΔPを計算する。ステップS23において、推定値と真値の推定誤差行列ΔPと疑似的に図3のステップS2で変動させた擬似誤差角行列ΔΘpを用いて係数行列Gと行列Hを計算する。 FIG. 6 is a flow chart showing an example of the transformation matrix derivation process in step S6 of FIG. In this example, in step S21 (true value acquisition step), a true value corresponding to the estimated value is acquired. In step S22 (estimated error derivation step), an estimated error matrix ΔP, which is an estimated error value between the estimated value and the true value, is calculated. In step S23, the coefficient matrix G and the matrix H are calculated using the estimated error matrix ΔP of the estimated values and the true values and the pseudo error angular matrix ΔΘ p that was pseudo-varied in step S2 of FIG.
図7は図4のステップS5におけるデータ保持プロセスの手順の一例を示すフローチャート図である。この例では、ステップS31で図6のステップS23で計算された係数行列G(q)と行列H(q)を記憶部21に書き込む。ステップS33においては、これまでにステップS31で記憶部21に記録された係数行列G(q)と行列H(q)をそれぞれ結合したものを出力し、図4のステップS6とS7の判定処理を通過する時点では、最終的に2n×3の係数行列Gと2n×1の行列Hが出力されていることになる。なお、ステップS31で記憶部21に係数行列G(q)と行列H(q)を書き込む際に、最初からそれまでの係数行列G(q)と行列H(q)のそれぞれを結合したものとして書き込んでも良い。
FIG. 7 is a flow chart showing an example of the procedure of the data holding process in step S5 of FIG. In this example, the coefficient matrix G(q) and the matrix H(q) calculated in step S23 of FIG. 6 are written in the
2-2 位置同定手法におけるシステム構成
図1は、本実施形態の自己位置同定システム100の構成例を示す図である。図2に示すように、本実施形態では、加速度センサ3とSTT5間のセンサ間誤差角行列ΔΘをセンサ間誤差角推定部2によって推定するものについて説明したが、他の態様として、第1のセンサと第2のセンサとの間の誤差角を推定するものについて適用可能である。本構成例においてはそのセンサ間誤差角行列ΔΘと加速度センサ3、STT5、とクロック12から取得されるデータを用い、上述した方法で自己位置を推定する。自己位置同定演算装置1は、通信情報処理部10、自己位置推定部11、クロック12、信号処理部13によって構成される。
2-2 System Configuration in Localization Method FIG. 1 is a diagram showing a configuration example of a self-
自己位置同定演算装置1は、図2に示すように自己位置同定機200の筐体300に搭載されている加速度センサ3の想定しているACC座標系A(第1のセンサ座標系)と実際の加速度センサのACC座標系A’(ずれ後の第1のセンサ座標系)との間のずれ角であるセンサ間誤差角行列ΔΘを推定する。このとき、センサ間誤差角ΔΘの定義は、予め設定(算出)されたSTT座標系Sに対するACC座標系Aがなす角度が、ACC座標系A’へと変化した角度(ずれ角)として定義する。
The self-
加速度センサ3は、互いに交差し、理想的には直交する3軸方向の加速度のアナログ信号を出力する。なお、他の態様における第1のセンサとしては加速度センサ3に限らず、重力方向ベクトルgA’を出力することが可能であればよい。
The
STT5は撮像センサ50と、取得した画像を処理する画像処理部52と、画像から得られたデータを用いて慣性座標系に対するSTT座標系Sの姿勢を演算して決定する姿勢決定部51を含む。他の態様における第2のセンサとしては、STTではなく、カメラと画像処理から姿勢決定までを行うことが可能である演算処理部の組み合わせであってもよい。また画像処理等の処理系は位置同定演算装置1に含まれていてもよい。
The
信号処理部13は、センサからのデータをある周期で取得し、ディジタル値への変換処理を行う。2つのセンサのサンプリング周波数を同期させるため、片方若しくは両方のセンサデータのダウンサンプリングを行う必要がある場合には、ローパスフィルタによる処理を行う。ノイズの影響を軽減するためのバタワースフィルターや拡張カルマンフィルタ等の処理も含まれる。
The
ジンバル4は、自己位置同定機200の姿勢を変更させるための駆動機構41と、駆動機構41の制御を所定のタイミングで行う駆動機構制御部40を含む。自己位置同定機200の姿勢を変更することが可能であれば必ずしも前述した駆動機構41を含むジンバル4である必要はなく、所望の姿勢変更手段を適用可能である。
The
送受信部6は、アンテナ7からの信号を処理する復調器/変調器やフィルターを含む。また通信情報処理部10は、受信/送信する信号を所望のデータに変換する。センサ間誤差角を推定する際に必要とされる真の位置を取得する際には、例えば相対VLBIを用いた手法を採用することができる。この手法では、自己位置同定機200は、特定の電波をアンテナ7から地球局へ送信し、地球上の複数のアンテナで送信した信号と基準となる星からの電波を交互に取得することで高精度な位置決定(星上での緯度経度)を行うことができる。位置決定がされた後、地球局から星上の探査機にデータが送信される。地球局から送信された真の位置情報を取得するために、通信情報処理部10を介して、そのデータはセンサ間誤差角推定部2に含まれる処理部20へ入力される。処理部20では、この情報を用いて図4に示した演算処理が行われる。なお、図1では、通信情報処理部10は自己位置同定演算装置1に含まれているが、位置情報を取得し演算までを行う処理系を位置同定演算装置1とは別の系として組み合わせてもよい。
The transmitting/receiving section 6 includes a demodulator/modulator and filters for processing signals from the
3 変形例
上述したように、本実施形態のセンサ間誤差角推定手法の対象は、自己位置同定システムである必要はなく、第1のセンサおよび第2のセンサも、加速度センサとSTTには限られない。上述した実施形態では、ある星上における自己位置同定システムを例に挙げ、加速度センサとSTT間の誤差角を推定する手順を示したが、人工衛星や車両といった星上を移動する移動体に搭載される複数のセンサ情報を用いて移動体の位置を含む状態を推定するシステムであればよい。
3 Modifications As described above, the target of the inter-sensor error angle estimation method of the present embodiment does not have to be the self-localization system, and the first sensor and the second sensor are limited to the acceleration sensor and the STT. can't In the above-described embodiment, the procedure for estimating the error angle between the acceleration sensor and the STT was shown using a self-localization system on a certain star as an example. Any system may be used as long as it estimates the state including the position of a moving object using a plurality of sensor information obtained.
1:自己位置同定演算装置、2:センサ間誤差角推定部、3:加速度センサ、4:ジンバル、5:スタートラッカー(STT)、6:送受信部、7:アンテナ、10:通信情報処理部、11:自己位置推定部、12:クロック、13:信号処理部、20:処理部、21:記憶部、40:駆動機構制御部、41:駆動機構、50:撮像センサ、51:姿勢決定部、52:画像処理部、100:自己位置同定システム、200:自己位置同定機、300:筐体
1: self-localization arithmetic unit, 2: inter-sensor error angle estimation unit, 3: acceleration sensor, 4: gimbal, 5: star tracker (STT), 6: transmission/reception unit, 7: antenna, 10: communication information processing unit, 11: self-position estimation unit, 12: clock, 13: signal processing unit, 20: processing unit, 21: storage unit, 40: drive mechanism control unit, 41: drive mechanism, 50: imaging sensor, 51: attitude determination unit, 52: Image processing unit, 100: Self-localization system, 200: Self-localization machine, 300: Housing
Claims (7)
搭載されている筐体の第1の状態を取得する第1のセンサ、および前記筐体における前記第1の状態とは異なる第2の状態を取得する第2のセンサが搭載された筐体の姿勢を変更する姿勢変更ステップと、
前記姿勢変更ステップの前後で前記第1のセンサと前記第2のセンサにより前記第1の状態と前記第2の状態を取得する状態取得ステップと、
前記状態取得ステップで取得した前記第1の状態および前記第2の状態に基づいて筐体の状態を推定する状態推定ステップと、
前記状態推定ステップで推定される推定値に対応する真値を取得する真値取得ステップと、
前記第1のセンサと前記第2のセンサ間に擬似的な誤差角を設定し、前記推定値と前記真値との間の推定誤差値を導出する推定誤差導出ステップと、
導出された前記推定誤差値を用いて、前記センサ間誤差角を導出するセンサ間誤差角推定ステップと
を含むことを特徴とするセンサ間誤差角推定方法。 A method of estimating a sensor-to-sensor error angle between a first sensor and a second sensor, comprising:
A housing equipped with a first sensor that acquires a first state of a mounted housing and a second sensor that acquires a second state different from the first state of the housing. a posture change step for changing the posture;
a state acquiring step of acquiring the first state and the second state by the first sensor and the second sensor before and after the posture changing step;
a state estimation step of estimating a state of the housing based on the first state and the second state obtained in the state obtaining step;
a true value acquisition step of acquiring a true value corresponding to the estimated value estimated in the state estimation step;
an estimated error deriving step of setting a pseudo error angle between the first sensor and the second sensor and deriving an estimated error value between the estimated value and the true value;
and an inter-sensor error angle estimation step of deriving the inter-sensor error angle using the derived estimated error value.
前記擬似的な誤差角の値を複数の異なる値に設定し、前記推定誤差導出ステップを複数回繰り返し実行し、
それによって得られた複数の前記推定誤差値に基づいて前記センサ間誤差角を導出することを特徴とする請求項3に記載のセンサ間誤差角推定方法。 executing the posture changing step multiple times, and accordingly executing the state obtaining step multiple times;
setting the value of the pseudo error angle to a plurality of different values, repeatedly performing the estimated error derivation step a plurality of times;
4. The inter-sensor error angle estimation method according to claim 3, wherein the inter-sensor error angle is derived based on the plurality of estimated error values obtained thereby.
前記行列を記憶部に記憶する記憶ステップと
を含み、
前記センサ間誤差角推定ステップにおいては、前記記憶部に記憶された前記行列に基づいて、前記真値と前記推定誤差値との誤差を0にするような誤差角を計算することで、前記センサ間誤差角を導出することを特徴とする請求項1から4のいずれか一項に記載のセンサ間誤差角推定方法。 a matrix calculation step of calculating a matrix representing a relationship between the estimated error value derived in the estimated error deriving step and the pseudo error angle used for deriving the estimated error value;
a storage step of storing the matrix in a storage unit;
In the inter-sensor error angle estimation step, based on the matrix stored in the storage unit, by calculating an error angle that makes an error between the true value and the estimated error value zero, the sensor 5. The inter-sensor error angle estimation method according to claim 1, wherein an inter-sensor error angle is derived.
Position identification characterized by identifying the position of the housing based on the inter-sensor error angle estimated using the inter-sensor error angle estimation method according to any one of claims 1 to 6 Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021044905A JP2022144063A (en) | 2021-03-18 | 2021-03-18 | Sensor-to-sensor error angle estimation method and position identification method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021044905A JP2022144063A (en) | 2021-03-18 | 2021-03-18 | Sensor-to-sensor error angle estimation method and position identification method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022144063A true JP2022144063A (en) | 2022-10-03 |
Family
ID=83453679
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021044905A Pending JP2022144063A (en) | 2021-03-18 | 2021-03-18 | Sensor-to-sensor error angle estimation method and position identification method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022144063A (en) |
-
2021
- 2021-03-18 JP JP2021044905A patent/JP2022144063A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109163721B (en) | Attitude measurement method and terminal equipment | |
CN113203418B (en) | GNSSINS visual fusion positioning method and system based on sequential Kalman filtering | |
EP2557394B1 (en) | System for processing pulse signals within an inertial navigation system | |
US7979231B2 (en) | Method and system for estimation of inertial sensor errors in remote inertial measurement unit | |
EP3411725B1 (en) | A method and device for calibration of a three-axis magnetometer | |
CN111149002B (en) | Method for calibrating a magnetometer | |
CN105783922B (en) | method for determining a heading for a hybrid navigation system with magnetometer assistance | |
EP3491334B1 (en) | Method and system for calibrating components of an inertial measurement unit (imu) using scene-captured data | |
US8019544B2 (en) | Real-time refinement method of spacecraft star tracker alignment estimates | |
CN106500693B (en) | A kind of AHRS algorithm based on adaptive extended kalman filtering | |
EP1585939A2 (en) | Attitude change kalman filter measurement apparatus and method | |
GB2576569A (en) | Inertial navigation system | |
Li et al. | A low-cost attitude heading reference system by combination of GPS and magnetometers and MEMS inertial sensors for mobile applications | |
KR20180119083A (en) | Apparatus and method for image navigation and registration of geostationary remote sensing satellites | |
JP7025215B2 (en) | Positioning system and positioning method | |
CN113267794B (en) | Antenna phase center correction method and device with base line length constraint | |
CN114754798A (en) | On-orbit identification and calibration method for gyro error characteristic parameters | |
US9217639B1 (en) | North-finding using inertial navigation system | |
US11073397B2 (en) | Magnetic-inertial global positioning system | |
CN105549058B (en) | The coupling process and system of atomic clock, Micro Inertial Measurement Unit and navigation system | |
JP2022144063A (en) | Sensor-to-sensor error angle estimation method and position identification method | |
KR101941009B1 (en) | Attitude and heading reference system and unmaned vehicle including the attitude and heading refernce system | |
JP2024507381A (en) | Method for determining at least one system state using Kalman filter | |
Giribet et al. | Vision-based integrated navigation system and optimal allocation in formation flying | |
JPH11325951A (en) | Method and device for determining orbit with attitude sensor of space navigating object |