[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2022144063A - Sensor-to-sensor error angle estimation method and position identification method - Google Patents

Sensor-to-sensor error angle estimation method and position identification method Download PDF

Info

Publication number
JP2022144063A
JP2022144063A JP2021044905A JP2021044905A JP2022144063A JP 2022144063 A JP2022144063 A JP 2022144063A JP 2021044905 A JP2021044905 A JP 2021044905A JP 2021044905 A JP2021044905 A JP 2021044905A JP 2022144063 A JP2022144063 A JP 2022144063A
Authority
JP
Japan
Prior art keywords
sensor
error angle
error
state
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021044905A
Other languages
Japanese (ja)
Inventor
拓馬 柴田
Takuma Shibata
佳人 丹羽
Yoshito Niwa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Electronics Inc
Original Assignee
Canon Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Electronics Inc filed Critical Canon Electronics Inc
Priority to JP2021044905A priority Critical patent/JP2022144063A/en
Publication of JP2022144063A publication Critical patent/JP2022144063A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

To provide a method for estimating an error angle between sensors from information derived by using values detected by sensors without depending on arithmetic processing inside a system.SOLUTION: A sensor-to-sensor error angle estimation method includes acquiring the states before and after attitude change by using a first sensor and a second sensor mounted for estimating the state of a system, and calculating an estimated error value between the calculated state of the system and a true value to estimate an error angle between the sensors. The method includes varying the error angle in a pseudo manner through internal arithmetic processing and approximating, by a function, the variation relationship of the calculated state of the system with the true value. The method includes, by using the approximated function, solving the function so that the error between the calculated value and the true value becomes 0 to estimate the sensor-to-sensor error angle.SELECTED DRAWING: Figure 4

Description

本発明は、複数のセンサが搭載されたシステムに適用可能である。 The present invention is applicable to systems equipped with multiple sensors.

センサ間のアライメントを正確に測定しキャリブレーションすることは、センサフュージョンを行うシステムにおいて重要である。しかしながら、キャリブレーション後、システムを稼働する中で、センサ間のアライメントがある誤差角でずれてしまうことが考えられる。例えば、地上での位置同定システムではセンサデータを使用して求めたい行列を最小二乗法にて推定する手法が存在する。 Accurately measuring and calibrating the alignment between sensors is important in a system that performs sensor fusion. However, after calibration, it is conceivable that the alignment between the sensors will deviate by a certain error angle while the system is in operation. For example, in a ground position identification system, there is a method of estimating a desired matrix using the least squares method using sensor data.

An accuracy of better than 200m in positioning using a portable star tracker, Meysam Izadmehr, and Mehdi Khakian Ghomi, New Astronomy, Vol.74, 2020, doi:10.1016/j.newast.2019.04.004.An accuracy of better than 200m in positioning using a portable star tracker, Meysam Izadmehr, and Mehdi Khakian Ghomi, New Astronomy, Vol.74, 2020, doi:10.1016/j.newast.2019.04.004.

しかしながら、前記手法では、特定のシステムにおける使用が保証されているが、センサ間誤差角を推定したい対象のシステムが変化した場合には、推定法の再構成が必要となる。それに対し、システムの内部演算プロセスまたは構成自体が変化した場合でも適用することができるセンサ間誤差角推定方法が求められている。 However, while the above approach is guaranteed to work in a particular system, the estimation method needs to be reconfigured if the system for which the sensor-to-sensor error angle is to be estimated changes. Accordingly, there is a need for a sensor-to-sensor error angle estimation method that can be applied even if the system's internal computational processes or the configuration itself changes.

上記を鑑み、本発明に係るセンサ間誤差角推定方法は、
第1のセンサと第2のセンサとの間のセンサ間誤差角を推定する方法であって、
搭載されている筐体の第1の状態を取得する第1のセンサ、および前記筐体における前記第1の状態とは異なる第2の状態を取得する第2のセンサが搭載された筐体の姿勢を変更する姿勢変更ステップと、
前記姿勢変更ステップの前後で前記第1のセンサと前記第2のセンサにより前記第1の状態と前記第2の状態を取得する状態取得ステップと、
前記状態取得ステップで取得した前記第1の状態および前記第2の状態に基づいて筐体の状態を推定する状態推定ステップと、
前記状態推定ステップで推定される推定値に対応する真値を取得する真値取得ステップと、
前記第1のセンサと前記第2のセンサ間に擬似的な誤差角を設定し、前記推定値と前記真値との間の推定誤差値を導出する推定誤差導出ステップと、
導出された前記推定誤差値を用いて、前記センサ間誤差角を導出するセンサ間誤差角推定ステップと
を含むことを特徴とする。
In view of the above, the inter-sensor error angle estimation method according to the present invention includes:
A method of estimating a sensor-to-sensor error angle between a first sensor and a second sensor, comprising:
A housing equipped with a first sensor that acquires a first state of a mounted housing and a second sensor that acquires a second state different from the first state of the housing. a posture change step for changing the posture;
a state acquiring step of acquiring the first state and the second state by the first sensor and the second sensor before and after the posture changing step;
a state estimation step of estimating a state of the housing based on the first state and the second state obtained in the state obtaining step;
a true value acquisition step of acquiring a true value corresponding to the estimated value estimated in the state estimation step;
an estimated error deriving step of setting a pseudo error angle between the first sensor and the second sensor and deriving an estimated error value between the estimated value and the true value;
and an inter-sensor error angle estimation step of deriving the inter-sensor error angle using the derived estimated error value.

本発明によれば、疑似的にセンサ間に誤差角を与えて、真値と推定値との推定誤差値を導出することで、推定値誤差を最小にする尤もらしいセンサ間誤差角を推定することにより、システムの内部演算プロセスまたは構成に依存せずにセンサ間誤差角の推定を行うことができる。 According to the present invention, a plausible inter-sensor error angle that minimizes the estimated value error is estimated by giving a pseudo error angle between sensors and deriving an estimated error value between the true value and the estimated value. This allows estimation of the sensor-to-sensor error angle independent of the internal computational processes or configuration of the system.

誤差角推定手法を含む位置同定システムの構成例を示す図。The figure which shows the structural example of the position identification system containing the error angle estimation method. 図1の構成例におけるセンサ座標系について説明するための図。FIG. 2 is a diagram for explaining a sensor coordinate system in the configuration example of FIG. 1; 重力方向ベクトルと緯度経度の関係を示す図。The figure which shows the relationship between a gravity direction vector and latitude longitude. 位置同定システムにおけるセンサ間誤差角推定手法のフローチャート。4 is a flowchart of an inter-sensor error angle estimation method in a position identification system; 図4のステップS3の手順の一例を示すフローチャート。FIG. 5 is a flowchart showing an example of the procedure of step S3 in FIG. 4; FIG. 図4のステップS6の手順の一例を示すフローチャート。FIG. 5 is a flowchart showing an example of the procedure of step S6 in FIG. 4; FIG. 図4のステップS7の手順の一例を示すフローチャート。FIG. 5 is a flowchart showing an example of the procedure of step S7 in FIG. 4; FIG.

以下、本発明の好適な実施形態について説明を行う。なお、以下に説明する実施の形態は、特許請求の範囲に記載された本発明の内容を限定するものではない。また以下で説明される構成のすべてが本発明の必須構成要件であるとは限らない。以下センサ間の誤差角を推定する手法の一例として、惑星や衛星などの重力を有する星の上の探査機の位置を同定するシステムを例に挙げる。 Preferred embodiments of the present invention are described below. It should be noted that the embodiments described below do not limit the content of the present invention described in the claims. Moreover, not all the configurations described below are essential constituent elements of the present invention. As an example of the method of estimating the error angle between sensors, a system for identifying the position of a spacecraft on a star with gravity such as a planet or a satellite is taken as an example.

1 位置推定理論
1-1 位置推定システム構成
本実施形態における、星上の位置を同定するシステムの構成例は、図1、図2に示すようなものとなる。図 1に示す通り、自己位置同定機200は、加速度センサ3とスタートラッカー(STT)5を含み、各センサから得られた情報を処理する演算装置1によって、自己位置同定機200を搭載した探査機の星上の位置を推定する。このとき、星上の位置は、緯度経度情報を用いて定義する。
1 Position Estimation Theory 1-1 Position Estimation System Configuration An example of the configuration of a system for identifying a position on a star in this embodiment is as shown in FIGS. 1 and 2. FIG. As shown in FIG. 1, the self-localization machine 200 includes an acceleration sensor 3 and a star tracker (STT) 5, and the calculation device 1 that processes the information obtained from each sensor is used to operate the self-localization machine 200. Estimate the planetary position of the machine. At this time, the position on the star is defined using latitude and longitude information.

図1のシステムを構成する自己位置同定機200の一例としては、図2に示すように、加速度センサ3とSTT5を探査機の筐体300に搭載する構成が挙げられる。それぞれのセンサに座標系を定義し、加速度センサ(ACC)3に固定された座標系をACC座標系A、STT5に固定された座標系はSTT座標系Sとする。また本構成例においては、STT座標系Sと機体座標系は一致しているとする。仮に一致しない場合であっても、SST座標系Sで算出された結果を機体座標系に変換すれば良い。 As an example of the self-localization device 200 that constitutes the system of FIG. 1, there is a configuration in which the acceleration sensor 3 and the STT 5 are mounted on the casing 300 of the probe, as shown in FIG. A coordinate system is defined for each sensor, and the coordinate system fixed to the acceleration sensor (ACC) 3 is defined as an ACC coordinate system A, and the coordinate system fixed to the STT 5 is defined as an STT coordinate system. Also, in this configuration example, the STT coordinate system S and the body coordinate system are assumed to match. Even if they do not match, the results calculated in the SST coordinate system S can be converted into the body coordinate system.

後述するように、位置同定を行うためには座標系Sと座標系A間の回転行列が必要となる。しかしながら、様々な要因によって、各センサが機械的な取り付け誤差を生じることで、位置同定の精度に大きく影響を与える。このため、センサ間の回転行列を正確に推定することが要求される。ここで本構成例において、センサ間誤差角の定義はSTT座標系Sを基準とし、図2に示すように加速度センサ3のACC座標系AがACC座標系A’へと変化した角度として定義する。その他、詳細な構成などについては後述する。 As will be described later, a rotation matrix between the coordinate system S and the coordinate system A is required for position identification. However, various factors cause mechanical mounting errors in each sensor, which greatly affect the accuracy of position identification. Therefore, it is required to accurately estimate the rotation matrix between sensors. In this configuration example, the inter-sensor error angle is defined as an angle at which the ACC coordinate system A of the acceleration sensor 3 changes to the ACC coordinate system A' as shown in FIG. . Other details such as the configuration will be described later.

1-2 重力ベクトルからの自己位置同定手法
まずは、上述した加速度センサ3のACC座標系A’へのズレを考慮せずに、本実施形態において、ある星上の探査機の緯度経度を、重力ベクトルを用いて推定する方法について説明する。この手法は、図3に示す星の固定座標系Cに対する重力加速度ベクトルgc=[gc x, gc y, gc z]を計算し、以下の式を用いて緯度φと経度λを計算する。

Figure 2022144063000002
Figure 2022144063000003
1-2 Method of Self-Position Identification from Gravity Vector A method of estimation using vectors will be described. This method calculates the gravitational acceleration vector g c =[g c x, g c y, g c z ] with respect to the fixed coordinate system C of the star shown in FIG. calculate.
Figure 2022144063000002
Figure 2022144063000003

重力加速度ベクトルは自己位置同定機200に搭載されている加速度センサ3の出力から得る。このとき、重力ベクトルは加速度センサ3のACC座標系Aで観測されたベクトルgAとなる。自己位置を推定するためには、加速度センサ3によって得られた重力ベクトルgAをACC座標系Aから星の固定座標系Cへ座標変換を行い、式(1)、(2)へ各軸方向の重力ベクトルの大きさを代入する必要がある。 A gravitational acceleration vector is obtained from the output of the acceleration sensor 3 mounted on the self-localization machine 200 . At this time, the gravitational vector becomes the vector g A observed in the ACC coordinate system A of the acceleration sensor 3 . In order to estimate the self-position, the gravitational vector g A obtained by the acceleration sensor 3 is coordinate-transformed from the ACC coordinate system A to the fixed coordinate system C of the star, and the respective axial directions are converted to the equations (1) and (2). must be substituted with the magnitude of the gravitational vector of .

1-3 ACC座標系Aから星の固定座標系Cへの回転行列の導出
ACC座標系Aから星の固定座標系Cへの回転行列Rc/A は、慣性座標系Iから星の固定座標系Cへの回転行列Rc/Iと、ACC座標系Aから慣性座標系Iへの回転行列RI/Aを用いて、以下の式のように表される。なお、慣性座標系Iは、例えば地球における定義であればJ2000系などの基準座標系に代表される、各軸を空間に固定した座標系として定義されるものを使用することができるが、これに限られない。

Figure 2022144063000004
1-3 Derivation of rotation matrix from ACC coordinate system A to fixed star coordinate system C Rotation matrix R c/A from ACC coordinate system A to fixed star coordinate system C Using the rotation matrix R c/I to the system C and the rotation matrix R I/ A from the ACC coordinate system A to the inertial coordinate system I, it is represented by the following equation. Inertial coordinate system I can be defined as a coordinate system in which each axis is fixed in space, represented by a reference coordinate system such as the J2000 system if defined on the earth. is not limited to
Figure 2022144063000004

式(3)は、グリニッジ恒星時ξとSTT座標系Sから慣性座標系Iへの回転行列RI/S 、ACC座標系AからSTT座標系Sへの回転行列RS/Aを用いて以下のように書き直すことができる。

Figure 2022144063000005
Using the Greenwich sidereal time ξ, the rotation matrix R I/S from the STT coordinate system S to the inertial coordinate system I, and the rotation matrix R S/ A from the ACC coordinate system A to the STT coordinate system S, can be rewritten as
Figure 2022144063000005

ここで行列Rzはz軸回りの座標回転行列、行列RNPは歳差章動を考慮する回転行列である。図 1に示すクロック12から取得される時刻情報により、行列Rz(ξ)、行列RNP が算出される。また、行列RI/SはSTT5によって決定した姿勢情報から求まる行列である。行列RS/Aはあらかじめ計測したSTT5と加速度センサ3間の関係を表す回転行列である。これらセンサ情報から求められた回転行列を用いることで回転行列Rc/Aを求めることができる。回転行列Rc/Aと加速度センサ座標系Aで観測された重力方向ベクトルgAを用いて、星の固定座標系Cに対する重力方向ベクトル gcは以下のように計算する事ができる。

Figure 2022144063000006
Here, the matrix Rz is a coordinate rotation matrix about the z-axis, and the matrix RNP is a rotation matrix that considers precessional nutation. Matrix Rz (ξ) and matrix RNP are calculated from the time information acquired from the clock 12 shown in FIG. Also, the matrix R I/S is a matrix obtained from the attitude information determined by the STT5. The matrix R S/A is a rotation matrix representing the relationship between the STT 5 and the acceleration sensor 3 measured in advance. The rotation matrix Rc/A can be obtained by using the rotation matrix obtained from the sensor information. Using the rotation matrix R c /A and the gravitational direction vector g A observed in the accelerometer coordinate system A, the gravitational direction vector g c with respect to the fixed coordinate system C of the star can be calculated as follows.
Figure 2022144063000006

式(5)で求められた各軸の重力方向ベクトルの要素を式(1)、(2)に代入することで、自己位置同定システム100を搭載した探査機の星上の緯度経度が求められる。 By substituting the elements of the gravitational direction vector of each axis obtained by the expression (5) into the expressions (1) and (2), the latitude and longitude on the star of the spacecraft equipped with the self-localization system 100 can be obtained. .

1-4 センサ間誤差角の考慮
精度良く位置同定を行うためには、式(4)において加速度センサ座標系AからSTT座標系Sへの回転行列RS/A を使用前に精度良く求めておくことが必要である。しかしながら、上述したように様々な要因(例えば振動等の要因)によりその回転行列が変化する可能性がある。つまり、STT5に対する加速度センサ3間の回転行列が行列RS/A からRS/A’ へと変化する(図2)。
1-4 Consideration of inter-sensor error angle In order to perform position identification with high accuracy, the rotation matrix R S/A from the acceleration sensor coordinate system A to the STT coordinate system S in Equation (4) must be obtained with high accuracy before use. It is necessary to leave However, as described above, the rotation matrix may change due to various factors (for example, factors such as vibration). That is, the rotation matrix between the acceleration sensors 3 for the STT 5 changes from the matrix R S/A to R S/A' (FIG. 2).

自己位置同定システム100を地球上で使用した場合、約0.01度の角度誤差は地上距離1.0km程度に相当するため、著しく自己位置同定の精度を低下させる。このため補正回転行列RA/A’ を使用時に推定し、星の固定座標系Cに対する重力方向ベクトルを以下の式のように補正回転行列RA/A’ を加えて計算する必要がある。

Figure 2022144063000007
When the self-localization system 100 is used on the earth, an angular error of approximately 0.01 degrees corresponds to a ground distance of approximately 1.0 km, which significantly reduces the accuracy of self-localization. Therefore, it is necessary to estimate the correction rotation matrix R A/A' when using it, and to calculate the gravitational direction vector for the fixed coordinate system C of the star by adding the correction rotation matrix R A/A' as shown in the following equation.
Figure 2022144063000007

1-5 センサ間誤差角の推定手法
本実施形態では、センサ間誤差角行列ΔΘ=(Δθx, Δθy, Δθz) を推定する手法として、内部演算において疑似的にセンサ間誤差角行列ΔΘpを補正回転行列RA/A’に代入し、真値と推定値の推定誤差との関係を表す関数に用いられる行列を記録していく。例えば、RA/A’は以下の回転行列で表すことができる。

Figure 2022144063000008
1-5 Inter-sensor Error Angle Estimation Method In this embodiment, as a method for estimating the inter-sensor error angle matrix ΔΘ=(Δθ x , Δθ y , Δθ z ), a pseudo inter-sensor error angle matrix ΔΘ Substitute p into the correction rotation matrix R A/A' , and record the matrix used for the function representing the relationship between the true value and the estimated error of the estimated value. For example, RA/A' can be represented by the rotation matrix below.
Figure 2022144063000008

式(7)の補正回転行列RA/A’を含む本実施形態例である位置同定手法へ、取り付け誤差を有した加速度センサ3により測定される重力ベクトルgA’、STT5から得られる姿勢情報行列qを代入し、ある星上での位置を計算する。このとき、擬似的なセンサ間誤差角(擬似誤差角)ΔΘpは内部演算で変更され、取得した真の位置情報(ここでは緯度φTと経度λT)との推定誤差行列ΔPを最終的に出力する。なお、真の位置情報(真値)の取得については、例えば後述の相対VLBI法などが好適に用いられる。これら一連のプロセスを関数fと定義すると以下の式で表される。

Figure 2022144063000009
To the position identification method of this embodiment including the corrected rotation matrix R A/A' of equation (7), the gravity vector g A' measured by the acceleration sensor 3 having an installation error, and the posture information obtained from the STT 5 Substitute the matrix q and calculate the position on a star. At this time, the pseudo inter-sensor error angle (pseudo error angle) ΔΘ p is changed by internal calculation, and the estimated error matrix ΔP between the acquired true position information (here, latitude φ T and longitude λ T ) is finally output to For acquisition of true position information (true value), for example, a relative VLBI method, which will be described later, is preferably used. Defining a series of these processes as a function f, it is represented by the following formula.
Figure 2022144063000009

この推定誤差行列ΔPと関数fへ入力した疑似誤差角行列ΔΘpの値の関係を関数で表す。式(8)から、例えば推定誤差行列ΔPと擬似誤差角ΔΘpの関係を以下のような線形方程式で表せるとすれば、次式のようになる。

Figure 2022144063000010
The relationship between this estimated error matrix ΔP and the values of the pseudo error angle matrix ΔΘ p input to the function f is expressed by a function. From Equation (8), if the relationship between the estimated error matrix ΔP and the pseudo error angle ΔΘ p can be represented by the following linear equation, the following equation is obtained.
Figure 2022144063000010

この式(9)の関係を満たす係数行列G(q)2×3と行列H(q)2×1を導出することで、センサ間誤差角行列ΔΘを推定する。係数行列G(q)2×3と行列H(q)2×1は、STT5と加速度センサ3を搭載した筐体300の姿勢を変化させ、各姿勢情報行列q毎に計算される。つまり、加速度センサ3によってACC座標系A’に対する重力方向ベクトルgA’を、またSTT5においては、撮像した画像から抽出した星ベクトルと、あらかじめ内部に有している星カタログのデータを用いて推定される姿勢情報行列qを変化させながら、各姿勢で疑似誤差角行列ΔΘpを変化させ、係数行列G(q)2×3と行列H(q)2×1を計算し、記録する。求めたいセンサ間誤差角行列ΔΘは推定誤差行列ΔPが0となる値であるので、式9を変形し、以下の方程式をセンサ間誤差角ΔΘについて解くことで解を得る。

Figure 2022144063000011
By deriving a coefficient matrix G(q) 2×3 and a matrix H(q) 2×1 that satisfy the relationship of Equation (9), the inter-sensor error angle matrix ΔΘ is estimated. The coefficient matrix G(q) 2×3 and the matrix H(q) 2×1 are calculated for each orientation information matrix q by changing the orientation of the housing 300 on which the STT 5 and the acceleration sensor 3 are mounted. That is, the acceleration sensor 3 estimates the gravitational direction vector g A' with respect to the ACC coordinate system A', and the STT 5 uses the star vectors extracted from the captured image and the data of the star catalog stored in advance. The pseudo-error angle matrix ΔΘ p is changed at each attitude while changing the attitude information matrix q, and the coefficient matrix G(q) 2×3 and the matrix H(q) 2×1 are calculated and recorded. Since the inter-sensor error angle matrix ΔΘ to be obtained is a value at which the estimated error matrix ΔP is 0, the solution is obtained by modifying Equation 9 and solving the following equation for the inter-sensor error angle ΔΘ.
Figure 2022144063000011

この場合、行列G-1 2n×3は行列G2n×3の疑似逆行列である。 In this case, the matrix G −1 2n×3 is the pseudo-inverse of the matrix G 2n×3 .

2 センサ間誤差角推定手法
2-1 位置同定手法におけるセンサ間誤差角推定法のフローチャート
図4は本実施形態に係る位置同定手法におけるセンサ間誤差角推定法を含めたフローチャートの例である。図4に示す手順の一例は、ある星上での自己位置同定システム100に搭載されている加速度センサ3とSTT5間に生じているセンサ間の各軸の誤差角を推定する手法が含まれる。
2 Inter-sensor Error Angle Estimation Method 2-1 Flowchart of Inter-sensor Error Angle Estimation Method in Position Identification Method FIG. 4 is an example of a flowchart including an inter-sensor error angle estimation method in the position identification method according to this embodiment. An example of the procedure shown in FIG. 4 includes a method of estimating the error angle of each axis between the acceleration sensor 3 and the STT 5 mounted on the self-localization system 100 on a certain star.

なお、この手法は、自己位置同定を目的としない、まったく異なるシステムに搭載することも可能である。例えば、この手法が対象とするシステムは、人工衛星や車など、複数のセンサ情報を用いてある状態を推定するシステムであり、その推定した状態の真値を取得する手段があること、加えてその姿勢依存性を考慮する場合は、システムの姿勢を変更する手段があればよい。 It should be noted that this technique can also be implemented in a completely different system that is not intended for self-localization. For example, the system targeted by this method is a system that estimates a certain state using information from multiple sensors such as satellites and vehicles. If the attitude dependency is taken into consideration, it is sufficient to have means to change the attitude of the system.

図4に示すように、まず加速度センサ3とSTT5を搭載した筐体300の姿勢行列qを予め設定された初期値q1に決める(ステップS1)。この筐体300の姿勢はジンバルなどの機構で変更ができるものであるとする。その後、擬似誤差角行列ΔΘpの初期値をステップS2においてx,y,zの各軸0度として、自己位置同定(ステップS3)による計算を行う。自己位置同定の詳細な処理については後述する。 As shown in FIG. 4, first, the orientation matrix q of the housing 300 on which the acceleration sensor 3 and the STT 5 are mounted is set to a preset initial value q1 (step S1). Assume that the posture of the housing 300 can be changed by a mechanism such as a gimbal. After that, the initial value of the pseudo-error angular matrix ΔΘ p is set to 0 degrees for each of the x, y, and z axes in step S2, and calculation by self-position identification (step S3) is performed. Detailed processing of self-localization will be described later.

次に、ステップS4において、現在の姿勢情報行列qに対しそれまでにステップS3で推定した位置と真値との推定誤差行列ΔPと擬似誤差角行列ΔΘpの関係を例えば線形関数ΔP=G(q)ΔΘp+H (q)(式(9))で近似し、係数行列G(q)と行列H(q)を導出する。これらの行列はステップS5において記憶部21に記録される。ステップS4、S5の詳細な処理についても後述する。 Next, in step S4, the relationship between the estimated error matrix ΔP and the pseudo-error angle matrix ΔΘp between the position estimated in step S3 and the true value for the current attitude information matrix q is calculated by, for example, a linear function ΔP=G( q) Approximate with ΔΘ p +H (q) (equation (9)) to derive coefficient matrix G(q) and matrix H(q). These matrices are recorded in the storage unit 21 in step S5. Detailed processing of steps S4 and S5 will also be described later.

ステップS6では、擬似誤差角行列ΔΘpに依存した推定誤差行列ΔPのデータをm組取得したか否かの判断を行う。この時点で、m組のデータを取得していない場合は、ステップS2の前に戻り、内部演算処理において、擬似誤差角行列ΔΘpを変更し、再度自己位置の推定を行う。この時、本実施形態におけるステップS2では、求めたい精度以下の刻み値で直前の値から変更することを繰り返す。求めたい精度以下での刻み値で変更を加えていくことで、擬似誤差角行列ΔΘpに対応した出力値(本構成例では推定誤差行列ΔP)の変化の分解能を上げる効果が得られる。 In step S6, it is determined whether or not m sets of data of the estimated error matrix ΔP dependent on the pseudo error angular matrix ΔΘ p have been acquired. At this point, if m sets of data have not been acquired, the process returns to step S2, changes the pseudo error angle matrix ΔΘ p in the internal arithmetic processing, and estimates the self-position again. At this time, in step S2 in the present embodiment, the value is repeatedly changed from the immediately preceding value by a step value equal to or less than the desired accuracy. By making changes in increments below the desired accuracy, it is possible to obtain the effect of increasing the resolution of changes in the output value (estimated error matrix ΔP in this configuration example) corresponding to the pseudo error angular matrix ΔΘ p .

一般的に、位置同定手法の例では、筐体300の姿勢が変化することが考えられる。本実施形態においては、自己位置同定システム100を搭載した探査機が傾斜した際のデータも考慮したセンサ間誤差角行列ΔΘを導出するため、姿勢依存のデータをn組取得する。このため、ステップS7においては、姿勢依存のデータをn組取得しているかどうかを判定する。 Generally, in the example of the position identification method, it is conceivable that the posture of the housing 300 changes. In the present embodiment, n sets of attitude-dependent data are acquired in order to derive the inter-sensor error angle matrix ΔΘ that also takes into account the data when the probe equipped with the self-localization system 100 is tilted. Therefore, in step S7, it is determined whether or not n sets of posture-dependent data have been acquired.

この判定処理において、姿勢依存のデータがn組取得されていなければステップS1の前に戻り、筐体300の姿勢をジンバル4によって変更する。具体的には、駆動機構制御部40により予め決められた角度だけ姿勢変更するための指令を出力し、駆動機構41を駆動することで姿勢を変更する。 In this determination processing, if n sets of attitude-dependent data have not been acquired, the process returns to step S1 and the attitude of the housing 300 is changed by the gimbal 4 . Specifically, the drive mechanism control unit 40 outputs a command to change the posture by a predetermined angle, and drives the drive mechanism 41 to change the posture.

姿勢変更後、ステップS2の内部演算処理において、擬似誤差角行列ΔΘpを再度各軸0度に再設定し、自己位置同定プロセスの計算を行う。これらのデータ数は、擬似誤差角行列ΔΘpに対する推定値と真値との推定誤差行列ΔPの関係を表すことができるデータ数を十分に取得できるかで決定される。データ数の設定に関しては、擬似誤差角行列ΔΘpが推定誤差行列ΔPと線形の関係にあれば、強い非線形の関係にある場合に比べて多くのデータ数を必要としない。このデータ数は、自己位置同定システム100を使用するユーザによってあらかじめ設定されても良い。 After changing the attitude, in the internal calculation processing in step S2, the pseudo error angle matrix ΔΘ p is reset to 0 degrees for each axis, and the self-localization process is calculated. The number of these data is determined by whether or not a sufficient number of data can be obtained to represent the relationship between the estimated value and the true value of the estimated error matrix ΔP for the pseudo error angular matrix ΔΘ p . Regarding the setting of the number of data, if the pseudo error angle matrix ΔΘ p is in a linear relationship with the estimated error matrix ΔP, a large number of data is not required compared to the case of a strong nonlinear relationship. This number of data may be preset by the user using the self-localization system 100 .

図4の例の場合であれば、擬似誤差角行列ΔΘpに依存したデータ数がm組取得され、それらの値に基づいて線形関数ΔP=GΔΘp+H が推定される。 In the example of FIG. 4, m sets of data depending on the pseudo-error angular matrix ΔΘ p are obtained, and the linear function ΔP=GΔΘ p +H is estimated based on these values.

一方、筐体300の姿勢依存のデータ数はn組取得されるので、擬似誤差角行列ΔΘpと推定誤差行列ΔPの関係を示す係数行列Gと行列Hの最終的なサイズは2n×3と2n×1 となる。最終的に求められた係数行列Gと行列Hは、ステップS6とS7での条件判定がなされ、ステップS8において使用される。 On the other hand, since n sets of attitude-dependent data of the housing 300 are acquired, the final size of the coefficient matrix G and the matrix H indicating the relationship between the pseudo-error angle matrix ΔΘp and the estimated error matrix ΔP is 2n×3. 2n×1. The finally obtained coefficient matrix G and matrix H are used in step S8 after the conditions are determined in steps S6 and S7.

ステップS8では、これまでに得られた2n×3の係数行列Gと2n×1の行列Hを用いて、式(10)に基づき推定値と真値との推定誤差行列ΔPが0となるセンサ間誤差角行列ΔΘを求める。 In step S8, using the 2n × 3 coefficient matrix G and the 2n × 1 matrix H obtained so far, sensor Calculate the error angle matrix ΔΘ.

なお、上記の説明においては、ステップS4、S5において変換行列(係数行列G(q)と行列H(q))の導出とデータ保持を行う例について説明したが、タイミングはこれに限られず、ステップS6でデータをm組取得したと判定したあとで、実行するように構成しても良いし、ステップS7に遷移するまでは取得したデータの保持のみを行い、ステップS7で姿勢依存のデータをn組取得したあとで、n組分の変換行列をまとめて導出しても良い。 In the above description, an example of deriving the transformation matrix (coefficient matrix G(q) and matrix H(q)) and holding the data in steps S4 and S5 was described, but the timing is not limited to this. After it is determined that m sets of data have been acquired in S6, it may be configured to be executed. After acquiring the pairs, the transformation matrices for n pairs may be derived collectively.

図5は図4の自己位置同定プロセス(ステップS3)の手順の一例を示すフローチャート図である。この例では、ステップS11において、時刻が取得される。この時刻は、システム内に設けられたクロック12などから取得される、もしくは外部から取得することができるように構成される。ステップS12(状態取得ステップ)では自己位置同定に必要となる加速度センサ3によって取得される重力ベクトル、加えてSTT5によって決定される慣性座標系Iに対する姿勢情報行列qを取得する。このとき、各センサからのデータを所定のサンプリング時間で取得する。 FIG. 5 is a flow chart showing an example of the self-localization process (step S3) of FIG. In this example, time is acquired in step S11. This time is obtained from a clock 12 or the like provided in the system, or configured to be able to be obtained from the outside. In step S12 (state acquisition step), the gravitational vector acquired by the acceleration sensor 3, which is necessary for self-localization, and the attitude information matrix q for the inertial coordinate system I determined by the STT 5 are acquired. At this time, data from each sensor is acquired at a predetermined sampling time.

ステップS13では、センサデータのノイズを除去するためにフィルタリングを行う。2つのセンサ間のサンプリング周波数が異なり、ダウンサンプリングが必要となる場合には、エイリアシングを考慮したフィルターが適用される。 In step S13, filtering is performed to remove noise in the sensor data. If the sampling frequencies between the two sensors are different and downsampling is required, an aliasing filter is applied.

ステップS14では取得された時刻、慣性座標系Iに対するSTT座標系Sの姿勢情報行列q、STT座標系Sと加速センサ座標系A間の座標変換行列Rc/Aを用いて、加速度センサ座標系Aから星の固定座標系Cへの座標変換行列Rc/Aを式(4)に基づいて導出する。 In step S14, using the obtained time, the attitude information matrix q of the STT coordinate system S with respect to the inertial coordinate system I, and the coordinate transformation matrix R c/A between the STT coordinate system S and the acceleration sensor coordinate system A, the acceleration sensor coordinate system A coordinate transformation matrix R c/A from A to the fixed coordinate system C of the star is derived based on equation (4).

この座標変換行列Rc/Aと補正回転行列RA/A’を用いてステップS15において加速度センサ座標系A’にて求められた重力方向ベクトルgA’を式(6)に基づいて星の固定座標系Cへ変換し、重力方向ベクトルgcを算出する。この時、センサ間誤差角行列ΔΘの推定を行う場合には、補正回転行列RA/A’は、ステップS4でNoとなることによりステップS2にて逐次変更される。位置同定手法を用いて純粋な位置推定を行う(本来の目的である、探査機の位置を同定するために実際に用いられる)場合には、一連のセンサ間誤差角推定手法によって推定されたセンサ間誤差角行列ΔΘから求められる行列RA/A’がステップS15にて用いられる。ステップS16(状態推定ステップ)では、星の固定座標系に対する重力ベクトルを用いて、筐体300を搭載した探査機の位置を式(1)、(2)を用いて推定する。 Using this coordinate transformation matrix R c /A and the corrected rotation matrix R A /A' , the direction of gravity vector g A' obtained in the acceleration sensor coordinate system A' in step S15 is calculated as Convert to the fixed coordinate system C, and calculate the gravitational direction vector g c . At this time, when estimating the inter-sensor error angle matrix ΔΘ, the corrected rotation matrix R A/A′ is changed sequentially in step S2 as the result of No in step S4. In the case of pure position estimation using localization techniques (which is actually used to identify the position of the rover, which is its original purpose), the sensors estimated by a series of sensor-to-sensor error angle estimation techniques A matrix R A/A' obtained from the inter-angle error angle matrix ΔΘ is used in step S15. In step S16 (state estimation step), the position of the spacecraft on which the housing 300 is mounted is estimated using equations (1) and (2) using the gravitational vector for the fixed coordinate system of the star.

図6は図4のステップS6における変換行列導出プロセスの手順の一例を示すフローチャート図である。この例では、ステップS21(真値取得ステップ)において、推定値に対応する真値を取得する。ステップS22(推定誤差導出ステップ)では、推定値と真値の推定誤差値である推定誤差行列ΔPを計算する。ステップS23において、推定値と真値の推定誤差行列ΔPと疑似的に図3のステップS2で変動させた擬似誤差角行列ΔΘpを用いて係数行列Gと行列Hを計算する。 FIG. 6 is a flow chart showing an example of the transformation matrix derivation process in step S6 of FIG. In this example, in step S21 (true value acquisition step), a true value corresponding to the estimated value is acquired. In step S22 (estimated error derivation step), an estimated error matrix ΔP, which is an estimated error value between the estimated value and the true value, is calculated. In step S23, the coefficient matrix G and the matrix H are calculated using the estimated error matrix ΔP of the estimated values and the true values and the pseudo error angular matrix ΔΘ p that was pseudo-varied in step S2 of FIG.

図7は図4のステップS5におけるデータ保持プロセスの手順の一例を示すフローチャート図である。この例では、ステップS31で図6のステップS23で計算された係数行列G(q)と行列H(q)を記憶部21に書き込む。ステップS33においては、これまでにステップS31で記憶部21に記録された係数行列G(q)と行列H(q)をそれぞれ結合したものを出力し、図4のステップS6とS7の判定処理を通過する時点では、最終的に2n×3の係数行列Gと2n×1の行列Hが出力されていることになる。なお、ステップS31で記憶部21に係数行列G(q)と行列H(q)を書き込む際に、最初からそれまでの係数行列G(q)と行列H(q)のそれぞれを結合したものとして書き込んでも良い。 FIG. 7 is a flow chart showing an example of the procedure of the data holding process in step S5 of FIG. In this example, the coefficient matrix G(q) and the matrix H(q) calculated in step S23 of FIG. 6 are written in the storage unit 21 in step S31. In step S33, a combination of the coefficient matrix G(q) and the matrix H(q) recorded in the storage unit 21 in step S31 is output, and the decision processing in steps S6 and S7 of FIG. 4 is performed. At the time of passage, the 2n×3 coefficient matrix G and the 2n×1 matrix H are finally output. Note that when writing the coefficient matrix G(q) and the matrix H(q) to the storage unit 21 in step S31, it is assumed that the coefficient matrix G(q) and the matrix H(q) from the beginning to that point are combined. You can write.

2-2 位置同定手法におけるシステム構成
図1は、本実施形態の自己位置同定システム100の構成例を示す図である。図2に示すように、本実施形態では、加速度センサ3とSTT5間のセンサ間誤差角行列ΔΘをセンサ間誤差角推定部2によって推定するものについて説明したが、他の態様として、第1のセンサと第2のセンサとの間の誤差角を推定するものについて適用可能である。本構成例においてはそのセンサ間誤差角行列ΔΘと加速度センサ3、STT5、とクロック12から取得されるデータを用い、上述した方法で自己位置を推定する。自己位置同定演算装置1は、通信情報処理部10、自己位置推定部11、クロック12、信号処理部13によって構成される。
2-2 System Configuration in Localization Method FIG. 1 is a diagram showing a configuration example of a self-localization system 100 of this embodiment. As shown in FIG. 2, in the present embodiment, the inter-sensor error angle matrix ΔΘ between the acceleration sensor 3 and the STT 5 is estimated by the inter-sensor error angle estimator 2, but as another aspect, the first Applicable for estimating the error angle between a sensor and a second sensor. In this configuration example, the sensor-to-sensor error angle matrix ΔΘ, the acceleration sensor 3, the STT 5, and the data acquired from the clock 12 are used to estimate the self-position by the method described above. The self-localization calculation device 1 is composed of a communication information processing section 10 , a self-position estimation section 11 , a clock 12 and a signal processing section 13 .

自己位置同定演算装置1は、図2に示すように自己位置同定機200の筐体300に搭載されている加速度センサ3の想定しているACC座標系A(第1のセンサ座標系)と実際の加速度センサのACC座標系A’(ずれ後の第1のセンサ座標系)との間のずれ角であるセンサ間誤差角行列ΔΘを推定する。このとき、センサ間誤差角ΔΘの定義は、予め設定(算出)されたSTT座標系Sに対するACC座標系Aがなす角度が、ACC座標系A’へと変化した角度(ずれ角)として定義する。 The self-localization arithmetic unit 1, as shown in FIG. A sensor-to-sensor error angle matrix ΔΘ, which is the deviation angle between the acceleration sensor and the ACC coordinate system A′ (the first sensor coordinate system after deviation), is estimated. At this time, the definition of the inter-sensor error angle ΔΘ is defined as the angle (deviation angle) at which the angle formed by the ACC coordinate system A with respect to the preset (calculated) STT coordinate system S changes to the ACC coordinate system A′. .

加速度センサ3は、互いに交差し、理想的には直交する3軸方向の加速度のアナログ信号を出力する。なお、他の態様における第1のセンサとしては加速度センサ3に限らず、重力方向ベクトルgA’を出力することが可能であればよい。 The acceleration sensor 3 outputs analog signals of acceleration in three axial directions that intersect each other and are ideally perpendicular to each other. It should be noted that the first sensor in other aspects is not limited to the acceleration sensor 3 as long as it can output the gravitational direction vector gA ' .

STT5は撮像センサ50と、取得した画像を処理する画像処理部52と、画像から得られたデータを用いて慣性座標系に対するSTT座標系Sの姿勢を演算して決定する姿勢決定部51を含む。他の態様における第2のセンサとしては、STTではなく、カメラと画像処理から姿勢決定までを行うことが可能である演算処理部の組み合わせであってもよい。また画像処理等の処理系は位置同定演算装置1に含まれていてもよい。 The STT 5 includes an imaging sensor 50, an image processing unit 52 that processes acquired images, and an attitude determining unit 51 that calculates and determines the attitude of the STT coordinate system S with respect to the inertial coordinate system using data obtained from the images. . In another aspect, the second sensor may be a combination of a camera and an arithmetic processing unit capable of performing everything from image processing to attitude determination, instead of the STT. A processing system such as image processing may be included in the position identification calculation device 1 .

信号処理部13は、センサからのデータをある周期で取得し、ディジタル値への変換処理を行う。2つのセンサのサンプリング周波数を同期させるため、片方若しくは両方のセンサデータのダウンサンプリングを行う必要がある場合には、ローパスフィルタによる処理を行う。ノイズの影響を軽減するためのバタワースフィルターや拡張カルマンフィルタ等の処理も含まれる。 The signal processing unit 13 acquires data from the sensor at certain intervals and converts the data into digital values. In order to synchronize the sampling frequencies of the two sensors, if it is necessary to down-sample the data of one or both sensors, a low-pass filter is applied. Processing such as Butterworth filter and extended Kalman filter for reducing the influence of noise is also included.

ジンバル4は、自己位置同定機200の姿勢を変更させるための駆動機構41と、駆動機構41の制御を所定のタイミングで行う駆動機構制御部40を含む。自己位置同定機200の姿勢を変更することが可能であれば必ずしも前述した駆動機構41を含むジンバル4である必要はなく、所望の姿勢変更手段を適用可能である。 The gimbal 4 includes a drive mechanism 41 for changing the attitude of the self-localization machine 200 and a drive mechanism control section 40 for controlling the drive mechanism 41 at predetermined timings. As long as the attitude of the self-localization machine 200 can be changed, the gimbal 4 including the drive mechanism 41 described above is not necessarily required, and any desired attitude changing means can be applied.

送受信部6は、アンテナ7からの信号を処理する復調器/変調器やフィルターを含む。また通信情報処理部10は、受信/送信する信号を所望のデータに変換する。センサ間誤差角を推定する際に必要とされる真の位置を取得する際には、例えば相対VLBIを用いた手法を採用することができる。この手法では、自己位置同定機200は、特定の電波をアンテナ7から地球局へ送信し、地球上の複数のアンテナで送信した信号と基準となる星からの電波を交互に取得することで高精度な位置決定(星上での緯度経度)を行うことができる。位置決定がされた後、地球局から星上の探査機にデータが送信される。地球局から送信された真の位置情報を取得するために、通信情報処理部10を介して、そのデータはセンサ間誤差角推定部2に含まれる処理部20へ入力される。処理部20では、この情報を用いて図4に示した演算処理が行われる。なお、図1では、通信情報処理部10は自己位置同定演算装置1に含まれているが、位置情報を取得し演算までを行う処理系を位置同定演算装置1とは別の系として組み合わせてもよい。 The transmitting/receiving section 6 includes a demodulator/modulator and filters for processing signals from the antenna 7 . Further, the communication information processing section 10 converts a signal to be received/transmitted into desired data. A method using relative VLBI, for example, can be employed to acquire the true position required for estimating the inter-sensor error angle. In this method, the self-localization device 200 transmits a specific radio wave from the antenna 7 to the earth station, and alternately acquires the signals transmitted from a plurality of antennas on the earth and the radio wave from a reference star, thereby achieving a high degree of accuracy. Accurate position determination (latitude and longitude on stars) can be performed. After the position is determined, the data is transmitted from the earth station to the spacecraft on the star. In order to acquire the true positional information transmitted from the earth station, the data is input to the processing section 20 included in the inter-sensor error angle estimating section 2 via the communication information processing section 10 . The processing unit 20 performs the arithmetic processing shown in FIG. 4 using this information. In FIG. 1, the communication information processing unit 10 is included in the self-localization calculation device 1, but a processing system that acquires position information and performs calculations can be combined as a separate system from the position identification calculation device 1. good too.

3 変形例
上述したように、本実施形態のセンサ間誤差角推定手法の対象は、自己位置同定システムである必要はなく、第1のセンサおよび第2のセンサも、加速度センサとSTTには限られない。上述した実施形態では、ある星上における自己位置同定システムを例に挙げ、加速度センサとSTT間の誤差角を推定する手順を示したが、人工衛星や車両といった星上を移動する移動体に搭載される複数のセンサ情報を用いて移動体の位置を含む状態を推定するシステムであればよい。
3 Modifications As described above, the target of the inter-sensor error angle estimation method of the present embodiment does not have to be the self-localization system, and the first sensor and the second sensor are limited to the acceleration sensor and the STT. can't In the above-described embodiment, the procedure for estimating the error angle between the acceleration sensor and the STT was shown using a self-localization system on a certain star as an example. Any system may be used as long as it estimates the state including the position of a moving object using a plurality of sensor information obtained.

1:自己位置同定演算装置、2:センサ間誤差角推定部、3:加速度センサ、4:ジンバル、5:スタートラッカー(STT)、6:送受信部、7:アンテナ、10:通信情報処理部、11:自己位置推定部、12:クロック、13:信号処理部、20:処理部、21:記憶部、40:駆動機構制御部、41:駆動機構、50:撮像センサ、51:姿勢決定部、52:画像処理部、100:自己位置同定システム、200:自己位置同定機、300:筐体
1: self-localization arithmetic unit, 2: inter-sensor error angle estimation unit, 3: acceleration sensor, 4: gimbal, 5: star tracker (STT), 6: transmission/reception unit, 7: antenna, 10: communication information processing unit, 11: self-position estimation unit, 12: clock, 13: signal processing unit, 20: processing unit, 21: storage unit, 40: drive mechanism control unit, 41: drive mechanism, 50: imaging sensor, 51: attitude determination unit, 52: Image processing unit, 100: Self-localization system, 200: Self-localization machine, 300: Housing

Claims (7)

第1のセンサと第2のセンサとの間のセンサ間誤差角を推定する方法であって、
搭載されている筐体の第1の状態を取得する第1のセンサ、および前記筐体における前記第1の状態とは異なる第2の状態を取得する第2のセンサが搭載された筐体の姿勢を変更する姿勢変更ステップと、
前記姿勢変更ステップの前後で前記第1のセンサと前記第2のセンサにより前記第1の状態と前記第2の状態を取得する状態取得ステップと、
前記状態取得ステップで取得した前記第1の状態および前記第2の状態に基づいて筐体の状態を推定する状態推定ステップと、
前記状態推定ステップで推定される推定値に対応する真値を取得する真値取得ステップと、
前記第1のセンサと前記第2のセンサ間に擬似的な誤差角を設定し、前記推定値と前記真値との間の推定誤差値を導出する推定誤差導出ステップと、
導出された前記推定誤差値を用いて、前記センサ間誤差角を導出するセンサ間誤差角推定ステップと
を含むことを特徴とするセンサ間誤差角推定方法。
A method of estimating a sensor-to-sensor error angle between a first sensor and a second sensor, comprising:
A housing equipped with a first sensor that acquires a first state of a mounted housing and a second sensor that acquires a second state different from the first state of the housing. a posture change step for changing the posture;
a state acquiring step of acquiring the first state and the second state by the first sensor and the second sensor before and after the posture changing step;
a state estimation step of estimating a state of the housing based on the first state and the second state obtained in the state obtaining step;
a true value acquisition step of acquiring a true value corresponding to the estimated value estimated in the state estimation step;
an estimated error deriving step of setting a pseudo error angle between the first sensor and the second sensor and deriving an estimated error value between the estimated value and the true value;
and an inter-sensor error angle estimation step of deriving the inter-sensor error angle using the derived estimated error value.
前記第1のセンサは加速度センサであり、前記第1の状態は重力ベクトルであることを特徴とする請求項1に記載のセンサ間誤差角推定方法。 2. The inter-sensor error angle estimation method according to claim 1, wherein said first sensor is an acceleration sensor and said first state is a gravitational vector. 前記第2のセンサはスタートラッカーであり、前記第2の状態は前記筐体の姿勢情報であることを特徴とする請求項1または2に記載のセンサ間誤差角推定方法。 3. The inter-sensor error angle estimation method according to claim 1, wherein said second sensor is a star tracker, and said second state is posture information of said housing. 前記姿勢変更ステップを複数回実行し、それに伴い前記状態取得ステップを複数回実行するとともに、
前記擬似的な誤差角の値を複数の異なる値に設定し、前記推定誤差導出ステップを複数回繰り返し実行し、
それによって得られた複数の前記推定誤差値に基づいて前記センサ間誤差角を導出することを特徴とする請求項3に記載のセンサ間誤差角推定方法。
executing the posture changing step multiple times, and accordingly executing the state obtaining step multiple times;
setting the value of the pseudo error angle to a plurality of different values, repeatedly performing the estimated error derivation step a plurality of times;
4. The inter-sensor error angle estimation method according to claim 3, wherein the inter-sensor error angle is derived based on the plurality of estimated error values obtained thereby.
前記推定誤差導出ステップにおいて導出された前記推定誤差値と前記推定誤差値の導出に用いた前記疑似的な誤差角との関係を表す行列を算出する行列算出ステップと、
前記行列を記憶部に記憶する記憶ステップと
を含み、
前記センサ間誤差角推定ステップにおいては、前記記憶部に記憶された前記行列に基づいて、前記真値と前記推定誤差値との誤差を0にするような誤差角を計算することで、前記センサ間誤差角を導出することを特徴とする請求項1から4のいずれか一項に記載のセンサ間誤差角推定方法。
a matrix calculation step of calculating a matrix representing a relationship between the estimated error value derived in the estimated error deriving step and the pseudo error angle used for deriving the estimated error value;
a storage step of storing the matrix in a storage unit;
In the inter-sensor error angle estimation step, based on the matrix stored in the storage unit, by calculating an error angle that makes an error between the true value and the estimated error value zero, the sensor 5. The inter-sensor error angle estimation method according to claim 1, wherein an inter-sensor error angle is derived.
前記真値取得ステップにおいて、通信手段を介して前記真値を取得することを特徴とする請求項1から5のいずれか一項に記載のセンサ間誤差角推定方法。 6. The method for estimating an inter-sensor error angle according to claim 1, wherein said true value is acquired through communication means in said true value acquiring step. 請求項1から6のいずれか一項に記載されたセンサ間誤差角推定方法を用いて推定された前記センサ間誤差角に基づいて、前記筐体の位置を同定することを特徴とする位置同定方法。

Position identification characterized by identifying the position of the housing based on the inter-sensor error angle estimated using the inter-sensor error angle estimation method according to any one of claims 1 to 6 Method.

JP2021044905A 2021-03-18 2021-03-18 Sensor-to-sensor error angle estimation method and position identification method Pending JP2022144063A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021044905A JP2022144063A (en) 2021-03-18 2021-03-18 Sensor-to-sensor error angle estimation method and position identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021044905A JP2022144063A (en) 2021-03-18 2021-03-18 Sensor-to-sensor error angle estimation method and position identification method

Publications (1)

Publication Number Publication Date
JP2022144063A true JP2022144063A (en) 2022-10-03

Family

ID=83453679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021044905A Pending JP2022144063A (en) 2021-03-18 2021-03-18 Sensor-to-sensor error angle estimation method and position identification method

Country Status (1)

Country Link
JP (1) JP2022144063A (en)

Similar Documents

Publication Publication Date Title
CN109163721B (en) Attitude measurement method and terminal equipment
CN113203418B (en) GNSSINS visual fusion positioning method and system based on sequential Kalman filtering
EP2557394B1 (en) System for processing pulse signals within an inertial navigation system
US7979231B2 (en) Method and system for estimation of inertial sensor errors in remote inertial measurement unit
EP3411725B1 (en) A method and device for calibration of a three-axis magnetometer
CN111149002B (en) Method for calibrating a magnetometer
CN105783922B (en) method for determining a heading for a hybrid navigation system with magnetometer assistance
EP3491334B1 (en) Method and system for calibrating components of an inertial measurement unit (imu) using scene-captured data
US8019544B2 (en) Real-time refinement method of spacecraft star tracker alignment estimates
CN106500693B (en) A kind of AHRS algorithm based on adaptive extended kalman filtering
EP1585939A2 (en) Attitude change kalman filter measurement apparatus and method
GB2576569A (en) Inertial navigation system
Li et al. A low-cost attitude heading reference system by combination of GPS and magnetometers and MEMS inertial sensors for mobile applications
KR20180119083A (en) Apparatus and method for image navigation and registration of geostationary remote sensing satellites
JP7025215B2 (en) Positioning system and positioning method
CN113267794B (en) Antenna phase center correction method and device with base line length constraint
CN114754798A (en) On-orbit identification and calibration method for gyro error characteristic parameters
US9217639B1 (en) North-finding using inertial navigation system
US11073397B2 (en) Magnetic-inertial global positioning system
CN105549058B (en) The coupling process and system of atomic clock, Micro Inertial Measurement Unit and navigation system
JP2022144063A (en) Sensor-to-sensor error angle estimation method and position identification method
KR101941009B1 (en) Attitude and heading reference system and unmaned vehicle including the attitude and heading refernce system
JP2024507381A (en) Method for determining at least one system state using Kalman filter
Giribet et al. Vision-based integrated navigation system and optimal allocation in formation flying
JPH11325951A (en) Method and device for determining orbit with attitude sensor of space navigating object