[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2021024056A - Calibration device - Google Patents

Calibration device Download PDF

Info

Publication number
JP2021024056A
JP2021024056A JP2019145546A JP2019145546A JP2021024056A JP 2021024056 A JP2021024056 A JP 2021024056A JP 2019145546 A JP2019145546 A JP 2019145546A JP 2019145546 A JP2019145546 A JP 2019145546A JP 2021024056 A JP2021024056 A JP 2021024056A
Authority
JP
Japan
Prior art keywords
robot
sensor
parameter
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019145546A
Other languages
Japanese (ja)
Other versions
JP7264763B2 (en
Inventor
誠也 伊藤
Seiya Ito
誠也 伊藤
亮祐 三木
Ryosuke MIKI
亮祐 三木
毅 北村
Takeshi Kitamura
毅 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019145546A priority Critical patent/JP7264763B2/en
Publication of JP2021024056A publication Critical patent/JP2021024056A/en
Application granted granted Critical
Publication of JP7264763B2 publication Critical patent/JP7264763B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To calibrate various parameters that define state of a robot and a sensor to appropriate values.SOLUTION: A calibration device comprises: a sensor data acquisition unit that generates sensor data based on output of sensors; a robot control unit that controls a robot; a data storage unit that stores sensor parameters related to the sensors and robot parameters related to the robot; a virtual data generation unit that generates virtual data in which sensors in a virtual space measures the robot based on the sensor parameters and the robot parameters; an environment determination unit that compares the sensor data with the virtual data so as to determine the difference between the two; a relative position/orientation prospect unit that searches for sensor parameters or robot parameters that reduce the difference; and an update unit that updates the sensor parameters or robot parameters stored in the data storage unit to the sensor parameters or the robot parameters searched by the relative position/orientation prospect unit.SELECTED DRAWING: Figure 1

Description

本発明は、ロボットやセンサの位置や姿勢等の状態を示す各種パラメータを、より適切な値に更新する、キャリブレーション装置に関する。 The present invention relates to a calibration device that updates various parameters indicating states such as the position and posture of a robot or a sensor to more appropriate values.

従来のキャリブレーション装置としては、特許文献1に記載のものが知られている。この文献の要約書には、「単一のカメラ又はステレオカメラのキャリブレーションに関し、予め画像座標系でキャリブレーション範囲を設定し、任意の範囲でキャリブレーションすることを可能とする」ための解決手段として、「ロボットにターゲットマークを設置すると共に、当該ロボットを動かしてカメラの視野内の複数個所でターゲットマークを検出することで、当該ロボットのロボット座標系とカメラの画像座標系の対応付けを行うキャリブレーション装置であって、カメラの画像座標系における画像範囲を設定する画像範囲設定部と、キャリブレーション実行前に、ロボットを動かしてターゲットマークを検出することで、画像範囲に相当するロボットの動作範囲を計測するキャリブレーション範囲計測部を備える」キャリブレーション装置が開示されている。 As a conventional calibration device, the one described in Patent Document 1 is known. In the abstract of this document, a solution for "for the calibration of a single camera or a stereo camera, it is possible to set a calibration range in advance in the image coordinate system and calibrate in an arbitrary range". As "a target mark is set on the robot, and the robot is moved to detect the target mark at a plurality of places in the field of view of the camera, so that the robot coordinate system of the robot and the image coordinate system of the camera are associated with each other. An image range setting unit that sets the image range in the image coordinate system of the camera, which is a calibration device, and the operation of the robot corresponding to the image range by moving the robot to detect the target mark before executing the calibration. A calibration device including a calibration range measuring unit for measuring a range is disclosed.

すなわち、特許文献1のキャリブレーション装置では、ロボットのアーム先端を連続的に動かし、アーム先端に取り付けたターゲットマークを複数個所で検出することで、視覚センサ(単眼カメラ、ステレオカメラ)のキャリブレーションを行っている。 That is, in the calibration device of Patent Document 1, the visual sensor (monocular camera, stereo camera) is calibrated by continuously moving the arm tip of the robot and detecting the target mark attached to the arm tip at a plurality of places. Is going.

特開2018−111166号公報Japanese Unexamined Patent Publication No. 2018-11116

しかしながら、特許文献1で用いる多関節ロボットアームでは、各関節の製造誤差や制御誤差等が累積してアーム先端のターゲットマークに現れるため、ターゲットマークの実位置は誤差のない理論上の位置からずれており、ターゲットマークの実位置に基づいて視覚センサをキャリブレーションしても、そのキャリブレーションが適切でない可能性が高かった。 However, in the articulated robot arm used in Patent Document 1, manufacturing errors and control errors of each joint are accumulated and appear at the target mark at the tip of the arm, so that the actual position of the target mark deviates from the theoretical position without error. Even if the visual sensor was calibrated based on the actual position of the target mark, there was a high possibility that the calibration was not appropriate.

そこで、本発明では、ロボットのアーム先端に取り付けたターゲットマークのような不安定な基準を用いることなく、ロボットやセンサの各種パラメータをより適切な値に更新できる、キャリブレーション装置を提供することを目的とする。 Therefore, the present invention provides a calibration device capable of updating various parameters of a robot or a sensor to more appropriate values without using an unstable reference such as a target mark attached to the tip of the arm of the robot. The purpose.

上記課題を解決するため、本発明のキャリブレーション装置は、センサの出力に基づいてセンサデータを生成するセンサデータ取得部と、ロボットを制御するロボット制御部と、前記センサに関するセンサパラメータと前記ロボットに関するロボットパラメータを記憶したデータ記憶部と、前記センサパラメータおよび前記ロボットパラメータに基づいて、仮想空間上の前記センサから前記ロボットを計測した仮想データを生成する仮想データ生成部と、前記センサデータと前記仮想データを比較し、両者の差異を判定する環境判定部と、前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索する相対位置姿勢推定部と、前記データ記憶部に記憶された前記センサパラメータまたは前記ロボットパラメータを前記相対位置姿勢推定部で探索した前記センサパラメータまたは前記ロボットパラメータに更新する更新部と、を具備するものとした。 In order to solve the above problems, the calibration device of the present invention relates to a sensor data acquisition unit that generates sensor data based on the output of the sensor, a robot control unit that controls the robot, sensor parameters related to the sensor, and the robot. A data storage unit that stores robot parameters, a virtual data generation unit that generates virtual data that measures the robot from the sensor in the virtual space based on the sensor parameters and the robot parameters, and the sensor data and the virtual An environment determination unit that compares data and determines the difference between the two, a relative position / orientation estimation unit that searches for the sensor parameter or the robot parameter that reduces the difference, and the sensor parameter or the sensor parameter stored in the data storage unit. It is assumed that the sensor parameter searched by the relative position / orientation estimation unit or the update unit for updating the robot parameter to the robot parameter is provided.

本発明のキャリブレーション装置によれば、ロボットのアーム先端に取り付けたターゲットマークのような不安定な基準を用いることなく、ロボットやセンサの各種パラメータをより適切な値に更新することができる。 According to the calibration device of the present invention, various parameters of the robot and the sensor can be updated to more appropriate values without using an unstable reference such as a target mark attached to the tip of the arm of the robot.

実施例1のキャリブレーション装置の機能ブロック図Functional block diagram of the calibration device of the first embodiment 実施例1のロボットとセンサの座標空間表現図Coordinate space representation diagram of the robot and the sensor of the first embodiment 実施例1の仮想データ生成部の処理フローチャートProcessing flowchart of the virtual data generation unit of the first embodiment 仮想撮像データとセンサデータのマッチング処理の説明図Explanatory drawing of matching process of virtual image data and sensor data 撮像環境判定部と相対位置姿勢推定部の処理フローチャートProcessing flowchart of the imaging environment judgment unit and the relative position / orientation estimation unit 姿勢情報を変更した場合のロボットの姿勢変化の一例An example of a robot's attitude change when attitude information is changed パラメータ更新と差分のデータ表現Data representation of parameter updates and differences 実施例2のパラメータ更新の出力画面例Example of output screen for updating parameters of Example 2

以下、図面を用いて、本発明のセンサ位置姿勢キャリブレーション装置の実施例を説明する。 Hereinafter, examples of the sensor position / orientation calibration device of the present invention will be described with reference to the drawings.

図1から図7を用いて、本発明の実施例1に係るキャリブレーション装置1を説明する。 The calibration device 1 according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 7.

図1は、本実施例のキャリブレーション装置1の機能ブロックを、ロボット2、センサ3、ターゲットマーク4の概略配置と共に示した図である。以下では、ロボット2、センサ3、ターゲットマーク4を概説した後、キャリブレーション装置1の詳細を説明する。 FIG. 1 is a diagram showing a functional block of the calibration device 1 of this embodiment together with a schematic arrangement of a robot 2, a sensor 3, and a target mark 4. In the following, after the robot 2, the sensor 3, and the target mark 4 are outlined, the details of the calibration device 1 will be described.

<ロボット2、センサ3、ターゲットマーク4>
ロボット2は、アーム先端のロボットハンドで物体を把持する多関節ロボットアームであり、キャリブレーション装置1が備えるロボット制御部1aからの指令に応じて、各関節の回転角θやロボットハンドの開閉状態等が制御される。本実施例はロボットハンドに限らず、吸着ハンドなどの各種エンドエフェクタにおいても適用可能である。なお、以下では、関節数が三個であるロボット2を例に説明するが、本発明の適用対象は、関節数が三個のロボット2に限定されないことは言うまでもない。
<Robot 2, sensor 3, target mark 4>
The robot 2 is an articulated robot arm that grips an object with a robot hand at the tip of the arm, and in response to a command from the robot control unit 1a included in the calibration device 1, the rotation angle θ of each joint and the open / closed state of the robot hand Etc. are controlled. This embodiment is applicable not only to robot hands but also to various end effectors such as suction hands. In the following, the robot 2 having three joints will be described as an example, but it goes without saying that the application target of the present invention is not limited to the robot 2 having three joints.

センサ3は、設置位置が既知のターゲットマーク4を背景として、その手前のロボット2を観測するカメラ、レーザ変位計等である。なお、以下では、センサ3がカメラであるものとして説明する。 The sensor 3 is a camera, a laser displacement meter, or the like that observes the robot 2 in front of the target mark 4 whose installation position is known. In the following, the sensor 3 will be described as a camera.

ターゲットマーク4は、平面上に複数のマークを配置したものである。センサ3とターゲットマーク4の相対位置や相対姿勢が異なる場合、センサ3で観測されるターゲットマーク4の見え方が異なることを利用して、センサ3とターゲットマーク4の相対位置や相対姿勢を検出することができる。なお、ターゲットマーク4上に配置する複数のマークは、個々が同等のものであっても良いし、個々に識別可能なユニークなものであっても良い。 The target mark 4 is a plurality of marks arranged on a plane. When the relative position and the relative posture of the sensor 3 and the target mark 4 are different, the relative position and the relative posture of the sensor 3 and the target mark 4 are detected by utilizing the difference in the appearance of the target mark 4 observed by the sensor 3. can do. The plurality of marks arranged on the target mark 4 may be individually equivalent or may be unique ones that can be individually identified.

ここで、図2を用いて、本実施例に関連する座標系を説明する。同図において、Wはワールド座標系であり、ロボット2、センサ3、ターゲットマーク4、または、ロボット2に把持される物体の位置等を特定する際の基準となる座標系である。Rはロボット2の不動点(例えばベース)を原点としたロボット座標系であり、ワールド座標系Wの各軸方向を維持したまま平行移動した座標系である。Sはセンサ3の不動点(例えばカメラの受光素子)を原点としたセンサ座標系であり、センサ3の視線方向をSz軸とし、このSz軸と直交するようにSx軸とSy軸を設定した座標系である。 Here, the coordinate system related to this embodiment will be described with reference to FIG. In the figure, W is a world coordinate system, which is a reference system for specifying the position of the robot 2, the sensor 3, the target mark 4, or the object held by the robot 2. R is a robot coordinate system with the fixed point (for example, the base) of the robot 2 as the origin, and is a coordinate system that moves in parallel while maintaining each axial direction of the world coordinate system W. S is a sensor coordinate system with the fixed point of the sensor 3 (for example, the light receiving element of the camera) as the origin, the line-of-sight direction of the sensor 3 is the Sz axis, and the Sx axis and the Sy axis are set so as to be orthogonal to the Sz axis. It is a coordinate system.

また、CRSは、センサ座標系S上の座標とロボット座標系R上の座標を相互に座標変換する係数である。この係数CRSを利用することで、センサ3が検出したセンサ座標系S上の物体の位置と形状を、ロボット座標系R上の物体の位置と形状として認識できるので、ロボット制御部1aは、ロボット座標系R上での座標を用いて、ロボット2に所望の物体の把持などを指令することができる。 Further, C RS is a coefficient for mutually converting the coordinates on the sensor coordinate system S and the coordinates on the robot coordinate system R. By using this coefficient C RS , the position and shape of the object on the sensor coordinate system S detected by the sensor 3 can be recognized as the position and shape of the object on the robot coordinate system R, so that the robot control unit 1a can recognize the position and shape of the object. Using the coordinates on the robot coordinate system R, it is possible to instruct the robot 2 to grasp a desired object or the like.

このような係数CRSを用いて座標変換を行う場合、係数CRSが適切であれば、センサ3の検出結果をロボット2に正確に伝達することができるが、係数CRSが不適切であれば、センサ3の検出結果をロボット2に正確に伝達することができず、例えば、ロボット2が所望の物体を正しく把持できないなどの不具合が生じる恐れがある。 When performing coordinate conversion using such a coefficient C RS , if the coefficient C RS is appropriate, the detection result of the sensor 3 can be accurately transmitted to the robot 2, but if the coefficient C RS is inappropriate. For example, the detection result of the sensor 3 cannot be accurately transmitted to the robot 2, and there is a possibility that the robot 2 may not be able to correctly grasp the desired object.

係数CRSの精度は、後述するセンサパラメータPやロボットパラメータPに依拠するため、これらのパラメータを最適化できれば、係数CRSも自ずと最適化される。そこで、本実施例のキャリブレーション装置1では、センサパラメータPやロボットパラメータPを自動的に最適化できるようにすることで、作業者の熟練度に拘わらず係数CRSを容易に最適化できるようにした。 Accuracy of the coefficient C RS, in order to rely on sensor parameter P S and the robot parameters P R to be described later, if optimization of these parameters, the coefficient C RS is also naturally optimized. Therefore, the calibration apparatus 1 of this embodiment, the sensor parameters P S and the robot parameters P R to be to be able to automatically optimize easily optimize the coefficients C RS regardless operator proficiency I made it possible.

<キャリブレーション装置1>
ここで図1に戻り、係数CRSを最適化するために必要な、キャリブレーション装置1の詳細構造を説明する。なお、キャリブレーション装置1は、実際には、CPU等の演算装置、半導体メモリ等の主記憶装置、ハードディスク等の補助記憶装置、および、通信装置などのハードウェアを備えたパソコン等の計算機である。そして、補助記憶装置に記録されたデータベースを参照しながら、主記憶装置にロードされたプログラムを演算装置が実行することで、図1に示す各機能を実現する。ここに示す各機能の詳細は後述するが、以下では、計算機分野での周知技術は適宜省略する。
<Calibration device 1>
Here, returning to FIG. 1, the detailed structure of the calibration device 1 required for optimizing the coefficient CRS will be described. The calibration device 1 is actually a computer such as a personal computer equipped with an arithmetic unit such as a CPU, a main storage device such as a semiconductor memory, an auxiliary storage device such as a hard disk, and hardware such as a communication device. .. Then, each function shown in FIG. 1 is realized by the arithmetic unit executing the program loaded in the main storage device while referring to the database recorded in the auxiliary storage device. Details of each function shown here will be described later, but in the following, well-known techniques in the computer field will be omitted as appropriate.

図1に示すように、本実施例のキャリブレーション装置1は、ロボット制御部1a、データ記憶部1b、仮想撮像データ生成部1c、センサデータ取得部1d、撮像環境判定部1e、相対位置姿勢推定部1f、ロボットパラメータ更新部1g、センサパラメータ更新部1hを備えている。 As shown in FIG. 1, the calibration device 1 of this embodiment includes a robot control unit 1a, a data storage unit 1b, a virtual imaging data generation unit 1c, a sensor data acquisition unit 1d, an imaging environment determination unit 1e, and a relative position / orientation estimation. A unit 1f, a robot parameter updating unit 1g, and a sensor parameter updating unit 1h are provided.

ロボット制御部1aは、ロボット2と双方向に通信し、ロボット2の姿勢や挙動を制御する。例えば、ロボット制御部1aは、ロボット2の各関節の回転角θ〜θを指定することで、ロボット2の姿勢を制御する。以下では、ロボット制御部1aからロボット2に送信される回転角θ〜θの組み合わせを姿勢情報Iと称する。 The robot control unit 1a communicates with the robot 2 in both directions to control the posture and behavior of the robot 2. For example, the robot control unit 1a controls the posture of the robot 2 by designating the rotation angles θ 1 to θ 3 of each joint of the robot 2. Hereinafter, referred to as the combination of the rotation angle theta 1 through? 3 transmitted from the robot control unit 1a to the robot 2 and the orientation information I S.

データ記憶部1bは、後述する仮想データ生成部1cで仮想撮像データDを生成するために用いる、環境情報I、センサパラメータP、ロボットパラメータPを記憶している。なお、環境情報Iは、例えば、ワールド座標系Wにおける、ロボット2、センサ3、ターゲットマーク4の設置位置等の情報である。センサパラメータPは、例えば、センサ3がカメラである場合は、その焦点距離(fx、fy)、歪係数、光軸中心(cu、cv)等の内部パラメータと、センサの世界座標系に対する並進移動(Tx、Ty、Tz)、回転(r11〜r33の3x3行列)を示す外部パラメータである。ロボットパラメータPは、例えば、ロボット2の各アームの姿勢(各関節の回転角θ)やロボットハンドの開閉状態のパラメータである。 Data storage unit 1b is used to generate a virtual image pickup data D V in the virtual data generation unit 1c to be described later, the environment information I E, sensor parameters P S, and stores the robot parameters P R. The environmental information IE is, for example, information such as the installation positions of the robot 2, the sensor 3, and the target mark 4 in the world coordinate system W. Sensor parameters P S, for example, when the sensor 3 is a camera, the focal length (fx, fy), and internal parameters such as distortion coefficients, the optical axis center (cu, cv), the translation to the world coordinate system of the sensor It is an external parameter indicating movement (Tx, Ty, Tz) and rotation (3x3 matrix of r11 to r33). Robot parameter P R is, for example, a parameter of the opening and closing state of and the robot hand (the rotation angle θ of each joint) each arm of the posture of the robot 2.

仮想撮像データ生成部1cは、データ記憶部1bから取得した環境情報I、センサパラメータP、ロボットパラメータPに基づいて、仮想撮像データDを生成する。ここでの仮想撮像データDの生成処理を、図3のフローチャートを用いて説明する。 Virtual imaging data generation unit 1c is environmental information I E obtained from the data storage unit 1b, the sensor parameter P S, based on the robot parameter P R, to generate the virtual image pickup data D V. The generation processing of the virtual image pickup data D V of now be described with reference to the flowchart of FIG.

まず、ステップS31では、仮想撮像データ生成部1cは、データ記憶部1bから環境情報Iを取得し、それに基づいて、仮想空間上にロボット2、センサ3、ターゲットマーク4を配置する。次に、ステップS32では、仮想撮像データ生成部1cは、データ記憶部1bから取得したロボットパラメータPに基づいて、仮想空間上のロボット2に各関節の回転角θやロボットハンドの開閉状態を設定する。次に、ステップS33では、仮想撮像データ生成部1cは、データ記憶部1bから取得したセンサパラメータPに基づいて、仮想空間上のセンサ3(カメラ)に内部パラメータを設定する。これにより、後述する図8の仮想空間データ表示領域5bに例示するような、ロボット2、センサ3、ターゲットマーク4が、仮想空間上に配置されることとなる。 First, in step S31, the virtual imaging data generation unit 1c acquires the environment information I E from the data storage unit 1b, based on it, to place the robot 2 V, sensor 3 V, the target mark 4 V in the virtual space .. Next, in step S32, the virtual imaging data generation unit 1c on the basis of the robot parameters P R obtained from the data storage unit 1b, the opening and closing state of the rotation angle θ and the robot hand of each joint in the robot 2 V in the virtual space To set. Next, in step S33, the virtual imaging data generation unit 1c on the basis of the sensor parameter P S acquired from the data storage unit 1b, set the internal parameters to the sensor 3 V in the virtual space (camera). As a result, the robot 2 V , the sensor 3 V , and the target mark 4 V , as illustrated in the virtual space data display area 5b of FIG. 8 to be described later, are arranged in the virtual space.

最後に、ステップS34では、仮想撮像データ生成部1cは、仮想空間上のロボット2とターゲットマーク4を、仮想空間上のセンサ3の視点から撮像したものに相当する仮想撮像データDを生成する。 Finally, in step S34, the virtual imaging data generation unit 1c is a robot 2 V and the target mark 4 V in the virtual space, the virtual image pickup data D V, which corresponds to that taken from the perspective of the sensor 3 V in the virtual space To generate.

仮想空間上の任意の点(x,y,z)を仮想撮像データDに投影するには、例えば、式1を利用する。なお、式1において、u、vは仮想撮像データD上に仮想的に設定したuv座標系(仮想座標系)における座標である。fx,fyは、カメラの画素あたりの焦点距離であり、カメラの焦点距離をカメラの画素の縦、横の物理的な間隔で割った値である。cu、cvは、カメラの光軸と仮想撮像データDが交差する、仮想座標系における光軸中心の座標である。 Any point on the virtual space to projection (x, y, z) of the virtual image pickup data D V, for example, utilizing Equation 1. In Expression 1, u, v are coordinates in uv coordinate system virtually set on the virtual image pickup data D V (virtual coordinate system). fx and fy are focal lengths per pixel of the camera, and are values obtained by dividing the focal length of the camera by the physical spacing between the pixels of the camera in the vertical and horizontal directions. cu, cv is the virtual image pickup data D V to the optical axis of the camera intersects the coordinates of the optical axis in the virtual coordinate system.

Figure 2021024056
Figure 2021024056

センサデータ取得部1dは、実際のロボット2とターゲットマーク4を、実際のセンサ3の視点から観測した出力に基づいて、センサデータDを取得する。本実施例では、センサ3をカメラとしているので、ここで取得されるセンサデータDは画像データである。 Sensor data acquisition unit 1d has a real robot 2 and the target mark 4, based on the observed from the perspective of the actual sensor 3 output, acquires sensor data D S. In this embodiment, since the sensor 3 is a camera, sensor data D S to be obtained here it is image data.

撮像環境判定部1eでは、仮想撮像データ生成部1cが出力する仮想撮像データDと、センサデータ取得部1dが出力するセンサデータDを比較し、撮像環境を判定する。ここでの処理の詳細を、図4と図5を用いて説明する。 In the imaging environment judging unit 1e, it compares the virtual imaging data D V output by the virtual imaging data generation unit 1c, and the sensor data D S to the sensor data acquisition unit 1d outputs, determines imaging environment. The details of the processing here will be described with reference to FIGS. 4 and 5.

図4は、仮想撮像データDとセンサデータDのマッチング処理の説明図であり、(a)は、データ記憶部1bに記憶されたパラメータに基づき仮想撮像データ生成部1cで生成された仮想撮像データD、(b)は、センサ3の実際の出力に基づいて生成されたセンサデータD、(c)は、仮想撮像データDとセンサデータDのマッチング処理である。 Figure 4 is an explanatory diagram of the matching process of the virtual image pickup data D V and the sensor data D S, (a), the virtual generated by the virtual imaging data generation unit 1c based on the stored in the data storage unit 1b parameters imaging data D V, (b), the sensor data D S, which is generated on the basis of the actual output of the sensor 3 (c) is a process of matching the virtual image pickup data D V and the sensor data D S.

仮想撮像データDとセンサデータDが大きく相違していることから明らかなように、図4は、データ記憶部1bに記憶されたパラメータが実態と乖離しており、その修正が必要な状況に相当するものである。 As it is evident from the virtual image pickup data D V and the sensor data D S is greatly different, 4, parameters stored in the data storage unit 1b has deviated the actual situation that requires the modification Is equivalent to.

パラメータを最適化するには、センサデータDと一致する仮想撮像データDを生成できるパラメータを選択すればよい。具体的には、(c)マッチング処理に示すように、仮想撮像データDをセンサデータDと一致させるのに必要な回転処理と移動処理を施すと同等のパラメータ調整を行えば良い。 To optimize the parameters may be selected parameters that can generate a virtual image pickup data D V, which coincides with the sensor data D S. Specifically, as shown in (c) matching process may be performed the same parameter adjustment when subjected to moving processing and rotation processing necessary virtual imaging data D V to match the sensor data D S.

図5は、撮像環境判定部1eで実行される撮像環境判定処理の一例を示すフローチャートである。 FIG. 5 is a flowchart showing an example of the imaging environment determination process executed by the imaging environment determination unit 1e.

まず、ステップS51では、撮像環境判定部1eは、センサデータDと仮想撮像データDを取得する。次に、ステップS52では、撮像環境判定部1eは、両データに含まれるターゲットマーク4の基準マーカ位置を計測し、ステップS53では、撮像環境判定部1eは、両データ間の対応点をマッチングする。 First, in step S51, the imaging environment judging section 1e obtains the sensor data D S and the virtual image pickup data D V. Next, in step S52, the imaging environment determination unit 1e measures the reference marker position of the target mark 4 included in both data, and in step S53, the imaging environment determination unit 1e matches the corresponding points between the two data. ..

以上のステップS51からS53の処理により、撮像環境判定部1eは、仮想撮像データDをセンサデータDと一致させるのに必要な回転量と移動量を演算できるので、ステップS54では、撮像環境判定部1eは、これらの回転量または移動量が所定の閾値以上であるかを判定する。そして、パラメータのキャリブレーションに必要な回転量と移動量が閾値未満のときは、撮像環境判定部1eは、現在記憶されているパラメータは実態に則した有効なものと判断し、データ記憶部1bのパラメータを更新せずに本フローチャートの処理を終了する。 By the processing of S53 from step S51 described above, the imaging environment judging unit 1e, since it calculates the movement amount and the rotation amount required virtual imaging data D V to match the sensor data D S, at step S54, the imaging environment The determination unit 1e determines whether these rotation amounts or movement amounts are equal to or greater than a predetermined threshold value. Then, when the amount of rotation and the amount of movement required for parameter calibration are less than the threshold value, the imaging environment determination unit 1e determines that the currently stored parameters are valid according to the actual situation, and the data storage unit 1b The processing of this flowchart is terminated without updating the parameters of.

一方、仮想撮像データDをセンサデータDと一致させるのに必要な回転量または移動量が閾値以上のときは、撮像環境判定部1eは、データ記憶部1bに現在記憶されているパラメータが実態に則しておらず修正が必要と判断し、パラメータ修正のための相対位置姿勢推定処理に移行する。 On the other hand, when the rotational amount or the amount of movement required to match the virtual imaging data D V sensor data D S is not less than the threshold value, the imaging environment judging unit 1e includes parameters currently stored in the data storage portion 1b It is judged that the correction is necessary because it does not conform to the actual situation, and the process shifts to the relative position / orientation estimation process for parameter correction.

相対位置姿勢推定処理に移行すると、まず、ステップS55では、相対位置姿勢推定部1fは、仮想撮像データDとセンサデータDのターゲットマーク4の差異を最小化するセンサパラメータPを探索する。例えば、センサパラメータPが、PS1、PS2、PS3、PS4の四種類であれば、センサパラメータPS1から順に、ターゲットマーク4の差異を最小化する最適値を求めていく。次に、ステップS56では、相対位置姿勢推定部1fは、仮想撮像データDとセンサデータDのロボット2の差異を最小化するロボットパラメータPを探索する。例えば、ロボットパラメータPが、PR1、PR2、PR3、PR4の四種類であれば、ロボットパラメータPR1から順に、ロボット2の差異を最小化する最適値を求めていく。 After shifting to the relative position and orientation estimation processing, first, in step S55, the relative position and orientation estimation unit 1f searches the sensor parameters P S that minimizes the difference between the target mark the fourth virtual imaging data D V and the sensor data D S .. For example, a sensor parameters P S is, if four types of P S1, P S2, P S3 , P S4, in order from the sensor parameter P S1, will seek the optimum value that minimizes the difference between the target mark 4. Next, in step S56, the relative position and orientation estimation unit 1f searches the robot parameters P R that minimizes the difference of the robot 2 of the virtual image pickup data D V and the sensor data D S. For example, the robot parameters P R is, if four types of P R1, P R2, P R3 , P R4, in order from the robot parameters P R1, to seek the optimum value that minimizes the difference of the robot 2.

そして、ステップS57では、ロボットパラメータ更新部1gまたはセンサパラメータ更新部1hは、データ記憶部1bに記憶された各パラメータを、ステップS55、ステップS56で求めた各パラメータの最適値に更新する。なお、図5では、センサパラメータPの最適値探索の後に、ロボットパラメータPの最適値探索を行ったが、仮想撮像データDとセンサデータDを比較した場合のロボット2側の差異がターゲットマーク4側の差異よりも大きかった場合は、ロボットパラメータPの最適値を探索した後に、センサパラメータPの最適値を探索しても良い。 Then, in step S57, the robot parameter updating unit 1g or the sensor parameter updating unit 1h updates each parameter stored in the data storage unit 1b to the optimum value of each parameter obtained in steps S55 and S56. In FIG. 5, after the optimum value search of the sensor parameter P S, were subjected to optimum value search of the robot parameters P R, the difference of the robot 2 side when comparing virtual imaging data D V and the sensor data D S If it is greater than the difference in target mark 4 side, after searching the optimum value of the robot parameters P R, may be searched optimum value of the sensor parameter P S.

次に、図6と図7を用いて、ロボット2の姿勢精度の評価方法を説明する。 Next, a method of evaluating the posture accuracy of the robot 2 will be described with reference to FIGS. 6 and 7.

ロボット2の姿勢精度を評価する場合、まず、ロボット制御部1aは、任意の姿勢情報I(θ、θ、θ)をロボット2に送信する。このとき、ロボット2は、図6(a)に示す姿勢となるので、姿勢情報Iに対応する誤差量dを測定し記録する。 When evaluating the posture accuracy of the robot 2, first, the robot control unit 1a transmits arbitrary posture information IS1 , θ 2 , θ 3 ) to the robot 2. At this time, since the robot 2 has the posture shown in FIG. 6A , the error amount d corresponding to the posture information IS is measured and recorded.

次に、ロボット制御部1aは、姿勢情報Iの回転角θだけを回転角θ’に変更した、姿勢情報I’(θ’、θ、θ)をロボット2に送信する。このとき、ロボット2は、図6(b)に示す姿勢となるので、姿勢情報I’に対応する誤差量d’を測定し記録する。 Next, the robot control unit 1a is sent 'was changed to the posture information I S' only rotation angle theta 1 of the posture information I S rotational angle θ 1 (θ 1 ', θ 2, θ 3) of the robot 2 To do. In this case, the robot 2, since the posture shown in FIG. 6 (b), measured 'error amount d corresponding to' orientation information I S is recorded.

そして、誤差量dと誤差量d’が相違し、かつ、誤差量d’が大きい場合は、回転角度θに対応する間接の姿勢精度が悪いか、その間接より先端側のリンクの精度が悪いと判定することができる。 If the error amount d and the error amount d'are different and the error amount d'is large, the indirect posture accuracy corresponding to the rotation angle θ 1 is poor, or the accuracy of the link on the tip side of the indirect is poor. It can be judged to be bad.

以上のような姿勢精度の評価作業を多数の姿勢情報Iに対して実行することで、図7に例示するような、姿勢情報Iと誤差量dの対応表を作成することができる。そして、ここに示す姿勢情報Iと誤差量dの関係から、重回帰分析やロジスティック回帰分析など一般的な解析手法によって誤差量dを増加または減少させる姿勢情報Iの要素、または姿勢情報Iの要素の組み合わせを求めることができるため、それを最適なロボットパラメータPと特定することができる。 By executing the evaluation work attitude accuracy as described above for a number of orientation information I S, as illustrated in FIG. 7, it is possible to create a correspondence table of orientation information I S and the error amount d. Then, the relationship between the orientation information I S and the error amount d shown here, the elements of multiple regression analysis and attitude information increases or decreases the error amount d by a general analysis method such as logistic regression analysis I S or attitude information I, it is possible to obtain the combination of S elements, it is possible to identify it with optimal robot parameters P R.

そして、図5や図7に基づいて修正されたセンサパラメータPとロボットパラメータPに基づいて係数CRSを演算し、この係数CRSを用いてセンサ座標系S・ロボット座標系Rの座標変換を実施することで、ロボット2の近傍の物体の位置や形状を正しく認識できるため、ロボット2はその物体を適切に把持できるようになる。 Then, 5 and on the basis of the sensor parameters P S and the robot parameters P R that has been modified with reference to FIG calculates the coefficients C RS, coordinates of the sensor coordinate system S · robot coordinate system R using the coefficients C RS By performing the conversion, the position and shape of an object in the vicinity of the robot 2 can be correctly recognized, so that the robot 2 can appropriately grasp the object.

以上で説明したように、本実施例のキャリブレーション装置によれば、ロボットのアーム先端に取り付けたターゲットマークのような不安定な基準を用いることなく、ロボットの状態を規定するロボットパラメータPや、センサの状態を規定するセンサパラメータPをより適切な値にキャリブレーションすることをできる。そして、それらのパラメータを用いることで、ロボットの制御がより正確になり、例えば、ロボットハンドで物体をより正確に把持できるようになる。 As explained above, according to the calibration apparatus of the present embodiment, without using unstable criteria, such as target marks attached to the arm tip of the robot, Ya robot parameter P R that define the state of the robot , possible to calibrate the sensor parameters P S which defines the state of the sensor to a more appropriate value. Then, by using these parameters, the control of the robot becomes more accurate, and for example, the robot hand can grasp the object more accurately.

次に、図8を用いて、本発明の実施例2に係るキャリブレーション装置1を説明する。なお、実施例1との共通点は重複説明を省略する。 Next, the calibration device 1 according to the second embodiment of the present invention will be described with reference to FIG. It should be noted that the common points with the first embodiment will be omitted.

実施例1では、キャリブレーション装置1がセンサパラメータPとロボットパラメータPを自動的に更新したが、本実施例では、相対位置姿勢推定部1fでの処理に作業者が関与できるようにした。 In the first embodiment, the calibration apparatus 1 is automatically updates the sensor parameters P S and the robot parameters P R, in the present embodiment, the operator for processing by the relative position and orientation estimation unit 1f has to be involved ..

図8は、キャリブレーション装置1と接続した表示装置に表示される、キャリブレーションツールのアプリケーションソフトの表示画面5の一例である。 FIG. 8 is an example of the display screen 5 of the application software of the calibration tool displayed on the display device connected to the calibration device 1.

ここに示すように、表示画面5には、撮像データ表示領域5a、仮想空間データ表示領域5b、センサパラメータ設定領域5c、ロボットパラメータ設定領域5d、決定ボタン5e、および、ポインタ5fが表示されている。 As shown here, the image pickup data display area 5a, the virtual space data display area 5b, the sensor parameter setting area 5c, the robot parameter setting area 5d, the decision button 5e, and the pointer 5f are displayed on the display screen 5. ..

撮像データ表示領域5aには、センサ3が実際に取得したセンサデータDと、現在のセンサパラメータP、ロボットパラメータPを利用して仮想撮像データ生成部1cで生成した仮想撮像データDが並べて表示されている。なお、両者が相違すれば、現在のセンサパラメータPまたはロボットパラメータPが不適切であり、両者が一致すれば、現在のセンサパラメータPとロボットパラメータPが適切であることは実施例1と同様である。 The imaging data display area 5a, the sensor data D S which sensor 3 has actually acquired, the current sensor parameter P S, virtual imaging data D V generated by the virtual imaging data generation unit 1c using a robot parameters P R Are displayed side by side. Incidentally, if both differences are inadequate current sensor parameters P S or robot parameter P R, If they match, that the current sensor parameters P S and the robot parameters P R is appropriate examples It is the same as 1.

仮想空間データ表示領域5bには、仮想空間上における、ロボット2、センサ3、ターゲットマーク4の配置が表示されおり、センサパラメータ設定領域5c、ロボットパラメータ設定領域5dに表示されている各種パラメータを調整することで、撮像データ表示領域5aに表示される仮想撮像データDと、仮想空間データ表示領域5bに表示されるロボット2の状態が変化する。 The arrangement of the robot 2 V , the sensor 3 V , and the target mark 4 V in the virtual space is displayed in the virtual space data display area 5b, and various types displayed in the sensor parameter setting area 5c and the robot parameter setting area 5d. by adjusting the parameters, the virtual imaging data D V to be displayed on the imaging data display area 5a, the state of the robot 2 V to be displayed on the virtual space data display area 5b changes.

このような表示画面5にて、作業者が、ポインタ5fを操作して、センサパラメータ設定領域5cやロボットパラメータ設定領域5dの各パラメータを適切に設定すると、センサデータDと仮想撮像データDが略一致する。このとき、作業者が決定ボタン5eを押すと、ロボットパラメータ更新部1gとセンサパラメータ更新部1hは、表示中の各パラメータ値に基づいて、データ記憶部1bに記憶された各パラメータを更新する。 At such a display screen 5, the operator operates the pointer 5f, when each parameter of the sensor parameter setting region 5c and the robot parameters setting area 5d appropriately setting, the sensor data D S and the virtual image pickup data D V Are almost the same. At this time, when the operator presses the decision button 5e, the robot parameter update unit 1g and the sensor parameter update unit 1h update each parameter stored in the data storage unit 1b based on the displayed parameter values.

以上で説明した実施例2の構成によれば、実施例1と同等の効果を得ることができるだけでなく、作業者は何れのパラメータに問題があったのかを直感的な操作により容易に把握することができる。 According to the configuration of the second embodiment described above, not only the same effect as that of the first embodiment can be obtained, but also the operator can easily grasp which parameter has a problem by an intuitive operation. be able to.

1…キャリブレーション装置、
1a…ロボット制御部、
1b…データ記憶部、
1c…仮想撮像データ生成部、
1d…センサデータ取得部、
1e…撮像環境判定部、
1f…相対位置姿勢推定部、
1g…ロボットパラメータ更新部、
1h…センサパラメータ更新部、
2、2…ロボット、
3、3…センサ、
4、4…ターゲットマーク、
5…表示画面、
5a…撮像データ表示領域5a、
5b…仮想空間データ表示領域
5c…センサパラメータ設定領域
5d…ロボットパラメータ設定領域
5e…決定ボタン
5f…ポインタ
1 ... Calibration device,
1a ... Robot control unit,
1b ... Data storage unit,
1c ... Virtual imaging data generator,
1d ... Sensor data acquisition unit,
1e ... Imaging environment judgment unit,
1f ... Relative position / orientation estimation unit,
1g ... Robot parameter update unit,
1h ... Sensor parameter update unit,
2, 2 V ... Robot,
3, 3 V ... sensor,
4, 4 V ... Target mark,
5 ... Display screen,
5a ... Imaging data display area 5a,
5b ... Virtual space data display area 5c ... Sensor parameter setting area 5d ... Robot parameter setting area 5e ... Enter button 5f ... Pointer

Claims (6)

センサの出力に基づいてセンサデータを生成するセンサデータ取得部と、
ロボットを制御するロボット制御部と、
前記センサに関するセンサパラメータと前記ロボットに関するロボットパラメータを記憶したデータ記憶部と、
前記センサパラメータおよび前記ロボットパラメータに基づいて、仮想空間上の前記センサから前記ロボットを計測した仮想データを生成する仮想データ生成部と、
前記センサデータと前記仮想データを比較し、両者の差異を判定する環境判定部と、
前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索する相対位置姿勢推定部と、
前記データ記憶部に記憶された前記センサパラメータまたは前記ロボットパラメータを前記相対位置姿勢推定部で探索した前記センサパラメータまたは前記ロボットパラメータに更新する更新部と、
を具備することを特徴とするキャリブレーション装置。
A sensor data acquisition unit that generates sensor data based on the output of the sensor,
A robot control unit that controls the robot and
A data storage unit that stores sensor parameters related to the sensor and robot parameters related to the robot, and
A virtual data generation unit that generates virtual data obtained by measuring the robot from the sensor in the virtual space based on the sensor parameter and the robot parameter.
An environment determination unit that compares the sensor data and the virtual data and determines the difference between the two.
A relative position / orientation estimation unit that searches for the sensor parameter or the robot parameter that reduces the difference, and
An update unit that updates the sensor parameter or the robot parameter stored in the data storage unit to the sensor parameter or the robot parameter searched by the relative position / orientation estimation unit, and an update unit.
A calibration device characterized by comprising.
請求項1に記載のキャリブレーション装置において、
前記環境判定部は、前記仮想データを前記センサデータと一致させるのに必要な回転量または移動量を求め、
前記相対位置姿勢推定部は、前記回転量または前記移動量が閾値以上の場合に、前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索し、前記回転量または前記移動量が前記閾値未満の場合には、前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索しないことを特徴とするキャリブレーション装置。
In the calibration apparatus according to claim 1,
The environment determination unit obtains the amount of rotation or movement required to match the virtual data with the sensor data.
When the rotation amount or the movement amount is equal to or more than the threshold value, the relative position / orientation estimation unit searches for the sensor parameter or the robot parameter that reduces the difference, and the rotation amount or the movement amount is less than the threshold value. In some cases, a calibration device that does not search for the sensor parameter or the robot parameter that reduces the difference.
請求項1または請求項2に記載のキャリブレーション装置において、
前記データ記憶部は、前記センサと前記ロボットの位置に関する環境情報を更に記憶しており、
仮想データ生成部は、前記環境情報に基づいて前記センサと前記ロボットを配置した仮想空間上の前記センサから前記ロボットを観測することで、前記仮想データを生成することを特徴とするキャリブレーション装置。
In the calibration apparatus according to claim 1 or 2.
The data storage unit further stores environmental information regarding the positions of the sensor and the robot.
The virtual data generation unit is a calibration device that generates the virtual data by observing the robot from the sensor in the virtual space in which the sensor and the robot are arranged based on the environmental information.
請求項1または請求項2に記載のキャリブレーション装置において、
前記ロボットは、多関節ロボットアームであり、
前記ロボットパラメータは、前記多関節ロボットアームの各関節の回転角、または、ロボットに装着されたエンドエフェクタの動作状態であることを特徴とするキャリブレーション装置。
In the calibration apparatus according to claim 1 or 2.
The robot is an articulated robot arm.
The robot parameter is a calibration device characterized in that the rotation angle of each joint of the articulated robot arm or the operating state of an end effector mounted on the robot.
請求項1または請求項2に記載のキャリブレーション装置において、
前記センサはカメラであり、
前記センサパラメータは、前記カメラの、位置姿勢、焦点距離、歪係数、または、光軸中心であることを特徴とするキャリブレーション装置。
In the calibration apparatus according to claim 1 or 2.
The sensor is a camera
A calibration device characterized in that the sensor parameter is the position / orientation, focal length, distortion coefficient, or optical axis center of the camera.
請求項1に記載のキャリブレーション装置において、
前記相対位置姿勢推定部での探索には、作業者が入力した前記センサパラメータまたは前記ロボットパラメータを用いることを特徴とするキャリブレーション装置。
In the calibration apparatus according to claim 1,
A calibration device characterized in that the sensor parameter or the robot parameter input by an operator is used for the search by the relative position / orientation estimation unit.
JP2019145546A 2019-08-07 2019-08-07 calibration device Active JP7264763B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019145546A JP7264763B2 (en) 2019-08-07 2019-08-07 calibration device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019145546A JP7264763B2 (en) 2019-08-07 2019-08-07 calibration device

Publications (2)

Publication Number Publication Date
JP2021024056A true JP2021024056A (en) 2021-02-22
JP7264763B2 JP7264763B2 (en) 2023-04-25

Family

ID=74664274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019145546A Active JP7264763B2 (en) 2019-08-07 2019-08-07 calibration device

Country Status (1)

Country Link
JP (1) JP7264763B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013191128A (en) * 2012-03-15 2013-09-26 Omron Corp Simulator, simulation method, and simulation program
JP2014014912A (en) * 2012-07-11 2014-01-30 Seiko Epson Corp Robot system, robot, robot control device, robot control method and robot control program
JP2015136770A (en) * 2014-01-23 2015-07-30 ファナック株式会社 Data creation system of visual sensor, and detection simulation system
JP2017094406A (en) * 2015-11-18 2017-06-01 オムロン株式会社 Simulation device, simulation method, and simulation program
JP2018144160A (en) * 2017-03-03 2018-09-20 株式会社キーエンス Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recorded device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013191128A (en) * 2012-03-15 2013-09-26 Omron Corp Simulator, simulation method, and simulation program
JP2014014912A (en) * 2012-07-11 2014-01-30 Seiko Epson Corp Robot system, robot, robot control device, robot control method and robot control program
JP2015136770A (en) * 2014-01-23 2015-07-30 ファナック株式会社 Data creation system of visual sensor, and detection simulation system
JP2017094406A (en) * 2015-11-18 2017-06-01 オムロン株式会社 Simulation device, simulation method, and simulation program
JP2018144160A (en) * 2017-03-03 2018-09-20 株式会社キーエンス Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recorded device

Also Published As

Publication number Publication date
JP7264763B2 (en) 2023-04-25

Similar Documents

Publication Publication Date Title
US10035268B2 (en) Measurement system used for calibrating mechanical parameters of robot
JP4267005B2 (en) Measuring apparatus and calibration method
CN106457562B (en) Method and robot system for calibration machine people
JP7237483B2 (en) Robot system control method, control program, recording medium, control device, robot system, article manufacturing method
US10906182B2 (en) Method of teaching robot and robot system
CN101239469B (en) Calibration device and method for robot mechanism
JP6429473B2 (en) Robot system, robot system calibration method, program, and computer-readable recording medium
JP6489776B2 (en) Coordinate system calibration method, robot system, program, and recording medium
JP6235664B2 (en) Measuring device used to calibrate mechanism parameters of robot
JP5371927B2 (en) Coordinate system calibration method and robot system
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
US20160354929A1 (en) Robot, robot control device, and robot system
CN108453701A (en) Control method, the method for teaching robot and the robot system of robot
CN111278608B (en) Calibration article for 3D vision robot system
CN101909828A (en) Method and system for the high-precision positioning of at least one object in a final location in space
JP2015042437A (en) Robot system and calibration method of robot system
KR20080088165A (en) Robot calibration method
JPH1063317A (en) Method for combining coordinate system in robot and visual sensor system
WO2018043524A1 (en) Robot system, robot system control device, and robot system control method
JP2012223871A (en) Origin correction method and system of robot joint
TW202102347A (en) Calibration method of vision-guided robot arm only needing to specify a positioning mark in the calibration target to perform calibration
KR20130075712A (en) A laser-vision sensor and calibration method thereof
JP2013173191A (en) Robot apparatus, robot control apparatus, robot control method, and robot control program
JP7264763B2 (en) calibration device
TWI853525B (en) Non-transitory computer-readable medium recording thereon marker position registration program, a marker position registration device, method, and markers used in the method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230413

R150 Certificate of patent or registration of utility model

Ref document number: 7264763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150