JP2020003830A - Moving object control device and moving object control system - Google Patents
Moving object control device and moving object control system Download PDFInfo
- Publication number
- JP2020003830A JP2020003830A JP2016186444A JP2016186444A JP2020003830A JP 2020003830 A JP2020003830 A JP 2020003830A JP 2016186444 A JP2016186444 A JP 2016186444A JP 2016186444 A JP2016186444 A JP 2016186444A JP 2020003830 A JP2020003830 A JP 2020003830A
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- camera
- control device
- object control
- control system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003287 optical effect Effects 0.000 claims abstract description 51
- 230000035945 sensitivity Effects 0.000 claims description 4
- 230000001678 irradiating effect Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 abstract description 52
- 238000000034 method Methods 0.000 abstract description 20
- 230000000694 effects Effects 0.000 abstract 1
- 239000003550 marker Substances 0.000 description 31
- 238000010586 diagram Methods 0.000 description 17
- 239000013598 vector Substances 0.000 description 17
- 239000011159 matrix material Substances 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 13
- 230000009466 transformation Effects 0.000 description 6
- 101100290429 Mus musculus Mcm3 gene Proteins 0.000 description 5
- SHXWCVYOXRDMCX-UHFFFAOYSA-N 3,4-methylenedioxymethamphetamine Chemical compound CNC(C)CC1=CC=C2OCOC2=C1 SHXWCVYOXRDMCX-UHFFFAOYSA-N 0.000 description 4
- 229910018969 McMd Inorganic materials 0.000 description 4
- 230000010355 oscillation Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B10/00—Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
- H04B10/11—Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
- H04B10/114—Indoor or close-range type systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q9/00—Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Optical Communication System (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、移動体の制御に関し、特に光を用いた移動体の制御装置および制御システムに関する。 The present invention relates to control of a moving object, and more particularly to a control device and a control system of a moving object using light.
移動体と、その移動体を制御する制御装置間の通信手段として、電波を用いる方法が一般的である。そして、制御装置側で移動体の位置や姿勢情報を取得するために、移動体側で持つ慣性装置やGPS(Global Positioning System)装置により得られた情報を、制御装置側に電波で送信することで、移動体を制御できる。しかしながら、周囲の電波環境や第三者の妨害行為により、移動体との通信が途絶した場合、移動体は制御不能となる恐れがある。 As a communication means between a moving object and a control device for controlling the moving object, a method using radio waves is generally used. Then, in order to obtain position and orientation information of the moving body on the control device side, information obtained by an inertial device or a GPS (Global Positioning System) device possessed on the moving body side is transmitted to the control device side by radio waves. , Can control the moving body. However, if the communication with the mobile unit is interrupted due to the surrounding radio wave environment or the obstruction of a third party, the mobile unit may become uncontrollable.
移動体と、その移動体を制御する制御装置間の通信手段として、光を用いる方法(以下、光通信)がある。光通信に関する技術として、特許文献1、2が挙げられる。特許文献1には、固定された軌道上を走行する台車と地上側のそれぞれに通信制御装置を設け、予め入力された走行パターンに基づいて、二つの通信制御装置のビーム方向を常に対向するように制御する技術が開示されている。特許文献2には、人工衛星や航空機等の移動体相互間の通信または地上局と移動体間の通信のために設けられた光空間通信装置において、相手局からのレーザビームを精粗協調制御系で捕捉し、通信を開始する技術が開示されている。
As a communication means between a moving object and a control device that controls the moving object, there is a method using light (hereinafter, optical communication).
一方、光通信を用いないで移動体を制御する技術が、特許文献3、4に開示されている。特許文献3には、移動体制御装置側に設けられた光波距離計とカメラにより、アンテナを介して無線により制御される移動体の位置を測定する移動体制御装置が開示されている。特許文献4には、有線通信または無線通信で接続された移動体に再帰反射体を設けた追尾式レーザ装置が開示されている。
On the other hand,
特許文献1に開示の技術は、台車が固定された軌道上を入力された走行パターンで走行することが前提であり、走行パターンが予め判っている際には有効な技術である。しかしながら、特許文献1に開示の技術では、軌道や予め入力された走行パターンを外れる等の任意の走行パターンには対応できない。
The technology disclosed in
特許文献2に開示の技術では、移動体と移動体、または地上局と移動体のそれぞれで精粗協調制御系による相手局からのレーザビームの捕捉を行う。人工衛星や航空機等の大型の移動体であれば、特許文献2に開示されるような精粗協調制御系を有する光空間通信装置を移動体に持たせることも可能であるが、移動体に搭載する機器はより小型で軽量なものが望まれる。また、人工衛星や航空機では軌道の予測も可能であるが、軌道の予測が無い状態では、相手局からのレーザビームの捕捉は困難になる。
In the technique disclosed in
特許文献3に開示の技術では、移動体への制御信号を送信する手段はアンテナを介した無線通信によるものであり、特許文献3には無線通信の妨害等の無線通信に関する課題の開示は無い。特許文献4においても、無線通信は有線通信よりも移動体の移動範囲の制限が無いという利点のみが開示されており、無線通信の妨害等の無線通信に関する課題の開示は無い。
In the technique disclosed in Patent Document 3, the means for transmitting a control signal to a moving object is based on wireless communication via an antenna, and Patent Document 3 does not disclose any problem related to wireless communication such as interference with wireless communication. .
本発明は、上述のような課題を解決するためになされたもので、移動体が空間を自由に動く場合でも、移動体と制御装置間の光通信を可能とする技術を提供することを目的とする。 The present invention has been made to solve the above-described problems, and has an object to provide a technology that enables optical communication between a moving object and a control device even when the moving object freely moves in space. And
本発明の移動体制御装置および移動体制御システムは、カメラと、光源と、を有し、前記カメラの視野内で移動体に信号光線を照射することで、上述の課題を解決する。 A moving object control device and a moving object control system according to the present invention have a camera and a light source, and irradiate a signal beam to a moving object within a field of view of the camera to solve the above-described problem.
本発明によれば、移動体が空間を自由に動く場合でも、移動体と制御装置間の光通信が可能になる。ひいては、電波環境が悪い状態においても、移動体の制御が可能になる。 ADVANTAGE OF THE INVENTION According to this invention, even when a mobile body moves freely in space, optical communication between a mobile body and a control apparatus becomes possible. As a result, even when the radio wave environment is poor, it is possible to control the moving body.
以下、本発明の各実施例を説明する。以下の実施の形態において、便宜上その必要があるときは、複数の実施の形態に分割して説明するが、特に明示した場合を除き、それらはお互いに無関係なものではなく、一方は他方の一部または全部の変形例、詳細、補足説明等の関係にある。また、以下の実施の形態を説明するための全図において、同一機能を有するものは原則として同一の符号を付し、その繰り返しの説明は省略する。以下、本発明の実施の形態を図面に基づいて詳細に説明する。 Hereinafter, embodiments of the present invention will be described. In the following embodiments, when it is necessary for convenience, the description will be made by dividing into a plurality of embodiments, but they are not irrelevant to each other, and one is There is a relationship of a part or all of the modified examples, details, supplementary explanations, and the like. In all the drawings for describing the following embodiments, components having the same function are denoted by the same reference symbol in principle, and repeated description thereof will be omitted. Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図9に、本発明の実施例である移動体制御装置901および移動体である飛行体902をさらに含む移動体制御システムを示す。また、図1に、本実施例のブロック図を示す。図1では、飛行体902を下面側から見た図で示している。一方、図9では、飛行体902を側面側から見た図で示している。
FIG. 9 shows a moving object control system further including a moving
図1および図9に示すように、本実施例に係る移動体制御装置901は、カメラ110と、光源であるレーザ光源120と、を有し、破線906aと破線906bの間の領域であるカメラ110の視野内で、移動体である飛行体902に信号光線904を照射することを特徴とする。本実施例では、信号光線904はレーザ光源120を強度変調して生成される。
As shown in FIGS. 1 and 9, a moving
図1に示すように、移動体制御装置901は、カメラ110と、レーザ光源120と、レーザ光源120からのレーザの光量を調節するレーザ光量調節器130と、スプリッタ140と、信号光線904およびカメラ110の視野を偏向する二次元ガルバノスキャナ190と、コントローラ202と、を備える。偏向器である二次元ガルバノスキャナ190は、先端に設けられている偏向ミラー151aを第1方向に揺動するガルバノメータスキャナ150aと、先端に設けられている偏向ミラー151bを第2方向に揺動するガルバノメータスキャナ150bと、ガルバノメータスキャナ150aを駆動するガルバノ駆動部160aと、ガルバノメータスキャナ150bを駆動するガルバノ駆動部160bと、を有する。ここで、本実施例では偏向ミラー151aを揺動する第1方向と偏向ミラー151bを揺動する第2方向は直交している。移動体制御装置901は、さらにコントローラ202に接続されているストレージ180を有する。レーザ光源120には、例えば、波長635nmの半導体レーザ、またはHe−Neレーザを用いることができる。
As shown in FIG. 1, a moving
図1に示すように、飛行体902の下面には、コントローラ202で行う画像処理による飛行体902の位置情報および姿勢情報の算出用の4つのマーカ200a、200b、200c、200dが表面に描かれており、4つのマーカ200a〜200dの中心に信号光線904を検出するためのフォトダイオード210が設けられている。フォトダイオード210の受光面の大きさは、例えば11mm×11mmである。本実施例では、マーカ200aとマーカ200cとの間の距離と、マーカ200bとマーカ200dとの間の距離を等しくする。また、マーカ200aとマーカ200cを結ぶ線分と、マーカ200bとマーカ200dを結ぶ線分が互いの中央で直交するよう、マーカ200a〜200dを配置する。図9に示すように、飛行体902の上面には、マーカ200aの上方にプロペラ903aが、マーカ200bの上方にプロペラ903bが、それぞれ設けられている。図9では省略しているが、飛行体902の上面には、さらに、マーカ200cの上方にプロペラ903cが、マーカ200dの上方にプロペラ903dが、それぞれ設けられている。飛行体902は、信号光線904に含まれる制御信号に基づいて、プロペラ903a〜903dを駆動して飛行する。各マーカ200a〜200dとフォトダイオード210の位置関係の情報は、ストレージ180に保存しておく。
As shown in FIG. 1, four
移動体制御装置901では、図1に示すように、スプリッタ140を用いてカメラ110とレーザ光源120の光軸を一致させている。したがって、カメラ110で撮影した画像の中心の位置に信号光線904が照射される。このように、カメラ110の光軸に沿って信号光線904を照射する構成とすることで、それぞれの光軸が互いに異なる場合に必要な補間計算が不要になり、後述するコントローラ202でのガルバノスキャナへの角度指令値生成の計算を簡易にできる。また、偏向手段として一般的なパン・チルト方式(カメラの台座が水平方向と仰角方向に回転するもの)ではなく、上述のように一対の反射ミラーを揺動モータによって駆動して偏向角度を変えるガルバノスキャナとすることで、高速かつ高精度な偏向が可能になる。
In the moving
次に、本実施例に係る移動体制御装置901の移動体追尾動作について説明する。コントローラ202には、カメラ110により得られる飛行体902の像を含む画像データ13が入力される。コントローラ202は、後述する手段によって各ガルバノスキャナへの角度指令16a、16bを生成し、角度指令16aをガルバノ駆動部160aに、角度指令16bをガルバノ駆動部160bに、それぞれ送信する。ガルバノ駆動部160aは、角度指令16aに応じた電流17aがガルバノスキャナ150aに流れるように印加電圧を調整して出力する。また、ガルバノ駆動部160bは、角度指令16bに応じた電流17bがガルバノスキャナ150bに流れるように印加電圧を調整して出力する。これにより、移動体制御装置901は、カメラ110の光軸を、移動体である飛行体902の中心に配置されているフォトダイオード210に向ける。この際、カメラ110の光軸に沿って信号光線904が照射される構成になっているので、カメラ110から得られる画像データ13での像の中心に対応する位置に信号光線904が照射される。したがって、フォトダイオード210に信号光線904が照射される。
Next, a moving object tracking operation of the moving
次に、本実施例に係る移動体制御装置901の通信動作について説明する。コントローラ202で飛行体902を追尾中と判定された場合、コントローラ202は、上位制御装置181から飛行体902へ送信される送信データ10に基づき、通信パルス14を生成する。レーザ光量調整器130は、通信パルス14に対応する電流15がレーザ光源120に流れるよう、レーザ光源120への印加電圧を調整する。その結果、レーザ光源120からパルス状のレーザ光である信号光線904が、飛行体902のフォトダイオード210に向けて照射される。飛行体902側では、フォトダイオード210が、受光した信号光線904に応じた電圧40を移動体駆動コントローラ220へ出力する。移動体駆動コントローラ220で、受信したパルス状の電圧40から送信データ10を復号することで、移動体制御装置901と飛行体902との間の通信が成立する。送信データ10には、例えば、飛行体902の識別情報、移動体制御装置901の識別情報、飛行体902への移動指令の情報、および飛行体902が有する特定の機能(搭載カメラなど)への指令の情報が含まれる。また、コントローラ202は、二次元ガルバノスキャナ190への指令値およびカメラ110の取得画像に基づいて、飛行体902の移動体制御装置901に対する相対位置の情報および飛行体902の姿勢の情報を含む移動体位置・姿勢情報30を、上位制御装置181へ出力する。
Next, a communication operation of the
続いて、移動体制御装置901の各部の詳細な構成と動作について説明する。図2は、コントローラ202の構成を示す図である。コントローラ202は、ガルバノ角度指令値生成部170a、追尾状態判定部170b、移動体位置・姿勢算出部170c、および通信用パルス列生成部170dを有する。
Subsequently, a detailed configuration and operation of each unit of the
図3に、ガルバノ角度指令値生成部170aの構成図を示す。ガルバノ角度指令値生成部170aは、画像データ13から光軸のずれ量を導出する光軸ずれ量算出部171と、二次元ガルバノスキャナ190で偏向する各軸の一つ前の角度指令値を記憶するメモリ172aおよびメモリ172bと、各軸のサーボ系の外乱圧縮特性や安定性を向上させるサーボ補償器173aおよびサーボ補償器173bと、を有する。
FIG. 3 shows a configuration diagram of the galvano angle command
カメラ110で取得される画像データ13の一例を、図4に示す。ガルバノスキャナ150aの走査方向は紙面左右で右側を正とする方向(以下、x軸方向)で、ガルバノスキャナ150bの走査方向は紙面上下で上を正とする方向(以下、y方向)とする。画像データ13には飛行体902の像が含まれており、画像データ13はマーカ200a〜200dが像に含まれる条件で撮像される。ここで、画像データ13上に設けられた追尾判定円401は、フォトダイオード210が信号光線904を所定のレベル以上で受信できる範囲を示す。追尾判定円401の中心は、画像データの二次元座標系(以下、スクリーン座標系)の原点S(0,0)である。飛行体902の中心であるフォトダイオード210が追尾判定円401内にあるように追尾をすることで、移動体制御装置901と飛行体902の間で通信が可能となる。また、画像データ13のマーカ200a〜200dの像から、移動体である飛行体902の位置の情報および姿勢の情報が得られる。
FIG. 4 shows an example of the
ここで、光軸ずれ量の算出方法を説明する。図4に示すように、取得した画像で、一点鎖線で示したマーカ200aとマーカ200cを結ぶ線分201aと、二点鎖線で示したマーカ200bとマーカ200dを結ぶ線分201bの交点である移動体中心座標21をQ(qx,qy)とすると、カメラ座標系での原点Oから移動体を結ぶ軸と光軸の、画像上のずれ量はx軸方向にqx、y軸方向にqyとなる。光軸ずれ量算出部171では、画像データ13から各マーカ200a〜200dを抽出し、移動体中心座標21であるQ(qx,qy)を算出して追尾状態判定部170bに出力し、移動体中心座標21からx軸での光軸ずれ量31aおよびy軸での光軸ずれ量31bを算出する。算出された光軸ずれ量31aは、メモリ172aに貯えられたひとつ前の角度指令値32aと合算され、サーボ補償器173aを経て角度指令値16aとなる。同様に、算出された光軸ずれ量31bは、メモリ172bに貯えられたひとつ前の角度指令値32bと合算され、サーボ補償器173bを経て角度指令値16bとなる。サーボ補償器173a、173bは、PID制御で角度指令値16a、16bを出力する。以上により、画像データ13から角度指令値16a、16bが算出される。
Here, a method of calculating the optical axis shift amount will be described. As shown in FIG. 4, in the acquired image, a movement which is an intersection of a
次に、追尾状態判定部170bについて説明する。追尾状態判定部170bは、ガルバノ角度指令値生成部170aから送信される移動体中心座標21が、図4に示す追尾判定円401内に入っている場合に、追尾状態信号22を移動体位置・姿勢算出部170cおよび通信用パルス列生成部170dに送る。
Next, the tracking
移動体位置・姿勢算出部170cについて説明する。移動体位置・姿勢算出部170cでは、追尾状態信号22を受け取っている間は、画像データ13および角度指令値16a、16bから、移動体である飛行体902の位置の情報および姿勢の情報を含む移動体位置・姿勢情報30を算出し、出力する。移動体位置・姿勢情報30の算出方法について、以下に説明する。
The moving body position /
三次元空間でのカメラとカメラで撮像される画像の関係は、図10に示すとおり三次元で表現されるカメラ座標系と、二次元で表現されるスクリーン座標系を用いて表現できる。カメラ座標系とスクリーン座標系のx、y軸とその向きは同一であり、ここでは図10のように定義する。カメラ座標系の原点Oからスクリーン座標系中心の点Sに向かう方向をz軸の正方向とする。ここで、カメラ座標系での点Oと点Sのx、y座標は同一であり、カメラ座標系での点Oと点Sのz座標の差(=距離)は使用されるカメラおよびレンズの特性により一意に決定される事前に与えられる変数である。ここでは、点Oと点Sのz座標の差をfとする。なお、カメラおよびレンズの特性により生じる像の歪みについては、説明を簡単にするために無視する。 The relationship between cameras in a three-dimensional space and images captured by the cameras can be expressed using a camera coordinate system expressed in three dimensions and a screen coordinate system expressed in two dimensions as shown in FIG. The x and y axes and directions of the camera coordinate system and the screen coordinate system are the same, and are defined as shown in FIG. The direction from the origin O of the camera coordinate system to the point S at the center of the screen coordinate system is defined as the positive direction of the z-axis. Here, the x and y coordinates of the point O and the point S in the camera coordinate system are the same, and the difference (= distance) between the z coordinate of the point O and the point S in the camera coordinate system is determined by the camera and lens used. It is a pre-given variable uniquely determined by the characteristic. Here, the difference between the z coordinate of the point O and the point S is f. Note that image distortion caused by camera and lens characteristics is ignored for simplicity.
図10に示すように、移動体座標系は三次元で与えられ、ここでは各マーカ200a〜200dの移動体座標系での座標をMa、Mb、Mc、Mdとし、スクリーン座標系に投影されたそれぞれの座標をMa’、Mb’、Mc’、Md’とする。前述のとおり、本実施例では移動体の中心であるフォトダイオード210から、4つのマーカ200a〜200dを同じ距離だけ離し、かつマーカ200aとマーカ200bの間の距離、マーカ200bとマーカ200cの間の距離、マーカ200cとマーカ200dの間の距離、およびマーカ200dとマーカ200aの間の距離が等しくなるようにしているため、線分MaMb、線分MbMc、線分McMd、および線分MdMaの長さは等しく、線分MaMbと線分McMdは平行であり、また線分MbMcと線分MdMaも平行である。
As shown in FIG. 10, the moving body coordinate system is given in three dimensions. Here, coordinates of the
ここで、カメラ座標系から移動体座標系への回転行列RCM−MOの算出方法について説明する。なお、本説明ではスクリーン座標系の各点のz座標を事前に与えられるパラメータであるfと与え、三次元座標へ拡張する。まず、点Ma’、点Mb’、およびカメラ座標系の原点Oを通る平面Ma’Mb’Oを求める。このとき、線分MaMbも平面Ma’Mb’O内に存在する。次に、平面Ma’Mb’Oの法線ベクトルlを求める。線分MaMbに平行な線分McMdに関しても同様にして、平面Mc’Md’Oと、平面Mc’Md’Oの法線ベクトルmと、を求める。ここで、線分MaMbと線分McMdは平行であるため、その方向ベクトルは同一である。つまり、法線ベクトルlと法線ベクトルmの外積として計算されるベクトルは、線分MaMbおよび線分McMdのカメラ座標系における方向ベクトルとなり、この方向ベクトルの単位ベクトルをeu(eux、euy、euz)と定義する。もう一組の線分MbMc、線分MdMaに関しても同様の計算を行い、線分MbMcおよび線分MdMaのカメラ座標系における方向ベクトルの単位ベクトルev(evx、evy、evz)を得る。理想的には、単位ベクトルeuと単位ベクトルevは直交し、単位ベクトルeuと単位ベクトルevの外積ewを求めることで、カメラ座標系から見た移動体の姿勢を表す3つの単位ベクトルeu(eux、euy、euz)、ev(evx、evy、evz)、ew(ewx、ewy、ewz)が得られる。これらの単位ベクトルを用いて、回転行列RCM−MOは次式で表わされる。
Here, a method of calculating the rotation matrix RCM-MO from the camera coordinate system to the moving object coordinate system will be described. In this description, the z coordinate of each point in the screen coordinate system is given as a parameter f given in advance, and is extended to three-dimensional coordinates. First, a plane Ma'Mb'O passing through the point Ma ', the point Mb', and the origin O of the camera coordinate system is obtained. At this time, the line segment MaMb also exists in the plane Ma'Mb'O. Next, a
回転行列RCM−MOに移動体の座標系で表された点の座標を右からかけると、カメラ座標系で見た座標へと変換できる。 By multiplying the rotation matrix RCM-MO by the coordinates of a point represented in the coordinate system of the moving object from the right, the coordinates can be converted to coordinates seen in the camera coordinate system.
次に、カメラ座標系における移動体の中心Moの算出方法について説明する。ここでは、移動体がカメラ座標系に対してx軸周りに回転した場合について、図11を用いて説明する。図11はyz平面から見た、カメラ、スクリーン、および移動体を示す図である。なお、y軸周りに回転した場合、z軸周りに回転した場合、または複数の軸周りに回転した場合の考え方も相違ない。 Next, a method of calculating the center Mo of the moving object in the camera coordinate system will be described. Here, a case where the moving body rotates around the x-axis with respect to the camera coordinate system will be described with reference to FIG. FIG. 11 is a diagram showing a camera, a screen, and a moving body as viewed from the yz plane. It should be noted that there is no difference in the concept of rotation around the y axis, rotation around the z axis, or rotation around a plurality of axes.
追尾状態にある移動体において、カメラ座標系から見た移動体の中心Moのx座標およびy座標はともに0であり、z座標がカメラ座標の原点Oから移動体の中心Moまでの距離doとなる。移動体座標系における各マーカ位置は既知であるため、先の求めた回転行列RCM−MOに移動体座標系であらわされる各マーカ座標を代入することで、カメラ座標における各マーカ座標のx座標およびy座標が得られる。なお、得られるz座標は、カメラ座標系における移動体の中心Moの位置からのz方向の差分を示す。 In the moving object in the tracking state, the x coordinate and the y coordinate of the center Mo of the moving object viewed from the camera coordinate system are both 0, and the z coordinate is the distance do from the origin O of the camera coordinates to the center Mo of the moving object. Become. Since each marker position in the moving object coordinate system is known, the x coordinate of each marker coordinate in the camera coordinates is obtained by substituting each marker coordinate expressed in the moving object coordinate system into the rotation matrix R CM-MO obtained above. And y coordinates are obtained. Note that the obtained z coordinate indicates a difference in the z direction from the position of the center Mo of the moving body in the camera coordinate system.
図11の点Maはマーカ200aをカメラ座標系で表し、同様に点Mbはマーカ200bをカメラ座標系で表したものである。図11の点Ma’’は点Maをスクリーン座標系に平行な平面に投影した点であるが、両者のx座標およびy座標は同一である。同様に、点Mb’’と点Mbのx座標およびy座標は同一である。そのため、カメラ座標系の原点Oから移動体の中心Moまでの距離doは、点Maの座標(ax、ay、az)、点Ma’の座標(ax’、ay’、az’)、点Mbの座標(bx、by、bz)、および点Mb’の座標(bx’、by’、bz’)を用いて次式で算出可能である。
The point Ma in FIG. 11 represents the
以上のように求められる回転行列RCM−MOから、移動体のロール・ピッチ・ヨー成分を算出可能であり、距離doからカメラから移動体までの距離、すなわち移動体制御装置から移動体までの距離を算出することができる。 The roll, pitch, and yaw components of the moving object can be calculated from the rotation matrix R CM-MO obtained as described above, and the distance from the camera to the moving object from the distance do, that is, the distance from the moving object control device to the moving object. The distance can be calculated.
本実施例ではカメラ110の光軸を二次元ガルバノスキャナ190で偏向しており、カメラ座標系は偏向角度に応じて変化する。そのため、移動体制御装置901のワールド座標系から見た飛行体902の位置情報および姿勢情報を得るために、上述のように移動体座標系からカメラ座標系へと座標変換した後に、角度指令値16aおよび角度指令値16bに基づいてカメラ座標系からワールド座標系への変換行列を算出し、算出した変換行列を用いてさらにもう一回座標変換する。
In the present embodiment, the optical axis of the
ここで、回転行列RCM−MOおよび距離から、移動体の座標系からカメラ座標系への座標変換行列は、次式となる。 Here, from the rotation matrix RCM-MO and the distance, the coordinate transformation matrix from the moving body coordinate system to the camera coordinate system is as follows.
座標変換行列SCM−MOは、回転行列成分(1〜3列目、1〜3行目)と原点情報(4列目、1〜3行目)を有する。 The coordinate transformation matrix SCM-MO has rotation matrix components (first to third columns, first to third rows) and origin information (fourth column, first to third rows).
本実施例では、カメラ110の光軸を二次元ガルバノスキャナ190で偏向しており、カメラ座標系は偏向角度に応じて変化する。そのため、角度指令値16aとしてx軸方向にθ、角度指令値16bとしてy軸方向にφだけ回転移動すると、グローバル座標系からカメラ座標系への回転行列RCM−GLは次式で表わせる。
In the present embodiment, the optical axis of the
ここで、グローバル座標系とカメラ座標系の原点は同一とみなせるので、グローバル座標系からカメラ座標系への座標変換行列SCM−GLは、次式で表わせる。 Here, since the origin of the global coordinate system and the origin of the camera coordinate system can be regarded as the same, the coordinate transformation matrix SCM -GL from the global coordinate system to the camera coordinate system can be expressed by the following equation.
以上をまとめると、移動体の座標系をグローバル座標系に変換する行列SGL−MOは、次式で表わせる。 To summarize the above, the matrix SGL-MO that converts the coordinate system of the moving object into the global coordinate system can be expressed by the following equation.
グローバル座標系で見た移動体の中心位置Moは、SGL−MOの原点情報に対応し、移動体の姿勢はSGL−MOの回転行列として表現できる。以上により、移動体位置・姿勢算出部170cは、移動体である飛行体902の位置の情報および姿勢の情報を含む移動体位置・姿勢情報30を算出する。
The center position Mo of the moving body viewed in the global coordinate system corresponds to the origin information of the SGL-MO , and the posture of the moving body can be expressed as a rotation matrix of the SGL-MO . As described above, the moving body position /
通信用パルス列生成部170dについて説明する。通信用パルス列生成部170dは、追尾状態信号22を受信している間、送信データ10に基づき通信パルス14を生成し、出力する。本実施例では、送信データをバイナリ形式に変換し、二進数表記に置き換えた上で、レーザ光を周期的にオンオフすることで、データを符号化した信号光線904が実現される。
The communication
具体的には、「A12」という文字列を送信する場合に、まずASCII文字コードに従い、「0x41」「0x31」「0x32」と変換し、それぞれの二進数表現「01000001」「00110001」「00110010」とする。そして、0.1ms周期で符号に従ってレーザ光のオンオフの強度変調を行うことで、送信データが重畳した信号光線904となる。飛行体902での復号では、レーザ光検出素子であるフォトダイオード210より得られる電圧値を、設定電圧で二値化してパルス状とした信号に対して逆の手順で行うことで、送信されたデータと同じ受信データを得ることができる。
Specifically, when transmitting the character string “A12”, first, according to the ASCII character code, it is converted to “0x41”, “0x31”, and “0x32”, and the respective binary representations “01000001”, “00110001”, and “00110010” And Then, by performing on / off intensity modulation of the laser beam in accordance with the code at a period of 0.1 ms, a
本実施例によれば、移動体である飛行体902が空間を自由に動いた場合でも、移動体と制御装置間の光通信が可能となる。ひいては、電波環境が悪い状態においても、移動体の制御が可能になる。例えば、飛行体902が他の飛行体を捕える目的で追跡する場合のように、軌道の予測が難しく、かつ妨害電波が想定される場合であっても、移動体である飛行体902を制御できる。
According to the present embodiment, optical communication between the moving object and the control device can be performed even when the flying
本実施例では、追尾状態となった後に移動体の位置の情報および姿勢の情報を算出する手順としたが、追尾前から算出を開始してもよい。また、本実施例ではスプリッタにより、カメラとレーザ光源の光軸を同一としている。そのため、反射:透過の割合が50:50であるスプリッタの場合、レーザ光によってスプリッタ自体がレーザ光の波長で光り、取得画像におけるノイズとなり、マーカの抽出精度に悪影響を及ぼす。本現象を回避するためには、カメラ110の主要な感度波長域外にレーザ光源120の波長を設定することが有効である。カメラ110の主要な感度波長域外にレーザ光源120の波長を設定するには、スプリッタ140とカメラ110のCCDなどの撮像素子の間に、レーザ光源120の発振波長の光の透過を防ぐフィルタを挿入するか、または、カメラ110のCCDなどの撮像素子の感度波長域とは異なる発振波長を有するレーザ光源120とすることができる。レーザ光源120の発振波長の光の透過を防ぐフィルタとしては、例えば、レーザ光源120の発振波長の光を吸収するロングパスフィルタを使うことができる。
In the present embodiment, the procedure for calculating the information on the position and the attitude of the moving body after the tracking state is set is described. However, the calculation may be started before the tracking. In this embodiment, the optical axis of the camera and the laser light source are made the same by the splitter. Therefore, in the case of a splitter in which the ratio of reflection: transmission is 50:50, the splitter itself shines at the wavelength of the laser light due to the laser light, resulting in noise in the acquired image, which adversely affects the marker extraction accuracy. In order to avoid this phenomenon, it is effective to set the wavelength of the
本実施例の移動体制御装置および移動体制御システムによる光通信を実証するために、移動体制御装置と、飛行体902を模擬した移動体と、を準備して試験した。模擬移動体には、マーカ200a〜200dに対応させて4つの発光ダイオード(LED、Light Emitting Diode)を配置した。マーカ200aとマーカ200cに対応するLED間の距離は約30cmとした。移動体制御装置のレーザ光源には波長635nmの光源を用い、レーザ光の強度を変調して信号光線とし、ガルバノユニットで信号光線とカメラの光軸を偏向させつつ、89バイトの文字データを送信した。模擬移動体には、11mm×11mmの受光面を有するフォトダイオードを設け、移動体制御装置からの信号光線を受光した。模擬移動体と移動体制御装置との間を2.5m離し、模擬移動体を前後、左右、および上下方向に最高速度75mm/秒で、ストローク80mmで往復運動させ、模擬移動体上での信号光線によるレーザスポットの位置ずれ量を追従誤差として、移動体制御装置の模擬移動体の動きに対する追従誤差を評価した。
In order to demonstrate optical communication by the mobile object control device and the mobile object control system of the present embodiment, a mobile object control device and a mobile object simulating the flying
追従誤差の評価結果を図12に示す。図12の評価結果の縦軸は追従誤差で、横軸は時間である。実線のプロットは水平方向の追従誤差で、点線のプロットは、垂直方向の追従誤差である。追従誤差は最大でも1.21mmであり、優れた追従特性が得られた。また、移動体制御装置と模擬移動体の通信レートは、1kbpsを達成できた。 FIG. 12 shows the evaluation result of the tracking error. The vertical axis of the evaluation result in FIG. 12 is the tracking error, and the horizontal axis is time. The solid line plot is the tracking error in the horizontal direction, and the dotted line plot is the tracking error in the vertical direction. The tracking error was at most 1.21 mm, and excellent tracking characteristics were obtained. Further, the communication rate between the mobile control device and the simulated mobile body was able to achieve 1 kbps.
本実施例に係る移動体は、発光体を備えることを特徴とし、移動体制御装置のカメラで移動体の発光状態を捉えることで、移動体から移動体制御装置への通信が可能であることを特徴とする。ここでは、移動体でのデータ受信状態を一つの発光体を用いて移動体制御装置に知らせる例を説明する。 The moving body according to the present embodiment includes a light-emitting body, and the communication from the moving body to the moving body control device is possible by capturing the light emitting state of the moving body with the camera of the moving body control device. It is characterized by. Here, an example will be described in which a data receiving state at a moving body is notified to the moving body control device using one light emitting body.
図5は、本実施例に係る移動体である飛行体501のブロック図である。飛行体501は、図1に示す移動体である飛行体902とは、発光体240と、発光体制御部230と、をさらに有する点が異なる。本実施例では、飛行体501が備える発光体として発光ダイオード(LED、Light Emitting Diode)を用いている。実施例1の試験では、マーカ200a〜200dをLEDとする例を示したが、本実施例の飛行体501では、飛行体501の下面に、マーカ200a〜200dとは異なる位置に別途LEDを設けて、別途設けたLEDを明滅させることで、飛行体501のデータ受信状態を移動体制御装置に送信する。
FIG. 5 is a block diagram of a flying
本実施例の移動体501では、移動体制御装置より照射されるパルス状のレーザ光である信号光線904をフォトダイオード210で受光すると、照射された信号光線904に応じて電圧40を出力し、移動体駆動コントローラ220に信号として送信する。移動体駆動コントローラ220では、受信したパルス状の電圧を受信データとして復号化する。このとき、送信する送信データで2バイト毎にパリティビット(単位データ内に含まれる「1」の個数が偶数であれば1、奇数であれば0とするデータの誤りを検出するビット)を付加し、パリティチェックを行う。パリティチェック結果がOKの場合、受信データは真であるとして移動体で使用し、通信状態信号41を発光体制御部230に送る。発光体制御部230は、通信状態信号41を受信できた場合には発光体240に電圧42を印加し、発光体を発光させる。一方、通信状態信号41が受信できない場合、すなわちパリティチェック結果がNGの場合には、発光体制御部230は、発光体240を消灯する。
In the moving
次に、本実施例での移動体制御装置の動作について、図6を用いて説明する。図6は、本実施例での移動体制御装置に備わるコントローラ270を示しており、実施例1の図2のコントローラ202と比較して、画像データ13からLEDの状態を確認するLED状態検出部170eを持つ点が異なる。なお、移動体追尾動作は実施例1と同様のため、説明を省略し、以下、コントローラ270の通信動作を説明する。
Next, the operation of the moving object control device according to the present embodiment will be described with reference to FIG. FIG. 6 illustrates a
本実施例に係る通信動作では、送信データで2バイト毎に移動体の受信状態を確認し、受信NGの場合は同じデータを再度送信することを特徴とする。LED状態検出部170eは、画像データ13からLEDの点灯状態を検出し、LEDが点灯していれば正常受信信号23を通信用パルス列生成部170dに送信する。通信用パルス列生成部270dは、追尾状態信号22と正常受信信号23を受けている場合には、送信データ10に基づき通信パルス14を2バイト毎に生成するが、追尾状態信号22のみ受けている場合は同じ2バイトの通信パルス14を送り続ける。なお、送信データ10を符号化する方法は、通信用パルス生成部170dと同様である。
The communication operation according to the present embodiment is characterized in that the reception state of the mobile unit is checked every two bytes in the transmission data, and in the case of reception NG, the same data is transmitted again. The LED
本実施例によれば、移動体でのデータ受信を確認した後に次のデータを送信できるため、高品質な通信が可能となる。ここでは、移動体でのデータ受信状態を、単一の発光体を用いて移動体制御装置に知らせる例を説明したが、複数の発光体を用いて移動体から移動体制御装置へデータ転送することもできる。移動体から移動体制御装置に送信可能なデータ量は、カメラのフレームレートに依存するので、データ転送速度を向上させるには、発光体の明滅の速度を上げるのではなく、複数の発光体を用いる方法が有効である。 According to the present embodiment, the next data can be transmitted after confirming the data reception at the mobile body, so that high-quality communication can be performed. Here, an example has been described in which the data reception state at the moving object is notified to the moving object control device using a single light emitter. However, data is transferred from the moving object to the mobile object control device using a plurality of light emitters. You can also. Since the amount of data that can be transmitted from the moving object to the moving object control device depends on the frame rate of the camera, in order to improve the data transfer speed, it is not necessary to increase the blinking speed of the light emitter, but to increase the number of light emitters. The method used is effective.
本実施例に係る移動体制御装置は、ズームレンズにより移動体の像をより鮮明に取得可能であることを特徴とする。図7に、本実施例に係る移動体および移動体制御装置のブロック図を示す。 The moving object control device according to the present embodiment is characterized in that a clear image of the moving object can be obtained by the zoom lens. FIG. 7 is a block diagram of the moving object and the moving object control device according to the present embodiment.
本実施例の移動体制御装置701は、実施例1の移動体制御装置901とは、電動ズームレンズ180を持つ点、およびコントローラ370の構造が異なる。コントローラ370から電動ズームレンズ180へは光学倍率指令18が出力される。
The moving
固定倍率カメラでは、移動体が非常に遠くに存在する場合、移動体は撮像画像に小さく写るだけとなり、そのため移動体の位置・姿勢情報の算出精度が劣化し、移動体の追尾性能も低下する。そこで本実施例では、カメラ110とビームスプリッタの間にズームレンズを置き、撮像画像に写る移動体の大きさに合わせて電動ズームレンズの光学倍率を変更することで、撮像画像に写る移動体の大きさを一定以上とする。なお、移動体追尾に必要な、光学倍率とカメラパラメータの関係の情報は、ストレージ180に予め保存しておく。
With a fixed-magnification camera, if the moving object is very distant, the moving object will only appear small in the captured image, and therefore the calculation accuracy of the position / posture information of the moving object will deteriorate, and the tracking performance of the moving object will also decrease. . Therefore, in the present embodiment, a zoom lens is placed between the
次に、本実施例に係る移動体制御装置701の移動体追尾動作について説明する。図8は、本実施例に係るコントローラ370の構成を示す。実施例1のコントローラ202とは、ガルバノ角度指令値生成部170aに代わりガルバノ角度・光学倍率指令生成部370aとなる点が異なる。ガルバノ角度・光学倍率指令生成部370aでは、画像データ13からガルバノ角度指令16a、ガルバノ角度指令16b、および光学倍率指令18を生成する。ここで、光学倍率指令18の生成方法を説明する。画像平面での基準マーカ間距離範囲を予め設定(本例では250±50画素)しておく。取得した画像が図4に示す像である場合、まず対向するマーカ間距離(200a−200c間および200b−200d間)の平均値を算出する。ここで現在の光学倍率指令が1.0倍、算出結果が100であったとすると、光学倍率指令18は基準マーカ間距離設定値に従って2.5倍となる。基準距離範囲に幅を持たせている理由として、ガルバノスキャナの動きに対してズームレンズの指令追従性は悪く、頻繁に動かすことで追尾精度を低下する恐れがあるからである。以上の過程を経て、光学倍率指令18は作成される。
Next, a moving object tracking operation of the moving
移動体位置・姿勢算出部370cは、ガルバノ角度指令値生成部170cとは、光学倍率指令18を受け取り、光学倍率指令18に応じたカメラパラメータを用いて移動体の位置・姿勢情報30を算出する点が異なる。
The moving body position /
本実施例によれば、移動体制御装置からの距離が遠くなっても移動体により確実にデータを送信することが可能となる。なお、本実施例ではズームレンズをスプリッタとカメラ間に配置したが、偏向手段(ガルバノスキャナ)とスプリッタ間に配置してもよい。 According to the present embodiment, it is possible to reliably transmit data to the mobile unit even when the distance from the mobile unit control device increases. In this embodiment, the zoom lens is arranged between the splitter and the camera, but may be arranged between the deflecting means (galvano scanner) and the splitter.
本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。例えば、本実施例では移動体を飛行体としたが、他には走行体または浮体が想定される。 The present invention is not limited to the embodiments described above, and includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations. For example, in this embodiment, the moving body is a flying body, but a traveling body or a floating body is also assumed.
110…カメラ、120…レーザ光源、140…スプリッタ、190…二次元ガルバノスキャナ、901…移動体制御装置、902…飛行体、904…信号光線。
Claims (12)
光源と、を有し、
前記カメラの視野内で移動体に信号光線を照射することを特徴とする移動体制御装置。 Camera and
And a light source;
A moving object control device, wherein the moving object is irradiated with a signal beam within a field of view of the camera.
前記カメラの光軸に沿って、前記信号光線を照射することを特徴とする移動体制御装置。 The mobile object control device according to claim 1,
A moving object control device irradiating the signal beam along an optical axis of the camera.
光偏向器を有し、
前記カメラの視野内での前記移動体の位置に応じて、前記視野および前記信号光線を前記光偏向器で振ることを特徴とする移動体制御装置。 The mobile object control device according to claim 2,
Having an optical deflector,
A moving object control device, wherein the field of view and the signal light beam are swung by the optical deflector according to the position of the moving object in the field of view of the camera.
前記光偏向器はガルバノミラーであることを特徴とする移動体制御装置。 The mobile object control device according to claim 3,
The moving object control device, wherein the optical deflector is a galvanometer mirror.
前記光源の発光波長は、前記カメラの主感度波長域外であることを特徴とする移動体制御装置。 The mobile object control device according to claim 1,
The moving body control device, wherein an emission wavelength of the light source is outside a main sensitivity wavelength range of the camera.
前記光源はレーザ光源であり、前記信号光線は前記レーザ光源の強度変調によって生成されることを特徴とする移動体制御装置。 The mobile object control device according to claim 1,
The light source is a laser light source, and the signal beam is generated by intensity modulation of the laser light source.
光源と、
移動体と、を有し、
前記カメラの視野内で前記移動体に信号光線を照射することを特徴とする移動体制御システム。 Camera and
A light source,
And a moving body,
A moving object control system, wherein a signal beam is emitted to the moving object within a field of view of the camera.
前記移動体は、発光素子を有し、前記信号光線の受信状態に応じて前記発光素子を光らせることを特徴とする移動体制御システム。 The mobile control system according to claim 7,
The moving object control system according to claim 1, wherein the moving object has a light emitting element, and causes the light emitting element to emit light according to a reception state of the signal beam.
前記移動体は、複数のマーカを有し、
前記カメラの視野内での前記複数のマーカの位置情報に基づいて、前記移動体の姿勢情報を算出することを特徴とする移動体制御システム。 The mobile control system according to claim 7,
The moving body has a plurality of markers,
A moving object control system, wherein posture information of the moving object is calculated based on position information of the plurality of markers in a field of view of the camera.
ズームレンズを備え、
前記カメラの視野内での前記複数のマーカの位置情報に基づいて、光学倍率を変更することを特徴とする移動体制御システム。 The mobile object control system according to claim 9,
Equipped with a zoom lens,
A moving object control system, wherein an optical magnification is changed based on position information of the plurality of markers in a field of view of the camera.
前記カメラの光軸に沿って、前記信号光線を照射することを特徴とする移動体制御システム。 The mobile object control system according to claim 9,
A moving object control system, wherein the signal beam is emitted along an optical axis of the camera.
前記カメラの光軸および前記信号光線の向きを変える光偏向器を有し、
前記カメラの視野内での前記複数のマーカの位置情報に基づいて、前記光偏向器を制御することを特徴とする移動体制御システム。 The mobile object control system according to claim 11,
An optical deflector for changing the direction of the optical axis of the camera and the signal light beam,
A moving object control system, wherein the optical deflector is controlled based on position information of the plurality of markers in a field of view of the camera.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016186444A JP2020003830A (en) | 2016-09-26 | 2016-09-26 | Moving object control device and moving object control system |
PCT/JP2017/023521 WO2018055861A1 (en) | 2016-09-26 | 2017-06-27 | Mobile object control device and mobile object control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016186444A JP2020003830A (en) | 2016-09-26 | 2016-09-26 | Moving object control device and moving object control system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020003830A true JP2020003830A (en) | 2020-01-09 |
Family
ID=61690271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016186444A Pending JP2020003830A (en) | 2016-09-26 | 2016-09-26 | Moving object control device and moving object control system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2020003830A (en) |
WO (1) | WO2018055861A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7116451B1 (en) * | 2021-05-27 | 2022-08-10 | ユーピーアール株式会社 | Aircraft control system and baggage management system |
JP2022181865A (en) * | 2021-05-27 | 2022-12-08 | ユーピーアール株式会社 | Flying object control system and luggage management system |
WO2023073834A1 (en) * | 2021-10-27 | 2023-05-04 | 日本電信電話株式会社 | Mobile body, communication system, and control method |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7123774B2 (en) * | 2018-12-04 | 2022-08-23 | 株式会社Soken | flight control system |
CN111258313B (en) * | 2020-01-20 | 2022-06-07 | 深圳市普渡科技有限公司 | Multi-sensor fusion SLAM system and robot |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006051893A (en) * | 2004-08-12 | 2006-02-23 | Seiko Epson Corp | Position/posture detecting system |
JP2007049604A (en) * | 2005-08-12 | 2007-02-22 | Rb Controls Co | Remote control apparatus |
JP2011103621A (en) * | 2009-11-12 | 2011-05-26 | Panasonic Corp | Remote control system, and light reception device |
JP6085153B2 (en) * | 2012-11-26 | 2017-02-22 | 日立Geニュークリア・エナジー株式会社 | Indoor survey system |
-
2016
- 2016-09-26 JP JP2016186444A patent/JP2020003830A/en active Pending
-
2017
- 2017-06-27 WO PCT/JP2017/023521 patent/WO2018055861A1/en active Application Filing
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7116451B1 (en) * | 2021-05-27 | 2022-08-10 | ユーピーアール株式会社 | Aircraft control system and baggage management system |
JP2022181865A (en) * | 2021-05-27 | 2022-12-08 | ユーピーアール株式会社 | Flying object control system and luggage management system |
WO2023073834A1 (en) * | 2021-10-27 | 2023-05-04 | 日本電信電話株式会社 | Mobile body, communication system, and control method |
Also Published As
Publication number | Publication date |
---|---|
WO2018055861A1 (en) | 2018-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018055861A1 (en) | Mobile object control device and mobile object control system | |
CN107992052B (en) | Target tracking method and device, mobile device and storage medium | |
KR102367438B1 (en) | Simultaneous positioning and mapping navigation method, apparatus and system combined with markers | |
US12018457B2 (en) | Construction machine with measuring system and construction site measuring system | |
EP3187895B1 (en) | Variable resolution light radar system | |
US11006033B2 (en) | Systems and methods for multi-target tracking and autofocusing based on deep machine learning and laser radar | |
JP6601554B2 (en) | Unmanned aerial vehicle, unmanned aircraft control system, flight control method, and computer program | |
CN109146469B (en) | Graphic code scanning method, code scanning payment method and code scanning equipment | |
US20170138732A1 (en) | Surveying by mobile vehicles | |
JP5135672B2 (en) | Laser irradiation state detection method and laser irradiation state detection system | |
JP2017197172A (en) | System and method for positioning unmanned aerial vehicle | |
CN107076838A (en) | The method and system launched for optical radar | |
EP3674830B1 (en) | Server and method for controlling laser irradiation of movement path of robot, and robot that moves based thereon | |
CN104360685B (en) | Omni-directional mobile platform autonomous navigation system based on iGPS | |
Lam et al. | Visible light positioning for location-based services in industry 4.0 | |
US20190325650A1 (en) | Method and Vehicle Control System for Producing Images of a Surroundings Model, and Corresponding Vehicle | |
JP5358961B2 (en) | Method for controlling scanning speed of mobile robot and laser range sensor | |
JP2008276348A (en) | Environment map generation method and mobile robot | |
CN109471443A (en) | A kind of wheeled robot localization method and wheeled robot | |
KR102549355B1 (en) | Underwater monitoring system and underwater tunnel construction method using the same | |
CN108945321B (en) | Utilize unmanned equipment on water of laser navigation | |
JP5044420B2 (en) | Laser beam irradiation system, laser beam irradiation method, and laser beam relay machine | |
CN114147723B (en) | Automatic lofting robot system and operation method thereof | |
JP2015152411A (en) | overhead line detection method | |
KR102349044B1 (en) | Server and method of controlling raser irradiation of path of robot, and robot of moving based on the irradiated path |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170111 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170113 |