[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2016080698A - Image generation device - Google Patents

Image generation device Download PDF

Info

Publication number
JP2016080698A
JP2016080698A JP2015199035A JP2015199035A JP2016080698A JP 2016080698 A JP2016080698 A JP 2016080698A JP 2015199035 A JP2015199035 A JP 2015199035A JP 2015199035 A JP2015199035 A JP 2015199035A JP 2016080698 A JP2016080698 A JP 2016080698A
Authority
JP
Japan
Prior art keywords
image
radar
antenna
camera
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015199035A
Other languages
Japanese (ja)
Other versions
JP6877815B2 (en
Inventor
正敏 曲渕
Masatoshi Magabuchi
正敏 曲渕
穣司 樋口
Joji Higuchi
穣司 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Radio Co Ltd
Original Assignee
Japan Radio Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Radio Co Ltd filed Critical Japan Radio Co Ltd
Publication of JP2016080698A publication Critical patent/JP2016080698A/en
Application granted granted Critical
Publication of JP6877815B2 publication Critical patent/JP6877815B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Accessories Of Cameras (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image generation device generating a desired image by using a camera installed at or near an antenna of a radar, that complements detection of a target by the radar and compensates for the limitation of visual observation without involving significant structural complication and increase in cost or significantly reduces the significant structural complication and cost.SOLUTION: The image generation device includes: image acquiring means capturing an image taken by a camera installed to an antenna of a radar; and image generating means conducting, on the image, all or part of processing of sampling, storage, extraction, overlapping, and synthesis in synchronization with rotation of the antenna or the action of the radar and generating an image corresponding to an indication image generated by the radar.SELECTED DRAWING: Figure 1

Description

本発明は、レーダのアンテナまたはその近傍に取り付けられたカメラを駆使することにより、所望の画像を生成する画像生成装置に関する。   The present invention relates to an image generation apparatus that generates a desired image by making full use of a radar antenna or a camera attached in the vicinity thereof.

商船等の大型船舶には、従来より、例えば、以下のような電子機器が安全の確保のために搭載されている。
(1) 他船の存在または航跡の監視や追尾を可能とするレーダ
(2) 接岸計
Conventionally, for example, the following electronic devices are mounted on large ships such as merchant ships for ensuring safety.
(1) Radar that enables monitoring and tracking of the presence or track of other ships
(2) Bank pier meter

また、小型船や木造船などについては、レーダでは必ずしも検知されないため、接岸時における安全の確保を目的として、従来より目視による確認が行われていた。   In addition, small ships and wooden ships are not always detected by the radar, so visual confirmation has conventionally been performed for the purpose of ensuring safety when berthing.

なお、本発明に関連性がある先行技術としては、以下に列記する特許文献1〜特許文献8があった。   In addition, there existed patent document 1-patent document 8 which are listed below as prior art relevant to this invention.

(1) 特許文献1
「幾つかのセンサによって、特に赤外線及び/または可視の波長範囲での撮像センサ(L、W、V)と合成開口の生成に基づいているレーダー装置(R)とを用いて、物体を認識して識別する方法であって、合成開口の生成が、ROSAR原理に従って生じ、レーダー装置(R)が有する複数のアンテナ要素(A)が、航空機(F)上にそのカーブした輪郭(K)に沿って配置され、連続に制御されて走査され、レーダー装置(R)及び撮像センサ(L、W、V)によって得られる情報が、航空機(F)の周辺の最適な撮像が各視野方向において可能とされるように、連続的に処理され、かつ撮像センサ(L、W、V)は、航空機のノーズに一体化されており、特には、レーザーレーダー装置、熱撮像装置またはビデオカメラである」ように構成されることによって、「飛行方向においてもSARレーダー装置及びIRセンサを用いて物体を認識して識別することが可能である」点に特徴がある方法
(1) Patent Document 1
“Some sensors recognize objects using imaging sensors (L, W, V), especially in the infrared and / or visible wavelength range, and radar devices (R) based on the generation of synthetic apertures. And the generation of the synthetic aperture occurs according to the ROSAR principle, and the plurality of antenna elements (A) of the radar device (R) are along the curved contour (K) on the aircraft (F). The information obtained by the radar device (R) and the imaging sensors (L, W, V) can be optimally imaged around the aircraft (F) in each viewing direction. As can be seen, the imaging sensors (L, W, V) are continuously processed and integrated into the nose of the aircraft, in particular a laser radar device, a thermal imaging device or a video camera " In By being made, the method characterized by the "can be identified by recognizing an object using the SAR radar equipment and IR sensor also in the flight direction" point

(2) 特許文献2
「所定の車線に進入する車両の映像を撮像するカメラと、レーザが発射されてから前記レーザが前記車両の表面で反射した反射光が受光されるまでの飛行時間に基づいて前記車両の立体形状を示す距離画像を間欠的に生成するフラッシュレーザレーダと、前記距離画像に基づいて前記カメラを制御する」ことによって「車両をより確実に撮像する」点に特徴がある車両撮像カメラ制御装置
(2) Patent Document 2
“A camera that captures an image of a vehicle entering a predetermined lane, and a three-dimensional shape of the vehicle based on a flight time from when a laser is emitted until the reflected light reflected by the surface of the vehicle is received. Flash laser radar that intermittently generates a distance image indicating the vehicle, and a vehicle imaging camera control device characterized by “more reliably imaging the vehicle” by controlling the camera based on the distance image

(3) 特許文献3
「光学センサ(3)と、レーダ装置(2)と、光学センサおよびレーダ装置と通信的に接続されている信号処理部(4)とを備え、前記信号処理部は、前記光学センサから送信されてくる第1信号に基づいて第1物体を検出し、前記第1物体の少なくとも1つの第1特性を決定するための、第1検出器(41、410〜413)と、前記レーダ装置から送信されてくる第2信号に基づいて第2物体を検出し、前記第2物体の少なくとも1つの第2特性を決定するための、第2検出器(42、420〜421)と、前記少なくとも1つの第1特性および前記少なくとも1つの第2特性が、所定の条件を満たした場合に、信号を生成するための、信号ユニット(43)とを備える」ことによって、「物体を知らせる信号が誤って発せれられることがほとんどない、少なくとも既知の装置よりもそのようなことが少ない」点に特徴がある検出システム
(3) Patent Document 3
“It includes an optical sensor (3), a radar device (2), and a signal processing unit (4) connected in communication with the optical sensor and the radar device, and the signal processing unit is transmitted from the optical sensor. A first object is detected on the basis of the first signal coming and transmitted from the radar apparatus and a first detector (41, 410 to 413) for determining at least one first characteristic of the first object A second detector (42, 420-421) for detecting a second object on the basis of the incoming second signal and determining at least one second characteristic of the second object; and the at least one By providing a signal unit (43) for generating a signal when the first characteristic and the at least one second characteristic satisfy a predetermined condition, a signal indicating an object is erroneously emitted. Can be Tondo no is characterized by at least such that less than the known device "point detection system

(4) 特許文献4
「所定領域へ向けて電波を照射し、物体からの反射波を受信して、少なくとも前記物体の相対速度及び位置を取得し、一つの送信アンテナから電波を送信し二つの受信アンテナで受信することにより物標の方位角度を検出する検出手段と、所定領域の画像情報を撮像する撮像手段と、前記撮像手段の撮像方向を変える可動手段とを有し、
前記物体の相対速度及び位置に基づいて、前記撮像手段の撮像方向を前記物体に向けるように前記可動手段を制御する」ことによって、「検出精度を低下させることなく簡易な」点に特徴がある屋外用セキュリティシステム
(4) Patent Document 4
"Issue radio waves toward a predetermined area, receive reflected waves from an object, acquire at least the relative speed and position of the object, transmit radio waves from one transmitting antenna, and receive them with two receiving antennas." Detecting means for detecting the azimuth angle of the target, imaging means for imaging image information of a predetermined area, and movable means for changing the imaging direction of the imaging means,
By controlling the movable means so that the imaging direction of the imaging means is directed toward the object based on the relative speed and position of the object, it is characterized by “simple without reducing detection accuracy” Outdoor security system

(5) 特許文献5
「複数の視点で異なる情報を表示可能な表示方向制御型の表示装置を使用する画像表示システムにおいて、前記表示装置を観察する対象者の前記表示装置からの位置情報を検出する位置情報検出手段と、該位置情報検出手段が検出した位置情報に基づいて前記対象者に対する視野を求めて前記表示装置に適切な画像情報を表示する表示画像制御手段とを備え、かつ前記位置情報検出手段は、前記表示装置の位置に設けられたカメラである」ことによって、「運転中又は移動中の車両や人を検出して、必要な情報を適切に表示して提供可能にする」点に特徴がある画像表示システム
(5) Patent Document 5
“In an image display system using a display direction control type display device capable of displaying different information from a plurality of viewpoints, position information detection means for detecting position information from the display device of a subject who observes the display device; Display information control means for obtaining a field of view for the subject based on the position information detected by the position information detection means and displaying appropriate image information on the display device, and the position information detection means “It is a camera provided at the position of the display device”, and is an image characterized in that “it is possible to detect and display the necessary information appropriately by detecting a vehicle or a person who is driving or moving”. Display system

(6) 特許文献6
「複数の壁を含むセンサモジュールハウジングと、光波に基づいて画像を捕捉するように前記モジュールハウジング内に配置されたカメラ要素と、レーダービームを放射し、レーダー反射信号を受信するように前記モジュールハウジング内に配置されたレーダーセンサ要素と、捕捉された前記画像及び受信された前記レーダー反射信号を演算処理し、一つ又はそれ以上の対象物の存在の検出を表示するための演算処理回路とを含む」ことによって、「車両で使用するためにレーダーセンサ及びカメラセンサを一体化すると、センサの費用及び車両との一体化に要する費用が大幅に低下し、高性能のアクティブ安全システムを多くの車両の標準装備として提供できる」点に特徴があるセンサモジュール
(6) Patent Document 6
A sensor module housing comprising a plurality of walls, a camera element arranged in the module housing to capture an image based on light waves, and the module housing to emit a radar beam and receive a radar reflected signal A radar sensor element disposed within and an arithmetic processing circuit for processing the captured image and the received radar reflection signal to display detection of the presence of one or more objects By including "the integration of radar sensors and camera sensors for use in vehicles, the cost of sensors and the cost of integration with vehicles are greatly reduced, and high performance active safety systems are Sensor module that can be provided as standard equipment

(7) 特許文献7
「マイクロ波を発生する発振回路、マイクロ波を走行車両に照射し、走行車両からの反射波を受信するアンテナ、反射波と照射した送信波とを混合する混合器、送信波と受信波との周波数の差を取り出す帯域フィルタおよび帯域フィルタの出力を増幅する増幅器からなるレーダ送受器と、前記増幅器の出力から走行車両の速度を計測する速度計測回路、計測した速度が一定のしきい値を越えている場合、撮影指令を出力する撮影指令回路、撮影指令回路から走行車両の速度や撮影時刻等の情報を受けて撮影画像に重畳する情報を記録する画像情報記録部、撮像装置からの画像信号に画像情報記録部からの画像情報を重畳する画像情報重畳部および画像情報重畳部で重畳された撮影画像を保存する画像記録部からなる制御機と、撮影指令を受けて走行車両の静止画像を撮影するTVカメラを備えて撮影した画像信号を送出する撮像装置とを備えた自動撮像装置において、上記レーダ送受器内に発振回路の出力を識別信号で変調する変調器、変調器を駆動する識別信号発生回路、識別信号発生回路の識別信号の周波数を制御する信号制御回路、識別信号で変調された走行車両の反射波から識別信号を取り出す第2の帯域フィルタ、前記帯域フィルタの出力信号の周波数および識別信号発生回路の識別信号の周波数を各々計数する第1の周波数計数回路、第2の周波数計数回路並びに上記第1および第2の周波数計数回路の計数結果を比較して識別信号を検出する識別信号検出回路を備え、制御機内に識別信号検出回路の検出出力および速度計測回路の速度情報によって撮像装置に撮影指令を出力する撮影指令回路とを備えた」ことによって、「速度違反の自動撮像装置において他の装置からの干渉波によって生じた疑似ドップラ周波数を計測し、その結果、撮影指令が出力されることがあった」点を改善できる自動撮像装置
(7) Patent Document 7
“An oscillation circuit that generates microwaves, an antenna that irradiates the traveling vehicle with microwaves and receives reflected waves from the traveling vehicle, a mixer that mixes the reflected waves and the transmitted transmission waves, and a transmission wave and a reception wave A radar transmitter / receiver comprising a band filter for extracting the frequency difference and an amplifier for amplifying the output of the band filter, a speed measuring circuit for measuring the speed of the traveling vehicle from the output of the amplifier, and the measured speed exceeds a certain threshold value. A shooting command circuit that outputs a shooting command, an image information recording unit that receives information such as the speed and shooting time of the traveling vehicle from the shooting command circuit, and records information to be superimposed on the shot image, and an image signal from the imaging device A controller comprising an image information superimposing unit for superimposing image information from the image information recording unit, and an image recording unit for storing the captured image superimposed by the image information superimposing unit; A modulator for modulating an output of an oscillation circuit with an identification signal in the radar handset in an automatic image pickup apparatus provided with an image pickup apparatus provided with a TV camera for picking up a still image of a traveling vehicle; An identification signal generating circuit for driving the modulator, a signal control circuit for controlling the frequency of the identification signal of the identification signal generating circuit, a second band filter for extracting the identification signal from the reflected wave of the traveling vehicle modulated by the identification signal, the band Compare the count results of the first frequency counting circuit, the second frequency counting circuit, and the first and second frequency counting circuits for counting the frequency of the output signal of the filter and the frequency of the identification signal of the identification signal generating circuit, respectively. And an identification signal detection circuit for detecting the identification signal. The imaging command circuit that outputs the image of the image signal means that "the pseudo Doppler frequency generated by the interference wave from the other device is measured in the automatic imaging device for speed violation, and as a result, the imaging command is output. Automatic imaging device that can improve

(8) 特許文献8
「無人航空機(1)に搭載したTVカメラ(4)から送信されるTV画像により、地上に設置されたコックピット(2)内で無人航空機の着陸誘導を行うためのTV画像装置において、(A)無人航空機(1)に搭載した、TVカメラ(4)と、TV送信器(5)と、姿勢角センサ(6)と、電波高度計(7)と、データリンク送信器(8)と、(B)地上コックピット(2)に設置した、TV受信器(9)と、データリンク受信器(10)と、信号処理装置(11)と、画像強調装置(12)と、TVモニタ(13)と、(C)地上レーダ(3)から成り、(D)前記地上レーダ(3)は、無人航空機に対する地上レーダのアンテナ・アジマス角(Az )と、アンテナ・エレベーション角(El )と、無人航空機までの距離(RA )を検知し、(E)前記信号処理装置(11)は、地上レーダ(3)から、アンテナ・アジマス角(Az )と、アンテナ・エレベーション角(El )と、無人航空機までの距離(RA )を入力して、無人航空機の位置を算出するとともに、無人航空機(1)から、姿勢角センサ(6)により検知した機体姿勢角と、電波高度計(7)により検知した高度情報を受信し無人航空機の位置情報(Az 、El 、RA )と、機体の姿勢角と、高度情報から、無人航空機搭載のTVカメラ(4)に写る水平線と滑走路を算出して、画像強調装置(12)に出力し、(F)前記画像強調装置(12)は、信号処理装置(11)から、人工的な水平線および滑走路の位置情報を入力するとともに、無人航空機から、無人航空機のTVカメラ(4)で撮影した無人航空機の前方の風景を入力して、TV画像上に、信号処理装置で算出した人工的な水平線と滑走路を重ねて表示し、TVモニタ(13)に出力する」ことによって、「雲が多い天候時でも確実に無人航空機を着陸することができる」点に特徴がある着陸誘導用画像装置
(8) Patent Document 8
“In a TV image apparatus for guiding landing of an unmanned aircraft in a cockpit (2) installed on the ground by a TV image transmitted from a TV camera (4) mounted on the unmanned aircraft (1), (A) A TV camera (4), a TV transmitter (5), an attitude angle sensor (6), a radio altimeter (7), a data link transmitter (8), (B) mounted on the unmanned aerial vehicle (1) ) A TV receiver (9), a data link receiver (10), a signal processing device (11), an image enhancement device (12), a TV monitor (13) installed in the ground cockpit (2), (C) consists of a ground radar (3), (D) the ground radar (3) includes an antenna azimuth angle (Az), an antenna elevation angle (El), and an unmanned aerial vehicle for an unmanned aircraft. Detecting the distance (RA) of (E) The signal processing device (11) inputs the antenna azimuth angle (Az), the antenna elevation angle (El), and the distance (RA) to the unmanned aircraft from the ground radar (3). In addition to calculating the position of the unmanned aircraft, the aircraft attitude angle detected by the attitude angle sensor (6) and the altitude information detected by the radio altimeter (7) are received from the unmanned aircraft (1). Az, El, RA), the attitude angle of the fuselage, and altitude information, the horizontal line and the runway reflected in the TV camera (4) mounted on the unmanned aircraft are calculated and output to the image enhancement device (12). The image enhancement device (12) inputs artificial horizon and runway position information from the signal processing device (11), and also uses an unmanned aerial vehicle photographed by an unmanned aircraft TV camera (4). Before By inputting the scenery and displaying the artificial horizon and the runway calculated by the signal processor on the TV image and outputting them to the TV monitor (13), it is possible to "even in cloudy weather" An image device for landing guidance characterized by the ability to land unmanned aircraft reliably

特表2004−524547号公報JP-T-2004-524547 特開2006−287650号公報JP 2006-287650 A 特表2006−521557号公報JP-T-2006-521557 特許第3760918号公報Japanese Patent No. 3760918 特開2009−237649号公報JP 2009-237649 A 特表2012−505115号公報Special table 2012-505115 gazette 特開2000−003495号公報JP 2000-003495 A 特開平9−193897号公報Japanese Patent Laid-Open No. 9-193897

ところで、上述した目視には、確保可能な要員の数、並行して確認や監視を要する箇所が複数に亘り得るために、カメラが併用される場合もあった。   By the way, in the above-described visual observation, a camera may be used in combination because the number of personnel that can be secured and a plurality of locations requiring confirmation and monitoring can be in parallel.

しかし、このようなカメラによる確認や監視は、例えば、大型船舶においては、船首、船尾、右舷、左舷などにそれぞれカメラが配置されなければならない。   However, for such confirmation and monitoring by a camera, for example, in a large ship, cameras must be arranged on the bow, stern, starboard, port, etc., respectively.

したがって、安全の確保に有効ではあっても、実際には、コストの制約によってカメラの設置が見送られ、あるいは設置されるカメラの台数が十分には確保されない場合が多かった。   Therefore, even if it is effective for ensuring safety, in many cases, the installation of cameras has been postponed due to cost restrictions, or the number of cameras to be installed has not been sufficiently ensured.

本発明は、大幅な構成の複雑化やコストの増加を伴うことなく、レーダによる目標探知と目視の限界との何れもが補完され、もしくは大幅に軽減可能である画像生成装置を提供することを目的とする。   It is an object of the present invention to provide an image generating apparatus in which both target detection by radar and the limit of visual observation can be complemented or greatly reduced without greatly complicating the configuration and increasing the cost. Objective.

請求項1に記載の発明では、画像取得手段は、レーダのアンテナに取り付けられたカメラによって撮像された画像を取り込む。画像生成手段は、前記撮像された画像に、前記アンテナの回動、もしくは前記レーダの振る舞いに同期したサンプリング、蓄積、抽出、重畳、合成の処理の全てまたは一部を施し、前記レーダによって生成される指示画像に対応する画像を生成する。   According to the first aspect of the present invention, the image acquisition means captures an image captured by a camera attached to the radar antenna. The image generation means performs all or part of sampling, accumulation, extraction, superimposition, and synthesis processing synchronized with the rotation of the antenna or the behavior of the radar on the captured image, and is generated by the radar. An image corresponding to the instruction image is generated.

このような画像は、レーダのアンテナに取り付けられてそのアンテナと共に回動し得るカメラによって撮像された画像に所定の画像処理が施されることによって生成される。   Such an image is generated by performing predetermined image processing on an image captured by a camera attached to a radar antenna and capable of rotating together with the antenna.

請求項2に記載の発明では、画像取得手段は、移動体上で常居し得る人の視界より被写界が広くなる姿勢で前記移動体に取り付けられたカメラによって撮像された画像を取り込む。画像生成手段は、前記撮像された画像に、前記移動体体に搭載されたレーダの0アンテナの回動、もしくは前記レーダの振る舞いに同期したサンプリング、蓄積、抽出、重畳、合成の処理の全てまたは一部を施し、画像を生成する。   According to a second aspect of the present invention, the image acquisition means captures an image captured by a camera attached to the moving body in a posture in which the field of view is wider than the field of view of a person who can live on the moving body. The image generation means may perform all of sampling, accumulation, extraction, superimposition, and synthesis processing synchronized with the rotation of the 0 antenna of the radar mounted on the moving body or the behavior of the radar on the captured image, or A part is given and an image is generated.

このような画像は、移動体上における人の視界より被写界が広く設定されたカメラによって撮像された画像に所定の画像処理が施されることによって生成される。   Such an image is generated by performing predetermined image processing on an image captured by a camera in which the field of view is set wider than the human field of view on the moving body.

請求項3に記載の発明では、請求項1または請求項2に記載の画像生成装置において、前記画像生成手段は、前記撮像された画像の内、前記回転の軸に対する所望の方位角に対応した画像を前記抽出、前記重畳、前記合成の何れかの対象とする。   According to a third aspect of the present invention, in the image generation device according to the first or second aspect, the image generation unit corresponds to a desired azimuth angle with respect to the rotation axis in the captured image. An image is set as one of the extraction, the superimposition, and the synthesis.

すなわち、カメラの被写界は、そのカメラがレーダのアンテナと共に回動している状況であっても、所望の方向に設定される。   That is, the field of view of the camera is set in a desired direction even when the camera rotates with the radar antenna.

請求項4に記載の発明では、請求項1ないし請求項3の何れか1項に記載の画像生成装置において、被写界識別手段は、前記レーダが搭載された移動体の位置、経路、目的地、属性と、前記移動体の移動の形態との全てまたは一部の組み合わせに基づいて、前記カメラによって撮像されるべき被写界を識別する。前記画像生成手段は、前記アンテナの回転、または前記レーダの振る舞いに同期して、前記カメラに、前記被写界識別手段によって識別された被写界の撮像を指令する。   According to a fourth aspect of the present invention, in the image generating apparatus according to any one of the first to third aspects, the object scene identifying means includes a position, a route, and an object of the moving body on which the radar is mounted. The object scene to be imaged by the camera is identified based on a combination of all or part of the ground, the attribute, and the moving form of the moving object. The image generation means instructs the camera to take an image of the scene identified by the scene identification means in synchronization with the rotation of the antenna or the behavior of the radar.

すなわち、カメラによって撮像が行われるべき被写界は、そのカメラが取り付けられたレーダを搭載する移動体の多様な状況、振る舞い、属性等に柔軟に適応して設定される。   That is, the object scene to be imaged by the camera is set in a flexible manner in accordance with various situations, behaviors, attributes, and the like of the moving object equipped with the radar to which the camera is attached.

請求項5に記載の発明では、画像取得手段は、電子ビームフォーミング方式またはMIMO方式のレーダのアンテナに対する既定の方向に被写界が設定された魚眼カメラによって撮像された画像を取り込む。画像生成手段は、前記撮像された画像に、前記レーダの振る舞いに同期したサンプリング、蓄積、抽出、重畳、合成の処理と、前記魚眼カメラの投影方式に起因する光学的歪みの軽減もしくは是正との全てまたは一部を施し、前記レーダによって生成される指示画像に対応する画像を生成する。   According to a fifth aspect of the present invention, the image acquisition means captures an image picked up by a fisheye camera in which a field of view is set in a predetermined direction with respect to an electron beam forming or MIMO radar antenna. The image generation means includes sampling, accumulation, extraction, superimposition, and composition processing synchronized with the radar behavior on the captured image, and reduction or correction of optical distortion caused by the projection method of the fisheye camera. Are all or partly generated to generate an image corresponding to the instruction image generated by the radar.

このような画像は、レーダのアンテナに対する既定の方向に被写界が設定された魚眼カメラによって撮像された画像に所定の画像処理が施されることによって生成される。   Such an image is generated by performing predetermined image processing on an image captured by a fisheye camera in which the object scene is set in a predetermined direction with respect to the radar antenna.

請求項6に記載の発明では、画像取得手段は、電子ビームフォーミング方式またはMIMO方式のレーダのアンテナが搭載された移動体に取り付けられ、かつ前記移動体上で常居し得る人の視界より被写界が広い魚眼カメラによって撮像された画像を取り込む。画像生成手段は、前記撮像された画像に、前記レーダの振る舞いに同期したサンプリング、蓄積、抽出、重畳、合成の処理と、前記魚眼カメラの投影方式に起因する光学的歪みの軽減もしくは是正との全てまたは一部を施し、画像を生成する。   In the invention according to claim 6, the image acquisition means is attached to a moving body on which an electron beam forming or MIMO radar antenna is mounted, and is covered by a person's field of view who can live on the moving body. Captures an image captured by a fisheye camera with a wide field of view. The image generation means includes sampling, accumulation, extraction, superimposition, and composition processing synchronized with the radar behavior on the captured image, and reduction or correction of optical distortion caused by the projection method of the fisheye camera. All or part of is applied to generate an image.

このような画像は、レーダのアンテナに対する既定の方向に設定され、かつ移動体上における人の視界より被写界が広く設定された魚眼カメラによって撮像された画像に所定の画像処理が施されることによって生成される。   Such an image is subjected to predetermined image processing on an image captured by a fish-eye camera that is set in a predetermined direction with respect to the radar antenna and has a wider field of view than the human field of view on the moving object. Is generated by

請求項7に記載の発明では、請求項5または請求項6に記載の画像生成装置において、前記画像生成手段は、前記撮像された画像の内、前記アンテナに対する所望の方位角に対応した画像を前記抽出、前記重畳、前記合成の何れかの対象とする。   According to a seventh aspect of the present invention, in the image generation device according to the fifth or sixth aspect, the image generation unit generates an image corresponding to a desired azimuth angle with respect to the antenna among the captured images. The target is one of the extraction, the superimposition, and the synthesis.

すなわち、魚眼カメラによって撮像された画像の内、監視や確認の対象となるべき部位は、画像処理の領域で所望の方向に柔軟に設定される。   That is, a part to be monitored or confirmed among images captured by the fisheye camera is flexibly set in a desired direction in the image processing area.

請求項8に記載の発明では、請求項5ないし請求項7の何れか1項に記載の画像生成装置において、被写界識別手段は、前記レーダが搭載された移動体の位置、経路、目的地、属性と、前記移動体の移動の形態との全てまたは一部の組み合わせに基づいて、前記魚眼カメラの被写界の内、画像として監視や確認の対象となるべき部位を識別する。前記画像生成手段は、前記魚眼カメラによって撮像された画像の内、前記被写界識別手段によって識別された部位を前記レーダの振る舞いに同期して抽出し、かつ前記処理と、前記光学的歪みの軽減もしくは是正との対象とする。   According to an eighth aspect of the present invention, in the image generating device according to any one of the fifth to seventh aspects, the object scene identifying means includes a position, a route, and an object of the moving body on which the radar is mounted. Based on a combination of all or a part of the ground, the attribute, and the moving form of the moving body, a part to be monitored or confirmed as an image is identified in the field of view of the fish-eye camera. The image generation means extracts a part identified by the scene identification means in an image captured by the fisheye camera in synchronization with a behavior of the radar, and the process and the optical distortion The target of reduction or correction.

すなわち、魚眼カメラによって撮像が行われた画像の内、監視や確認のために参照されるべき部位は、レーダが搭載された移動体の多様な状況、振る舞い、属性等に柔軟に適応して設定される。   In other words, of the images captured by the fisheye camera, the parts that should be referenced for monitoring and confirmation can be flexibly adapted to the various situations, behaviors, attributes, etc. of the mobile unit equipped with the radar. Is set.

請求項9に記載の発明では、請求項1ないし請求項8の何れか1項に記載の画像生成装置において、ログ手段は、前記撮像された画像の内、全てまたは一部をログとして蓄積する。   According to a ninth aspect of the present invention, in the image generating device according to any one of the first to eighth aspects, the log unit accumulates all or a part of the captured image as a log. .

すなわち、撮像された画像は、単に表示されるだけではなく、発生した事故や事象に関する経緯の確認、または原因の究明等に活用可能となる。   That is, the captured image is not only displayed, but can be used for confirming the background of an accident or event that has occurred or for investigating the cause.

請求項10に記載の発明では、請求項1ないし請求項9の何れか1項に記載の画像生成装置において、前記画像生成手段は、前記撮像された画像の内、光軸の屈曲の要因となる光学部材を介して得られた特定の画像に、撮像が行われた実質的な方向および領域と前記指示画像との対応付けと、前記光学部材の光学的特性を是正する写像とを施す。
すなわち、カメラの光学系の特性の限界を超えた広い被写界や視野の確保が可能となる。
According to a tenth aspect of the present invention, in the image generation device according to any one of the first to ninth aspects, the image generation means includes a factor of bending of the optical axis in the captured image. A specific image obtained through the optical member is associated with a substantial direction and region in which the image is taken and the instruction image, and a mapping for correcting the optical characteristics of the optical member.
That is, it is possible to secure a wide field of view and field of view that exceed the limit of the characteristics of the optical system of the camera.

請求項11に記載の発明では、画像取得手段は、レーダのアンテナに取り付けられた複数pのカメラによって個別に撮像された複数pの画像を取り込む。画像生成手段は、前記撮像された複数の画像に、前記アンテナの回動、もしくは前記レーダの振る舞いに同期したサンプリング、蓄積、抽出、重畳、合成の処理の全てまたは一部を施し、画像を生成する。前記画像生成手段は、前記レーダが搭載された移動体、もしくは前記アンテナの回転軸の揺動のベクトルと、前記アンテナの回転と、前記レーダの振る舞いとの全てもしくは一部に適したサンプリング、蓄積、抽出、重畳、合成の全てまたは一部を前記複数pの画像に施し、前記揺動に応じた被写界の変動および不足を補償する。   In the invention described in claim 11, the image acquisition means captures a plurality of p images individually captured by the plurality of p cameras attached to the radar antenna. The image generation unit performs all or part of sampling, accumulation, extraction, superimposition, and synthesis processing synchronized with the rotation of the antenna or the behavior of the radar on the plurality of captured images to generate an image. To do. The image generation means is a sampling or accumulation suitable for all or a part of the moving body on which the radar is mounted, or the vector of the swing of the rotation axis of the antenna, the rotation of the antenna, and the behavior of the radar. Extraction, superimposition, and synthesis are all or partly applied to the plurality of p images to compensate for fluctuations and deficiencies in the scene according to the swing.

すなわち、レーダが大幅にあるいは頻繁に揺動する状況であっても、監視や確認の対象となるべき被写界の撮像が安定に行われる。   In other words, even in a situation where the radar swings significantly or frequently, imaging of the object field to be monitored and confirmed is stably performed.

請求項12に記載の発明では、画像取得手段は、電子ビームフォーミング方式またはMIMO方式のレーダのアンテナに対する既定の方向に被写界が設定された複数pの魚眼カメラによって個別に撮像された複数pの画像を取り込む。画像生成手段は、前記撮像された複数pの画像に、前記レーダの振る舞いに同期したサンプリング、蓄積、抽出、重畳、合成の処理と、前記魚眼カメラの投影方式に起因する光学的歪みの軽減もしくは是正との全てまたは一部を施し、画像を生成する。前記画像生成手段は、前記レーダが搭載された移動体、もしくは前記アンテナの回転軸の揺動のベクトルと、前記レーダの振る舞いとの全てもしくは一部に適したサンプリング、蓄積、抽出、重畳、合成の全てまたは一部を前記複数pの画像に施し、前記揺動に応じた被写界の変動および不足を補償する。   In the invention according to claim 12, the image acquisition means includes a plurality of individually picked up images by a plurality of p fisheye cameras in which an object field is set in a predetermined direction with respect to an antenna of an electron beam forming or MIMO radar. The image of p is captured. The image generating means performs sampling, accumulation, extraction, superimposition, and composition processing synchronized with the radar behavior on the plurality of captured p images, and reduction of optical distortion due to the projection method of the fisheye camera. Alternatively, all or part of the correction is applied to generate an image. The image generation means includes sampling, accumulation, extraction, superposition, and synthesis suitable for all or part of the moving body on which the radar is mounted, or the swing vector of the rotating shaft of the antenna and the behavior of the radar. Is applied to the plurality of p images to compensate for fluctuations and shortages of the object scene according to the swing.

すなわち、レーダが大幅にあるいは頻繁に揺動する状況であっても、監視や確認の対象となるべき被写界の撮像が安定に行われる。   In other words, even in a situation where the radar swings significantly or frequently, imaging of the object field to be monitored and confirmed is stably performed.

請求項13に記載の発明では、請求項11に記載の画像生成装置において、前記複数pのカメラの全てまたは一部の画角θvcは、標準レンズの画角θvcsより大きい。前記複数pは、前記画角θvcが前記画角θvcsに等しい場合に前記被写界の像が前記複数pの画像に総合的に包含されるために必要な値以下である。   According to a thirteenth aspect of the present invention, in the image generating apparatus according to the eleventh aspect, an angle of view θvc of all or a part of the plurality of p cameras is larger than an angle of view θvcs of a standard lens. The plural p is equal to or less than a value necessary for the image of the object scene to be comprehensively included in the plural p images when the angle of view θvc is equal to the angle of view θvcs.

すなわち、上記複数pのカメラの画角θvcが標準レンズより広く設定されることによって、これらのカメラの数pが少なくても、所望の被写界の像が確度高く得られる。   That is, by setting the angle of view θvc of the plurality of p cameras wider than that of the standard lens, a desired field image can be obtained with high accuracy even if the number p of these cameras is small.

請求項14に記載の発明では、請求項13に記載の画像生成装置において、前記複数pのカメラの全てまたは一部によって撮像される画像のアスペクト比は、前記複数pの増加が回避可能な値である。   According to a fourteenth aspect of the present invention, in the image generating device according to the thirteenth aspect, an aspect ratio of an image captured by all or a part of the plurality of p cameras is a value that can avoid an increase in the plurality of p. It is.

すなわち、上記カメラによって撮像される画像のアスペクト比が好適な値に設定されることによって、カメラの台数pがさらに小さな値に設定可能となり、しかも、所望の被写界の像が確度高く得られる。   That is, by setting the aspect ratio of an image captured by the camera to a suitable value, the number p of cameras can be set to a smaller value, and a desired scene image can be obtained with high accuracy. .

請求項15に記載の発明では、請求項11、13、14の何れか1項に記載の画像生成装置において、前記複数pのカメラは、前記被写界の像が前記複数pの画像に総合的に包含され得る位置および姿勢で、前記アンテナに取り付けられる。   According to a fifteenth aspect of the present invention, in the image generation device according to any one of the eleventh, thirteenth, and fourteenth aspects, the plurality of p cameras are configured such that the image of the object scene is integrated into the plurality of p images. The antenna is attached to the antenna in a position and posture that can be included.

すなわち、アンテナと所望の被写界との相対的な位置や距離が勘案されつつ、複数pのカメラがそのアンテナに好適な位置および姿勢で配置される。   That is, while taking into account the relative position and distance between the antenna and a desired object field, the plurality of p cameras are arranged at positions and postures suitable for the antenna.

請求項16に記載の発明では、請求項13ないし請求項15の何れか1項に記載の画像生成装置において、制御手段は、前記被写界の像が前記複数pの画像に総合的に包含される形態に、前記アンテナの位置もしくは姿勢を設定しまたは維持する。   According to a sixteenth aspect of the present invention, in the image generating device according to any one of the thirteenth to fifteenth aspects, the control means comprehensively includes the image of the object scene in the plurality of p images. The position or posture of the antenna is set or maintained in a form to be performed.

すなわち、アンテナの位置や姿勢が広範に変化し、あるいは変化し得る場合であっても、所望の被写界が安定に精度よく保たれる。   That is, even when the position and orientation of the antenna change or can change widely, a desired object field can be maintained stably and accurately.

請求項17に記載の発明では、請求項16に記載の画像生成装置において、記憶手段には、生起し得るイベント毎に、前記複数pのカメラがとらえるべき被写界の像が前記複数pの画像に総合的に包含されるとの条件を満たす前記アンテナの位置もしくは姿勢が予め蓄積される。前記制御手段は、生起したイベントに対応して前記記憶手段に蓄積されている位置もしくは姿勢を前記アンテナに設定しまたは維持する。   According to a seventeenth aspect of the present invention, in the image generating device according to the sixteenth aspect, the storage unit includes, for each event that can occur, an image of a scene to be captured by the plurality of p cameras. The position or orientation of the antenna that satisfies the condition of being comprehensively included in the image is stored in advance. The control means sets or maintains the position or orientation stored in the storage means corresponding to the event that has occurred in the antenna.

すなわち、アンテナの位置や姿勢が広範に変化し、あるいは変化し得る場合であっても、所望の被写界は、実際に生起したイベントが予め想定されたものである限り、そのイベントに適した領域に安定に設定され、かつ精度よく保たれる。   That is, even if the position and orientation of the antenna changes or can change widely, the desired scene is suitable for the event as long as the event that has actually occurred is assumed in advance. It is set stably in the area and kept accurate.

本発明によれば、カメラがレーダのアンテナより低い位置にあり、そのカメラの位置や姿勢が一定である場合に比べて、視界の拡大に併せて、死角の緩和および解消が図られ、しかも、レーダの指示画像との対応関係が既知である画像が容易に得られる。   According to the present invention, as compared with the case where the camera is at a position lower than the radar antenna and the position and orientation of the camera are constant, the blind spot is relaxed and eliminated along with the expansion of the field of view, An image having a known correspondence with the radar instruction image can be easily obtained.

また、本発明では、魚眼カメラがレーダのアンテナより低い位置にある場合に比べて、その魚眼カメラの位置や姿勢が一定であっても、視界の拡大に併せて、死角の緩和および解消が容易に図られる。   In addition, in the present invention, as compared with the case where the fisheye camera is positioned lower than the radar antenna, even if the position and posture of the fisheye camera are constant, the blind spots are alleviated and eliminated along with the expansion of the field of view. Is easily achieved.

さらに、本発明では、カメラの台数や位置に制約があっても、アンテナの回動またはレーダの振る舞いに応じた多様な方向の画像が柔軟に取得される。   Furthermore, in the present invention, even in the case where there are restrictions on the number and position of cameras, images in various directions according to the rotation of the antenna or the behavior of the radar are flexibly acquired.

また、本発明が適用された移動体では、航行等に関する安全性や利便性が向上し、かつ高く維持されると共に、多様な環境や状況に対する柔軟な適応が確度高く図られる。   Moreover, in the mobile body to which the present invention is applied, safety and convenience regarding navigation and the like are improved and maintained at a high level, and flexible adaptation to various environments and situations can be achieved with high accuracy.

さらに、本発明では、所望の被写界の像を得るために備えられるべきカメラの台数pの削減が図られ、構成の簡略化およびコストの削減に併せて、信頼性の向上が図られる。   Furthermore, according to the present invention, the number p of cameras to be provided for obtaining a desired image of the object scene can be reduced, and the reliability can be improved along with the simplification of the configuration and the cost reduction.

また、本発明では、構成要素の数が増加することなく、コストの削減と信頼性の向上とが図られる。   In the present invention, the cost can be reduced and the reliability can be improved without increasing the number of components.

さらに、本発明では、個々のカメラは、アンテナの位置や姿勢の変動しても、その変動に応じた被写界の変化の吸収する機構が介在することなく取り付け可能となり、あるいはこのような機構によって可変されるべき個々のカメラの位置や姿勢の範囲が小さく抑えられる。   Furthermore, in the present invention, each camera can be mounted without any intervening mechanism that absorbs the change in the object field in accordance with the change in the position and orientation of the antenna, or such a mechanism. The range of the position and posture of each camera that should be changed by the above can be kept small.

また、所望の被写界の像に施される画像処理によって得られるべき機能、性能、価値の何れもが、多様な環境およびその変動の下で確度高く担保される。   In addition, all of the functions, performances, and values that should be obtained by image processing performed on an image of a desired scene are ensured with high accuracy under various environments and variations thereof.

さらに、多様なイベントに対して柔軟に適応しつつ、画像処理の下で得られるべき機能、性能、価値の範囲、確度および精度の何れもが担保される。   Furthermore, while adapting flexibly to various events, all of the functions, performance, value range, accuracy, and accuracy to be obtained under image processing are ensured.

本発明の第1ないし第6の実施形態の構成を示す図である。It is a figure which shows the structure of the 1st thru | or 6th embodiment of this invention. 本発明の第1ないし第5の実施形態における画像処理の原理を示す図である。It is a figure which shows the principle of the image processing in the 1st thru | or 5th embodiment of this invention. 本発明の第1ないし第5の実施形態における画像バッファの構成を示す図である。It is a figure which shows the structure of the image buffer in the 1st thru | or 5th embodiment of this invention. 本発明の第1ないし第5の実施形態における画像バッファの動作フローチャートである。6 is an operation flowchart of an image buffer according to the first to fifth embodiments of the present invention. 本発明の第1ないし第5の実施形態における画像処理部の動作フローチャート図である。It is an operation | movement flowchart figure of the image process part in the 1st thru | or 5th embodiment of this invention. 本発明の第1ないし第6の実施形態においてレーダアンテナに取り付けられ得るカメラの配置を示す図である。It is a figure which shows arrangement | positioning of the camera which can be attached to a radar antenna in the 1st thru | or 6th embodiment of this invention. 本発明の第1および第2の実施形態において撮像の対象となる被写界を示す図である。It is a figure which shows the object scene used as the object of imaging in the 1st and 2nd embodiment of this invention. 本発明の第1および第2の実施形態において指示画像に対応付けられて表示されるべき画像の配置関係の一例を示す図である。It is a figure which shows an example of the arrangement | positioning relationship of the image which should be displayed matched with the instruction | indication image in the 1st and 2nd embodiment of this invention. 本発明によって解消または軽減される視界の制約を説明する図である。It is a figure explaining the restriction | limiting of the visual field eliminated or reduced by this invention. 本発明の第2の実施形態における画像処理部の動作フローチャートである。It is an operation | movement flowchart of the image process part in the 2nd Embodiment of this invention. 本発明の第2の実施形態の動作を説明する図である。It is a figure explaining the operation | movement of the 2nd Embodiment of this invention. 本発明の第3の実施形態における制御部の動作フローチャートである。It is an operation | movement flowchart of the control part in the 3rd Embodiment of this invention. 本発明の第3の実施形態の動作を説明する図である。It is a figure explaining operation | movement of the 3rd Embodiment of this invention. 本発明の第1ないし第3の実施形態における揺動防止の原理を示す図である。It is a figure which shows the principle of rocking | fluctuation prevention in the 1st thru | or 3rd embodiment of this invention. 本発明の第4の実施形態における画像処理部の動作フローチャートである。It is an operation | movement flowchart of the image process part in the 4th Embodiment of this invention. 本発明の第4の実施形態の動作を説明する図である。It is a figure explaining the operation | movement of the 4th Embodiment of this invention. 本発明の第5の実施形態の原理を示す図である。It is a figure which shows the principle of the 5th Embodiment of this invention. 本発明の第6の実施形態におけるカメラの画角を示す図である。It is a figure which shows the angle of view of the camera in the 6th Embodiment of this invention. 本発明の第6の実施形態の動作を説明する図である。It is a figure explaining operation | movement of the 6th Embodiment of this invention. 本発明の第6の実施形態における制御部の動作フローチャートである。It is an operation | movement flowchart of the control part in the 6th Embodiment of this invention. 本発明の第1ないし第6の実施形態においてカメラが取り付けられ得る他の部位を示す図である。It is a figure which shows the other site | part which can attach a camera in the 1st thru | or 6th embodiment of this invention.

以下、図面に基づいて本発明の実施形態について詳細に説明する。
図1は、本発明の第1ないし第6の実施形態の構成を示す図である。
図において、カメラ11-1〜11-Nは、個々の被写界が予め決められた方向となる姿勢でレーダ20のアンテナ20Aの底部または側部に配置される。また、このようなアンテナ20Aは、レーダ20が搭載された船舶(以下、「自船」という。)の甲板上に立設されたマスト(図示されない。)の頂部またはその近傍に配置される。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing the configuration of the first to sixth embodiments of the present invention.
In the figure, the cameras 11-1 to 11-N are arranged on the bottom or side of the antenna 20A of the radar 20 in such a posture that each object field is in a predetermined direction. Such an antenna 20A is arranged at the top of or near the top of a mast (not shown) standing on the deck of a ship (hereinafter referred to as “own ship”) on which the radar 20 is mounted.

これらのカメラ11-1〜11-Nの入出力ポートは、画像バッファ12の対応するポートに個別に接続される。画像バッファ12が有するN個の入出力ポートは、画像処理部13の対応するN個の入出力ポートに接続される。画像バッファ12には、上記自船の測位系(図示されない。)によって計測された自船の位置(以下、「船位」という。)LOCが入力される。画像処理部13の出力ポートは画像生成部14の第1のポートに接続され、その画像生成部14の第2のポートは、上記レーダ20の画像入力端子に接続される。レーダ20の画像出力端子と制御ポートとは、画像生成部14の第3のポートと、制御部15の特定のポートとに、それぞれ接続される。制御部15の第1ないし第3の入出力ポートは、既述の画像バッファ12、画像処理部13および画像生成部14の制御ポートにそれぞれ接続される。画像処理部13の制御端子には、レーダ20の対応する制御端子に接続される。   The input / output ports of these cameras 11-1 to 11-N are individually connected to corresponding ports of the image buffer 12. The N input / output ports of the image buffer 12 are connected to the corresponding N input / output ports of the image processing unit 13. The image buffer 12 receives the position of the ship (hereinafter referred to as “ship position”) LOC measured by the ship's positioning system (not shown). The output port of the image processing unit 13 is connected to the first port of the image generation unit 14, and the second port of the image generation unit 14 is connected to the image input terminal of the radar 20. The image output terminal and the control port of the radar 20 are connected to the third port of the image generation unit 14 and the specific port of the control unit 15, respectively. The first to third input / output ports of the control unit 15 are connected to the control ports of the image buffer 12, the image processing unit 13, and the image generation unit 14 described above. A control terminal of the image processing unit 13 is connected to a corresponding control terminal of the radar 20.

〔第1の実施形態〕
以下、本実施形態の動作の前提となる基本的な事項について説明する。
カメラ11-i(i=1〜N)によって撮像が行われる被写界FCAi は、下式および図2に示すように、自船(またはマスト)を基準として与えられる以下の項目(1)〜(7)の関数として定まる。
[First Embodiment]
Hereinafter, basic matters that are the premise of the operation of the present embodiment will be described.
The field F CAi to be imaged by the camera 11-i (i = 1 to N) is given by the following formula and the following items (1) given by the ship (or mast) as shown in FIG. It is determined as a function of ~ (7).

CAi =f(L,H,θVCi,fCi,(θ+θACi),θECi
=f(L,H,θVCi,fCi,ΘACi,θECi) ・・・(a)
F CAi = f (L i , H, θ VCi , f Ci , (θ A + θ ACi ), θ ECi )
= F (L i , H, θ VCi , f Ci , Θ ACi , θ ECi ) (a)

(1) アンテナ20Aの回転軸と、カメラ11-iの撮像光学系の光軸との距離L
(2) 自船が位置する海域(水域)の水面と、カメラ11-iの実効的な撮像面との距離H
(3) カメラ11-iの画角θVCi
(1) Distance L i between the rotation axis of the antenna 20A and the optical axis of the imaging optical system of the camera 11- i
(2) The distance H between the surface of the sea (water area) where the ship is located and the effective imaging surface of the camera 11-i
(3) Angle of view θ VCi of camera 11-i

(4) カメラ11-iの撮像光学系の合焦距離fCi
(5) アンテナ20Aの主ローブの方位角θ
(6) 上記撮像光学系の光軸の方位角(アンテナ20Aの主ローブの方向を基準として設定される。)(以下、「カメラ方位角」という。)θACi
(4) Focusing distance f Ci of the imaging optical system of the camera 11-i
(5) Azimuth angle θ A of main lobe of antenna 20A
(6) The azimuth angle of the optical axis of the imaging optical system (set based on the direction of the main lobe of the antenna 20A) (hereinafter referred to as “camera azimuth angle”) θ ACi

(7) 上記撮像光学系の光軸の仰角(アンテナ20Aの回転軸の方向(または、マストの軸の方向や鉛直方向であってもよい。)を基準として設定される。)(以下、「カメラ仰角」という。)θECi (7) The elevation angle of the optical axis of the imaging optical system (set based on the direction of the rotation axis of the antenna 20A (or the direction of the mast axis or the vertical direction)) (hereinafter, “ Camera elevation angle ”) θ ECi

ここに、上記方位角θ は、自船の船首方向と、真北の方向との何れを基準として与えられてもよい。 Here, the azimuth angle θ A may be given on the basis of either the bow direction of the own ship or the true north direction.

また、上式(a)の右辺にある方位角Θ は、下式に示すように、アンテナ20Aの旋回に応じてサイクリックに変化する主ローブの方位角θ と、カメラ方位角θACi との和として与えられる。
ΘACi=θ +θACi ・・・(b)
Further, the azimuth angle theta A in the right side of the above equation (a), as shown in the following equation, and the azimuth angle theta A of the main lobe which changes cyclically in accordance with the turning of the antenna 20A, the camera azimuth theta ACi Is given as the sum of
Θ ACi = θ A + θ ACi (b)

画像バッファ12は、図3に示すように、カメラ11-i(i=1〜N)に個別に対応し、これらのカメラ11-i毎に、以下の情報がファーストイン・ファーストアウト方式により個別に格納されるフィールドから構成されるレコードの集合として構成される。   As shown in FIG. 3, the image buffer 12 individually corresponds to the cameras 11-i (i = 1 to N), and the following information is individually provided by the first-in / first-out method for each of the cameras 11-i. It is configured as a set of records composed of fields stored in.

(1) 時系列tの順に撮像されたフレーム(コマ)の画像情報ICit
(2) 下式(b′)で与えられるように、時系列tにおける方位角θAt、カメラ方位角θACitが上式(b)の右辺に代入されることによって得られるカメラ11-iの方位角ΘACit
ΘACit=θAt+θACit ・・・(b′)
(1) Image information I Cit of frames (frames) captured in order of time series t
(2) As given by the following equation (b ′), the camera 11-i obtained by substituting the azimuth angle θ At and the camera azimuth angle θ ACit in the time series t into the right side of the above equation (b) Azimuth Θ ACit
Θ ACit = θ At + θ ACit (b ′)

(3) 該当するフレームがカメラ11-iによって撮像された(与えられた)時点に測位系によって与えられた自船の絶対的な位置(以下、「船位」という。)LOCCit
(4) 下式(a′)で与えられるように、時系列tにおける上式(a)の右辺の値として与えられるカメラ11-iの被写界FCAit
CAit=f(L,H,θVCi,fCi,(θAt+θACi),θECi
=f(L,H,θVCi,fCi,ΘACit,θECi) ・・・(a′)
ここに、サフィックスとして「t」を含まない項については、一定に保たれているものとする。
(3) Absolute position of the ship given by the positioning system at the time when the corresponding frame is imaged (given) by the camera 11-i (hereinafter referred to as “ship position”) LOC Cit
(4) As given by the following equation (a ′), the object field F CAit of the camera 11-i given as the value of the right side of the above equation (a) in time series t
F CAit = f (L i , H, θ VCi , f Ci , (θ At + θ ACi ), θ ECi )
= F (L i , H, θ VCi , f Ci , Θ ACit , θ ECi ) (a ′)
Here, it is assumed that a term that does not include “t” as a suffix is kept constant.

(5) 下式(c)で示すように、自船(マスト)ではなく、上記船位LOCCitを基準として適宜算出された絶対的な被写界FCAit′(以下、単に「被写界FCAit′」という。)
CAit′=f(FCAit,LOCCit) ・・・(c)
(5) As shown in the following formula (c), the absolute field F CAit ′ (hereinafter simply referred to as “field F”) calculated appropriately based on the ship position LOC Cit , not the ship (mast). CAit '")
F CAit ′ = f (F CAit , LOC Cit ) (c)

図4は、本発明の第1ないし第5の実施形態における画像バッファの動作フローチャートである。
図5は、本発明の第1ないし第5の実施形態における画像処理部の動作フローチャート図である。
FIG. 4 is an operation flowchart of the image buffer in the first to fifth embodiments of the present invention.
FIG. 5 is an operation flowchart of the image processing unit in the first to fifth embodiments of the present invention.

以下、簡単のため、下記の前提i)〜iii)の下で図1〜図5を参照することにより、本実施形態の動作を説明する。
i) カメラ11-1〜11-Nの台数Nが「1」である。
ii) 1台のカメラ11-1が、図6(a)に示すように、アンテナ20Aの筐体の一端近傍の底部に、自船の甲板の方向(アンテナ20Aの下方)に被写界FCAiが確保される姿勢で配置される。
Hereinafter, for the sake of simplicity, the operation of this embodiment will be described with reference to FIGS. 1 to 5 under the following assumptions i) to iii).
i) The number N of cameras 11-1 to 11-N is “1”.
ii) As shown in FIG. 6 (a), one camera 11-1 is placed on the bottom near one end of the casing of the antenna 20A in the direction of the ship's deck (below the antenna 20A). It arrange | positions with the attitude | position which ensures CAi .

制御部15は、レーダ20と連係し、かつ図1に点線で示すように画像処理部13および画像バッファ12を介して形成されるデータリンクを介してカメラ11-1とも連係する。
カメラ11-1は、このような連係の過程で制御部15によって与えられる撮像の期間および条件の下で撮像を行い、その撮像によって時系列tの順に得られた画像情報IC1tを画像バッファ12に引き渡す。
The control unit 15 is linked to the radar 20 and also linked to the camera 11-1 via a data link formed via the image processing unit 13 and the image buffer 12 as indicated by a dotted line in FIG.
The camera 11-1 performs imaging under the imaging period and conditions given by the control unit 15 in the process of such linkage, and the image buffer 12 stores image information I C1t obtained in the order of time series t by the imaging. To hand over.

画像バッファ12は、このような画像情報IC1tが引き渡される度に、以下の処理を行う。
(1) 画像情報IC1t取り込み、既述のレコードのうち、時系列tおよびカメラ識別子i(=1)に対応したカレントレコードの「画像情報ICit」フィールドに格納する(図4ステップS1)。
The image buffer 12 performs the following processing each time such image information I C1t is delivered.
(1) The image information I C1t is captured and stored in the “image information I Cit ” field of the current record corresponding to the time series t and the camera identifier i (= 1) among the above-described records (step S1 in FIG. 4).

(2) レーダ20と連係する制御部15によって上記データリンクを介して引き渡された主ローブの方位角の内、上記画像情報IC1tが引き渡された時点(以下、「適応時点」という。)に引き渡された方位角θAtと、既知のカメラ方位角θAC1 とに基づいて上式(b′)で示される算術演算を行うことにより、方位角ΘAC1tを求める(図4ステップS2)。なお、上記適応時点は、例えば、カメラ11-1によって撮像が行われるフレーム周期分先行した時点であってもよい。 (2) Of the azimuth angles of the main lobe delivered via the data link by the control unit 15 associated with the radar 20, the image information I C1t is delivered (hereinafter referred to as “adaptive time”). Based on the delivered azimuth angle θ At and the known camera azimuth angle θ AC1 , an arithmetic operation represented by the above equation (b ′) is performed to obtain the azimuth angle Θ AC1 t (step S2 in FIG. 4). Note that the adaptation time point may be, for example, a time point that precedes the frame period in which imaging is performed by the camera 11-1.

(3) 上記適応時点に、図示されない測位系によって与えられる船位LOCC1tを取り込み、かつ制御部15にその船位LOCC1tを引き渡す(図4ステップS3)。
(4) 既述の距離L、距離H、画角θVC1 、合焦距離fC1、カメラ方位角θAC1 、カメラ仰角θEC1 に併せて、上記方位角ΘAC1tに基づいて上式(a′)に示す算術演算を行うことにより、カメラ11-1の被写界FCA1tを求める(図4ステップS4)。
(3) to the adaptive time takes the ship position LOC C1t given by the positioning system (not shown), and delivers the ship position LOC C1t to the control unit 15 (FIG. 4 step S3).
(4) The above formula (a) is based on the above azimuth angle ΘAC1t in addition to the above-mentioned distance L i , distance H, angle of view θ VC1 , focusing distance f C1 , camera azimuth angle θ AC1 , camera elevation angle θ EC1. The field F CA1t of the camera 11-1 is obtained by performing the arithmetic operation shown in FIG. 4 (step S4 in FIG. 4).

(5) 上述したカレントレコードの「方位角ΘACit」フィールド、「船位LOCCit」フィールドおよび「被写界FCAit」フィールドに、上記方位角ΘAC1t、船位LOCC1tおよび被写界FCA1tをそれぞれ格納する(図4ステップS5)。
(6) カレントレコードの「FCAit′」フィールドに、空であることを意味する「0」を格納する(図4ステップS6)。
(5) The azimuth angle Θ AC1t , ship position LOC C1t and field F CA1t are set in the “azimuth angle Θ ACit ” field, “ship position LOC Cit ” field and “field F CAit ” field of the current record, respectively. Store (step S5 in FIG. 4).
(6) Stores “0” meaning empty in the “F CAit ′” field of the current record (step S6 in FIG. 4).

一方、画像処理部13は、有効な画像情報IC1tが格納された画像バッファ12のレコードの内、後述する好適な複数Pのレコードの列毎に、以下の処理を行う。 On the other hand, the image processing unit 13 performs the following process for each column of a plurality of suitable P records to be described later among the records of the image buffer 12 in which valid image information I C1t is stored.

(1) 制御部15によって適宜指示され、かつレーダ20の指示画像と対応付けられて、あるいは単独で操作者に提供されるべき表示領域Dを識別する(図5ステップS1)。なお、このような表示領域Dは、図7(a)〜(d)に示すように、既述の自船またはマストを基準としてその周辺に設定されるが、例えば、レーダ20を操作するユーザによって直接指定されてもよい。 (1) indicated as appropriate by the control unit 15, and in association with the specified image of the radar 20, or solely to identify the display region D t to be provided to the operator (Fig. 5 step S1). Such a display area Dt is set around the above-described own ship or mast as shown in FIGS. 7A to 7D. For example, the radar 20 is operated. It may be specified directly by the user.

(2) 上述した複数Pのレコードの内、「FCAit」フィールドに格納された被写界FCA1tの全てまたは一部が上記表示領域Dに該当するレコード(以下、「適応レコード」という。)を抽出する(図5ステップS2)。 (2) Of the plurality of P records described above, all or a part of the object scene F CA1t stored in the “F CAit ” field corresponds to the display area D t (hereinafter referred to as “adaptive record”). ) Is extracted (step S2 in FIG. 5).

(3) これらの適応レコードの「画像情報ICit」フィールドに含まれる画像情報IC1を合成することによって合成画像IStを生成する(図5ステップS3)。
(4) 上記合成画像IStの内、既述の表示領域Dに相当する部分画像Iptを抽出する(図5ステップS4)。
(5) 画像生成部14に、上記部分画像Iptを引き渡す(図5ステップS5)。
(3) The synthesized image I St is generated by synthesizing the image information I C1 included in the “image information I Cit ” field of these adaptive records (step S3 in FIG. 5).
(4) Of the above synthetic image I St, extracts a partial image I pt corresponding to aforementioned display region D t (Fig. 5 step S4).
(5) Deliver the partial image I pt to the image generation unit 14 (step S5 in FIG. 5).

画像生成部14は、制御部15の配下でレーダ20と連係することにより、以下の処理を行う。
(1) レーダ20によって生成された指示画像Itを取り込む。
(2) この指示画像Itに上記部分画像Iptを適宜合成し、あるいはその指示画像It上にある物標等のオブジェクトに対応づけることによって、指示画像It′を生成する。
(3) その指示画像It′をレーダ20に引き渡す。
The image generation unit 14 performs the following processing in cooperation with the radar 20 under the control of the control unit 15.
(1) The instruction image It generated by the radar 20 is captured.
(2) The instruction image It ′ is generated by appropriately combining the partial image Ipt with the instruction image It or associating it with an object such as a target on the instruction image It.
(3) Deliver the instruction image It ′ to the radar 20.

レーダ20は、以下の処理を行う。
(1) 図8に示すように、このようにして引き渡された指示画像It′を指示画面またはその周辺に表示する。
(2) 上記指示画像It′に含まれるオブジェクトに対して操作者が所定の操作(例えば、クリック)を行う(図8(1),(2))と、そのオブジェクトに対応つけられて画像生成部14から引き渡された部分画像Iptを指示画面上に重畳(図8(3))させて、あるいは別途備えられた多機能ディスプレイ(MFD:Multi Function Display)の画面(図7(4))上に表示する。
The radar 20 performs the following processing.
(1) As shown in FIG. 8, the instruction image It ′ delivered in this way is displayed on the instruction screen or its periphery.
(2) When an operator performs a predetermined operation (for example, click) on an object included in the instruction image It ′ (FIG. 8 (1), (2)), an image is generated in association with the object. The partial image I pt delivered from the unit 14 is superimposed on the instruction screen (FIG. 8 (3)), or a separately provided multi function display (MFD) screen (FIG. 7 (4)). Display above.

すなわち、本実施形態では、甲板上に立設されたマストの頂部近傍に備えられ、かつサイクリックに回転するアンテナ20Aに取り付けられたカメラ11-1が活用されることによって、その甲板上だけではなく自船の全周や周辺の模様が見通しよく動画や画像として把握可能となる。   That is, in the present embodiment, the camera 11-1 provided near the top of the mast erected on the deck and attached to the antenna 20A that rotates cyclically is utilized, so that only on the deck. Instead, it is possible to grasp the entire circumference of the ship and the surrounding pattern as a video and an image with a good view.

したがって、図9に示すように、甲板上や船室に位置する人の死角の解消が確度高く柔軟に図られ、このような死角に起因する航行、操舵、荷役等々の限界が強力に緩和されると共に、安全性が高められる。   Accordingly, as shown in FIG. 9, the blind spots of the people located on the deck or in the cabin can be eliminated with high accuracy and flexibility, and the limits of navigation, steering, cargo handling, etc. caused by such blind spots are strongly relaxed. At the same time, safety is improved.

なお、本実施形態では、アンテナ20Aが一定の周期でサイクリックに回転していることが前提となっているが、これに限定されず、主ローブの方位角θAtが所望の精度で識別可能であるならば、その主ローブの方向が多様な形態で変化し、あるいは一定である場合にも、本発明は、同様に適用可能である。 In this embodiment, it is assumed that the antenna 20A is cyclically rotated at a constant period. However, the present invention is not limited to this, and the azimuth angle θ At of the main lobe can be identified with desired accuracy. If this is the case, the present invention can be similarly applied even when the direction of the main lobe changes in various forms or is constant.

また、本実施形態では、画像バッファ12、画像処理部13、画像生成部14の連係の下で行われる画像処理と、これらによる機能分散や負荷分散は既述の形態に限定されず、合成画像ISt、部分画像Iptおよび指示画像It′が好適な画像として生成されるならば、サンプリング、蓄積、抽出、重畳、合成等の画像処理は如何なる手順やアルゴリズムに基づいて実現されてもよい。 In the present embodiment, the image processing performed under the cooperation of the image buffer 12, the image processing unit 13, and the image generation unit 14, and the function distribution and load distribution by these are not limited to the above-described forms. If I St , partial image I pt, and instruction image It ′ are generated as suitable images, image processing such as sampling, accumulation, extraction, superposition, and composition may be realized based on any procedure or algorithm.

さらに、本実施形態では、カメラの台数Nが「1」に設定されている。
しかし、本発明は、このような構成に限定されず、その台数Nが複数である場合であっても、「画像バッファ12および画像処理部13が、カメラ11-1〜11-Nによって個別に引き渡される画像情報IC1t〜ICNtのそれぞれについて、既述の処理が並行して行われる」ことにより、甲板上および自船の周辺の模様の動画や画像としてより監視がより好適な形態で可能となる。
Further, in the present embodiment, the number N of cameras is set to “1”.
However, the present invention is not limited to such a configuration, and even when the number N is plural, “the image buffer 12 and the image processing unit 13 are individually provided by the cameras 11-1 to 11-N. The above-described processing is performed in parallel for each of the image information I C1t to I CNt to be delivered ”, thereby enabling monitoring in a more suitable form as a moving image or image of the pattern on the deck and around the ship. It becomes.

なお、このような場合における監視は、例えば、図6(b)、(c)に示すように、カメラの台数が多く設定されることによって、以下に列記する作用効果の双方もしくは何れか一方が実現可能である。   In such a case, for example, as shown in FIGS. 6 (b) and 6 (c), when the number of cameras is set to be large, both or one of the following effects can be obtained. It is feasible.

(1) アンテナ20Aの回転数が変更されることなく、監視の頻度が高められる。
(2) 既述の距離L、画角θVCi、合焦距離fCi、カメラ方位角θACi、カメラ仰角θECiが適宜異なる値に設定され、もしくは可変されることによって、監視の対象となる視野の拡大または柔軟な設定(変更)が図られる。
(1) The frequency of monitoring can be increased without changing the rotational speed of the antenna 20A.
(2) The distance L i , the angle of view θ VCi , the focusing distance f Ci , the camera azimuth angle θ ACi , and the camera elevation angle θ ECi are set to different values as appropriate or can be varied. The field of view or the flexible setting (change) can be achieved.

〔第2の実施形態〕
本実施形態では、画像処理部13の特定のポートに図示されないVDR(Voyage Data Recorder)が接続された点にある。
図10は、本発明の第2の実施形態における画像処理部の動作フローチャートである。
図11は、本発明の第2の実施形態の動作を説明する図である。
[Second Embodiment]
In the present embodiment, a VDR (Voyage Data Recorder) (not shown) is connected to a specific port of the image processing unit 13.
FIG. 10 is an operation flowchart of the image processing unit in the second embodiment of the present invention.
FIG. 11 is a diagram for explaining the operation of the second embodiment of the present invention.

以下、図1〜図3、図10および図11を参照して本実施形態の動作を説明する
本発明の特徴は、本実施形態では、自船の位置、航路、目的地、属性、航行の形態等に応じて画像処理部13によって生成される部分画像Iptが下記の通りに設定される点にある。
Hereinafter, the operation of the present embodiment will be described with reference to FIGS. 1 to 3, 10, and 11. The features of the present invention are the features of the ship's position, route, destination, attribute, and navigation in the present embodiment. The partial image I pt generated by the image processing unit 13 according to the form or the like is set as follows.

本実施形態では、船首方向に進む状態における自船のスクリューの回転方向が「右周り」であると仮定する。
自船が図11(a)に示すように接岸を開始すると、画像処理部13は、以下の処理を行う。
In the present embodiment, it is assumed that the rotation direction of the screw of the ship in the state of proceeding in the bow direction is “clockwise”.
When the ship starts to berth as shown in FIG. 11A, the image processing unit 13 performs the following processing.

(1) 上記接岸の開始を上記VDRから与えられるデータに基づいて識別し(図10ステップS1)、図11(a)に示すように、表示領域Dを船首方向の所定の領域に設定する(図10ステップS2)と共に、この表示領域Dtに相当する部分画像ptを生成して画像生成部14に引き渡す(図10ステップS3)。 (1) the start of the berthing identified on the basis of the data supplied from the VDR (Figure 10 step S1), the as shown in FIG. 11 (a), sets the display region D t at the bow direction of a predetermined area (Step S2 in FIG. 10), a partial image pt corresponding to the display area Dt is generated and delivered to the image generation unit 14 (Step S3 in FIG. 10).

(2) 上記VDRから与えられるデータに基づいて、あるいは手動で与えられる指令に応じて「岸壁に対する自船の距離が所定の閾値を下回った」ことを識別する(図10ステップS4)と、図11(b)に示すように、表示領域Dを左舷側に設定(図10ステップS5)し、この表示領域Dtに相当する部分画像ptを生成して画像生成部14に引き渡す(図10ステップS6)。 (2) Based on the data given from the VDR or according to a command given manually, it is identified that “the distance of the ship to the quay is below a predetermined threshold” (step S4 in FIG. 10), 11 (b), the setting on the port side of the display region D t to (10 step S5), (10 steps to pass to generate a partial image pt corresponding to the display area Dt to the image generator 14 S6).

このような状態では、スクリューが逆転(左方向に回転)するため、船尾近傍と船首近傍と岸壁との間の距離の格差が縮まることによって接岸が図られる。
すなわち、接岸の過程における表示領域Dtは、船首方向から左舷側に自動的に切り替わる。
In such a state, since the screw is rotated in the reverse direction (rotated leftward), the difference in the distance between the stern vicinity, the bow vicinity, and the quay is reduced, so that the berthing is achieved.
That is, the display area Dt in the berthing process automatically switches from the bow direction to the port side.

したがって、本実施形態によれば、操舵者に複雑な操作が強いられることなく、カメラ11-1によってとらえられる動画(画像)によって、死角が大幅に解消され、かつ安全に接岸が実現される。   Therefore, according to the present embodiment, the blind spot is largely eliminated by the moving image (image) captured by the camera 11-1 without complicating the steering operation, and the berthing is safely realized.

なお、本実施形態では、図11(a)、(b)に示す表示領域Dtに対応する部分画像Ipt(または、その部分画像Iptが合成され、もしくは対等付けられた指示画像It′)は、以下の何れの形態で無線伝送されてもよい。また、このような無線伝送に供される無線伝送路については、接岸先の電波法の制限内において確保することが可能である。 In the present embodiment, the partial image I pt corresponding to the display area Dt shown in FIGS. 11A and 11B (or the instruction image It ′ in which the partial images I pt are combined or equalized). May be transmitted wirelessly in any of the following forms. Further, it is possible to secure a wireless transmission path used for such wireless transmission within the limits of the radio law at the pier.

(1) 自船上または岸壁側に備えられた無線設備(Wi−Fiルータ等であってもよい。)を介してタグボートに無線伝送されることにより、接岸のさらなる安全性の確保に供される。 (1) By wireless transmission to the tug via radio equipment (may be a Wi-Fi router, etc.) on the ship or on the quay side, it will be used to ensure further safety at the berth. .

(2) 「海賊による攻撃や侵入が危惧される状態で生成され、もしくはこのような攻撃や侵入の過程を示す部分画像Ipt」が、航行にかかわる機関、船会社、近隣を航行する他船等に無線伝送されることによって、航行の安全や支援に供される。 (2) “Partial image I pt that is generated in a state of fear of pirate attacks or intrusions, or shows the process of such attacks or intrusions” is related to navigational organizations, shipping companies, other ships that navigate nearby, etc. By being transmitted wirelessly, it is used for navigation safety and support.

また、上述した無線伝送は、例えば、「海賊の侵入(の可能性)等の事象に際して、カメラ11-1〜11-Nによってとらえられた画像」について、下記a)〜c)の何れかに対するの速やかな通知の実現のために行われてもよい。   In addition, the above-described wireless transmission is performed, for example, for any of the following a) to c) with respect to “images captured by the cameras 11-1 to 11-N upon an event such as (possibility of) entry of a pirate”. It may be performed to realize prompt notification.

a) 自船にかかわる船会社
b) 港湾管理、航行の支援、航路の保安等を担当する機関
c) 近くを航行する他の船舶(護衛艦を含む。)
a) Shipping company related to own ship
b) Organizations responsible for port management, navigation support, route security, etc.
c) Other vessels navigating nearby (including escort ships)

なお、上述した事象は、手動により識別されてもよく、何らかのシステム、装置、センサーによって検知されてもよい。
また、上記無線伝送の対象には、上述した画像に併せて、以下の全てまたは一部が含まれてもよい。
The event described above may be manually identified or detected by some system, device, or sensor.
Further, the wireless transmission target may include all or part of the following in addition to the above-described image.

(1) 該当する事象の識別子
(2) 自船の識別子、位置
(3) 自船に対する被写界の方向
(4) 時刻
(1) Applicable event identifier
(2) Own ship identifier and position
(3) Direction of the field with respect to the ship
(4) Time

さらに、上述した各実施形態では、表示領域Dtが設定され、あるいは更新されるべききっかけはどのように設定されてもよく、そのきっかけに応じて更新されるべき好適な表示領域Dtは、以下の何れであってもよい。   Further, in each of the above-described embodiments, the display area Dt may be set or the trigger to be updated may be set in any way, and a suitable display area Dt to be updated according to the trigger is as follows. Either may be sufficient.

(1) 船速が閾値を下回ったり上回り、あるいは急激な加速や減速が行われた場合
このような船速の変化の要因が存在し得る方向
(2) 自船に搭載された傾斜計等により荷崩れ(の可能性)が検知された場合
船体の内、鉛直方向における位置が大きく変動した部位またはその部位の反対方向
(1) When the ship speed is below or above the threshold, or when rapid acceleration or deceleration is performed Direction in which such factors of ship speed may exist
(2) When collapse (possibility) of load collapse is detected by an inclinometer or the like installed on the ship's own ship, the part of the hull where the position in the vertical direction fluctuated greatly or the direction opposite to that part

(3) ダイナミックポジショニングシステムが稼働している期間
船体の周辺の全方向
(4) サイドスラスター(Side Thruster)が作動している期間
右舷側または左舷側の内、サイドスラスターによって船体が移動している一方の方向
(3) Period during which the dynamic positioning system is in operation All directions around the hull
(4) Period during which the side thruster (Side Thruster) is operating One of the starboard or port side directions in which the hull is moving by the side thruster

(5) 針路が変更されている期間
予め設定された方向(航行スケジュールや操舵の経歴に基づいて自動的に設定されてもよい。)
(6) 海図上に標され、もしくはレーダ等によって探知され、あるいはAIS等によって識別され、しかも、画像による確認が望ましい目標に近づき、または近傍を航行する際
その目標が位置する方向
(5) Period during which the course is changed Pre-set direction (may be set automatically based on navigation schedule and steering history)
(6) Direction in which the target is located when approaching or navigating near the target that is marked on the chart, detected by radar, etc., or identified by AIS, etc.

なお、このような目標には、下記の何れもが該当し得る。
・ 自船の針路または周辺の1マイル以内に現れ、あるいは侵入した他舶(小舟であってもよい。)
・ 浅瀬
・ 赤外線により検知されたクジラ等の生物
・ 狭い海峡等に浮設された浮標
・ 養殖施設(生け簀)
・ (電子)灯台
・ レーダによって検知されたオイルスピルや流氷
In addition, any of the following may correspond to such a target.
• Other vessels that appear or have entered within one mile of the course or surroundings of your ship (may be a small boat).
・ Shallows ・ Whales and other creatures detected by infrared rays ・ Buoys placed in narrow straits, etc. ・ Aquaculture facilities (sacrifice)
・ (Electronic) lighthouse ・ Oil spill and drift ice detected by radar

(7) AIS等を介して「緊急情報」を発した船舶が識別された際
その船舶が位置する方向
(7) When a ship that issued “emergency information” is identified via AIS, etc. The direction in which the ship is located

ここに、上記他船(小舟だけではなく、木造船であってもよい。)については、受信され得るレーダ反射波のレベルが著しく小さい場合であっても、赤外線カメラによって検出され、かつ併せて求められた方位や距離に基づいて指示画面上に重畳されて表示されることによって、監視能力の向上の対象とすることが可能である。   Here, the above-mentioned other ship (not only a small boat but also a wooden ship) is detected by an infrared camera even when the level of a radar reflected wave that can be received is extremely small, By superimposing and displaying on the instruction screen based on the obtained azimuth and distance, it is possible to improve the monitoring ability.

さらに、カメラ11-1〜11-Nによってとらえられる上記他船の像の方位角方向における画角が15度と、以下の何れよりも大幅に小さい場合には、表示領域Dtの全域の画像を得る合成処理に代えて、その合成処理の対象となる画像(例えば、4個ないし8個のカメラによって与えられる。)のそれぞれに施される抽出処理が行われることにより、実時間性の確保と、画像品質の向上とが図られてもよい。   Furthermore, when the angle of view in the azimuth direction of the image of the other ship captured by the cameras 11-1 to 11-N is 15 degrees, which is much smaller than any of the following, an image of the entire display area Dt is displayed. In place of the obtained combining process, the extraction process applied to each of the images (for example, given by four to eight cameras) that is the object of the combining process is performed, thereby ensuring real-time performance. The image quality may be improved.

(1) 方位角方向におけるカメラ11-1〜11-Nの平時における被写界(45度ないし90度)
(2) 平常時における所望の表示領域dの方位角方向における幅
(1) Field of view of the cameras 11-1 to 11-N in the azimuth direction during normal times (45 to 90 degrees)
(2) The width in the azimuth direction of the desired display area d in normal times

また、表示領域Dtの画像は、必要に応じて、例えば、他船(護衛艦を含む。)、海難警備機関等に適宜無線伝送されてもよい。
さらに、このような無線伝送の要否、伝送先、伝送の対象の何れも、自船の位置、経路、目的地、属性、その自船の状況(例えば、出港中、荷役中)等の全てまたは一部に基づいて自動的に、あるいは手動により設定されてもよい。
Moreover, the image of the display area Dt may be appropriately wirelessly transmitted to, for example, other ships (including escort ships), maritime security organizations, and the like as necessary.
Furthermore, the necessity of wireless transmission, the transmission destination, and the transmission target are all related to the ship's position, route, destination, attributes, and status of the ship (for example, when leaving the port, during cargo handling). Alternatively, it may be set automatically based on a part or manually.

また、本実施形態では、表示領域Dtは、自船の位置の如何にかかわらず設定されている。   In the present embodiment, the display area Dt is set regardless of the position of the ship.

しかし、本発明はこのような構成に限定されず、表示領域Dt(カメラ11-1〜11-Nの被写界)が自船の位置と、その表示領域に位置する(位置し得る)物標Tとの相対的な距離および方向(俯角を含む。)で決定されるべき場合には、制御部15、カメラ11-1、画像バッファ12、画像処理部13および画像生成部14が下記の通りに連係してもよい。   However, the present invention is not limited to such a configuration, and the display area Dt (the object field of the cameras 11-1 to 11-N) is located at the position of the ship and the display area (can be located). When it is determined by the relative distance and direction (including the depression angle) from the target T, the control unit 15, the camera 11-1, the image buffer 12, the image processing unit 13, and the image generation unit 14 are as follows. You may link to the street.

制御部15は、以下の処理を行う。
(1) 上記物標Tの位置LOCTtならびに視角θVt、画像バッファ12によって既述の通りに引き渡された船位LOCC1t、既述の距離Lおよび距離Hに基づいて、カメラ11-1に対するその物標Tの俯角(または仰角)θTEC1tおよび方位角θTAC1tを求める。
The control unit 15 performs the following processing.
(1) the position of the target object T LOC Tt and the viewing angle theta Vt, the image ship position was handed over as described above by the buffer 12 LOC C1t, based on the aforementioned distance L i and the distance H, with respect to the camera 11 - The depression angle (or elevation angle) θTEC1t and azimuth angle θTAC1t of the target T are obtained .

(2) これらの俯角(または仰角)θTEC1tおよび方位角θTAC1tに併せて、物体Tの相対距離Lrtに適合した値として、既述の画角θVC1 、合焦距離fC1、カメラ方位角θAC1 、カメラ仰角θEC1 および方位角ΘAC1tのそれぞれの目標値を求める。 (2) In addition to the depression angle (or elevation angle) θ TEC1t and the azimuth angle θ TAC1t , the angle of view θ VC1 , the focusing distance f C1 , and the camera azimuth described above are set as values suitable for the relative distance L rt of the object T. Target values for the angle θ AC1 , the camera elevation angle θ EC1, and the azimuth angle Θ AC1t are obtained.

(3) これらの目標値および上記俯角(または仰角)θTEC1tおよび方位角θTAC1tに適合した表示領域Dを求める。
(4) 図1に点線で示すように画像バッファ12を介して形成されるデータリンクを介してカメラ11-1に、上記目標値を引き渡す。
(5) 画像処理部13に、表示領域Dを引き渡す。
(3) The display area D t suitable for these target values and the above depression angle (or elevation angle) θ TEC1t and azimuth angle θ TAC1t is obtained.
(4) The target value is delivered to the camera 11-1 via a data link formed via the image buffer 12 as indicated by a dotted line in FIG.
(5) Deliver the display area D t to the image processing unit 13.

なお、制御部15は、このようにしてカメラ11-1に引き渡されるべき目標値については、そのカメラ11-1の撮像(撮影)条件や姿勢の変更が可能なものに限って求める。
カメラ11-1、またはそのカメラ11-1をアンテナ20Aに支持する機構は、このようにして引き渡された目標値に、画角θVC1 、合焦距離fC1、カメラ方位角θAC1 、カメラ仰角θEC1 および方位角ΘAC1tを変更する。
Note that the control unit 15 obtains the target value to be delivered to the camera 11-1 in this manner only when the imaging (capturing) condition and posture of the camera 11-1 can be changed.
The camera 11-1 or the mechanism that supports the camera 11-1 on the antenna 20A includes the angle of view θ VC1 , the focusing distance f C1 , the camera azimuth angle θ AC1 , and the camera elevation angle as the target values thus delivered. θ EC1 and azimuth angle Θ AC1t are changed.

画像バッファ12は、このような画像情報IC1tが引き渡される度に行われる既述の処理の過程で、以下の処理を併せて行う。
(1) カメラ11-1の被写界FCA1tを船位LOCC1tに基づいて海図(地図)上にマッピングすることによって得られる被写界FCAit′(=f(LOCC1t,FCAit))に変換する。
(2) この被写界FCAit′をカレントレコードの「FCAit′」フィールドに格納する。
The image buffer 12 performs the following processing in the course of the processing described above that is performed every time such image information I C1t is delivered.
(1) In the object field F CAit ′ (= f (LOC C1t , F CAit )) obtained by mapping the object field F CA1t of the camera 11-1 on the chart (map) based on the ship position LOC C1t. Convert.
(2) Store this field F CAit ′ in the “F CAit ′” field of the current record.

一方、画像処理部13は、画像バッファ12にファーストイン・ファーストアウト方式により有効な画像情報IC1tが格納されたレコードの内、後述する好適な複数Pのレコードの列毎に、下記の点を除いて既述の処理と同じ処理を行う。 On the other hand, the image processing unit 13 sets the following points for each of a plurality of suitable P records to be described later, among records in which valid image information I C1t is stored in the image buffer 12 by the first-in / first-out method. Except for this, the same processing as described above is performed.

(1) 上述した複数Pのレコードの「FCAit′」フィールドの値が「0」以外であるか否か判別し、「0」以外である場合に限って、次の処理(2) を行う。
(2) 上記複数Pのレコードの内、「FCAit」フィールドではなく、「FCAit′」フィールドに格納された被写界FCA1t′の全てまたは一部が上記表示領域Dに含まれるレコード(以下、「適応レコード」という。)を抽出する。
(1) It is determined whether or not the value of the “F CAit ′” field of the plurality of P records described above is other than “0”, and the next process (2) is performed only when the value is other than “0”. .
(2) Record the among the plurality P of records, where instead of the "F cait" field, all or part of the "F cait '' scene stored in the field F CA1T 'is included in the display region D t (Hereinafter referred to as “adaptive record”).

なお、このような場合における以下の処理および動作については、既述の通りであるので、ここでは、その説明を省略する。
・ 合成画像IStの生成
・ 部分画像Iptの抽出
・ 部分画像Iptの画像生成部14に対する引き渡し
・ 画像生成部14によって行われる処理
・ 画像生成部14に連係するレーダ20の振る舞い
In addition, since the following processes and operation | movement in such a case are as above-mentioned, the description is abbreviate | omitted here.
- composite image I St behavior generation and partial image I pt extraction and partial images I pt of the image generating unit 14 radar 20 that links to the processing and image generation unit 14 to be performed by the delivery-image generating unit 14 for in

また、上述した各実施形態では、カメラ11-1〜11-Nの撮像光学系の光軸の方向が、被写界FCAit(FCAit′)の方向に一致している。
しかし、本発明は、このような構成に限定されず、例えば、このような光軸上にプリズム、反射鏡、ハーフミラー等の光学部品が介在し、あるいはモータ等により被写界の変更や設定が可能である場合であっても、これらの光学部品の光学的特性および配置に適応した写像変換の下で上記被写界FCAit(FCAit′)の特定が可能であるならば、同様に適用可能である。
Further, in each of the above-described embodiments, the direction of the optical axis of the imaging optical system of the cameras 11-1 to 11-N coincides with the direction of the object scene F CAit (F CAit ′).
However, the present invention is not limited to such a configuration. For example, an optical component such as a prism, a reflecting mirror, or a half mirror is interposed on such an optical axis, or the object field is changed or set by a motor or the like. If the field F CAit (F CAit ′) can be specified under map transformation adapted to the optical characteristics and arrangement of these optical components, Applicable.

〔第3の実施形態〕
図12は、本発明の第3の実施形態における制御部の動作フローチャートである。
図13は、本発明の第3の実施形態の動作を説明する図である。
以下、図1〜図3、図12および図13を参照して本実施形態の動作を説明する
[Third Embodiment]
FIG. 12 is an operation flowchart of the control unit according to the third embodiment of the present invention.
FIG. 13 is a diagram for explaining the operation of the third embodiment of the present invention.
Hereinafter, the operation of this embodiment will be described with reference to FIGS. 1 to 3, 12, and 13.

本実施形態では、各部が下記の通りに連係する点で、既述の第1の実施形態と異なる。
カメラ11-1は、赤外領域で撮像を行い、落水者等を温度により検知すると、画像バッファ12を介して形成されるデータリンクを介して制御部15に、その旨を通知する。
制御部15は、以下の処理を行う。
This embodiment is different from the first embodiment described above in that each unit is linked as follows.
When the camera 11-1 captures an image in the infrared region and detects a person who has fallen in water based on temperature, the camera 11-1 notifies the control unit 15 via a data link formed via the image buffer 12.
The control unit 15 performs the following processing.

(1) 上記データリンクを介してカメラ11-1に落水者との距離の測定を指令する(図12ステップS1)。なお、このような距離の測定は、例えば、カメラ11-1に備えられた自動焦点機構におけるレンズサーボの駆動信号の換算によって行われる。 (1) The camera 11-1 is instructed to measure the distance to the water dropper via the data link (step S1 in FIG. 12). Such a distance measurement is performed, for example, by conversion of a lens servo drive signal in an autofocus mechanism provided in the camera 11-1.

(2) 可能である場合には、アンテナ20Aの回転を停止し(図12ステップS2)、かつ上記データリンクを介してカメラ11-1と連係することによって、そのカメラ11-1の被写界に落水者が位置する状態を確保する(図12ステップS3)。 (2) If possible, the rotation of the antenna 20A is stopped (step S2 in FIG. 12), and the camera 11-1 is linked to the object field of the camera 11-1 via the data link. The state where the person who falls is located is secured (step S3 in FIG. 12).

(3) その指示に応じてカメラ11-1から通知された距離dを取得する(図12ステップS4)と、既述の距離L,H、画角θVCi、合焦距離fCi、方位角θ、カメラ方位角θACi、カメラ仰角θECiに併せて、自船の寸法、構造、形状等の既知の情報に基づいて上記落水者の位置POSを特定する(図12ステップS5)。 (3) When the distance d notified from the camera 11-1 is acquired according to the instruction (step S4 in FIG. 12), the above-described distances L i , H, the angle of view θ VCi , the focusing distance f Ci , and the direction angle theta a, camera azimuth theta ACi, along with the camera elevation theta ECi, the dimensions of the ship, structure, specifying the position POS of the man overboard person based on known information such as the shape (Fig. 12 step S5).

(4) 落水者と自船との距離が所望の値となる方向に自船を操舵する指示を操作者に支え、あるいは操舵系(オートパイロットを含む)にこのような指示を直接与える(図12ステップS6)ことにより、救難の体制を整え、かつ維持する。 (4) Supporting the operator to steer the ship in the direction where the distance between the water-falling person and the ship becomes a desired value, or giving such an instruction directly to the steering system (including autopilot) (Fig. 12 step S6), the system of rescue is prepared and maintained.

(5) これに並行して、画角θVCiを広めに設定し、かつ操作者の指示に応じて適宜変更可能とし、かつ合焦距離fCi、方位角θ、カメラ方位角θACiおよびカメラ仰角θECiを適宜可変することによって、被写界FCA1tの中央部に落水者の像が位置する状態を維持する(図12ステップS7)と共に、このようなカメラ11-1の制御に付帯した補正が好ましい形態で、上記操舵の指示を更新する(図12ステップS8)。 (5) In parallel with this, the angle of view θ VCi is set wider and can be appropriately changed according to an instruction from the operator, and the focusing distance f Ci , azimuth angle θ A , camera azimuth angle θ ACi, and By appropriately changing the camera elevation angle θ ECi , the state where the image of the water drop person is located at the center of the object field F CA1t is maintained (step S7 in FIG. 12), and the control of the camera 11-1 is incidental. The above-described steering instruction is updated in the preferred form of the correction (step S8 in FIG. 12).

したがって、本実施形態によれば、甲板上や船室に位置する人の目線より高い位置にあるカメラ11-1によって、落水者の捕捉が速やかにかつ確度高く実現され、早期の救出の強力な支援が図られる。   Therefore, according to the present embodiment, the camera 11-1 positioned higher than the line of sight of the person on the deck or in the cabin can quickly and accurately capture the water drop person, and provides powerful support for early rescue. Is planned.

なお、本実施形態では、自船が、縦揺れ(ピッチング)、横波揺れ(ローリング)、水平面における左右の揺れ(ヨーイング)、鉛直方向における上下動(ヒーヴィング)、荒天等に起因して船首が波にたたきつけられることによって生じる揺れ(パンチング)等のように、多様な揺動を被る状況では、カメラ11-1および画像処理部13が以下の通りに連係することによって、落水者の捕捉がさらに安定に実現される。   In the present embodiment, the ship's bow is waved due to pitching, lateral shaking (rolling), horizontal shaking (yawing), vertical movement (heaving) in the vertical direction, stormy weather, etc. In situations where the camera 11-1 and the image processing unit 13 are linked in the following manner, such as shaking (punching) caused by being struck, the capture of the water drop person is further stabilized. To be realized.

(1) カメラ11-1に内蔵された撮像素子は、本来的に確保されるべき被写界により大幅に大きな領域の撮像が可能な撮像面を有する。
(2) 画像処理部13は、このような撮像面によって時系列の順に撮像された画像情報IC1t′毎に、以下の処理を行う。
(1) The image pickup device built in the camera 11-1 has an image pickup surface capable of picking up an image of a significantly large area due to the object field to be originally secured.
(2) The image processing unit 13 performs the following processing for each piece of image information I C1t ′ captured in order of time series by such an imaging surface.

(2-1) 図示されない揺動センサーによって計測された揺動Vの成分を既定の互いに直交する座標系(例えば、鉛直方向にZ軸が設定された3次元の直交座標系)の成分(vxt、vyt、vzt)に分解する。 (2-1) component of the coordinate system perpendicular to each other component of the default swing V t measured by the unillustrated swing sensor (e.g., a three-dimensional orthogonal coordinate system Z-axis is set in the vertical direction) ( v xt , v yt , v zt ).

(2-2) 上記成分(vxt、vyt、vzt)に応じてカメラ11-1の撮像面に被る既述の揺動Vを既知の距離L,H、方位角θAt、カメラ方位角θAC1、カメラ仰角θEC1に基づいて換算することにより、図14に示すように、その撮像面において本来の被写界に相当する領域の縦方向、横方向のオフセット分(Δx、Δy)と、その領域の画像が本来の被写界の像を与えるために拡縮されるべき倍率μとを求める。 (2-2) The above-described oscillation V t applied to the imaging surface of the camera 11-1 according to the components (v xt , v yt , v zt ) is changed to the known distances L 1 , H, azimuth angle θ At , By converting based on the camera azimuth angle θ AC1 and the camera elevation angle θ EC1 , as shown in FIG. 14, the vertical and horizontal offsets (Δx t) of the area corresponding to the original object field on the imaging surface are obtained. , Δy t ) and the magnification μ t that the image in that region should be scaled to give the original image of the scene.

(2-3) 画像情報IC1t′から上記オフセット分(Δx、Δy)に起因する余剰な成分を除去することによって、部分画像IPC1t′を抽出し、その部分画像IPC1t′をμ倍する写像変換を行うことによって、本来的な被写界の画像情報IC1tを生成する。 (2-3) The partial image I PC1t ′ is extracted from the image information I C1t ′ by removing excess components due to the offset (Δx t , Δy t ), and the partial image I PC1t ′ is changed to μ By performing the map transformation to be multiplied by t , the original image information I C1t of the object scene is generated.

したがって、本実施形態によれば、自船が広範かつ多様な揺動を被る状況であっても、所望の被写界FCAit(FCAit′)の画像が安定に得られる。 Therefore, according to the present embodiment, an image of a desired scene F CAit (F CAit ′) can be stably obtained even in a situation where the ship is subject to a wide variety of swings.

なお、上述した各実施形態では、自船の甲板上で最も高い位置にあるカメラ11-1〜11-Nによってとらえられた画像に、サンプリング、蓄積、抽出、重畳、合成等の画像処理が適宜施されることによって、甲板上や船室内に居る人の死角の緩和や解消が図られている。   In each of the above-described embodiments, image processing such as sampling, accumulation, extraction, superimposition, and composition is appropriately performed on an image captured by the cameras 11-1 to 11-N located at the highest position on the deck of the ship. As a result, the blind spots of the people on the deck and in the cabin are alleviated and eliminated.

しかし、このような画像、または画像処理によって得られる画像は、上記死角の緩和や解消のためだけではなく、例えば、時刻、船位、被写界(方位角、仰角(俯角))に対応付けられ、かつ事故や事象の経緯もしくは原因の把握に供され得るログとして蓄積されてもよい。   However, such an image or an image obtained by image processing is associated not only with the relaxation and elimination of the blind spot, but also with, for example, time, ship position, and field of view (azimuth, elevation (decline)). , And may be accumulated as a log that can be used for grasping the background or cause of an accident or event.

また、落水者の検知については、対象者が落水する前に甲板上に存在していた状態から継続して行われる追尾により、より迅速に実現されてもよい。   In addition, the detection of a water drop person may be realized more quickly by tracking that is continuously performed from the state in which the target person was present on the deck before the water drop.

〔第4の実施形態〕
本実施形態の構成は、以下の点で既述の第1ないし第3の実施形態と異なる。
(1) アンテナ20Aに、少なくとも2台のカメラ20-1、20-2がアンテナ20Aが取り付けられる。
[Fourth Embodiment]
The configuration of this embodiment is different from the first to third embodiments described above in the following points.
(1) At least two cameras 20-1 and 20-2 are attached to the antenna 20A.

(2) 一方のカメラ20-1は、図6(d)に示すように、既述の各実施形態と同様にアンテナ20Aの底部に取り付けられ、かつ他方のカメラ20-2は、そのアンテナ20Aの側部の内、アンテナ20Aの開口面以外の部位に取り付けられる。 (2) As shown in FIG. 6 (d), one camera 20-1 is attached to the bottom of the antenna 20A as in the above-described embodiments, and the other camera 20-2 has its antenna 20A. Are attached to portions other than the opening surface of the antenna 20A.

(3) これらのカメラ20-1、20-2がアンテナ20Aに取り付けられる姿勢は、図16(a) に示すように、それぞれの被写界FCA1t、FCA2tの少なくとも一部が重なる姿勢に設定される。 (3) The posture in which these cameras 20-1 and 20-2 are attached to the antenna 20A is such that at least a part of each of the object fields F CA1t and F CA2t overlaps, as shown in FIG. Is set.

図15は、本発明の第4の実施形態における画像処理部の動作フローチャートである。
図16は、本発明の第4の実施形態の動作を説明する図である。
以下、図1〜図3、図14、図15および図16を参照して本実施形態の動作を説明する。
FIG. 15 is an operation flowchart of the image processing unit according to the fourth embodiment of the present invention.
FIG. 16 is a diagram for explaining the operation of the fourth embodiment of the present invention.
Hereinafter, the operation of the present embodiment will be described with reference to FIGS. 1 to 3, 14, 15, and 16.

本発明の特徴は、本実施形態では、気象や激しい波浪に起因する自船の大幅かつ頻繁な揺動に追従する下記の画像処理の手順にある。
画像バッファ12は、カメラ11-1、11-2によって画像情報IC1t、IC2tがそれぞれ引き渡される度に、第1の実施形態と同様の処理を行うことによって、既述のカレントレコードの下記の各フィールドに対する書き込みを行う。
The feature of the present invention lies in the following image processing procedure according to the present embodiment, which follows large and frequent rocking of the ship due to weather and severe waves.
Image buffer 12, image information I C1t by the camera 11-1 and 11-2, each time the I C2t are passed respectively, by performing the first embodiment and the same process, the aforementioned current record below Write to each field.

・ 「画像情報ICit」フィールド
・ 「方位角ΘACit」フィールド
・ 「船位LOCCit」フィールド
・ 「FCAit」フィールド
・ 「FCAit′」フィールド
・ “Image Information I Cit ” field ・ “Azimuth Angle Θ ACit ” field ・ “Ship Position LOC Cit ” field ・ “F CAit ” field ・ “F CAit ′” field

画像処理部13は、以下の処理を行う。
(1) 第1の実施形態と同様に、表示領域D(制御部15によって適宜指示され、かつレーダ20の指示画像と対応付けられて、あるいは単独で操作者に提供される。)を識別する(図15ステップS1)。
(2) 自船が被っている揺動V(図示されない揺動センサーによって計測される。)を取得し(図15ステップS2)、その揺動Vの成分に応じた上記表示領域Dの変動分が補正された表示領域D′を特定する(図15ステップS3)。
The image processing unit 13 performs the following processing.
(1) Similar to the first embodiment, the display area D t (designated as appropriate by the control unit 15 and associated with the instruction image of the radar 20 or provided alone to the operator) is identified. (Step S1 in FIG. 15).
(2) The swing V t (measured by a swing sensor not shown) that the ship is wearing is acquired (step S2 in FIG. 15), and the display area D t corresponding to the component of the swing V t is acquired. The display area D t ′ in which the fluctuation amount of the correction is corrected is specified (step S3 in FIG. 15).

(3) このような表示領域D′を既述の表示領域D に代えて適用することによって、第1の実施形態と同様に「適応レコード」を抽出し、かつ合成画像ISt′を生成する(図15ステップS4)。
(4) その合成画像ISt′の内、既述の表示領域D′に相当する部分画像Ipt′を抽出する(図15ステップS5)。
(5) 画像生成部14に、上記部分画像Ipt′を引き渡す(図15ステップS6)。
(3) By applying such a display area D t ′ in place of the display area D t described above, an “adaptive record” is extracted as in the first embodiment, and the composite image I St ′ is extracted. Generate (step S4 in FIG. 15).
(4) A partial image I pt ′ corresponding to the above-described display area D t ′ is extracted from the composite image I St ′ (step S5 in FIG. 15).
(5) Deliver the partial image I pt ′ to the image generation unit 14 (step S6 in FIG. 15).

画像生成部14およびレーダ20によって行われ処理については、既述の部分画像Iptに代えて部分画像Ipt′が参照される点を除いて、第1の実施形態と同じであるので、ここでは、その説明を省略する。 The processing performed by the image generating unit 14 and the radar 20, except that the partial image I pt 'is referenced instead of the aforementioned partial image I pt, is the same as the first embodiment, wherein Then, the description is omitted.

すなわち、本実施形態では、カメラ11-1の被写界FCA1tだけでは表示領域Dの維持が困難である程度に自船が大幅に揺れている状況であっても、図16(b) に示すように、カメラ11-2の被写界FCA2tが組み合わせられ、これらの被写界について個別に撮像された画像が適宜合成されたり切り出されることによって、安定に所望の表示領域Dの画像が得られる。 That is, in this embodiment, only the subject field F CA1T cameras 11-1 even in a situation where difficult and the ship to a certain extent to maintain the display area D t is shaking greatly in FIG 16 (b) As shown, the object field F CA2t of the camera 11-2 is combined, and images captured individually for these object fields are appropriately combined and cut out, so that an image of the desired display area D t can be stably displayed. Is obtained.

したがって、本実施形態によれば、自船が位置する水域における多様な状況に柔軟に適応して、航行の安全性および利便性が高く確保される。   Therefore, according to the present embodiment, it is possible to flexibly adapt to various situations in the water area where the ship is located, and to ensure high safety and convenience of navigation.

なお、上述した各実施形態では、カメラ11-1〜11-Nの撮影条件(解像度(画素数)、感度、フレームレート、アオリ撮影の要否、動画モード/静止画モードの選択)は、以下の何れによってどのように設定され、あるいは更新されてもよい。   In the above-described embodiments, the shooting conditions (resolution (number of pixels), sensitivity, frame rate, necessity of tilt shooting, selection of moving image mode / still image mode) of the cameras 11-1 to 11-N are as follows. It may be set or updated in any way.

(1) 制御部15が行う主導的な処理
(2) 画像バッファ12、画像処理部13、画像生成部14およびレーダ20の連係の下で行われる多様な処理(画像処理を含む。)
(3) 操作者によって与えられる指示
(1) Leading process performed by the control unit 15
(2) Various processes (including image processing) performed under the cooperation of the image buffer 12, the image processing unit 13, the image generation unit 14, and the radar 20.
(3) Instructions given by the operator

また、このような撮影条件は、所望の応答性や実時間性が確保されるならば、レーダ20によって行われるスイープ、スキャンと同期することなく設定され、あるいは更新されてもよい。   Further, such imaging conditions may be set or updated without synchronizing with the sweep and scan performed by the radar 20 as long as desired response and real-time characteristics are ensured.

さらに、上述した各実施形態では、カメラ11-1〜11-Nの被写界の方向は、例えば、アンテナ20に対する取り付けのために個別に介装され、かつモータ等によって個々の姿勢の設定や変更を可能とする台座(図示されない)を制御部15が既述のデータリンクを介して制御することにより、図6に示すように、適宜変更されてもよい。   Further, in each of the above-described embodiments, the direction of the field of view of the cameras 11-1 to 11-N is individually provided for attachment to the antenna 20, for example, and each posture is set by a motor or the like. The pedestal (not shown) that can be changed may be appropriately changed as shown in FIG. 6 by the control unit 15 controlling the pedestal via the data link described above.

〔第5の実施形態〕
本実施形態と既述の第1の実施形態との構成の相違点は、カメラ11-1に代えて魚眼カメラ11F-1が備えられた点にある。
[Fifth Embodiment]
The difference between the present embodiment and the first embodiment described above is that a fisheye camera 11F-1 is provided instead of the camera 11-1.

図17は、本発明の第5の実施形態の原理を示す図である。
以下、図1〜図3および図17を参照して本実施形態の動作を説明する
魚眼カメラ11F-1は、制御部15によって与えられる撮像の期間および条件の下で適宜撮像を行い、その撮像によって時系列tの順に得られた画像情報IfC1tを画像バッファ12に引き渡す。
FIG. 17 is a diagram showing the principle of the fifth embodiment of the present invention.
Hereinafter, the operation of the present embodiment will be described with reference to FIG. 1 to FIG. 3 and FIG. 17. The fisheye camera 11F-1 appropriately captures images under the imaging period and conditions given by the control unit 15. The image information IfC1t obtained in the order of time series t by imaging is delivered to the image buffer 12.

本発明の特徴は、本実施形態では、画像バッファ12のレコードの内、時系列tおよびカメラ識別子i(=1)に対応したカレントレコードの「画像情報ICit」フィールドに格納されるべき画像情報が、以下の通りに画像バッファ12によって生成される点にある。 A feature of the present invention is that, in this embodiment, image information to be stored in the “image information I Cit ” field of the current record corresponding to the time series t and the camera identifier i (= 1) among the records of the image buffer 12. Is generated by the image buffer 12 as follows.

画像バッファ12は、上記画像情報IfC1tが引き渡される度に、その画像情報IfC1tに、魚眼カメラ11F-1の撮像光学系で生じる既知の光学的な歪みを補償する処理(以下、「歪み補償処理」という。)を施すことにより、第1の実施形態においてカメラ11-1が中心投影方式によって撮像する画像に相当する画像情報IC1tを生成する。 Image buffer 12 every time the image information I FC1t is passed, in the image information I FC1t, processing to compensate for known optical distortion caused by the imaging optical system of the fisheye camera 11F-1 (hereinafter, "Distortion By performing the compensation process ”), image information I C1t corresponding to an image captured by the camera 11-1 by the central projection method in the first embodiment is generated.

ここに、画像バッファ12、画像処理部13、画像生成部14およびレーダ20が連係して行う処理については、第1の実施形態と同じであるので、これらの説明を省略する。
なお、上述した「歪み補償処理」は、魚眼カメラ11F-1に備えられた光学系11OPT-1を介して撮像素子11-1によって撮像された画像を示す画像情報11fC1t(図17(1))に、その光学系11OPT-1の光学的な特性と反対の特性に相当する写像変換(図17(2))を施すことによって実現される。
Here, the processing performed in cooperation with the image buffer 12, the image processing unit 13, the image generation unit 14, and the radar 20 is the same as that in the first embodiment, and thus description thereof is omitted.
Note that the above-described “distortion compensation processing” is performed in the image information 11 fC1t (FIG. 17) indicating an image captured by the image sensor 11 S -1 via the optical system 11 OPT -1 provided in the fisheye camera 11F-1. This is realized by subjecting (1)) to mapping conversion (FIG. 17 (2)) corresponding to the characteristic opposite to the optical characteristic of the optical system 11 OPT- 1.

このように本実施形態によれば、中心投影方式ではない魚眼カメラ11F-1によって与えられた画像情報IfC1tから、所望の被写界FCAitの撮像によって得られるべき画像情報IC1tが与えられる。 According to this embodiment, the image information I FC1t given by fisheye camera 11F-1 is not a central projection method, given image information I C1t to be obtained by the imaging of the desired object scene F cait It is done.

したがって、本実施形態によれば、第1の実施形態に比べて、アンテナ20Aに取り付けられるべきカメラの姿勢に要求される精度が緩和され、このような姿勢の誤差の圧縮が画像処理の領域で精度よく簡便に実現される。   Therefore, according to the present embodiment, compared to the first embodiment, the accuracy required for the posture of the camera to be attached to the antenna 20A is relaxed, and such error correction of the posture is performed in the image processing region. Realized accurately and simply.

また、本実施形態では、魚眼カメラ11F-1の姿勢が変更されることなく、上記画像処理の領域で、アンテナ20Aの主ローブの方位角θの如何にかかわらず、画角θVCi、カメラ方位角θACiおよびカメラ仰角θECiの自在な設定および変更が可能となり、かつ既述の合焦距離fCiの設定や変更が不要となる。 In the present embodiment, the angle of view θ VCi , regardless of the azimuth angle θ A of the main lobe of the antenna 20A in the image processing region, without changing the posture of the fisheye camera 11F-1. The camera azimuth angle θ ACi and camera elevation angle θ ECi can be freely set and changed, and the above-described setting and changing of the focusing distance f Ci are not required.

したがって、機械的あるいは光学的な構造の自由度が高められ、構成の標準化や低廉化が容易に実現可能となる。   Therefore, the degree of freedom of the mechanical or optical structure is increased, and the standardization and cost reduction of the configuration can be easily realized.

なお、本実施形態では、魚眼カメラ11F-1がアンテナ20Aの底部に取り付けられ、そのアンテナ20Aと共に回転している。   In the present embodiment, the fisheye camera 11F-1 is attached to the bottom of the antenna 20A and rotates together with the antenna 20A.

しかし、本発明はこのような構成に限定されず、例えば、アンテナ20Aの回転軸に魚眼カメラ11-1が取り付けられると共に、以下の何れかの形態で構成されてもよい。   However, the present invention is not limited to such a configuration, and for example, the fisheye camera 11-1 may be attached to the rotation shaft of the antenna 20A and may be configured in any of the following forms.

(1) 魚眼カメラ11F-1がアンテナ20Aと共に回転し、かつ画像バッファ12によって行われる画像処理の過程で、既述の画角θVCi、カメラ方位角θACi、カメラ仰角θECiが設定され、あるいは適宜更新されることによって、複数Nのカメラ11-1〜11-Nの魚眼カメラ11F-1による兼用が図られる。 (1) In the course of image processing performed by the fisheye camera 11F-1 together with the antenna 20A and performed by the image buffer 12, the above-described angle of view θ VCi , camera azimuth angle θ ACi , and camera elevation angle θ ECi are set. Alternatively, by being updated as appropriate, the multiple-cameras 11-1 to 11-N can be shared by the fish-eye camera 11F-1.

(2) 魚眼カメラ11F-1がアンテナ20Aと共に回転しない部材に固着され、かつ画像バッファ12によって行われる画像処理の過程で、既述の画角θVCi、カメラ方位角θACi、カメラ仰角θECiに併せて、既述の方位角θが設定され、あるいは適宜更新されることによって、複数Nのカメラ11-1〜11-Nの魚眼カメラ11F-1による兼用が図られる。 (2) The fish-eye camera 11F-1 is fixed to a non-rotating member together with the antenna 20A, and the image angle θ VCi , camera azimuth angle θ ACi , and camera elevation angle θ described above are processed in the image buffer 12. Along with ECi , the above-mentioned azimuth angle θ A is set or updated as appropriate, so that the multiple-cameras 11-1 to 11-N can be shared by the fish-eye camera 11F-1.

ここに、上記(2) における画像処理は、レーダ20がMIMOレーダであって、アンテナ20Aがそのレーダ20が行う電子ビームフォーミングの下で回転しない場合であっても、例えば、実効的なスキャン、スイープ、レンジの何れかに同期して行うことが可能である。   Here, in the image processing in (2), even when the radar 20 is a MIMO radar and the antenna 20A does not rotate under the electron beam forming performed by the radar 20, for example, effective scanning, It can be performed in synchronization with either sweep or range.

また、このような場合には、既述の画角θVCi、カメラ方位角θACi、カメラ仰角θECi、方位角θは、上記ビームフォーミングに同期して適宜設定され、あるいは更新されてもよい。 In such a case, the aforementioned angle of view θ VCi , camera azimuth angle θ ACi , camera elevation angle θ ECi , and azimuth angle θ A may be appropriately set or updated in synchronization with the beam forming. Good.

さらに、本実施形態では、魚眼カメラ11F-1の光学系は、「等距離射影方式」、「等立体角射影方式」、「正射影方式」の何れが適用されてもよく、かつ「全周魚眼レンズ」と「対角線魚眼レンズ」との何れとして構成されてもよい。   Furthermore, in the present embodiment, any one of the “equal distance projection method”, the “equal solid angle projection method”, and the “orthographic projection method” may be applied to the optical system of the fisheye camera 11F-1. It may be configured as either “circumferential fisheye lens” or “diagonal fisheye lens”.

また、本実施形態では、所望の被写界は、複数Pのカメラ(少なくとも1つが魚眼カメラに該当する。)の併用によって確保されてもよい。   In the present embodiment, the desired scene may be secured by using a plurality of P cameras (at least one of which corresponds to a fisheye camera).

さらに、上述した各実施形態では、カメラ(魚眼カメラ)の台数Nが複数である場合には、これらのカメラ(魚眼カメラ)のそれぞれの好適な被写界を維持する処理は、自船の揺動ではなく、カメラが個別に取り付けられ(配置され)た部位について個別に検知された揺動に応じて既述の処理が行われることによって実現されてもよい。   Further, in each of the above-described embodiments, when there are a plurality of cameras (fisheye cameras) N, the process of maintaining a suitable field of view of each of these cameras (fisheye cameras) is performed by the own ship. It may be realized by performing the above-described processing in accordance with the swing detected individually for the part where the camera is individually attached (arranged) instead of the swing of the camera.

また、上述した各実施形態では、カメラ(魚眼カメラ)は、何れも、個別に備えられた手振れ補正機構によって被写界の維持の安定化が図られてもよい。   Further, in each of the above-described embodiments, the camera (fisheye camera) may be stabilized in the maintenance of the object scene by a camera shake correction mechanism provided individually.

さらに、上述した各実施形態では、カメラ11-1〜11-N(魚眼カメラ11F-1〜11F-N)、画像バッファ12、画像処理部13、画像生成部14、レーダ20の連係における機能や負荷の分散は、所望の作用効果が達成されるならば、どのような形態であってもよい。
特に、画像処理の内、線形の処理の順序については、好適な精度や応答性が実現されるならば、既述の順序と異なってもよい。
Further, in each of the above-described embodiments, the functions of the cameras 11-1 to 11-N (fisheye cameras 11F-1 to 11F-N), the image buffer 12, the image processing unit 13, the image generation unit 14, and the radar 20 are linked. The load distribution may be in any form as long as a desired effect is achieved.
In particular, the order of linear processing in image processing may be different from the order described above as long as suitable accuracy and responsiveness are realized.

また、上述した各実施形態では、アンテナ20Aにサーチライトが取り付けられることにより、夜間などにおける対象角度方向の視認性の向上が図られてもよい。
さらに、上述した各実施形態では、カメラ11-1〜11-Nがアンテナ20Aに取り付けられている。
Moreover, in each embodiment mentioned above, the improvement of the visibility of the object angle direction in the nighttime etc. may be aimed at by attaching a searchlight to the antenna 20A.
Further, in each of the above-described embodiments, the cameras 11-1 to 11-N are attached to the antenna 20A.

しかし、本発明はこのような構成に限定されず、カメラの数Nが小さく抑えられ、しかも画像処理の下で所望の画像が生成されることによって、死角の回避や緩和だけではなく、従来例では監視や観測が行われることがなかった被写界の画像を得るために、このようなカメラは、以下の何れに備えられてもよい。   However, the present invention is not limited to such a configuration, and the number N of cameras can be kept small, and a desired image is generated under image processing. Then, in order to obtain an image of the object scene that was not monitored or observed, such a camera may be provided in any of the following.

(1) 風力発電用のプロペラ:以下の目的の双方もしくは何れか一方を実現する。
・ 広範な高低差がある位置からそれぞれとらえられた画像による気象現象,自然現象等の光学的な観測を可能とする。
・ バードストライク防止用のレーダが適用されることにより鳥との衝突に起因する損傷を防ぐための回転の一時的な遅れや停止が図られる風力発明用のプロペラにおいて、そのレーダによる鳥監視と並行して画像処理により鳥が識別されることにより、鳥の検出精度を高められる。
(2) ヘリコプターのプロペラ:地形や地物の観測、飛行中における周辺あるいは上方の光学的な観測を実現する。
(1) Propeller for wind power generation: To achieve both or one of the following purposes.
・ Enables optical observation of meteorological and natural phenomena using images captured from a wide range of height differences.
・ In the propeller for wind power invention in which the radar for preventing bird strike is applied to prevent damage caused by the collision with the bird, the rotation of the propeller for wind power invention is paralleled with the bird monitoring by the radar. Thus, the bird detection accuracy can be improved by identifying the bird by image processing.
(2) Helicopter propeller: observation of topography and features, and optical observation around or above in flight.

(3) 扇風機の羽根:幼児が羽根等の可動部分に接触することによる事故の防止、あるいは高齢者の生存確認を実現する。
(4) 電子レンジの槽内に配置されたファンの羽根:加熱対象の表面における温度分布の高い精度の観測を可能とする。
(5) 揺れ動く装置(の筐体)、または部材:異なる位置における所望の物体または空間(の状況)の光学的な観測や監視を可能とする。
(3) Fan blades: To prevent accidents when infants come into contact with moving parts such as blades, or to confirm the survival of the elderly.
(4) Fan blades placed in the microwave oven: Enables highly accurate observation of the temperature distribution on the surface of the heating object.
(5) Swinging device (case) or member: Enables optical observation and monitoring of a desired object or space at different positions.

さらに、本発明では、個々のカメラに係る下記の何れの事項も、これらのカメラが取り付けられるアンテナ20Aその他の何れの部材と、これらの部材を備えた船舶等の移動体あるいは装置との双方または何れか一方の測位や回転角に基づいて設定や更新が行われてもよい。
(1) 撮像が行われるべき切っ掛けや期間
(2) 姿勢、画角、解像度、フレームレートその他の撮像(撮影)の条件
また、本発明は、上述した実施形態に限定されず、本発明の範囲において多様な実施形態の構成が可能であり、構成要素の全てまたは一部に如何なる改良が施されてもよい。
Furthermore, in the present invention, any of the following matters relating to the individual cameras may include both the antenna 20A and other members to which these cameras are attached, and a moving body or device such as a ship equipped with these members, or Setting or updating may be performed based on either one of the positioning and the rotation angle.
(1) Sections and periods for which imaging should be performed
(2) Attitude, angle of view, resolution, frame rate, and other imaging (photographing) conditions The present invention is not limited to the above-described embodiments, and various configurations can be made within the scope of the present invention. Any improvements may be made to all or some of the components.

〔第6の実施形態〕
以下、本発明の第6の実施形態について説明する。
本実施形態の構成の特徴は、既述の第1の実施形態との対比においては、図1に示すように、以下の点にある。
[Sixth Embodiment]
The sixth embodiment of the present invention will be described below.
The characteristics of the configuration of the present embodiment are as follows, as shown in FIG. 1, in comparison with the first embodiment described above.

(1) 制御部15に代えて制御部15Aが備えられる。
(2) アンテナ20Aは、外部から与えられる指令に応じて、そのアンテナ20Aの主ローブの方向が所望の方向に設定され、かつ適宜変更や維持が可能な機構を有する。
(1) A control unit 15A is provided instead of the control unit 15.
(2) The antenna 20A has a mechanism in which the direction of the main lobe of the antenna 20A is set to a desired direction according to a command given from the outside, and can be changed or maintained as appropriate.

(3) 制御部15Aの特定のポートは、上記アンテナ20Aの制御端子に接続されると共に、上記指令の引き渡しに供される。
(4) 図18(a)、(b)に示すように、アンテナ20Aの長手方向に対向する2つの側壁に、カメラ11-1、11-2がそれぞれ取り付けられる。
(3) A specific port of the control unit 15A is connected to the control terminal of the antenna 20A and is used for delivery of the command.
(4) As shown in FIGS. 18 (a) and 18 (b), cameras 11-1 and 11-2 are attached to two side walls facing the longitudinal direction of the antenna 20A, respectively.

(5) これらのカメラ11-1、11-2の画角(視野角)は標準レンズの画角より大きな値に設定されるため、図18(a)、(b)に点線と実線とで対比されるように、これらのカメラ11-1、11-2によって撮像される被写界(表示領域Dtに対する表示の対象)は、広く設定される。 (5) Since the angle of view (viewing angle) of these cameras 11-1 and 11-2 is set larger than the angle of view of the standard lens, the dotted and solid lines in FIGS. 18 (a) and 18 (b) As compared, the object scene (the display target for the display area Dt) captured by these cameras 11-1 and 11-2 is set widely.

図19は、本発明の第6の実施形態の動作を説明する図である。
図20は、本発明の第6の実施形態における制御部の動作フローチャートである。
以下、図1、図6、図18、図19および図20を参照して本実施形態の動作を説明する。
FIG. 19 is a diagram for explaining the operation of the sixth embodiment of the present invention.
FIG. 20 is an operation flowchart of the control unit according to the sixth embodiment of the present invention.
Hereinafter, the operation of the present embodiment will be described with reference to FIGS. 1, 6, 18, 19, and 20.

本発明の特徴は、本実施形態では、自船の操船および状態に応じて、制御部15Aが主導的に行う処理の下でアンテナ20Aおよびカメラ11-1、11-2が以下の通りに連係する点にある。   In the present embodiment, the feature of the present invention is that the antenna 20A and the cameras 11-1 and 11-2 are linked as follows under the processing that the control unit 15A takes the initiative in accordance with the maneuvering and state of the ship. The point is to do.

自船が接岸のために岸壁に近づいて、図11(a) に示すようにその岸壁と自船の左舷との距離が所定の値を下回り、かつ両者がほぼ平行な状態となりつつあるとき(以下、「接岸操船期間」という。)には、制御部15Aは、アンテナ20Aに上記指令を与える(図20ステップS1)。   When the ship approaches the quay for berthing and the distance between the quay and the port of the ship is below a predetermined value as shown in Fig. 11 (a), and both are becoming almost parallel ( Hereinafter, the control unit 15A gives the command to the antenna 20A (referred to as “the berthing maneuvering period”) (step S1 in FIG. 20).

アンテナ20Aは、その指令に応じて回転の速度を段階的に減じ、そのアンテナ20Aの主ローブ(またはバックローブ)の方向が上記左舷(または右舷)に直交する状態で停止する(図19(a))。   The antenna 20A gradually reduces the rotation speed according to the command, and stops in a state where the direction of the main lobe (or back lobe) of the antenna 20A is orthogonal to the port (or starboard) (FIG. 19 (a)). )).

このような状態では、カメラ11-1、11-2は、図19(a)および図18(a)、(b)に細線の円で示すように、自船の左舷および上記岸壁の方向の内、船首側および船尾側の状況をそれぞれ撮影することによって得られた画像情報として出力する。   In such a state, the cameras 11-1 and 11-2 are arranged in the direction of the port of the ship and the quay as shown by thin circles in FIGS. 19 (a) and 18 (a) and 18 (b). It outputs as image information obtained by photographing the situation on the inside, bow side and stern side.

これらの画像情報は、既述の第1の実施形態と同様に、画像バッファ12を介して画像処理部13に引き渡され、かつ制御部15Aの配下で画像生成部14によって行われる処理の下で順次レーダ20に引き渡される。   The image information is transferred to the image processing unit 13 through the image buffer 12 and processed by the image generation unit 14 under the control unit 15A, as in the first embodiment described above. Sequentially delivered to the radar 20.

すなわち、本実施形態では、カメラ11-1、11-2の画角が広く設定され、しかも、アンテナ20Aの放射面が自船の左舷に平行に保たれた状態でそのアンテナ20Aの回転が停止する。したがって、これらのカメラ11-1、11-2の位置および姿勢は、自船の接岸に適した被写界の方向に安定に維持される。   In other words, in this embodiment, the angle of view of the cameras 11-1 and 11-2 is set wide, and the rotation of the antenna 20A is stopped while the radiation surface of the antenna 20A is kept parallel to the port side of the ship. To do. Therefore, the positions and postures of these cameras 11-1 and 11-2 are stably maintained in the direction of the object field suitable for the berthing of the ship.

したがって、本実施形態によれば、画角が広いほどカメラの台数を少なく設定可能となり、しかも、画像処理の処理量の削減ならびに簡略化が図られると共に、自船の状況や操船に適した被写界の画像が安定に確度高く得られる。   Therefore, according to this embodiment, the wider the angle of view, the smaller the number of cameras that can be set, and the reduction and simplification of the amount of image processing can be achieved. A scene image can be obtained stably and with high accuracy.

また、接岸が完了した後には、制御部15Aは、上述した指令を解除する(図20ステップS2)。
アンテナ20Aは、このような指令の解除に応じて回転を再開する。
Further, after the berthing is completed, the control unit 15A cancels the above-described command (step S2 in FIG. 20).
The antenna 20A resumes rotation in response to the cancellation of such a command.

さらに、制御部15Aは、アンテナ20Aの回転速度が定常値に達すると、既述の第1の実施形態と同様の形態で、画像バッファ12、画像処理部13、画像生成部14およびレーダ20との連係を再開する(図20ステップS3)。   Furthermore, when the rotational speed of the antenna 20A reaches a steady value, the control unit 15A has the same form as the first embodiment described above, and the image buffer 12, the image processing unit 13, the image generation unit 14, and the radar 20 Is resumed (step S3 in FIG. 20).

なお、本実施形態は、上記接岸操船期間に限定されず、以下に列記するような操船または自船の状態においても、カメラ11-1、11-2によってとらえられた画像による監視業務のために同様に適用可能である。   The present embodiment is not limited to the above-mentioned berthing maneuvering period, and for the monitoring work by the images captured by the cameras 11-1 and 11-2 even in the state of maneuvering or own ship as listed below. The same applies.

(1) 出港に際して行われる右舷、船首、船尾方向の監視等
このような出港の過程では、図19(b)に示すように、アンテナ20Aの回転が停止した状態におけるそのアンテナ20Aの放射面の方向は、自船の左舷(または右舷)に平行な状態に固定される。
(1) Starboard, bow, stern direction monitoring, etc., performed at the time of departure In such a departure process, as shown in FIG. 19 (b), the radiation surface of the antenna 20A in a state where the rotation of the antenna 20A has stopped is shown. The direction is fixed parallel to the port (or starboard) of your ship.

(2) 自船の前進または後進の過程で行われる右舷、船首、船尾方向の監視等
このような前進や後進の過程では、図19(c)、(d)に示すように、アンテナ20Aの回転は、そのアンテナ20Aの放射面の方向が自船の船首または船尾の方向に設定された状態で停止される。
(2) Starboard, bow, stern direction monitoring, etc., performed in the course of own ship's forward or backward movement In such forward or backward process, as shown in FIGS. 19 (c) and 19 (d), the antenna 20A The rotation is stopped in a state where the direction of the radiation surface of the antenna 20A is set to the direction of the bow or stern of the ship.

また、本実施形態では、図18(a)、(b)に太線の斜線で示すように、左舷(右舷)の中央部と岸壁とで挟まれた領域に死角が生じる場合には、以下の何れの方策がとられてもよい。
(1) カメラ11-1、11-2の画角がより広く設定され、またはカメラ仰角θECが小さく設定される。
(2) 図6(e)に示すように、カメラ11-1、11-2の双方の被写界の一部が互いに重なる姿勢で、これらのカメラ11-1、11-2がアンテナ20Aの底部に配置される。
Further, in this embodiment, as shown by thick diagonal lines in FIGS. 18 (a) and 18 (b), when a blind spot occurs in a region sandwiched between the center of the port side (starboard) and the quay, Any measure may be taken.
(1) the angle of view of the camera 11-1 and 11-2 is wider set or camera elevation theta EC is set small.
(2) As shown in FIG. 6 (e), the camera 11-1 and 11-2 are in a posture in which a part of the object field overlaps each other, and these cameras 11-1 and 11-2 are connected to the antenna 20A. Located at the bottom.

さらに、本実施形態では、カメラ11-1、11-2の画角が標準レンズの画角より広く設定されるメカニズムは、これらのカメラ11-1、11-2のレンズの焦点距離を単に短く設定する方法に限定されず、実効的な画角(視野角)の拡大が図られるのであれば、以下の何れであってもよい。   Furthermore, in this embodiment, the mechanism by which the angles of view of the cameras 11-1 and 11-2 are set wider than the angles of view of the standard lenses simply shortens the focal length of the lenses of these cameras 11-1 and 11-2. The setting method is not limited, and any of the following methods may be used as long as an effective field angle (viewing angle) can be increased.

(1) カメラ毎に組み込まれた複数の撮像光学系によって個別に得られた画像の合成
(2) 撮像面の形状や寸法の変更
(3) 光学系の構成、または画像処理に基づくアスペクト比の拡大
(1) Combining images obtained individually by multiple imaging optical systems built into each camera
(2) Changing the shape and dimensions of the imaging surface
(3) Expansion of aspect ratio based on optical system configuration or image processing

また、本実施形態には、以下に列記する多様な構成の適用が可能である。   Various configurations listed below can be applied to the present embodiment.

(1) 搭載されるカメラの台数は、「2」に限定されず、これらの画角が広く設定されることによる削減の結果として設定されるならば、「3」以上の如何なる数であってもよい。
(2) これらのカメラの性能は、必ずしも同じでなくてもよい。
(1) The number of mounted cameras is not limited to “2”, and if it is set as a result of reduction by setting these angles of view wide, it can be any number greater than “3”. Also good.
(2) The performance of these cameras does not necessarily have to be the same.

(3) 制御部15Aによって行われる処理の下で、既述のパラメータ(画角θVCi、カメラ方位角θACi、カメラ仰角θECi、距離L)が適宜変更される。
(4) アンテナ20Aの側部や底部における個々のカメラの位置や姿勢が可動機構を介して適宜変更される。
(3) Under the processing performed by the control unit 15A, the above-described parameters (view angle θ VCi , camera azimuth angle θ ACi , camera elevation angle θ ECi , distance L i ) are appropriately changed.
(4) The position and posture of each camera on the side and bottom of the antenna 20A are appropriately changed via the movable mechanism.

さらに、本実施形態では、制御部15Aがアンテナ20Aに上記指令を与えるきっかけは、確度高く識別されるのであれば、以下に例示するように、如何なるものであってもよい。   Furthermore, in the present embodiment, the trigger for giving the command to the antenna 20A by the control unit 15A may be anything as illustrated below as long as it is identified with high accuracy.

・ カメラ11-1、11-2の何れかの視野角にタグボートの存在が確認(画像のパターン認識を含む。)されたとき
・ 入港のためにスラスタが作動し、あるいは起動されたとき
・ 操船に従事する要員が行う操作等に応じた通知が識別されたとき
・ When the presence of a tugboat is confirmed at the viewing angle of either camera 11-1 or 11-2 (including image pattern recognition) ・ When a thruster is activated or activated to enter the port ・ Maneuvering When notifications corresponding to operations performed by personnel engaged in the are identified

また、本実施形態では、「アンテナ20Aの回転が停止した状態におけるそのアンテナ20Aの放射面の方向」は、以下の処理(1)、(2)の何れによって求められ、かつ適用されてもよい。   Further, in the present embodiment, “the direction of the radiation surface of the antenna 20A when the rotation of the antenna 20A is stopped” may be obtained and applied by either of the following processes (1) and (2). .

(1) 入港、出港、前進、後進等の操船の形態、あるいは自船の状態に対応して予め決められた好適な方向が予めデータベースに格納され、実際の操船の形態や自船の状態に対応付けられてこのデータベースに格納されている方向が適用される。 (1) The ship's mode of entry, departure, advance, reverse, etc., or a pre-determined suitable direction corresponding to the state of the ship is stored in the database in advance, and the actual ship operation form and state of the ship The direction stored in this database in correspondence is applied.

(2) 操船の形態、あるいは自船の状態に対して好適な方向を与える算術演算や実験式が予め与えられ、このような算術演算や実験式に基づいて求められた方向が適用される。 (2) Arithmetic operations and empirical formulas that give a suitable direction to the form of maneuvering or the state of the ship are given in advance, and directions determined based on such arithmetic operations and empirical formulas are applied.

さらに、上述した操船の形態や自船の状態は、確実に識別可能であり、かつ上述した好適な方向が定まるならば、如何なるものであってもよい。   Further, the above-described form of maneuvering and the state of the own ship may be any as long as they can be reliably identified and the above-described preferred direction is determined.

また、このような好適な方向にアンテナの方向を設定して維持し、あるいは既述のパラメータ(画角θVCi、カメラ方位角θACi、カメラ仰角θECi、距離L)を適切な値に設定し続けるために適用される制御方式は、フィードフォワード方式に限定されず、フィードバック方式(適応アルゴリズムに基づいてもよい。)であってもよい。 Further, the antenna direction is set and maintained in such a suitable direction, or the above-described parameters (view angle θ VCi , camera azimuth angle θ ACi , camera elevation angle θ ECi , distance L i ) are set to appropriate values. The control method applied to continue setting is not limited to the feedforward method, and may be a feedback method (may be based on an adaptive algorithm).

さらに、本実施形態では、カメラ11-1、11-2は、既述の第1の実施形態ないし第5の実施形態と同様に、風力発電用のプロペラ、ヘリコプターのプロペラ、扇風機の羽根、電子レンジの槽内に配置されたファンの羽根、揺れ動く装置(の筐体)または部材の何れに取り付けられてもよい。   Further, in the present embodiment, the cameras 11-1 and 11-2 are, as in the first to fifth embodiments described above, a propeller for wind power generation, a propeller for a helicopter, a fan blade, It may be attached to any of the fan blades, the swinging device (housing), or the member disposed in the range tank.

さらに、上述した各実施形態では、カメラ11-1〜11-Nの内、所望の数(ここでは、「4」と仮定する。)のカメラ11-(N-3),11-(N-2),11-(N-1),11-Nは、個々の画角の如何にかかわらず、例えば、図21に示すように、アンテナ20Aの底部(または側部)に併せて、あるいはその底部や側部以外の部位であるペデスタル20Pの底部(または側部)に配設されてもよい。   Further, in each of the above-described embodiments, a desired number of cameras 11- (N-3), 11- (N-) is assumed among the cameras 11-1 to 11-N (here, “4” is assumed). 2), 11- (N-1), 11-N, in combination with the bottom (or side) of the antenna 20A, as shown in FIG. You may arrange | position at the bottom part (or side part) of pedestal 20P which is parts other than a bottom part or a side part.

なお、これらのカメラ11-(N-3),11-(N-2),11-(N-1),11-Nによって個別に出力される画像情報は、下記の点を除いて同様の画像処理が施される。   The image information individually output by these cameras 11- (N-3), 11- (N-2), 11- (N-1), and 11-N is the same except for the following points. Image processing is performed.

(1) アンテナ20Aが回転してもカメラ11-(N-3),11-(N-2),11-(N-1),11-Nが変位しないことを前提として、他の画像情報との合成やマッピングが図られる。
(2) カメラ11-(N-3),11-(N-2),11-(N-1),11-Nによって出力される画像情報は、船舶の姿勢や針路と、接岸等の操船に応じて適宜選択され、あるいは組み合わせられて選択される。
(1) Other image information on the assumption that the cameras 11- (N-3), 11- (N-2), 11- (N-1), 11-N are not displaced even when the antenna 20A rotates. And mapping.
(2) The image information output by the cameras 11- (N-3), 11- (N-2), 11- (N-1), 11-N is the ship's attitude and course, and maneuvering such as berthing Depending on the case, it is appropriately selected or combined and selected.

(3) アンテナ20Aの側部や底部に取り付けられたカメラ(以下、「回転カメラ」という。)によって出力される画像情報との合成やマッピングは、そのアンテナ20Aの方位角θ、回転カメラの個々の方位角θAC、カメラ仰角θEC、画角θVCに適合した形態で行われる。 (3) The composition and mapping with the image information output by the camera (hereinafter referred to as “rotating camera”) attached to the side or bottom of the antenna 20A is performed by the azimuth angle θ A of the antenna 20A, This is performed in a form suitable for each azimuth angle θ AC , camera elevation angle θ EC , and field angle θ VC .

また、上記カメラ11-(N-3),11-(N-2),11-(N-1),11-Nは、以下の何れに配設されてもよい。
(1) 既述の風力発電用のプロペラ、ヘリコプターのプロペラ、扇風機の羽根、電子レンジの槽内に配置されたファンの羽根の回転軸の周辺
(2) このような回転軸が設けられる支柱もしくは台座の側部や底部
(3) 既述の揺れ動く装置または部材が軸止される筐体の頂部や側部
The cameras 11- (N-3), 11- (N-2), 11- (N-1), and 11-N may be arranged in any of the following.
(1) Around the rotating shafts of the wind turbine propellers, helicopter propellers, fan blades, and fan blades installed in the microwave oven
(2) The side or bottom of a column or pedestal on which such a rotating shaft is provided
(3) The top or side of the casing on which the above-mentioned swinging device or member is fixed

以下、本願に開示された発明の内、「特許請求の範囲」に記載しなかった発明の構成および作用効果を「特許請求の範囲」、「課題を解決するための手段」、「発明の効果」の各欄に準じた様式により列記する。   Hereinafter, among the inventions disclosed in the present application, the configurations and operational effects of the invention not described in the “Claims” are referred to as “Claims”, “Means for Solving the Problems”, “Effects of the Invention”. Listed in a format according to each column.

〔1〕 請求項1ないし請求項4の何れか1項に記載の画像生成装置において、
操作者が与える指示に応じて、前記レーダが搭載された移動体を基準として前記カメラによって撮像されるべき被写界の方向を設定する被写界設定手段を備え、
前記画像生成手段は、
前記アンテナの回転、または前記レーダの振る舞いに同期して、前記カメラに、前記被写界設定手段によって設定された方向の撮像を指令する
ことを特徴とする画像生成装置。
[1] In the image generation device according to any one of [1] to [4],
In accordance with an instruction given by an operator, comprising a field setting means for setting a direction of a field to be imaged by the camera with reference to a moving body on which the radar is mounted,
The image generating means includes
An image generation apparatus characterized by instructing the camera to take an image in a direction set by the field setting means in synchronization with the rotation of the antenna or the behavior of the radar.

このような構成の画像生成装置では、被写界設定手段は、操作者が与える指示に応じて、前記レーダが搭載された移動体を基準として前記カメラによって撮像されるべきの被写界の方向を設定する。前記画像生成手段は、前記アンテナの回転、または前記レーダの振る舞いに同期して、前記カメラに、前記被写界設定手段によって設定された方向の撮像を指令する。   In the image generation apparatus having such a configuration, the scene setting means is configured to determine the direction of the scene to be imaged by the camera with reference to the moving body on which the radar is mounted, in accordance with an instruction given by the operator. Set. The image generation means commands the camera to image in the direction set by the field setting means in synchronization with the rotation of the antenna or the behavior of the radar.

すなわち、カメラによって撮像が行われるべき被写界は、操作者の意図に応じて多様に設定可能となる。   In other words, the scene to be imaged by the camera can be set in various ways according to the intention of the operator.

したがって、本発明が適用された移動体の航行や安全のための利便性が向上し、かつ高く維持される。   Therefore, the convenience for navigation and safety of the moving body to which the present invention is applied is improved and maintained high.

〔2〕 請求項1、2、3、4、上記〔1〕の何れか1項に記載の画像生成装置において、
前記レーダが搭載された移動体、もしくは前記アンテナの回転軸の揺動を監視する揺動監視手段を備え、
前記カメラは、
前記揺動を光学的に軽減し、または抑圧する
ことを特徴とする画像生成装置。
[2] In the image generating device according to any one of claims 1, 2, 3, 4, and [1],
A moving body on which the radar is mounted, or a swing monitoring means for monitoring the swing of the rotating shaft of the antenna,
The camera
An image generating apparatus characterized in that the oscillation is optically reduced or suppressed.

このような構成の画像生成装置では、揺動監視手段は、前記レーダが搭載された移動体、もしくは前記アンテナの回転軸の揺動を監視する。前記カメラは、前記揺動を光学的に軽減し、または抑圧する。   In the image generating apparatus having such a configuration, the swing monitoring unit monitors the swing of the moving body on which the radar is mounted or the rotation shaft of the antenna. The camera optically reduces or suppresses the swing.

すなわち、アンテナの回転軸または移動体の揺動に起因する画像のブレは、カメラの内部で軽減され、あるいは抑圧される。   That is, image blurring caused by the rotation axis of the antenna or the swinging of the moving body is reduced or suppressed inside the camera.

したがって、本発明に係る画像生成装置では、上記画像の生成のために行われる画像処理の簡略化がはかられ、応答性や信頼性が高められる。   Therefore, in the image generating apparatus according to the present invention, the image processing performed for generating the image is simplified, and responsiveness and reliability are improved.

〔3〕 請求項1、2、3、4、上記〔1〕、〔2〕の何れか1項に記載の画像生成装置において、
前記カメラは、
とらえられた画像の所望の部位の測距を行い、前記測距の結果を前記画像生成手段に通知する
ことを特徴とする画像生成装置。
[3] In the image generating device according to any one of claims 1, 2, 3, 4, and [1] and [2],
The camera
An image generation apparatus characterized by performing distance measurement on a desired part of the captured image and notifying the image generation means of the result of the distance measurement.

このような構成の画像生成装置では、前記カメラは、とらえられた画像の所望の部位の測距を行い、前記測距の結果を前記画像生成手段に通知する。   In the image generation apparatus having such a configuration, the camera measures the distance of a desired part of the captured image and notifies the image generation means of the distance measurement result.

すなわち、カメラによってとらえられた画像の所望の部位については、そのカメラが移動体の揺動、積載量、波浪等に応じて相対的な位置が変化しても、距離の実測が可能となる。   That is, for a desired part of the image captured by the camera, the distance can be measured even if the camera changes its relative position in accordance with the swinging, loading amount, wave, etc. of the moving body.

したがって、カメラによってとらえられた画像の所望の部位については、測位が多様な環境において柔軟に精度よく実現される。   Therefore, the desired part of the image captured by the camera can be flexibly and accurately realized in various environments.

〔4〕 請求項5ないし請求項8の何れか1項に記載の画像生成装置において、
操作者が与える指示に応じて、前記レーダが搭載された移動体を基準として前記魚眼カメラによって撮像されるべき被写界の方向を設定する被写界設定手段を備え、
前記画像生成手段は、
前記レーダの振る舞いに同期して、前記魚眼カメラに、前記被写界設定手段によって設定された方向の撮像を指令する
ことを特徴とする画像生成装置。
[4] In the image generation device according to any one of [5] to [8],
In accordance with an instruction given by an operator, it comprises a field setting means for setting the direction of the field to be imaged by the fisheye camera with reference to the moving body on which the radar is mounted,
The image generating means includes
The image generation apparatus characterized by instructing the fish-eye camera to take an image in the direction set by the field setting means in synchronization with the behavior of the radar.

このような構成の画像生成装置では、被写界設定手段は、操作者が与える指示に応じて、前記レーダが搭載された移動体を基準として前記魚眼カメラによって撮像されるべき被写界の方向を設定する。前記画像生成手段は、前記レーダの振る舞いに同期して、前記魚眼カメラに、前記被写界設定手段によって設定された方向の撮像を指令する。   In the image generating apparatus having such a configuration, the scene setting unit is configured to determine a scene to be imaged by the fisheye camera based on a moving body on which the radar is mounted, in accordance with an instruction given by an operator. Set the direction. The image generation means instructs the fisheye camera to take an image in the direction set by the field setting means in synchronization with the behavior of the radar.

すなわち、魚眼カメラによって撮像が行われた画像の内、監視や確認の対象として抽出されるべき部位は、操作者の意図に応じて多様に設定可能となる。   That is, a part to be extracted as an object to be monitored or confirmed among images captured by the fisheye camera can be variously set according to the intention of the operator.

したがって、本発明が適用された移動体の航行や安全のための利便性が向上し、かつ高く維持される。   Therefore, the convenience for navigation and safety of the moving body to which the present invention is applied is improved and maintained high.

〔5〕 請求項5、6、7、8、上記〔4〕の何れか1項に記載の画像生成装置において、
前記レーダが搭載された移動体の揺動を監視する揺動監視手段を備え、
前記魚眼カメラは、
前記揺動を光学的に軽減し、または抑圧する
ことを特徴とする画像生成装置。
[5] The image generating device according to any one of [5], [6], [7], [8],
Comprising rocking monitoring means for monitoring the rocking of the moving body on which the radar is mounted;
The fisheye camera
An image generating apparatus characterized in that the oscillation is optically reduced or suppressed.

このような構成の画像生成装置では、揺動監視手段は、前記レーダが搭載された移動体の揺動を監視する。前記魚眼カメラは、前記揺動を光学的に軽減し、または抑圧する。   In the image generating apparatus having such a configuration, the swing monitoring means monitors the swing of the moving body on which the radar is mounted. The fisheye camera optically reduces or suppresses the swing.

すなわち、移動体またはアンテナの回転軸の揺動に起因する画像のブレは、魚眼カメラの内部で軽減され、あるいは抑圧される。   That is, image blurring caused by the swing of the rotating shaft of the moving body or antenna is reduced or suppressed inside the fisheye camera.

したがって、本発明に係る画像生成装置では、上記画像の生成のために行われる画像処理の簡略化がはかられ、応答性や信頼性が高められる。
〔6〕 回転し、または振り動き得る部材に取り付けられたカメラによって撮像された画像を取り込む画像取得手段と、
前記撮像された画像に、サンプリング、蓄積、抽出、重畳、合成の処理の内、前記部材の姿勢、または前記部材の回転軸に対する回転角に適応した全てまたは一部を施し、画像を生成する画像生成手段と
を備えたことを特徴とする画像生成装置。
このような構成の画像生成装置では、画像取得手段は、回転し、または振り動き得る部材に取り付けられたカメラによって撮像された画像を取り込む。画像生成手段は、前記撮像された画像に、サンプリング、蓄積、抽出、重畳、合成の処理の内、前記部材の姿勢、または前記部材の回転軸に対する回転角に適応した全てまたは一部を施し、画像を生成する。
すなわち、カメラによって撮像される画像は、そのカメラが回転しまたは振り動き得る部材に取り付けられることによって、上記処理が施されることによって、カメラの数が少ない場合であっても、所望の被写界について得られる。
したがって、死角の回避や緩和が図られ、しかも、従来例では行われることがなく、あるいは行われ難かった「所望の視点における被写界」についても監視や観測が可能となる。
〔7〕 〔6〕に記載の画像生成装置において、
前記カメラは、魚眼カメラであり、
前記画像生成手段は、
前記処理の全てまたは一部に併せて、前記魚眼カメラの投影方式に起因する光学的歪みの軽減もしくは是正との全てまたは一部を施すことによって、前記画像を生成する
ことを特徴とする画像生成装置。
このような構成の画像生成装置では、〔6〕に記載の画像生成装置において、前記カメラは、魚眼カメラである。前記画像生成手段は、前記処理の全てまたは一部に併せて、前記魚眼カメラの投影方式に起因する光学的歪みの軽減もしくは是正との全てまたは一部を施すことによって、前記画像を生成する。
このような画像は、中心投影方式とは異なる投影方式により被写界が広く設定された魚眼カメラによって撮像され、かつ上記光学的歪みの軽減や是正が図られることによって得られる。
したがって、カメラの台数が少ない場合であっても、視野が広く確保され、かつ死角の緩和や解消が容易に図られる。
Therefore, in the image generating apparatus according to the present invention, the image processing performed for generating the image is simplified, and responsiveness and reliability are improved.
[6] Image acquisition means for capturing an image captured by a camera attached to a member that can rotate or swing;
An image that generates an image by applying all or part of the captured image to the orientation of the member or the rotation angle of the member with respect to the rotation axis of the sampling, accumulation, extraction, superposition, and composition processing. An image generation apparatus comprising: generation means.
In the image generation apparatus having such a configuration, the image acquisition unit captures an image captured by a camera attached to a member that can rotate or swing. The image generation means performs all or a part of the captured image, which is adapted to the posture of the member or the rotation angle with respect to the rotation axis of the member, among sampling, accumulation, extraction, superimposition, and composition processing, Generate an image.
In other words, an image captured by a camera is attached to a member that can rotate or swing, and the above processing is performed. Obtained about the world.
Therefore, it is possible to avoid and mitigate the blind spot, and to monitor and observe the “field at a desired viewpoint” which is not performed or is difficult to be performed in the conventional example.
[7] In the image generation device according to [6],
The camera is a fisheye camera;
The image generating means includes
In combination with all or part of the processing, the image is generated by performing all or part of reduction or correction of optical distortion caused by the projection method of the fisheye camera. Generator.
In the image generating apparatus having such a configuration, in the image generating apparatus according to [6], the camera is a fisheye camera. The image generation means generates the image by performing all or a part of all or a part of the processing and alleviating or correcting the optical distortion caused by the projection method of the fisheye camera. .
Such an image is obtained by a fisheye camera having a wide field of view set by a projection method different from the central projection method, and reducing or correcting the optical distortion.
Therefore, even when the number of cameras is small, a wide field of view is ensured, and blind spots can be easily reduced or eliminated.

11 カメラ
11F 魚眼カメラ
11OPT 撮像光学系
11 撮像素子
12 画像バッファ
13 画像処理部
14 画像生成部
20 レーダ
20A アンテナ
20P ペデスタル
DESCRIPTION OF SYMBOLS 11 Camera 11F Fisheye camera 11 OPT imaging optical system 11 S Image pick-up element 12 Image buffer 13 Image processing part 14 Image generation part 20 Radar 20A Antenna 20P Pedestal

Claims (17)

レーダのアンテナに取り付けられたカメラによって撮像された画像を取り込む画像取得手段と、
前記撮像された画像に、前記アンテナの回動、もしくは前記レーダの振る舞いに同期したサンプリング、蓄積、抽出、重畳、合成の処理の全てまたは一部を施し、前記レーダによって生成される指示画像に対応する画像を生成する画像生成手段と
を備えたことを特徴とする画像生成装置。
Image acquisition means for capturing an image captured by a camera attached to a radar antenna;
Corresponding to the instruction image generated by the radar by performing all or part of sampling, accumulation, extraction, superimposition, and synthesis processing in synchronization with the rotation of the antenna or the behavior of the radar on the captured image An image generation apparatus comprising: an image generation unit configured to generate an image to be performed.
移動体上で常居し得る人の視界より被写界が広くなる姿勢で前記移動体に取り付けられたカメラによって撮像された画像を取り込む画像取得手段と、
前記撮像された画像に、前記移動体に搭載されたレーダのアンテナの回動、もしくは前記レーダの振る舞いに同期したサンプリング、蓄積、抽出、重畳、合成の処理の全てまたは一部を施し、画像を生成する画像生成手段と
を備えたことを特徴とする画像生成装置。
Image acquisition means for capturing an image captured by a camera attached to the moving body in a posture in which the field of view is wider than a field of view of a person who can live on the moving body;
The captured image is subjected to all or part of sampling, accumulation, extraction, superimposition, and synthesis processing in synchronization with the rotation of the radar antenna mounted on the moving body or the behavior of the radar, and the image is processed. An image generation apparatus comprising: an image generation means for generating.
請求項1または請求項2に記載の画像生成装置において、
前記画像生成手段は、
前記撮像された画像の内、前記回転の軸に対する所望の方位角に対応した画像を前記抽出、前記重畳、前記合成の何れかの対象とする
ことを特徴とする画像生成装置。
In the image generation device according to claim 1 or 2,
The image generating means includes
An image generation apparatus characterized in that, among the captured images, an image corresponding to a desired azimuth angle with respect to the axis of rotation is the target of the extraction, the superimposition, or the synthesis.
請求項1ないし請求項3の何れか1項に記載の画像生成装置において、
前記レーダが搭載された移動体の位置、経路、目的地、属性と、前記移動体の移動の形態との全てまたは一部の組み合わせに基づいて、前記カメラによって撮像されるべきの被写界を識別する被写界識別手段を備え、
前記画像生成手段は、
前記アンテナの回転、または前記レーダの振る舞いに同期して、前記カメラに、前記被写界識別手段によって識別された被写界の撮像を指令する
ことを特徴とする画像生成装置。
The image generation apparatus according to any one of claims 1 to 3,
Based on a combination of all or a part of the position, route, destination, and attribute of the moving body on which the radar is mounted, and the form of movement of the moving body, an object scene to be imaged by the camera is determined. A field identification means for identifying,
The image generating means includes
The image generation apparatus characterized by instructing the camera to take an image of the object scene identified by the object scene identifying means in synchronization with the rotation of the antenna or the behavior of the radar.
電子ビームフォーミング方式またはMIMO方式のレーダのアンテナに対する既定の方向に被写界が設定された魚眼カメラによって撮像された画像を取り込む画像取得手段と、
前記撮像された画像に、前記レーダの振る舞いに同期したサンプリング、蓄積、抽出、重畳、合成の処理と、前記魚眼カメラの投影方式に起因する光学的歪みの軽減もしくは是正との全てまたは一部を施し、前記レーダによって生成される指示画像に対応する画像を生成する画像生成手段と
を備えたことを特徴とする画像生成装置。
Image acquisition means for capturing an image captured by a fisheye camera in which a field of view is set in a predetermined direction with respect to an antenna of an electron beam forming system or a MIMO system;
All or part of sampling, accumulation, extraction, superimposition, and synthesis processing synchronized with the radar behavior and reduction or correction of optical distortion caused by the projection method of the fisheye camera on the captured image And an image generation means for generating an image corresponding to the instruction image generated by the radar.
電子ビームフォーミング方式またはMIMO方式のレーダのアンテナが搭載された移動体に取り付けられ、かつ前記移動体上で常居し得る人の視界より被写界が広い魚眼カメラによって撮像された画像を取り込む画像取得手段と、
前記撮像された画像に、前記レーダの振る舞いに同期したサンプリング、蓄積、抽出、重畳、合成の処理と、前記魚眼カメラの投影方式に起因する光学的歪みの軽減もしくは是正との全てまたは一部を施し、画像を生成する画像生成手段と
を備えたことを特徴とする画像生成装置。
Captures an image captured by a fisheye camera that is attached to a mobile object equipped with an electron beam forming or MIMO radar antenna and has a wider field of view than a person who can live on the mobile object. Image acquisition means;
All or part of sampling, accumulation, extraction, superimposition, and synthesis processing synchronized with the radar behavior and reduction or correction of optical distortion caused by the projection method of the fisheye camera on the captured image And an image generation means for generating an image.
請求項5または請求項6に記載の画像生成装置において、
前記画像生成手段は、
前記撮像された画像の内、前記アンテナに対する所望の方位角に対応した画像を前記抽出、前記重畳、前記合成の何れかの対象とする
ことを特徴とする画像生成装置。
In the image generation device according to claim 5 or 6,
The image generating means includes
An image generation apparatus characterized in that, among the captured images, an image corresponding to a desired azimuth angle with respect to the antenna is a target of the extraction, the superimposition, or the synthesis.
請求項5ないし請求項7の何れか1項に記載の画像生成装置において、
前記レーダが搭載された移動体の位置、経路、目的地、属性と、前記移動体の移動の形態との全てまたは一部の組み合わせに基づいて、前記魚眼カメラの被写界の内、画像として監視や確認の対象となるべき部位を識別する被写界識別手段を備え、
前記画像生成手段は、
前記魚眼カメラによって撮像された画像の内、前記被写界識別手段によって識別された部位を前記レーダの振る舞いに同期して抽出し、かつ前記処理と、前記光学的歪みの軽減もしくは是正との対象とする
ことう特徴とする画像生成装置。
The image generation apparatus according to any one of claims 5 to 7,
Based on a combination of all or a part of the position, route, destination, and attribute of the moving body on which the radar is mounted and the movement form of the moving body, an image of the field of view of the fisheye camera As a field identification means to identify the part to be monitored and confirmed as
The image generating means includes
Of the image picked up by the fisheye camera, the part identified by the object scene identifying means is extracted in synchronization with the behavior of the radar, and the processing and the reduction or correction of the optical distortion An image generating device that is a target feature.
請求項1ないし請求項8の何れか1項に記載の画像生成装置において、
前記撮像された画像の内、全てまたは一部をログとして蓄積するログ手段を備えた
ことを特徴とする画像生成装置。
The image generation apparatus according to any one of claims 1 to 8,
An image generating apparatus comprising log means for accumulating all or part of the captured images as a log.
請求項1ないし請求項9の何れか1項に記載の画像生成装置において、
前記画像生成手段は、
前記撮像された画像の内、光軸の屈曲の要因となる光学部材を介して得られた特定の画像に、撮像が行われた実質的な方向および領域と前記指示画像との対応付けと、前記光学部材の光学的特性を是正する写像とを施す
ことを特徴とする画像生成装置。
The image generation apparatus according to any one of claims 1 to 9,
The image generating means includes
Among the captured images, the specific image obtained through the optical member that causes the bending of the optical axis is associated with a substantial direction and region in which the imaging is performed and the instruction image, An image generating apparatus, comprising: a mapping that corrects an optical characteristic of the optical member.
レーダのアンテナに取り付けられた複数pのカメラによって個別に撮像された複数pの画像を取り込む画像取得手段と、
前記撮像された複数の画像に、前記アンテナの回動、もしくは前記レーダの振る舞いに同期したサンプリング、蓄積、抽出、重畳、合成の処理の全てまたは一部を施し、画像を生成する画像生成手段とを備え、
前記画像生成手段は、
前記レーダが搭載された移動体、もしくは前記アンテナの回転軸の揺動のベクトルと、前記アンテナの回転と、前記レーダの振る舞いとの全てもしくは一部に適したサンプリング、蓄積、抽出、重畳、合成の全てまたは一部を前記複数pの画像に施し、前記揺動に応じた被写界の変動および不足を補償する
を備えたことを特徴とする画像生成装置。
Image acquisition means for capturing a plurality of p images individually captured by a plurality of p cameras attached to a radar antenna;
Image generation means for generating an image by performing sampling or accumulation, extraction, superimposition, and synthesis processing in synchronism with the rotation of the antenna or the behavior of the radar on the plurality of captured images; With
The image generating means includes
Sampling, storage, extraction, superimposition, synthesis suitable for all or part of the moving body on which the radar is mounted, or the rotation vector of the rotation axis of the antenna, the rotation of the antenna, and the behavior of the radar An image generating apparatus comprising: applying all or a part of the image to the plurality of p images to compensate for fluctuations and deficiencies in the object scene according to the swinging.
電子ビームフォーミング方式またはMIMO方式のレーダのアンテナに対する既定の方向に被写界が設定された複数pの魚眼カメラによって個別に撮像された複数pの画像を取り込む画像取得手段と、
前記撮像された複数pの画像に、前記レーダの振る舞いに同期したサンプリング、蓄積、抽出、重畳、合成の処理と、前記魚眼カメラの投影方式に起因する光学的歪みの軽減もしくは是正との全てまたは一部を施し、画像を生成する画像生成手段とを備え、
前記画像生成手段は、
前記レーダが搭載された移動体、もしくは前記アンテナの回転軸の揺動のベクトルと、前記レーダの振る舞いとの全てもしくは一部に適したサンプリング、蓄積、抽出、重畳、合成の全てまたは一部を前記複数pの画像に施し、前記揺動に応じた被写界の変動および不足を補償する
を備えたことを特徴とする画像生成装置。
An image acquisition means for capturing a plurality of p images individually captured by a plurality of p fisheye cameras in which a field of view is set in a predetermined direction with respect to an antenna of an electron beam forming or MIMO radar;
Sampling, accumulation, extraction, superimposition, synthesis processing synchronized with the radar behavior, and reduction or correction of optical distortion caused by the projection method of the fish-eye camera, on the plurality of captured p images Or an image generating means for applying a part and generating an image,
The image generating means includes
All or part of sampling, storage, extraction, superposition, and synthesis suitable for all or part of the moving body on which the radar is mounted, or the rotation vector of the rotation axis of the antenna and the behavior of the radar An image generating apparatus comprising: applying to the plurality of p images to compensate for fluctuation and deficiency of the object scene according to the swing.
請求項11に記載の画像生成装置において、
前記複数pのカメラの全てまたは一部の画角θvcは、
標準レンズの画角θvcsより大きく、
前記複数pは、
前記画角θvcが前記画角θvcsに等しい場合に前記被写界の像が前記複数pの画像に総合的に包含されるために必要な値以下である
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 11.
The angle of view θvc of all or part of the plurality of p cameras is
Larger than the angle of view θvcs of the standard lens,
The plurality p is
An image generating apparatus characterized in that when the angle of view θvc is equal to the angle of view θvcs, the image of the object scene is less than or equal to a value necessary for being comprehensively included in the plurality of p images.
請求項13に記載の画像生成装置において、
前記複数pのカメラの全てまたは一部によって撮像される画像のアスペクト比は、
前記複数pの増加が回避可能な値である
ことを特徴とする画像生成装置。
The image generation device according to claim 13.
An aspect ratio of an image captured by all or part of the plurality of p cameras is:
The image generating apparatus characterized in that the increase of the plurality of p is a value that can be avoided.
請求項11、13、14の何れか1項に記載の画像生成装置において、
前記複数pのカメラは、
前記被写界の像が前記複数pの画像に総合的に包含され得る位置および姿勢で、前記アンテナに取り付けられた
ことを特徴とする画像生成装置。
The image generation device according to any one of claims 11, 13, and 14,
The plurality of p cameras are:
The image generation apparatus, wherein the image of the object scene is attached to the antenna at a position and posture capable of being comprehensively included in the plurality of p images.
請求項13ないし請求項15の何れか1項に記載の画像生成装置において、
前記被写界の像が前記複数pの画像に総合的に包含される形態に、前記アンテナの位置もしくは姿勢を設定しまたは維持する制御手段を備えた
ことを特徴とする画像生成装置。
The image generation device according to any one of claims 13 to 15,
An image generating apparatus comprising: control means for setting or maintaining the position or orientation of the antenna in a form in which the image of the object scene is comprehensively included in the plurality of p images.
請求項16に記載の画像生成装置において、
生起し得るイベント毎に、前記複数pのカメラがとらえるべき被写界の像が前記複数pの画像に総合的に包含されるとの条件を満たす前記アンテナの位置もしくは姿勢が予め蓄積された記憶手段を有し、
前記制御手段は、
生起したイベントに対応して前記記憶手段に蓄積されている位置もしくは姿勢を前記アンテナに設定しまたは維持する
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 16.
A memory in which the position or orientation of the antenna that satisfies the condition that the image of the scene to be captured by the plurality of p cameras is comprehensively included in the plurality of p images for each event that can occur is stored in advance. Having means,
The control means includes
An image generating apparatus characterized in that a position or posture stored in the storage means is set or maintained in the antenna corresponding to an event that has occurred.
JP2015199035A 2014-10-17 2015-10-07 Image generator Active JP6877815B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014212697 2014-10-17
JP2014212697 2014-10-17

Publications (2)

Publication Number Publication Date
JP2016080698A true JP2016080698A (en) 2016-05-16
JP6877815B2 JP6877815B2 (en) 2021-05-26

Family

ID=55956220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015199035A Active JP6877815B2 (en) 2014-10-17 2015-10-07 Image generator

Country Status (1)

Country Link
JP (1) JP6877815B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107222669A (en) * 2017-06-30 2017-09-29 维沃移动通信有限公司 The method and mobile terminal of a kind of shooting
US20180067204A1 (en) * 2016-09-07 2018-03-08 OmniPreSense Corporation Radar enabled weapon detection system
JP2018188043A (en) * 2017-05-10 2018-11-29 株式会社ソフトウェア・ファクトリー Maneuvering support device
JP2020155893A (en) * 2019-03-19 2020-09-24 ヤマハ発動機株式会社 Display device for ship, ship, and image display method for ship
JP2021018756A (en) * 2019-07-23 2021-02-15 日本無線株式会社 Own ship peripheral information storage device and own ship peripheral information display device
CN113359135A (en) * 2021-07-07 2021-09-07 中国人民解放军空军工程大学 Training method, application method, device and medium for imaging and recognition model
CN115529453A (en) * 2022-08-10 2022-12-27 北京罗克维尔斯科技有限公司 Vehicle-mounted camera testing method and device

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6025880A (en) * 1983-07-22 1985-02-08 Mitsubishi Heavy Ind Ltd Automatic sea sufferer rescuing equipment
JPS60165629A (en) * 1984-02-09 1985-08-28 Senaa Kk Still picture photographing device
JPS6148283A (en) * 1984-08-14 1986-03-08 Furuno Electric Co Ltd Video display device
JPS61246685A (en) * 1985-04-25 1986-11-01 Ishikawajima Harima Heavy Ind Co Ltd Video apparatus for catching clashing object
JPS61247988A (en) * 1985-04-26 1986-11-05 Shipbuild Res Assoc Japan Obstacle recognizing device for ship
JPS63187177A (en) * 1987-01-29 1988-08-02 Kawasaki Heavy Ind Ltd Assisting apparatus on nighttime navigation
JPH02115784A (en) * 1988-09-16 1990-04-27 Hollandse Signaalapparaten Bv Monitor sensor
JPH1118007A (en) * 1997-06-27 1999-01-22 Shogakukan Inc Omnidirectional image display system
JPH1165406A (en) * 1997-08-22 1999-03-05 Advantest Corp Device and method for observing circumferential scanning type hologram
JP4350797B1 (en) * 2009-05-20 2009-10-21 株式会社白海 Barge ship push remote monitoring system
JP2010003274A (en) * 2008-06-23 2010-01-07 National Maritime Research Institute Visual recognition support device and visual recognition support method
JP2010041530A (en) * 2008-08-07 2010-02-18 Sanyo Electric Co Ltd Steering supporting device
JP2010067861A (en) * 2008-09-11 2010-03-25 Sumitomo Electric Ind Ltd Image capturing apparatus, view field support apparatus, night vision apparatus, navigation support apparatus, and monitoring apparatus
CN103583037A (en) * 2011-04-11 2014-02-12 菲力尔系统公司 Infrared camera systems and methods

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6025880A (en) * 1983-07-22 1985-02-08 Mitsubishi Heavy Ind Ltd Automatic sea sufferer rescuing equipment
JPS60165629A (en) * 1984-02-09 1985-08-28 Senaa Kk Still picture photographing device
JPS6148283A (en) * 1984-08-14 1986-03-08 Furuno Electric Co Ltd Video display device
JPS61246685A (en) * 1985-04-25 1986-11-01 Ishikawajima Harima Heavy Ind Co Ltd Video apparatus for catching clashing object
JPS61247988A (en) * 1985-04-26 1986-11-05 Shipbuild Res Assoc Japan Obstacle recognizing device for ship
JPS63187177A (en) * 1987-01-29 1988-08-02 Kawasaki Heavy Ind Ltd Assisting apparatus on nighttime navigation
JPH02115784A (en) * 1988-09-16 1990-04-27 Hollandse Signaalapparaten Bv Monitor sensor
JPH1118007A (en) * 1997-06-27 1999-01-22 Shogakukan Inc Omnidirectional image display system
JPH1165406A (en) * 1997-08-22 1999-03-05 Advantest Corp Device and method for observing circumferential scanning type hologram
JP2010003274A (en) * 2008-06-23 2010-01-07 National Maritime Research Institute Visual recognition support device and visual recognition support method
JP2010041530A (en) * 2008-08-07 2010-02-18 Sanyo Electric Co Ltd Steering supporting device
JP2010067861A (en) * 2008-09-11 2010-03-25 Sumitomo Electric Ind Ltd Image capturing apparatus, view field support apparatus, night vision apparatus, navigation support apparatus, and monitoring apparatus
JP4350797B1 (en) * 2009-05-20 2009-10-21 株式会社白海 Barge ship push remote monitoring system
CN103583037A (en) * 2011-04-11 2014-02-12 菲力尔系统公司 Infrared camera systems and methods

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180067204A1 (en) * 2016-09-07 2018-03-08 OmniPreSense Corporation Radar enabled weapon detection system
US10816658B2 (en) * 2016-09-07 2020-10-27 OmniPreSense Corporation Radar enabled weapon detection system
JP2018188043A (en) * 2017-05-10 2018-11-29 株式会社ソフトウェア・ファクトリー Maneuvering support device
CN107222669A (en) * 2017-06-30 2017-09-29 维沃移动通信有限公司 The method and mobile terminal of a kind of shooting
JP2020155893A (en) * 2019-03-19 2020-09-24 ヤマハ発動機株式会社 Display device for ship, ship, and image display method for ship
JP2021018756A (en) * 2019-07-23 2021-02-15 日本無線株式会社 Own ship peripheral information storage device and own ship peripheral information display device
JP7433794B2 (en) 2019-07-23 2024-02-20 日本無線株式会社 Own ship surrounding information storage device and own ship surrounding information display device
CN113359135A (en) * 2021-07-07 2021-09-07 中国人民解放军空军工程大学 Training method, application method, device and medium for imaging and recognition model
CN113359135B (en) * 2021-07-07 2023-08-22 中国人民解放军空军工程大学 Training method, application method, device and medium for imaging and recognition model
CN115529453A (en) * 2022-08-10 2022-12-27 北京罗克维尔斯科技有限公司 Vehicle-mounted camera testing method and device

Also Published As

Publication number Publication date
JP6877815B2 (en) 2021-05-26

Similar Documents

Publication Publication Date Title
JP6877815B2 (en) Image generator
JP6667943B2 (en) Image generation device
KR101683274B1 (en) System for supporting vessel berth using unmanned aerial vehicle and the method thereof
EP3374788B1 (en) Detection and ranging system and method
WO2018201097A2 (en) Video and image chart fusion systems and methods
WO2017136014A9 (en) Video sensor fusion and model based virtual and augmented reality systems and methods
CN108303078B (en) Omnidirectional ship anti-collision early warning and navigation system based on stereoscopic vision
CN108614273A (en) A kind of airborne two waveband photoelectricity wide area is scouted and tracks of device and method
KR102007849B1 (en) System and method for supporting ship entering and leaving port using 3d lidar mounted on unmanned aerial vehicle
KR101695899B1 (en) Maritime surveillance system
US20180105039A1 (en) Video analytics based pilot safety devices
US20220043112A1 (en) Doppler radar flock detection systems and methods
CN108983812B (en) Shipborne control system for unmanned aerial vehicle landing at sea
WO2018045354A2 (en) Unmanned aerial system assisted navigational systems and methods
JP2022022323A (en) Container vessel
JP6482857B2 (en) Monitoring system
JP6482855B2 (en) Monitoring system
JP6482856B2 (en) Monitoring system
JP2018188043A (en) Maneuvering support device
JP6738059B2 (en) Display device, search system, display method, and program
US20220238987A1 (en) Mobile surveillance systems extendable mast control systems and methods
JP2019219874A (en) Autonomous moving and imaging control system and autonomous moving body
CN116088367A (en) Unmanned ship navigation control system, unmanned ship navigation control method, computer equipment and medium
US20230215164A1 (en) Radar and colocated camera systems and methods
GB2572842A (en) Unmanned aerial system assisted navigational systems and methods

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200716

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210208

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210208

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210218

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210427

R150 Certificate of patent or registration of utility model

Ref document number: 6877815

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150