[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101549513B1 - System and Method for Preventing Collision of Vessel and Recording using Augmented Reality - Google Patents

System and Method for Preventing Collision of Vessel and Recording using Augmented Reality Download PDF

Info

Publication number
KR101549513B1
KR101549513B1 KR1020150049602A KR20150049602A KR101549513B1 KR 101549513 B1 KR101549513 B1 KR 101549513B1 KR 1020150049602 A KR1020150049602 A KR 1020150049602A KR 20150049602 A KR20150049602 A KR 20150049602A KR 101549513 B1 KR101549513 B1 KR 101549513B1
Authority
KR
South Korea
Prior art keywords
ship
augmented reality
data
collision
information
Prior art date
Application number
KR1020150049602A
Other languages
Korean (ko)
Inventor
이병걸
Original Assignee
이병걸
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이병걸 filed Critical 이병걸
Priority to KR1020150049602A priority Critical patent/KR101549513B1/en
Application granted granted Critical
Publication of KR101549513B1 publication Critical patent/KR101549513B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G3/00Traffic control systems for marine craft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G3/00Traffic control systems for marine craft
    • G08G3/02Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B43/00Improving safety of vessels, e.g. damage control, not otherwise provided for
    • B63B43/18Improving safety of vessels, e.g. damage control, not otherwise provided for preventing collision or grounding; reducing collision damage
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Ocean & Marine Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Public Health (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

The present invention relates to a system and a method for preventing the collision of vessel and recording ship accident by using augmented reality. Especially, a method of displaying an electronic chart of a ship navigation system using augmented reality provides navigation information with high reality, by overlapping navigation information selectively extracted from the electronic chart and an image of the surrounding of a vessel by using an augmented reality technique. The present invention prevents collision accidents by automatically changing the velocity and steering angle before the collision, minimizes sinking by vessel collision by changing the posture of the vessels to collide with the lateral parts of vessels when it is impossible to prevent the collision of the vessels. Also, the present invention stores collision conditions in a memory to clearly determine which ship provides the cause of the collision with augmented reality when the vessels collide with each other.

Description

증강현실을 이용한 선박 충돌 방지 겸용 선박 사고 기록 시스템 및 방법{System and Method for Preventing Collision of Vessel and Recording using Augmented Reality}TECHNICAL FIELD The present invention relates to a ship accident record system and method using augmented reality,

본 발명은 증강현실을 이용한 선박 충돌 방지 겸용 선박 사고 기록 시스템 및 방법에 관한 것으로, 특히, 증강현실 기술을 이용하여 선박 주변의 영상에 전자해도로부터 선택적으로 추출한 항해정보를 중첩시켜 표시함으로써, 현실감 높은 항해정보를 제공할 수 있는 증강현실을 이용한 선박 항법 시스템의 전자해도 표시 방법을 제공하고, 선박 충돌사고 발생전에 조타각 및 속도를 자동 변경하여 충돌사고를 예방하며, 충돌이 불가피하다고 판단될시에는 선박의 측면끼리 부디치도록 선박의 자세를 변형하여 선박 충돌로 인한 침몰을 최소화시키도록 하고, 또한, 선박이 충돌할시에 충돌 상황을 증강현실과 더불어 메모리에 저장하여 어느 선박이 잘못했는지를 명확하게 구분할 수 있도록 유도하는 것을 특징으로 하는 증강현실을 이용한 선박 충돌 방지 겸용 선박 사고 기록 시스템 및 방법에 관한 것이다.
The present invention relates to a ship accident record system and method for preventing collision with a ship using an augmented reality. More particularly, the present invention relates to a vessel accident record system and method using augmented reality, The present invention provides a method of displaying an electronic chart of a ship navigation system using an augmented reality capable of providing navigation information and automatically changing the steering angle and speed before occurrence of a ship collision to prevent a collision, It is also possible to minimize the sinking due to collision of the ship by modifying the posture of the ship so that the sides of the ship are inevitably caught between the sides of the ship. In addition, when the ship collides, the collision situation is stored in the memory together with the augmented reality, The collision avoidance method using the augmented reality The present invention relates to a ship accident record system and method.

선박 사고의 대부분은 선박 간의 충돌 또는 선박과 지형장애물 간의 충돌에 의한 충돌 등 충돌 사고가 대부분으로, 최근 선박의 크기가 대형화되고 선박의 종류가 다양화됨에 따라, 선박 충돌 사고로 인한 인명 피해, 재산피해 및 해양 오염과 같은 2차적 피해 등 대규모 피해가 발생하고 있다.Most of ship accidents are mostly collision such as collision between ships or collision between ship and terrain obstacle. Recently, ship size has been increased and ship types have been diversified. Damages and secondary pollution such as marine pollution.

선박 충돌 사고는 주로 선박의 출입이 잦은 항만 부근 및 연안 해역에서 발생하기 때문에, 종래에는 이와 같은 해역에서의 선박 및 지형장애물에 대해 AIS(Automatic Identification System) 데이터 또는 ECDIS(Electronic Chart Display and Information System) 데이터를 VTS 관제사, 도선사 또는 선박 운항자들이 사용하는 장치의 화면 상에 제공하고 있다.Since the ship collision occurs mainly in the vicinity of the port where the ship is frequently in and out of the coastal area, conventionally, AIS (Automatic Identification System) data or Electronic Chart Display and Information System (ECDIS) The data is provided on the screen of a device used by a VTS controller, pilot or ship operator.

하지만, 제공되는 데이터는 선박의 침로, 속력, 거리, 지형장애물의 위치 등 단순 정보에 불과하기 때문에, VTS 관제사, 도선사 또는 선박 운항자는 이와 같은 정보를 확인하여 직접 상황을 판단하고 통제·제어해야 하므로, 인적 요소에 의한 한계로 인해 여러 가지 문제점이 발생하고 있다(예컨대, 숙련도에 따른 통제능력의 개인차).However, since the provided data is merely information such as the position of the ship's course, speed, distance, and terrain obstacles, the VTS controller, the pilot or the ship operator must check and control the situation directly , And limitations due to human factors (for example, individual differences in control ability according to proficiency).

한편, 종래에는 이러한 인적 요소에 따른 한계를 극복하기 위해, 상기 데이터로부터 선박 간의 주관적충돌위험도(Subjective Judgment Value)를 산출하는 알고리즘을 사용하고 있으나(대한민국공개특허공보 제10-2005-0114771호 참조), 주관적충돌위험도는 하나의 선박과 하나의 선박이 마주치는 경우에 대하여 충돌위험도를 산출한 것으로, 다수의 선박과 다수의 선박이 마주치는 경우, 다수의 선박이 지형장애물을 지나가는 경우 등이 다반사인 항만 부근 및 연안 해역에서는 실질적으로 적용하기 어려운 문제점이 있다.Conventionally, in order to overcome the limitations due to such human factors, an algorithm for calculating the subjective judgment value of the ship from the data is used (refer to Korean Patent Laid-Open Publication No. 10-2005-0114771) , And the risk of subjective collision is calculated as the risk of collision against a ship and a ship. When multiple ships meet a plurality of ships, multiple ships pass through a terrain obstacle, There is a problem that it is practically difficult to apply in the vicinity of the harbor and coastal waters.

결국, 종래에는 VTS 관제구역 내에 수많은 선박들과 지형장애물이 있기 때문에, 관제사, 도선사 또는 선박 운항자들이 화면을 보면서 어떤 선박이 위험에 노출되어 있는지를 찾아내기가 쉽지 않은 문제점이 있었다.
As a result, there are many ships and terrain obstacles in the VTS control area so that it is not easy for the controller, the pilot or the ship operator to find out which ship is exposed to danger while viewing the screen.

본 발명은 전술한 바와 같은 기술적 배경에서 안출된 것으로서, 증강현실 기술을 이용하여 선박 주변의 영상에 전자해도로부터 선택적으로 추출한 항해정보를 중첩시켜 표시함으로써, 현실감 높은 항해정보를 제공할 수 있는 증강현실을 이용한 선박 항법 시스템의 전자해도 표시 방법을 제공하고, 선박 충돌사고 발생전에 조타각 및 속도를 자동 변경하여 충돌사고를 예방하며, 충돌이 불가피하다고 판단될시에는 선박의 측면끼리 부디치도록 선박의 자세를 변형하여 선박 충돌로 인한 침몰을 최소화시키도록 하는데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made in view of the technical background as described above, and it is an object of the present invention to provide an augmented reality system capable of providing realistic navigation information by superimposing navigation information selectively extracted from an electronic chart on an image around a ship, And to prevent collision by automatically changing the steering angle and speed before the occurrence of a collision with the ship. If it is determined that collision is inevitable, The aim is to modify the posture to minimize the sinking due to ship collision.

또한, 선박이 충돌할시에 충돌 상황을 증강현실과 더불어 메모리에 저장하여 어느 선박이 잘못했는지를 명확하게 구분할 수 있도록 유도하는데 그 목적이 있다.
The object of the present invention is to store a collision situation in a memory together with an augmented reality at the time of a collision of a ship so as to clearly distinguish which vessel is wrong.

상기 목적을 달성하기 위한 수단으로,As means for achieving the above object,

본 발명은 복수의 GPS 위성으로부터 수신한 시간과 거리신호에 삼각법을 적용하여 증강현실을 이용한 선박 항법 시스템(10)이 부착된 일 선박의 현 위치를 파악하는 위치감지 모듈(110)과; 선박자동식별 장치라고도 불리며, 해상에서 선박 간의 충돌을 방지하기 위하여, 일 선박의 운항정보를 주변의 다른 선박에 제공하며, 또한 주변 선박으로부터 그의 운항정보를 실시간으로 제공받는 AIS모듈(120)과; 일 선박의 전방, 측방이나, 후방 등에서 일 선박의 주변 영상을 촬영하여 사용자 선택에 따른 방향의 실제 영상을 출력하는 카메라 모듈(130)과; 선박의 항해와 관련된 방대한 정보인 항해정보를 포함하는 증강현실 처리가능한 자료구조의 증강현실 시스템용 전자해도를 저장하는 전자해도 제공모듈(140)과; 선박의 외부에 설치되는 안개센서와, 레이저 센서와, 초음파 센서로 이루어져 안개상황과, 외부 선박 감지 정보를 출력하며, 안개가 기준이상 짙게 낄 경우에는 카메라로 외부 선박을 파악하기 어려우므로 레이저 센서와 초음파 센서를 가동하여 외부 선박을 파악토록 유도하기 위한 센서 모듈(150)과; 실제 영상에 증강현실 시스템용 전자해도로부터의 항해정보와 다른 선박의 운항정보를 증강현실 처리하고, 그 결과 증강현실 처리된 영상을 출력하는 중앙 처리 모듈(160)과; TFT LCD로 구성되어, 중앙 처리 모듈(150)로부터 제공받은 증강현실 처리된 영상을 표시하는 표시모듈(170)로 이루어지고; 상기 중앙처리 모듈(160)은 데이터 수신부(161)와, 충돌위험값 연산부(162)와, 조향장치 제어부(163)로 이루어지되; 상기 충돌위험값 연산부(162)는 안개 센서와 레이저 센서 및 초음파 센서로부터 데이터를 입력받으며, 안개 센서와 레이저 센서 및 초음파 센서의 데이터로부터 외부 상황을 파악하는바, 안개 상황에서는 선박의 충돌가능성이 높은 것으로 판단하고, 레이저 센서에 의해서 측정한 장애물과의 거리에 따라서 선박의 조타각도 및 움직여야할 선박의 속도를 연산하고; 상기 조향장치 제어부(163)는 레이저 센서와 초음파 센서의 결과값을 비교 검토하여 충돌 위험이 기준이상인 경우에는 조향장치 및 기동 스크류를 구동하도록 구성된 것이 특징이다.The present invention includes a position sensing module 110 for recognizing a current position of a ship to which a ship navigation system 10 using an augmented reality is applied by applying trigonometry to time and distance signals received from a plurality of GPS satellites; An AIS module 120 which is also referred to as an automatic ship identification device and which provides the navigation information of one ship to other marine vessels in order to prevent collision between marine vessels at sea and also receives its navigation information from surrounding ships in real time; A camera module 130 for photographing a peripheral image of a ship at a front side, a side, and a rear side of a ship and outputting an actual image in a direction according to a user's selection; An electronic chart providing module (140) for storing an electronic chart for an augmented reality system of a data structure capable of processing an augmented reality including navigation information, which is vast information related to navigation of a ship; It is composed of a fog sensor installed on the outside of the ship, a laser sensor, and an ultrasonic sensor to output fog situation and external ship detection information. If the fog is thicker than the standard, it is difficult to grasp the external ship with the camera. A sensor module (150) for operating the ultrasonic sensor to guide the external ship to be grasped; A central processing module (160) for processing the augmented reality information of navigation information from an electronic chart for an augmented reality system and navigation information of another vessel on an actual image, and outputting an augmented reality processed image as a result; And a display module 170 composed of a TFT LCD and displaying an augmented reality processed image provided from the central processing module 150; The central processing module 160 includes a data receiving unit 161, a collision risk value calculating unit 162, and a steering device control unit 163; The collision risk value calculator 162 receives data from the fog sensor, the laser sensor, and the ultrasonic sensor, and grasps the external situation from the data of the fog sensor, the laser sensor, and the ultrasonic sensor. In the fog situation, Calculate the steering angle of the ship and the speed of the ship to be moved according to the distance from the obstacle measured by the laser sensor; The steering device controller 163 is configured to compare the results of the laser sensor and the ultrasonic sensor to drive the steering device and the starting screw when the collision risk is higher than the reference.

또한, 상기 데이터 수신부에서 수신하는 데이터는 AIS(Automatic Identification System) 데이터 또는 ECDIS(Electronic Chart Display and Information System) 데이터 중 적어도 어느 하나의 데이터인 것이 특징이다.In addition, the data received by the data receiving unit is at least one of Automatic Identification System (AIS) data and Electronic Chart Display and Information System (ECDIS) data.

또한, 상기 AIS 데이터에는 선박의 길이, 선박의 중량, 선박의 속력 및 선박 간의 거리 데이터가 포함되고, 상기 ECDIS 데이터에는 지형장애물의 면적 및 지형장애물과의 거리 데이터가 포함되는 것이 특징이다.Also, the AIS data includes the length of the ship, the weight of the ship, the speed of the ship, and the distance data between the ships, and the ECDIS data includes the area of the terrain obstacle and the distance data with the terrain obstacle.

또한, 기준선박의 침로범위 내에 위치하는 복수의 타선박 및 지형장애물에 대한 데이터를 수신하는 데이터 수신 단계; 실제 영상에 증강현실 시스템용 전자해도로부터의 항해정보와 다른 선박의 운항정보를 증강현실 처리하고, 그 결과 증강현실 처리된 영상을 출력하는 단계와; 안개센서와, 레이저 센서와, 초음파 센서로 이루어져 안개상황과, 외부 선박 감지 정보를 출력하는 선박 외부 센싱단계와; 안개 상황이면 레이저 센서를 가동하여 다른 선박과의 거리를 감안하여 선박을 움직이도록 지령하며, 특히 초음파 센서에 의해서 타선박이 검출되면 충돌을 피할 수 없는 상태이므로 회피기동하여 타선박의 정면과 본선박의 측면이 충돌하지 않토록 본선박을 긴급 회전시키는 단계와; 증강현실된 영상과 센서의 출력 데이터와 선박 충돌사고 순간을 메모리하는 단계로 이루어짐이 특징이다.A data receiving step of receiving data on a plurality of other ships and the terrain obstacles located within a range of the stern of the reference vessel; Processing the augmented reality information of navigation information from an electronic chart for an augmented reality system and navigation information of another vessel on an actual image and outputting an augmented reality processed image as a result; A ship external sensing step of outputting a fog situation and external ship detection information, which are composed of a fog sensor, a laser sensor and an ultrasonic sensor; In case of fog situation, the laser sensor is activated to instruct the ship to move in consideration of the distance to other ship. Especially when another ship is detected by ultrasonic sensor, collision can not be avoided. Urgently rotating the ship so that the sides of the ship do not collide with each other; And the step of memorizing the output data of the augmented reality image and the sensor and the moment of crash of the ship.

또한, 상기 데이터는 AIS 데이터 또는 ECDIS 데이터 중 적어도 어느 하나의 데이터인 것이 특징이다.In addition, the data is at least one of AIS data and ECDIS data.

또한, 상기 AIS 데이터에는 선박의 길이, 선박의 중량, 선박의 속력 및 선박 간의 거리 데이터가 포함되고, 상기 ECDIS 데이터에는 지형장애물의 면적 및 지형장애물과의 거리 데이터가 포함되는 것이 특징이다.
Also, the AIS data includes the length of the ship, the weight of the ship, the speed of the ship, and the distance data between the ships, and the ECDIS data includes the area of the terrain obstacle and the distance data with the terrain obstacle.

상술한 바와 같이 본 발명은 증강현실 기술을 이용하여 선박 주변의 영상에 전자해도로부터 선택적으로 추출한 항해정보를 중첩시켜 표시함으로써, 현실감 높은 항해정보를 제공할 수 있는 증강현실을 이용한 선박 항법 시스템의 전자해도 표시 방법을 제공하고, 선박 충돌사고 발생전에 조타각 및 속도를 자동 변경하여 충돌사고를 예방하며, 충돌이 불가피하다고 판단될시에는 선박의 측면끼리 부디치도록 선박의 자세를 변형하여 선박 충돌로 인한 침몰을 최소화시키도록 하는 효과가 있다.As described above, according to the present invention, navigation information selectively extracted from an electronic chart is superimposed and displayed on an image around a ship using an augmented reality technology, thereby realizing an electronic In the event that a collision is inevitable, it is necessary to change the posture of the ship so that the sides of the ship are inevitably caught between the sides of the ship, Thereby minimizing the sinking caused by the impact.

또한, 선박이 충돌할시에 충돌 상황을 증강현실과 더불어 메모리에 저장하여 어느 선박이 잘못했는지를 명확하게 구분할 수 있도록 유도하는 효과가 있다.
In addition, when the ship collides, the collision situation is stored in the memory together with the augmented reality, thereby inducing a clear distinction as to which ship has failed.

도 1은 선박의 충돌 상황 개념도.
도 2는 본 발명의 증강현실을 이미지화시킨 개념도.
도 3은 본 발명의 각종 데이터 입력 및 모니터 출력도.
도 4는 CCTV 설치 예시도.
도 5는 본 발명의 구성 블록도.
도 6은 본 발명의 플로우 챠트.
1 is a conceptual view of a collision situation of a ship;
2 is a conceptual diagram of an augmented reality image of the present invention.
3 is a diagram showing various data input and monitor output of the present invention.
Fig. 4 is an exemplary view showing a CCTV installation; Fig.
5 is a configuration block diagram of the present invention;
6 is a flowchart of the present invention.

이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다.The operation principle of the preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings and description. It should be understood, however, that the drawings and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention, and are not to be construed as limiting the present invention.

또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The terms used below are defined in consideration of the functions of the present invention, which may vary depending on the user, intention or custom of the operator. Therefore, the definition should be based on the contents throughout the present invention.

또한, 이하 실시되는 본 발명의 바람직한 실시예는 본 발명을 이루는 기술적 구성요소를 효율적으로 설명하기 위해 각각의 시스템 기능구성에 이미 구비되어 있거나, 또는 본 발명이 속하는 기술분야에서 통상적으로 구비되는 시스템 기능구성은 가능한 생략하고, 본 발명을 위해 추가적으로 구비되어야 하는 기능구성을 위주로 설명한다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. The configuration is omitted as much as possible, and a functional configuration that should be additionally provided for the present invention is mainly described.

만약 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면, 하기에 도시하지 않고 생략된 기능구성 중에서 종래에 이미 사용되고 있는 구성요소의 기능을 용이하게 이해할 수 있을 것이며, 또한 상기와 같이 생략된 구성요소와 본 발명을 위해 추가된 구성요소 사이의 관계도 명백하게 이해할 수 있을 것이다.Those skilled in the art will readily understand the functions of the components that have been used in the prior art among the functional configurations that are not shown in the following description, The relationship between the elements and the components added for the present invention will also be clearly understood.

또한, 이하 실시예는 본 발명의 핵심적인 기술적 특징을 효율적으로 설명하기 위해 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 명백하게 이해할 수 있도록 용어를 적절하게 변형하여 사용할 것이나, 이에 의해 본 발명이 한정되는 것은 결코 아니다.In order to efficiently explain the essential technical features of the present invention, the following embodiments properly modify the terms so that those skilled in the art can clearly understand the present invention, It is by no means limited.

결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 하나의 수단일 뿐이다.As a result, the technical idea of the present invention is determined by the claims, and the following embodiments are merely illustrative of the technical idea of the present invention in order to efficiently explain the technical idea of the present invention to a person having ordinary skill in the art to which the present invention belongs. .

도 1은 선박의 충돌 상황 개념도.1 is a conceptual view of a collision situation of a ship;

도 2는 본 발명의 증강현실을 이미지화시킨 개념도.2 is a conceptual diagram of an augmented reality image of the present invention.

도 3은 본 발명의 각종 데이터 입력 및 모니터 출력도.3 is a diagram showing various data input and monitor output of the present invention.

도 4는 CCTV 설치 예시도.Fig. 4 is an exemplary view showing a CCTV installation; Fig.

도 5는 본 발명의 구성 블록도.5 is a configuration block diagram of the present invention;

도 6은 본 발명의 플로우 챠트로서, 본 발명의 실시예에 따른 증강현실을 이용한 선박 항법 시스템(10)은 위치감지 모듈(110), AIS(Automatic Identification System) 모듈(120), 카메라 모듈(130), 전자해도 제공모듈(140), 센서모듈(150), 중앙처리 모듈(160) 및 표시모듈(170)을 포함한다.FIG. 6 is a flow chart of the present invention. The ship navigation system 10 using the augmented reality according to the embodiment of the present invention includes a position sensing module 110, an AIS (Automatic Identification System) module 120, a camera module 130 An electronic chart providing module 140, a sensor module 150, a central processing module 160, and a display module 170.

상기 위치감지 모듈(110)은 복수의 GPS 위성으로부터 수신한 시간과 거리신호에 삼각법을 적용하여 증강현실을 이용한 선박 항법 시스템(10)이 부착된 일 선박의 현 위치를 파악한다.The position sensing module 110 grasps the current position of a ship to which the ship navigation system 10 using the augmented reality is attached by applying trigonometry to the time and distance signals received from a plurality of GPS satellites.

또한, 위치감지 모듈(110)은 자이로 컴파스(Gyro Compass)를 이용하여 일 선박의 방위정보를 파악한다. 참고로 설명하면, 자이로 컴파스는 고속으로 회전하는 자이로스코프의 회전축이 항상 지구의 북쪽을 가리키도록 한 것이며, 나침반과는 달리 항상 진북을 가리키며, 회전축에 적절한 무게의 추를 달고 있다는 점에서 자이로스코프와 구분된다.Also, the position sensing module 110 grasps the orientation information of one ship using a gyro compass. For reference, the gyro compass is a gyroscope that rotates at high speed so that the axis of rotation always points to the north of the earth. Unlike a compass, it always points to the true north, Respectively.

AIS모듈(120)은 선박자동식별 장치라고도 불리며, 해상에서 선박 간의 충돌을 방지하기 위하여, 일 선박의 운항정보를 주변의 다른 선박에 제공하며, 또한 주변 선박으로부터 그의 운항정보를 실시간으로 제공받는다.The AIS module 120 is also referred to as an automatic ship identification device. The AIS module 120 provides the navigation information of one ship to other marine vessels in order to prevent collision between marine vessels at sea, and receives the navigation information of the surrounding vessels in real time.

여기서, 운항정보는 속력, 침로 및 위치 등일 수 있다.Here, the flight information may be speed, stroke, and location.

카메라 모듈(130)은 일 선박의 전방, 측방이나, 후방 등에서 일 선박의 주변 영상을 촬영하여 사용자 선택에 따른 방향의 실제 영상을 출력한다. 이때, 카메라 모듈(130)은 CMOS(Complementary Metal Oxide Semiconductor)나, CCD(Charge Coupled Device) 카메라 등일 수 있다. 도 5에서는, 카메라 모듈(130)이 전방 카메라, 측방 카메라, 후방 카메라를 모두 포함하는 경우를 예로 들어 설명하였지만, 카메라 모듈(130)은 광각 카메라를 포함하여 전방, 측방 및 후방 중 하나 또는 두 개의 방향에만 구비될 수도 있으며, 회전하며 원하는 방향에 대한 영상을 선택적으로 촬영할 수 있다.The camera module 130 photographs a peripheral image of one ship at a front, a side, a rear, and the like of one ship and outputs an actual image in a direction according to a user's selection. At this time, the camera module 130 may be a CMOS (Complementary Metal Oxide Semiconductor), a CCD (Charge Coupled Device) camera, or the like. 5, the camera module 130 includes a front camera, a side camera, and a rear camera. However, the camera module 130 may include one or more of front, side, and rear Direction, and it is possible to selectively photograph an image of a desired direction while rotating.

전자해도 제공모듈(140)은 선박의 항해와 관련된 방대한 정보인 항해정보를 포함하는 증강현실 처리가능한 자료구조의 증강현실 시스템용 전자해도를 저장한다.The electronic chart providing module 140 stores an electronic chart for an augmented reality system of a data structure capable of processing an augmented reality including navigation information which is vast information related to navigation of a ship.

부연하여 설명하면, 전자해도(ENC: Electronic Navigational Chart)는 종이 해도 상에 나타나는 해안선, 등심선, 수심, 항로표지(등대, 등부표), 위험물 및 항로 등과 같이 선박의 항해와 관련된 해도 정보를, 국제수로기구(IHO)의 표준규격(S-57)에 따라 디지털화하여 제작한 디지털 해도를 말한다. 그런데, S-57에 따라 제작된 전자해도는 컴퓨터 또는 다른 추가탑재(Embedded) 장치에 표시되는 자료구조로는 적합하지 않으므로, IHO에서는 해당 기기에 적합한 형태의 자료구조로 변환하여 사용할 것을 권고하고 있다. 따라서, 본 발명의 실시예에 따른 증강현실을 이용한 선박 항법 시스템(10)의 전자해도 제공모듈(140)은 전자해도로 증강현실 시스템에 최적화된 증강현실 시스템용 전자해도(SENC: System ENC)를 사용한다.In addition, the Electronic Navigational Chart (ENC) is an electronic navigational chart that displays the chart information related to the voyage of the ship, such as shoreline, isthmus, water depth, beacon mark (lighthouse, light buoy) Refers to a digital chart produced digitally in accordance with the standard (S-57) of the IHO. However, since the electronic chart constructed in accordance with S-57 is not suitable as a data structure displayed on a computer or other additional embedded device, IHO recommends converting it into a data structure suitable for the device . Therefore, the electronic chart providing module 140 of the ship navigation system 10 using the augmented reality according to the embodiment of the present invention can provide an electronic chart (SENC: System ENC) for an augmented reality system optimized for an augmented reality system by an electronic chart use.

센세 모듈(150)은 안개센서와, 레이저 센서와, 초음파 센서로 이루어져 안개상황과, 외부 선박 감지 정보를 출력하며, 특히 안개가 기준이상 짙게 낄 경우에는 카메라로 외부 선박을 파악하기 어려우므로 레이저 센서와 초음파 센서를 가동하여 외부 선박을 파악토록 유도한다.The sensor module 150 is composed of a fog sensor, a laser sensor, and an ultrasonic sensor, and outputs a fog situation and external vessel detection information. Especially, when the fog is thicker than the reference level, And an ultrasonic sensor are operated to guide the external vessel.

중앙 처리 모듈(160)은 실제 영상에 증강현실 시스템용 전자해도로부터의 항해정보와 다른 선박의 운항정보를 증강현실 처리하고, 그 결과 증강현실 처리된 영상을 출력한다.The central processing module 160 processes the augmented reality information of the navigation information from the electronic chart for the augmented reality system and the navigation information of the other vessel on the actual image, and outputs the augmented reality processed image as a result.

표시모듈(170)은 예컨대, TFT LCD로 구성되어, 중앙 처리 모듈(150)로부터 제공받은 증강현실 처리된 영상을 표시한다.The display module 170 is composed of, for example, a TFT LCD, and displays the augmented reality processed image provided from the central processing module 150. [

상기 중앙처리 모듈(160)은 데이터 수신부(161)와, 충돌위험값 연산부(162)와, 조향장치 제어부(163)로 이루어진다.The central processing module 160 includes a data receiving unit 161, a collision risk value calculating unit 162, and a steering device control unit 163.

상기 데이터 수신부(151)는 AIS(Automatic Identification System; 선박 자동 식별 시스템) 데이터 또는 ECDIS(Electronic Chart Display and Information System; 전자해도 표시 정보시스템) 데이터 중 적어도 어느 하나의 데이터이다. AIS 데이터에는 주로 선박의 길이, 선박의 중량, 선박의 속력 또는 선박 간의 거리에 관한 데이터가 포함되며, ECDIS 데이터에는 지형장애물에 관한 데이터, 즉 지형장물의 면적 및 지형장애물과의 거리 데이터가 포함된다. 여기서, AIS 데이터는 기준선박과 복수 타선박 각각의 데이터이다. 이와 같이 다양한 정보를 이용함으로써, 선박의 충돌위험 정도를 보다 정확하게 판단하여 표시할 수 있다.The data receiving unit 151 is at least one of an AIS (Automatic Identification System) data or an ECDIS (Electronic Chart Display and Information System) data. The AIS data mainly includes data on the length of the ship, the weight of the ship, the speed of the ship or the distance between ships, and the ECDIS data includes data on terrain obstacles, ie, the area of the terrain and the distance data from the terrain obstacle . Here, the AIS data is data of the reference vessel and the plurality of other vessels. By using such various information, the degree of risk of collision of the ship can be accurately determined and displayed.

상기 충돌위험값 연산부(162)는 안개 센서와 레이저 센서 및 초음파 센서로부터 데이터를 입력받으며, 안개 센서와 레이저 센서 및 초음파 센서의 데이터로부터 외부 상황을 파악하는바, 안개 상황에서는 선박의 충돌가능성이 높은 것으로 판단하고, 레이저 센서에 의해서 측정한 장애물과의 거리에 따라서 선박의 조타각도 및 움직여야할 선박의 속도를 연산한다.The collision risk value calculator 162 receives data from the fog sensor, the laser sensor, and the ultrasonic sensor, and grasps the external situation from the data of the fog sensor, the laser sensor, and the ultrasonic sensor. In the fog situation, And calculates the steering angle of the ship and the speed of the ship to be moved according to the distance from the obstacle measured by the laser sensor.

즉, 통상 선박의 충돌은 안개 상황과 같이 시계가 불량한 상태에서 자주 발생할 수 있으며, 이때에는 레이저 센서를 가동하여 다른 선박과의 거리를 감안하여 선박을 움직이도록 지령하며, 특히 초음파 센서에 의해서 타선박이 검출되면 충돌을 피할 수 없는 상태이므로 회피기동하여 타선박의 정면과 본선박의 측면이 충돌하지 않토록 본선박을 긴급 회전시키며, 이에 따라 타선박의 측면과 본선박의 측면이 충돌하도록하여 선박끼리의 충돌로 인한 좌초를 최소화시킨다.In other words, the collision of a ship can occur frequently in a poor clock state such as a fog situation. At this time, the laser sensor is operated to instruct the ship to move in consideration of the distance to another ship. In particular, The collision can not be avoided so that the ship is urgently rotated so that the front side of the other ship does not collide with the side face of the main ship and the side face of the other ship collides with the side face of the main ship, Thereby minimizing the stranding caused by the collision between them.

다시말해서, 안개센서에 의해서 안개가 기준 이상으로 짙게 깔리는 경우에는 선박에 표면에 부착되는 레이저 센서 및 초음파 센서를 가동하여 충돌예방을 하는바, 이때 레이저 센서는 100m이내의 선박을 구분하고, 초음파 센서는 5m 이내의 선박을 구분하고, 레이저 센서에 의해서 다른 선박이 감지되면 기동을 하고, 초음파 센서에 의해서 타선박이 감지되면 거의 충돌한다고 보기 때문에 회피 기동을 하기 위해 타선박의 방향과 반대 방향으로 본선박을 긴급 선회시키는 것이다.In other words, when the fog is thicker than the standard by the fog sensor, the laser sensor and the ultrasonic sensor attached to the surface of the ship are operated to prevent collision. In this case, the laser sensor classifies the ships within 100m, Is considered to be collided when the other ship is detected by the laser sensor and when the other ship is detected by the ultrasonic sensor, it is considered that the collision occurs in the direction opposite to the direction of the other ship It is to turn the ship in an emergency.

상기 조향장치 제어부는 레이저 센서와 초음파 센서의 결과값을 비교 검토하여 충돌 위험이 기준이상인 경우에는 조향장치 및 기동 스크류를 구동하여 타선박과의 충돌을 미연에 방지하도록 한다.
The steering device control unit compares the result values of the laser sensor and the ultrasonic sensor, and controls the steering device and the starting screw to prevent collision with other ships if the collision risk is higher than the reference value.

한편, 증강현실을 이용한 선박 항법 시스템(10)은 실제 영상 즉, 카메라 모듈(130)로부터의 실제영상에 전자해도로부터 사용자 선택에 따라 추출된 해양정보를 중첩하여 표시한다. 여기서, 해양정보는 항로정보, 지형지물정보, 위험지역정보, 암초 정보나, 수심 정보 등이며, 본 발명의 실시예에 따른 시스템(10)은 이러한 해양정보를 사용자의 선택에 따라 추출하여 표시한다.On the other hand, the ship navigation system 10 using the augmented reality superimposes and displays marine information extracted from the actual image, that is, the actual image from the camera module 130, according to the user's selection. Here, the ocean information includes route information, feature information, dangerous area information, reef information, and depth information, and the system 10 according to the embodiment of the present invention extracts and displays such ocean information according to a user's selection .

도 6을 참고하면, 증강현실을 이용한 선박 항법 시스템(10)은 기저장된 증강현실 시스템용 전자해도(SENC)의 파일을 연다(Open)(S10). 여기서, 증강현실 시스템용 전자해도는 증강현실 처리가능한 자료구조로 구성된 전자해도일 수 있다.Referring to FIG. 6, the ship navigation system 10 using the augmented reality opens a file of an electronic chart SENC for a previously stored augmented reality system (S10). Here, the electronic chart for an augmented reality system may be an electronic chart composed of a data structure capable of processing an augmented reality.

이어서, 증강현실을 이용한 선박 항법 시스템(10)은 증강현실 시스템용 전자해도를 메모리에 불러온다(S20).Then, the ship navigation system 10 using the augmented reality loads the electronic chart for the augmented reality system into the memory (S20).

그 다음으로, 증강현실을 이용한 선박 항법 시스템(10)은 GPS 정보와 자이로 컴파스의 방위정보를 이용하여 일선박의 현 위치를 파악한다(S30).Next, the ship navigation system 10 using the augmented reality obtains the current position of one ship using the GPS information and the orientation information of the gyro compass (S30).

그리고, 증강현실을 이용한 선박 항법 시스템(10)은 사용자의 선택에 따라 증강현실 처리되어 표시될 항목을 확인하고, 증강현실 시스템용 전자해도로부터 표시될 항목의 해양정보를 추출하며, 주변 선박으로부터 표시될 항목의 운항정보를 추출한다(S40). 여기서, 해양정보는 항로정보, 지형지물정보, 위험지역정보, 암초 정보나, 수심 정보 등일 수 있으며, 운항정보는 해당 선박의 속력, 침로나, 위치 등일 수 있다.In addition, the ship navigation system 10 using the augmented reality can identify the items to be displayed and processed by the augmented reality according to the user's selection, extract the ocean information of items to be displayed from the electronic chart for the augmented reality system, (S40). Here, the marine information may be route information, feature information, dangerous area information, reef information, depth information, etc., and the flight information may be the speed,

증강현실을 이용한 선박 항법 시스템(10)은 추출한 해양정보와 운항정보를 기설정된 모양의 해양정보 이미지와 운항정보 이미지로 각각 변환한다(S50). 상세하게는, 증강현실을 이용한 선박 항법 시스템(10)은 사용자의 편의를 위해 수치로 표현된 해양정보와 운항정보를 기설정된 모양의 해양정보 이미지와 운항정보 이미지로 영상화하고, 해양정보 이미지와 운항정보 이미지에 대해 위치좌표(즉, 해당 해양정보의 영상이 표시될 위치좌표)를 부여한다.The ship navigation system 10 using the augmented reality converts the extracted marine information and flight information into a predetermined marine information image and a flight information image, respectively (S50). In detail, for the convenience of the user, the ship navigation system 10 using the augmented reality images the marine information and the flight information expressed in numerical values as a marine information image and a flight information image of predetermined shapes, (I.e., a position coordinate at which the image of the marine information is to be displayed) to the information image.

증강현실을 이용한 선박 항법 시스템(10)은 해양정보 이미지와 운항정보 이미지가 실제 영상과 대응되는 위치에 표시될 수 있도록, 해양정보 이미지와 운항정보 이미지의 위치좌표와 현 위치의 위도와 경도를 맵핑(Mapping)한다(S60).The vessel navigation system 10 using the augmented reality maps the position coordinates of the marine information image and the flight information image and the latitude and longitude of the current position so that the marine information image and the flight information image can be displayed at the positions corresponding to the actual images. (S60).

증강현실을 이용한 선박 항법 시스템(10)은 해양정보 이미지와 운항정보 이미지가 실제 영상에 대응하여 위치할 수 있도록, 증강현실 처리를 수행하여 증강현실 처리된 영상을 출력한다(S70). 여기서, 증강현실을 이용한 선박 항법 시스템(10)은 주변 선박의 운항정보를 표시함에 있어서, 거리에 따라 운항정보 이미지의 크기를 변화시켜 원근감 있게 표시할 수 있다.The ship navigation system 10 using the augmented reality performs the augmented reality processing so as to position the marine information image and the flight information image corresponding to the actual image, and outputs the augmented reality processed image (S70). Herein, the ship navigation system 10 using the augmented reality can display perspective information by changing the size of the flight information image according to the distance in displaying the navigation information of the nearby ship.

증강현실 처리된 영상을 표시하기에 앞서, 증강현실을 이용한 선박 항법 시스템(10)은 일 선박이 기설정된 거리이상으로 이동하였는지를 확인한다(S80). 여기서, 기설정된 거리는 일 선박이 주변 선박으로부터 AIS 정보를 제공받을지 여부를 판단하는 거리, 다시 말해 주변 선박이라고 판단하기 위한 임계거리일 수 있다.Before displaying the augmented reality processed image, the ship navigation system 10 using the augmented reality checks whether a ship has moved to a predetermined distance or more (S80). Here, the preset distance may be a distance for determining whether or not a ship is provided with AIS information from a nearby ship, that is, a critical distance for determining a nearby ship.

증강현실을 이용한 선박 항법 시스템(10)은 일 선박이 이동하였더라도 그 이동거리가 기설정된 거리 이내이면, 증강현실 처리된 영상을 표시한다(S90).The marine navigation system 10 using the augmented reality displays an augmented reality processed image if the moving distance of the vessel is within a predetermined distance (S90).

증강현실을 이용한 선박 항법 시스템(10)은 목적지에 도착하거나 안내 종료 명령이 입력되기 전까지 (S30) 내지 (S90) 단계를 반복적으로 수행한다.The ship navigation system 10 using the augmented reality repeats steps S30 to S90 until arriving at a destination or inputting a guidance end command.

반면, 증강현실을 이용한 선박 항법 시스템(10)은 일 선박이 기설정된 거리 이상으로 이동하였으면, (S30)의 단계를 통해 일 선박의 현 위치를 재인식한다.On the other hand, if the ship navigation system 10 using the augmented reality moves beyond a preset distance, the current position of the ship is re-recognized through the step S30.

한편, 기준이상의 안개가 낀 상황이면(S100) 레이저 센서 및 초음파 센서를 가동하여(S110) 타선박의 위치를 파악하고, 증강현실 처리 기법을 통해 모니터에 영상을 표시한다.On the other hand, if the fog is higher than the standard (S100), the laser sensor and the ultrasonic sensor are operated (S110) to determine the position of another ship, and an image is displayed on the monitor through the augmented reality processing technique.

즉, 안개가 짙은 상황에서는 타선박이 카메라에 포착되지 않기 때문에 레이저 센서 및 초음파 센서를 이용하여 타선박을 표시하며, 타선박이 기준이하의 거리로 돌진할 때에는 본선박을 회피기동하여 충돌을 줄이거나 파손부위를 최소화시키면서 충돌될 수 있도록 한다(S120).In other words, when the fog is heavy, the other ship is not caught by the camera. Therefore, the other ship is displayed using the laser sensor and the ultrasonic sensor. When the other ship rushes below the reference distance, So that the collision can be performed while minimizing the damage site (S120).

그리고, 상기 충돌상황을 증강현실과 더불어서 모두 메모리하여 사고 원인 규명등에 만전을 기할 수 있도록 한다(S130).In addition, the collision situation is memorized together with the augmented reality so that the cause of the accident can be fully recovered (S130).

이와 같이, 본 발명은 증강현실을 통해 예측하기 어려운 해양환경에서 위험요소나 주변상황에 대한 해양정보를 현실감 있게 제공할 수 있어, 해양정보의 인지도를 높일 수 있다.As described above, the present invention can realistically provide marine information about a dangerous element or a surrounding situation in a marine environment that is difficult to predict through the augmented reality, and can increase the awareness of marine information.

뿐만 아니라, 본 발명은 현실감 높은 해양정보의 제공을 통해, 운항자의 안전운항을 유도함으로써 선박 사고를 줄일 수 있고, 나아가 선박사고로 인한 인명손실과 재산상의 손해를 줄일 수 있다.In addition, the present invention can reduce the accident of the ship by inducing the safety operation of the operator through providing realistic marine information, and can further reduce the loss of life and property damage due to the accident of the ship.

더 나아가, 본 발명은 운항자에게 육안으로 식별할 수 있는 바다 위의 상황과, 바다 아래쪽의 항해에 영향을 줄수 있는 요인들을 함께 제공할 수 있는 총체적인 해상안전 안내서비스를 지원하여 선박의 안전운항에 기여할 수 있다.
Further, the present invention provides a comprehensive maritime safety guidance service that can provide the operator with visually identifiable conditions on the sea and factors that can affect the navigation below the sea, You can contribute.

10: 선박 항법 시스템 110: 위치감지 모듈
120: AIS(Automatic Identification System) 모듈
130: 카메라 모듈 140: 전자해도 제공모듈
150: 센서모듈 160: 중앙처리 모듈
170: 표시모듈
10: Ship navigation system 110: Position sensing module
120: Automatic Identification System (AIS) module
130: camera module 140: electronic chart providing module
150: sensor module 160: central processing module
170: Display module

Claims (6)

복수의 GPS 위성으로부터 수신한 시간과 거리신호에 삼각법을 적용하여 증강현실을 이용한 선박 항법 시스템(10)이 부착된 일 선박의 현 위치를 파악하는 위치감지 모듈(110)과;
선박자동식별 장치라고도 불리며, 해상에서 선박 간의 충돌을 방지하기 위하여, 일 선박의 운항정보를 주변의 다른 선박에 제공하며, 또한 주변 선박으로부터 그의 운항정보를 실시간으로 제공받는 AIS모듈(120)과;
일 선박의 전방, 측방이나, 후방에서 일 선박의 주변 영상을 촬영하여 사용자 선택에 따른 방향의 실제 영상을 출력하는 카메라 모듈(130)과;
선박의 항해와 관련된 정보인 항해정보를 포함하는 증강현실 처리가능한 자료구조의 증강현실 시스템용 전자해도를 저장하는 전자해도 제공모듈(140)과;
선박의 외부에 설치되는 안개센서와, 레이저 센서와, 초음파 센서로 이루어져 안개상황과, 외부 선박 감지 정보를 출력하며, 안개가 기준이상 짙게 낄 경우에는 카메라로 외부 선박을 파악하기 어려우므로 레이저 센서와 초음파 센서를 가동하여 외부 선박을 파악토록 유도하기 위한 센서 모듈(150)과;
실제 영상에 증강현실 시스템용 전자해도로부터의 항해정보와 다른 선박의 운항정보를 증강현실 처리하고, 그 결과 증강현실 처리된 영상을 출력하는 중앙 처리 모듈(160)과;
TFT LCD로 구성되어, 중앙 처리 모듈(150)로부터 제공받은 증강현실 처리된 영상을 표시하는 표시모듈(170)로 이루어지고;
상기 중앙처리 모듈(160)은 데이터 수신부(161)와, 충돌위험값 연산부(162)와, 조향장치 제어부(163)로 이루어지되;
상기 충돌위험값 연산부(162)는 안개 센서와 레이저 센서 및 초음파 센서로부터 데이터를 입력받으며, 안개 센서와 레이저 센서 및 초음파 센서의 데이터로부터 외부 상황을 파악하는바, 안개 상황에서는 선박의 충돌가능성이 높은 것으로 판단하고, 레이저 센서에 의해서 측정한 장애물과의 거리에 따라서 선박의 조타각도 및 움직여야할 선박의 속도를 연산하고;
상기 조향장치 제어부(163)는 레이저 센서와 초음파 센서의 결과값을 비교 검토하여 충돌 위험이 기준이상인 경우에는 조향장치 및 기동 스크류를 구동하도록 구성된 것을 특징으로 하는 증강현실을 이용한 선박 충돌 방지 겸용 선박 사고 기록 시스템.
A position sensing module 110 for recognizing a current position of a ship to which a ship navigation system 10 using an augmented reality is applied by applying trigonometry to time and distance signals received from a plurality of GPS satellites;
An AIS module 120 which is also referred to as an automatic ship identification device and which provides the navigation information of one ship to other marine vessels in order to prevent collision between marine vessels at sea and also receives its navigation information from surrounding ships in real time;
A camera module 130 for photographing a peripheral image of a ship at the front, side, and rear of a ship and outputting an actual image in a direction of user selection;
An electronic chart providing module (140) for storing an electronic chart for an augmented reality system of a data structure capable of processing an augmented reality including navigation information which is information related to navigation of a ship;
It is composed of a fog sensor installed on the outside of the ship, a laser sensor, and an ultrasonic sensor to output fog situation and external ship detection information. If the fog is thicker than the standard, it is difficult to grasp the external ship with the camera. A sensor module (150) for operating the ultrasonic sensor to guide the external ship to be grasped;
A central processing module (160) for processing the augmented reality information of navigation information from an electronic chart for an augmented reality system and navigation information of another vessel on an actual image, and outputting an augmented reality processed image as a result;
And a display module 170 composed of a TFT LCD and displaying an augmented reality processed image provided from the central processing module 150;
The central processing module 160 includes a data receiving unit 161, a collision risk value calculating unit 162, and a steering device control unit 163;
The collision risk value calculator 162 receives data from the fog sensor, the laser sensor, and the ultrasonic sensor, and grasps the external situation from the data of the fog sensor, the laser sensor, and the ultrasonic sensor. In the fog situation, Calculate the steering angle of the ship and the speed of the ship to be moved according to the distance from the obstacle measured by the laser sensor;
The steering device controller 163 is configured to compare the results of the laser sensor and the ultrasonic sensor and to operate the steering device and the starting screw when the risk of collision is higher than the reference value. Recording system.
제 1 항에 있어서,
상기 데이터 수신부에서 수신하는 데이터는 AIS(Automatic Identification System) 데이터 또는 ECDIS(Electronic Chart Display and Information System) 데이터 중 적어도 어느 하나의 데이터인 것을 특징으로 하는 증강현실을 이용한 선박 충돌 방지 겸용 선박 사고 기록 시스템.
The method according to claim 1,
Wherein the data received by the data receiving unit is at least one of AIS (Automatic Identification System) data and ECDIS (Electronic Chart Display and Information System) data.
제 2 항에 있어서,
상기 AIS 데이터에는 선박의 길이, 선박의 중량, 선박의 속력 및 선박 간의 거리 데이터가 포함되고, 상기 ECDIS 데이터에는 지형장애물의 면적 및 지형장애물과의 거리 데이터가 포함되는 것을 특징으로 하는 증강현실을 이용한 선박 충돌 방지 겸용 선박 사고 기록 시스템.
3. The method of claim 2,
Wherein the AIS data includes the length of the ship, the weight of the ship, the speed of the ship, and the distance data between the ships, and the ECDIS data includes the area of the terrain obstacle and the distance data with the terrain obstacle. Ship Accident Recording System for Ship Collision Prevention.
기준선박의 침로범위 내에 위치하는 복수의 타선박 및 지형장애물에 대한 데이터를 수신하는 데이터 수신 단계;
실제 영상에 증강현실 시스템용 전자해도로부터의 항해정보와 다른 선박의 운항정보를 증강현실 처리하고, 그 결과 증강현실 처리된 영상을 출력하는 단계와;
안개센서와, 레이저 센서와, 초음파 센서로 이루어져 안개상황과, 외부 선박 감지 정보를 출력하는 선박 외부 센싱단계와;
안개 상황이면 레이저 센서를 가동하여 다른 선박과의 거리를 감안하여 선박을 움직이도록 지령하며, 초음파 센서에 의해서 타선박이 검출되면 충돌을 피할 수 없는 상태이므로 회피기동하여 타선박의 정면과 본선박의 측면이 충돌하지 않토록 본선박을 긴급 회전시키는 단계와;
증강현실된 영상과 센서의 출력 데이터와 선박 충돌사고 순간을 메모리하는 단계로 이루어짐을 특징으로 하는 증강현실을 이용한 선박 충돌 방지 겸용 선박 사고 기록 방법.
A data receiving step of receiving data on a plurality of other ships and the terrain obstacles located within a range of the reference vessel;
Processing the augmented reality information of navigation information from an electronic chart for an augmented reality system and navigation information of another vessel on an actual image and outputting an augmented reality processed image as a result;
A ship external sensing step of outputting a fog situation and external ship detection information, which are composed of a fog sensor, a laser sensor and an ultrasonic sensor;
In case of fog situation, it operates the laser sensor to instruct the ship to move considering the distance from other ship. If another ship is detected by the ultrasonic sensor, collision can not be avoided. Urgently rotating the ship so that the sides do not collide;
And a step of memorizing the output data of the augmented reality image and the sensor, and the moment of collision of the ship, and a method for recording the accident accident of a ship using the augmented reality.
제 4 항에 있어서,
상기 데이터는 AIS 데이터 또는 ECDIS 데이터 중 적어도 어느 하나의 데이터인 것을 특징으로 하는 증강현실을 이용한 선박 충돌 방지와 선박 사고 기록 방법.
5. The method of claim 4,
Wherein the data is at least one of AIS data and ECDIS data.
제 5 항에 있어서,
상기 AIS 데이터에는 선박의 길이, 선박의 중량, 선박의 속력 및 선박 간의 거리 데이터가 포함되고, 상기 ECDIS 데이터에는 지형장애물의 면적 및 지형장애물과의 거리 데이터가 포함되는 것을 특징으로 하는 증강현실을 이용한 선박 충돌 방지 겸용 선박 사고 기록 방법.
6. The method of claim 5,
Wherein the AIS data includes the length of the ship, the weight of the ship, the speed of the ship, and the distance data between the ships, and the ECDIS data includes the area of the terrain obstacle and the distance data with the terrain obstacle. Vessel accident recording method combined with ship collision prevention.
KR1020150049602A 2015-04-08 2015-04-08 System and Method for Preventing Collision of Vessel and Recording using Augmented Reality KR101549513B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150049602A KR101549513B1 (en) 2015-04-08 2015-04-08 System and Method for Preventing Collision of Vessel and Recording using Augmented Reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150049602A KR101549513B1 (en) 2015-04-08 2015-04-08 System and Method for Preventing Collision of Vessel and Recording using Augmented Reality

Publications (1)

Publication Number Publication Date
KR101549513B1 true KR101549513B1 (en) 2015-09-03

Family

ID=54247031

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150049602A KR101549513B1 (en) 2015-04-08 2015-04-08 System and Method for Preventing Collision of Vessel and Recording using Augmented Reality

Country Status (1)

Country Link
KR (1) KR101549513B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110718096A (en) * 2019-09-12 2020-01-21 广州中交通信有限公司 Bridge collision early warning system and early warning method
CN111391994A (en) * 2020-04-23 2020-07-10 武汉欣海远航科技研发有限公司 Intelligent sensing navigation mark equipment and early warning method thereof
KR102138817B1 (en) * 2019-12-31 2020-07-28 주식회사 삼우이머션 Digital content for ship disaster safety training
KR102249156B1 (en) * 2020-07-07 2021-05-07 (주)맵시 Sailing assistance device using augmented reality image
KR102267711B1 (en) * 2020-06-24 2021-06-22 (주)맵시 Sailing assistance device using 3d image
KR102283968B1 (en) * 2020-11-27 2021-07-30 한국해양과학기술원 System and method for generating and sharing visibility observation information based on image learning
KR102332696B1 (en) 2021-06-09 2021-12-01 (주)생존수영교육연구소 Training Method for Ship Accident Response using Virtual Reality
WO2021261810A1 (en) * 2020-06-24 2021-12-30 주식회사 맵시 Navigation assistance device using augmented reality and 3d images
KR102513148B1 (en) 2021-12-31 2023-03-23 주식회사 메타에듀시스 Training Method for negligent accident Response using Virtual Reality
CN116612668A (en) * 2023-06-09 2023-08-18 大连海事大学 Automatic collision avoidance algorithm for water area ships in lane navigation based on improved APF

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101288953B1 (en) 2013-03-14 2013-07-23 주식회사 엠시스템즈 Black box system for leisure vessel

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101288953B1 (en) 2013-03-14 2013-07-23 주식회사 엠시스템즈 Black box system for leisure vessel

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110718096A (en) * 2019-09-12 2020-01-21 广州中交通信有限公司 Bridge collision early warning system and early warning method
KR102138817B1 (en) * 2019-12-31 2020-07-28 주식회사 삼우이머션 Digital content for ship disaster safety training
CN111391994A (en) * 2020-04-23 2020-07-10 武汉欣海远航科技研发有限公司 Intelligent sensing navigation mark equipment and early warning method thereof
KR102267711B1 (en) * 2020-06-24 2021-06-22 (주)맵시 Sailing assistance device using 3d image
WO2021261810A1 (en) * 2020-06-24 2021-12-30 주식회사 맵시 Navigation assistance device using augmented reality and 3d images
KR102249156B1 (en) * 2020-07-07 2021-05-07 (주)맵시 Sailing assistance device using augmented reality image
KR102283968B1 (en) * 2020-11-27 2021-07-30 한국해양과학기술원 System and method for generating and sharing visibility observation information based on image learning
KR102332696B1 (en) 2021-06-09 2021-12-01 (주)생존수영교육연구소 Training Method for Ship Accident Response using Virtual Reality
KR102513148B1 (en) 2021-12-31 2023-03-23 주식회사 메타에듀시스 Training Method for negligent accident Response using Virtual Reality
CN116612668A (en) * 2023-06-09 2023-08-18 大连海事大学 Automatic collision avoidance algorithm for water area ships in lane navigation based on improved APF
CN116612668B (en) * 2023-06-09 2024-02-06 大连海事大学 Automatic collision avoidance algorithm for water area ships in lane navigation based on improved APF

Similar Documents

Publication Publication Date Title
KR101549513B1 (en) System and Method for Preventing Collision of Vessel and Recording using Augmented Reality
KR101683274B1 (en) System for supporting vessel berth using unmanned aerial vehicle and the method thereof
KR20110116842A (en) Electronic navigational chart display method of vessels navigation system using augmented reality
US11892298B2 (en) Navigational danger identification and feedback systems and methods
KR101693981B1 (en) Apparatus and method for vessel collision avoidance
US20210206459A1 (en) Video sensor fusion and model based virtual and augmented reality systems and methods
JP5000244B2 (en) Docking support device and ship equipped with the same
US20200369351A1 (en) Marine docking and object awareness system
CN111373283A (en) Real-time monitoring of the surroundings of a marine vessel
JP5102886B2 (en) Image display system, image display method, and program
KR101693982B1 (en) Apparatus and method for vessel collision avoidance
KR102007849B1 (en) System and method for supporting ship entering and leaving port using 3d lidar mounted on unmanned aerial vehicle
US10518851B2 (en) Undersea compass and pitch indicator
JP6942675B2 (en) Ship navigation system
JP7386041B2 (en) Ship maneuvering support system and method
CN111357281B (en) Video generating device and video generating method
JP2022173157A (en) Tidal current information display device
JP2022173147A (en) Tide information display device
EP4047312A1 (en) Augmented reality based tidal current display device
US20220026218A1 (en) Head mounted display system
US11808579B2 (en) Augmented reality based tidal current display apparatus and method
KR102464212B1 (en) Augmented reality system for ships using omnidirectional cameras
EP4047313B1 (en) Tidal current information display device
WO2024053524A1 (en) Navigation assistance device and navigation assistance method
KR20240030736A (en) Operating system for ship

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180611

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190820

Year of fee payment: 5