KR101549513B1 - System and Method for Preventing Collision of Vessel and Recording using Augmented Reality - Google Patents
System and Method for Preventing Collision of Vessel and Recording using Augmented Reality Download PDFInfo
- Publication number
- KR101549513B1 KR101549513B1 KR1020150049602A KR20150049602A KR101549513B1 KR 101549513 B1 KR101549513 B1 KR 101549513B1 KR 1020150049602 A KR1020150049602 A KR 1020150049602A KR 20150049602 A KR20150049602 A KR 20150049602A KR 101549513 B1 KR101549513 B1 KR 101549513B1
- Authority
- KR
- South Korea
- Prior art keywords
- ship
- augmented reality
- data
- collision
- information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G3/00—Traffic control systems for marine craft
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G3/00—Traffic control systems for marine craft
- G08G3/02—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63B—SHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING
- B63B43/00—Improving safety of vessels, e.g. damage control, not otherwise provided for
- B63B43/18—Improving safety of vessels, e.g. damage control, not otherwise provided for preventing collision or grounding; reducing collision damage
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Ocean & Marine Engineering (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Mechanical Engineering (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Public Health (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
Description
본 발명은 증강현실을 이용한 선박 충돌 방지 겸용 선박 사고 기록 시스템 및 방법에 관한 것으로, 특히, 증강현실 기술을 이용하여 선박 주변의 영상에 전자해도로부터 선택적으로 추출한 항해정보를 중첩시켜 표시함으로써, 현실감 높은 항해정보를 제공할 수 있는 증강현실을 이용한 선박 항법 시스템의 전자해도 표시 방법을 제공하고, 선박 충돌사고 발생전에 조타각 및 속도를 자동 변경하여 충돌사고를 예방하며, 충돌이 불가피하다고 판단될시에는 선박의 측면끼리 부디치도록 선박의 자세를 변형하여 선박 충돌로 인한 침몰을 최소화시키도록 하고, 또한, 선박이 충돌할시에 충돌 상황을 증강현실과 더불어 메모리에 저장하여 어느 선박이 잘못했는지를 명확하게 구분할 수 있도록 유도하는 것을 특징으로 하는 증강현실을 이용한 선박 충돌 방지 겸용 선박 사고 기록 시스템 및 방법에 관한 것이다.
The present invention relates to a ship accident record system and method for preventing collision with a ship using an augmented reality. More particularly, the present invention relates to a vessel accident record system and method using augmented reality, The present invention provides a method of displaying an electronic chart of a ship navigation system using an augmented reality capable of providing navigation information and automatically changing the steering angle and speed before occurrence of a ship collision to prevent a collision, It is also possible to minimize the sinking due to collision of the ship by modifying the posture of the ship so that the sides of the ship are inevitably caught between the sides of the ship. In addition, when the ship collides, the collision situation is stored in the memory together with the augmented reality, The collision avoidance method using the augmented reality The present invention relates to a ship accident record system and method.
선박 사고의 대부분은 선박 간의 충돌 또는 선박과 지형장애물 간의 충돌에 의한 충돌 등 충돌 사고가 대부분으로, 최근 선박의 크기가 대형화되고 선박의 종류가 다양화됨에 따라, 선박 충돌 사고로 인한 인명 피해, 재산피해 및 해양 오염과 같은 2차적 피해 등 대규모 피해가 발생하고 있다.Most of ship accidents are mostly collision such as collision between ships or collision between ship and terrain obstacle. Recently, ship size has been increased and ship types have been diversified. Damages and secondary pollution such as marine pollution.
선박 충돌 사고는 주로 선박의 출입이 잦은 항만 부근 및 연안 해역에서 발생하기 때문에, 종래에는 이와 같은 해역에서의 선박 및 지형장애물에 대해 AIS(Automatic Identification System) 데이터 또는 ECDIS(Electronic Chart Display and Information System) 데이터를 VTS 관제사, 도선사 또는 선박 운항자들이 사용하는 장치의 화면 상에 제공하고 있다.Since the ship collision occurs mainly in the vicinity of the port where the ship is frequently in and out of the coastal area, conventionally, AIS (Automatic Identification System) data or Electronic Chart Display and Information System (ECDIS) The data is provided on the screen of a device used by a VTS controller, pilot or ship operator.
하지만, 제공되는 데이터는 선박의 침로, 속력, 거리, 지형장애물의 위치 등 단순 정보에 불과하기 때문에, VTS 관제사, 도선사 또는 선박 운항자는 이와 같은 정보를 확인하여 직접 상황을 판단하고 통제·제어해야 하므로, 인적 요소에 의한 한계로 인해 여러 가지 문제점이 발생하고 있다(예컨대, 숙련도에 따른 통제능력의 개인차).However, since the provided data is merely information such as the position of the ship's course, speed, distance, and terrain obstacles, the VTS controller, the pilot or the ship operator must check and control the situation directly , And limitations due to human factors (for example, individual differences in control ability according to proficiency).
한편, 종래에는 이러한 인적 요소에 따른 한계를 극복하기 위해, 상기 데이터로부터 선박 간의 주관적충돌위험도(Subjective Judgment Value)를 산출하는 알고리즘을 사용하고 있으나(대한민국공개특허공보 제10-2005-0114771호 참조), 주관적충돌위험도는 하나의 선박과 하나의 선박이 마주치는 경우에 대하여 충돌위험도를 산출한 것으로, 다수의 선박과 다수의 선박이 마주치는 경우, 다수의 선박이 지형장애물을 지나가는 경우 등이 다반사인 항만 부근 및 연안 해역에서는 실질적으로 적용하기 어려운 문제점이 있다.Conventionally, in order to overcome the limitations due to such human factors, an algorithm for calculating the subjective judgment value of the ship from the data is used (refer to Korean Patent Laid-Open Publication No. 10-2005-0114771) , And the risk of subjective collision is calculated as the risk of collision against a ship and a ship. When multiple ships meet a plurality of ships, multiple ships pass through a terrain obstacle, There is a problem that it is practically difficult to apply in the vicinity of the harbor and coastal waters.
결국, 종래에는 VTS 관제구역 내에 수많은 선박들과 지형장애물이 있기 때문에, 관제사, 도선사 또는 선박 운항자들이 화면을 보면서 어떤 선박이 위험에 노출되어 있는지를 찾아내기가 쉽지 않은 문제점이 있었다.
As a result, there are many ships and terrain obstacles in the VTS control area so that it is not easy for the controller, the pilot or the ship operator to find out which ship is exposed to danger while viewing the screen.
본 발명은 전술한 바와 같은 기술적 배경에서 안출된 것으로서, 증강현실 기술을 이용하여 선박 주변의 영상에 전자해도로부터 선택적으로 추출한 항해정보를 중첩시켜 표시함으로써, 현실감 높은 항해정보를 제공할 수 있는 증강현실을 이용한 선박 항법 시스템의 전자해도 표시 방법을 제공하고, 선박 충돌사고 발생전에 조타각 및 속도를 자동 변경하여 충돌사고를 예방하며, 충돌이 불가피하다고 판단될시에는 선박의 측면끼리 부디치도록 선박의 자세를 변형하여 선박 충돌로 인한 침몰을 최소화시키도록 하는데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made in view of the technical background as described above, and it is an object of the present invention to provide an augmented reality system capable of providing realistic navigation information by superimposing navigation information selectively extracted from an electronic chart on an image around a ship, And to prevent collision by automatically changing the steering angle and speed before the occurrence of a collision with the ship. If it is determined that collision is inevitable, The aim is to modify the posture to minimize the sinking due to ship collision.
또한, 선박이 충돌할시에 충돌 상황을 증강현실과 더불어 메모리에 저장하여 어느 선박이 잘못했는지를 명확하게 구분할 수 있도록 유도하는데 그 목적이 있다.
The object of the present invention is to store a collision situation in a memory together with an augmented reality at the time of a collision of a ship so as to clearly distinguish which vessel is wrong.
상기 목적을 달성하기 위한 수단으로,As means for achieving the above object,
본 발명은 복수의 GPS 위성으로부터 수신한 시간과 거리신호에 삼각법을 적용하여 증강현실을 이용한 선박 항법 시스템(10)이 부착된 일 선박의 현 위치를 파악하는 위치감지 모듈(110)과; 선박자동식별 장치라고도 불리며, 해상에서 선박 간의 충돌을 방지하기 위하여, 일 선박의 운항정보를 주변의 다른 선박에 제공하며, 또한 주변 선박으로부터 그의 운항정보를 실시간으로 제공받는 AIS모듈(120)과; 일 선박의 전방, 측방이나, 후방 등에서 일 선박의 주변 영상을 촬영하여 사용자 선택에 따른 방향의 실제 영상을 출력하는 카메라 모듈(130)과; 선박의 항해와 관련된 방대한 정보인 항해정보를 포함하는 증강현실 처리가능한 자료구조의 증강현실 시스템용 전자해도를 저장하는 전자해도 제공모듈(140)과; 선박의 외부에 설치되는 안개센서와, 레이저 센서와, 초음파 센서로 이루어져 안개상황과, 외부 선박 감지 정보를 출력하며, 안개가 기준이상 짙게 낄 경우에는 카메라로 외부 선박을 파악하기 어려우므로 레이저 센서와 초음파 센서를 가동하여 외부 선박을 파악토록 유도하기 위한 센서 모듈(150)과; 실제 영상에 증강현실 시스템용 전자해도로부터의 항해정보와 다른 선박의 운항정보를 증강현실 처리하고, 그 결과 증강현실 처리된 영상을 출력하는 중앙 처리 모듈(160)과; TFT LCD로 구성되어, 중앙 처리 모듈(150)로부터 제공받은 증강현실 처리된 영상을 표시하는 표시모듈(170)로 이루어지고; 상기 중앙처리 모듈(160)은 데이터 수신부(161)와, 충돌위험값 연산부(162)와, 조향장치 제어부(163)로 이루어지되; 상기 충돌위험값 연산부(162)는 안개 센서와 레이저 센서 및 초음파 센서로부터 데이터를 입력받으며, 안개 센서와 레이저 센서 및 초음파 센서의 데이터로부터 외부 상황을 파악하는바, 안개 상황에서는 선박의 충돌가능성이 높은 것으로 판단하고, 레이저 센서에 의해서 측정한 장애물과의 거리에 따라서 선박의 조타각도 및 움직여야할 선박의 속도를 연산하고; 상기 조향장치 제어부(163)는 레이저 센서와 초음파 센서의 결과값을 비교 검토하여 충돌 위험이 기준이상인 경우에는 조향장치 및 기동 스크류를 구동하도록 구성된 것이 특징이다.The present invention includes a
또한, 상기 데이터 수신부에서 수신하는 데이터는 AIS(Automatic Identification System) 데이터 또는 ECDIS(Electronic Chart Display and Information System) 데이터 중 적어도 어느 하나의 데이터인 것이 특징이다.In addition, the data received by the data receiving unit is at least one of Automatic Identification System (AIS) data and Electronic Chart Display and Information System (ECDIS) data.
또한, 상기 AIS 데이터에는 선박의 길이, 선박의 중량, 선박의 속력 및 선박 간의 거리 데이터가 포함되고, 상기 ECDIS 데이터에는 지형장애물의 면적 및 지형장애물과의 거리 데이터가 포함되는 것이 특징이다.Also, the AIS data includes the length of the ship, the weight of the ship, the speed of the ship, and the distance data between the ships, and the ECDIS data includes the area of the terrain obstacle and the distance data with the terrain obstacle.
또한, 기준선박의 침로범위 내에 위치하는 복수의 타선박 및 지형장애물에 대한 데이터를 수신하는 데이터 수신 단계; 실제 영상에 증강현실 시스템용 전자해도로부터의 항해정보와 다른 선박의 운항정보를 증강현실 처리하고, 그 결과 증강현실 처리된 영상을 출력하는 단계와; 안개센서와, 레이저 센서와, 초음파 센서로 이루어져 안개상황과, 외부 선박 감지 정보를 출력하는 선박 외부 센싱단계와; 안개 상황이면 레이저 센서를 가동하여 다른 선박과의 거리를 감안하여 선박을 움직이도록 지령하며, 특히 초음파 센서에 의해서 타선박이 검출되면 충돌을 피할 수 없는 상태이므로 회피기동하여 타선박의 정면과 본선박의 측면이 충돌하지 않토록 본선박을 긴급 회전시키는 단계와; 증강현실된 영상과 센서의 출력 데이터와 선박 충돌사고 순간을 메모리하는 단계로 이루어짐이 특징이다.A data receiving step of receiving data on a plurality of other ships and the terrain obstacles located within a range of the stern of the reference vessel; Processing the augmented reality information of navigation information from an electronic chart for an augmented reality system and navigation information of another vessel on an actual image and outputting an augmented reality processed image as a result; A ship external sensing step of outputting a fog situation and external ship detection information, which are composed of a fog sensor, a laser sensor and an ultrasonic sensor; In case of fog situation, the laser sensor is activated to instruct the ship to move in consideration of the distance to other ship. Especially when another ship is detected by ultrasonic sensor, collision can not be avoided. Urgently rotating the ship so that the sides of the ship do not collide with each other; And the step of memorizing the output data of the augmented reality image and the sensor and the moment of crash of the ship.
또한, 상기 데이터는 AIS 데이터 또는 ECDIS 데이터 중 적어도 어느 하나의 데이터인 것이 특징이다.In addition, the data is at least one of AIS data and ECDIS data.
또한, 상기 AIS 데이터에는 선박의 길이, 선박의 중량, 선박의 속력 및 선박 간의 거리 데이터가 포함되고, 상기 ECDIS 데이터에는 지형장애물의 면적 및 지형장애물과의 거리 데이터가 포함되는 것이 특징이다.
Also, the AIS data includes the length of the ship, the weight of the ship, the speed of the ship, and the distance data between the ships, and the ECDIS data includes the area of the terrain obstacle and the distance data with the terrain obstacle.
상술한 바와 같이 본 발명은 증강현실 기술을 이용하여 선박 주변의 영상에 전자해도로부터 선택적으로 추출한 항해정보를 중첩시켜 표시함으로써, 현실감 높은 항해정보를 제공할 수 있는 증강현실을 이용한 선박 항법 시스템의 전자해도 표시 방법을 제공하고, 선박 충돌사고 발생전에 조타각 및 속도를 자동 변경하여 충돌사고를 예방하며, 충돌이 불가피하다고 판단될시에는 선박의 측면끼리 부디치도록 선박의 자세를 변형하여 선박 충돌로 인한 침몰을 최소화시키도록 하는 효과가 있다.As described above, according to the present invention, navigation information selectively extracted from an electronic chart is superimposed and displayed on an image around a ship using an augmented reality technology, thereby realizing an electronic In the event that a collision is inevitable, it is necessary to change the posture of the ship so that the sides of the ship are inevitably caught between the sides of the ship, Thereby minimizing the sinking caused by the impact.
또한, 선박이 충돌할시에 충돌 상황을 증강현실과 더불어 메모리에 저장하여 어느 선박이 잘못했는지를 명확하게 구분할 수 있도록 유도하는 효과가 있다.
In addition, when the ship collides, the collision situation is stored in the memory together with the augmented reality, thereby inducing a clear distinction as to which ship has failed.
도 1은 선박의 충돌 상황 개념도.
도 2는 본 발명의 증강현실을 이미지화시킨 개념도.
도 3은 본 발명의 각종 데이터 입력 및 모니터 출력도.
도 4는 CCTV 설치 예시도.
도 5는 본 발명의 구성 블록도.
도 6은 본 발명의 플로우 챠트.1 is a conceptual view of a collision situation of a ship;
2 is a conceptual diagram of an augmented reality image of the present invention.
3 is a diagram showing various data input and monitor output of the present invention.
Fig. 4 is an exemplary view showing a CCTV installation; Fig.
5 is a configuration block diagram of the present invention;
6 is a flowchart of the present invention.
이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다.The operation principle of the preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings and description. It should be understood, however, that the drawings and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention, and are not to be construed as limiting the present invention.
또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The terms used below are defined in consideration of the functions of the present invention, which may vary depending on the user, intention or custom of the operator. Therefore, the definition should be based on the contents throughout the present invention.
또한, 이하 실시되는 본 발명의 바람직한 실시예는 본 발명을 이루는 기술적 구성요소를 효율적으로 설명하기 위해 각각의 시스템 기능구성에 이미 구비되어 있거나, 또는 본 발명이 속하는 기술분야에서 통상적으로 구비되는 시스템 기능구성은 가능한 생략하고, 본 발명을 위해 추가적으로 구비되어야 하는 기능구성을 위주로 설명한다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. The configuration is omitted as much as possible, and a functional configuration that should be additionally provided for the present invention is mainly described.
만약 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면, 하기에 도시하지 않고 생략된 기능구성 중에서 종래에 이미 사용되고 있는 구성요소의 기능을 용이하게 이해할 수 있을 것이며, 또한 상기와 같이 생략된 구성요소와 본 발명을 위해 추가된 구성요소 사이의 관계도 명백하게 이해할 수 있을 것이다.Those skilled in the art will readily understand the functions of the components that have been used in the prior art among the functional configurations that are not shown in the following description, The relationship between the elements and the components added for the present invention will also be clearly understood.
또한, 이하 실시예는 본 발명의 핵심적인 기술적 특징을 효율적으로 설명하기 위해 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 명백하게 이해할 수 있도록 용어를 적절하게 변형하여 사용할 것이나, 이에 의해 본 발명이 한정되는 것은 결코 아니다.In order to efficiently explain the essential technical features of the present invention, the following embodiments properly modify the terms so that those skilled in the art can clearly understand the present invention, It is by no means limited.
결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 하나의 수단일 뿐이다.As a result, the technical idea of the present invention is determined by the claims, and the following embodiments are merely illustrative of the technical idea of the present invention in order to efficiently explain the technical idea of the present invention to a person having ordinary skill in the art to which the present invention belongs. .
도 1은 선박의 충돌 상황 개념도.1 is a conceptual view of a collision situation of a ship;
도 2는 본 발명의 증강현실을 이미지화시킨 개념도.2 is a conceptual diagram of an augmented reality image of the present invention.
도 3은 본 발명의 각종 데이터 입력 및 모니터 출력도.3 is a diagram showing various data input and monitor output of the present invention.
도 4는 CCTV 설치 예시도.Fig. 4 is an exemplary view showing a CCTV installation; Fig.
도 5는 본 발명의 구성 블록도.5 is a configuration block diagram of the present invention;
도 6은 본 발명의 플로우 챠트로서, 본 발명의 실시예에 따른 증강현실을 이용한 선박 항법 시스템(10)은 위치감지 모듈(110), AIS(Automatic Identification System) 모듈(120), 카메라 모듈(130), 전자해도 제공모듈(140), 센서모듈(150), 중앙처리 모듈(160) 및 표시모듈(170)을 포함한다.FIG. 6 is a flow chart of the present invention. The
상기 위치감지 모듈(110)은 복수의 GPS 위성으로부터 수신한 시간과 거리신호에 삼각법을 적용하여 증강현실을 이용한 선박 항법 시스템(10)이 부착된 일 선박의 현 위치를 파악한다.The
또한, 위치감지 모듈(110)은 자이로 컴파스(Gyro Compass)를 이용하여 일 선박의 방위정보를 파악한다. 참고로 설명하면, 자이로 컴파스는 고속으로 회전하는 자이로스코프의 회전축이 항상 지구의 북쪽을 가리키도록 한 것이며, 나침반과는 달리 항상 진북을 가리키며, 회전축에 적절한 무게의 추를 달고 있다는 점에서 자이로스코프와 구분된다.Also, the
AIS모듈(120)은 선박자동식별 장치라고도 불리며, 해상에서 선박 간의 충돌을 방지하기 위하여, 일 선박의 운항정보를 주변의 다른 선박에 제공하며, 또한 주변 선박으로부터 그의 운항정보를 실시간으로 제공받는다.The
여기서, 운항정보는 속력, 침로 및 위치 등일 수 있다.Here, the flight information may be speed, stroke, and location.
카메라 모듈(130)은 일 선박의 전방, 측방이나, 후방 등에서 일 선박의 주변 영상을 촬영하여 사용자 선택에 따른 방향의 실제 영상을 출력한다. 이때, 카메라 모듈(130)은 CMOS(Complementary Metal Oxide Semiconductor)나, CCD(Charge Coupled Device) 카메라 등일 수 있다. 도 5에서는, 카메라 모듈(130)이 전방 카메라, 측방 카메라, 후방 카메라를 모두 포함하는 경우를 예로 들어 설명하였지만, 카메라 모듈(130)은 광각 카메라를 포함하여 전방, 측방 및 후방 중 하나 또는 두 개의 방향에만 구비될 수도 있으며, 회전하며 원하는 방향에 대한 영상을 선택적으로 촬영할 수 있다.The
전자해도 제공모듈(140)은 선박의 항해와 관련된 방대한 정보인 항해정보를 포함하는 증강현실 처리가능한 자료구조의 증강현실 시스템용 전자해도를 저장한다.The electronic
부연하여 설명하면, 전자해도(ENC: Electronic Navigational Chart)는 종이 해도 상에 나타나는 해안선, 등심선, 수심, 항로표지(등대, 등부표), 위험물 및 항로 등과 같이 선박의 항해와 관련된 해도 정보를, 국제수로기구(IHO)의 표준규격(S-57)에 따라 디지털화하여 제작한 디지털 해도를 말한다. 그런데, S-57에 따라 제작된 전자해도는 컴퓨터 또는 다른 추가탑재(Embedded) 장치에 표시되는 자료구조로는 적합하지 않으므로, IHO에서는 해당 기기에 적합한 형태의 자료구조로 변환하여 사용할 것을 권고하고 있다. 따라서, 본 발명의 실시예에 따른 증강현실을 이용한 선박 항법 시스템(10)의 전자해도 제공모듈(140)은 전자해도로 증강현실 시스템에 최적화된 증강현실 시스템용 전자해도(SENC: System ENC)를 사용한다.In addition, the Electronic Navigational Chart (ENC) is an electronic navigational chart that displays the chart information related to the voyage of the ship, such as shoreline, isthmus, water depth, beacon mark (lighthouse, light buoy) Refers to a digital chart produced digitally in accordance with the standard (S-57) of the IHO. However, since the electronic chart constructed in accordance with S-57 is not suitable as a data structure displayed on a computer or other additional embedded device, IHO recommends converting it into a data structure suitable for the device . Therefore, the electronic
센세 모듈(150)은 안개센서와, 레이저 센서와, 초음파 센서로 이루어져 안개상황과, 외부 선박 감지 정보를 출력하며, 특히 안개가 기준이상 짙게 낄 경우에는 카메라로 외부 선박을 파악하기 어려우므로 레이저 센서와 초음파 센서를 가동하여 외부 선박을 파악토록 유도한다.The sensor module 150 is composed of a fog sensor, a laser sensor, and an ultrasonic sensor, and outputs a fog situation and external vessel detection information. Especially, when the fog is thicker than the reference level, And an ultrasonic sensor are operated to guide the external vessel.
중앙 처리 모듈(160)은 실제 영상에 증강현실 시스템용 전자해도로부터의 항해정보와 다른 선박의 운항정보를 증강현실 처리하고, 그 결과 증강현실 처리된 영상을 출력한다.The
표시모듈(170)은 예컨대, TFT LCD로 구성되어, 중앙 처리 모듈(150)로부터 제공받은 증강현실 처리된 영상을 표시한다.The
상기 중앙처리 모듈(160)은 데이터 수신부(161)와, 충돌위험값 연산부(162)와, 조향장치 제어부(163)로 이루어진다.The
상기 데이터 수신부(151)는 AIS(Automatic Identification System; 선박 자동 식별 시스템) 데이터 또는 ECDIS(Electronic Chart Display and Information System; 전자해도 표시 정보시스템) 데이터 중 적어도 어느 하나의 데이터이다. AIS 데이터에는 주로 선박의 길이, 선박의 중량, 선박의 속력 또는 선박 간의 거리에 관한 데이터가 포함되며, ECDIS 데이터에는 지형장애물에 관한 데이터, 즉 지형장물의 면적 및 지형장애물과의 거리 데이터가 포함된다. 여기서, AIS 데이터는 기준선박과 복수 타선박 각각의 데이터이다. 이와 같이 다양한 정보를 이용함으로써, 선박의 충돌위험 정도를 보다 정확하게 판단하여 표시할 수 있다.The data receiving unit 151 is at least one of an AIS (Automatic Identification System) data or an ECDIS (Electronic Chart Display and Information System) data. The AIS data mainly includes data on the length of the ship, the weight of the ship, the speed of the ship or the distance between ships, and the ECDIS data includes data on terrain obstacles, ie, the area of the terrain and the distance data from the terrain obstacle . Here, the AIS data is data of the reference vessel and the plurality of other vessels. By using such various information, the degree of risk of collision of the ship can be accurately determined and displayed.
상기 충돌위험값 연산부(162)는 안개 센서와 레이저 센서 및 초음파 센서로부터 데이터를 입력받으며, 안개 센서와 레이저 센서 및 초음파 센서의 데이터로부터 외부 상황을 파악하는바, 안개 상황에서는 선박의 충돌가능성이 높은 것으로 판단하고, 레이저 센서에 의해서 측정한 장애물과의 거리에 따라서 선박의 조타각도 및 움직여야할 선박의 속도를 연산한다.The collision
즉, 통상 선박의 충돌은 안개 상황과 같이 시계가 불량한 상태에서 자주 발생할 수 있으며, 이때에는 레이저 센서를 가동하여 다른 선박과의 거리를 감안하여 선박을 움직이도록 지령하며, 특히 초음파 센서에 의해서 타선박이 검출되면 충돌을 피할 수 없는 상태이므로 회피기동하여 타선박의 정면과 본선박의 측면이 충돌하지 않토록 본선박을 긴급 회전시키며, 이에 따라 타선박의 측면과 본선박의 측면이 충돌하도록하여 선박끼리의 충돌로 인한 좌초를 최소화시킨다.In other words, the collision of a ship can occur frequently in a poor clock state such as a fog situation. At this time, the laser sensor is operated to instruct the ship to move in consideration of the distance to another ship. In particular, The collision can not be avoided so that the ship is urgently rotated so that the front side of the other ship does not collide with the side face of the main ship and the side face of the other ship collides with the side face of the main ship, Thereby minimizing the stranding caused by the collision between them.
다시말해서, 안개센서에 의해서 안개가 기준 이상으로 짙게 깔리는 경우에는 선박에 표면에 부착되는 레이저 센서 및 초음파 센서를 가동하여 충돌예방을 하는바, 이때 레이저 센서는 100m이내의 선박을 구분하고, 초음파 센서는 5m 이내의 선박을 구분하고, 레이저 센서에 의해서 다른 선박이 감지되면 기동을 하고, 초음파 센서에 의해서 타선박이 감지되면 거의 충돌한다고 보기 때문에 회피 기동을 하기 위해 타선박의 방향과 반대 방향으로 본선박을 긴급 선회시키는 것이다.In other words, when the fog is thicker than the standard by the fog sensor, the laser sensor and the ultrasonic sensor attached to the surface of the ship are operated to prevent collision. In this case, the laser sensor classifies the ships within 100m, Is considered to be collided when the other ship is detected by the laser sensor and when the other ship is detected by the ultrasonic sensor, it is considered that the collision occurs in the direction opposite to the direction of the other ship It is to turn the ship in an emergency.
상기 조향장치 제어부는 레이저 센서와 초음파 센서의 결과값을 비교 검토하여 충돌 위험이 기준이상인 경우에는 조향장치 및 기동 스크류를 구동하여 타선박과의 충돌을 미연에 방지하도록 한다.
The steering device control unit compares the result values of the laser sensor and the ultrasonic sensor, and controls the steering device and the starting screw to prevent collision with other ships if the collision risk is higher than the reference value.
한편, 증강현실을 이용한 선박 항법 시스템(10)은 실제 영상 즉, 카메라 모듈(130)로부터의 실제영상에 전자해도로부터 사용자 선택에 따라 추출된 해양정보를 중첩하여 표시한다. 여기서, 해양정보는 항로정보, 지형지물정보, 위험지역정보, 암초 정보나, 수심 정보 등이며, 본 발명의 실시예에 따른 시스템(10)은 이러한 해양정보를 사용자의 선택에 따라 추출하여 표시한다.On the other hand, the
도 6을 참고하면, 증강현실을 이용한 선박 항법 시스템(10)은 기저장된 증강현실 시스템용 전자해도(SENC)의 파일을 연다(Open)(S10). 여기서, 증강현실 시스템용 전자해도는 증강현실 처리가능한 자료구조로 구성된 전자해도일 수 있다.Referring to FIG. 6, the
이어서, 증강현실을 이용한 선박 항법 시스템(10)은 증강현실 시스템용 전자해도를 메모리에 불러온다(S20).Then, the
그 다음으로, 증강현실을 이용한 선박 항법 시스템(10)은 GPS 정보와 자이로 컴파스의 방위정보를 이용하여 일선박의 현 위치를 파악한다(S30).Next, the
그리고, 증강현실을 이용한 선박 항법 시스템(10)은 사용자의 선택에 따라 증강현실 처리되어 표시될 항목을 확인하고, 증강현실 시스템용 전자해도로부터 표시될 항목의 해양정보를 추출하며, 주변 선박으로부터 표시될 항목의 운항정보를 추출한다(S40). 여기서, 해양정보는 항로정보, 지형지물정보, 위험지역정보, 암초 정보나, 수심 정보 등일 수 있으며, 운항정보는 해당 선박의 속력, 침로나, 위치 등일 수 있다.In addition, the
증강현실을 이용한 선박 항법 시스템(10)은 추출한 해양정보와 운항정보를 기설정된 모양의 해양정보 이미지와 운항정보 이미지로 각각 변환한다(S50). 상세하게는, 증강현실을 이용한 선박 항법 시스템(10)은 사용자의 편의를 위해 수치로 표현된 해양정보와 운항정보를 기설정된 모양의 해양정보 이미지와 운항정보 이미지로 영상화하고, 해양정보 이미지와 운항정보 이미지에 대해 위치좌표(즉, 해당 해양정보의 영상이 표시될 위치좌표)를 부여한다.The
증강현실을 이용한 선박 항법 시스템(10)은 해양정보 이미지와 운항정보 이미지가 실제 영상과 대응되는 위치에 표시될 수 있도록, 해양정보 이미지와 운항정보 이미지의 위치좌표와 현 위치의 위도와 경도를 맵핑(Mapping)한다(S60).The
증강현실을 이용한 선박 항법 시스템(10)은 해양정보 이미지와 운항정보 이미지가 실제 영상에 대응하여 위치할 수 있도록, 증강현실 처리를 수행하여 증강현실 처리된 영상을 출력한다(S70). 여기서, 증강현실을 이용한 선박 항법 시스템(10)은 주변 선박의 운항정보를 표시함에 있어서, 거리에 따라 운항정보 이미지의 크기를 변화시켜 원근감 있게 표시할 수 있다.The
증강현실 처리된 영상을 표시하기에 앞서, 증강현실을 이용한 선박 항법 시스템(10)은 일 선박이 기설정된 거리이상으로 이동하였는지를 확인한다(S80). 여기서, 기설정된 거리는 일 선박이 주변 선박으로부터 AIS 정보를 제공받을지 여부를 판단하는 거리, 다시 말해 주변 선박이라고 판단하기 위한 임계거리일 수 있다.Before displaying the augmented reality processed image, the
증강현실을 이용한 선박 항법 시스템(10)은 일 선박이 이동하였더라도 그 이동거리가 기설정된 거리 이내이면, 증강현실 처리된 영상을 표시한다(S90).The
증강현실을 이용한 선박 항법 시스템(10)은 목적지에 도착하거나 안내 종료 명령이 입력되기 전까지 (S30) 내지 (S90) 단계를 반복적으로 수행한다.The
반면, 증강현실을 이용한 선박 항법 시스템(10)은 일 선박이 기설정된 거리 이상으로 이동하였으면, (S30)의 단계를 통해 일 선박의 현 위치를 재인식한다.On the other hand, if the
한편, 기준이상의 안개가 낀 상황이면(S100) 레이저 센서 및 초음파 센서를 가동하여(S110) 타선박의 위치를 파악하고, 증강현실 처리 기법을 통해 모니터에 영상을 표시한다.On the other hand, if the fog is higher than the standard (S100), the laser sensor and the ultrasonic sensor are operated (S110) to determine the position of another ship, and an image is displayed on the monitor through the augmented reality processing technique.
즉, 안개가 짙은 상황에서는 타선박이 카메라에 포착되지 않기 때문에 레이저 센서 및 초음파 센서를 이용하여 타선박을 표시하며, 타선박이 기준이하의 거리로 돌진할 때에는 본선박을 회피기동하여 충돌을 줄이거나 파손부위를 최소화시키면서 충돌될 수 있도록 한다(S120).In other words, when the fog is heavy, the other ship is not caught by the camera. Therefore, the other ship is displayed using the laser sensor and the ultrasonic sensor. When the other ship rushes below the reference distance, So that the collision can be performed while minimizing the damage site (S120).
그리고, 상기 충돌상황을 증강현실과 더불어서 모두 메모리하여 사고 원인 규명등에 만전을 기할 수 있도록 한다(S130).In addition, the collision situation is memorized together with the augmented reality so that the cause of the accident can be fully recovered (S130).
이와 같이, 본 발명은 증강현실을 통해 예측하기 어려운 해양환경에서 위험요소나 주변상황에 대한 해양정보를 현실감 있게 제공할 수 있어, 해양정보의 인지도를 높일 수 있다.As described above, the present invention can realistically provide marine information about a dangerous element or a surrounding situation in a marine environment that is difficult to predict through the augmented reality, and can increase the awareness of marine information.
뿐만 아니라, 본 발명은 현실감 높은 해양정보의 제공을 통해, 운항자의 안전운항을 유도함으로써 선박 사고를 줄일 수 있고, 나아가 선박사고로 인한 인명손실과 재산상의 손해를 줄일 수 있다.In addition, the present invention can reduce the accident of the ship by inducing the safety operation of the operator through providing realistic marine information, and can further reduce the loss of life and property damage due to the accident of the ship.
더 나아가, 본 발명은 운항자에게 육안으로 식별할 수 있는 바다 위의 상황과, 바다 아래쪽의 항해에 영향을 줄수 있는 요인들을 함께 제공할 수 있는 총체적인 해상안전 안내서비스를 지원하여 선박의 안전운항에 기여할 수 있다.
Further, the present invention provides a comprehensive maritime safety guidance service that can provide the operator with visually identifiable conditions on the sea and factors that can affect the navigation below the sea, You can contribute.
10: 선박 항법 시스템 110: 위치감지 모듈
120: AIS(Automatic Identification System) 모듈
130: 카메라 모듈 140: 전자해도 제공모듈
150: 센서모듈 160: 중앙처리 모듈
170: 표시모듈10: Ship navigation system 110: Position sensing module
120: Automatic Identification System (AIS) module
130: camera module 140: electronic chart providing module
150: sensor module 160: central processing module
170: Display module
Claims (6)
선박자동식별 장치라고도 불리며, 해상에서 선박 간의 충돌을 방지하기 위하여, 일 선박의 운항정보를 주변의 다른 선박에 제공하며, 또한 주변 선박으로부터 그의 운항정보를 실시간으로 제공받는 AIS모듈(120)과;
일 선박의 전방, 측방이나, 후방에서 일 선박의 주변 영상을 촬영하여 사용자 선택에 따른 방향의 실제 영상을 출력하는 카메라 모듈(130)과;
선박의 항해와 관련된 정보인 항해정보를 포함하는 증강현실 처리가능한 자료구조의 증강현실 시스템용 전자해도를 저장하는 전자해도 제공모듈(140)과;
선박의 외부에 설치되는 안개센서와, 레이저 센서와, 초음파 센서로 이루어져 안개상황과, 외부 선박 감지 정보를 출력하며, 안개가 기준이상 짙게 낄 경우에는 카메라로 외부 선박을 파악하기 어려우므로 레이저 센서와 초음파 센서를 가동하여 외부 선박을 파악토록 유도하기 위한 센서 모듈(150)과;
실제 영상에 증강현실 시스템용 전자해도로부터의 항해정보와 다른 선박의 운항정보를 증강현실 처리하고, 그 결과 증강현실 처리된 영상을 출력하는 중앙 처리 모듈(160)과;
TFT LCD로 구성되어, 중앙 처리 모듈(150)로부터 제공받은 증강현실 처리된 영상을 표시하는 표시모듈(170)로 이루어지고;
상기 중앙처리 모듈(160)은 데이터 수신부(161)와, 충돌위험값 연산부(162)와, 조향장치 제어부(163)로 이루어지되;
상기 충돌위험값 연산부(162)는 안개 센서와 레이저 센서 및 초음파 센서로부터 데이터를 입력받으며, 안개 센서와 레이저 센서 및 초음파 센서의 데이터로부터 외부 상황을 파악하는바, 안개 상황에서는 선박의 충돌가능성이 높은 것으로 판단하고, 레이저 센서에 의해서 측정한 장애물과의 거리에 따라서 선박의 조타각도 및 움직여야할 선박의 속도를 연산하고;
상기 조향장치 제어부(163)는 레이저 센서와 초음파 센서의 결과값을 비교 검토하여 충돌 위험이 기준이상인 경우에는 조향장치 및 기동 스크류를 구동하도록 구성된 것을 특징으로 하는 증강현실을 이용한 선박 충돌 방지 겸용 선박 사고 기록 시스템.
A position sensing module 110 for recognizing a current position of a ship to which a ship navigation system 10 using an augmented reality is applied by applying trigonometry to time and distance signals received from a plurality of GPS satellites;
An AIS module 120 which is also referred to as an automatic ship identification device and which provides the navigation information of one ship to other marine vessels in order to prevent collision between marine vessels at sea and also receives its navigation information from surrounding ships in real time;
A camera module 130 for photographing a peripheral image of a ship at the front, side, and rear of a ship and outputting an actual image in a direction of user selection;
An electronic chart providing module (140) for storing an electronic chart for an augmented reality system of a data structure capable of processing an augmented reality including navigation information which is information related to navigation of a ship;
It is composed of a fog sensor installed on the outside of the ship, a laser sensor, and an ultrasonic sensor to output fog situation and external ship detection information. If the fog is thicker than the standard, it is difficult to grasp the external ship with the camera. A sensor module (150) for operating the ultrasonic sensor to guide the external ship to be grasped;
A central processing module (160) for processing the augmented reality information of navigation information from an electronic chart for an augmented reality system and navigation information of another vessel on an actual image, and outputting an augmented reality processed image as a result;
And a display module 170 composed of a TFT LCD and displaying an augmented reality processed image provided from the central processing module 150;
The central processing module 160 includes a data receiving unit 161, a collision risk value calculating unit 162, and a steering device control unit 163;
The collision risk value calculator 162 receives data from the fog sensor, the laser sensor, and the ultrasonic sensor, and grasps the external situation from the data of the fog sensor, the laser sensor, and the ultrasonic sensor. In the fog situation, Calculate the steering angle of the ship and the speed of the ship to be moved according to the distance from the obstacle measured by the laser sensor;
The steering device controller 163 is configured to compare the results of the laser sensor and the ultrasonic sensor and to operate the steering device and the starting screw when the risk of collision is higher than the reference value. Recording system.
상기 데이터 수신부에서 수신하는 데이터는 AIS(Automatic Identification System) 데이터 또는 ECDIS(Electronic Chart Display and Information System) 데이터 중 적어도 어느 하나의 데이터인 것을 특징으로 하는 증강현실을 이용한 선박 충돌 방지 겸용 선박 사고 기록 시스템.The method according to claim 1,
Wherein the data received by the data receiving unit is at least one of AIS (Automatic Identification System) data and ECDIS (Electronic Chart Display and Information System) data.
상기 AIS 데이터에는 선박의 길이, 선박의 중량, 선박의 속력 및 선박 간의 거리 데이터가 포함되고, 상기 ECDIS 데이터에는 지형장애물의 면적 및 지형장애물과의 거리 데이터가 포함되는 것을 특징으로 하는 증강현실을 이용한 선박 충돌 방지 겸용 선박 사고 기록 시스템.
3. The method of claim 2,
Wherein the AIS data includes the length of the ship, the weight of the ship, the speed of the ship, and the distance data between the ships, and the ECDIS data includes the area of the terrain obstacle and the distance data with the terrain obstacle. Ship Accident Recording System for Ship Collision Prevention.
실제 영상에 증강현실 시스템용 전자해도로부터의 항해정보와 다른 선박의 운항정보를 증강현실 처리하고, 그 결과 증강현실 처리된 영상을 출력하는 단계와;
안개센서와, 레이저 센서와, 초음파 센서로 이루어져 안개상황과, 외부 선박 감지 정보를 출력하는 선박 외부 센싱단계와;
안개 상황이면 레이저 센서를 가동하여 다른 선박과의 거리를 감안하여 선박을 움직이도록 지령하며, 초음파 센서에 의해서 타선박이 검출되면 충돌을 피할 수 없는 상태이므로 회피기동하여 타선박의 정면과 본선박의 측면이 충돌하지 않토록 본선박을 긴급 회전시키는 단계와;
증강현실된 영상과 센서의 출력 데이터와 선박 충돌사고 순간을 메모리하는 단계로 이루어짐을 특징으로 하는 증강현실을 이용한 선박 충돌 방지 겸용 선박 사고 기록 방법.
A data receiving step of receiving data on a plurality of other ships and the terrain obstacles located within a range of the reference vessel;
Processing the augmented reality information of navigation information from an electronic chart for an augmented reality system and navigation information of another vessel on an actual image and outputting an augmented reality processed image as a result;
A ship external sensing step of outputting a fog situation and external ship detection information, which are composed of a fog sensor, a laser sensor and an ultrasonic sensor;
In case of fog situation, it operates the laser sensor to instruct the ship to move considering the distance from other ship. If another ship is detected by the ultrasonic sensor, collision can not be avoided. Urgently rotating the ship so that the sides do not collide;
And a step of memorizing the output data of the augmented reality image and the sensor, and the moment of collision of the ship, and a method for recording the accident accident of a ship using the augmented reality.
상기 데이터는 AIS 데이터 또는 ECDIS 데이터 중 적어도 어느 하나의 데이터인 것을 특징으로 하는 증강현실을 이용한 선박 충돌 방지와 선박 사고 기록 방법.
5. The method of claim 4,
Wherein the data is at least one of AIS data and ECDIS data.
상기 AIS 데이터에는 선박의 길이, 선박의 중량, 선박의 속력 및 선박 간의 거리 데이터가 포함되고, 상기 ECDIS 데이터에는 지형장애물의 면적 및 지형장애물과의 거리 데이터가 포함되는 것을 특징으로 하는 증강현실을 이용한 선박 충돌 방지 겸용 선박 사고 기록 방법.6. The method of claim 5,
Wherein the AIS data includes the length of the ship, the weight of the ship, the speed of the ship, and the distance data between the ships, and the ECDIS data includes the area of the terrain obstacle and the distance data with the terrain obstacle. Vessel accident recording method combined with ship collision prevention.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150049602A KR101549513B1 (en) | 2015-04-08 | 2015-04-08 | System and Method for Preventing Collision of Vessel and Recording using Augmented Reality |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150049602A KR101549513B1 (en) | 2015-04-08 | 2015-04-08 | System and Method for Preventing Collision of Vessel and Recording using Augmented Reality |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101549513B1 true KR101549513B1 (en) | 2015-09-03 |
Family
ID=54247031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150049602A KR101549513B1 (en) | 2015-04-08 | 2015-04-08 | System and Method for Preventing Collision of Vessel and Recording using Augmented Reality |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101549513B1 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110718096A (en) * | 2019-09-12 | 2020-01-21 | 广州中交通信有限公司 | Bridge collision early warning system and early warning method |
CN111391994A (en) * | 2020-04-23 | 2020-07-10 | 武汉欣海远航科技研发有限公司 | Intelligent sensing navigation mark equipment and early warning method thereof |
KR102138817B1 (en) * | 2019-12-31 | 2020-07-28 | 주식회사 삼우이머션 | Digital content for ship disaster safety training |
KR102249156B1 (en) * | 2020-07-07 | 2021-05-07 | (주)맵시 | Sailing assistance device using augmented reality image |
KR102267711B1 (en) * | 2020-06-24 | 2021-06-22 | (주)맵시 | Sailing assistance device using 3d image |
KR102283968B1 (en) * | 2020-11-27 | 2021-07-30 | 한국해양과학기술원 | System and method for generating and sharing visibility observation information based on image learning |
KR102332696B1 (en) | 2021-06-09 | 2021-12-01 | (주)생존수영교육연구소 | Training Method for Ship Accident Response using Virtual Reality |
WO2021261810A1 (en) * | 2020-06-24 | 2021-12-30 | 주식회사 맵시 | Navigation assistance device using augmented reality and 3d images |
KR102513148B1 (en) | 2021-12-31 | 2023-03-23 | 주식회사 메타에듀시스 | Training Method for negligent accident Response using Virtual Reality |
CN116612668A (en) * | 2023-06-09 | 2023-08-18 | 大连海事大学 | Automatic collision avoidance algorithm for water area ships in lane navigation based on improved APF |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101288953B1 (en) | 2013-03-14 | 2013-07-23 | 주식회사 엠시스템즈 | Black box system for leisure vessel |
-
2015
- 2015-04-08 KR KR1020150049602A patent/KR101549513B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101288953B1 (en) | 2013-03-14 | 2013-07-23 | 주식회사 엠시스템즈 | Black box system for leisure vessel |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110718096A (en) * | 2019-09-12 | 2020-01-21 | 广州中交通信有限公司 | Bridge collision early warning system and early warning method |
KR102138817B1 (en) * | 2019-12-31 | 2020-07-28 | 주식회사 삼우이머션 | Digital content for ship disaster safety training |
CN111391994A (en) * | 2020-04-23 | 2020-07-10 | 武汉欣海远航科技研发有限公司 | Intelligent sensing navigation mark equipment and early warning method thereof |
KR102267711B1 (en) * | 2020-06-24 | 2021-06-22 | (주)맵시 | Sailing assistance device using 3d image |
WO2021261810A1 (en) * | 2020-06-24 | 2021-12-30 | 주식회사 맵시 | Navigation assistance device using augmented reality and 3d images |
KR102249156B1 (en) * | 2020-07-07 | 2021-05-07 | (주)맵시 | Sailing assistance device using augmented reality image |
KR102283968B1 (en) * | 2020-11-27 | 2021-07-30 | 한국해양과학기술원 | System and method for generating and sharing visibility observation information based on image learning |
KR102332696B1 (en) | 2021-06-09 | 2021-12-01 | (주)생존수영교육연구소 | Training Method for Ship Accident Response using Virtual Reality |
KR102513148B1 (en) | 2021-12-31 | 2023-03-23 | 주식회사 메타에듀시스 | Training Method for negligent accident Response using Virtual Reality |
CN116612668A (en) * | 2023-06-09 | 2023-08-18 | 大连海事大学 | Automatic collision avoidance algorithm for water area ships in lane navigation based on improved APF |
CN116612668B (en) * | 2023-06-09 | 2024-02-06 | 大连海事大学 | Automatic collision avoidance algorithm for water area ships in lane navigation based on improved APF |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101549513B1 (en) | System and Method for Preventing Collision of Vessel and Recording using Augmented Reality | |
KR101683274B1 (en) | System for supporting vessel berth using unmanned aerial vehicle and the method thereof | |
KR20110116842A (en) | Electronic navigational chart display method of vessels navigation system using augmented reality | |
US11892298B2 (en) | Navigational danger identification and feedback systems and methods | |
KR101693981B1 (en) | Apparatus and method for vessel collision avoidance | |
US20210206459A1 (en) | Video sensor fusion and model based virtual and augmented reality systems and methods | |
JP5000244B2 (en) | Docking support device and ship equipped with the same | |
US20200369351A1 (en) | Marine docking and object awareness system | |
CN111373283A (en) | Real-time monitoring of the surroundings of a marine vessel | |
JP5102886B2 (en) | Image display system, image display method, and program | |
KR101693982B1 (en) | Apparatus and method for vessel collision avoidance | |
KR102007849B1 (en) | System and method for supporting ship entering and leaving port using 3d lidar mounted on unmanned aerial vehicle | |
US10518851B2 (en) | Undersea compass and pitch indicator | |
JP6942675B2 (en) | Ship navigation system | |
JP7386041B2 (en) | Ship maneuvering support system and method | |
CN111357281B (en) | Video generating device and video generating method | |
JP2022173157A (en) | Tidal current information display device | |
JP2022173147A (en) | Tide information display device | |
EP4047312A1 (en) | Augmented reality based tidal current display device | |
US20220026218A1 (en) | Head mounted display system | |
US11808579B2 (en) | Augmented reality based tidal current display apparatus and method | |
KR102464212B1 (en) | Augmented reality system for ships using omnidirectional cameras | |
EP4047313B1 (en) | Tidal current information display device | |
WO2024053524A1 (en) | Navigation assistance device and navigation assistance method | |
KR20240030736A (en) | Operating system for ship |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180611 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20190820 Year of fee payment: 5 |