[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102725597B1 - 무인 항공기와 통신하는 차량용 인포테인먼트 시스템 및 그 작동 방법 - Google Patents

무인 항공기와 통신하는 차량용 인포테인먼트 시스템 및 그 작동 방법 Download PDF

Info

Publication number
KR102725597B1
KR102725597B1 KR1020190043763A KR20190043763A KR102725597B1 KR 102725597 B1 KR102725597 B1 KR 102725597B1 KR 1020190043763 A KR1020190043763 A KR 1020190043763A KR 20190043763 A KR20190043763 A KR 20190043763A KR 102725597 B1 KR102725597 B1 KR 102725597B1
Authority
KR
South Korea
Prior art keywords
vehicle
uav
information
location
coordinates
Prior art date
Application number
KR1020190043763A
Other languages
English (en)
Other versions
KR20200010994A (ko
Inventor
쉬브샤라드 디먼
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2019/008237 priority Critical patent/WO2020013525A1/en
Priority to US16/508,914 priority patent/US11361661B2/en
Publication of KR20200010994A publication Critical patent/KR20200010994A/ko
Application granted granted Critical
Publication of KR102725597B1 publication Critical patent/KR102725597B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0033Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by having the operator tracking the vehicle either by direct line of sight or via one or more cameras located remotely from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/04Landing aids; Safety measures to prevent collision with earth's surface
    • B64D45/08Landing aids; Safety measures to prevent collision with earth's surface optical
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Abstract

다양한 실시예에 따른, 차량의 차량용 인포테인먼트(in-vehicle infotainment: IVI) 시스템에 의하여 수행되는 방법은: 상기 차량의 아웃-오브-사이트 뷰(out-of-sight view)를 확인하는 동작; 상기 UAV로부터 상기 확인된 아웃-오브-사이트 뷰에 관련된 정보를 수신할 필요가 있다고 확인하는 동작; 상기 차량의 현재 위치 및 미래 위치에서의 환경 조건을 기반으로, 상기 UAV를 위치시키기 위한 상기 확인된 아웃-오브-사이트 뷰 상의 좌표를 확인하는 동작; 상기 UAV에 상기 좌표를 나타내는 신호를 송신하는 동작; 및 상기 좌표에 위치한 상기 UAV로부터 상기 확인된 아웃-오브-사이트 뷰에 관련된 상기 정보를 수신하는 동작을 포함할 수 있다. 그 밖의 다양한 실시예가 가능하다.

Description

무인 항공기와 통신하는 차량용 인포테인먼트 시스템 및 그 작동 방법{IN-VEHICLE INFOTAINMENT SYSTEM COMMUNICATING WITH UNMANNED ARIEL VEHICLE AND METHOD OF OPERATING THE SAME}
본 발명은 무인 항공기(Unmanned Ariel Vehicle: UAV)와 통신하는 차량용 인포테인먼트(In-vehicle Infotainment: IVI) 시스템에 관한 것이다.
현대의 차량에서, 운전자는 상기 운전자가 속도, 스티어링, 장애물 및 위험 인식 및 그 방지를 포함하는, 상기 차량의 안전 동작을 지시하는 많은 결정들을 하기 때문에 상기 차량의 제어 시스템의 중요한 컴포넌트로 남게 된다. 그러나, 이러한 모든 기능들을 수행하는 상기 운전자의 능력은 상기 운전자가 위험을 성공적으로 방지하기 위해 필요로 되는 리앤션 시간을 줄이는 가시성과 같은 특정 팩터들로 인해 위태로워질 수 있다. 급속하게 성장하고 있는 기술들 중의 하나는 자율 주행 차량들이며, 이는 도로 안전 측면에서 밝은 전망을 나타낸다. 도로 트래픽 안전은 도로 사용자들이 사망하거나 혹은 심각한 부상을 입지 않도록 하는 방법들 및 조치들을 나타낸다. 일반적인 도로 사용자들은 보행자들, 자전거를 타는 사람들, 운전자들, 차량 승객들, 말의 기수들 및 대중 교통의 승객들을 포함한다. 사람들이 도로들 및 차량을 안전하게 하기 위해 열심히 노력하고 있을 지라도, 도로 사고 케이스들의 수가 매년 증가하고 있다. 조사 결과들은 사고 케이스들이 매년 증가하고 있기 때문에 미래에 대한 어떤 좋은 지표도 나타내고 있지 못하다. 따라서, 생명 및 재산 피해를 방지하기 위해 도로 안전 기술들에 대해서 적극적으로 노력하는 것이 필요로 된다.
첨단 운전자 지원 시스템들(Advanced driver assistance systems: ADAS)은 안전 및 보다 나은 주행을 위해 차량 시스템들을 자동화/적응/향상시키기 위해 개발된 것이다. 안전 기능들은 상기 운전자에게 잠재적인 문제점들을 경고하는 기술들을 제공함으로써 충돌들 및 사고들을 방지하거나 혹은 보호 장치들을 구현하거나 혹은 상기 차량의 제어를 통해 충돌들을 방지하기 위해 설계된 것이다. 적응적 기능들은 조명을 자동화하고, 적응적 크루즈 제어를 제공하고, 제동을 자동화하고, GPS/교통 경고들을 통합하고, 스마트 폰들에 연결하고, 운전자에게 다른 차량들이나 혹은 위험 대상들을 경고하고, 상기 운전자가 정확한 차선에 있도록 유지하거나, 혹은 사각 지대들에 무엇이 존재하는지 보여줄 수 있다.
위험 주행 조건들을 인식하는 것이 안전 주행 경험의 가능성을 향상시키는데 도움이 될 수 있다. 하지만, 운전자들은 보통 운전자들에게 다가오는 주행 위험들을 경고하지 않는 네비게이션 안내 시스템들에 의존한다. 많은 차량들이 변경되는 조건들을 검출하는 센싱 디바이스들을 포함하고 있다고 할지라도, 상기 센싱 디바이스들은 운전자가 접근하고 있는 도로 구간과 연관되는 조건들보다는 현재의 조건들을 평가하는데 가장 적합할 수 있다. 일 예로, 도 1A에서는 상기 도로의 다른 사이드에 장애물이 존재하는지 여부를 판단할 수 없는 사각 지대에 존재하는 차량을 도시하고 있다. 다른 예로, 도 1B에 도시되어 있는 바와 같이 2개의 차량들은 동일한 차선에서 이동하고 있는 중이다. 높은 속도로 회전하는 후방의 차량에서는, 상기 운전자가 판단하는 기회들이 매우 많거나, 혹은 센서들이 상기 전방의 차량을 적합한 시간에 검출하지 못하며, 따라서 충돌이 발생할 것이다.
종래 기술 분야에 대한 많은 도전 과제들이 존재한다. 일 예로, 주로 자율 차량들에서 유용한 센서들을 기반으로 하는 상기 자율 차량들의 케이스에서는, 센서 엘리먼트의 기능 불량으로 인해, 상기 차량은 사고들을 내기 쉬운 경향이 있다. 추가적으로, 이런 센서들 중 대부분은 라인-오브-사이트(line-of-sight)를 기반으로 동작하며, 따라서 명확한 가시성의 부재 시에는, 주변 정보가 상기 차량에 대해 정시에 유용하지 않게 되고 따라서 치명적인 사고들을 초래한다. 수동 주행 차량들의 케이스에서는, 인적 에러들, 가시성으로부터의 범위, 인식, 주행 동안의 포커스 등으로 인해 발생하는 많은 사고들이 존재하게 된다. 상기와 같은 측면에서, 종래 기술에서는 상기에서 설명된 바와 같은 제한을 처리하고 무인 항공기(Unmanned Ariel Vehicle: UAV) 및/혹은 차량용 인포테인먼트(In-vehicle Infotainment: IVI) 시스템을 사용하여 차량 안내 시스템을 제공하는 것에 대한 필요성 존재한다.
본 발명의 일 측면은 적어도 상기에서 설명한 바와 같은 문제점들 및/혹은 단점들을 해결하고 적어도 하기에서 설명되는 바와 같은 이점들을 제공하기 위한 것에 있다.
본 발명은 사고 유발 도로 행동을 방지하기 위해 확실하게 사전 경고 및 안내를 제공할 도로 안전 방법을 위한 것이다. 상기 제안된 아이디어는 유인 및 무인/자율 차량들 둘 다에 대해 적용 가능하다.
다양한 실시예에 따라서, 차량의 차량용 인포테인먼트(in-vehicle infotainment: IVI) 시스템에 의하여 수행되는 방법은: 상기 차량의 아웃-오브-사이트 뷰(out-of-sight view)를 확인하는 동작; 상기 UAV로부터 상기 확인된 아웃-오브-사이트 뷰에 관련된 정보를 수신할 필요가 있다고 확인하는 동작; 상기 차량의 현재 위치 및 미래 위치에서의 환경 조건을 기반으로, 상기 UAV를 위치시키기 위한 상기 확인된 아웃-오브-사이트 뷰 상의 좌표를 확인하는 동작; 상기 UAV에 상기 좌표를 나타내는 신호를 송신하는 동작; 및 상기 좌표에 위치한 상기 UAV로부터 상기 확인된 아웃-오브-사이트 뷰에 관련된 상기 정보를 수신하는 동작을 포함할 수 있다.
다양한 실시예에 따라서, 차량과 통신하는 무인 항공기(unmanned aerial vehicle, UAV)에 의하여 수행되는 방법은: 상기 차량의 차량용 인포테인먼트(in-vehicle infotainment: IVI) 시스템으로부터, 상기 차량의 아웃-오브-사이트 뷰(out-of-sight view) 상의 좌표를 나타내는 신호를 수신하는 동작; 상기 좌표로 이동하는 동작; 상기 차량의 상기 아웃-오브-사이트 뷰에 관련된 정보를 확인하는 동작; 및 상기 차량의 상기 아웃-오브-사이트 뷰에 관련된 상기 정보를 상기 IVI 시스템에 송신하는 동작을 포함할 수 있다.
다양한 실시예에 따라서, 차량의 차량용 인포테인먼트(in-vehicle infotainment: IVI) 시스템은: 적어도 하나의 프로세서; 및 통신 모듈을 포함하고, 상기 적어도 하나의 프로세서는: 상기 차량의 아웃-오브-사이트 뷰(out-of-sight view)를 확인하고; UAV로부터 상기 확인된 아웃-오브-사이트 뷰에 관련된 정보를 수신할 필요가 있다고 확인하고; 상기 차량의 현재 위치 및 미래 위치에서의 환경 조건을 기반으로, 상기 UAV를 위치시키기 위한 상기 확인된 아웃-오브-사이트 뷰 상의 좌표를 확인하고; 상기 통신 모듈을 통하여, 상기 UAV에 상기 좌표를 나타내는 신호를 송신하고; 및 상기 통신 모듈을 통하여, 상기 좌표에 위치한 상기 UAV로부터 상기 확인된 아웃-오브-사이트 뷰에 관련된 상기 정보를 수신하도록 설정될 수 있다.
다양한 실시예에 따라서, 차량과 통신하는 무인 항공기(unmanned aerial vehicle, UAV)는: 적어도 하나의 프로세서; 및 통신 모듈을 포함하고, 상기 적어도 하나의 프로세서는: 상기 통신 모듈을 통하여, 상기 차량의 차량용 인포테인먼트(in-vehicle infotainment: IVI) 시스템으로부터, 상기 차량의 아웃-오브-사이트 뷰(out-of-sight view) 상의 좌표를 나타내는 신호를 수신하고; 상기 좌표로 이동하도록 상기 UAV를 제어하고; 상기 차량의 상기 아웃-오브-사이트 뷰에 관련된 정보를 확인하고; 및 상기 통신 모듈을 통하여, 상기 차량의 상기 아웃-오브-사이트 뷰에 관련된 상기 정보를 상기 IVI 시스템에 송신하도록 설정될 수 있다.
다양한 실시예에 따라서, 적어도 하나의 연합 보조 차량과 통신하는 기본 차량에서 수행되는 방법은: 상기 적어도 하나의 보조 차량으로부터, 상기 적어도 하나의 보조 차량에 의하여 확인된, 상기 기본 차량에 대하여 아웃-오브 사이트(out-of-sight)들인 도로 장애물의 위치를 수신하는 동작; 상기 적어도 하나의 보조 차량으로부터 수신된 상기 도로 장애물의 위치에 기초하여, 사고를 예방하기 위한 상기 기본 차량의 위치 및 속도를 확인하는 동작을 포함할 수 있다.
다양한 실시예에 따라서, 제1 차량의 차량용 인포테인먼트(in-vehicle infotainment: IVI) 시스템에 의하여 수행되는 방법은: 상기 제1 차량의 아웃-오브-사이트 뷰(out-of-sight view) 정보를 확인하는 동작; 제2 차량의 IVI 시스템에 연결 요청을 송신하는 동작; 상기 제2 차량의 상기 IVI 시스템과의 연결이 설립된 후, 상기 제2 차량의 상기 IVI 시스템에 상기 제1 차량의 라인-오브-사이트 뷰(line-of-sight view) 정보를 송신하는 동작; 상기 제2 차량의 상기 IVI 시스템으로부터, 상기 제2 차량의 라인-오브-사이트 뷰 정보를 수신하는 동작; 상기 제2 차량에 대한 상기 라인-오브-사이트 뷰 정보 및 상기 제1 차량의 라인-오브-사이트 뷰 정보에 기초하여, 상기 제1 차량의 상기 아웃-오브-사이트 뷰에 대한 정보를 확인하는 동작; 상기 제1 차량의 상기 아웃-오브-사이트 뷰에 대한 상기 정보에 기초하여, 상기 제1 차량을 위한 네비게이션 경로를 확인하는 동작을 포함할 수 있다.
본 발명의 다른 측면들과, 이득들 및 중요한 특징들은 부가 도면들과 함께 처리되고, 본 발명의 바람직한 실시 예들을 개시하는, 하기의 구체적인 설명으로부터 해당 기술 분야의 당업자에게 명백할 것이다.
본 발명은 사고 유발 도로 행동을 방지하기 위해 확실하게 사전 경고 및 안내를 제공할 도로 안전 방법을 제공한다.
본 발명의 특정한 바람직한 실시예들의 상기에서 설명한 바와 같은 또한 다른 측면들과, 특징들 및 이득들은 첨부 도면들과 함께 처리되는 하기의 설명으로부터 보다 명백하게 될 것이다:
도 1A는 차량이 사각 지대로 향하고 있고, 상기 도로의 다른 사이드에 장애물이 존재하는지 여부를 판단할 수 없는 종래 기술 뷰(view)를 도시하고 있다.
도 1B는 2개의 차량들이 아웃-오브-뷰(out-of-view) 경로를 통해 동일한 차선을 주행하고 있는 다른 종래 기술 뷰를 도시하고 있다.
도 2는 본 발명의 일 실시 예에 따른, 무인 항공기(Unmanned Ariel Vehicle: UAV)가 실시간 데이터를 차량용 인포테인먼트(In-Vehicle infotainment: IVI) 시스템에 제공하는 시나리오를 도시하고 있다.
도 3은 본 발명의 일 실시 예에 따른, 무인 항공기(Unmanned Ariel Vehicle: UAV)를 포지셔닝함으로써 경로에서 차량의 네비게이션 지원을 가능하게 하는 방법의 플로우 차트를 도시하고 있다.
도 4는 본 발명의 일 실시 예에 따른, 차량의 현재 및 미래 위치의 식별의 도식적 표현을 도시하고 있다.
도 5는 본 발명의 일 실시 예에 따른, 상기 차량의 현재 위치 및 미래 위치를 계산하기 위해 상기 경로 동안 다른 차량을 추월하는 동안의 시나리오의 도식적 표현을 도시하고 있다.
도 6은 본 발명의 일 실시 예에 따른, 환경 조건들, 현재 및 미래 위치를 기반으로 UAV의 초기 위치를 계산하는 도식적 표현을 도시하고 있다.
도 7a, 7b, 7c, 7d 및 7e는 본 발명의 일 실시 예에 따른, 상기 주행 동안 상기 차량을 지원하는 동안의 UAV 재포지셔닝의 도식적 표현을 도시하고 있다.
도 8은 본 발명의 일 실시 예에 따른, 2개의 차량들과 연결함으로써 모니터링에 도움을 주는 UAV의 도식적 표현을 도시하고 있다.
도 9는 본 발명의 일 실시 예에 따른, UAV와 차량의 시스템 아키텍쳐 블록 다이아그램을 도시하고 있다.
도 10은 본 발명의 일 실시 예에 따른, 적어도 하나의 연합 보조 차량들을 통해 기본 차량에 대한 네비게이션 지원을 가능하게 하는 방법의 플로우 차트를 도시하고 있다.
도 11은 본 발명의 일 실시 예에 따른, 연결된 차량들을 사용하여 상기 차량의 현재 및 미래 위치를 획득하기 위한 도식적 표현을 도시하고 있다.
도 12는 본 발명의 일 실시 예에 따른, 차량용 인포테인먼트(in-vehicle infotainment: IVI) 유닛을 통해 연결되는 2개의 차량들, 즉 제1 차량 및 제2 차량간의 경로 상에서 네비게이션 지원을 가능하게 하는 방법의 플로우 차트를 도시하고 있다.
도 13은 본 발명의 일 실시 예에 따른, 연결된 차량들을 사용하여 상기 차량의 현재 및 미래 위치를 획득하기 위한 다른 시나리오에서의 도식적 표현을 도시하고 있다.
해당 기술 분야의 당업자들은 상기 도면들에 포함되어 있는 엘리먼트들이 오직 간략성 및 명료성만을 위한 것일 뿐이며, 그 스케일에 적합하게 도시되지 않았을 수 있다는 것을 이해할 것이다. 일 예로 상기 도면에 포함되어 있는 엘리먼트들 중 일부의 크기들은 본 개시의 다양한 예제 실시 예들의 이해를 향상시키는 데 도움을 주기 위해서 다른 엘리먼트들에 비해 과장될 수 있다. 상기 도면들을 통해, 유사 참조 번호들은 동일한 혹은 유사한 엘리먼트들과, 특징들 및 구조들을 도시하기 위해 사용된다는 것에 유의해야만 한다.
첨부되는 도면들을 참조하는 하기의 상세한 설명은 청구항들 및 청구항들의 균등들로 정의되는 본 발명의 바람직한 실시 예들을 포괄적으로 이해하는데 있어 도움을 줄 것이다. 하기의 상세한 설명은 그 이해를 위해 다양한 특정 구체 사항들을 포함하지만, 이는 단순히 예로서만 간주될 것이다. 따라서, 해당 기술 분야의 당업자는 여기에서 설명되는 다양한 실시 예들의 다양한 변경들 및 수정들이 본 개시의 범위 및 사상으로부터 벗어남이 없이 이루어질 수 있다는 것을 인식할 것이다. 또한, 공지의 기능들 및 구성들에 대한 설명은 명료성 및 간결성을 위해 생략될 수 있다.
하기의 상세한 설명 및 청구항들에서 사용되는 용어들 및 단어들은 문헌적 의미로 한정되는 것이 아니라, 단순히 발명자에 의한 본 개시의 명료하고 일관적인 이해를 가능하게 하도록 하기 위해 사용될 뿐이다. 따라서, 해당 기술 분야의 당업자들에게는 본 개시의 다양한 실시 예들에 대한 하기의 상세한 설명은 단지 예시 목적만을 위해 제공되는 것이며, 첨부되는 청구항들 및 상기 청구항들의 균등들에 의해 정의되는 본 개시를 한정하기 위해 제공되는 것은 아니라는 것이 명백해야만 할 것이다.
또한, 명백하게 다른 내용을 지시하지 않는 "한"과, "상기"와 같은 단수 표현들은 복수 표현들을 포함한다는 것이 이해될 수 있을 것이다.
본 특허 문서에서 본 개시의 원칙들을 설명하기 위해 사용되는, 하기에서 설명되는 바와 같은 도 1 내지 도 13 및 다양한 실시 예들은 오직 예시만을 위한 것일 뿐이며, 어떤 방식으로라도 본 개시의 범위를 제한하는 것으로 이해되어서는 안될 것이다. 해당 기술 분야의 당업자들은 본 개시의 원칙들이 적합하게 배열된 환경 시스템에서 실행될 수 있다는 것을 이해할 수 있을 것이다. 다양한 실시 예들을 설명하기 위해 사용되는 용어들은 예시적인 것일 뿐이다. 이들은 단순히 상세한 설명의 이해를 돕기 위해서 제공되고, 그 용도 및 정의들은 본 발명의 범위를 제한하는 것이 아니라는 것이 이해되어야만 할 것이다. 제1, 제2 등과 같은 용어들은 동일한 용어를 가지는 오브젝트들간을 차별화시키기 위해 사용되는 것일 뿐 별도로 언급되지 않는 한 순서를 나타내는 의도를 가지는 것은 아니다.
도 2는 본 발명의 일 실시 예에 따른, 무인 항공기(Unmanned Ariel Vehicle: UAV)(210)가 실시간 데이터를 차량용 인포테인먼트(In-Vehicle infotainment: IVI) 시스템(220)에 제공하는 도식적 표현을 도시하고 있다. 도면을 참조하면, 차량 (230)은 상기 도로의 경로를 주행하고 있는 중이다. 상기 차량 (230)은 자율 차량이 될 수 있거나 혹은 상기 차량은 운전자에 의해 주행된다. 상기 주행 동안, 다가오는 회전은 상기 차량 혹은 운전자에 대해 아웃-오브-사이트(out-of-sight)(240)에 존재한다. 상기 아웃-오브-사이트 뷰(out-of-sight view)(240)를 검출할 경우, 상기 차량 IVI 시스템 (220)은 상기 IVI의 네비게이션 맵(260) 상에 다가오는 차량(250)이 존재함을 보여준다. 상기 다가오는 차량 정보는 실시간으로 상기 맵 상에서 보여진다. 또한 상기 다가오는 차량의 이미지들이 상기 IVI의 스크린 상에서 디스플레이되는 것이 가능하다 ((270)에 도시되어 있는 바와 같이). 상기 차량이 사각 곡선 상에 존재하기 때문에, 상기 다가오는 차량(250)은 상기 운전자 및 차량 둘 다에 대해서 아웃-오브-사이트이다. 상기 아웃-오브-사이트 뷰(240)의 검출 시, 상기 UAV (210)는 포인트에 위치되어 있고 (이 예제 표현에서, UAV는 상기 산간 도랑 위에 위치되어 있다), 따라서 UAV (210)는 "아웃-오브-뷰" 트래픽, 산간 도랑 혹은 다른 대상의 명확한 뷰를 가질 수 있다. 상기 UAV (210)에 의해 보여지는 정보는 상기 차량의 IVI 시스템 (220)으로 전달된다. 상기 정보 전달은 지그비(ZigBee) 혹은 다른 사유 프로토콜들과 같은 데이터 전달 알고리즘들 중 하나의 사용이 될 수 있다. 상기 UAV로부터 수신된 입력 데이터를 기반으로, IVI는 상기 수신된 데이터를 처리하고 회전하기에 안전하고 어떤 가능한 충돌이라도 방지하는 차량의 속도 혹은 다른 파라미터를 설정한다.
도 3은 본 발명의 일 실시 예에 따른, 무인 항공기(Unmanned Ariel Vehicle: UAV)를 포지셔닝함으로써 경로에서 차량의 네비게이션 지원을 가능하게 하는 방법의 플로우 차트를 도시하고 있다.
동작 (310)에서, 상기 방법은 상기 차량의 차량용 인포테인먼트(In-Vehicle infotainment: IVI)에 의해 적어도 하나의 아웃-오브-사이트 뷰를 검출한다. 상기 차량의 차량용 인포테인먼트(In-Vehicle infotainment: IVI)에 의한 적어도 하나의 아웃-오브-사이트 뷰의 검출은 유인/자율 차량의 "시야에 존재하는" 혹은 "시야에서 벗어나는" 회전들 및 지리적 영역의 빠른 연산을 위해 상기 지형 정보를 제공하는 GPS에 의해 의한 것이다. 다른 실시 예에서, 상기 IVI는 상기 차량에 설치되어 있는 GPS 혹은 고해상도 카메라들을 사용하여 상기 추월 시나리오, 후방 이동 혹은 다가오는 도로 회전들을 검출하고, 언독(undock) 명령을 산출한다. IVI는, 예를 들어, 차량에 후진 기어가 걸리거나, 차량이 회전하거나, 또는 차량이 추월을 시도하는 것으로 확인되는 것에 기초하여 UAV를 위한 언독 명령을 산출할 수 있다. 다른 실시예에서, UAV는 예를 들어, 차량에 후진 기어가 걸리거나, 차량이 회전하거나, 또는 차량이 추월을 시도하는 것으로 확인되는 것에 기초하여 자기 자신을 위한 언독 명령을 산출할 수 있다.
동작 (320)에서, 상기 방법은 상기 IVI에 의해 상기 검출된 아웃-오브-사이트 뷰가 상기 UAV의 지원을 필요로 하는지를 검사한다. 일 실시 예에서, 상기 UAV는 상기 차량에 탑재되어 있을 수 있거나 혹은 탑재되어 있지 않을 수 있다. 상기 아웃-오브-사이트 뷰는 트래픽 정보, 환경 조건, 라인 오브 사이트 정보, GPS 정보 및 도로 조건 중 적어도 하나를 기반으로 계산되며, 그렇다고 이에 한정되는 것은 아니다.
다양한 실시예에 따라서, 아웃-오브-사이트 뷰가 UAV의 지원을 필요로 하는지를 확인하는 동작은 UAV에 의하여 일어날 수 있다. 다양한 실시예에 따라서, UAV는 UAV에 내장된 카메라를 이용하여 급커브를 나타내는 표지판을 인식할 수 있고, 급커브를 나타내는 표지판이 확인되는 것에 응답하여 IVI에 다가오는 커브에 대한 GPS 정보를 요청할 수 있다. 다양한 실시예에 따라서, UAV는 상황 인지 알고리즘을 이용하여 커브 주변을 인식하고, 커브가 아웃 오브 뷰(out-of-view)인지 아니면 인 뷰(in-view)인지 확인할 수 있다.
동작 (330)에서, 상기 방법은 상기 UAV에 의해 상기 차량의 미래 위치가 상기 차량 혹은 운전자의 시선 상에 존재하지 않음을 검출한다. 상기 차량의 미래 위치의 계산은 적어도 상기 차량의 제동 성능, 상기 차량의 현재 속도, GPS 좌표들, 현재 위치 좌표들의 해발 높이 및 상기 UAV의 위치를 기반으로 하며, 그렇다고 이에 한정되는 것은 아니다.
동작 (340)에서, 상기 방법은 상기 IVI 혹은 UAV에 의해 상기 차량의 현재 위치 및 미래 위치에서의 환경 조건을 기반으로 상기 UAV의 위치를 계산한다. 다양한 실시예에 따라서, 상기 UAV의 위치는 상기 IVI에 의하여 계산될 수 있다. 다양한 실시예에 따라서, 상기 UAV의 위치는 상기 UAV에 의하여 계산될 수 있다. 상기 환경 조건은 지형, 가시성 정보, 날씨 정보, 고도, 위치 및 차량 정보를 포함하며, 그렇다고 이에 한정되는 것은 아니다. 또한, 상기 환경 조건은 상기 UAV, 인터넷 혹은 다른 센서들에 의해 캡쳐된 주변의 이미지, 회전 거리, 상기 주행 경로 상에서 다른 차량의 거리, 관심있는 대상 혹은 위치의 거리, 상기 주행 경로 상에서 접근하는 대상 혹은 차량의 속도로부터 도출되며, 상기 거리 정보는 GPS 정보로부터 계산된다.
동작 (350)에서, 상기 방법은 상기 검출된 아웃-오브-사이트 뷰 상에서 네비게이션 보조를 가능하게 하기 위해 상기 UAV를 포지셔닝한다. 상기 UAV를 포지셔닝하는 것은 좌표, 위도, 경도, 해발 높이, 고도, 상호 거리 및 방향 중 적어도 하나를 포함한다. 상기 목적지 좌표들에 위치되는 UAV는 상기 위치의 실시간 데이터를 제공한다. 상기 실시간 데이터 정보는 IVI에 의해 처리되고, 후방 모드에서 고지대들 등에서 산간 도랑을 추월하는 동안 상기 차량의 속도 및 다른 안전 동작을 교대로 제어한다. 일 실시 예에서, 상기 차량의 IVI는 UAV가 상기 UAV 자신을 포지셔닝함으로써 사고를 방지하여 사각 지대들에 대한 보다 나은 뷰를 제공하기 위해 상기 UAV가 주행해야만 하고 네비게이션에서 보조하기 시작해야만 하는 포인트의 좌표들 (x, y, z) 혹은 (위도, 경도, 고도)를 송신한다. 상기 좌표들은 고도, 위치, GPS, 지형, 라인 오브 사이트 정보, 차량 속도 및 다른 팩터들을 기반으로 계산된다. 일 실시 예에서, 상기 UAV의 좌표들은 상기 차량의 현재 위치, 상기 회전의 GPS 위치, 상기 차량의 속도 및 지형 정보를 기반으로 한다.
상기 방법은 상기 차량으로부터 수신된 업데이트된 정보 및 상기 차량 위치 정보를 사용하여 상기 UAV를 재포지셔닝한다. 상기 UAV의 재포지셔닝은 좌표, 위도, 경도, 해발 높이, 고도, 상호 거리 및 방향 중 적어도 하나를 포함하며, 그렇다고 이에 제한되는 것은 아니다.
도 4는 본 발명의 일 실시 예에 따른, 차량의 현재 및 미래 위치의 식별의 도식적 표현을 도시하고 있다. 도면을 참조하면, 상기 목표는 차량 위치, 즉 미래 위치 P2 및 사각 지대 (1)의 위치를 사용하여 상기 차량의 현재 위치, 즉 P1을 획득하는 것에 있다. 상기와 같이 획득하기 위해서, 차량 IVI는 GPS를 사용하여 지속적으로 네비게이션 정보를 폴링하여 상기 회전을 검출한다. 상기 회전이 검출되면, 라인 오브 사이트에 존재하지 않는 상기 사각 지대 (1)의 좌표들이 식별될 것이다. 상기 회전이 검출되면, 상기 차량은 위치 P1--에 존재한다. 상기 차량의 미래 위치를 계산하는 것은 차량의 제동 성능 (즉, 상기 차량이 정지하기 전에 필요로 되는 최소 거리인 상기 차량의 미래 위치, 즉 P2 와 사각 지대간의 거리), 상기 차량의 현재 속도, 상기 사각 지대의 GPS 좌표들, 현재 위치 좌표들의 평가, 사각 지대 위치를 사용하여 계산된 UAV의 위치를 기반으로 하며, 그렇다고 이에 한정되는 것은 아니다. 상기 차량의 현재 위치를 획득하기 위해서, 상기 UAV의 속도는 임의의 시점에서 상기 차량 보다는 더 높아야만 한다. 상기 차량의 현재 위치와 미래 위치간의 거리를 사용하여 상기 차량의 현재 위치의 GPS 좌표들을 계산할 수 있다.
도 5는 본 발명의 일 실시 예에 따른, 상기 차량의 현재 위치 및 미래 위치를 계산하기 위해 상기 경로 동안 다른 차량을 추월하는 동안의 시나리오의 도식적 표현을 도시하고 있다. 상기 차량(510)에 탑재되어 있는 카메라 혹은 레이더 혹은 GPS를 사용하여 전방 차량 (520)을 검출하여 상기 위치를 현재 위치 V1 로 설정하고 UAV 위치를 UAV1 (530)로 설정한다. 상기 전방 차량 (520)은 IVI에 의한 이미지 처리 알고리즘들을 기반으로 검출되며, 그렇다고 이에 한정되는 것은 아니다. 상기 차량(510)은 다른 차선 및 동일 차선으로부터 유입되는 트래픽에 대해서 위치 UAV2 (540)로부터 모니터하는 UAV에 의해 보조를 받는다. 상기 위치 UAV2 (540)로부터 UAV는 상기 차량이 상기 차량의 미래 위치를 V3 (550)로 설정하고 상기 UAV 자신의 UAV 위치를 UAV3 (560)로 설정하는 것을 가능하게 한다.
도 6은 본 발명의 일 실시 예에 따른, 환경 조건들, 현재 및 미래 위치를 기반으로 UAV의 초기 위치를 계산하는 도식적 표현을 도시하고 있다. 상기 차량(610)에 탑재되어 있는 카메라 혹은 레이더는 사각 지대를 검출하거나 혹은 전방 차량(620)을 추월하기 위해 사각 지대를 검출한다. 상기 결정이 이루어지면, 상기 차량(610)의 경로는 GPS에서 수정된다. 상기 사각 시점의 위치는 상기 GPS 포지셔닝으로부터 검색된다. 상기 사각 시점의 위치가 검색되면, 상기 UAV(630)의 초기 위치가 결정된다. UAV는 상기 결정된 위치를 기준 포인트로 고려하여 상기 UAV(630)의 미래 위치를 획득한다. 상기 UAV(630)의 초기 위치는 하기 표 1에 설명되어 있는 바와 같은 환경 조건을 포함하는 다양한 파라미터들을 기반으로 한다.
일련 번호 환경 변수 파라미터 검출 센서 미래 위치에 대한 값 현재 위치에 대한 값
1 장애물 바위, 나무들, 표지판들, 물, 도랑 카메라, 센서들 아니오
2 낮은 가시성 안개, 연기, 직사광선, 밤 카메라, 센서, 날씨 모니터 어플리케이션
3 지형 언덕들, 빌딩들, 경사로들, 원형 도로들 카메라, GPS
4 U 턴 언덕들, 빌딩들, 경사로들 카메라, GPS
5 다가오는/멀어져 가는 차량 차량 카메라, 센서들, 사운드 검출 예 (추월, 라인-오브-사이트)
6 다가오는/멀어져 가는 차량의 속도 차량들의 상대적 속도 카메라, 센서들, 사운드 검출 예 (추월, 회전들)
유의점 - 상기 차량, 속도 등과 같은 환경 파라미터들 중 일부는 상기 UAV의 위치를 계산하기 위해 직접 사용되고, 이에 반해 일부 다른 파라미터들이 상기 UAV의 위치가 계산될 수 있는 미래의 가시적 위치를 검출하는데 도움을 준다.
도 7a는 본 발명의 일 실시 예에 따른, 상기 주행 동안 상기 차량을 지원하는 동안의 UAV 재포지셔닝의 도식적 표현을 도시하고 있다. 상기 UAV가 초기 위치에 도달하면, UAV는 상기 도로의 사각 지대의 명료한 뷰를 획득할 필요가 있다. 일 예로서, 상기 UAV는 고해상도 카메라들(하나는 제1 차량을 가리키고, 나머지 카메라는 제2 차량을 가리킨다)을 사용하여 상기 차량들 둘 다(아웃 오브 사이트인 이동 대상이라고 고려한다)를 검출할 것이다. 각 차량으로부터의 UAV 거리가 계산되며, 일 예로, Z1은 UAV로부터의 제1 차량의 거리이고, Z2는 UAV로부터의 제2 차량의 거리이다. 이런 거리들, 즉 Z1 와 Z2를 기반으로, Z, 즉 UAV의 거리가 캘리브레이트되거나 혹은 자기 조정된다.
상기 UAV차량으로부터 UAV까지의 거리 Z를 획득하는 것
도 7b를 참조하면, 정의되어 있는 xd, yd는 이 섹션에서 설명되는 알고리즘을 사용하는 캘리브레이션 후의 좌표들이며, 상기 UAV는 상기 UAV 자신 대비 대상 (일 예로, 상기에서 보여지는 차량)의 거리 Z 및 각도
Figure 112019038443703-pat00001
를 연산할 것이고, 이 거리를 사용하여 전역 좌표들(global coordinates) 상에서 상기 대상(일 예로, 상기에서 보여지는 차량)의 위치 (x, y)를 연산한다. 상기 대상의 깊이의 정확한 추정을 획득하기 위해서, 상기 카메라는 캘리브레이트될 필요가 있다 (도 7c를 참조할 것). 상기 classical structure-from-motion 알고리즘의 기본 컨셉트로부터, Z가 도출될 수 있다.
Figure 112019038443703-pat00002
여기서 f는 상기 초점 거리(focal length)이고, T는 베이스라인(baseline)이고, xr - xl는 상기 이미지 차이이다. 상기 카메라는 상기 이미지 중앙으로부터 상기 대상에 의해 접해지는 각도
Figure 112019038443703-pat00003
에 대한 이미지 차이 p를 기반으로 Z를 획득하는 것을 가능하게 하기 위해서 f를 검색하기 위해 캘리브레이트될 필요가 있다 (도 7d를 참조할 것). 상기 이미지 오프셋 p가 상기 초점 거리에 전적으로 의존하기 때문에, 상기 초점 거리 f 대신
Figure 112019038443703-pat00004
/p에 대해 캘리브레이트한다. Z는 상기 차량 둘 다에 대해서 계산 되며 (도 7e에 도시되어 있는 바와 같이), Z 및 Z2는 각각 상기 차량 1 및 차량 2의 거리이다. 상기 거리 Z 및 Z2의 차이인 결정 변수 (Dd)를 계산한다.
Figure 112019038443703-pat00005
UAV는 상기 카메라를 사용하여 상기 재포지셔닝 자체를 기반으로 각 대상의 거리를 획득한다. 상기 팩터 D d 를 기반으로, 다음과 같은 가능성들이 발생할 것이다.
결정 변수 상태
신규 Dd > 기존 Dd 2개의 차량들간의 충돌 가능성이 존재하지 않는다.
신규 Dd < 기존 Dd 1. 차량이 서로를 향해 이동 중임.
2. 차량 중 하나가 정지된 상태임.
3. 동일한 방향 움직임에서 차량 속도 중 하나가 다른 하나에 비해서 높음.
신규 Dd = 기존 Dd 차량 둘 다가 정지된 상태임.
상기 차량의 사이트 오브 뷰가 손실될 때 UAV 자체가 재포지셔닝되고, 동일한 프로세스가 다시 시작될 것이다.
다양한 실시예에 따라서, UAV의 좌표는 다음 파라미터에 기초하여 확인될 수 있다.
차량의 현재 위치 UAV의 좌표는 차량의 현재 위치에 기초하여 확인될 수 있다.
회전점의 GPS 위치 UAV를 위한 초기 좌표를 확인하는 데 필요할 수 있다.
초기 좌표에 위치한 이후에는 UAV가 스스로 더 나은 뷰를 위하여 위치를 조정할 수 있다.
차량의 속도 차량의 현재 속도에 기초하여, UAV의 뷰 각도가 확인될 수 있다.
차량의 속도가 클수록, 차량은 커브를 빠르게 돌고, 따라서 차량은 회전점 반대편의 더 먼 거리에 대한 정보를 필요로 할 수 있다.
지형 정보 지형 정보는 GPS에 의하여 제공될 수 있다. 지형 정보는 회전점 주변의 빌딩, 언덕, 및 다른 지리적 정보를 포함할 수 있다.
원형 도로가 연속될 때
다양한 실시예에 따라서, 원형 도로가 연속되는 경우에, GPS 모듈이 회전점을 감지하고 회전점에 관한 정보를 UAV 제어기에 송신할 수 있다. UAV 제어기는 UAV의 IVI 인터페이스와 통신함으로써 UAV가 여전히 비행 모드에 있는지 확인할 수 있다. 이 경우, UAV는 차량으로 돌아가는 대신 계속해서 재포지셔닝될 수 있다. 다양한 실시예에 따라서, 재포지셔닝은 IVI에 의하여 연속적인 좌표가 UAV에 송신됨으로써 이루어질 수 있다. 다양한 실시예에 따라서, 재포지셔닝은 차량이 회전점을 지날 때마다 UAV가 새로운 위치로 이동함으로써 이루어질 수 있다.
UAV가 재포지셔닝을 시작할 때
다음과 같은 방식들 중 하나로 개시될 수 있다 -
1. 상기 차량이 회전점에서 UAV를 통과하고 IVI가 GPS를 사용하여 이 정보를 획득한다. IVI는 원형 회전의 케이스가 유효할 경우 상기 UAV에 대한 새로운 좌표들을 개시한다.
2. 차량이 상기 UAV로부터 수신된 이미지들을 처리함에 따라, IVI는 상기 UAV로부터 수신된 이미지들과 차량의 전방 카메라의 이미지들을 비교하고, 상기 이미지 프로세싱 데이터가 동일할 경우 상기 IVI는 UAV 데이터가 차량에 대해서 사각 지대가 아니라고 명시한다.
3. UAV는 상기 차량이 상기 UAV를 지나가고, 따라서 이제는 모니터링 범위를 볼 수 있다는 것을 검출한다.
상기 첫 번째 케이스는 지원이 제공되고 있는 중인 차량에 대한 각도
Figure 112019038443703-pat00006
를 분석함으로써 쉽게 제공된다, 상기 각도가 이전 값보다 감소될 경우, 상기 UAV는 차량은 범위 외부를 향해서 이동 중이라는 것을 시사하고, 상기 각도가 제로(0)이거나 혹은 마지막 값의 음수일 경우, 상기 UAV는 다음 순서에서 보조하기 위해 재포지셔닝 명령을 트리거할 것이다. 여기서 상기 각도는 오직 연결된 차량만을 고려한다(상기와 같은 케이스에서는 다음 차량).
결정 변수 상태
신규
Figure 112019038443703-pat00007
== 기존
Figure 112019038443703-pat00008
차량이 정지 상태에 있기 때문에 2개의 차량들 간 충돌 가능성이 존재하지 않는다.
신규
Figure 112019038443703-pat00009
< 기존
Figure 112019038443703-pat00010
차량이 앞쪽으로 이동 중이다.
신규
Figure 112019038443703-pat00011
== 0 혹은 음수
상기 차량 둘 다가 카메라의 뷰 각도를 지나가고 현재 UAV는 재포지셔닝을 필요로 한다.
다른 실시 예에서, UAV 재포지셔닝 자치는 상기 차량에 대한 상대적인 속도 및 상대적인 위치를 기반으로 한다.
상기 UAV의 속도는 다음과 같은 파라미터들을 기반으로 연산될 수 있다.
차량의 속도 UAV는 상기 UAV가 상기 지대에 도달하기 위해 상기 차량보다 더 빠르게 주행해야만 하기 때문에 상기 차량의 속도를 획득한다.
UAV의 배터리 상태 배터리가 낮을 경우, 이는 상기 UAV 의 속도에 영향을 미칠 수 있고, 그 경우 IVI는 상기 언독 명령을 트리거할지 여부를 결정해야만 한다.
주행 거리 주행 거리는 상기 UAV의 속도를 결정한다.
도 8은 본 발명의 일 실시 예에 따른, 2개의 차량들과 연결함으로써 모니터링에 도움을 주는 UAV의 도식적 표현을 도시하고 있다. 도시되어 있는 바와 같이, 단일 UAV (810)는 상기 차량들 (820, 830) 둘 다와 상호 작용을 하고 상기 모니터링 데이터를 각 차량들로 제공한다. 이는 차량들을 연결하는 것 및 센서 및 레이더들을 기반으로 하고 제한된 억세스를 가지는 다른 차량 연결 기술들을 통해 이점들을 획득하는 것처럼 동작한다. 2개 혹은 2개를 초과하는 차량들은 상기 트래픽 혹은 다른 차량의 정보를 알고 있다. 이 예제 케이스에서, 2개를 초과하는 카메라들이 다른 각도의 뷰를 제공한다. 따라서, 상기 차량 1 (820)은 상기 차량 2 (830)의 정보를 알고 있고, 그 역시 마찬가지이다.
도 9는 본 발명의 일 실시 예에 따른, 상기 UAV와 IVI 의 시스템 아키텍쳐 블록 다이아그램을 도시하고 있다. 상기 차량용 인포테인먼트(In-Vehicle infotainment: IVI) 시스템(910) 모듈들은 GPS (901), UAV 제어기(902), 데이터 수신기(903), 차량 제어기(904), 카메라(905) 및 온스크린 디스플레이(onscreen display)(906) 등을 포함하는 주요 컴포넌트들로 구성되며, 그렇다고 이에 한정되는 것은 아니다. 상기 GPS (901)는 네비게이션을 위해 사용되고 네비게이션에 관련되는 모든 기능들을 제공한다. 상기 정보는 상기 좌표들(경도 및 위도)과 언덕, 빌딩, 강 등의 근처와 같은 지형 정보를 포함할 수 있다. 이 모듈(901)은 UAV 제어기(902) 모듈이 추월과 같은 케이스에서 요청할 때, 상기 GPS 정보를 다음과 같은 조건들에서 UAV 제어기(902)로 송신한다. UAV 제어기(902) 모듈은 상기 추월 조건을 검출하고 상기 UAV 제어기(902) 모듈이 UAV의 좌표들을 계산할 수 있도록 GPS 정보를 요청한다. GPS 모듈(901)은 다가오는 회전들과 같은 케이스에서와 같이 가능한 사각 지대가 검출될 때 상기 GPS 정보를 공유할 수 있다. 이 케이스에서, GPS 모듈(901)은 UAV 제어기(902) 모듈로 GPS 정보를 송신한다. 상기 데이터 수신기(903)는 UAV 데이터 송신기 모듈(907)로부터 수신된 데이터를 처리한다. 상기 UAV에 의해 캡쳐된 실시간 데이터 이미지들 및 오디오는 IVI 인터페이스 모듈(908)을 사용하여 데이터 수신기 모듈(903)로 송신된다. 상기 수신된 데이터는 다가오는/멀어져가는 차량, 보행자 정보, 도로 방해물, 다른 차량의 속도, 회전의 고도 등이 될 수 있거나 혹은 포함할 수 있다. 상기와 같은 정보를 기반으로 상기 데이터 수신기는 상기 명령을 차량 제어기 모듈(904)로 전달한다. 상기 명령은 상기 신규 속도, 상기 차량을 정지시키는 것, 상기 차선을 변경하는 것 등으로 설정될 수 있다. 상기 차량 제어기(904)는 상기 데이터 수신기9903)에 의해 수신된 데이터를 기반으로 명령들을 차량(909)으로 송신하여 속도, 방향, 라이트들(지시자들)에 대한 스위치, 혹은 상기 차량의 정지를 설정한다. 상기 UAV 제어기(902)는 GPS (901), 카메라 시스템(905), 데이터 수신기(903)로부터의 입력들을 사용하여 상기 UAV의 좌표들을 계산한다. 회전들의 케이스에서, GPS 데이터가 수신되고, UAV 제어기(902)는 상기 회전이 운전자 혹은 차량에 대해 "시야에 존재하는지" 혹은 "시야에서 벗어나는지"를 결정한다. 아웃-오브-뷰 뷰 타입의 케이스에서, 좌표들을 가지는 명령이 UAV 인터페이스 모듈로 송신된다. "시야에 존재하는(in-view)"의 케이스에서, UAV 제어기는 UAV로 언독 명령을 송신할지 여부를 결정할 수 있다. 이는 또한 차량이 수동인지 혹은 자율인지를 기반으로 한다. 수동의 케이스에서, 운전자는 상기 회전들에서의 트래픽을 알 수 있고 따라서 상기 보조를 필요로 하지 않을 수 있다. 자율 차량의 케이스에서는, 상기 자율 차량은 상기 레이더 혹은 센서 범위를 기반으로 한다.
도 10은 본 발명의 일 실시 예에 따른, 적어도 하나의 연합 보조 차량들을 통해 기본 차량에 대한 네비게이션 지원을 가능하게 하는 방법의 플로우 차트를 도시하고 있다.
동작 (1010)에서, 각 보조 차량들에 대한 상기 방법은 GPS, 카메라, 센서들을 사용하여 다가오는 차량, 움푹 패인곳들, 방해물 등을 포함하는 도로 장애물들을 위치를 검출한다. 상기 기본 차량 및 보조 차량들은 IVI 시스템을 통해 연결되어 있다. 상기 차량의 차량용 인포테인먼트(in-vehicle infotainment: IVI)에 의한 적어도 하나의 아웃-오브-사이트 뷰의 검출은 회전들 및 운전자/자율 차량의 "시야에 존재하는" 혹은 "시야에서 벗어나는" 지리적 영역을 쉽게 연산하기 위해 상기 지형 정보를 제공하는 GPS에 의해 이루어진다. 다른 실시 예에서, 상기 IVI는 GPS 혹은 차량에 설치되어 있는 고해상도 카메라들을 사용하여 상기 추월 시나리오, 후방 이동 혹은 다가오는 도로 회전들을 검출한다.
동작 (1020)에서, 상기 방법은 다수의 연합 보조 차량들을 사용하여 상기 기본 차량의 위치를 계산한다.
동작 (1030)에서, 상기 방법은 상기 기본 차량에 의해 상기 다수의 보조 차량들로부터 모든 필수 정보를 수신하고, 여기서 상기 기본 차량 및 보조 차량은 상기 차량의 IVI를 사용하여 서로 연결되어 있다.
동작 (1040)에서, 상기 방법은 상기 기본 차량에 의해 하나 혹은 그 이상의 예방 조치들을 취하기 위해 상기 위치 및 속도를 계산하는 것을 포함하여 모든 데이터를 처리한다.
도 11은 본 발명의 일 실시 예에 따른, 연결된 차량들을 사용하여 상기 차량의 현재 및 미래 위치를 획득하기 위한 도식적 표현을 도시하고 있다. 도면을 참조하면, 차량 1 (1110)은 상기 도로 상에서 차량 3 (1130)을 추월할 필요가 있다. 다수의 보조 차량들, 즉 차량 2 (1120), 차량 4 (1140), 차량 5 (1150) 모두는 상기 도로에서 모두 차량 1 (1110)과 동일한 방향에 존재한다. 상기 차량들 각각은 차량의 IVI를 사용하여 서로 연결된다. 상기 차량들 각각은 GPS, 카메라 및 센서들을 사용하여 상기 도로 장애물들(다가오는 차량, 즉, 차량 6 (1160), 움푹 패인 곳들, 방해물 등과 같이 상기 제1 차량의 아웃-오브-사이트들인)의 위치를 검출한다. 상기 모든 차량들은 상기 데이터를 차량들의 연결된 IVI를 사용하여 차량 1 (1110)로 송신한다. 차량 1 (1110)은 다른 차량들, 즉 차량들 2, 4, 5 (1120, 1140, 1150)로부터의 모든 수신 데이터를 처리하고, 상기 차량 1 (1110)이 추월해야만 하는 차량 (1130)의 위치 및 속도를 계산한다. 차량 1 (1110)은 상기 차량 1 (1110)이 추월을 시작할 때 상기 위치 P1 를 계산한다. 상기 차량 1 (1110) 위치는 상기 추월 시점에는 P2에 존재할 것이고, 추월 후에는 상기 최종 위치, 즉 P3 에 존재할 것이다. 상기 데이터는 상기 차량 1 (1110)이 위치 P3 에 도달할 때까지 계속 전달된다. 상기 차량 1 (1110)은 상기 차량을 재포지셔닝하고 현재의 데이터를 기반으로 속도를 설정한다.
도 12는 본 발명의 일 실시 예에 따른, 차량용 인포테인먼트(in-vehicle infotainment: IVI) 유닛을 통해 연결되어 있는 2개의 차량들인 제1 차량 및 제2 차량간의 경로에서 네비게이션 보조를 가능하게 하는 방법의 플로우 차트를 도시하고 있다.
동작 (1210)에서, 상기 방법은 GPS 데이터/카메라 데이터/센서 정보를 포함하는 다양한 파라미터들을 기반으로 상기 제1 차량에 의해 IVI의 아웃-오브-사이트 뷰 정보를 검출한다. 상기 차량의 차량용 인포테인먼트(in-vehicle infotainment: IVI)에 의한 적어도 하나의 아웃-오브-사이트 뷰의 검출은 회전들 및 운전자/자율 차량의 "시야에 존재하는" 혹은 "시야에서 벗어나는" 지리적 영역을 쉽게 연산하기 위해 상기 지형 정보를 제공하는 GPS에 의해 이루어진다. 다른 실시 예에서, 상기 IVI는 GPS 혹은 차량에 설치되어 있는 고해상도 카메라들을 사용하여 상기 추월 시나리오, 후방 이동 혹은 다가오는 도로 회전들을 검출한다.
동작 (1220)에서, 상기 방법은 상기 IVI에 의해 상기 제1 차량에게 상기 제2 차량으로 연결할 것을 요청하며, 여기서 상기 제1 차량 및 상기 제2 차량은 상기 라인-오브-사이트 뷰 정보를 공유한다.
동작 (1230)에서, 상기 방법은 상기 2개의 차량들간의 공유된 라인-오브-사이트 뷰를 기반으로 각 차량의 아웃-오브-사이트 뷰들에 대한 정보를 생성한다.
동작 (1240)에서, 상기 방법은 하나 혹은 그 이상의 예방 조치들을 취하기 위해 상기 차량들 둘 다의 라인-오브-사이트 뷰 정보를 결합하여 상기 네비게이션을 위한 경로의 완전한 뷰로 제공한다.
도 13은 본 발명의 일 실시 예에 따른, 연결된 차량들을 사용하여 상기 차량의 현재 및 미래 위치를 획득하기 위한 다른 시나리오에서의 도식적 표현을 도시하고 있다. 차량 2 (1320)가 상기 차량 2 (1320)의 센서들, 카메라 및 GPS를 사용하여 차량 1 (1310)에 대한 아웃-오브-사이트 뷰에 대한 지원을 제공한다. 차량 2 (1320)는 다가오는 중일 수 있거나 혹은 멀어져 가는 중일 수 있다. 차량 1 (1310)은 다가오는 경로에 대한 명확한 정보를 획득할 때 상기 차량 1 (1310)의 위치를 알게 된다. 이 위치에서, 커버 영역 교차점(차량 2 (1320) 및 차량 1 (1310)의 교차로부터의 센서 빔)은 I1 로부터 I2로 쉬프트된다. I2는 커버리지의 교차점이 적어도 차선 경계 상에 존재할 때 존재한다. 이는 다가오는 경로의 완전한 커버리지를 제공한다. 교차점은 2개의 차량들로부터의 레이저 빔들을 사용하여 계산될 수 있고, 상기 빔 교차점을 계산하고, 그리고 나서 상기 빔 교차점과 상기 차선 좌표들을 비교한다.
도 1 내지 도 13은 단순히 표현적인 것이며 그 스케일로 도시되는 것은 아니다. 도 1 내지 도 13의 특정 부분들은 더 크게 보여질 수 있으며, 이에 반해 다른 부분들은 최소화될 수 있다. 도 1 내지 도 13은 해당 기술 분야의 당업자들에 의해 이해될 수 있고 적합하게 수행될 수 있는 본 발명의 다양한 실시 예들을 도시하고 있다.
본 발명의 실시 예들의 상기와 같은 구체적인 설명에서, 다양한 특징들이 본 개시의 간소화를 위한 목적으로 단일 엘리먼트로 함께 그룹화된다. 본 개시의 이런 방법은 본 발명의 청구되는 실시 예들의 의도가 각 청구항에서 명백하게 개시되는 바보다 더 많은 특징들을 필요로 한다는 의도를 반영하는 것으로 해석되어서는 안 될 것이다. 오히려, 하기의 청구항들이 반영하는 바와 같이, 발명의 주제는 단일하게 개시된 실시 예의 모든 특징들 보다 적다. 따라서, 하기와 같은 청구항들은 본 발명의 실시 예들의 구체적인 설명에 통합되며, 각 클레임은 별도의 실시 예로서 독자적으로 존재한다.
상기와 같은 설명은 예시를 위한 의도를 가질 뿐이며, 제한적인 의도를 가지지는 않는다는 것이 이해되어야만 할 것이다. 이는 첨부된 청구항들에 정의되어 있는 바와 같은 발명의 사상 및 범위 내에 포함될 수 있는 모든 대안들, 수정들 및 균등들을 커버하도록 하는 의도를 가진다. 다른 많은 실시 예들은 상기와 같은 설명을 리뷰할 경우 해당 기술 분야의 당업자들에게 명백할 것이다. 따라서, 본 발명의 범위는 첨부된 청구항들을 참조하여, 그와 같은 청구항들이 부여되는 균등물들의 전체 범위와 함께 결정되어야만 할 것이다. 첨부되는 청구항들에서, 용어들, "포함하는(including)" 및 "여기에서(in which)"는 각 용어들 "포함하는(comprising)" 및 "여기에서(wherein)"와 균등한 일반 용어들로서 사용된다.

Claims (18)

  1. 차량의 차량용 인포테인먼트(in-vehicle infotainment: IVI) 장치에 의하여 수행되는 방법에 있어서:
    GPS 정보에 기반하여, 상기 차량의 아웃-오브-사이트 뷰(out-of-sight view)를 확인하는 동작;
    상기 아웃-오브-사이트 뷰를 확인하는 것에 기반하여, UAV(unmanned aerial vehicle)로부터 상기 아웃-오브-사이트 뷰에 관련된 정보를 수신할 필요가 있다고 확인하는 동작;
    상기 UAV를 이용하여 상기 차량의 미래 위치가 상기 차량의 라인-오브-사이트(line-of-sight) 상에 미존재함을 확인하는 동작;
    상기 차량의 현재 위치 및 상기 미래 위치에서의 환경 조건을 기반으로, 상기 UAV를 위치시키기 위한 상기 아웃-오브-사이트 뷰 상의 좌표를 확인하는 동작;
    상기 UAV가 상기 좌표에 대응하는 제1 장소에 위치하도록 상기 좌표를 포함하는 신호를 상기 UAV로 송신하는 동작;
    상기 좌표에 대응하는 상기 제1 장소에 위치한 상기 UAV로부터 상기 아웃-오브-사이트 뷰에 관련된 제1 이미지를 수신하는 동작;
    상기 차량이 제1 장소를 통과함에 기반하여, 상기 제1 장소에서 상기 차량에 포함된 카메라로부터 획득된 제2 이미지를 확인하는 동작;
    상기 제1 이미지와 상기 제2 이미지를 비교하는 것에 기반하여, 상기 제1 장소에서 상기 차량의 사각지대가 존재하는지 여부를 확인하는 동작; 및
    상기 제1 장소에서 상기 차량의 사각지대가 존재하는 것으로 확인하는 것에 기반하여, 상기 UAV를 재포지셔닝하도록 새로운 좌표에 대한 신호를 상기 UAV로 송신하는 동작을 포함하는 방법.
  2. 제1항에 있어서,
    상기 좌표를 포함하는 상기 신호는 위도, 경도, 해발 높이, 고도, 상기 차량의 위치와 상기 좌표 간의 상호 거리 또는 상기 차량으로부터 상기 좌표를 가리키는 방향 중 적어도 하나를 나타내는, 방법.
  3. 제1항에 있어서,
    상기 차량의 아웃-오브-사이트 뷰(out-of-sight view)를 확인하는 동작은,
    외부 차량의 IVI 장치에 연결 요청을 송신하는 동작;
    상기 외부 차량의 상기 IVI 장치와의 연결이 설립된 후, 상기 외부 차량의 상기 IVI 장치에 상기 차량의 라인-오브-사이트 뷰(line-of-sight view) 정보를 송신하는 동작;
    상기 외부 차량의 상기 IVI 장치로부터, 상기 외부 차량의 라인-오브-사이트 뷰 정보를 수신하는 동작;
    상기 외부 차량에 대한 상기 라인-오브-사이트 뷰 정보 및 상기 차량의 라인-오브-사이트 뷰 정보에 기초하여, 상기 차량의 상기 아웃-오브-사이트 뷰에 대한 정보를 확인하는 동작; 및
    상기 차량의 상기 아웃-오브-사이트 뷰에 대한 상기 정보에 기초하여, 상기 차량을 위한 네비게이션 경로를 확인하는 동작을 포함하는, 방법.
  4. 삭제
  5. 제1항에 있어서,
    상기 아웃-오브-사이트 뷰는 트래픽 정보, 환경 조건, 라인 오브 사이트 정보, GPS 정보 또는 도로 조건 중 적어도 하나를 기반으로 확인되는, 방법.
  6. 제1항에 있어서,
    상기 환경 조건은 지형, 가시성 정보, 날씨 정보, 고도, 위치 또는 차량 정보 중 적어도 하나를 포함하는, 방법.
  7. 제6항에 있어서,
    상기 환경 조건은 상기 UAV, 인터넷 혹은 다른 센서들에 의해 캡쳐된 주변의 이미지, 회전 거리, 주행 경로 상에서 다른 차량의 거리, 관심있는 대상 혹은 위치와 상기 차량 사이의 거리, 상기 주행 경로 상에서 접근하는 대상 또는 차량의 속도 중 적어도 하나에 기초하여 확인되며,
    상기 회전 거리, 상기 주행 경로 상에서 다른 차량의 거리, 상기 관심있는 대상 또는 위치와 상기 차량 사이의 거리 중 적어도 하나는 GPS 정보에 기초하여 확인되는, 방법.
  8. 제1항에 있어서,
    상기 차량의 미래 위치는 상기 차량의 제동 성능, 상기 차량의 현재 속도, 상기 차량의 GPS 좌표 또는 상기 UAV의 위치 중 적어도 하나에 기반하여 확인되는, 방법.
  9. 삭제
  10. 삭제
  11. 차량의 차량용 인포테인먼트(in-vehicle infotainment: IVI) 장치에 있어서:
    적어도 하나의 프로세서; 및
    통신 모듈을 포함하고,
    상기 적어도 하나의 프로세서는:
    GPS 정보에 기반하여, 상기 차량의 아웃-오브-사이트 뷰(out-of-sight view)를 확인하고,
    상기 아웃-오브-사이트 뷰를 확인하는 것에 기반하여, UAV(unmanned aerial vehicle)로부터 상기 아웃-오브-사이트 뷰에 관련된 정보를 수신할 필요가 있다고 확인하고,
    상기 UAV를 이용하여 상기 차량의 미래 위치가 상기 차량의 라인-오브-사이트(line-of-sight) 상에 미존재함을 확인하고,
    상기 차량의 현재 위치 및 상기 미래 위치에서의 환경 조건을 기반으로, 상기 UAV를 위치시키기 위한 상기 아웃-오브-사이트 뷰 상의 좌표를 확인하고,
    상기 통신 모듈을 통하여, 상기 UAV가 상기 좌표에 대응하는 제1 장소에 위치하도록 상기 UAV에 상기 좌표를 포함하는 신호를 상기 UAV로 송신하고,
    상기 통신 모듈을 통하여, 상기 좌표에 대응하는 상기 제1 장소에 위치한 상기 UAV로부터 상기 아웃-오브-사이트 뷰에 관련된 제1 이미지를 수신하고,
    상기 차량이 제1 장소를 통과함에 기반하여, 상기 제1 장소에서 상기 차량에 포함된 카메라로부터 획득된 제2 이미지를 확인하고,
    상기 제1 이미지와 상기 제2 이미지를 비교하는 것에 기반하여, 상기 제1 장소에서 상기 차량의 사각지대가 존재하는지 여부를 확인하고, 및
    상기 제1 장소에서 상기 차량의 사각지대가 존재하는 것으로 확인하는 것에 기반하여, 상기 UAV를 재포지셔닝하도록 새로운 좌표에 대한 신호를 상기 UAV로 송신하도록 설정되는, IVI 장치.
  12. 제11항에 있어서, 상기 적어도 하나의 프로세서는
    상기 통신 모듈을 통하여, 상기 UAV의 위치 업데이트를 위한, 상기 차량에 관련된 최신 정보를 상기 UAV에 송신하도록 더 구성되는, IVI 장치.
  13. 제11항에 있어서,
    상기 아웃-오브-사이트 뷰는 트래픽 정보, 환경 조건, 라인 오브 사이트 정보, GPS 정보 또는 도로 조건 중 적어도 하나를 기반으로 확인되는, IVI 장치.
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
KR1020190043763A 2018-07-11 2019-04-15 무인 항공기와 통신하는 차량용 인포테인먼트 시스템 및 그 작동 방법 KR102725597B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2019/008237 WO2020013525A1 (en) 2018-07-11 2019-07-04 In-vehicle infotainment system communicating with unmanned aerial vehicle and method of operating the same
US16/508,914 US11361661B2 (en) 2018-07-11 2019-07-11 In-vehicle infotainment system communicating with unmanned aerial vehicle and method of operating the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN201811025906 2018-07-11
IN201811025906 2018-07-11

Publications (2)

Publication Number Publication Date
KR20200010994A KR20200010994A (ko) 2020-01-31
KR102725597B1 true KR102725597B1 (ko) 2024-11-05

Family

ID=

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160272317A1 (en) 2015-03-18 2016-09-22 Lg Electronics Inc. Unmanned aerial vehicle and method of controlling the same
US20160304217A1 (en) 2015-01-18 2016-10-20 Foundation Productions, Llc Apparatus, Systems and Methods for Unmanned Aerial Vehicles
US20160325835A1 (en) 2014-09-03 2016-11-10 International Business Machines Corporation Unmanned aerial vehicle for hazard detection
US20160340006A1 (en) 2015-05-19 2016-11-24 Rujing Tang Unmanned aerial vehicle system and methods for use
US20170253330A1 (en) 2016-03-04 2017-09-07 Michael Saigh Uav policing, enforcement and deployment system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160325835A1 (en) 2014-09-03 2016-11-10 International Business Machines Corporation Unmanned aerial vehicle for hazard detection
US20160304217A1 (en) 2015-01-18 2016-10-20 Foundation Productions, Llc Apparatus, Systems and Methods for Unmanned Aerial Vehicles
US20160272317A1 (en) 2015-03-18 2016-09-22 Lg Electronics Inc. Unmanned aerial vehicle and method of controlling the same
US20160340006A1 (en) 2015-05-19 2016-11-24 Rujing Tang Unmanned aerial vehicle system and methods for use
US20170253330A1 (en) 2016-03-04 2017-09-07 Michael Saigh Uav policing, enforcement and deployment system

Similar Documents

Publication Publication Date Title
US11361661B2 (en) In-vehicle infotainment system communicating with unmanned aerial vehicle and method of operating the same
US20220026919A1 (en) Vehicle Radar Perception And Localization
US11763670B2 (en) Method of automatically controlling an autonomous vehicle based on electronic messages from roadside infrastructure or other vehicles
US20200341487A1 (en) System and Method to Operate an Automated Vehicle
US11541809B2 (en) Unmanned roadside signage vehicle system
US9669829B2 (en) Travel lane marking recognition system
US10210406B2 (en) System and method of simultaneously generating a multiple lane map and localizing a vehicle in the generated map
CN106891888B (zh) 车辆转向信号检测
US7797108B2 (en) Collision avoidance system and method of aiding rearward vehicular motion
US20190354103A1 (en) Providing user assistance in a vehicle based on traffic behavior models
US10657822B2 (en) Vehicle control device
US20100030474A1 (en) Driving support apparatus for vehicle
CN112074885A (zh) 车道标志定位
CN109388139B (zh) 自动化导引系统
JP7324020B2 (ja) 交通制御システム
KR20170082674A (ko) 차량안전 주행지원 단말장치 및 차량안전 주행지원 방법
CN114758527B (zh) 车辆感知数据收集系统和方法
US20200384993A1 (en) Motor vehicle driving assistance device and method
EP2676845A1 (en) A method and system for dynamically adjusting a vehicle mirror
JP2020163903A (ja) 表示制御装置、表示制御方法、及びプログラム
KR102725597B1 (ko) 무인 항공기와 통신하는 차량용 인포테인먼트 시스템 및 그 작동 방법
KR20200010994A (ko) 무인 항공기와 통신하는 차량용 인포테인먼트 시스템 및 그 작동 방법
US11767021B2 (en) Systems and methods for remotely assisting an operator
NZ742956B2 (en) An unmanned roadside signage vehicle system