[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20210026594A - 차량의 주행 상태 모니터링 방법 및 장치 - Google Patents

차량의 주행 상태 모니터링 방법 및 장치 Download PDF

Info

Publication number
KR20210026594A
KR20210026594A KR1020190107597A KR20190107597A KR20210026594A KR 20210026594 A KR20210026594 A KR 20210026594A KR 1020190107597 A KR1020190107597 A KR 1020190107597A KR 20190107597 A KR20190107597 A KR 20190107597A KR 20210026594 A KR20210026594 A KR 20210026594A
Authority
KR
South Korea
Prior art keywords
vehicle
driving
verification
information
section
Prior art date
Application number
KR1020190107597A
Other languages
English (en)
Inventor
김소령
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020190107597A priority Critical patent/KR20210026594A/ko
Priority to US16/578,212 priority patent/US20200010095A1/en
Publication of KR20210026594A publication Critical patent/KR20210026594A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/02Control of vehicle driving stability
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/182Selecting between different operative modes, e.g. comfort and performance modes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0051Handover processes from occupants to vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0061Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements for transition from automatic pilot to manual pilot and vice versa
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • B60K2370/152
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/007Switching between manual and automatic parameter input, and vice versa
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/007Switching between manual and automatic parameter input, and vice versa
    • B60W2050/0071Controller overrides driver automatically
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • B60W2050/0088Adaptive recalibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • B60W2720/106Longitudinal acceleration

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mathematical Physics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)

Abstract

차량의 주행 상태 모니터링 방법이 개시된다. 주행 상태 모니터링 방법은 차량의 주행 정보를 획득하는 단계, 상기 획득한 주행 정보로부터 일정 구간 내에서 적어도 하나의 조건을 만족하는지 확인하는 단계, 상기 만족하는 조건에 대응하는 검증 종류를 확인하는 단계, 상기 검증 종류를 기반으로 상기 차량의 주행 상태를 확인하는 단계를 포함할 수 있다. 본 발명의 자율주행 차량, 범죄 예측 장치 중 하나 이상은 인공지능(Artificial Intelligence) 모듈, 드론(Unmmaned Aerial Vehicle, UAV), 로봇, 증강 현실(Augmented Reality, AR) 장치, 가상 현실(Virtual Reality, VR) 장치, 5G서비스와 관련된 장치 등과 연계될 수 있다.

Description

차량의 주행 상태 모니터링 방법 및 장치{THE METHOD AND APPARATUS FOR MONITORING DRIVING CONDITION OF VEHICLE}
본 개시는 연산 장치가 수동 주행 중인 차량의 주행 상태를 모니터링하는 방법및 장치에 관한 것으로, 구체적으로 본 개시는 차량의 주행 정보로부터 확인된 검증 종류를 확인하고, 확인 결과를 기반으로 차량의 주행 상태를 확인하여 차량의 주행을 제어하는 방법 및 장치에 관한 것이다.
자율 주행 중인 차량에서 수동 주행이 필요한 상황이 발생되거나 또는 운전자가 수동 주행을 하려는 경우, 차량은 자율 주행에서 수동 주행으로 전환될 수 있다. 수동 주행 중인 차량의 경우 운전자에 따라 차량의 주행과 관련해서 위험 요소가 확인될 수 있다. 이는 운전자의 숙련도는 운전 시간, 지역 또는 운전 경력에 따라 변경되거나 상이할 수 있기 때문이다. 따라서 자율 주행에서 수동 주행으로 전환된 차량의 주행과 관련해서 위험 요소가 있는지 여부에 대한 모니터링이 필요하고, 위험 요소가 있는 차량의 주행에 대한 제어가 필요할 수 있다.
본 명세서의 실시 예는 상술한 문제점을 해결하기 위하여 제안된 것으로 차량의 주행 정보로부터 확인된 검증 종류를 확인하고, 확인 결과를 기반으로 차량의 주행 상태를 확인하여 차량의 주행을 제어하는 기술을 개시한다. 본 실시 예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시 예 들로부터 또 다른 기술적 과제들이 유추될 수 있다.
상술한 과제를 달성하기 위하여, 본 명세서의 일 실시 예에 따르는 차량이 수행하는 주행 상태 모니터링 방법은 차량의 주행 정보를 획득하는 단계, 상기 획득한 주행 정보로부터 일정 구간 내에서 적어도 하나의 조건을 만족하는지 확인하는 단계, 상기 만족하는 조건에 대응하는 검증 종류를 확인하는 단계, 상기 검증 종류를 기반으로 상기 차량의 주행 상태를 확인하는 단계를 포함할 수 있다.
본 명세서의 다른 일 실시 예에 따르는 차량은 디스플레이; 차량의 주행 정보를 획득하고, 상기 획득한 주행 정보로부터 일정 구간 내에서 적어도 하나의 조건을 만족하는지 확인하고, 상기 만족하는 조건에 대응하는 검증 종류를 확인하고, 상기 검증 종류를 기반으로 상기 차량의 주행 상태를 확인하는 프로세서를 포함할 수 있다.
기타 실시 예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 명세서의 실시 예에 따르면 아래와 같은 효과가 하나 혹은 그 이상 있다.
첫째, 수동 주행 중인 차량의 주행 상태를 모니터링하여 불안전한 주행을 하는 차량에 대한 제어를 함으로써 수동 주행 중인 차량에 대한 사고 불안감 감소 및 다른 차량 탑승객의 안전도가 향상될 수 있다.
둘째, 수동 주행하는 차량의 주행 상태에 따라 자율 주행으로 주행 전환하거나 또는 주행 교정을 안내함으로써 차량의 주행 안전성이 확보될 수 있다.
셋째, 검증 구간이 검색된 경우 가상 객체의 표시에 따라 실제와 유사한 환경에서 검증되거나 또는 검증 구간이 검색되지 않은 경우 다른 차량과의 주행 정보 비교를 통해 차량의 주행 상태가 검증됨으로써 주행 상태가 정확하게 검증될 수 있다.
발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당해 기술 분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시 예에 따른 AI 장치(100)를 나타낸다.
도 2는 본 발명의 일 실시 예에 따른 AI 서버(200)를 나타낸다.
도 3은 본 발명의 일 실시 예에 따른 AI 시스템(1)을 나타낸다.
도 4는 본 발명의 일 실시 예에 따른, 차량의 주행 상태를 모니터링 하는 것을 나타낸 도면이다.
도 5는 일 실시 예에 따른, 속도 검증인 경우 주행 상태를 모니터링하고, 이에대한 정보를 제공하는 것을 나타낸 도면이다.
도 6은 일 실시 예에 따른, 조향 검증인 경우 주행 상태를 모니터링하고, 이에대한 정보를 제공하는 것을 나타낸 도면이다.
도 7은 본 발명의 일 실시 예에 따른, 차량이 주행 상태를 모니터링하는 과정을 나타낸 도면이다.
도 8은 본 발명의 일 실시 예에 따른, 차량의 주행을 제어하는 과정을 나타낸 도면이다.
도 9는 본 발명의 일 실시 예에 따른, 서버가 차량의 주행 상태 모니터링 과정에 관여하는 절차를 나타낸 도면이다.
도 10은 본 발명의 일 실시 예에 따른, 주행 상태를 모니터링하는 차량과 서버를 나타낸 도면이다.
도 11은 본 발명의 일 실시 예에 따른, 차량과 네트워크 간의 동작을 나타낸 도면이다.
도 12는 본 발명의 일 실시 예에 따른, 무선 통신을 이용한 차량 대 차량 간의 동작의 일 예를 나타낸다.
이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.
실시 예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.
마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이 때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이 때, 본 실시 예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
본 명세서에서 인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함수값을 출력할 수 있다.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.
인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥 러닝을 포함하는 의미로 사용된다.
본 명세서에서 자율 주행은 스스로 주행하는 기술을 의미하며, 자율 주행 차량은 사용자의 조작 없이 또는 사용자의 최소한의 조작으로 주행하는 차량(Vehicle)을 의미한다.
예컨대, 자율 주행에는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등이 모두 포함될 수 있다.
차량은 내연 기관만을 구비하는 차량, 내연 기관과 전기 모터를 함께 구비하는 하이브리드 차량, 그리고 전기 모터만을 구비하는 전기 차량을 모두 포괄하며, 자동차뿐만 아니라 기차, 오토바이 등을 포함할 수 있다.
이때, 자율 주행 차량은 자율 주행 기능을 가진 로봇으로 볼 수 있다.
본 명세서에서 확장 현실은 가상 현실(VR: Virtual Reality), 증강 현실(AR: Augmented Reality), 혼합 현실(MR: Mixed Reality)을 총칭한다. VR 기술은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하고, AR 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다.
MR 기술은 현실 객체와 가상 객체를 함께 보여준다는 점에서 AR 기술과 유사하다. 그러나, AR 기술에서는 가상 객체가 현실 객체를 보완하는 형태로 사용되는 반면, MR 기술에서는 가상 객체와 현실 객체가 동등한 성격으로 사용된다는 점에서 차이점이 있다.
XR 기술은 HMD(Head-Mount Display), HUD(Head-Up Display), 휴대폰, 태블릿 PC, 랩탑, 데스크탑, TV, 디지털 사이니지 등에 적용될 수 있고, XR 기술이 적용된 장치를 XR 장치(XR Device)라 칭할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 AI 장치(100)를 나타낸다.
AI 장치(100)는 TV, 프로젝터, 휴대폰, 스마트폰, 데스크탑 컴퓨터, 노트북, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), DMB 수신기, 라디오, 세탁기, 냉장고, 데스크탑 컴퓨터, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 1을 참조하면, 단말기(100)는 통신부(110), 입력부(120), 러닝 프로세서(130), 센싱부(140), 출력부(150), 메모리(170) 및 프로세서(180) 등을 포함할 수 있다.
통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 장치(100a 내지 100e)나 AI 서버(200) 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(110)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.
이때, 통신부(110)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.
입력부(120)는 다양한 종류의 데이터를 획득할 수 있다.
이때, 입력부(120)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.
입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(180) 또는 러닝 프로세서(130)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.
러닝 프로세서(130)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.
이때, 러닝 프로세서(130)는 AI 서버(200)의 러닝 프로세서(240)과 함께 AI 프로세싱을 수행할 수 있다.
이때, 러닝 프로세서(130)는 AI 장치(100)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(130)는 메모리(170), AI 장치(100)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.
센싱부(140)는 다양한 센서들을 이용하여 AI 장치(100) 내부 정보, AI 장치(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.
이때, 센싱부(140)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다.
이때, 출력부(150)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.
메모리(170)는 AI 장치(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(170)는 입력부(120)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다. 메모리(170)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
프로세서(180)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 장치(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(180)는 AI 장치(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.
이를 위해, 프로세서(180)는 러닝 프로세서(130) 또는 메모리(170)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 장치(100)의 구성 요소들을 제어할 수 있다.
이때, 프로세서(180)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.
프로세서(180)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.
이때, 프로세서(180)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(130)에 의해 학습된 것이나, AI 서버(200)의 러닝 프로세서(240)에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.
프로세서(180)는 AI 장치(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(170) 또는 러닝 프로세서(130)에 저장하거나, AI 서버(200) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
프로세서(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, AI 장치(100)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(180)는 상기 응용 프로그램의 구동을 위하여, AI 장치(100)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.
도 2는 본 발명의 일 실시 예에 따른 AI 서버(200)를 나타낸다.
도 2를 참조하면, AI 서버(200)는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. 여기서, AI 서버(200)는 복수의 서버들로 구성되어 분산 처리를 수행할 수도 있고, 5G 네트워크로 정의될 수 있다. 이때, AI 서버(200)는 AI 장치(100)의 일부의 구성으로 포함되어, AI 프로세싱 중 적어도 일부를 함께 수행할 수도 있다.
AI 서버(200)는 통신부(210), 메모리(230), 러닝 프로세서(240) 및 프로세서(260) 등을 포함할 수 있다.
통신부(210)는 AI 장치(100) 등의 외부 장치와 데이터를 송수신할 수 있다.
메모리(230)는 모델 저장부(231)를 포함할 수 있다. 모델 저장부(231)는 러닝 프로세서(240)을 통하여 학습 중인 또는 학습된 모델(또는 인공 신경망, 231a)을 저장할 수 있다.
러닝 프로세서(240)는 학습 데이터를 이용하여 인공 신경망(231a)을 학습시킬 수 있다. 학습 모델은 인공 신경망의 AI 서버(200)에 탑재된 상태에서 이용되거나, AI 장치(100) 등의 외부 장치에 탑재되어 이용될 수도 있다.
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(230)에 저장될 수 있다.
프로세서(260)는 학습 모델을 이용하여 새로운 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수 있다.
도 3은 본 발명의 일 실시 예에 따른 AI 시스템(1)을 나타낸다.
도 3을 참조하면, AI 시스템(1)은 AI 서버(200), 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 중에서 적어도 하나 이상이 클라우드 네트워크(10)와 연결된다. 여기서, AI 기술이 적용된 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 등을 AI 장치(100a 내지 100e)라 칭할 수 있다.
클라우드 네트워크(10)는 클라우드 컴퓨팅 인프라의 일부를 구성하거나 클라우드 컴퓨팅 인프라 안에 존재하는 네트워크를 의미할 수 있다. 여기서, 클라우드 네트워크(10)는 3G 네트워크, 4G 또는 LTE(Long Term Evolution) 네트워크 또는 5G 네트워크 등을 이용하여 구성될 수 있다.
즉, AI 시스템(1)을 구성하는 각 장치들(100a 내지 100e, 200)은 클라우드 네트워크(10)를 통해 서로 연결될 수 있다. 특히, 각 장치들(100a 내지 100e, 200)은 기지국을 통해서 서로 통신할 수도 있지만, 기지국을 통하지 않고 직접 서로 통신할 수도 있다.
AI 서버(200)는 AI 프로세싱을 수행하는 서버와 빅 데이터에 대한 연산을 수행하는 서버를 포함할 수 있다.
AI 서버(200)는 AI 시스템(1)을 구성하는 AI 장치들인 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 중에서 적어도 하나 이상과 클라우드 네트워크(10)을 통하여 연결되고, 연결된 AI 장치들(100a 내지 100e)의 AI 프로세싱을 적어도 일부를 도울 수 있다.
이때, AI 서버(200)는 AI 장치(100a 내지 100e)를 대신하여 머신 러닝 알고리즘에 따라 인공 신경망을 학습시킬 수 있고, 학습 모델을 직접 저장하거나 AI 장치(100a 내지 100e)에 전송할 수 있다.
이때, AI 서버(200)는 AI 장치(100a 내지 100e)로부터 입력 데이터를 수신하고, 학습 모델을 이용하여 수신한 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성하여 AI 장치(100a 내지 100e)로 전송할 수 있다.
또는, AI 장치(100a 내지 100e)는 직접 학습 모델을 이용하여 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수도 있다.
이하에서는, 상술한 기술이 적용되는 AI 장치(100a 내지 100e)의 다양한 실시 예들을 설명한다. 여기서, 도 3에 도시된 AI 장치(100a 내지 100e)는 도 1에 도시된 AI 장치(100)의 구체적인 실시 예로 볼 수 있다.
자율 주행 차량(100b)은 AI 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.
자율 주행 차량(100b)은 자율 주행 기능을 제어하기 위한 자율 주행 제어 모듈을 포함할 수 있고, 자율 주행 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다. 자율 주행 제어 모듈은 자율 주행 차량(100b)의 구성으로써 내부에 포함될 수도 있지만, 자율 주행 차량(100b)의 외부에 별도의 하드웨어로 구성되어 연결될 수도 있다.
자율 주행 차량(100b)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 자율 주행 차량(100b)의 상태 정보를 획득하거나, 주변 환경 및 객체를 확인(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 동작을 결정할 수 있다.
여기서, 자율 주행 차량(100b)은 이동 경로 및 주행 계획을 결정하기 위하여, 로봇(100a)과 마찬가지로, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.
특히, 자율 주행 차량(100b)은 시야가 가려지는 영역이나 일정 거리 이상의 영역에 대한 환경이나 객체는 외부 장치들로부터 센서 정보를 수신하여 인식하거나, 외부 장치들로부터 직접 인식된 정보를 수신할 수 있다.
자율 주행 차량(100b)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 자율 주행 차량(100b)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 주행 동선을 결정할 수 있다. 여기서, 학습 모델은 자율 주행 차량(100b)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, 자율 주행 차량(100b)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
자율 주행 차량(100b)은 맵 데이터, 센서 정보로부터 확인한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 자율 주행 차량(100b)을 주행시킬 수 있다.
맵 데이터에는 자율 주행 차량(100b)이 주행하는 공간(예컨대, 도로)에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 가로등, 바위, 건물 등의 고정 객체들과 차량, 보행자 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 자율 주행 차량(100b)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이때, 자율 주행 차량(100b)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.
XR 장치(100c)는 AI 기술이 적용되어, HMD(Head-Mount Display), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 휴대폰, 스마트 폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지, 차량, 고정형 로봇이나 이동형 로봇 등으로 구현될 수 있다.
XR 장치(100c)는 다양한 센서들을 통해 또는 외부 장치로부터 획득한 3차원 포인트 클라우드 데이터 또는 이미지 데이터를 분석하여 3차원 포인트들에 대한 위치 데이터 및 속성 데이터를 생성함으로써 주변 공간 또는 현실 객체에 대한 정보를 획득하고, 출력할 XR 객체를 렌더링하여 출력할 수 있다. 예컨대, XR 장치(100c)는 인식된 물체에 대한 추가 정보를 포함하는 XR 객체를 해당 인식된 물체에 대응시켜 출력할 수 있다.
XR 장치(100c)는 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, XR 장치(100c)는 학습 모델을 이용하여 3차원 포인트 클라우드 데이터 또는 이미지 데이터에서 현실 객체를 인식할 수 있고, 인식한 현실 객체에 상응하는 정보를 제공할 수 있다. 여기서, 학습 모델은 XR 장치(100c)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, XR 장치(100c)는 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
자율 주행 차량(100b)은 AI 기술 및 XR 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.
XR 기술이 적용된 자율 주행 차량(100b)은 XR 영상을 제공하는 수단을 구비한 자율 주행 차량이나, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량 등을 의미할 수 있다. 특히, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량(100b)은 XR 장치(100c)와 구분되며 서로 연동될 수 있다.
XR 영상을 제공하는 수단을 구비한 자율 주행 차량(100b)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하고, 획득한 센서 정보에 기초하여 생성된 XR 영상을 출력할 수 있다. 예컨대, 자율 주행 차량(100b)은 HUD를 구비하여 XR 영상을 출력함으로써, 탑승자에게 현실 객체 또는 화면 속의 객체에 대응되는 XR 객체를 제공할 수 있다.
이때, XR 객체가 HUD에 출력되는 경우에는 XR 객체의 적어도 일부가 탑승자의 시선이 향하는 실제 객체에 오버랩되도록 출력될 수 있다. 반면, XR 객체가 자율 주행 차량(100b)의 내부에 구비되는 디스플레이에 출력되는 경우에는 XR 객체의 적어도 일부가 화면 속의 객체에 오버랩되도록 출력될 수 있다. 예컨대, 자율 주행 차량(100b)은 차로, 타 차량, 신호등, 교통 표지판, 이륜차, 보행자, 건물 등과 같은 객체와 대응되는 XR 객체들을 출력할 수 있다.
XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량(100b)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 자율 주행 차량(100b) 또는 XR 장치(100c)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(100c)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 자율 주행 차량(100b)은 XR 장치(100c) 등의 외부 장치를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.
도 4는 본 발명의 일 실시 예에 따른, 차량의 주행 상태를 모니터링 하는 것을 나타낸 도면이다.
차량(400)은 자동 주행 또는 수동 주행으로 주행할 수 있다. 본 명세서에서 자동 주행은 자율 주행을 포함할 수 있다. 자동 주행 중에도 사용자의 요청에 의해 차량(400)은 수동 주행으로 전환될 수 있다. 다만, 수동 주행 중인 사용자의 운전과 관련된 위험 요소가 있는 경우, 차량은 수동 주행을 자동 주행으로 전환하거나 또는 주행 교정될 수 있도록 주행 안내하거나 또는 지속적으로 수동 주행 중인 차량의 주행 상태를 모니터링할 수 있다. 일 예로 지속적으로 수동 주행 중인 차량의 주행 상태를 모니터링 하는 것은 모니터링 하기 위한 정보 수집과 관련된 주기 및 민감도를 변경하는 것을 포함할 수 있다. 일 예로 주행과 관련된 위험 요소가 있는 경우, 연산 장치는 정보 수집을 보다 자주하거나 보다 높은 민감도로 정보 수집을 할 수 있다.
차량(400)의 주행이 자동 주행에서 수동 주행으로 전환된 경우, 주행 상태를 검증하기 위해 수동 주행 중인 차량(400)의 주행 정보가 수집될 수 있다. 이때, 수집되는 주행 정보는 차량(400)의 주행과 관련된 정보를 포함할 수 있다. 예를 들면, 차량(400)의 예상 주행 경로, 예상 주행 경로 상의 교통량, 차량의 위치, 주행 속도, 차량의 차선 내 위치, 일정 시간 동안 일정 속도 이상의 변화(예를 들면, 급정지, 급가속) 횟수, 차선 변경 시 조향 각도, 차간 간격 및 주행 영상 중 적어도 하나의 정보가 주행 정보로 수집될 수 있다.
차량(400)은 수집된 주행 정보를 이용하여, 일정 구간 내에서 적어도 하나의 조건을 만족하는지 여부를 확인할 수 있다. 여기서, 적어도 하나의 조건은 차량의 주행 상태에 위험 요소가 있는지 여부와 관련된 것일 수 있다. 구체적으로, 차량(400)은 수동 주행 중인 차량(400)에 대한 위험 요소인 검증 요인의 발생 여부를 확인할 수 있다. 여기서, 검증 요인은 수동 주행 중인 차량(400)의 주행 상태에 위험 요소가 있는지 여부의 판단에 이용되는 정보를 포함할 수 있다. 예를 들면, 일정 구간 내에서 일정 시간 동안 일정 속도 이상의 증가(일례로, 급가속) 또는 감소(일례로, 급감속) 및 증가 또는 감소의 횟수가 검증 요인에 포함될 수 있다. 또한, 일정 구간에서 다른 차량의 평균 주행 속도 대비 차량(400)의 평균 주행 속도가 일정 시간 동안 높게 유지되거나 또는 일정 시간 동안 낮게 유지되었는지 여부가 검증 요인에 포함될 수 있다. 또한, 일정 구간에서 차선 변경 시 조향 각도가 일정 기준 이상 변경되었는지 여부가 검증 요인에 포함될 수 있다. 여기서, 일정 기준은 법규에 따른 차선 변경 시 요구되는 차량의 조향 각도의 통계적인 값 및 차량의 기계적 성능 중 적어도 하나를 기반으로 결정될 수 있다. 또한, 차선 내 차량(400)의 상대적 위치, 실제 객체 표시에 따른 주행 속도의 변화 및 실제 객체 표시에 따른 조향 각도의 변화 중에서 적어도 하나가 검증 요인에 포함될 수 있다. 차량(400)은 검증 요인의 확인 여부에 따라 적어도 하나의 조건을 만족하는지 여부를 결정할 수 있다. 이때, 주행 정보로부터 검증 요인이 확인된 경우 적어도 하나의 조건이 만족된 상태일 수 있다.
이때, 차량(400)은 일정 구간 내에서 적어도 하나의 검증 요인의 발생 횟수가 기 설정된 횟수 이상인지 여부를 확인할 수 있다. 구체적으로, 일정 구간 내에서 검증 요인의 발생 횟수가 기 설정된 횟수 이상인 경우 차량(400)은 주행 상태를 검증하는 절차를 수행할 수 있지만, 기 설정된 횟수 미만인 경우 차량(400)은 주행 상태를 검증하는 절차를 수행하지 않을 수 있다. 예를 들면, 기 설정된 횟수가 2회 인 경우, 구간 1에서 검증 요인이 2회 이상 발생한다면 차량(400)은 주행 상태를 검증하는 절차를 수행할 수 있지만, 구간 1에서 검증 요인이 1회 발생하고 구간 2에서 검증 요인이 1회 발생한다면 차량(400)은 주행 상태를 검증하는 절차를 수행하지 않을 수 있다. 이때, 구간 1 및 구간 2 ~ 는 차량(400)의 예상 주행 경로에 포함된 구간일 수 있다. 실시 예에서 검증을 수행하는 검증 구간은 주행 경로와 관련해서 획득된 통계 정보에 의해 결정될 수 있다. 보다 구체적으로 상기 통계 정보는 해당 경로를 주행하는 다른 차량의 주행 정보를 포함할 수 있다. 이에 따라서 검증에 적합한 구간이 검증 구간으로 설정될 수 있다.
또한 실시 예에서 연산 장치는 특정 구간에서 검증 결과를 기반으로 다음 검증 구간을 결정할 수 있다. 일 예로 검증 결과 추가 검증이 필요할 것으로 판단되면, 해당 검증 구간을 연장하거나, 다음 검증 구간을 변경하여 보다 이른 시간에 다음 검증이 수행되도록 제어할 수 있다.
차량(400)은 적어도 하나의 조건에 대응하는 검증 종류를 확인할 수 있다. 즉, 차량은 주행 정보로부터 확인된 검증 요인에 대응하는 검증 종류를 확인할 수 있다. 이때, 검증 종류는 속도 검증 및 조향 검증 중 적어도 하나를 포함할 수 있다. 여기서, 속도 검증은 차량(400)의 속도와 관련된 검증을 포함하고, 조향 검증은 차량(400)의 조향과 관련된 검증을 포함할 수 있다.
실시 예에서, 차량(400)의 주행 정보로부터 일정 구간 내에서 일정 시간 동안 일정 속도 이상의 증가 또는 감소와 관련된 검증 요인이 확인된 경우, 차량(400)은 검증 종류를 속도 검증으로 확인할 수 있다. 이때, 일정 구간, 일정 시간 또는 일정 속도는 도로에 따라 허용된 규정 범위를 참조하여 사전에 설정될 수 있다. 여기서, 속도의 변화 량에 따라 속도 검증은 등급 별로 세분화될 수 있다. 예를 들면, 차량(400)의 속도 변화 량과 기 설정된 속도 변화 량을 비교하여 차량(400)의 속도 검증의 등급이 결정될 수 있다. 또한, 차량(400)의 주행 정보로부터 일정 구간에서 다른 차량의 평균 주행 속도 대비 차량(400)의 평균 주행 속도가 일정 시간 동안 높게 유지(예를 들면, 과속)되거나 또는 일정 시간 동안 낮게 유지된 경우, 차량(400)은 검증 종류를 속도 검증으로 확인할 수 있다. 이때, 평균 주행 속도는 일정 구간 동안의 차량(400)의 평균 속도이고, 다른 차량의 평균 주행 속도는 차량(400)과 동일한 구간을 주행하는 다른 차량의 일정 구간 동안의 평균 속도일 수 있다. 여기서, 차량(400)과 동일한 구간은 차량(400)과 인접한 거리에서 주행하는 구간을 포함할 수 있다. 또한, 차량(400)의 주행 정보로부터 일정 구간에서 실제 객체 표시 이후 차량(400)의 속도 변화 정도가 기 설정된 기준 보다 큰 경우, 차량(400)을 수동 주행하는 사용자의 반응 속도가 느린 것으로 판단되어 차량(400)은 검증 종류를 속도 검증으로 확인할 수 있다.
실시 예에서, 차량(400)이 특정 조향 각도 이상으로 차선 변경을 하는 경우 차량(400)은 검증 종류를 조향 검증으로 확인할 수 있다. 이때, 평균 조향 각도는 차선의 폭, 차량의 속도 중에서 적어도 하나를 고려하여 결정될 수 있다. 또한, 차량(400)의 왼쪽 바퀴와 왼쪽 차선 간의 간격이 기 설정된 간격 이하로 일정 시간 동안 유지되는 경우 또는 차량(400)의 오른쪽 바퀴와 오른쪽 차선 간의 간격이 기 설정된 간격 이하로 일정 시간 동안 유지되는 경우 차량(400)은 검증 종류를 조향 검증으로 확인할 수 있다. 구체적으로, 차량(400)의 왼쪽 바퀴와 왼쪽 차선 간의 간격이 기 설정된 간격 이하로 일정 시간 미만 유지되는 경우 조향 검증이 필요하지 않지만, 일정 시간 이상 유지되는 경우 조향 검증이 필요할 수 있다. 이때, 기 설정된 간격은 차량의 폭과 차선의 폭을 고려하여 결정될 수 있다. 또한, 차량(400)의 주행 정보로부터 일정 구간에서 실제 객체 표시 이후 차량(400)의 조향 각도 변화 정도가 기 설정된 기준 보다 큰 경우, 차량(400)은 검증 종류를 조향 검증으로 확인할 수 있다.
차량(400)은 확인된 검증 종류에 따른 속도 검증 또는 조향 검증을 수행하거나 또는 각각에 대해 주행 상태를 확인할 수 있다. 구체적으로, 속도 검증만 확인된 경우 차량(400)은 속도 검증에 대한 주행 상태를 확인하거나, 또는 조향 검증만 확인된 경우 차량(400)은 조향 검증에 대한 주행 상태를 확인하거나, 또는 속도 검증 및 조향 검증이 모두 확인된 경우 차량(400)은 각각에 대한 주행 상태를 확인할 수 있다.
검증 종류를 확인한 차량(400)은 차량(400)의 주행 상태와 관련된 정보를 서버로 전송할 수 있다. 여기서, 서버는 차량(400)의 내부 또는 외부에 설치된 별도의 연산 장치를 포함할 수 있다. 차량(400)의 주행 상태와 관련된 정보는 차량(400)의 위치, 수집된 검증 요인, 검증 종류, 운전자 정보를 포함할 수 있다.
차량(400)의 주행 변경이 없는 구간인 검증 구간이 있는 경우, 서버는 검증 종류에 대응하는 제1 검증 모델을 결정할 수 있다. 여기서, 검증 구간은 차량(400)의 예상 주행 경로 중에서 주행 변경이 없는 구간으로서, 예를 들면 직진 구간 또는 신호 등 간의 차선 변경 없이 주행이 가능한 구간 또는 주행 차선과 인접 차선의 교통량이 기 설정된 교통량 미만(예를 들면, 교통량 30% 미만)에 해당하는 구간을 포함할 수 있다. 이때, 차량(400)의 예상 주행 경로에 적어도 하나의 검증 구간(예를 들면, 검증 구간 1, 검증 구간 2, 검증 구간 3 ~)이 포함된 경우, 적어도 하나의 검증 구간 중에서 차량(400)의 현재 위치에 근접한 검증 구간에서 차량의 주행 상태가 검증될 수 있다. 주행 변경이 없는 구간은 검증 모델을 이용하여 차량의 주행 상태를 확인할 때 사고 유발 가능성이 낮은 구간일 수 있다.
검증 구간이 결정된 경우, 서버는 검증 종류에 대응하는 제1 검증 모델을 결정할 수 있다. 제1 검증 모델은 결정된 검증 구간 내에서 차량(400)에 대한 속도 검증 또는 조향 검증을 수행하기 위해 가상 객체, 가상 객체의 표시 위치 및 가상 객체의 표시에 따른 차량(400)의 예상 제어 정보 중 적어도 하나를 포함할 수 있다.
가상 객체는 차량(400)의 주행 상태를 검증하기 위해, 차량(400)의 디스플레이에 표시되는 가상의 객체를 포함할 수 있다. 구체적으로, 속도 검증인 경우 가상 객체는 차량(400)의 속도에 변화를 유도할 수 있는 가상의 객체일 수 있으며, 일 예로 가상 객체는 가상 신호등, 가상 표지판, 가상 횡단보도 및 가상 방지턱 중 적어도 하나를 포함할 수 있다. 또한 조향 검증인 경우 가상 객체는 차량(400)의 조향에 변화를 유도할 수 있는 가상의 객체일 수 있으며, 일 예로 가상 객체는 주행 차선 또는 인접 차선에 위치한 가상의 차량, 가상의 싱크홀 및 가상의 공사 표지판 중 적어도 하나가 포함될 수 있다.
가상 객체의 표시 위치는 검증 구간 내에서 결정될 수 있다. 구체적으로, 가상 객체의 표시 위치는 속도 검증인 경우 검증 구간 내에서 가상 객체가 표시할 때 차량(400)의 속도 변화에 따른 일정 거리 확보가 가능한 위치일 수 있다. 예를 들면, 차량(400)의 현재 속도가 60km/s인 경우, 가상 빨간 신호등의 표시에 따라 60km/s인 차량(400)의 정지 가능한 거리가 확보될 수 있도록 가상 빨간 신호등의 표시 위치가 결정될 수 있다. 또는, 차량(400)의 속도 변화에 따라 다른 차량과의 안전한 일정 거리 확보가 가능한 위치일 수 있다. 또한, 가상 객체의 표시 위치는 조향 검증인 경우 검증 구간 내에서 차량(400)과 다른 차량 간의 기 설정된 일정 거리 확보가 가능한 위치일 수 있다. 예를 들면, 가상 객체의 표시 위치는 가상 공사 표지판의 표시에 따른 60km/s인 차량(400)이 인접 차선으로 차선 변경할 때, 인접 차선에 있는 다른 차량과의 기 설정된 일정 거리 확보가 가능한 위치일 수 있다.
이때, 가상 객체의 표시 방법은 차량(400)의 디스플레이를 통해 표시되는 것을 포함할 수다. 차량(400)의 디스플레이는 전방 디스플레이, 사이드 미러, 백 미러 및 네비게이션 중 적어도 하나 상의 이미지 정보를 표시할 수 있는 기기일 수 있다. 또한, 가상 객체의 표시 방법은 가상 객체와 대응되는 소리를 출력하는 것을 포함할 수 있으며, 소리는 차량(400)의 음향 기기를 통해 출력될 수 있다. 일 례로 소리는 가상 객체의 출현과 대응되는 관련 정보를 포함하는 음성 정보를 포함할 수 있다.
차량(400)의 예상 제어 정보는 가상 객체의 표시에 따른 차량(400)의 예측되는 제어 정보를 포함할 수 있다. 구체적으로, 속도 검증을 수행하는 경우 가상 객체의 표시로 인해 일정한 속도로 주행하는 차량(400)의 예측되는 주행 변화가 예상 제어 정보에 포함될 수 있고, 또한 조향 검증을 수행하는 경우 가상 객체의 표시로 인해 인접 차선으로 차선 변경 시 인접 차선에 위치한 다른 차량과의 안전 거리가 예상 제어 정보에 포함될 수 있다. 예를 들면, 80km/s로 주행하는 차량(400)에게 10m 앞부터 최고 속력 70km/s로 제한됨이 안내된 경우, 10m 동안 차량(400)의 속도 변화가 예상 제어 정보에 포함될 수 있다. 또한, 80km/s로 주행하는 차량(400)에게 주행 차선의 20m 앞에 가상 공사 표지판을 안내한 경우, 20m 동안 차량(400)의 인접 차선으로 차선 변경에 따른 인접 차선에 위치한 다른 차량과의 안전 거리가 예상 제어 정보에 포함될 수 있다.
제1 검증 모델과 관련된 정보는 서버에서 차량(400)으로 전송될 수 있고, 차량(400)은 수신한 제1 검증 모델과 관련된 정보를 이용하여 차량의 주행 상태를 확인할 수 있다. 이때, 차량(400)은 무선 통신(예를 들면, V2V, V2X 통신)을 이용하여 검증 구간 내의 다른 차량들에게 검증 상태임을 나타내는 정보를 전송할 수 있다. 일 예로 정보는 차량(400)의 위치, 차량(400)의 정보, 검증 종류 및 검증 모델에 대한 정보 중 적어도 하나를 포함할 수 있다.
차량(400)은 예상 제어 정보를 기반으로 검증 구간 내에서 차량(400)의 주행 상태를 확인할 수 있다. 예를 들면, 속도 검증인 경우 10m 앞에 가상 객체의 표시에 따른 차량(400)의 속도 감속의 정도와 예상 제어 정보에 포함된 속도 감속의 정도가 비교될 수 있다. 또한, 조향 검증인 경우 가상 싱크홀의 표시에 따른 차량(400)이 인접 차선으로 차선 변경 시 다른 차량과 간격이 1m인 경우, 예상 제어 정보인 평균 차간 간격 3m와 비교될 수 있다. 이때, 차간 간격의 오차는 2m일 수 있다.
실시 예에 따르면, 차량(400)의 주행 상태의 변경 정보와 예상 제어 정보의 비교 결과에 따라 차량의 주행이 제어될 수 있다. 구체적으로, 예상 제어 정보와 차량(400)의 주행 상태의 변경 정보가 기 설정된 제1 조건을 만족하는 경우, 수동 주행 중인 차량(400)이 자동 주행으로 전환될 수 있다. 여기서, 기 설정된 제1 조건은 예상 제어 정보와 주행 상태의 변경 정보의 차이가 기 설정된 제1 레벨 이상인 경우일 수 있다. 이때, 기 설정된 제1 레벨은 통계적인 평균 값에 의해 결정될 수 있다. 예를 들면, 예상 제어 정보와 차량(400)의 주행 상태의 변경 정보가 기 설정된 제1 레벨인 60% 이상의 오차가 발생한 경우, 수동 주행 중인 차량(400)의 제어가 자동 주행으로 전환될 수 있다.
자동 주행으로 전환된 이후, 차량(400)에 대한 수동 주행으로 전환 요청이 있는 경우 제2 검증 모델에 따른 차량(400)의 주행 상태가 재 검증될 수 있다. 이때, 제2 검증 모델의 검증 구간 또한 제1 검증 모델의 검증 구간과 마찬가지로 결정될 수 있다. 여기서, 제2 검증 모델은 제1 검증 모델 보다 가상 객체의 표시 위치 또는 차량(400)의 예상 제어 정보가 조정된 모델일 수 있다. 예를 들면, 제1 검증 모델이 20m 앞에서 가상 빨간 신호등의 표시가 안내되는 경우 제2 검증 모델은 10m 앞에서 가상 빨간 신호등의 표시가 안내됨으로써 제1 검증 모델 보다 제2 검증 모델이 운전자의 빠른 반응 속도를 요구할 수 있다. 즉, 제1 검증 모델 보다 제2 검증 모델이 차량의 주행 상태를 보다 엄격히 검증할 수 있다.
차량(400)의 주행 상태가 제2 검증 모델에 따른 예상 제어 정보를 만족하는 경우, 자동 주행 중인 차량(400)이 수동 주행으로 제어가 다시 전환될 수 있다. 차량(400)의 주행 상태가 제2 검증 모델에 따른 예상 제어 정보를 만족하지 못하는 경우, 차량(400)은 수동 주행으로 전환되지 않을 수 있다.
차량(400)이 자동 주행으로 전환된 경우, 차량(400)은 일정 거리 동안 수동 주행으로 전환 요청이 불가할 수 있다. 이때, 차량(400)은 전환 요청의 불가를 안내하고, 전환 요청이 가능한 구간을 검색하여 안내할 수 있다. 전환 요청이 가능한 구간은 사용자의 신체 조건(예를 들면, 혈압, 맥박, 심전도 신호 등)을 고려하여, 사용자가 안정 상태에 도달한 이후 구간일 수 있다. 예를 들면, 자동 주행으로 전환된 이후, 차량(400)은 사용자의 심전도 신호를 모니터링하고 심전도 신호가 안정 상태에 도달한 경우, 사용자에게 전환 요청이 가능함을 안내할 수 있다.
다른 실시 예에 따르면, 차량(400)의 주행 상태의 변경 정보와 예상 제어 정보의 비교 결과에 따라 차량의 주행이 제어될 수 있다. 구체적으로, 예상 제어 정보와 차량(400)의 주행 상태가 기 설정된 제2 조건을 만족하는 경우, 수동 주행 중인 차량(400)에 대한 주행 교정이 진행될 수 있다. 여기서, 기 설정된 제2 조건은 예상 제어 정보와 주행 상태의 변경 정보의 차이가 기 설정된 제1 레벨 미만 제2 레벨 이상인 경우일 수 있다. 이때, 기 설정된 제1 레벨과 제2 레벨은 통계적인 평균 값에 의해 결정될 수 있다. 예를 들면, 예상 제어 정보와 차량(400)의 주행 상태의 변경 정보가 기 설정된 제1 레벨 미만 제2 레벨 이상인 20% ~ 60% 이상의 오차가 발생하여 기 설정된 제2 조건이 만족되는 경우, 수동 주행 중인 차량(400)에 대한 주행 교정이 진행될 수 있다.
여기서, 주행 교정은 차량(400)에 대한 검증 요인이 교정될 수 있도록 안내되는 것을 포함한다. 이때, 안내되는 주행 교정은 검증 요인에 따라 결정될 수 있다. 예를 들면, 해당 구간의 제한 최고 속도가 80km/s인 경우, 과속하는 사용자에 대한 주행 교정하기 위해 제한 최고 속도가 70km/s로 안내될 수 있다. 이때, 안내되는 제한 최고 속도는 사용자의 과속 정도에 따라 결정될 수 있다. 예를 들면, 사용자가 평균 20km/s 이상 과속하는 경우, 과속 속도를 감안하여 제한 최고 속도가 결정될 수 있다. 다른 예를 들면, 차선 변경 시 필요한 차간 간격이 1m인 경우, 사용자에 대해 주행 교정하기 위해 차선 변경 시 필요한 차간 간격은 2m로 안내될 수 있다.
수동 주행 중인 차량(400)에 대한 주행 교정과 관련된 정보가 안내된 이후, 일정 구간 동안 차량(400)으로부터 검증 요인의 재 확인 여부가 모니터링 될 수 있다. 만약, 일정 구간 동안 검증 요인이 재 확인된 경우, 수동 주행 중인 차량(400)은 자동 주행으로 전환될 수 있다. 또한, 일정 구간 동안 검증 요인이 재 확인되지 않는 경우, 제1 검증 모델에 기반하여 주행 상태가 재 검증될 수 있다. 예를 들면, 차간 간격이 2m로 변경된 경우 1km 동안 검증 요인의 재 확인 여부가 모니터링 될 수 있고, 검증 요인이 재 확인된 경우 차량은 자동 주행으로 전환될 수 있다. 다른 예를 들면, 차간 간격이 2m로 변경된 경우 1km 동안 검증 요인의 재 확인 여부가 모니터링 될 수 있고, 검증 요인이 재 확인되지 않은 경우, 검증 모델에 기반하여 차량의 주행 상태가 재 검증될 수 있다.
다른 실시 예에 따르면, 차량(400)의 주행 상태의 변경 정보와 예상 제어 정보의 비교 결과에 따라 차량의 주행이 제어될 수 있다. 구체적으로, 예상 제어 정보와 차량(400)의 주행 상태의 변경 정보의 차이가 기 설정된 제2 레벨 미만인 경우, 수동 주행 중인 차량(400)에 대한 주행 교정 또는 주행 전환 없이 지속적으로 차량(400)의 주행 상태가 모니터링 될 수 있다.
만약, 차량(400)의 주행 상태를 검증하는 검증 구간이 검색되지 않은 경우, 차량(400)의 주행 정보와 일정 구간 내의 다른 차량의 주행 정보를 비교하여 차량(400)의 주행 상태가 확인될 수 있다. 구체적으로, 검증 구간이 검색되지 않은 경우, 차량(400)은 서버로 차량(400)의 주행 정보를 전송할 수 있다. 이때, 전송되는 주행 정보는 예상 주행 경로, 예상 주행 경로 상의 교통량, 차량의 위치, 주행 속도, 차량의 차선 내 위치, 일정 시간 동안 일정 속도 이상의 변화(예를 들면, 급정지, 급가속) 횟수, 차선 변경 시 조향 각도, 차간 간격, 주행 영상과 같은 주행과 관련된 정보를 포함할 수 있다. 차량(400)의 일정 구간에서의 주행 정보와 해당 구간에서의 다른 차량의 평균 주행 정보를 비교하여, 차량(400)의 주행 상태가 검증될 수 있다. 검증 구간이 검색된 경우와 마찬가지로, 검증 구간이 검색되지 않은 경우에도 주행 상태의 검증 결과에 따라 차량(400)에 대한 주행 전환(예를 들면, 수동 주행에서 자동 주행으로 전환), 주행 교정, 지속적인 주행 상태 모니터링 될 수 있다. 즉, 전송된 주행 정보에 따라 차량(400)의 주행 상태가 검증될 수 있다.
실시 예에 따르면, 수동 주행에서 자동 주행으로 주행 전환되거나 또는 주행 교정이 적어도 한번 이상 발생한 사용자와 관련된 정보는 기록되어 관리될 수 있다. 이때, 주행 전환 또는 주행 교정이 기 설정된 횟수 이상 발생한 사용자의 수동 운전은 제한될 수 있다.
도 5는 일 실시 예에 따른, 속도 검증인 경우 주행 상태를 모니터링하고, 이에 대한 정보를 제공하는 것을 나타낸 도면이다. 도 5는 주행하는 차량의 전면 디스플레이에 가상의 횡단 보도(520)과 가상 빨간 신호등(510)이 표시되어, 차량에 대한 속도 검증이 수행되는 것을 나타낸다.
차량은 운전자에 의해 수동 주행 될 수 있다. 수동 주행 중인 차량의 주행 정보는 수집될 수 있다. 이때, 수집되는 차량의 주행 정보는 예상 주행 경로, 예상 주행 경로 상의 교통량, 차량의 위치, 주행 속도, 차량의 차선 내 위치, 일정 시간 동안 일정 속도 이상의 변화(예를 들면, 급정지, 급가속) 횟수, 차선 변경 시 조향 각도, 차간 간격, 주행 영상과 같은 주행과 관련된 정보를 포함할 수 있다.
실시 예에 따르면, 수집된 주행 정보로부터 일정 구간 내에서 적어도 하나의 검증 요인이 확인된 경우, 검증 요인에 대응하는 검증 종류가 확인될 수 있다. 구체적으로, 일정 구간 내에서 차량이 과속하여 조건을 만족하는 경우, 위험 요소인 과속에 대응하는 검증 종류는 속도 검증일 수 있다.
차량은 수집된 주행 정보, 검증 요인 및 검증 종류 중 적어도 하나를 서버로 전송할 수 있고, 서버는 차량의 예상 주행 경로에서 추출된 구간 중에서 주행 변경이 없는 적어도 하나의 검증 구간을 추출할 수 있다. 이때, 연산 장치로 구성된 서버는 차량의 내부 또는 외부에 장착될 수 있다. 예를 들면, 검증 구간은 차량의 예상 주행 경로 중에서 직진 구간 또는 신호 등 간의 차선 변경 없이 주행이 가능한 구간 또는 주행 차선과 인접 차선의 교통량이 기 설정된 교통량 미만(예를 들면, 교통량 30% 미만)에 해당하는 구간을 포함할 수 있다. 이때, 차량의 예상 주행 경로에 적어도 하나의 검증 구간(예를 들면, 검증 구간 1, 검증 구간 2, 검증 구간 3 ~)이 포함된 경우, 적어도 하나의 검증 구간 중에서 차량의 현재 위치에 근접한 검증 구간에서 차량의 주행 상태가 검증될 수 있다.
서버는 속도 검증을 수행하기 위한 제1 검증 모델을 결정할 수 있다. 이때, 제1 검증 모델은 속도 검증에 대응하는 가상 객체, 가상 객체의 표시 위치 및 가상 객체의 표시에 따른 차량의 예상 제어 정보 중 적어도 하나를 포함할 수 있다. 이때, 가상 객체는 차량의 속도에 변화를 유도할 수 있는 객체일 수 있다. 또한, 가상 객체의 표시 위치는 차량이 일정 거리 확보가 가능한 검증 구간 내 위치일 수 있다. 구체적으로, 가속 또는 감속되는 만큼의 주행 거리 확보가 가능한 위치이거나 또는 속도 변화에 따른 차량과 다른 차량 간의 일정 거리 확보가 가능한 위치일 수 있다. 또한, 차량의 예상 제어 정보는 검증 구간 내에서 가상 객체의 표시에 따른 차량의 속도 변화 또는 주행 거리 변화일 수 있다.
예를 들면, 운전자에 의해 수동 주행 중인 차량으로부터 주행 정보는 수집될 수 있다. 수집된 주행 정보로부터 차량이 과속하는 것으로 판단된 경우, 차량은 수집된 주행 정보, 검증 요인(예를 들면, 과속), 속도 검증을 서버로 전송할 수 있다. 관련 데이터를 수신한 서버는 차량의 예상 주행 경로에서 주행 변경이 없는 검증 구간을 결정할 수 있다. 서버는 속도 검증을 수행하기 위한 제1 검증 모델을 결정할 수 있고, 제1 검증 모델과 관련된 정보가 차량으로 전송될 수 있다. 가상 객체는 차량의 검증 구간을 기반으로 결정될 수 있다. 주행 변경이 없는 검증 구간에서 속도 검증을 수행하는데 적절한 가상 빨간 신호등이 가상 객체로 결정될 수 있다. 가상 빨간 신호등은 차량의 주행 속도, 교통량, 다른 차량과의 관계 중에서 적어도 하나를 고려하여 검증 구간 내에서 특정한 위치에 생성될 수 있고, 생성된 가상 빨간 신호등은 디스플레이를 통해 표시될 수 있다. 디스플레이에 표시된 가상 빨간 신호등을 본 운전자는 차량을 정지할 수 있다.
여기서, 가상 객체의 표시에 따른 차량의 주행 상태의 변화 정보는 차량의 속도 변화, 차량의 속도 변화 정도, 차량의 속도 변화에 따른 주행 거리, 차량과 다른 차량간의 거리를 포함할 수 있다. 차량의 주행 상태의 변화 정보와 예상 제어 정보를 비교하여 차량의 주행 상태가 모니터링 될 수 있다. 예를 들면, 가상 빨간 신호등의 표시에 따라 60m/s로 주행하는 차량의 속도 변화 정도, 정지할 때까지의 주행 거리가 예상 제어 정보와 비교될 수 있다. 차량의 속도 변화 정도 또는 속도 변화에 따른 주행 거리는 가상 빨간 신호등의 표시에 따른 운전자의 반응 속도를 측정하는데 이용될 수 있다.
이때, 가상 객체의 표시에 따른 차량의 주행 상태와 예상 제어 정보와 기 설정된 제1 레벨 이상의 차이가 발생한 경우(기 설정된 제1 조건을 만족하는 경우), 차량은 수동 주행에서 자동 주행으로 주행 전환될 수 있다. 자동 주행으로 전환된 이후, 차량에 대한 수동 주행으로 전환 요청이 확인된 경우 속도 검증에 대응하는 제2 검증 모델에 따라 차량의 주행 상태가 재 검증될 수 있다. 이때, 제2 검증 모델은 제1 검증 모델 보다 가상 객체의 표시 위치 또는 예상 제어 정보가 상향 조정될 모델일 수 있다. 예를 들면, 제1 검증 모델이 가상 빨간 신호등의 표시 위치가 전방 20m이고 차량이 정지할 때까지의 주행 거리가 19m로 결정된 경우, 제2 검증 모델의 가상 빨간 신호등의 표시 위치는 전방 10m이고 차량이 정지할 때까지의 주행 거리는 9m로 결정될 수 있다. 따라서, 갑작스러운 가상 객체의 표시에 따른 운전자의 반응 속도가 보다 엄격히 측정될 수 있다.
또한, 가상 객체의 표시에 따른 차량의 주행 상태와 예상 제어 정보와 기 설정된 제1 레벨 미만 제2 레벨 이상의 차이가 발생한 경우(기 설정된 제2 조건을 만족하는 경우), 차량에 대한 주행 교정이 진행될 수 있다. 이때, 주행 교정은 검증 요인의 확인이 감소될 수 있도록 진행될 수 있다. 예를 들면, 검증 요인이 과속인 경우, 차량의 속도가 제한되어 과속하지 않도록 주행 교정이 안내될 수 있다. 만약, 주행 교정 되도록 차량이 제어된 이후, 검증 요인이 일정 구간 내에서 재 확인된 경우 수동 주행 중인 차량은 자동 주행으로 주행 전환될 수 있다.
또한, 가상 객체의 표시에 따른 차량의 주행 상태의 변경 정보와 예상 제어 정보와 기 설정된 제2 레벨 미만의 차이가 발생한 경우, 주행 전환, 주행 교정 없이 차량에 대한 주행 상태 모니터링이 지속될 수 있다. 도 4의 주행 상태 검증에 대한 기재가 도 5에도 적용될 수 있다.
도 6은 일 실시 예에 따른, 조향 검증인 경우 주행 상태를 모니터링하고, 이에대한 정보를 제공하는 것을 나타낸 도면이다. 도 6은 차량의 전면 디스플레이에 가상 도로 공사 표지판이 출력되어, 차량에 대한 조향 검증이 수행되는 것을 나타낸다.
차량은 운전자에 의해 수동 주행 될 수 있다. 수동 주행 중인 차량의 주행 정보는 수집될 수 있다. 이때, 수집되는 차량의 주행 정보는 예상 주행 경로, 예상 주행 경로 상의 교통량, 차량의 위치, 주행 속도, 차량의 차선 내 위치, 일정 시간 동안 일정 속도 이상의 변화(예를 들면, 급정지, 급가속) 횟수, 차선 변경 시 조향 각도, 차간 간격, 주행 영상과 같은 주행과 관련된 정보를 포함할 수 있다.
실시 예에 따르면, 수집된 주행 정보로부터 일정 구간 내에서 적어도 하나의 검증 요인이 확인된 경우, 검증 요인에 대응하는 검증 종류가 확인될 수 있다. 구체적으로, 일정 구간 내에서 차량이 차선 변경 시 인접 차선을 주행하는 다른 차량과의 차간 간격 1m인 경우, 검증 종류는 조향 검증일 수 있다. 이때, 차선 변경 시 다른 차량과의 안전한 차간 간격은 사전에 설정될 수 있다.
차량은 수집된 주행 정보, 검증 요인 및 검증 종류 중 적어도 하나를 서버로 전송할 수 있고, 서버는 차량의 예상 주행 경로에서 추출된 구간 중에서 주행 변경이 없는 적어도 하나의 검증 구간을 추출할 수 있다. 이때, 연산 장치로 구성된 서버는 차량의 내부 또는 외부에 장착될 수 있다. 예를 들면, 검증 구간은 차량의 예상 주행 경로 중에서 직진 구간 또는 신호 등 간의 차선 변경 없이 주행이 가능한 구간 또는 주행 차선과 인접 차선의 교통량이 기 설정된 교통량 미만(예를 들면, 교통량 30% 미만)에 해당하는 구간을 포함할 수 있다. 이때, 차량의 예상 주행 경로에 적어도 하나의 검증 구간(예를 들면, 검증 구간 1, 검증 구간 2, 검증 구간 3 ~)이 포함된 경우, 적어도 하나의 검증 구간 중에서 차량의 현재 위치에 근접한 검증 구간에서 차량의 주행 상태가 검증될 수 있다.
서버는 조향 검증을 수행하기 위한 제1 검증 모델을 결정할 수 있다. 이때, 제1 검증 모델은 조향 검증에 대응하는 가상 객체, 가상 객체의 표시 위치 및 가상 객체의 표시에 따른 차량의 예상 제어 정보 중 적어도 하나를 포함할 수 있다. 이때, 가상 객체는 차량의 조향에 변화를 유도할 수 있는 객체일 수 있다. 또한, 가상 객체의 표시 위치는 차량이 일정 거리 확보가 가능한 검증 구간 내 위치일 수 있다. 구체적으로, 차선 변경 시 인접 차선의 다른 차량과의 일정 거리 확보가 가능한 위치일 수 있다. 또한, 차량의 예상 제어 정보는 검증 구간 내에서 가상 객체의 표시에 따른 차량과 다른 차량 간의 예상 간격을 포함할 수 있다.
예를 들면, 운전자에 의해 수동 주행 중인 차량으로부터 주행 정보는 수집될 수 있다. 수집된 주행 정보로부터 차량(600)이 인접 차선을 주행하는 다른 차량(610)과 차간 간격 1m로 차선 변경하는 것으로 판단된 경우, 차량은 수집된 주행 정보, 검증 요인, 조향 검증을 서버로 전송할 수 있다. 관련 데이터를 수신한 서버는 차량(600)의 예상 주행 경로에서 주행 변경이 없는 검증 구간을 결정할 수 있다. 서버는 조향 검증을 수행하기 위한 제1 검증 모델을 결정할 수 있고, 제1 검증 모델과 관련된 정보가 차량(600)으로 전송될 수 있다. 가상 객체는 차량(600)의 검증 구간을 기반으로 결정될 수 있다. 주행 변경이 없는 검증 구간에서 조향 검증을 수행하는데 적절한 가상 공사 표지판이 가상 객체의 일례로 결정될 수 있다. 가상 공사 표지판은 차량(600)의 주행 속도, 교통량 및 다른 차량과의 관계 중에서 적어도 하나를 고려하여 검증 구간 내에서 특정한 위치에 생성될 수 있고, 생성된 가상 공사 표지판은 디스플레이를 통해 표시될 수 있다. 디스플레이에 표시된 가상 공사 표지판을 본 운전자는 차선을 변경할 수 있다.
여기서, 가상 객체의 표시에 따른 차량(600)과 다른 차량(610) 간의 예상 간격이 예상 제어 정보에 포함될 수 있다. 여기서, 예상 간격은 차선 변경에 필요한 안전한 차간 간격으로서 사전에 설정될 수 있고, 예를 들면 차선 변경에 필요한 안전한 차간 간격은 2m로 사전에 설정될 수 있다.
이때, 예상 간격과 차량(600)과 다른 차량(610) 간의 차간 간격 간의 차이가 기 설정된 제1 레벨 이상의 차이가 발생한 경우(기 설정된 제1 조건을 만족하는 경우), 차량은 수동 주행에서 자동 주행으로 주행 전환될 수 있다. 여기서, 기 설정된 제1 레벨은 통계적인 평균 값에 의해 결정될 수 있다. 자동 주행으로 전환된 이후, 차량에 대한 수동 주행으로 전환 요청이 확인된 경우 조향 검증에 대응하는 제2 검증 모델에 따라 차량의 주행 상태가 재 검증될 수 있다. 이때, 제2 검증 모델은 제1 검증 모델 보다 가상 객체의 표시 위치 또는 예상 제어 정보가 조정된 모델일 수 있다. 예를 들면, 제1 검증 모델이 가상 공사 표지판의 표시에 따른 차선 변경 시 다른 차량(610)과 차량(600) 간의 차간 간격이 2m인 경우, 제2 검증 모델은 다른 차량(610)과 차량(600) 간의 차간 간격이 3m로 결정될 수 있다. 이때, 차간 간격의 증가는 보다 안전한 차선 변경과 관련될 수 있다. 다른 예를 들면, 제1 검증 모델에 따른 가상 공사 표지판이 전방 20m에 표시되어 운전자의 반응 속도가 측정될 수 있지만, 제2 검증 모델에 따른 가상 공사 표지판이 전방 10m에 표시되어 운전자의 보다 빠른 반응 속도가 요구될 수 있다.
또한, 예상 간격과 차량(600)과 다른 차량(610) 간의 차간 간격 간의 차이가 기 설정된 제1 레벨 미만 제2 레벨 이상의 차이가 발생한 경우(기 설정된 제2 조건을 만족하는 경우), 차량에 대한 주행 교정이 진행될 수 있다. 여기서, 기 설정된 제2 레벨 또한 통계적인 평균 값에 의해 결정될 수 있다. 이때, 주행 교정은 검증 요인의 확인이 감소될 수 있도록 진행될 수 있다. 예를 들면, 검증 요인이 차선 변경 시 다른 차량과의 차간 간격인 경우, 안전한 차간 간격이 확보될 수 있도록 주행 교정이 안내될 수 있다. 만약, 주행 교정 되도록 차량이 제어된 이후, 검증 요인이 일정 구간 내에서 재 확인된 경우 수동 주행 중인 차량은 자동 주행으로 주행 전환될 수 있다.
또한, 예상 간격과 차량(600)과 다른 차량(610) 간의 차간 간격 간의 차이가 기 설정된 제2 레벨 미만의 차이가 발생한 경우, 주행 전환, 주행 교정 없이 차량에 대한 주행 상태 모니터링이 지속될 수 있다. 도 4의 주행 상태 검증에 대한 기재가 도 6에도 적용될 수 있다.
도 7은 본 발명의 일 실시 예에 따른, 차량이 주행 상태를 모니터링하는 과정을 나타낸 도면이다.
차량은 사용자에 의해 수동 주행으로 전환 요청이 발생(701)될 수 있다. 수동 주행으로 주행 중인 차량의 주행 정보가 수집(703)될 수 있다. 이때, 수집되는 주행 정보는 차량의 주행과 관련된 정보를 포함할 수 있다. 예를 들면, 차량의 예상 주행 경로, 예상 주행 경로 상의 교통량, 차량의 위치, 주행 속도, 차량의 차선 내 위치, 일정 시간 동안 일정 속도 이상의 변화(예를 들면, 급정지, 급가속) 횟수, 차선 변경 시 조향 각도, 차간 간격, 주행 영상과 같은 주행과 관련된 정보가 주행 정보로 수집될 수 있다.
차량은 수집된 주행 정보로부터 검증 요인의 발생 여부를 확인(705)할 수 있다. 여기서, 검증 요인은 수동 주행 중인 차량의 주행 상태와 관련하여 위험 요소가 있는지 판단될 수 있는 정보를 포함할 수 있다. 예를 들면, 일정 구간 내에서 일정 시간 동안 일정 속도 이상의 증가(일례로, 급가속) 또는 감소(일례로, 급감속) 및 증가 또는 감소의 횟수가 검증 요인에 포함될 수 있다. 또한, 일정 구간에서 다른 차량의 평균 주행 속도 대비 차량의 평균 주행 속도가 일정 시간 동안 높게 유지되거나 또는 일정 시간 동안 낮게 유지되었는지 여부가 검증 요인에 포함될 수 있다. 또한, 일정 구간에서 차선 변경 시 조향 각도가 일정 기준 이상 변경되었는지 여부가 검증 요인에 포함될 수 있다. 여기서, 일정 기준은 법규에 따른 차선 변경 시 요구되는 차량의 조향 각도의 통계적인 값을 포함할 수 있다. 또한, 차선 내 차량의 상대적 위치, 실제 객체 표시에 따른 주행 속도의 변화 및 실제 객체 표시에 따른 조향 각도의 변화 중에서 적어도 하나가 검증 요인에 포함될 수 있다.
차량은 확인된 검증 요인에 대응하는 검증 종류를 확인(707)할 수 있다. 이때, 검증 종류는 속도 검증과 조향 검증을 포함할 수 있다. 여기서, 속도 검증은 차량의 속도 관련한 검증을 포함하고, 조향 검증은 차량의 조향 관련한 검증을 포함할 수 있다. 차량은 확인된 검증 종류에 따른 속도 검증 또는 조향 검증을 수행하거나 또는 각각에 대해 주행 상태를 검증할 수 있다. 구체적으로, 속도 검증만 확인된 경우 차량은 속도 검증에 대한 주행 상태를 검증하거나, 또는 조향 검증만 확인된 경우 차량은 조향 검증에 대한 주행 상태를 검증하거나, 또는 속도 검증 및 조향 검증이 모두 확인된 경우 차량은 각각에 대한 주행 상태를 검증할 수 있다.
검증 종류를 확인한 차량은 차량의 주행 상태와 관련된 정보를 서버로 전송할 수 있다. 여기서, 서버는 차량의 내부 또는 외부에 설치된 별도의 연산 장치를 포함할 수 있다. 차량의 주행 상태와 관련된 정보는 차량의 위치, 수집된 검증 요인, 검증 종류, 운전자 정보를 포함할 수 있다.
차량의 주행 변경이 없는 구간인 검증 구간이 있는 경우, 서버는 검증 종류에 대응하는 제1 검증 모델을 결정할 수 있다. 여기서, 검증 구간은 차량의 예상 주행 경로 중에서 주행 변경이 없는 구간으로서, 예를 들면 직진 구간 또는 신호 등 간의 차선 변경 없이 주행이 가능한 구간 또는 주행 차선과 인접 차선의 교통량이 기 설정된 교통량 미만(예를 들면, 교통량 30% 미만)에 해당하는 구간을 포함할 수 있다. 이때, 차량의 예상 주행 경로에 적어도 하나의 검증 구간(예를 들면, 검증 구간 1, 검증 구간 2, 검증 구간 3 ~)이 포함된 경우, 적어도 하나의 검증 구간 중에서 차량의 현재 위치에 근접한 검증 구간에서 차량의 주행 상태가 검증될 수 있다.
서버는 검증 구간에 적용될 수 있는 제1 검증 모델을 결정할 수 있고, 제1 검증 모델과 관련된 정보가 차량에 전송될 수 있다. 차량은 제1 검증 모델과 관련된 정보를 이용하여 차량의 주행 상태를 검증(709)할 수 있다. 제1 검증 모델은 결정된 검증 구간 내에서 차량에 대한 속도 검증 또는 조향 검증을 수행하기 위해 가상 객체, 가상 객체의 표시 위치 및 가상 객체의 표시에 따른 차량의 예상 제어 정보 중 적어도 하나를 포함할 수 있다.
차량은 제1 검증 모델에 따른 가상 객체를 표시(711)할 수 있다. 가상 객체는 예를 들면 전방 디스플레이, 사이드 미러, 백 미러, 네비게이션과 같이 화면이 표시될 수 있는 기기를 통해 표시될 수 있다. 또는, 가상 객체는 차량의 음향 기기를 통해 표시될 수 있다.
여기서, 속도 검증인 경우 가상 객체는 차량의 속도에 변화를 유도할 수 있는 가상의 객체로서, 예를 들면 가상 신호등, 가상 표지판, 가상 횡단보도 및 가상 방지턱 중 적어도 하나가 포함될 수 있다. 또한 조향 검증인 경우 가상 객체는 차량의 조향에 변화를 유도할 수 있는 가상의 객체로서, 예를 들면 주행 차선 또는 인접 차선에 위치한 가상의 차량, 가상의 싱크홀 및 가상의 공사 표지판 중 적어도 하나가 포함될 수 있다.
가상 객체의 표시 위치는 차량이 일정 거리 확보가 가능한 검증 구간 내 위치일 수 있다. 구체적으로, 속도 검증인 경우 검증 구간 내에서 가상 객체의 표시 위치는 차량의 속도 변화에 따른 주행 거리 확보가 가능하여 다른 차량과 일정 거리가 확보된 위치일 수 있다. 또는, 가상 객체의 표시 위치는 조향 검증인 경우 검증 구간 내에서 가상 객체가 표시하여 차선 변경할 때 차량과 인접 차선의 다른 차량 간의 기 설정된 일정 거리 확보가 가능한 위치일 수 있다.
가상 객체의 표시에 따른 예상 제어 정보는 가상 객체의 표시에 따른 차량의 예측되는 제어 정보를 포함할 수 있다. 구체적으로, 속도 검증인 경우 가상 객체의 표시로 인해 일정한 속도로 주행하는 차량의 예측되는 주행 변화가 예상 제어 정보에 포함될 수 있고, 또한 조향 검증인 경우 가상 객체의 표시로 인해 인접 차선으로 차선 변경 시 인접 차선에 위치한 다른 차량과의 안전 거리가 예상 제어 정보에 포함될 수 있다.
차량은 가상 객체의 표시에 따른 주행 상태를 확인할 수 있다. 차량은 검증 구간 내에서 가상 객체의 표시에 따른 예상 제어 정보와 차량의 주행 상태를 비교(713)할 수 있다.
또한, 차량의 주행 상태를 검증하는 검증 구간이 검색되지 않은 경우, 서버는 제1 검증 모델과 관련된 정보를 차량으로 전송하지 않을 수 있다. 이때, 차량의 주행 정보와 일정 구간 내의 다른 차량의 주행 정보를 비교(715)하여 차량의 주행 상태가 검증될 수 있다. 구체적으로, 검증 구간이 검색되지 않은 경우, 차량은 서버로 차량의 주행 정보를 전송할 수 있다. 이때, 전송되는 주행 정보는 예상 주행 경로, 예상 주행 경로 상의 교통량, 차량의 위치, 주행 속도, 차량의 차선 내 위치, 일정 시간 동안 일정 속도 이상의 변화(예를 들면, 급정지, 급가속) 횟수, 차선 변경 시 조향 각도, 차간 간격, 주행 영상과 같은 주행과 관련된 정보를 포함할 수 있다. 차량의 일정 구간에서의 주행 정보와 해당 구간에서의 다른 차량의 평균 주행 정보를 비교하여 차량의 주행 상태가 검증될 수 있다.
차량은 검증 구간이 검색된 경우 또는 검색되지 않은 경우 비교 결과를 확인(717)할 수 있다. 검증 구간이 검색된 경우 예상 제어 정보와 차량의 주행 상태의 변경 정보가 비교될 수 있고, 비교 결과 차량의 주행 상태가 확인될 수 있다. 검증 구간이 검색되지 않은 경우 일정 구간에서의 차량의 주행 정보와 다른 차량의 주행 정보를 비교하여 차량의 주행 상태가 확인될 수 있다. 차량과 서버에 대한 보다 전술한 기재가 도 7에도 적용될 수 있다.
도 8은 본 발명의 일 실시 예에 따른, 차량의 주행을 제어하는 과정을 나타낸 도면이다.
검증 구간이 검색되거나 또는 검색되지 않은 경우 차량의 주행 상태가 확인될 수 있다. 차량의 주행 상태에 따라 차량은 주행 전환되거나 또는 주행 교정되거나 또는 지속적으로 주행 상태가 모니터링 될 수 있다.
만약, 예상 제어 정보와 차량의 주행 상태가 기 설정된 제1 레벨 이상의 차이가 발생하는 경우(기 설정된 제1 조건을 만족하는 경우) 수동 주행 중인 차량이 자동 주행으로 주행 전환(801)될 수 있다. 이때, 기 설정된 제1 레벨은 통계적인 평균 값에 의해 결정될 수 있다. 예를 들면, 예상 제어 정보와 차량의 주행 상태의 변경 정보가 기 설정된 제1 레벨인 60% 이상의 오차가 발생한 경우, 수동 주행 중인 차량의 제어가 자동 주행으로 전환될 수 있다. 또는, 검증 구간이 검색되지 않은 경우, 차량의 주행 정보와 해당 구간의 다른 차량의 평균 주행 정보의 비교 결과 기 설정된 제1 레벨 이상의 차이가 발생하는 경우 수동 주행 중인 차량이 자동 주행으로 주행 전환(801)될 수 있다.
자동 주행으로 전환된 이후, 차량에 대한 수동 주행으로 다시 전환 요청(803)이 확인될 수 있다. 이때, 수동 주행으로 전환 요청(803)이 확인되지 않은 경우, 차량은 자동 주행으로 주행할 수 있다.
전환 요청(803)이 있는 경우, 차량은 전환 요청의 위치가 주행 실패 구간과 중복되는지 여부(805)를 확인할 수 있다. 여기서 주행 실패 구간은 수동 주행 중인 차량이 자동 주행으로 주행 전환(801)된 구간일 수 있다. 주행 실패 구간은 차량의 주행 상태와 관련하여 위험 요소가 있다고 판단된 구간이므로, 차량은 자동 주행으로 주행 실패 구간을 주행할 수 있다. 만약, 주행 실패 구간 내에서 차량에 대해 다시 수동 주행으로 전환 요청(803)이 있는 경우, 차량은 전환 요청에 대한 거절 안내(807)를 할 수 있다. 이후, 차량은 수동 주행에서 자동 주행으로 전환 가능 구간을 안내(809)할 수 있다. 이때, 전환 가능 구간은 주행 실패 구간과 중복되지 않는 구간일 수 있다. 예를 들면, 차량은 "수동 주행이 불안정하여 자동 주행으로 주행 전환이 발생하였습니다. 주행 실패 구간 이후 다시 전환 요청이 가능하며, 전환 가능 구간은 앞으로 600m 이후 지점 입니다"라고 안내할 수 있다. 전환 가능 구간에 진입한 경우, 차량은 제2 검증 모델을 이용하여 주행 상태 검증(811)될 수 있다. 여기서, 제2 검증 모델은 제1 검증 모델 보다 가상 객체의 표시 위치 또는 차량의 예상 제어 정보가 상향 조정된 모델일 수 있다. 예를 들면, 60km/s로 주행 중인 차량에 대해 제1 검증 모델이 30m 앞에서 가상 빨간 신호등이 안내되는 경우, 제2 검증 모델은 20m 앞에서 가상 빨간 신호등이 안내될 수 있다. 따라서, 제2 검증 모델에 따른 차량이 정지할 때까지의 주행 정보 변화량과 예상 제어 정보가 비교됨으로써 수동 주행 중인 차량의 주행 상태가 보다 엄격히 모니터링 될 수 있다. 제2 검증 모델은 제1 검증 모델 보다 수동 주행하는 사용자가 가상 객체에 보다 빠르게 반응하였는지 여부를 판단하는데 이용될 수 있다.
만약, 예상 제어 정보와 차량의 주행 상태가 기 설정된 제1 레벨 미만 제2 레벨 이상의 차이가 발생하는 경우(기 설정된 제2 조건을 만족하는 경우) 수동 주행 중인 차량에 대한 주행 교정(813)이 안내될 수 있다. 이때, 기 설정된 제1 레벨과 제2 레벨은 통계적인 평균 값에 의해 결정될 수 있다. 예를 들면, 예상 제어 정보와 차량의 주행 상태가 기 설정된 제1 레벨 미만 제2 레벨 이상인 20% ~ 60% 이상의 오차가 발생한 경우, 수동 주행 중인 차량에 대한 주행 교정이 진행될 수 있다. 또는, 검증 구간이 검색되지 않은 경우, 차량의 주행 정보와 해당 구간의 다른 차량의 평균 주행 정보의 비교 결과 기 설정된 제1 레벨 미만 제2 레벨 이상의 차이가 발생하는 경우 수동 주행 중인 차량에 대한 주행 교정(813)이 진행될 수 있다.
여기서, 주행 교정은 차량에 대한 검증 요인이 교정될 수 있도록 안내되는 것을 포함한다. 따라서, 주행 교정(813)에 따라 주행 안내 설정 변경(815)될 수 있다. 예를 들면, 해당 구간의 제한 최고 속도가 80km/s인 경우, 과속하는 사용자에 대한 주행 습관을 교정하기 위해 제한 최고 속도가 70km/s로 주행 안내될 수 있다. 이때, 주행 안내되는 제한 최고 속도는 사용자의 과속 정도에 따라 결정될 수 있다. 예를 들면, 사용자가 평균 20km/s 이상 과속하는 경우, 과속 속도를 감안하여 제한 최고 속도가 결정될 수 있다. 다른 예를 들면, 차선 변경 시 필요한 차간 간격이 1m인 경우, 사용자에 대해 주행 교정하기 위해 차선 변경 시 필요한 차간 간격은 2m로 주행 안내될 수 있다.
수동 주행 중인 차량에 대한 주행 교정과 관련된 정보가 주행 안내된 이후, 일정 구간 동안 차량으로부터 검증 요인의 재 확인 여부가 모니터링(817) 될 수 있다. 만약, 일정 구간 동안 검증 요인이 재 확인된 경우, 수동 주행 중인 차량은 자동 주행으로 전환될 수 있다. 또한, 일정 구간 동안 검증 요인이 재 확인되지 않는 경우, 제1 검증 모델에 기반하여 주행 상태가 재 검증될 수 있다. 예를 들면, 차간 간격이 2m로 변경된 경우 1km 동안 검증 요인의 재 확인 여부가 모니터링 될 수 있고, 검증 요인이 재 확인된 경우 차량은 자동 주행으로 전환될 수 있다. 다른 예를 들면, 차간 간격이 2m로 변경된 경우 1km 동안 검증 요인의 재 확인 여부가 모니터링 될 수 있고, 검증 요인이 재 확인되지 않은 경우, 제1 검증 모델에 기반하여 차량의 주행 상태가 재 검증될 수 있다.
만약, 예상 제어 정보와 차량의 주행 상태가 기 설정된 제2 레벨 미만의 차이가 발생하는 경우, 수동 주행 중인 차량에 대한 주행 전환 및 주행 교정 없이 지속적인 주행 상태 모니터링이 진행될 수 있다.
차량은 주행 전환(801)에 따른 결과를 확인(819)할 수 있다. 제2 검증 모델을 이용하여 주행 상태를 검증(811)한 결과, 차량은 자동 주행이 유지되거나 자동 주행에서 수동 주행으로 주행 전환될 수 있다. 또는, 차량은 주행 교정(813)에 따른 결과를 확인(819)할 수 있다. 일정 구간 동안 검증 요인의 재 확인 여부가 모니터링 된 이후, 차량은 자동 주행으로 주행 전환되거나 또는 주행 교정 없이 주행 상태가 모니터링 될 수 있다.
실시 예에 따르면, 수동 주행에서 자동 주행으로 주행 전환되거나 또는 주행 교정이 적어도 한번 이상 발생한 사용자와 관련된 정보는 기록되어 관리될 수 있다. 이때, 주행 전환 또는 주행 교정이 기 설정된 횟수 이상 발생한 사용자의 수동 운전은 제한될 수 있다. 차량과 서버에 대한 보다 전술한 기재가 도 7에도 적용될 수 있다.
도 9는 본 발명의 일 실시 예에 따른, 서버가 차량의 주행 상태 모니터링 과정에 관여하는 절차를 나타낸 도면이다.
서버는 수동 주행 중인 차량으로부터 수신한 주행 정보를 확인할 수 있다. 이때, 수신한 차량의 주행 정보는 예상 주행 경로, 예상 주행 경로 상의 교통량, 차량의 위치, 주행 속도, 차량의 차선 내 위치, 일정 시간 동안 일정 속도 이상의 변화(예를 들면, 급정지, 급가속) 횟수, 차선 변경 시 조향 각도, 차간 간격, 주행 영상과 같은 주행과 관련된 정보를 포함할 수 있다. 차량은 주행 정보로부터 검증 요인 및/또는 검증 종류를 확인할 수 있고, 차량은 확인된 검증 요인 및/또는 검증 종류를 서버로 전송할 수 있다. 따라서, 서버는 주행 정보뿐만 아니라 검증 요인, 검증 종류도 확인(901)할 수 있다.
서버는 검증 구간의 존재 여부(903)를 확인할 수 있다. 서버는 차량의 예상 주행 경로에서 추출된 구간 중에서 주행 변경이 없는 적어도 하나의 검증 구간을 추출할 수 있다. 예를 들면, 검증 구간은 차량의 예상 주행 경로 중에서 직진 구간 또는 신호 등 간의 차선 변경 없이 주행이 가능한 구간 또는 주행 차선과 인접 차선의 교통량이 기 설정된 교통량 미만(예를 들면, 교통량 30% 미만)에 해당하는 구간을 포함할 수 있다. 이때, 차량의 예상 주행 경로에 적어도 하나의 검증 구간(예를 들면, 검증 구간 1, 검증 구간 2, 검증 구간 3 ~)이 포함된 경우, 적어도 하나의 검증 구간 중에서 차량의 현재 위치에 근접한 검증 구간에서 차량의 주행 상태가 검증될 수 있다.
검증 구간이 검색된 경우, 서버는 주행 정보, 검증 요인 및 검증 종류 중 적어도 하나를 고려하여 제1 검증 모델을 결정(905)할 수 있다. 이때, 제1 검증 모델은 속도 검증에 대응하는 가상 객체, 가상 객체의 표시 위치 및 가상 객체의 표시에 따른 차량의 예상 제어 정보 중 적어도 하나를 포함할 수 있다. 이때, 가상 객체는 차량의 속도에 변화를 유도할 수 있는 객체일 수 있다. 또한, 가상 객체의 표시 위치는 가속 또는 감속되는 만큼의 주행 거리 확보가 가능한 위치일 수 있다. 또한, 차량의 예상 제어 정보는 검증 구간 내에서 가상 객체의 표시에 따른 차량의 주행 변화일 수 있다.
서버는 결정된 제1 검증 모델과 관련된 정보를 차량으로 전송(907)할 수 있다. 차량은 수신한 제1 검증 모델을 이용하여 검증 구간에서 차량의 주행 상태를 검증할 수 있다. 차량의 주행 상태는 서버로 전송될 수 있고, 서버는 차량의 주행 상태에 대한 결과를 확인(913)할 수 있다.
검증 구간이 검색되지 않은 경우, 서버는 차량에 주행 정보를 요청(909)할 수 있다. 요청을 받은 차량은 서버로 차량의 주행 정보를 전송할 수 있다. 서버는 차량의 주행 정보와 일정 구간에서의 다른 차량의 평균 주행 정보를 비교(911)할 수 있고, 차량의 주행 상태에 대한 결과가 확인(913)될 수 있다.
차량의 주행 상태에 따라 차량의 주행 제어가 결정될 수 있다. 수동 주행 중인차량의 주행 상태와 관련하여 위험 요소가 있다고 판단된 경우, 자동 주행으로 주행 전환되거나 또는 검증 요인이 감소될 수 있도록 주행 교정되거나 또는 지속적으로 차량의 주행 상태가 모니터링 될 수 있다. 이때 주행 전환된 경우, 일정한 조건 충족 시 서버는 제2 검증 모델을 결정하여 차량으로 전송할 수 있다. 또한, 주행 교정된 경우, 서버는 주행 안내 설정 변경을 차량으로 전송할 수 있다. 차량과 서버에 대한 보다 전술한 기재가 도 7에도 적용될 수 있다.
도 10은 본 발명의 일 실시 예에 따른, 주행 상태를 모니터링하는 차량과 서버를 나타낸 도면이다.
본 발명의 일 실시 예에 따른, 차량은 프로세서(1010), 메모리(1020), 디스플레이(1030), 통신부(1040)를 포함할 수 있다. 또한, 차량의 내부 또는 외부에 설치되는 연산 장치인 서버는 프로세서(1050), 메모리(1060), 통신부(1070)를 포함할 수 있다.
차량은 주행 정보를 획득할 수 있고, 프로세서(1010) 획득된 주행 정보로부터 검증 요인 및 검증 종류를 확인할 수 있다. 차량의 통신부(1040)는 서버의 통신부(1070)로 주행 정보, 검증 요인 및 검증 종류 중 적어도 하나를 전송할 수 있다. 프로세서(1050)는 수신한 데이터를 이용하여 검증 구간의 추출 여부를 결정할 수 있고, 검증 구간이 추출된 경우 차량의 주행 상태 검증에 이용되는 검증 모델을 생성할 수 있다. 프로세서(1010)는 검증 모델을 이용하여 차량의 주행 상태를 검증할 수 있고, 디스플레이(1030)는 검증 모델에 따른 가상 객체를 출력할 수 있다. 차량과 서버에 대한 보다 자세한 설명은 전술한 기재를 참조한다.
도 11은 본 발명의 일 실시 예에 따른, 차량과 네트워크 간의 동작을 나타낸 도면이다. 구체적으로, 무선 통신을 이용하여 자율 주행 차량과 네트워크 간의 동작을 나타낸다. 이때, 무선 통신의 일례로 5G 통신을 포함할 수 있고, 네트워크의 일례로 5G 네트워크를 포함할 수 있다. 여기서, 네트워크는 서버에 대응할 수 있다.
자율 주행 차량(Autonomous Vehicle)은 특정 정보 전송을 5G 네트워크로 전송한다(S1). 상기 특정 정보는 자율 주행 관련 정보를 포함할 수 있다. 그리고, 상기 5G 네트워크는 차량의 원격 제어 여부를 결정할 수 있다(S2). 여기서, 상기 5G 네트워크는 자율 주행 관련 원격 제어를 수행하는 서버 또는 모듈을 포함할 수 있다. 그리고, 상기 5G 네트워크는 원격 제어와 관련된 정보(또는 신호)를 상기 자율 주행 차량으로 전송할 수 있다(S3).
도 11의 S1 단계 및 S3 단계와 같이, 자율 주행 차량이 5G 네트워크와 신호, 정보 등을 송/수신하기 위해, 자율 주행 차량은 도 11의 S1 단계 이전에 5G 네트워크와 초기 접속(initial access) 절차 및 임의 접속(random access) 절차를 수행한다.
보다 구체적으로, 자율 주행 차량은 DL 동기 및 시스템 정보를 획득하기 위해 SSB에 기초하여 5G 네트워크와 초기 접속 절차를 수행한다. 상기 초기 접속 절차 과정에서 빔 관리(beam management, BM) 과정, 빔 실패 복구(beam failure recovery) 과정이 추가될 수 있으며, 자율 주행 차량이 5G 네트워크로부터 신호를 수신하는 과정에서 QCL(quasi-co location) 관계가 추가될 수 있다.
또한, 자율 주행 차량은 UL 동기 획득 및/또는 UL 전송을 위해 5G 네트워크와 임의 접속 절차를 수행한다. 그리고, 상기 5G 네트워크는 상기 자율 주행 차량으로 특정 정보의 전송을 스케쥴링하기 위한 UL grant를 전송할 수 있다. 따라서, 상기 자율 주행 차량은 상기 UL grant에 기초하여 상기 5G 네트워크로 특정 정보를 전송한다. 그리고, 상기 5G 네트워크는 상기 자율 주행 차량으로 상기 특정 정보에 대한 5G 프로세싱 결과의 전송을 스케쥴링하기 위한 DL grant를 전송한다. 따라서, 상기 5G 네트워크는 상기 DL grant에 기초하여 상기 자율 주행 차량으로 원격 제어와 관련된 정보(또는 신호)를 전송할 수 있다.
다음으로, 후술할 본 발명에서 제안하는 방법과 5G 통신의 URLLC 기술이 적용되는 응용 동작의 기본 절차에 대해 설명한다.
앞서 설명한 바와 같이, 자율 주행 차량은 5G 네트워크와 초기 접속 절차 및/또는 임의 접속 절차를 수행한 후, 자율 주행 차량은 5G 네트워크로부터 DownlinkPreemption IE를 수신할 수 있다. 그리고, 자율 주행 차량은 DownlinkPreemption IE에 기초하여 프리엠션 지시(pre-emption indication)을 포함하는 DCI 포맷 2_1을 5G 네트워크로부터 수신한다. 그리고, 자율 주행 차량은 프리엠션 지시(pre-emption indication)에 의해 지시된 자원(PRB 및/또는 OFDM 심볼)에서 eMBB data의 수신을 수행(또는 기대 또는 가정)하지 않는다. 이후, 자율 주행 차량은 특정 정보를 전송할 필요가 있는 경우 5G 네트워크로부터 UL grant를 수신할 수 있다.
다음으로, 후술할 본 발명에서 제안하는 방법과 5G 통신의 mMTC 기술이 적용되는 응용 동작의 기본 절차에 대해 설명한다.
도 11의 단계들 중 mMTC 기술의 적용으로 달라지는 부분 위주로 설명하기로 한다.
도 1의 S1 단계에서, 자율 주행 차량은 특정 정보를 5G 네트워크로 전송하기 위해 5G 네트워크로부터 UL grant를 수신한다. 여기서, 상기 UL grant는 상기 특정 정보의 전송에 대한 반복 횟수에 대한 정보를 포함하고, 상기 특정 정보는 상기 반복 횟수에 대한 정보에 기초하여 반복하여 전송될 수 있다. 즉, 상기 자율 주행 차량은 상기 UL grant에 기초하여 특정 정보를 5G 네트워크로 전송한다. 그리고, 특정 정보의 반복 전송은 주파수 호핑을 통해 수행되고, 첫 번째 특정 정보의 전송은 제 1 주파수 자원에서, 두 번째 특정 정보의 전송은 제 2 주파수 자원에서 전송될 수 있다. 상기 특정 정보는 6RB(Resource Block) 또는 1RB(Resource Block)의 협대역(narrowband)을 통해 전송될 수 있다.
도 12는 본 발명의 일 실시 예에 따른, 무선 통신을 이용한 차량 대 차량 간의 동작의 일 예를 나타낸다. 이때, 무선 통신의 일례로서 5G 무선 통신이 포함될 수 있다. 제1 차량은 특정 정보를 제2 차량으로 전송한다(S61). 제2 차량은 특정 정보에 대한 응답을 제1 차량으로 전송한다(S62).
한편, 5G 네트워크가 상기 특정 정보, 상기 특정 정보에 대한 응답의 자원 할당에 직접적(사이드 링크 통신 전송 모드 3) 또는 간접적으로(사이드링크 통신 전송 모드 4) 관여하는지에 따라 차량 대 차량 간 응용 동작의 구성이 달라질 수 있다.
다음으로, 5G 통신을 이용한 차량 대 차량 간의 응용 동작에 대해 살펴본다.
먼저, 5G 네트워크가 차량 대 차량 간의 신호 전송/수신의 자원 할당에 직접적으로 관여하는 방법을 설명한다.
5G 네트워크는, 모드 3 전송(PSCCH 및/또는 PSSCH 전송)의 스케줄링을 위해 DCI 포맷 5A를 제1 차량에 전송할 수 있다. 여기서, PSCCH(physical sidelink control channel)는 특정 정보 전송의 스케줄링을 위한 5G 물리 채널이고, PSSCH(physical sidelink shared channel)는 특정 정보를 전송하는 5G 물리 채널이다. 그리고, 제1 차량은 특정 정보 전송의 스케줄링을 위한 SCI 포맷 1을 PSCCH 상에서 제2 차량으로 전송한다. 그리고, 제1 차량이 특정 정보를 PSSCH 상에서 제2 차량으로 전송한다.
다음으로, 5G 네트워크가 신호 전송/수신의 자원 할당에 간접적으로 관여하는 방법에 대해 살펴본다.
제1 차량은 모드 4 전송을 위한 자원을 제1 윈도우에서 센싱한다. 그리고, 제1 차량은, 상기 센싱 결과에 기초하여 제2 윈도우에서 모드 4 전송을 위한 자원을 선택한다. 여기서, 제1 윈도우는 센싱 윈도우(sensing window)를 의미하고, 제2 윈도우는 선택 윈도우(selection window)를 의미한다. 제1 차량은 상기 선택된 자원을 기초로 특정 정보 전송의 스케줄링을 위한 SCI 포맷 1을 PSCCH 상에서 제2 차량으로 전송한다. 그리고, 제1 차량은 특정 정보를 PSSCH 상에서 제2 차량으로 전송한다.
또한 실시 예에서 V2V 및 V2X 통신 중 적어도 하나를 수행하는 자율 주행 차량은 해당 통신에 대응하는 채널 상에서 정보를 송수신할 수 있다. 일 예로 V2V 및 V2X 통신을 위해 해당 통신 방법에 대응되는 sidelink를 위한 채널이 할당될 수 있으며, 자율주행 차량은 서버 혹은 다른 차량과 해당 채널 상에서 정보를 송수신 할 수 있다. 일 예로 sidelink를 위한 공유 채널(shared channel)이 할당될 수 있으며, 해당 채널 상에서 V2V 및 V2X 통신 중 적어도 하나를 위한 신호가 송수신될 수 있다. 이와 같은 V2V 및 V2X 통신 중 적어도 하나를 수행하기 위해 자율 주행 차량은 해당 통신에 대응하는 별도의 식별자를 기지국, 네트워크 및 다른 차량 중 적어도 하나로부터 획득할 수 있다. 자율주행 차량은 획득한 별도의 식별자 정보를 기반으로 V2V 및 V2X 통신을 수행할 수 있다.
또한 실시 예에서 브로드케스트로 전송되는 정보는 브로드케스트를 위한 별도의 채널에서 송신될 수 있으며, 노드와 노드 사이의 통신은 브로드케스트를 위한 채널과 다른 채널 상에서 수행될 수 있다. 또한 자율주행 차량을 제어하기 위한 정보는 URLLC를 위한 채널 상에서 전송될 수 있다.
한편, 본 명세서와 도면에는 본 발명의 바람직한 실시 예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.

Claims (20)

  1. 연산 장치에서 주행 상태 모니터링 방법에 있어서,
    차량의 주행 정보를 획득하는 단계;
    상기 획득한 주행 정보로부터 일정 구간 내에서 적어도 하나의 조건을 만족하는지 확인하는 단계;
    상기 만족하는 조건에 대응하는 검증 종류를 확인하는 단계; 및
    상기 검증 종류를 기반으로 상기 차량의 주행 상태를 확인하는 단계
    를 포함하는, 주행 상태 모니터링 방법.
  2. 제1항에 있어서,
    상기 차량의 주행 상태를 확인하는 단계는,
    상기 차량의 예상 주행 경로 중 검증 구간이 있는지 확인하는 단계;
    상기 검증 구간이 있는 경우, 상기 검증 종류에 대응하는 제1 검증 모델을 기반으로 상기 검증 구간에서 상기 차량의 주행 상태를 확인하는 단계
    를 포함하는,
    주행 상태 모니터링 방법.
  3. 제2항에 있어서,
    상기 검증 종류는 속도 검증과 조향 검증을 포함하고,
    상기 제1 검증 모델은 상기 검증 구간 내에서 상기 속도 검증 또는 상기 조향 검증을 수행하기 위해 상기 검증 종류에 대응하는 가상 객체, 상기 가상 객체의 표시 위치 및 상기 가상 객체의 표시에 따른 상기 차량의 예상 제어 정보 중 적어도 하나를 포함하는,
    주행 상태 모니터링 방법.
  4. 제3항에 있어서,
    상기 가상 객체는 상기 속도 검증인 경우 상기 차량의 속도에 변화를 유도할 수 있는 객체이거나 또는 상기 조향 검증인 경우 상기 차량의 조향에 변화를 유도할 수 있는 객체이고,
    상기 가상 객체의 표시 위치는 상기 차량이 일정 거리 확보가 가능한 상기 검증 구간 내 위치를 포함하고,
    상기 차량의 예상 제어 정보는 상기 속도 검증인 경우 상기 검증 구간 내에서 상기 가상 객체의 표시에 따른 상기 차량의 속도 변화 또는 상기 차량의 주행거리 변화를 포함하거나, 또는 상기 조향 검증인 경우 상기 검증 구간 내에서 상기 가상 객체의 표시에 따른 상기 차량과 다른 차량 간의 예상 간격을 포함하는,
    주행 상태 모니터링 방법.
  5. 제4항에 있어서,
    상기 가상 객체의 표시에 따른 상기 차량의 예상 제어 정보와 상기 차량의 상기 주행 상태의 변경 정보를 비교하는 단계,
    상기 비교 결과에 따라 상기 차량의 주행을 제어하는 단계
    를 더 포함하는, 주행 상태 모니터링 방법.
  6. 제5항에 있어서,
    상기 차량의 상기 주행을 제어하는 단계는,
    상기 비교 결과 상기 차량의 상기 주행 상태의 상기 변경 정보와 상기 예상 제어 정보가 기 설정된 제1 조건을 만족하는 경우 상기 수동 주행 중인 상기 차량이 자동 주행으로 전환되거나, 또는 상기 비교 결과 상기 차량의 상기 주행 상태와 상기 예상 제어 정보가 기 설정된 제2 조건을 만족하는 경우 상기 차량에 대한 주행 교정이 진행되는,
    주행 상태 모니터링 방법.
  7. 제6항에 있어서,
    상기 수동 주행 중인 상기 차량이 상기 자동 주행으로 전환된 이후, 상기 차량에 대한 수동 주행으로 전환 요청이 확인된 경우 상기 검증 종류에 대응하는 제2 검증 모델에 따라 상기 차량의 주행 상태를 재 검증하는 단계를
    더 포함하고,
    상기 제2 검증 모델은 상기 제1 검증 모델 보다 상기 가상 객체의 표시 위치 또는 상기 예상 제어 정보가 조정된 모델인,
    주행 상태 모니터링 방법.
  8. 제6항에 있어서,
    상기 차량은,
    상기 주행 교정 되도록 상기 차량이 제어된 이후, 상기 차량이 일정한 구간 내에서 상기 적어도 하나의 조건을 다시 만족하는 경우 상기 수동 주행 중인 상기 차량이 상기 자동 주행으로 전환되는,
    주행 상태 모니터링 방법.
  9. 제1항에 있어서,
    상기 검증 종류에 따라 상기 차량의 주행 상태를 확인하는 단계는,
    상기 차량의 주행 상태를 확인하는 검증 구간이 없는 경우 상기 차량의 상기 주행 정보와 일정 구간 내의 상기 차량과 다른 차량의 주행 정보를 비교하여 상기 차량의 주행 상태를 확인하는,
    주행 상태 모니터링 방법.
  10. 연산 장치에서 주행 상태 모니터링 방법에 있어서,
    차량이 적어도 하나의 조건을 만족하면서 주행하는 경우, 상기 적어도 하나의 조건에 대응하는 검증 종류를 확인하는 단계;
    상기 검증 종류에 대응하는 제1 검증 모델을 결정하는 단계;
    상기 제1 검증 모델에 따른 상기 차량의 주행 상태를 확인하는 단계; 및
    상기 주행 상태의 상기 확인 결과에 기초하여 상기 차량의 주행 제어를 결정하는 단계
    를 포함하는, 주행 상태 모니터링 방법.
  11. 디스플레이; 및
    차량의 주행 정보를 획득하고, 상기 획득한 주행 정보로부터 일정 구간 내에서 적어도 하나의 조건을 만족하는지 확인하고, 상기 만족하는 조건에 대응하는 검증 종류를 확인하고, 상기 검증 종류를 기반으로 상기 차량의 주행 상태를 확인하는 프로세서
    를 포함하는, 차량.
  12. 제11항에 있어서,
    상기 프로세서는 상기 차량의 예상 주행 경로 중 검증 구간이 있는지 확인하고, 상기 검증 구간이 있는 경우 상기 검증 종류에 대응하는 제1 검증 모델을 기반으로 상기 검증 구간에서 차량의 주행 상태를 확인하는,
    차량.
  13. 제12항에 있어서,
    상기 검증 종류는 속도 검증과 조향 검증을 포함하고,
    상기 제1 검증 모델은 상기 검증 구간 내에서 상기 속도 검증 또는 상기 조향 검증을 수행하기 위해 상기 검증 종류에 대응하는 가상 객체, 상기 가상 객체의 표시 위치 및 상기 가상 객체의 표시에 따른 상기 차량의 예상 제어 정보 중 적어도 하나를 포함하는,
    차량.
  14. 제13항에 있어서,
    상기 가상 객체는 상기 속도 검증인 경우 상기 차량의 속도에 변화를 유도할 수 있는 객체이거나 또는 상기 조향 검증인 경우 상기 차량의 조향에 변화를 유도할 수 있는 객체이고,
    상기 가상 객체의 표시 위치는 상기 차량이 일정 거리 확보가 가능한 상기 검증 구간 내 위치를 포함하고,
    상기 차량의 예상 제어 정보는 상기 속도 검증인 경우 상기 검증 구간 내에서 상기 가상 객체의 표시에 따른 상기 차량의 속도 변화 또는 상기 차량의 주행 거리 변화를 포함하거나, 또는 상기 조향 검증인 경우 상기 검증 구간 내에서 상기 가상 객체의 표시에 따른 상기 차량과 다른 차량 간의 예상 간격을 포함하는,
    차량.
  15. 제14항에 있어서,
    상기 프로세서는 상기 가상 객체의 표시에 따른 상기 차량의 예상 제어 정보와 상기 차량의 상기 주행 상태의 변경 정보를 비교하고, 상기 비교 결과에 따라 상기 차량의 주행을 제어하는,
    차량.
  16. 제15항에 있어서,
    상기 프로세서는 상기 차량의 상기 주행을 제어할 때, 상기 비교 결과 상기 차량의 상기 주행 상태의 상기 변경 정보와 상기 예상 제어 정보가 기 설정된 제1 조건을 만족하는 경우 상기 수동 주행 중인 상기 차량을 자동 주행으로 전환하거나, 또는 상기 비교 결과 상기 차량의 상기 주행 상태와 상기 예상 제어 정보가 기 설정된 제2 조건을 만족하는 경우 상기 차량에 대한 주행 교정을 진행하는,
    차량.
  17. 제16항에 있어서,
    상기 프로세서는 상기 수동 주행 중인 상기 차량이 상기 자동 주행으로 전환된 이후, 상기 차량에 대한 수동 주행으로 전환 요청이 확인된 경우 상기 검증 종류에 대응하는 제2 검증 모델에 따라 상기 차량의 주행 상태를 재 검증하고,
    상기 제2 검증 모델은 상기 제1 검증 모델 보다 상기 가상 객체의 표시 위치 또는 상기 예상 제어 정보가 조정된 모델인,
    차량.
  18. 제16항에 있어서,
    상기 프로세서는,
    상기 주행 교정 되도록 상기 차량이 제어된 이후, 상기 차량이 일정한 구간 내에서 상기 적어도 하나의 조건을 다시 만족하는 경우 상기 수동 주행 중인 상기 차량을 상기 자동 주행으로 전환하는,
    차량.
  19. 제11항에 있어서,
    상기 프로세서는 상기 차량의 주행 상태를 확인하는 검증 구간이 없는 경우 상기 차량의 상기 주행 정보와 일정 구간 내의 상기 차량과 다른 차량의 주행 정보를 비교하여 상기 차량의 주행 상태를 확인하는,
    차량.
  20. 제1항의 방법을 컴퓨터에서 실행시키기 위한 인스트럭션을 기록한 컴퓨터로 읽을 수 있는 비휘발성 기록매체.
KR1020190107597A 2019-08-30 2019-08-30 차량의 주행 상태 모니터링 방법 및 장치 KR20210026594A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190107597A KR20210026594A (ko) 2019-08-30 2019-08-30 차량의 주행 상태 모니터링 방법 및 장치
US16/578,212 US20200010095A1 (en) 2019-08-30 2019-09-20 Method and apparatus for monitoring driving condition of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190107597A KR20210026594A (ko) 2019-08-30 2019-08-30 차량의 주행 상태 모니터링 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20210026594A true KR20210026594A (ko) 2021-03-10

Family

ID=69101584

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190107597A KR20210026594A (ko) 2019-08-30 2019-08-30 차량의 주행 상태 모니터링 방법 및 장치

Country Status (2)

Country Link
US (1) US20200010095A1 (ko)
KR (1) KR20210026594A (ko)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6909151B2 (ja) * 2017-12-28 2021-07-28 アルパイン株式会社 車載システム
JP7373118B2 (ja) * 2020-02-13 2023-11-02 マツダ株式会社 走行経路生成システム及び車両運転支援システム
US11210945B2 (en) * 2020-03-18 2021-12-28 Ford Global Technologies, Llc Infrastructure system
CN111532285B (zh) * 2020-04-01 2021-09-07 北京三快在线科技有限公司 一种车辆控制方法及装置
US12103526B2 (en) * 2020-05-27 2024-10-01 Baidu Usa Llc Precautionary slowdown speed planning
JP7351805B2 (ja) * 2020-07-01 2023-09-27 トヨタ自動車株式会社 情報処理方法、プログラム、車載装置及び車両
DE102020211186A1 (de) * 2020-09-06 2022-03-10 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Planen einer zukünftigen Trajektorie eines automatisiert oder teilautomatisiert fahrenden Fahrzeugs
CN114572240B (zh) * 2020-11-30 2023-11-14 北京百度网讯科技有限公司 车辆行驶控制方法、装置、车辆、电子设备及存储介质
CN113183758A (zh) * 2021-04-28 2021-07-30 昭通亮风台信息科技有限公司 一种基于增强现实的辅助驾驶方法及系统
US12095538B2 (en) * 2021-09-20 2024-09-17 Qualcomm Incorporated Joint communication-ranging channel estimation in sidelink
CN114627718A (zh) * 2022-03-31 2022-06-14 奇瑞汽车股份有限公司 一种adas教学系统及方法
CN115022837B (zh) * 2022-05-31 2024-08-06 重庆邮电大学 一种无人机作为空中基站的自动驾驶汽车控制方法及系统
CN117320008B (zh) * 2023-11-28 2024-02-20 江西掌中无限网络科技股份有限公司 一种5g消息税务系统及其处理方法

Also Published As

Publication number Publication date
US20200010095A1 (en) 2020-01-09

Similar Documents

Publication Publication Date Title
KR20210026594A (ko) 차량의 주행 상태 모니터링 방법 및 장치
US11138453B2 (en) Driving guide method and apparatus for vehicle
US20190351918A1 (en) Artificial intelligence apparatus for providing notification related to lane-change of vehicle and method for the same
US20200101974A1 (en) Device and method for selecting optimal travel route based on driving situation
US11669781B2 (en) Artificial intelligence server and method for updating artificial intelligence model by merging plurality of pieces of update information
KR102225975B1 (ko) 엔진음 합성 장치 및 엔진음 합성 방법
KR20190104272A (ko) 차량 운전과 관련된 정보를 제공하는 방법 및 장치
US20200050894A1 (en) Artificial intelligence apparatus and method for providing location information of vehicle
KR102263159B1 (ko) 로봇의 경로를 결정하는 인공 지능 서버 및 그 방법
KR20190098735A (ko) 차량 단말 및 그의 동작 방법
KR20200144006A (ko) 자율 주행 시스템
US11755033B2 (en) Artificial intelligence device installed in vehicle and method therefor
KR20190101333A (ko) 음성 인식 장치 및 음성 인식 방법
KR20210095359A (ko) 로봇, 로봇의 제어 방법 및 로봇을 제어하기 위한 서버
KR20210089809A (ko) 라이다 센서를 이용하여 주변 환경을 탐지하는 자율 주행 장치 및 그의 동작 방법
KR20210060205A (ko) 차량용 헤드라이트 시스템
KR20210012463A (ko) 차량 단말 및 그의 동작 방법
KR20220001522A (ko) 장치 정보에 기반하여, 다른 장치를 제어할 수 있는 인공 지능 장치
KR20190094312A (ko) 인공 지능을 이용하여, 복수의 로봇들을 제어하는 관제 시스템
KR20220136796A (ko) 보행경로예측장치
US11605378B2 (en) Intelligent gateway device and system including the same
KR20190104104A (ko) 영상 재생 방법 및 장치
KR20200003355A (ko) 전자 장치 및 그의 동작 방법
KR20210010139A (ko) 차량의 주변 상황 확인 방법
KR20210078829A (ko) 다중 언어를 포함하는 음성을 인식하는 인공 지능 장치 및 그 방법