[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20180052077A - Interaction method between user and autonomous driving system in fully autonomous driving - Google Patents

Interaction method between user and autonomous driving system in fully autonomous driving Download PDF

Info

Publication number
KR20180052077A
KR20180052077A KR1020170111758A KR20170111758A KR20180052077A KR 20180052077 A KR20180052077 A KR 20180052077A KR 1020170111758 A KR1020170111758 A KR 1020170111758A KR 20170111758 A KR20170111758 A KR 20170111758A KR 20180052077 A KR20180052077 A KR 20180052077A
Authority
KR
South Korea
Prior art keywords
follow
information
user
event
vehicle
Prior art date
Application number
KR1020170111758A
Other languages
Korean (ko)
Other versions
KR102336017B1 (en
Inventor
김경호
김도현
손주찬
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20180052077A publication Critical patent/KR20180052077A/en
Application granted granted Critical
Publication of KR102336017B1 publication Critical patent/KR102336017B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/007Switching between manual and automatic parameter input, and vice versa
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/14Cruise control

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

The present invention relates to an interaction method between a user and an autonomous driving system. The method includes: monitoring a vehicle state of an autonomous vehicle and a driving condition when the autonomous vehicle is autonomously driving; detecting whether a specific event, which is preset, occurs, based on information on the vehicle state and information on the driving condition, which are acquired through monitoring; providing call attention information when the specific event is detected; providing an event and information on follow-up measures after the call attention information is provided; selecting the follow-up measures after the event and the follow-up measures are provided; setting a manner of providing the call attention information, providing the event and the information on follow-up measures, and selecting the follow-up measures; determining and authenticating a user authority for selecting the follow-up measures before or after selecting the follow-up measures; performing one or more follow-up measures, which are selected, after selecting the follow-up measures; and storing information on the follow-up measures after performing the follow-up measures.

Description

완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법{Interaction method between user and autonomous driving system in fully autonomous driving}{Interaction method between user and autonomous driving system in fully autonomous driving}

본 발명은 사용자와 자율주행 시스템 간 인터랙션 방법에 관한 것으로, 상세하게는 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법에 관한 것이다.
The present invention relates to a method of interacting between a user and an autonomous mobile system, and more particularly, to a method of interacting between a user and an autonomous mobile system in a fully autonomous mobile.

자동차의 자동화 단계를 구분함에 있어, 예를 들어 미국 SAE(Society of Automotive Engineers)에서는 자동차의 자동화 단계를 0~5 단계로 구분하고 있다.For example, in the United States, the Society of Automotive Engineers (SAE) distinguishes the automation level of automobiles from zero to five.

단계 0은 운전자가 운전을 수행하는 완전 수동 운전 단계이고, 단계 1~3은 부분 자율주행 단계로서, 자동차가 일부 자율주행 기능을 지원하지만, 운전자가 자동차와의 협력을 통해 운전을 수행하는 단계이다.Step 0 is a fully manual operation step in which the driver performs the operation, and Steps 1 to 3 are partial autonomous driving steps, in which the automobile supports some autonomous driving functions, but the driver performs the driving through cooperation with the automobile .

그리고, 단계 4~5는 특수 상황이 아닌 일반적인 상황이나 모든 상황에서 자동차가 자율적으로 운전을 수행하며 운전자는 직접적으로 운전에 관여하지 않는 와전 자율주행 단계이다.In addition, steps 4 to 5 are autonomous driving modes in which the vehicle performs autonomously in a general situation or in all situations, not in a special situation, and the driver does not directly participate in driving.

최근 현대자동차 등 국내 자동차 회사와 BMW, 벤츠, 아우디, 포드, 테슬라 등 외국 자동차 회사에서는 자율주행 자동차 개발에 주력을 기울이고 있다. 또한, 구글이나 애플과 같은 정보통신 회사에서도 자율주행 자동차 개발을 본격적으로 진행하고 있다.Recently, domestic automobile companies such as Hyundai Motors and foreign automobile companies such as BMW, Benz, Audi, Ford, and Tesla are concentrating on developing autonomous vehicles. In addition, information and communication companies such as Google and Apple are developing autonomous vehicles in earnest.

현재 개발되고 있는 자율주행 자동차는 대부분 기존의 자동차와 같이 조향 장치와 가감속 페달 등의 장치를 탑재하고 있다. 이는 주행 중 돌발 상황이나 자율주행이 힘든 상황이 발생하였을 때 운전자가 언제든지 제어권을 넘겨받고 수동 모드로 운전을 수행할 수 있도록 하기 위함이다.Currently, autonomous driving vehicles are equipped with steering devices and acceleration / deceleration pedals as in most existing automobiles. This is to allow the driver to take over the control at any time and to perform the operation in the manual mode when an unexpected situation occurs or when the autonomous driving is difficult.

따라서, 비록 자율주행 모드로 자동차가 자율주행 중이라 하더라도 운전자는 운전석에 앉아 있으면서 도로 상황을 주시하는 등의 자세를 취하고 있어야 한다.Therefore, even if the autonomous vehicle is running in the autonomous mode, the driver should be in the driver's seat while watching the road situation.

자동차의 자율주행 상황에서는, 자동차가 정상적으로 자율주행 기능을 잘 수행하고 있는지를 운전자에게 알려줌으로써 운전자의 심리적 안정감을 높이고 운전을 수동 모드로 전환해야 할 경우에 잘 대처할 수 있도록 하는 기능을 수행할 수 있도록 구현되는 것이 바람직하다.In the autonomous driving situation of the vehicle, the driver is informed to the driver whether the vehicle normally performs the autonomous driving function properly, thereby enhancing the driver's psychological stability and performing the function to cope with the case where the driving should be switched to the manual driving mode .

예를 들어, 종래기술로서, 미국등록특허 9,346,400 “Affective user interface in an autonomous vehicle” 및 미국등록 특허 9,132,840 “User interface for displaying internal state of autonomous driving system”이 있다.For example, in the prior art, US Pat. No. 9,346,400 "Affective user interface in an autonomous vehicle" and US Pat. No. 9,132,840 "User interface for displaying internal state of autonomous driving system".

상기 언급된 종래기술은 자동차가 자율주행 모드로 주행 중이라 하더라도, 운전자는 항상 운전석에 앉아 있으면서 자율주행 모드에서 수동주행 모드로 전환이 필요할 경우에는 운전자가 운전 제어권을 넘겨받아 수동으로 운전을 해야 한다는 전제를 기반으로 한 기술을 개시하고 있다.In the above-mentioned prior art, even if the automobile is traveling in the self-running mode, when the driver is always in the driver's seat and needs to switch from the self-running mode to the manual drive mode, And discloses a technique based on premise.

따라서, 상기 언급된 종래기술에서의 운전자는 자율주행 모드 상황에서도 항상 도로 상황에 대한 주의를 기울이고 있어야 하며, 운전이라는 작업에서 완전히 자유로울 수 없다.Therefore, the driver in the above-mentioned prior art should always pay attention to the road conditions even in the autonomous driving mode, and can not be completely free from the operation of driving.

한편, 최근 포드 자동차에서는 자율주행 자동차 개발 계획을 발표하면서 2021년경에 완전한 자율주행 자동차를 양산하겠다는 계획을 발표하였다. 이러한 자동차는 미국 SAE에서 구분한 자동차의 자동화 단계 중 단계 4~5 단계에 해당하는 자율주행 자동차로서 조향 장치와 가감속 페달이 없는 자동차이다.On the other hand, Ford recently announced plans to develop autonomous vehicles in 2021. These automobiles are self-propelled vehicles that correspond to stages 4 to 5 of automation stages classified by SAE in USA and do not have steering devices and acceleration / deceleration pedals.

조향 장치와 가감속 페달이 없는, 즉 운전자가 운전에 직접적으로 관여할 수 없는 자동차의 경우에는 자유주행 자동차와 운전자 사이의 제어권 이양이 발생하지 않으며, 운전자라는 개념 자체가 없기 때문에, 종래기술에 언급된 방법과는 다른 탑승자와 자동차 간 인터랙션 방법이 요구된다.In the case of a vehicle without a steering device and an accelerating / decelerating pedal, that is, a vehicle in which a driver can not directly participate in driving, there is no transfer of control between a freewheeling vehicle and a driver, and there is no concept of a driver. A method of interacting between a passenger and an automobile is required.

상기 언급된 종래기술은 시시각각으로 변하는 자율주행 신뢰도 값을 기반으로, 필요 시 운전자에게 수동모드로의 전환을 판단하도록 하기 위한 경고를 음성이나 시각적 정보, 또는 운전대의 색깔의 변화 등으로 알려주는 것을 개시하고 있습니다.The above-mentioned prior art discloses warning to inform the driver of the change to the manual mode, if necessary, based on the autonomic travel reliability value which varies from moment to moment, by informing the driver of the voice, visual information, We are.

이러한 경우, 운전자는 자동차로부터 제공되는 정보들에 항상 주의를 기울이고 있어야 하고, 수동운전 등 필요한 후속조치를 위한 준비 자세를 취하고 있어야 한다.In such a case, the driver must be careful about the information provided by the car and be prepared to take necessary follow-up measures such as manual driving.

따라서, 비록 자율주행 모드로 자동차가 주행 중이라 하더라도 운전자는 운전이라는 작업에서 완전히 자유로울 수 없으며, 이로 인한 심리적 부담감이나 피로는 여전히 존재하고, 때로는 수동운전 상태보다 더 피곤한 상황을 경험할 수도 있다.Therefore, even if the vehicle is traveling in the self-driving mode, the driver can not be completely free from the operation of driving, and the resulting psychological burden or fatigue still exists, and sometimes he may experience a more tired situation than the manual driving state.

특히, 운전자가 직접적인 운전을 수행하지 않는 완전 자율주행 자동차에서는 좌석 시트가 전방을 바라보지 않고, 탑승자끼리 마주보게 되어, 탑승자가 다른 탑승자와 대화를 하거나 책을 읽거나 음악을 듣거나 영화를 보는 등 운전과는 전혀 무관한 행동을 할 수 있다.Particularly, in a fully autonomous driving vehicle in which the driver does not perform direct driving, the seat seats do not look forward, but the passengers face each other, so that the passenger can talk with other passengers, read books, listen to music, You can do anything that is not related to driving.

하지만, 상기 언급된 종래기술에서 제안된 것처럼, 자율주행 모드에 대한 신뢰도의 등의 정보를 음성이나 시각적으로 제공하는 경우, 탑승자는 여가 시간을 보내는 데에 제약을 받게 되고, 심리적인 불편함을 겪게 될 가능성이 크다.However, as proposed in the above-mentioned prior art, when information such as reliability of the autonomous driving mode is spoken or visually provided, the occupant is restricted from having leisure time, and experiences psychological discomfort .

또한, 조향 장치나 가감속 페달이 없는 완전 자율주행 자동차의 경우 운전자가 수동 모드로 운전을 수행할 방법 자체가 없기 때문에, 자율주행 자동차의 상태나 신뢰도에 기반한 정보를 탑승자에게 제공하는 것은 무의미하다.
In addition, in the case of a fully autonomous traveling vehicle without a steering device or an acceleration / deceleration pedal, there is no way for the driver to perform the operation in the passive mode, so it is meaningless to provide information to the passenger based on the state or reliability of the autonomous traveling vehicle.

따라서, 본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위하여 제안된 것으로, 완전 자율주행 자동차 사용자가 자동차의 상태나 주행 상황 관련 정보나 경고에 항상 주의를 기울이지 않아도 되는 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법을 제공한다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art, and it is an object of the present invention to provide a fully autonomous traveling vehicle user and a user of the fully autonomous traveling vehicle, And provides an interaction method between the autonomous navigation system.

또한, 본 발명은 시각 장애인이나 청각 장애인 등 사회적 약자에게도 적용 가능한 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법을 제공한다.In addition, the present invention provides a method for interacting between a user and an autonomous navigation system in a fully autonomous mode, which is applicable to a socially weak person such as a visually impaired person or a hearing impaired person.

또한, 본 발명은 조향이나 가감속 등 직접적인 운전 조작을 할 수 없는 경우를 위해 미리 저장된 후속 조치를 사용자가 선택할 수 있는 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법을 제공한다.
In addition, the present invention provides a method for interacting between a user and an autonomous navigation system in a fully autonomous running mode in which a user can select a follow-up action stored in advance for the case where direct driving operation such as steering or acceleration / deceleration can not be performed.

상기와 같은 목적을 달성하기 위한 본 발명의 실시 예에 따른 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법은, 자율주행 자동차의 자율주행 시, 자동차 상태와 주행 상황을 모니터링하는 단계; 모니터링을 통해 획득되는 자동차 상태 정보와 주행 상황 정보를 기초로 하여, 기 설정된 특정의 이벤트가 발생하였는지를 검출하는 단계; 상기 특정의 이벤트가 검출된 경우, 주의 환기를 위해 이벤트 검출 상황을 제공하는 단계; 상기 이벤트 검출 상황을 제공한 후, 이벤트 내용을 제공하는 단계; 상기 이벤트 내용을 제공한 후, 선택 가능한 후속 조치 정보를 제공하는 단계; 및 상기 후속 조치 정보를 제공한 후, 사용자의 선택에 응답하여 제공되는 선택 후속 조치 정보를 바탕으로 후속 조치를 수행하는 단계를 포함한다.
According to another aspect of the present invention, there is provided a method of interacting between a user and an autonomous mobile system in a fully autonomous mobile vehicle, the method comprising: monitoring an autonomous mobile vehicle, Detecting whether a predetermined specific event has occurred based on the vehicle condition information and the running condition information obtained through the monitoring; Providing an event detection situation for the attention ventilation when the specific event is detected; Providing the event detection situation, and then providing the event content; Providing the event content and providing selectable follow-up information; And performing a follow-up action based on the selected follow-up action information provided in response to the user's selection after providing the follow-up action information.

본 발명에 따르면, 사용자가 완전 자율주행 자동차에 탑승하고 있으면서 조향이나 가감속 등의 직접적인 운전에 관여하지 않거나 관여할 수 없는 상태에서 돌발상황, 긴급상황, 차량고장 등의 상황이 발생했을 때, 이에 대한 이에 대한 적절한 후속 조치를 효과적 수행할 수 있게 된다.According to the present invention, when a user is aboard a fully autonomous traveling vehicle and is in a state in which the user is not involved in direct driving such as steering, acceleration, deceleration, or the like, It will be able to carry out appropriate follow-up actions effectively.

또한, 사용자의 주의 환기 방법을 통하여, 완전 자율주행 자동차 이용자가 평상시에 자율주행 자동차의 상태나 자율주행 상황 관련 정보나 경고에 항상 주의를 기울이지 않아도 되며, 차 안에서 영화감상, 음악감상, 독서, 동승자와의 대화, 핸드폰 사용 등 운전과 관련 없는 다양한 활동들에 편하게 집중할 수 있도록 할 수 있다.In addition, through the user's attention ventilation method, the user of the fully autonomous driving vehicle does not have to pay attention to the state of the autonomous driving vehicle and the information or warning about the autonomous driving situation at all times. In the car, the user can enjoy watching movies, listening to music, Conversation with a driver, use of a mobile phone, and so on.

또한 시각 장애인이나 청각 장애인 등 사회적 약자도, 필요한 후속 조치를 선택하여 실행시킬 수가 있으므로 완전자율주행자동차의 사용자층 저변 확대에도 기여를 할 수가 있다.In addition, social disadvantaged persons such as the visually impaired and the hearing impaired can select and execute the necessary follow-up measures, which can contribute to expanding the base of the user base of the fully autonomous driving car.

또한 후속 조치 선택에 대한 권한을 가진 자가 후속 조치를 선택할 수 있게 하며 이를 기록하여 저장할 수가 있으므로 후속 조치 실행의 안전성을 높이고 차후 책임소재를 분명히 판단할 수 있는 효과가 있다.
In addition, the person who has the authority to select the follow-up action can select the follow-up action and can record and store the follow-up action. Therefore, the safety of the follow-up action can be enhanced and the responsibility for the future action can be clearly judged.

도 1은 본 발명의 바람직한 실시 예에 따른 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법을 실행할 수 있도록 구현된 시스템의 일례를 도시한 도면이다.
도 2는 본 발명의 바람직한 실시 예에 따른 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법을 설명하기 위한 순서도이다.
1 is a diagram illustrating an example of a system implemented to perform a method of interacting between a user and an autonomous navigation system in a fully autonomous running according to a preferred embodiment of the present invention.
2 is a flowchart for explaining a method of interacting between a user and an autonomous mobile system in a fully autonomous running according to a preferred embodiment of the present invention.

본문에 개시되어 있는 본 발명의 실시 예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시 예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시 예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시 예들에 한정되는 것으로 해석되어서는 안 된다.For specific embodiments of the invention disclosed herein, specific structural and functional descriptions are set forth for the purpose of describing an embodiment of the invention only, and it is to be understood that the embodiments of the invention may be embodied in various forms, And should not be construed as limited to the embodiments described.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It should be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 “~사이에”와 “바로 ~사이에” 또는 “~에 이웃하는”과 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Other expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, “포함하다” 또는 “가지다” 등의 용어는 개시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms " comprising ", or " having ", and the like, are intended to specify the presence of stated features, integers, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

한편, 어떤 실시 예가 달리 구현 가능한 경우에 특정 블록 내에 명기된 기능 또는 동작이 순서도에 명기된 순서와 다르게 일어날 수도 있다. 예를 들어, 연속하는 두 블록이 실제로는 실질적으로 동시에 수행될 수도 있고, 관련된 기능 또는 동작에 따라서는 상기 블록들이 거꾸로 수행될 수도 있다.
On the other hand, if an embodiment is otherwise feasible, the functions or operations specified in a particular block may occur differently from the order specified in the flowchart. For example, two consecutive blocks may actually be performed at substantially the same time, and depending on the associated function or operation, the blocks may be performed backwards.

본 발명은 완전 자율주행 자동차 사용자가 자동차의 상태나 주행 상황 관련 정보나 경고에 항상 주의를 기울이지 않아도 되는 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법을 제안한다.The present invention proposes a method of interacting between a user and an autonomous navigation system in a fully autonomous navigation system, in which a user of a fully autonomous navigation vehicle does not have to pay attention to information or warnings related to the state or running situation of the vehicle.

특히, 본 발명은 시각 장애인이나 청각 장애인 등 사회적 약자에게도 적용 가능한 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법을 제안한다.In particular, the present invention proposes a method of interacting between a user and an autonomous navigation system in a fully autonomous running mode, which is applicable to a socially weak person such as a visually impaired person or a hearing impaired person.

이에 더하여, 본 발명은 조향이나 가감속 등 직접적인 운전 조작을 할 수 없는 경우를 위해 미리 저장된 후속 조치를 사용자가 선택할 수 있는 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법을 제안한다.In addition, the present invention proposes a method of interacting between a user and an autonomous navigation system in a fully autonomous running mode in which a user can select a follow-up action that is stored in advance for a case in which a direct driving operation such as steering or acceleration or deceleration can not be performed.

이를 위해, 본 발명에서 제안되는, 사용자와 자율주행 시스템 간 인터랙션 방법은 사용자의 주의를 끈 다음 후속적으로 필요한 정보를 제공하는 것을 특징으로 한다.To this end, the method of interaction between a user and an autonomous navigation system proposed in the present invention is characterized by providing necessary information after a user's attention is paid out.

또한, 본 발명의 사용자와 자율주행 시스템 간 인터랙션 방법은 주의 환기, 이벤트 정보 제공, 후속조치 정보 제공시 사용자의 특성(ex, 일반인, 시각 장애인, 청각 장애인 등)을 고려하여 주의환기 수단 및 제공 정보 수단을 선택하여 서비스를 제공하는 것을 특징으로 한다.In addition, the interaction method between the user and the autonomous navigation system according to the present invention may be implemented by taking care of the user's characteristics (eg, general person, visually impaired person, hearing impaired person, etc.) And a service is provided by selecting the means.

또한, 본 발명의 사용자와 자율주행 시스템 간 인터랙션 방법은 사용자가 선택할 수 있도록 기 저장된 후속 조치 정보를 제공하고, 사용자에 의해 선택된 후속 조치에 따른 동작을 자동차가 수행할 수 있도록 하는 서비스를 제공하는 것을 특징으로 한다.In addition, the present invention provides a method of providing an after-action information pre-stored so that the user can select the method of the interaction between the user and the autonomous navigation system, and allowing the automobile to perform an operation according to the subsequent action selected by the user .

또한, 본 발명의 사용자와 자율주행 시스템 간 인터랙션 방법은, 후속 조치 선택시, 권한을 가진 자가 후속 조치를 선택하였는지를 판단하고 인증하며 이에 대한 로그 정보를 저장할 수 있도록 하는 서비스를 제공하는 것을 특징으로 한다.
The method of the present invention is characterized in that when a follow-up action is selected, an interaction method between a user and an autonomous navigation system provides a service for determining whether a person having authority has selected a follow-up action, .

이하, 본 발명에서 제안하는 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법 및 상기 방법을 실현하기 위한 사용자와 자율주행 시스템 간 인터랙션 시스템에 대하여 첨부된 도면을 참조하여 상세하게 설명한다.
Hereinafter, a method of interacting between a user and an autonomous mobile system in a fully autonomous running proposed by the present invention and an interaction system between a user and an autonomous running system for realizing the method will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 바람직한 일 실시 예에 따른 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법을 실행할 수 있도록 구현된 시스템의 일례를 도시한 도면이다. 1 is a diagram illustrating an example of a system implemented to perform a method of interacting between a user and an autonomous navigation system in a fully autonomous running according to a preferred embodiment of the present invention.

도 1을 참조하면, 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 시스템(100, 이하 시스템)은 본 발명에서 제안되는 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법을 실행할 수 있도록 구현된다.Referring to FIG. 1, an interaction system 100 (hereinafter, referred to as a system) between a user and an autonomous mobile system in a fully autonomous running mode is implemented so as to execute a method of interacting between a user and an autonomous mobile system in a fully autonomous running proposed in the present invention .

이를 위해, 상기 시스템(100)은 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션을 수행하는 적어도 하나 이상의 프로세서 및 기능 수행을 위해 필요한 정보 및 수행 결과를 저장하기 위한 적어도 하나 이상의 메모리를 포함할 수 있다.To that end, the system 100 may include at least one processor for performing an interaction between a user and an autonomous navigation system in a fully autonomous running, and at least one or more memories for storing information and execution results necessary for performing a function have.

구체적으로, 상기 시스템(100)은 모니터링부(110), 이벤트 검출부(120), 정보 제공부(130), 설정부(140), 권한 인증부(150), 정보 저장부(160), 후속조치 수행부(170)를 포함할 수 있다.Specifically, the system 100 includes a monitoring unit 110, an event detection unit 120, an information providing unit 130, a setting unit 140, an authority authentication unit 150, an information storage unit 160, And an execution unit 170.

상기 모니터링부(110)는 자율주행 자동차의 시동이 켜지고 자율주행이 시작되면, 자동차 상태(vehicle status)와 주행 상황(driving situation)을 모니터링 한다.The monitoring unit 110 monitors a vehicle status and a driving situation when an autonomous vehicle is turned on and autonomous operation is started.

여기서, 자동차 상태는 자율주행 기능의 정상 동작 여부, 오류 발생 여부 등 자동차 또는 자율주행 기능과 관련한 소프트웨어적 상태와 하드웨어적 상태를 포함한다.Here, the vehicle state includes a software state and a hardware state related to an automobile or an autonomous driving function, such as whether the autonomous driving function is normally operated or an error occurs.

그리고, 주행 상황은 자동차가 지정된 경로를 따라 주행하고 있는지, 도로 상에 장애물이 존재하는지, 돌발 상황이 발생하였는지 등 자율주행 중 인지되는 도로 및 주변 상황을 포함한다.Incidentally, the driving situation includes roads and surroundings that are recognized during autonomous driving, such as whether the vehicle is traveling along a designated route, an obstacle exists on the road, or an unexpected situation occurs.

이러한 자동차 상태 및 주행 상황에 대한 모니터링은 자동차의 시동이 켜져 있거나 주행중인 동안 정해진 주기로 지속적으로 수행된다.Such monitoring of the condition of the vehicle and the driving situation is continuously carried out at a predetermined cycle while the vehicle is being started or running.

예를 들어, 상기 모니터링부(110)는 시스템(100)이 탑재된 자동차 내 다른 시스템(ex, AVM(Around View Monitoring) 시스템, OBSM(On Board Safety Monitoring) 시스템 등)으로부터 제공되는 정보를 바탕으로 자동차 상태 및 주행 상황을 모니터링 하도록 구현될 수 있다.For example, the monitoring unit 110 may be configured to monitor the system 100 based on information provided from another system (e.g., an AV (Around View Monitoring) system, an OBSM (On Board Safety Monitoring) And may be implemented to monitor the vehicle condition and driving situation.

그리고, 상기 모니터링부(110)는 모니터링을 통해 획득되는 자동차 상태 정보 및 주행 상황 정보를 이벤트 검출부(120)로 제공할 수 있다.The monitoring unit 110 may provide the vehicle status information and the running condition information obtained through monitoring to the event detection unit 120.

상기 이벤트 검출부(120)는 모니터링부(110)로부터 제공되는 정보(자동차 상태 정보 및 주행 상황 정보)를 기초로 하여, 기 설정된 특정한 이벤트가 발생하였는지를 검출한다.The event detection unit 120 detects whether a predetermined specific event has occurred based on information (vehicle state information and running state information) provided from the monitoring unit 110. [

즉, 상기 이벤트 검출부(120)는 모니터링부(110)에서 제공되는 정보를 분석하여 기 설정된 특정한 이벤트를 검출한다.That is, the event detector 120 analyzes the information provided by the monitoring unit 110 and detects a predetermined event.

예를 들어, 상기 이벤트 검출부(120)에 의해 검출되도록 기 설정되는 이벤트는, 자동차의 상태에 이상이 발생하였거나 고장이 발생한 경우, 자율주행 기능에 오류가 생겼거나 특정 자율주행 기능(ex, 보행자 인식, 차선 인식, 신호등 인식 등 자율주행을 위해서 필요한 기능) 수행에 실패한 경우, 주행 중 돌발 상황이나 비상 상황이 발생한 경우, 사고가 발생한 경우 등일 수 있다.For example, the event that is preset to be detected by the event detection unit 120 may be an event in which an error occurs in the autonomous driving function or a specific autonomous driving function (ex, pedestrian recognition , Lane recognition, recognition of traffic lights, etc.), the occurrence of an accident or emergency during driving, an accident, or the like.

이때, 상기 이벤트 검출부(120)에 의해 검출되도록 기 설정되는 이벤트는 사용자에 의해 이루어지는 조향이나 가감속 등의 운전 조작을 고려하여 설정되는 것이 아니라 미리 정해지는 특정한 후속 조치들을 고려하여 설정되는 것이 바람직하다.At this time, the event that is preset to be detected by the event detection unit 120 is preferably set in consideration of a predetermined follow-up action that is determined in advance, rather than considering a driving operation such as steering or acceleration / deceleration performed by the user .

예를 들어, 차량을 정지(Stop)시켜야 하거나, 갓길에 정차(Pull-over)시켜야 하는 등 미리 정해지는 후속 조치를 고려하여 이벤트는 설정된다.For example, the event is set in consideration of predetermined follow-up measures such as stopping the vehicle or pulling over the shoulder.

그리고, 상기 기 설정되는 이벤트는 이벤트 검출부(120)에 의해 이용될 수 있도록, 이벤트 검출부(120) 내에 저장되거나, 이벤트 검출부(120) 외부의 저장 수단에 저장될 수 있다.The predetermined event may be stored in the event detection unit 120 or may be stored in a storage unit outside the event detection unit 120 so that the event can be used by the event detection unit 120. [

그리고, 상기 이벤트 검출부(120)는 기 설정된 이벤트가 검출되면, 검출된 이벤트와 관련된 정보(이벤트 정보)를 정보 제공부(130)로 제공한다.
When the predetermined event is detected, the event detection unit 120 provides information (event information) related to the detected event to the information providing unit 130.

정보 제공부(130)는 보다 상세하게 주의 환기부(131), 이벤트 및 후속조치 안내정보 제공부(132), 후속조치 선택부(133)로 구성된다.The information providing unit 130 includes the attention ventilation unit 131, an event and follow-up guide information providing unit 132, and a follow-up action selecting unit 133. [

상기 주의 환기부(131)는 상기 이벤트 검출부(120)에서 검출된 이벤트 정보를 사용자에게 제공하기 전, 사용자의 주의를 환기(Attention triggering)시킴으로써, 사용자가 제공될 이벤트 내용에 관심을 갖도록 유도하게 된다.The attention ventilation unit 131 induces the attention of the user to be interested in the contents of the event to be provided by triggering the attention of the user before providing the event information detected by the event detection unit 120 to the user .

특히, 주의 환기는 완전자율주행자동차에서 자동차 상태 이상, 고장 발생, 자율주행 기능 오류 발생, 자율주행 기능 수행 실패, 돌발 상황이나 비상 상황 발생 등의 이벤트가 검출되었을 때 발생하게 되므로, 이러한 정보에 대한 경각심을 높이고 신속하고 효율적인 대처를 위해서는 탑승자 모두를 대상으로 제공될 필요가 있다.In particular, the attention ventilation occurs when an event such as an automobile condition, a fault, an autonomous driving function error, an autonomous driving function failure, an unexpected situation or an emergency situation is detected in a fully autonomous driving vehicle, It needs to be provided to all passengers in order to raise awareness and to respond promptly and efficiently.

이때, 상기 주의 환기부(131)는 사용자가 영화를 보거나 독서를 하는 등 시각적 주의(attention)가 어떠한 곳에 있는지와 무관하게 사용자의 주의를 끌 수 있어야 한다.At this time, the attention ventilation unit 131 should be able to draw attention to the user irrespective of the place of the visual attention such as the user watching a movie or reading.

이에 따라, 상기 주의 환기부(131)는 차량 내부의 특정한 위치에 설치되어 그래픽이나 텍스트 등의 정보를 표출하는 장치(ex, 계기판, 내비게이션 단말기 등)에 구현되는 것은 바람직하지 않다.Accordingly, it is not preferable that the ventilation unit 131 is installed in a device (ex, instrument panel, navigation terminal, etc.) which is installed at a specific position in the vehicle and displays information such as graphic or text.

따라서, 상기 주의 환기부(131)는 차량 내부의 실내등 또는 별도로 설치되는 어떠한 조명장치를 통하여 조명의 켜짐/꺼짐, 색깔, 밝기, 깜박임 등을 제어함으로써 효과적으로 사용자의 주의를 끌 수 있도록 구현된다.Therefore, the attention ventilation unit 131 is implemented to effectively attract the user's attention by controlling on / off, color, brightness, flicker, etc. of the lighting through an interior lamp in the vehicle or any other installed illumination device.

그리고, 상기 주의 환기부(131)는 탑승자가 동승자와 대화를 하거나, 음악을 듣는 등의 일에 청각적 주의를 할애하고 있더라도 효과적으로 사용자의 주의를 끌 수 있어야 한다.The attention ventilation unit 131 should be able to effectively attract the attention of the user even if the occupant considers auditory attention in conversation with the passenger or listening to music.

이를 위해, 상기 주의 환기부(131)는 탑승자가 듣고 있는 음악이나 동승자와의 대화와는 확연히 구별되는 음향을 제공할 수 있도록 구현될 수 있다.To this end, the attention ventilation unit 131 may be implemented so as to provide sound distinctly distinct from the music being heard by the occupant or the conversation with the passenger.

예를 들어, “주의 상황이 발생했습니다” 등의 음성을 탑승자가 쉽게 인지할 수 있는 주파수, 높이(tone) 혹은 크기(volume)로 제공하도록 구현될 수 있다.For example, a voice such as " caution situation occurred " may be implemented to provide a frequency, a tone, or a volume that the passenger can easily recognize.

그리고, 상기 주의 환기부(131)는 탑승자가 앉아 있는 시트, 혹은 안전벨트 등 탑승자의 신체와 접촉해 있는 차량 내 기구물 또는 장치를 탑승자가 느낄 수 있을 정도의 세기로 진동시킬 수 있도록 구현될 수 있다.The state ventilation unit 131 can be implemented to vibrate a vehicle seat or a seat belt, such as a seat belt, in contact with the body of a passenger, to such an extent that the occupant can feel the ventilation unit 131 .

이러한 주의 환기 방법은 설정부(140)에 의해 설정된 정보를 바탕으로 제공된다.
This attention ventilation method is provided based on the information set by the setting section 140. [

상기 이벤트 및 후속조치 안내정보 제공부(132)는 상기 이벤트 검출부(120)에서 검출한 이벤트 내용을 제공하면서, 후속 조치 안내 정보를 추가로 제공한다.The event and follow-up guide information provider 132 further provides follow-up guide information while providing the contents of the event detected by the event detector 120. [

이때 이벤트 정보는 예를 들어, “자율 주행 기능에 오류가 발생하였습니다” 라는 정보를 시각적으로 혹은 청각적으로 제공할 수 있다. At this time, for example, the event information can visually or audibly provide the information " an error has occurred in the autonomous drive function ".

이에 더하여 상기 이벤트 및 후속조치 안내정보 제공부(132)는 발생한 이벤트 종류에 따라 적절한 후속조치 들을 하나 또는 그 이상 선정한 후 이에 대한 안내 정보를 제공 할 수 있다. 예를 들어, “차량 정지 기능 또는 갓길 정차 기능을 선택해 주세요”라는 정보를 청각적으로 혹은 시각적으로 (예를 들어, 그래픽, 아이콘, 텍스트, 메뉴 등의 GUI 형태) 또는 둘 다의 방법으로 제공할 수 있다.In addition, the event and follow-up guide information provider 132 may select one or more appropriate follow-up actions according to the type of the event that has occurred, and then provide the guide information. For example, you can provide information such as "Please select a vehicle stop function or a shoulder stop function" audibly or visually (for example, GUI form of graphic, icon, text, menu) .

이때 상기 이벤트 및 후속조치 안내정보 제공부(132)는 하나 또는 그 이상의 후속조치 들을 선정할 때, 상기 이벤트 검출부(120)에서 발생한 이벤트의 종류, 차량의 상태 (예를 들어, 주행 가능 여부 등), 도로 및 주변 상황 (예를 들어, 갓길 정차 가능 여부, 차량 정지 시 추돌 사고 등 위험 상황 발생 가능 여부 등) 등을 고려하여, 탑승자가 선택 가능한 후속조치들을 선정하게 된다.At this time, the event and follow-up guide information providing unit 132 may select one or more follow-up actions to be performed based on the type of the event that occurred in the event detecting unit 120, the state of the vehicle (for example, , The road and the surrounding situation (for example, the possibility of stopping the shoulder, the possibility of dangerous situation such as a collision accident when the vehicle is stopped, etc.), and the like.

이러한 후속조치에는 차량의 움직임에 대한 제어 (예를 들어, 정지, 갓길 정차, 경로 변경, 출발지로 복귀 등) 또는 긴급 구조 요청 (예를 들어, E-call 등) 등이 있을 수 있다.Such follow-up actions may include control of the movement of the vehicle (e.g., stop, stop at the shoulder, change the route, return to the origin, etc.) or emergency rescue request (e.

한편, 시각 혹은 청각을 이용한 이벤트 및 후속조치 안내정보 제공 방법은 설정부(140)에 의해 설정된 정보를 바탕으로 제공된다.
On the other hand, the method of providing event and follow-up guide information using time or hearing is provided based on the information set by the setting unit 140. [

상기 후속조치 선택부(133)는 상기 이벤트 및 후속조치 안내정보 제공부(132)를 통하여 제시된 후속조치들 중 하나 또는 다수를 사용자가 선택할 수 있도록 한다.The follow-up action selecting unit 133 allows the user to select one or more of the following actions presented through the event and follow-up guide information providing unit 132. [

이때 사용자는 상기 이벤트 및 후속조치 안내정보 제공부(132)에서 제공하는 방법에 따라, 그래픽, 아이콘, 텍스트, 메뉴 등의 GUI 상에서 선택하거나 음성명령어 또는 자연어 인식 등을 통하여 하나 또는 다수의 후속조치들을 선택할 수 있다.At this time, the user selects one or more follow-up actions through a GUI such as graphic, icon, text, menu, or voice command or natural language recognition according to the method provided by the event and follow- You can choose.

또한 사용자가 다수의 후속조치들을 선택한 경우, 이를 동시에 실행할 것인지 아니면 순차적으로 실행할 것인지를 결정 할 수도 있다. 예를 들어, 갓길 정차와 긴급 구조 요청을 모두 선택하고 이를 동시에 수행하도록 할 수 있다.Also, if a user selects a number of follow-up actions, it may decide whether to run them concurrently or sequentially. For example, you can select both a stop and emergency rescue request and have them run at the same time.

한편, 이러한 후속조치 선택 방법은 설정부(140)에 의해 설정된 정보를 바탕으로 제공된다.
On the other hand, the follow-up action selection method is provided based on the information set by the setting unit 140. [

상기 설정부(140)는 상기 정보 제공부(130)가 어떠한 방법으로 정보를 제공할 것인지를 설정하기 위한 것으로, 사용자는 상기 설정부(140)를 이용하여 정보 제공 방법을 설정할 수 있다.The setting unit 140 is used to set how the information providing unit 130 provides information, and the user can set the information providing method using the setting unit 140. [

그리고, 상기 설정부(140)는 사용자에 의해 설정된 정보 제공 방법을 상기 정보 제공부(130)로 제공하여, 상기 정보 제공부(130)가 설정된 정보 제공 방법에 따라 정보를 제공할 수 있도록 한다.The setting unit 140 provides the information providing method set by the user to the information providing unit 130 so that the information providing unit 130 can provide information according to the established information providing method.

예를 들어, 상기 설정부(140)를 이용하여, 사용자는 상기 정보 제공부(130)가 정보를 시각적 방법, 청각적 방법 및 촉각적 방법 중 어느 하나의 방법으로 제공하거나, 적어도 2개 이상의 방법으로 제공하도록 설정할 수 있다.For example, by using the setting unit 140, the user can provide the information by one of visual, auditory, and tactile methods, or at least two or more methods As shown in FIG.

보다 상세하게는 상기 정보 제공부(130)를 구성하는 주의 환기부(131), 이벤트 및 후속조치 안내정보 제공부(132), 후속조치 선택부(133)가 각각 사용자에게 정보를 제공하는 방법을 설정 할 수 있다.More specifically, the state ventilation unit 131, the event and follow-up guide information providing unit 132, and the follow-up action selecting unit 133 constituting the information providing unit 130 respectively provide a method of providing information to the user Can be set.

예를 들어, 하기 표 1은 본 발명의 바람직한 실시 예에 따른 상기 설정부(140)가 일반인, 시각 장애인, 청각 장애인을 고려하여 상기 정보 제공부(130)의 주의 환기부(131), 이벤트 및 후속조치 안내정보 제공부(132), 후속조치 선택부(133)가 각각 사용자에게 정보를 제공하는 방법을 설정한 형태를 요약한 것이다.For example, in Table 1, the setting unit 140 according to the preferred embodiment of the present invention may include a state ventilation unit 131 of the information providing unit 130, events and / The follow-up guide information providing part 132 and the follow-up action selecting part 133 respectively provide a method of providing information to the user.

구성 요소Component 일반인Public 장애인Disabled 시간 장애인Time disabled 청각 장애인Hearing-impaired 주의 환기부(131)The ventilation unit 131, 시각, 청각, 촉각Visual, auditory, tactile 청각, 촉각Hearing, tactile 시각, 촉각Visual, tactile 이벤트 및 후속조치 안내정보 제공부(132)Event and follow-up guide information provider 132, 시각, 청각Visual, auditory 청각ear 시각Time 후속조치 선택부(133)The follow- 시각, 청각Visual, auditory 청각ear 시각Time

즉, 상기 설정부(140)는 상기 주의 환기부(131)가 주의 환기(Attention triggering)를 위하여, 일반인의 경우에는 시각적, 청각적, 촉각적 수단 중 적어도 하나를 이용할 수 있도록, 시각 장애인의 경우에는 청각적, 촉각적 수단 중 적어도 하나를 이용할 수 있도록, 청각 장애인의 경우에는 시각적, 촉각적 수단 중 적어도 하나를 이용할 수 있도록 설정 할 수 있다.That is, the setting unit 140 may be configured such that the attention ventilation unit 131 can use at least one of visual, auditory, and tactile means for attentional triggering in the case of an ordinary person, At least one of visual and tactile means can be used in the case of a hearing-impaired person so that at least one of the auditory and tactile means can be used.

그리고, 상기 설정부(140)는 상기 이벤트 및 후속조치 안내정보 제공부(132)가 이벤트 및 후속조치 안내정보 제공을 위하여, 일반인의 경우에는 시각적, 청각적 수단 중 적어도 하나를 이용할 수 있도록, 시각 장애인의 경우에는 청각적 수단 (예를 들어, 음성안내)을 이용할 수 있도록, 청각 장애인의 경우에는 시각적 수단 (예를 들어, 그래픽, 아이콘, 텍스트, 메뉴 등의 GUI)을 이용할 수 있도록 설정 할 수 있다.The setting unit 140 may set the time and date of the event so that the event and follow-up guide information providing unit 132 can use at least one of visual and auditory means in order to provide event and follow- In the case of the hearing impaired, visual means (for example, a GUI such as graphic, icon, text, menu, etc.) can be made available so that the hearing impaired can use auditory means have.

그리고, 상기 설정부(140)는 상기 후속조치 선택부(133)가 사용자로 하여금 하나 또는 다수의 후속조치들을 선택할 수 있도록 하기 위하여, 일반인의 경우에는 시각적, 청각적 수단 중 적어도 하나를 이용할 수 있도록, 시각 장애인의 경우에는 청각적 수단 (예를 들어, 음성명령어 또는 자연어 인식)을 이용할 수 있도록, 청각 장애인의 경우에는 시각적 수단 (예를 들어, 그래픽, 아이콘, 텍스트, 메뉴 등의 GUI)을 이용할 수 있도록 설정 할 수 있다.The setting unit 140 may be configured to allow the follow-up action selecting unit 133 to use at least one of visual and auditory means in the case of the general public so that the user can select one or a plurality of follow- Visual means (e.g., GUIs for graphics, icons, text, menus, etc.) in the case of the hearing-impaired so that he can use auditory means (e.g. voice commands or natural language recognition) You can set it to.

한편, 완전자율주행자동차가 자가용이면서 하나의 자동차를 사용하는 사람이 다수인 경우(예를 들어, 남편과 아내가 같이 사용하는 경우), 각자의 선호 수단을 구분하여 설정해 둘 수도 있다.On the other hand, if the fully autonomous driving car is a private car and there are a lot of people using one car (for example, husband and wife use it together), their preferred means may be set separately.

또한, 완전자율주행자동차가 카쉐어링 등의 공유자동차인 경우, 운전자 또는 차량 대여자의 회원카드나 스마트폰 앱 또는 카쉐어링 회사의 서버에 본인의 선호 수단을 미리 설정해 둘 수도 있다.In addition, if the fully autonomous driving car is a shared car such as car sharing, the user may pre-set his / her preference means in the membership card of the driver or the car loaner, or in the server of the smartphone application or the car sharing company.

이는 현재 카쉐어링을 통한 차량 공유 시 차문 열림 기능 등을 RFID 카드 (회원카드)나 스마트폰 앱 등을 사용하여 제어하는 것에 착안한 것이다.
This is based on the fact that the car door open function when sharing a car through car sharing is controlled by using an RFID card (membership card) or a smartphone app.

상기 권한 인증부(150)는 사용자가 상기 후속조치 선택부(131)를 통하여 후속조치를 선택하기 전이나 또는 선택한 후에, 본 사용자가 후속조치 선택의 권한을 지니고 있는지를 판단하고 인증하는 기능을 수행한다. The rights authentication unit 150 performs a function of determining whether the user has the right to select a follow-up action before and after selecting the follow-up action through the follow-up action selection unit 131 do.

사용자가 후속조치 선택 권한을 지니고 있다고 판단된 경우, 후속조치 수행부(170)는 선택된 하나 또는 다수의 후속조치들을 수행하게 된다. 그러나 사용자가 후속조치 선택 권한을 지니고 있다고 판단되지 않은 경우, 후속조치 수행부(170)는 사용자가 선택한 하나 또는 다수의 후속조치 들을 수행하지 않거나 또는 상기 후속조치 선택부(131)가 사용자로 하여금 후속조치 선택 자체를 하지 못하게 할 수도 있다.If it is determined that the user has the option of selecting the follow-up action, the follow-up performance unit 170 performs one or more selected follow-up actions. However, if it is determined that the user does not have the follow-up selection authority, the follow-up performance unit 170 does not perform one or a plurality of follow-up measures selected by the user, or the follow- You may not be able to choose the action itself.

완전자율주행자동차에서의 후속조치 선택은, 선택한 사람의 책임이 뒤따르는 중요한 행동으로 볼 수 있다. 이는 수동운전 차량에서 운전자가 사고발생시 책임을 지게 되는 것과 유사하다.The choice of follow-up in a fully autonomous driving car can be seen as an important action followed by the responsibility of the chosen person. This is similar to a driver being liable for an accident in a passenger vehicle.

물론 완전자율주행자동차에서 차량의 주행 중 발생한 사고에 대한 책임을 자동차가 지게 될지 탑승자가 지게 될 지의 문제는 별도의 논의가 필요한 이슈이므로 본 발명에서는 논외로 한다.Of course, the problem of whether the vehicle will be responsible for the accident occurring during the running of the vehicle in the self-propelled vehicle is an issue that needs to be discussed separately, so it is not discussed in the present invention.

하지만 완전자율주행자동차에 다수의 탑승자가 탑승할 경우, 예를 들어 탑승자 중 한명인 어린이가 고의로 또는 장난으로 또는 무심코 후속조치를 선택할 경우가 발생할 수도 있다.However, when a large number of passengers are boarded on a fully autonomous driving vehicle, for example, a child who is one of the passengers may deliberately or prank or choose to follow-up unintentionally.

이러한 경우는 현재 상황에 대한 제대로 된 판단 하에 이루어진 결정이 아니므로 문제가 될 수가 있으며 결과적으로 적절치 않은 후속조치의 실행으로 귀결될 수도 있다.This is not a decision made under the proper judgment of the present situation, which can be a problem and may result in the implementation of inappropriate follow-up measures.

이러한 문제를 해결하기 위해서는, 탑승자 중에 후속조치 선택에 대한 권한을 가진 자가 후속 조치를 선택할 수 있게 하는 방법이 필요하다. 이를 위해서 본 발명에서는 다음과 같은 방법이 제시된다.
To solve this problem, there is a need for a method that allows passengers with the right to choose follow-up options to select follow-up actions. To this end, the following method is proposed in the present invention.

먼저, 완전자율주행자동차가 자가용 차량인 경우, 후속조치 선택 전 또는 후에, 자동차의 스마트키를 자동차의 특정 위치에 설치된 단말기 또는 리더기에 태깅(tagging) 함으로써 권한을 인증하는 방법이다.First, when the fully autonomous driving vehicle is a private car, the authentication of the authority is performed by tagging the smart key of the vehicle to a terminal or a reader installed in a specific location of the vehicle before or after the follow-up action is selected.

이는 차량의 스마트키를 소지하고 있는 사람이 차량의 소유자 이거나 또는 기존 수동운전 차량의 운전자에 해당한다고 판단할 수 있기 때문이다.This is because it can be determined that the person possessing the smart key of the vehicle is the owner of the vehicle or the driver of the existing passive driving vehicle.

또한, 스마트키는 차량의 시동을 걸기 위해서 반드시 소지해야 하는 장치이므로, 별도의 장치를 운전자가 지니고 다니는 번거로움을 해소할 수도 있게 된다. 다만 이를 위해서는 스마트키의 태깅 여부를 알 수 있는 단말기 또는 리더기가 차량에 장착되어 있어야 한다.In addition, since the smart key is a device that must be carried in order to start the vehicle, it is possible to eliminate the trouble that the driver carries the separate device. However, in order to do this, a terminal or a reader capable of knowing whether or not the smart key is tagged should be mounted on the vehicle.

한편, 완전자율주행자동차가 카쉐어링 등의 공유자동차인 경우, 차량 대여자의 RFID칩이 내장된 회원카드를 차량에 설치된 단말기 또는 리더기에 태깅 함으로써 권한을 인증토록 하는 방법이다.On the other hand, when the fully autonomous traveling vehicle is a shared car such as a car sharing, it is a method of authenticating the authority by tagging the membership card having the RFID chip of the vehicle lender to a terminal or a reader installed in the vehicle.

또는, 차량 대여자가 소지한 스마트폰을 이용할 수도 있는데, 이때에는 스마트폰과 차량 내 단말기 또는 리더기간 Bluetooth 통신을 이용하는 직접통신 방법이나, 스마트폰에서 카쉐어링 회사의 서버로 인증 정보를 전송하고 서버에서 인증 후 자동차로 인증 확인 정보를 전송하는 방법, 또는 스마트폰에서 카쉐어링 회사의 서버로 인증 정보를 전송하고 서버에서 인증 후 스마트폰으로 인증 번호를 전송하고 이를 사용자가 차량의 단말기 등에 입력하는 방법 등이 가능하다.Alternatively, it is possible to use a smart phone possessed by a vehicle lender. In this case, a direct communication method using a smart phone and an in-vehicle terminal or a Bluetooth communication in a reader or a smart phone transmits authentication information to a server of a car sharing company, A method of transmitting authentication information to a car after authentication, or a method of transmitting authentication information to a server of a car sharing company in a smart phone, transmitting an authentication number to a smart phone after authenticating from a server, and inputting the authentication number to a terminal of a car This is possible.

공유자동차의 경우 이렇게 회원카드 (RFID 카드)나 스마트폰을 이용하는 방법의 장점은 현재 카쉐어링을 통한 차량 공유 시 차문 열림 기능 등을 회원카드나 스마트폰 앱 등을 사용하여 제어하는 것에 착안한 것이며, 이 경우 권한 인증을 위해 별도의 추가적인 카드나 기기를 소지할 필요가 없는 장점이 있다.The advantage of using a membership card (RFID card) or a smartphone in the case of a shared car is that it is currently controlled by using a membership card or a smartphone app to control the opening function of a car when sharing a car through car sharing, In this case, there is an advantage that there is no need to carry an additional card or device for authorization.

한편, 전술한 이벤트 검출 단계에서 검출된 이벤트가 자동차 사고에 관련한 경우, 탑승자들이 의식을 잃거나 부상을 당했거나 등의 이유로 위에서 설명한 방법으로 후속 조치 선택 권한 인증을 하지 못하게 되는 상황이 발생할 수도 있다.On the other hand, when the event detected in the above-described event detection step is related to an automobile accident, there may occur a situation where passengers are unable to perform the follow-up selection authority authentication in the above-described manner due to loss of consciousness, injury or the like.

만약, 자가용 차량의 소유자가 이러한 상황일 경우, 차량에 탑승한 또 다른 탑승자가 차량 소유자의 스마트키를 이용하여 권한 인증을 함으로써 후속 조치를 선택할 수도 있다. If the owner of the private car is in such a situation, another passenger boarding the vehicle may select the follow-up action by authorizing the vehicle owner's smart key.

또한, 마찬가지로 공유자동차의 경우에도 차량 대여자가 이러한 상태일 경우 차량에 탑승한 또 다른 탑승자가 차량 대여자의 회원카드나 스마트폰을 이용하여 권한 인증을 함으로써 후속 조치를 선택할 수도 있다.Likewise, even in the case of a shared car, if the vehicle lender is in such a state, another passenger who has boarded the vehicle may select a follow-up action by authenticating the authority using the car lenders' membership card or smart phone.

또한, 차량에 탑승한 탑승자가 모두 의식불명이나 부상으로 인해 후속 조치 선택을 위한 인증을 할 수 없는 경우, 즉 정해진 시간 동안 인증 절차가 진행되지 못했을 경우, 상기 권한 인증부(150)는 상기 후속조치 선택부(131)로 하여금, 미리 설정된 후속조치(Default vehicle action)를 자동으로 선택하거나 또는 사고의 종류, 현재 차량의 상태, 주변 환경 등을 고려하여 최적의 후속조치(Recommended vehicle action)를 스스로 판단하여 선택하게 할 수 있다.
In addition, if the passenger boarding the vehicle can not perform authentication for selecting a follow-up action due to unconsciousness or injury, that is, if the authentication process has not proceeded for a predetermined time, The control unit 130 causes the selection unit 131 to automatically determine a default vehicle action or to determine an optimal vehicle action based on the type of the accident, So that it can be selected.

상기 정보 저장부(160)는 상기 권한 인증부(150)에서 수행한 사용자의 후속조치 선택 권한 판단 및 인증 성공 또는 실패 여부, 상기 이벤트 및 후속조치안내 정보 제공부(132)에서 제공된 이벤트의 종류와 검출 시각, 상기 후속조치 선택부(133)에서 선택된 후속조치들의 종류, 후속조치 수행부(170)에서 후속조치를 성공적으로 수행했는지의 여부와 수행과정 및 수행시간 등의 로그 정보를 저장한다.The information storage unit 160 stores information on the success or failure of the user to perform follow-up action selection, authentication success or failure, the kind of event provided by the event and follow-up guide information providing unit 132, The kind of follow-up actions selected by the follow-up action selecting unit 133, whether or not the follow-up action has been successfully performed by the follow-up action performing unit 170, and the execution process and execution time.

이는 누가 언제 후속조치를 선택하였는지, 사용자가 선택한 후속조치는 적절하였는지, 완전자율주행자동차가 후속조치를 성공적으로 수행하였는지, 그리고 완전자율주행자동차가 후속조치를 수행한 과정이 어떠하였는지를 기록함으로써, 혹시 발생할지 모르는 법적 문제에 대한 근거 정보를 확보하고, 완전자율주행자동차의 기능적 결함에 대한 분석이 가능토록 하기 위함이다.
By recording who has chosen which follow-up action, whether the follow-up action chosen by the user was appropriate, whether the fully autonomous vehicle successfully followed up the follow-up, and the process by which the fully autonomous vehicle performed the follow- To obtain the basis information on legal problems that may arise and to analyze the functional defects of fully autonomous vehicles.

상기 후속조치 수행부(170)는 상기 후속조치 선택부(133)에서 선택된 하나 또는 다수의 후속조치들을 동시에 또는 순차적으로 수행한다.The follow-up action performing unit 170 simultaneously or sequentially performs one or a plurality of follow-up actions selected by the follow-up action selecting unit 133. [

예를 들어, ‘갓길 정차’ 라는 후속조치가 선택되었을 경우 완전자율주행자동차는 차를 갓길에 안전하게 정차 시키는 작업을 수행 한다.For example, if a follow-up action of "stop the traffic" is selected, the fully autonomous vehicle carries out the task of safely stopping the vehicle at the shoulder.

또한, 전술한 바대로 상기 후속조치 수행부(170)는 상기 권한 인증부(150)에 의해 인증이 성공한 경우, 또는 미리 설정된 후속조치(Default vehicle action)를 자동으로 선택한 경우, 또는 최적의 후속조치(Recommended vehicle action)를 자동차가 스스로 판단하여 선택한 경우 등에 한해서만 후속조치를 수행한다.
In addition, as described above, the follow-up action performing unit 170 may be configured to perform the following actions when the authentication is successful by the authorization authenticating unit 150, when the default vehicle action is automatically selected, And only when the vehicle judges and selects the recommended vehicle action.

이상에서는 본 발명에서 제안하는 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법을 실현하기 위한 사용자와 자율주행 시스템 간 인터랙션 시스템에 대해서 살펴보았다.In the above, the interaction system between the user and the autonomous mobile system for realizing the interaction method between the user and the autonomous mobile system in the fully autonomous running proposed in the present invention is described.

이하에서는 본 발명에서 제안하는 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법에 대해서 살펴본다.
Hereinafter, a method of interacting between a user and an autonomous navigation system in the fully autonomous running proposed in the present invention will be described.

도 2는 본 발명의 바람직한 일 실시 예에 따른 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법을 설명하기 위한 순서도이다.2 is a flowchart for explaining a method for interacting between a user and an autonomous mobile system in a fully autonomous running according to a preferred embodiment of the present invention.

도 2를 참조하여 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법에 따른 순서를 설명하면 다음과 같다.Referring to FIG. 2, the order of the interaction between the user and the autonomous navigation system in the fully autonomous driving will be described below.

자율주행 자동차의 시동이 켜지고 자율주행이 시작되면, 모니터링부(110)는 자동차 상태(vehicle status)와 주행 상황(driving situation)을 모니터링 한다(S200).When the self-running vehicle is started and the autonomous vehicle starts, the monitoring unit 110 monitors the vehicle status and the driving situation (S200).

이때, 상기 단계 S200에 앞서 사용자는 설정부(140)를 이용하여 정보 제공부(130)의 정보 제공 방법을 설정할 수 있다.In this case, prior to step S200, the user may set the information providing method of the information providing part 130 using the setting part 140. [

구체적으로, 사용자는 설정부(140)를 이용하여, 정보 제공부(130)를 구성하는 주의 환기부(131), 이벤트 및 후속조치 안내정보 제공부(132), 후속조치 선택부(133)가 각각 사용자에게 정보를 제공하는 방법을 설정 할 수 있다.Specifically, the user uses the setting unit 140 to set the state of the ventilation unit 131, the event and follow-up guide information providing unit 132, and the follow-up action selecting unit 133 constituting the information providing unit 130 Each can set a method to provide information to the user.

한편, 상기 단계 S200에 있어서의 모니터링은 자동차의 시동이 켜져 있거나 주행중인 동안 정해진 주기로 지속적으로 수행된다.On the other hand, the monitoring in step S200 is continuously performed at a predetermined cycle while the starting of the vehicle is turned on or while the vehicle is running.

그리고, 상기 단계 S200에서의 모니터링을 통해 획득되는 정보(자동차 상태 정보 및 주행 상황 정보)는 기 설정된 특정한 이벤트가 발생하였는지를 검출하는 데에 이용된다.The information (vehicle state information and running condition information) obtained through the monitoring in step S200 is used to detect whether a predetermined specific event has occurred.

상기 단계 S200 이후, 이벤트 검출부(120)는 획득된 정보를 기초로 하여, 기 설정된 특정의 이벤트가 발생하였는지를 검출한다(S210).After the step S200, the event detection unit 120 detects whether a predetermined specific event has occurred based on the obtained information (S210).

상기 단계 S210에서의 특정의 이벤트는, 예를 들면 자동차의 상태에 이상이 발생하였거나 고장이 발생한 경우, 자율주행 기능에 오류가 생겼거나 특정 자율주행 기능(ex, 보행자 인식, 차선 인식, 신호등 인식 등 자율주행을 위해서 필요한 기능) 수행에 실패한 경우, 주행 중 돌발 상황이나 비상 상황이 발생한 경우 등일 수 있다.The specific event in the step S210 may be an event in which an error occurs in the autonomous driving function or a specific autonomous driving function (ex, pedestrian recognition, lane recognition, signal light recognition, etc.) A function required for autonomous operation), a sudden occurrence of an accident while traveling, an emergency situation, or the like.

상기 단계 S210에서, 특정의 이벤트가 발생하지 않은 경우(S210-아니오), 이벤트 검출부(120)는 모니터링부(110)에 의해 획득 및 제공되는 정보(자동차 상태 정보 및 주행 상황 정보)를 바탕으로 특정의 이벤트가 발생하였는지를 지속적으로 검출한다(S200).If the specific event does not occur in step S210 (S210: No), the event detection unit 120 determines whether or not a specific event is detected based on the information (vehicle state information and running state information) acquired and provided by the monitoring unit 110 Is continuously detected (S200).

반면, 상기 단계 S210에서, 특정의 이벤트가 발생한 경우(S210-예), 이벤트 검출부(120)는 검출된 이벤트와 관련된 정보(‘이벤트 정보’)를 정보 제공부(130)로 제공한다.On the other hand, if a specific event occurs in step S210 (YES in step S210), the event detection unit 120 provides information ('event information') related to the detected event to the information providing unit 130.

보다 상세하게는, 특정의 이벤트가 발생한 경우(S210-예), 정보 제공부(130)의 주의 환기부(131)는 주의 환기(Attention triggering) 정보를 사용자에게 제공함으로써, 향후 제공될 이벤트 및 후속조치 안내 내용에 관심을 갖도록 유도하게 된다(S220).More specifically, when a specific event occurs (YES in S210), the state ventilation unit 131 of the information providing unit 130 provides attention triggering information to the user, (S220).

이때, 상기 단계 S220에서, 주의 환기 방법은 설정부(140)를 이용한 사용자의 설정에 따라, 시각적 방법, 청각적 방법 및 촉각적 방법 중 어느 하나의 방법으로 이루어지거나, 적어도 2개 이상의 방법으로 이루어질 수 있다.At this time, in step S220, the attention ventilation method may be performed by any one of a visual method, an auditory method, and a tactile method according to a user's setting using the setting unit 140, or may be performed by at least two methods .

상기 단계 S220 이후에, 이벤트 및 후속조치 안내정보 제공부(132)는 상기 이벤트 검출부(120)에서 검출한 이벤트 내용을 제공하면서, 후속 조치 안내 정보를 추가로 제공한다(S230).After the step S220, the event and follow-up guide information provider 132 further provides the follow-up guide information while providing the contents of the event detected by the event detector 120 at step S230.

이때, 상기 단계 S230에서, 이벤트 및 후속조치 안내정보 제공 방법은 설정부(140)를 이용한 사용자의 설정에 따라, 시각적 방법, 청각적 방법 및 촉각적 방법 중 어느 하나의 방법으로 이루어지거나, 적어도 2개 이상의 방법으로 이루어질 수 있다.At this time, in step S230, the event and follow-up guide information providing method may be performed by any one of a visual method, an auditory method, and a tactile method according to the user's setting using the setting unit 140, Or more.

권한 인증부(150)는 사용자가 상기 후속조치 선택부(131)를 통하여 후속조치를 선택하기 전이나 또는 선택한 후에, 본 사용자가 후속조치 선택의 권한을 지니고 있는지를 판단하고 인증하는 기능을 수행한다(S240). The authority authentication unit 150 performs a function of determining whether the user has authority to select a follow-up action and authenticating the user before or after selecting the follow-up action through the follow-up action selection unit 131 (S240).

본 발명의 바람직한 실시 예에 따라, 본 명세서 에서는 상기 단계 S240이 후속조치 선택 단계(S250) 이전에 수행되는 것으로 기술하고 있으나, 상기 단계 S240은 후속조치 선택 단계(S250) 이후에 수행되어도 본 발명에서 제시하고자 하는 기능을 수행하기에는 아무런 문제가 없다.According to a preferred embodiment of the present invention, although the step S240 is described herein as being performed before the follow-up action selection step S250, the step S240 may be performed after the follow-up action selection step S250, There is no problem to perform the function to be presented.

상기 단계 S240에서, 사용자가 후속조치 선택 권한을 지니고 있다고 판단된 경우(S240-예), 후속조치 선택부(133)는 이벤트 및 후속조치 안내정보 제공부(132)를 통하여 제시된 후속조치들 중 하나 또는 다수를 사용자가 선택할 수 있도록 하며(S250), 후속조치 수행부(170)는 선택된 하나 또는 다수의 후속조치들을 수행하게 된다(S260).If it is determined in step S240 that the user has the right to select the follow-up action (S240: Yes), the follow-up action selecting unit 133 selects one of the follow- (S250), and the follow-up action performing unit 170 performs one or more selected follow-up actions (S260).

반면, 상기 단계 S240에서, 사용자가 후속조치 선택 권한을 지니고 있다고 판단되지 않은 경우(S240-아니오), 후속조치 선택 권한 인증을 위해 미리 정해진 시간이 경과했는지 판단하는 과정을 거치게 된다(S241)On the other hand, if it is determined in step S240 that the user does not have the follow-up action selecting right (S240: No), the process goes to step S241 to determine whether a predetermined time has elapsed for the follow-

상기 단계 S241에서, 정해진 시간이 경과되지 않은 경우(S241-아니오)는 S240의 권한 인증 판단 단계로 다시 회귀하게 된다.If it is determined in step S241 that the predetermined time has not elapsed (NO in step S241), the process returns to step S240.

이는 후속조치 선택 권한을 지니고 있는 않은 사용자가 권한 인증을 시도함으로 인해, 권한 인증부(150)에서 권한 인증에 실패 경우, 또는 사용자가 권한 인증을 위한 아무런 조치를 취하지 않은 경우에 해당한다.This corresponds to a case where the authorization authentication unit 150 fails to authenticate the user due to the attempt of authorization by the user who does not have the follow-up action selection authority, or when the user does not take any action to authenticate the authorization.

한편, 상기 단계 S241에서, 정해진 시간이 경과된 경우(S241-예), 권한 인증부(150)는 후속조치 선택부(131)로 하여금, 미리 설정된 후속조치(Default vehicle action)를 자동으로 선택하거나 또는 사고의 종류, 현재 차량의 상태, 주변 환경 등을 고려하여 최적의 후속조치(Recommended vehicle action)를 스스로 판단하여 선택하게 한다(S242).If it is determined in step S241 that the predetermined time has elapsed (S241-YES), the rights authentication unit 150 causes the follow-up action selecting unit 131 to automatically select a preset default vehicle action (S242), determining the optimal vehicle action by himself / herself considering the type of accident, current vehicle condition, surrounding environment, and the like.

상기 단계 S242는, 정해진 시간 동안, 사용자가 권한 인증을 받는데 계속 실패를 하였거나, 또는 심각한 교통사고 등으로 인해 차량에 탑승한 탑승자가 모두 의식불명이나 부상 등의 이유로, 후속 조치 선택을 위한 인증을 할 수 없는 경우에 해당한다.In step S242, it is determined whether or not the user has continued to receive the authority authentication for a predetermined period of time, or if the occupant boarded the vehicle due to a serious traffic accident, etc., If you can not.

한편, 상기 단계 S250에서, 후속조치 선택부(133)는 이벤트 및 후속조치 안내정보 제공부(132)를 통하여 제시된 후속조치들 중 하나 또는 다수를 사용자가 선택할 수 있도록 한다.On the other hand, in step S250, the follow-up action selecting unit 133 allows the user to select one or more of the follow-up actions presented through the event and follow-up guide information providing unit 132. [

또한, 상기 단계 S250에서, 사용자가 다수의 후속조치들을 선택한 경우, 이를 동시에 실행할 것인지 아니면 순차적으로 실행할 것인지를 결정 할 수도 있다.Also, in step S250, if the user selects a plurality of follow-up actions, it may decide whether to execute them simultaneously or sequentially.

이때, 상기 단계 S250에서, 후속조치 선택 방법은 설정부(140)를 이용한 사용자의 설정에 따라, 시각적 방법, 청각적 방법 및 촉각적 방법 중 어느 하나의 방법으로 이루어지거나, 적어도 2개 이상의 방법으로 이루어질 수 있다.At this time, in step S250, the follow-up action selection method may be performed by any one of a visual method, an auditory method, and a tactile method according to the setting of the user using the setting unit 140, Lt; / RTI >

상기 단계 S250 또는 상기 단계 S242를 통하여 선택된 하나 또는 다수의 후속조치들은 후속조치 수행부(170)에 의하여 동시에 또는 순차적으로 수행된다(S260)One or a plurality of subsequent actions selected through the step S250 or the step S242 are performed simultaneously or sequentially by the follow-up action performing unit 170 (S260)

그리고, 정보 저장부(160)는 권한 인증부(150)에서 수행한 사용자의 후속조치 선택 권한 판단 및 인증 성공 또는 실패 여부, 이벤트 및 후속조치안내 정보 제공부(132)에서 제공된 이벤트의 종류와 검출 시각, 후속조치 선택부(133)에서 선택된 후속조치들의 종류, 후속조치 수행부(170)에서 후속조치를 성공적으로 수행했는지의 여부와 수행과정 및 수행시간 등의 로그 정보를 저장한다(S270).The information storage unit 160 stores information on the type of the event provided by the user authentication unit 150, the success or failure determination result of the user, the success or failure of the authentication, the event and the follow- The type of follow-up actions selected by the time and follow-up action selection unit 133, whether or not the follow-up action has been successfully performed by the follow-up action performing unit 170, and the execution process and execution time.

이상에서 살펴본 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법은 자율주행 자동차의 운행이 종료될 때까지 이루어질 수 있다.The above-mentioned method of interaction between the user and the autonomous navigation system in the fully autonomous driving system can be performed until the operation of the autonomous driving vehicle is terminated.

이에, 상기 단계 S270 이후, 완전주행 자동차의 운행이 종료되었는지를 판단하고(S280), 운행이 종료되지 않은 경우에는(S280-아니오), 단계 S200에서 S270에 따라 사용자와 자율주행 시스템 간 인터랙션 과정이 지속적으로 이루어지고, 운행이 종료된 경우에는(S280-예), 사용자와 자율주행 시스템 간 인터랙션 과정이 종료된다.If the operation is not terminated (S280: No), it is determined in step S200 that an interaction process between the user and the autonomous navigation system is performed according to step S270 If the operation is terminated (S280: YES), the interaction process between the user and the autonomous navigation system ends.

이때, 상기 단계 S280에서의 완전주행 자동차의 운행 종료 판단은 정보 제공부(130)에 의해 이루어질 수도 있으나, 자동차 내 다른 시스템이 자동차의 운행 종료를 판단하여, 사용자와 자율주행 시스템 간 인터랙션 시스템(100)의 동작을 종료시킬 수도 있다.
At this time, although the completion of the operation of the fully running car in step S280 may be performed by the information providing unit 130, other systems in the car may determine the end of the operation of the vehicle, and the interaction system 100 ) May be terminated.

이상에서 설명한 본 발명의 실시 예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 기능 혹은 모든 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.
It is to be understood that the present invention is not limited to these embodiments, and all elements constituting the embodiment of the present invention described above are described as being combined or operated in one operation. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of functions combined in one or a plurality of hardware. As shown in FIG. In addition, such a computer program may be stored in a computer readable medium such as a USB memory, a CD disk, a flash memory, etc., and read and executed by a computer to implement an embodiment of the present invention. As the recording medium of the computer program, a magnetic recording medium, an optical recording medium, a carrier wave medium, and the like can be included.

이상에서와 같이, 본 발명에 따른 완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법을 실시 예에 따라 설명하였지만, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 본 발명과 관련하여 통상의 지식을 가진 자에게 자명한 범위 내에서 여러 가지의 대안, 수정 및 변경하여 실시할 수 있다.As described above, the method of interacting between the user and the autonomous navigation system in the fully autonomous running according to the present invention has been described with reference to the embodiments. However, the scope of the present invention is not limited to the specific embodiments, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention.

따라서, 본 발명에 기재된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.
Therefore, the embodiments described in the present invention and the accompanying drawings are intended to illustrate rather than limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and accompanying drawings . The scope of protection of the present invention should be construed according to the claims, and all technical ideas within the scope of equivalents should be interpreted as being included in the scope of the present invention.

100 : 사용자와 자율주행 시스템 간 인터랙션 시스템
110 : 모니터링부
120 : 이벤트 검출부
130 : 정보 제공부
131 : 주의 환기부
132 : 이벤트 및 후속조치 안내정보 제공부
133 : 후속조치 선택부
140 : 설정부
150 : 권한 인증부
160 : 정보 저장부
170 : 후속조치 수행부
100: Interaction system between user and autonomous navigation system
110:
120: Event detection unit
130: Information provision
131: Warning Ventilation
132: Event and follow-up guide information
133: Follow-Up Selector
140: Setting section
150:
160: Information storage unit
170: Follow-up action part

Claims (1)

자율주행 자동차의 자율주행 시, 자동차 상태와 주행 상황을 모니터링하는 단계;
모니터링을 통해 획득되는 자동차 상태 정보와 주행 상황 정보를 기초로 하여, 기 설정된 특정의 이벤트가 발생하였는지를 검출하는 단계;
상기 특정의 이벤트가 검출된 경우, 주의 환기 정보를 제공하는 단계;
상기 주의 환기 정보 제공 후, 이벤트 및 후속조치 안내 정보를 제공하는 단계;
상기 이벤트 및 후속조치 안내 정보를 제공 후, 후속 조치를 선택하는 단계;
상기 주의 환기 정보 제공, 이벤트 및 후속조치 안내 정보 제공, 후속조치 선택 방법을 설정하는 단계;
상기 후속조치 선택 전, 또는 후속조치 선택 후, 사용자의 후속 조치 선택 권한을 판단하고 인증하는 단계;
상기 후속 조치 선택 후, 선택된 하나 또는 다수의 후속조치들을 수행하는 단계; 및
상기 후속조치 수행 후, 후속조치 관련 정보를 저장하는 단계를 포함하는
완전 자율주행에서의 사용자와 자율주행 시스템 간 인터랙션 방법.
Monitoring an automobile condition and a running condition of an autonomous vehicle during self-running;
Detecting whether a predetermined specific event has occurred based on the vehicle condition information and the running condition information obtained through the monitoring;
Providing attention ventilation information when the specific event is detected;
Providing event and follow-up guide information after providing the attention ventilation information;
Providing the event and follow-up guide information, and then selecting a follow-up action;
Providing the attention ventilation information, providing event and follow-up guide information, and selecting a follow-up action selection method;
Determining and authenticating the user's follow-up choice authority before or after the follow-up action selection;
Performing the selected one or more subsequent actions after the subsequent action selection; And
After performing the follow-up action, storing the follow-up action related information
An Interaction Method between User and Autonomous Navigation System in Fully Autonomous Navigation.
KR1020170111758A 2016-11-09 2017-09-01 Interaction method between user and autonomous driving system in fully autonomous driving KR102336017B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160149076 2016-11-09
KR20160149076 2016-11-09

Publications (2)

Publication Number Publication Date
KR20180052077A true KR20180052077A (en) 2018-05-17
KR102336017B1 KR102336017B1 (en) 2021-12-07

Family

ID=62486179

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170111758A KR102336017B1 (en) 2016-11-09 2017-09-01 Interaction method between user and autonomous driving system in fully autonomous driving

Country Status (1)

Country Link
KR (1) KR102336017B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190143151A (en) * 2018-06-20 2019-12-30 이우용 Automated Driving System for Automated Driving car
KR20200023711A (en) * 2018-08-23 2020-03-06 현대자동차주식회사 Power control system and method of electric control unit for vehicle
WO2021006400A1 (en) * 2019-07-11 2021-01-14 엘지전자 주식회사 Vehicle damage response method and device in automated vehicle and highway systems
KR20210005756A (en) * 2019-07-04 2021-01-15 한양대학교 에리카산학협력단 Virtual steering wheel providing system for autonomous vehicle, autonomous vehicle terminal thereof
KR20210056465A (en) * 2019-11-08 2021-05-20 가톨릭관동대학교산학협력단 Deep learning-based autonomous vehicle auditory system for the visually impaired and method thereof
KR20210068761A (en) * 2019-12-02 2021-06-10 가톨릭관동대학교산학협력단 Deep learning-based autonomous vehicle visualize system for the visually impaired and method thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240003978A (en) 2022-07-04 2024-01-11 현대자동차주식회사 Method for providing dssad data in autonomous driving controller

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980035597U (en) * 1996-12-13 1998-09-15 임경춘 Optionally driven air bag system
KR20050058791A (en) * 2003-12-12 2005-06-17 한국전자통신연구원 System and method for car safety driving information service for preventing the collision of cars using gps
JP2007145225A (en) * 2005-11-29 2007-06-14 Denso Corp User hospitality system for vehicle
JP2009274483A (en) * 2008-05-12 2009-11-26 Toyota Motor Corp Device for providing information on abnormal state of vehicle
JP2011005893A (en) * 2009-06-23 2011-01-13 Nissan Motor Co Ltd Vehicular travel control device, and vehicular travel control method
KR20140069608A (en) * 2012-11-29 2014-06-10 이병도 System and method for controlling vehicle's entry and engine start using finger blood vessel authentication technology
KR101470190B1 (en) * 2013-07-09 2014-12-05 현대자동차주식회사 Apparatus for processing trouble of autonomous driving system and method thereof
JP2015020742A (en) * 2013-07-17 2015-02-02 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Interactive automated driving system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980035597U (en) * 1996-12-13 1998-09-15 임경춘 Optionally driven air bag system
KR20050058791A (en) * 2003-12-12 2005-06-17 한국전자통신연구원 System and method for car safety driving information service for preventing the collision of cars using gps
JP2007145225A (en) * 2005-11-29 2007-06-14 Denso Corp User hospitality system for vehicle
JP2009274483A (en) * 2008-05-12 2009-11-26 Toyota Motor Corp Device for providing information on abnormal state of vehicle
JP2011005893A (en) * 2009-06-23 2011-01-13 Nissan Motor Co Ltd Vehicular travel control device, and vehicular travel control method
KR20140069608A (en) * 2012-11-29 2014-06-10 이병도 System and method for controlling vehicle's entry and engine start using finger blood vessel authentication technology
KR101470190B1 (en) * 2013-07-09 2014-12-05 현대자동차주식회사 Apparatus for processing trouble of autonomous driving system and method thereof
JP2015020742A (en) * 2013-07-17 2015-02-02 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Interactive automated driving system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190143151A (en) * 2018-06-20 2019-12-30 이우용 Automated Driving System for Automated Driving car
KR20200023711A (en) * 2018-08-23 2020-03-06 현대자동차주식회사 Power control system and method of electric control unit for vehicle
KR20210005756A (en) * 2019-07-04 2021-01-15 한양대학교 에리카산학협력단 Virtual steering wheel providing system for autonomous vehicle, autonomous vehicle terminal thereof
WO2021006400A1 (en) * 2019-07-11 2021-01-14 엘지전자 주식회사 Vehicle damage response method and device in automated vehicle and highway systems
KR20210056465A (en) * 2019-11-08 2021-05-20 가톨릭관동대학교산학협력단 Deep learning-based autonomous vehicle auditory system for the visually impaired and method thereof
KR20210068761A (en) * 2019-12-02 2021-06-10 가톨릭관동대학교산학협력단 Deep learning-based autonomous vehicle visualize system for the visually impaired and method thereof

Also Published As

Publication number Publication date
KR102336017B1 (en) 2021-12-07

Similar Documents

Publication Publication Date Title
KR20180052077A (en) Interaction method between user and autonomous driving system in fully autonomous driving
US11959761B1 (en) Passenger profiles for autonomous vehicles
JP6773046B2 (en) Driving support device, driving support method, and moving object
US11433905B2 (en) Method for operating a motor vehicle in an activated, at least partially autonomous driving mode and authorization device for a motor vehicle and a motor vehicle
US11577742B2 (en) Methods and systems for increasing autonomous vehicle safety and flexibility using voice interaction
US9135420B2 (en) Biometric data-driven application of vehicle operation settings
KR20220093096A (en) Automated parking methods, devices and systems
EP2777307B1 (en) A system and method to mask incoming calls for a communication device connected to an automotive telematics system
CN111381673A (en) Bidirectional vehicle-mounted virtual personal assistant
CN110654389B (en) Vehicle control method and device and vehicle
US9694816B2 (en) Vehicle management system
JP2016179810A (en) Automatic travel control device and automatic travel control system
US11285966B2 (en) Method and system for controlling an autonomous vehicle response to a fault condition
WO2018058273A1 (en) Anti-theft method and system
CN111885572A (en) Communication control method based on intelligent cabin and intelligent cabin
WO2019069731A1 (en) Information processing device, information processing method, program, and moving body
JP2019131096A (en) Vehicle control supporting system and vehicle control supporting device
US20210229655A1 (en) Systems and methods for executing automated vehicle maneuvering operations
CN114407630A (en) Vehicle door control method and device, electronic equipment and storage medium
US11700522B2 (en) Vehicle that has automatic notification function
CN112437246B (en) Video conference method based on intelligent cabin and intelligent cabin
JP2020050204A (en) Vehicular travel control method and travel control apparatus
JP3233033B2 (en) Vehicle accident response system
US20220009447A1 (en) Key-free vehicle operations management systems and methods
KR101319518B1 (en) Automatic traffic enforcement driving system using voice recognition interface and method for controlling thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant