[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102303419B1 - Autonomous vehicle apparatus - Google Patents

Autonomous vehicle apparatus Download PDF

Info

Publication number
KR102303419B1
KR102303419B1 KR1020190080901A KR20190080901A KR102303419B1 KR 102303419 B1 KR102303419 B1 KR 102303419B1 KR 1020190080901 A KR1020190080901 A KR 1020190080901A KR 20190080901 A KR20190080901 A KR 20190080901A KR 102303419 B1 KR102303419 B1 KR 102303419B1
Authority
KR
South Korea
Prior art keywords
autonomous driving
vehicle
destination
information
module
Prior art date
Application number
KR1020190080901A
Other languages
Korean (ko)
Other versions
KR20210005759A (en
Inventor
천지민
윤혜원
정혜정
이혜림
박수조
Original Assignee
한양대학교 에리카산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 에리카산학협력단 filed Critical 한양대학교 에리카산학협력단
Priority to KR1020190080901A priority Critical patent/KR102303419B1/en
Publication of KR20210005759A publication Critical patent/KR20210005759A/en
Application granted granted Critical
Publication of KR102303419B1 publication Critical patent/KR102303419B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/10Accelerator pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/12Brake pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • B60W2555/80Country specific, e.g. driver age limits or right hand drive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Navigation (AREA)

Abstract

본 발명은 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치에 관한 것이다. 본 발명은, 네트워크(200)를 통해 자율주행 안내서버(400)로 액세스하여 자율주행 안내서버(400)로부터 반환된 차량 회피를 위한 회피주행 경로정보, 교통상황정보에 따라 최단시간 또는 최단거리에 의해 목적지로 가려는 경로를 의미하는 목적지 경로정보를 제공받고, 회피주행 경로정보 및 목적지 경로정보를 활용하여 미리 설정된 목적지로 향하도록 구동부를 구성하는 조향장치인 조향 핸들, 그리고 가속 페달 및 제동 페달에 대한 자율주행 제어 정보를 생성하여 자율주행차량(10)의 자율주행을 제어하는 자율주행 모듈(171); 및 전면 유리창(110)으로 펼쳐진 풍경에서 하나에 대한 객체에 대한 미리 설정된 포인팅 방식의 지정을 통해 포인팅 좌표정보가 생성되면, 생성된 포인팅 좌표정보에 대한 포인팅 기반 목적지 경로정보 요청을 자율주행 안내서버(400)로 전송하여, 주율주행 안내서버(400)로부터 목적지 경로정보를 수신하도록 송수신부(160)를 제어하는 지정 객체 채택 모듈(174); 을 포함하는 것을 특징으로 한다.
이에 의해, 자율주행차량을 공유하는 차량 탑승자가 일반적인 네비게이션 시스템에서는 텍스트나 음성으로 목적지를 입력하는 것이 아닌 보이는 객체를 선택하여 목적지를 입력할 수 있는 효과를 제공한다.
The present invention relates to a system for providing object selection navigation for an autonomous driving vehicle, and an autonomous driving vehicle apparatus therefor. The present invention accesses the autonomous driving guide server 400 through the network 200 and provides a shortest time or shortest distance according to the avoidance driving route information for vehicle avoidance returned from the autonomous driving guide server 400 and traffic situation information. A steering wheel, which is a steering device that configures the driving unit to go to a preset destination by receiving destination route information indicating a route to the destination by an autonomous driving module 171 for generating autonomous driving control information to control autonomous driving of the autonomous driving vehicle 10; And when pointing coordinate information is generated through designation of a preset pointing method for one object in the landscape unfolded by the front windshield 110, a pointing-based destination route information request for the generated pointing coordinate information is sent to the autonomous driving guide server ( 400), a designated object adopting module 174 for controlling the transceiver 160 to receive the destination route information from the circumnavigation guide server 400; It is characterized in that it includes.
Accordingly, the vehicle occupant sharing the autonomous driving vehicle provides an effect of being able to input a destination by selecting a visible object rather than inputting the destination through text or voice in a general navigation system.

Description

자율주행차량 장치{AUTONOMOUS VEHICLE APPARATUS}Autonomous vehicle device {AUTONOMOUS VEHICLE APPARATUS}

본 발명은 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치에 관한 것으로, 보다 구체적으로는, 자율주행차량을 공유하는 차량 탑승자가 일반적인 네비게이션 시스템에서는 텍스트나 음성으로 목적지를 입력하는 것이 아닌 보이는 객체를 선택하여 목적지를 입력하도록 하기 위한 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치에 관한 것이다. The present invention relates to a system for providing object selection navigation for an autonomous driving vehicle, and an autonomous driving vehicle apparatus for the same. It relates to a system for providing object selection navigation of an autonomous driving vehicle for selecting a visible object and inputting a destination by selecting a visible object, and an autonomous driving vehicle apparatus therefor.

자율주행차량은 각종 주행 수단에 내장되어 주행 위치 탐색을 통해 자율 주행을 수행하는 자율주행장치에 해당하는 차량 단말이 포함되어 있으며, 이러한 자율주행장치는 주로 선박, 항공기 등에 적용되다가, 최근 들어 도로를 주행하는 차량에도 적용되어 예를 들면, 주행 경로, 도로 혼잡도 등과 같은 다양한 정보를 모니터를 통해 사용자에게 알려주거나, 스스로 차량을 운전하거나 주행 상태를 제어한다.Autonomous driving vehicles are embedded in various driving means and include vehicle terminals corresponding to autonomous driving devices that perform autonomous driving through driving location search. It is also applied to a driving vehicle, for example, notifies a user of various information such as a driving route and road congestion through a monitor, or drives a vehicle by itself or controls a driving state.

이러한 자율주행차량은 고속으로 움직이는 이동체의 경우, 주행 환경(예를 들면, 전방 차량 인식, 장애물 검출 등)을 실시간으로 인식하여 운전자에게 알려주거나, 주행 환경을 실시간으로 판단하여 스스로 그에 대응하는 각각의 응급 기능을 수행해야 하며, 이를 위해서 많은 데이터량을 실시간으로 처리할 수 있다.In the case of a moving object moving at high speed, the autonomous vehicle recognizes the driving environment (eg, front vehicle recognition, obstacle detection, etc.) in real time and informs the driver, or determines the driving environment in real time and responds to the driving environment in real time. It needs to perform an emergency function, and for this purpose, a large amount of data can be processed in real time.

한편, 기존의 자율주행차량에서는 자율주행차량을 공유하는 차량 탑승자가 네비게이션 시스템상에서 텍스트나 음성으로 목적지를 입력하는데, 이러한 방식은 종래의 입력 방식은 자율주행차량의 차량 탑승자에게 불편을 초래할 뿐만 아니라, 입력 과정이 불푠하여 완전 자율주행의 개념에도 맞지 않은 한계점이 있다.On the other hand, in an existing autonomous vehicle, a vehicle occupant sharing an autonomous vehicle inputs a destination by text or voice on the navigation system. There is a limit that does not fit the concept of fully autonomous driving because the input process is not good.

대한민국 특허출원 출원번호 제10-2018-0004940호 "자율주행차량을 이용한 가상 계좌 연계 인공지능 통합 서비스 제공 시스템 및 방법(SYSTEM AND METHOD FOR PROVIDING INTEGRATED ARTIFICIAL INTELLIGENCE SERVICE INTERWORKING VIRTUAL ACCOUNT USING SELF-DRIVING VEHICLE)"Korean Patent Application No. 10-2018-0004940 "SYSTEM AND METHOD FOR PROVIDING INTEGRATED ARTIFICIAL INTELLIGENCE SERVICE INTERWORKING VIRTUAL ACCOUNT USING SELF-DRIVING VEHICLE"

본 발명은 상기의 문제점을 해결하기 위한 것으로, 자율주행차량을 공유하는 차량 탑승자가 일반적인 네비게이션 시스템에서는 텍스트나 음성으로 목적지를 입력하는 것이 아닌 보이는 객체를 선택하여 목적지를 입력하도록 하기 위한 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치를 제공하기 위한 것이다.The present invention is intended to solve the above problems, and is an autonomous vehicle for allowing a vehicle occupant sharing an autonomous vehicle to input a destination by selecting a visible object rather than inputting the destination by text or voice in a general navigation system. It is to provide an object selection navigation providing system, and an autonomous vehicle device for the same.

또한, 본 발명은 자율주행차량을 공유하는 차량 탑승자가 목적지 근처에 도달하였으나, 교차로 등의 복잡한 도로 상황에서 정확하게 가는 경로를 모를 수 있는 경우 차량의 유리창에서 목적지에 대한 설정을 통해 신속한 목적지 경로정보를 제공받을 수 있도록 하기 위한 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치를 제공하기 위한 것이다.In addition, in the present invention, when a vehicle occupant sharing an autonomous vehicle arrives near a destination, but may not know the exact route in a complex road situation such as an intersection, it is possible to quickly provide destination route information through setting of the destination in the vehicle window. It is to provide a system for providing object selection navigation of an autonomous driving vehicle so as to be provided, and an autonomous driving vehicle apparatus therefor.

또한, 본 발명은 한번 지정된 포인팅 좌표가 복수의 객체를 지정 가능한 경우, 확대된 영상이미지를 제공하고 제공된 영상이미지를 기반으로 목적지에 대해서 다시 설정이 가능하도록 하기 위한 자율주행차량의 객체 인식 시스템, 그리고 자율주행차량 장치를 제공하기 위한 것이다.In addition, the present invention provides an object recognition system of an autonomous driving vehicle for providing an enlarged image image when the pointing coordinates once designated can designate a plurality of objects and enabling setting again for a destination based on the provided image image, and It is intended to provide an autonomous vehicle device.

그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

blood

상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 자율주행차량 장치는, 네트워크(200)를 통해 자율주행 안내서버(400)로 액세스하여 자율주행 안내서버(400)로부터 반환된 차량 회피를 위한 회피주행 경로정보, 교통상황정보에 따라 최단시간 또는 최단거리에 의해 목적지로 가려는 경로를 의미하는 목적지 경로정보를 제공받고, 회피주행 경로정보 및 목적지 경로정보를 활용하여 미리 설정된 목적지로 향하도록 구동부를 구성하는 조향장치인 조향 핸들, 그리고 가속 페달 및 제동 페달에 대한 자율주행 제어 정보를 생성하여 자율주행차량(10)의 자율주행을 제어하는 자율주행 모듈(171); 및 전면 유리창(110)으로 펼쳐진 풍경에서 하나에 대한 객체에 대한 미리 설정된 포인팅 방식의 지정을 통해 포인팅 좌표정보가 생성되면, 생성된 포인팅 좌표정보에 대한 포인팅 기반 목적지 경로정보 요청을 자율주행 안내서버(400)로 전송하여, 주율주행 안내서버(400)로부터 목적지 경로정보를 수신하도록 송수신부(160)를 제어하는 지정 객체 채택 모듈(174); 을 포함하는 것을 특징으로 한다.In order to achieve the above object, the autonomous driving vehicle apparatus according to an embodiment of the present invention accesses the autonomous driving guide server 400 through the network 200 to avoid the vehicle returned from the autonomous driving guide server 400 . According to the avoidance driving route information and traffic situation information, the driver receives the destination route information, which means the route to the destination by the shortest time or the shortest distance, and uses the avoidance route information and the destination route information to go to the preset destination. an autonomous driving module 171 that controls autonomous driving of the autonomous vehicle 10 by generating autonomous driving control information for a steering wheel, which is a steering device constituting the steering device, and an accelerator pedal and a brake pedal; And when pointing coordinate information is generated through designation of a preset pointing method for one object in the landscape unfolded by the front windshield 110, a pointing-based destination route information request for the generated pointing coordinate information is sent to the autonomous driving guide server ( 400), a designated object adopting module 174 for controlling the transceiver 160 to receive the destination route information from the circumnavigation guide server 400; It is characterized in that it includes.

이때, 본 발명은, 전면 유리창(110)을 중심으로 차량 내부에 덧대는 형태로 형성되는 투명 전면 터치스크린(120); 을 더 포함하는 것을 특징으로 한다.At this time, the present invention, a transparent front touch screen 120 formed in the form of a pad on the inside of the vehicle centering on the front windshield 110; It is characterized in that it further comprises.

또한, 본 발명은, 투명 전면 터치스크린(120)으로 대상 객체에 대한 지정을 위한 터치 입력을 수신하는 경우 터치 입력된 포인팅 좌표정보를 생성하는 지정 객체 입력 모듈(172); 을 더 포함하는 것을 특징으로 한다.In addition, the present invention provides a designation object input module 172 for generating touch-input pointing coordinate information when receiving a touch input for designation of a target object through the transparent front touch screen 120; It is characterized in that it further comprises.

또한, 본 발명은, 지정 객체 입력 모듈(172)은, 자율주행차량(10)의 루프의 하부면에서 운전자석의 후단영역에 형성된 센서모듈(130)을 구성하는 내부 카메라(132)에 의해 전면 유리창(110)을 향하는 자율주행차량(10)의 차량 탑승자에 의한 손가락 포인팅 지정에 대한 인식을 수행하는 경우 인식된 포인팅 좌표정보를 생성하는 것을 특징으로 한다.In addition, in the present invention, the designated object input module 172 is front side by an internal camera 132 constituting the sensor module 130 formed in the rear end area of the driver's seat on the lower surface of the roof of the autonomous vehicle 10 . When recognition of finger pointing designation by a vehicle occupant of the autonomous driving vehicle 10 facing the windshield 110 is performed, the recognized pointing coordinate information is generated.

또한, 본 발명은, 내부 디스플레이(140) 또는 투명 전면 스크린(120)에 현재 출력되는 내비게이션 목적지 경로정보에서 지정된 객체를 추출하기 위한 맵 객체 정보를 저장부(150)로부터 추출하는 지정 객체 출력 모듈(173); 을 더 포함하는 것을 특징으로 한다. In addition, the present invention provides a designated object output module ( 173); It is characterized in that it further comprises.

본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치는, 자율주행차량을 공유하는 차량 탑승자가 일반적인 네비게이션 시스템에서는 텍스트나 음성으로 목적지를 입력하는 것이 아닌 보이는 객체를 선택하여 목적지를 입력할 수 있는 효과를 제공한다. The system for providing object selection navigation of an autonomous driving vehicle, and an autonomous driving vehicle apparatus therefor, according to an embodiment of the present invention, provide a view that a vehicle occupant sharing an autonomous driving vehicle does not input a destination by text or voice in a general navigation system. It provides the effect of entering a destination by selecting an object.

또한, 본 발명의 다른 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치는, 자율주행차량을 공유하는 차량 탑승자가 목적지 근처에 도달하였으나, 교차로 등의 복잡한 도로 상황에서 정확하게 가는 경로를 모를 수 있는 경우 차량의 유리창에서 목적지에 대한 설정을 통해 신속한 목적지 경로정보를 제공받을 수 있는 효과를 제공한다. In addition, in the system for providing object selection navigation of an autonomous driving vehicle, and an autonomous driving vehicle apparatus therefor, according to another embodiment of the present invention, a vehicle occupant sharing an autonomous driving vehicle arrives near a destination, but complex road conditions such as an intersection It provides the effect of being able to receive prompt destination route information by setting the destination on the vehicle's windshield when the exact route cannot be known.

뿐만 아니라, 본 발명의 다른 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치는, 한번 지정된 포인팅 좌표가 복수의 객체를 지정 가능한 경우, 확대된 영상이미지를 제공하고 제공된 영상이미지를 기반으로 목적지에 대해서 다시 설정이 가능한 효과를 제공한다.In addition, the system for providing object selection navigation of an autonomous driving vehicle, and an autonomous driving vehicle apparatus therefor, according to another embodiment of the present invention, provide an enlarged image image when pointing coordinates designated once can designate a plurality of objects, Based on the provided video image, it provides an effect that can be set again for the destination.

도 1은 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1)을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1) 중 자율주행차량 장치(100)의 구성요소를 나타내는 블록도이다.
도 3 및 도 4는 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1)에 의한 지정된 대상 객체로의 경로 안내 과정을 설명하기 위한 도면이다.
1 is a diagram illustrating a system 1 for providing object selection navigation of an autonomous vehicle according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating components of an autonomous driving vehicle apparatus 100 in a system 1 for providing object selection navigation of an autonomous driving vehicle according to an embodiment of the present invention.
3 and 4 are diagrams for explaining a process of guiding a route to a designated target object by the system 1 for providing object selection navigation of an autonomous vehicle according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, detailed description of preferred embodiments of the present invention will be described with reference to the accompanying drawings. In the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다. In the present specification, when one component 'transmits' data or signal to another component, the component may directly transmit the data or signal to another component, and through at least one other component This means that data or signals can be transmitted to other components.

도 1은 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1)을 나타내는 도면이다. 도 1을 참조하면, 자율주행차량의 객체 선택 네비게이션 제공 시스템(1)은 자율주행차량(10)에 설치된 자율주행차량 장치(100), 네트워크(200), 객체 인식 서비스 제공 서버(300), 자율주행 안내서버(400)를 포함함으로써, 자율주행차량(10)에서 차창으로 보이는 대상 객체(건물, 경관, 표지물 등)을 보면서 전면 유리창을 터치하면 그 대상 객체의 정보를 출력할 뿐만 아니라, 대상 객체에 대한 목적지 입력을 통해 경로 정보를 제공할 수 있다. 1 is a diagram illustrating a system 1 for providing object selection navigation of an autonomous vehicle according to an embodiment of the present invention. Referring to FIG. 1 , a system 1 for providing object selection navigation of an autonomous driving vehicle includes an autonomous vehicle device 100 installed in an autonomous vehicle 10 , a network 200 , an object recognition service providing server 300 , and autonomous driving vehicle 10 . By including the driving guide server 400, when the front windshield is touched while looking at the target object (building, landscape, landmark, etc.) seen through the vehicle window in the autonomous driving vehicle 10, information of the target object is output as well as the target object Route information can be provided through destination input for .

여기서, 네트워크(200)는 대용량, 장거리 음성 및 데이터 서비스가 가능한 대형 통신망의 고속 기간 망인 통신망이며, 인터넷(Internet) 또는 고속의 멀티미디어 서비스를 제공하기 위한 차세대 유선 및 무선 망일 수 있다. 네트워크(200)가 이동통신망일 경우 동기식 이동 통신망일 수도 있고, 비동기식 이동 통신망일 수도 있다. 비동기식 이동 통신망의 일 실시 예로서, WCDMA(Wideband Code Division Multiple Access) 방식의 통신망을 들 수 있다. 이 경우 도면에 도시되진 않았지만, 네트워크(200)는 RNC(Radio Network Controller)을 포함할 수 있다. 한편, WCDMA망을 일 예로 들었지만, 3G LTE망, 4G망 등 차세대 통신망, 그 밖의 IP를 기반으로 한 IP망일 수 있다. 네트워크(200)는 자율주행차량 장치(100), 네트워크(200), 객체 인식 서비스 제공 서버(300), 자율주행 안내서버(400), 그 밖의 시스템 상호 간의 신호 및 데이터를 상호 전달하는 역할을 한다. Here, the network 200 is a high-speed backbone network of a large-scale communication network capable of large-capacity, long-distance voice and data services, and may be a next-generation wired or wireless network for providing the Internet or high-speed multimedia services. When the network 200 is a mobile communication network, it may be a synchronous mobile communication network or an asynchronous mobile communication network. As an embodiment of the asynchronous mobile communication network, there may be a wideband code division multiple access (WCDMA) type communication network. In this case, although not shown in the drawing, the network 200 may include a Radio Network Controller (RNC). Meanwhile, although the WCDMA network is taken as an example, it may be a next-generation communication network such as a 3G LTE network or a 4G network, or other IP-based IP networks. The network 200 serves to mutually transmit signals and data between the autonomous vehicle device 100 , the network 200 , the object recognition service providing server 300 , the autonomous driving guide server 400 , and other systems. .

도 2는 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1) 중 자율주행차량 장치(100)의 구성요소를 나타내는 블록도이다. 도 3 및 도 4는 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1)에 의한 지정된 대상 객체로의 경로 안내 과정을 설명하기 위한 도면이다. 도 2를 참조하면, 자율주행차량 장치(100)는 전면 유리창(110), 투명 전면 터치스크린(120), 센서모듈(130), 내부 디스플레이(140), 저장부(150), 송수신부(160) 및 제어부(170)를 포함할 수 있다. 센서모듈(130)은 외부 카메라(131), 내부 카메라(132), 거리감지센서(133), GPS 센서(134)를 포함할 수 있으며, 거리감지센서(133)는 라이다(Light Detection And Ranging, LiDAR), 레이더, 초음파 센서 중 적어도 하나 이상의 복합센서로 형성됨으로써, 충분한 중첩을 통해 중복을 증가시켜 안전을 개선하도록 형성될 수 있다. 라이다는 종종 LADAR(Laser Detection And Ranging)나 ToF(Time of Flight), 레이저 스캐너, 레이저 레이더 등으로 불리기도 하는 이것은 물체를 감지해 거리를 맵핑하는 센싱 방식에 해당하며, 광학 펄스로 목표물을 비춘 후 반사된 반송 신호의 특징을 측정하고, 광학-펄스의 폭은 몇 나노초부터 몇 마이크로초까지 변동할 수 있다. 2 is a block diagram illustrating components of an autonomous driving vehicle apparatus 100 in a system 1 for providing object selection navigation of an autonomous driving vehicle according to an embodiment of the present invention. 3 and 4 are diagrams for explaining a process of guiding a route to a designated target object by the system 1 for providing object selection navigation of an autonomous vehicle according to an embodiment of the present invention. Referring to FIG. 2 , the autonomous vehicle device 100 includes a front glass window 110 , a transparent front touch screen 120 , a sensor module 130 , an internal display 140 , a storage unit 150 , and a transmission/reception unit 160 . ) and a control unit 170 . The sensor module 130 may include an external camera 131 , an internal camera 132 , a distance detection sensor 133 , and a GPS sensor 134 , and the distance detection sensor 133 is a lidar (Light Detection And Ranging). , LiDAR), radar, and ultrasonic sensors by being formed of at least one complex sensor, it can be formed to improve safety by increasing overlap through sufficient overlap. LiDAR, often called LADAR (Laser Detection And Ranging), ToF (Time of Flight), laser scanner, laser radar, etc., is a sensing method that detects an object and maps the distance. After measuring the characteristics of the reflected carrier signal, the width of the optical-pulse can vary from a few nanoseconds to a few microseconds.

제어부(170)는 자율주행 모듈(171), 지정 객체 입력 모듈(172), 지정 객체 출력 모듈(173), 지정 객체 채택 모듈(174) 및 지정 객체 경로 제공 모듈(175)을 포함할 수 있다. The controller 170 may include an autonomous driving module 171 , a designated object input module 172 , a designated object output module 173 , a designated object adoption module 174 , and a designated object path providing module 175 .

그리고 본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.And, in the present specification, a module may mean a functional and structural combination of hardware for carrying out the technical idea of the present invention and software for driving the hardware. For example, the module may mean a logical unit of a predetermined code and a hardware resource for executing the predetermined code, and does not necessarily mean physically connected code or a single type of hardware. It can be easily inferred to an average expert in the technical field of

자율주행 모듈(171)은 네트워크(200)를 통해 자율주행 안내서버(400)로 액세스하여 센서모듈(130)에 포함된 전, 후, 좌, 우 4방향에 설치된 외부 카메라(131)에 의해 촬영되어 획득된 영상정보, 거리감지센서(133)에 의해 획득된 감지센서 범위 내에 있는 차량간의 거리정보를 제공하고, 자율주행 안내서버(400)로부터 반환된 차량 회피를 위한 회피주행 경로정보, 교통상황정보에 따라 최단시간 또는 최단거리에 의해 목적지로 가려는 경로를 의미하는 목적지 경로정보를 제공받고, 회피주행 경로정보 및 목적지 경로정보를 활용하여 미리 설정된 목적지로 향하도록 구동부를 구성하는 조향장치인 조향 핸들, 그리고 가속 페달 및 제동 페달에 대한 자율주행 제어 정보를 생성하여 자율주행차량(10)의 자율주행을 제어할 수 있다.The autonomous driving module 171 accesses the autonomous driving guide server 400 through the network 200 and is photographed by an external camera 131 installed in the front, rear, left, and right directions included in the sensor module 130 . It provides image information obtained by doing so, distance information between vehicles within the detection sensor range obtained by the distance detection sensor 133, and avoidance driving route information for vehicle avoidance returned from the autonomous driving guide server 400, and traffic conditions A steering wheel, which is a steering device that receives destination route information that means a route to the destination by the shortest time or shortest distance according to the information, and configures the driving unit to go to a preset destination by using the avoidance driving route information and destination route information , and autonomous driving control information for the accelerator pedal and the brake pedal may be generated to control the autonomous driving of the autonomous driving vehicle 10 .

지정 객체 입력 모듈(172)은 도 3과 같이 전면 유리창(110)을 중심으로 차량 내부에 덧대는 형태로 형성되는 투명 전면 터치스크린(120)으로 대상 객체에 대한 지정을 위한 터치 입력을 수행하거나, 자율주행차량(10)의 루프의 하부면에서 운전자석의 후단영역에 형성된 센서모듈(130)을 구성하는 내부 카메라(132)에 의해 전면 유리창(110)을 향하는 자율주행차량(10)의 차량 탑승자에 의한 손가락 포인팅 지정에 대한 인식을 수행함으로써, 터치 입력되거나 인식된 포인팅 좌표정보를 생성할 수 있다. The designated object input module 172 performs a touch input for designating a target object with the transparent front touch screen 120 formed in the form of being padded inside the vehicle around the front windshield 110 as shown in FIG. 3, or The vehicle occupant of the autonomous driving vehicle 10 faces the front windshield 110 by the internal camera 132 constituting the sensor module 130 formed in the rear end region of the driver's seat on the lower surface of the roof of the autonomous driving vehicle 10 . By performing recognition of finger pointing designation by , touch input or recognized pointing coordinate information may be generated.

지정 객체 출력 모듈(173)은 내부 디스플레이(140) 또는 투명 전면 스크린(120)에 현재 출력되는 내비게이션 목적지 경로정보에서 지정된 객체를 추출하기 위한 맵 객체 정보를 저장부(150)로부터 추출할 수 있다. 여기서 맵 객체 정보는 내비게이션 목적지 경로정보 파일에서 경로정보의 지리좌표의 메타데이터로 지정된 모든 객체를 의미할 수 있으며, 저장부(150)는 비휘발성 메모리(Non-volatile memory, NVM)로써 전원이 공급되지 않아도 저장된 데이터를 계속 유지하며 삭제되지 않으며, 플래시 메모리(Flash Memory), MRAM(Magnetic Random Access Memory), PRAM(Phase-change Random Access memory: 상변화 램), FRAM(Ferroelectric RAM: 강유전체 램) 등으로 구성될 수 있다.The designated object output module 173 may extract map object information for extracting a designated object from the navigation destination route information currently output on the internal display 140 or the transparent front screen 120 from the storage 150 . Here, the map object information may mean all objects designated as metadata of geographic coordinates of route information in the navigation destination route information file, and the storage unit 150 is powered by a non-volatile memory (NVM). Even if the data is not deleted, the stored data is continuously maintained and not deleted. can be composed of

이후, 지정 객체 출력 모듈(173)은 추출된 맵 정보 객체에서 포인팅 좌표정보에 해당하는 지정 객체에 대한 센서모듈(130)에 의해 촬영된 영상이미지에 대한 영상인식을 통해 각 맵 정보 객체의 패턴이미지와의 비교를 통해 지정 객체의 명칭을 저장부(150)로부터 추출하거나 네트워크(200)를 통해 자율주행 안내서버(400)에 대한 지정 객체의 명칭을 요청하여 반환받도록 송수신부(160)를 제어할 수 있다.Then, the designated object output module 173 is a pattern image of each map information object through image recognition for the image image taken by the sensor module 130 for the designated object corresponding to the pointing coordinate information from the extracted map information object. Control the transceiver 160 to extract the name of the designated object from the storage unit 150 through comparison with or to request and return the name of the designated object to the autonomous driving guide server 400 through the network 200 can

즉, 지정 객체 출력 모듈(173)은 촬영된 영상이미지와, 자율주행 안내서버(400)에서 제공된 각 맵 정보 객체의 패턴이미지 간의 비교를 위해 저장부(150)에 저장되거나 자율주행 안내서버(400)의 데이터베이스에 저장된 각 맵 정보 객체의 패턴 이미지를 활용할 수 있다. 지정 객체 출력 모듈(173)은 패턴 이미지로 각 맵 정보 객체의 수평면상의 패턴 이미지, 미리 설정된 각도로 기울어진 것 등과 촬영된 영상이미지 간의 비교를 통해서 매칭되는 맵 정보 객체를 지정 객체로 추출할 수 있다. That is, the designated object output module 173 is stored in the storage unit 150 or stored in the autonomous driving guide server 400 for comparison between the captured image image and the pattern image of each map information object provided by the autonomous driving guide server 400 . ), the pattern image of each map information object stored in the database can be utilized. The designated object output module 173 may extract a matching map information object as a designated object through comparison between a pattern image on a horizontal plane of each map information object as a pattern image, an image inclined at a preset angle, etc., and a photographed image image. .

지정 객체 출력 모듈(173)은 지정 객체의 명칭이 추출되면, 투명 전면 터치스크린(130)에서 지정 객체를 위한 설명 영역에 대해서 지정 객체의 명칭을 출력하기 위한 설명을 위한 화소에 대해서 전원(ON)을 통해 지정 객체의 명칭을 출력함으로써, 차량 탑승객의 시야를 최소화하면서도 지정 객체에 대한 명칭을 제공받을 수 있다.When the name of the designated object is extracted, the designated object output module 173 is powered on for the pixel for explanation for outputting the name of the designated object for the description area for the designated object on the transparent front touch screen 130 By outputting the name of the designated object through

지정 객체 채택 모듈(174)은 인식된 지정 객체에 대해서 도 3과 같이 전면 유리창(110)을 중심으로 차량 내부에 덧대는 형태로 형성되는 투명 전면 터치스크린(120)으로 목적지 지정을 위한 다시 한 번의 터치 입력을 수행하거나, 자율주행차량(10)의 루프의 하부면에서 운전자석의 후단영역에 형성된 센서모듈(130)을 구성하는 내부 카메라(132)에 의해 전면 유리창(110)을 향하는 자율주행차량(10)의 차량 탑승자에 의한 손가락 포인팅 지정에 대한 다시 한번 인식을 수행함으로써, 한번 더 터치 입력되거나 인식된 목적지로 설정된 지정 객체에 대한 명칭 정보를 포함하는 포인팅 기반 목적지 경로정보 요청을 자율주행 안내서버(400)로 전송하여, 주율주행 안내서버(400)로부터 목적지 경로정보를 수신하도록 송수신부(160)를 제어할 수 있다.Designated object adoption module 174 is a transparent front touch screen 120 formed in the form of padding inside the vehicle around the front windshield 110 as shown in FIG. 3 for the recognized designated object, once again for destination designation The autonomous driving vehicle that performs a touch input or faces the front windshield 110 by the internal camera 132 constituting the sensor module 130 formed in the rear end region of the driver's seat on the lower surface of the roof of the autonomous driving vehicle 10 By performing the recognition once again for the finger pointing designation by the vehicle occupant of (10), a pointing-based destination route information request including name information for a designated object set as a destination that is touch input or recognized once more is sent to the autonomous driving guide server By transmitting to 400 , the transceiver 160 may be controlled to receive destination route information from the perimeter guide server 400 .

보다 구체적으로, 지정 객체 채택 모듈(174)은 도 4와 같이 전면 유리창(110)을 중심으로 차량 내부에 덧대는 형태로 형성되는 투명 전면 터치스크린(120)의 상단뷰(view) 형태로 지정 객체로 향하는 목적지 경로정보를 출력하도록 제어할 수 있다. More specifically, the designated object adopting module 174 is a designated object in the form of a top view of the transparent front touch screen 120 formed in the form of padding inside the vehicle around the front windshield 110 as shown in FIG. 4 . It can be controlled to output the destination route information to the .

본 발명의 다른 실시예로, 지정 객체 채택 모듈(174)은 센서모듈(130) 중 거리감지센서(133)에 의해 획득된 감지센서 범위 내에 있는 회피를 위한 차량간의 거리정보와 GPS 센서(134)에 의해 제공된 위치 및 방위 정보를 활용할 수 있다. 보다 구체적으로, 지정 객체 채택 모듈(174)은 위치 및 방위 정보를 활용하여 지정 객체로 향하는 목적지 경로정보의 이탈 여부를 분석하되, 거리감지센서(133)에 의해 획득된 감지센서 범위 내에 있는 차량간의 거리정보에 따라 자율주행차량(10)에 의한 객체의 회피에 따른 경로의 이탈인 경우, 이탈된 위치 및 방위에 따른 경로 보정요청을 네트워크(200)를 통해 자율주행 안내서버(400)로 전송하도록 송수신부(160)를 제어한 뒤, 자율주행 안내서버(400)로부터 보정된 목적지 경로정보를 수신하여 자율주행 모듈(171)로 제공하는 방식으로 자율주행이 수행되도록 할 수 있다.In another embodiment of the present invention, the designated object adoption module 174 includes distance information between vehicles and the GPS sensor 134 for avoidance within the detection sensor range obtained by the distance detection sensor 133 among the sensor modules 130 . You can utilize the location and orientation information provided by More specifically, the designated object adoption module 174 utilizes the location and orientation information to analyze whether the destination route information toward the designated object is deviated, but between vehicles within the detection sensor range obtained by the distance detection sensor 133 In the case of deviation of the path due to the avoidance of the object by the autonomous vehicle 10 according to the distance information, a request for correction of the path according to the deviated position and orientation is transmitted to the autonomous driving guide server 400 through the network 200. After controlling the transceiver 160 , the autonomous driving may be performed by receiving the corrected destination route information from the autonomous driving guide server 400 and providing it to the autonomous driving module 171 .

본 발명의 다른 실시예로, 지정 객체 채택 모듈(174)은 지정 객체 입력 모듈(172)에 의한 전면 유리창(110)의 내부에 덧대는 형태로 형성되는 투명 전면 터치스크린(120)으로 대상 객체에 대한 지정을 위한 한 번의 터치 입력을 인식하거나, 자율주행차량(10)의 루프의 하부면에서 운전자석의 후단영역에 형성된 센서모듈(130)에 의해 전면 유리창(110)을 향하는 자율주행차량(10)의 차량 탑승자에 의한 손가락 포인팅 지정에 대한 한 번의 방향 인식을 수행하여 터치 입력되거나 인식된 포인팅 좌표정보를 생성시, 생성된 포인팅 좌표정보에 복수의 대상 객체가 저장부(150)로부터 추출되는 경우, 복수의 대상 객체에 대한 재선택을 위해 투명 전면 터치스크린(120)의 전체 또는 투명 전면 터치스크린(130)에서 복수의 대상 객체를 포함하는 전체 영역을 중심으로 미리 설정된 배수에 해당하는 만큼 확대 영상을 투명 전면 터치스크린(120)으로 출력할 수 있다. 즉, 투명 전면 터치스크린(120)은 투명 유리로 전면 유리창(120)에 대한 보강 기능을 하지만, 확대 영상을 출력시 디스플레이의 기능을 수행하는 것이다.In another embodiment of the present invention, the designated object adoption module 174 is a transparent front touch screen 120 formed in the form of a padding on the inside of the front glass window 110 by the designated object input module 172 to the target object. The self-driving vehicle 10 that recognizes a single touch input for designation or faces the front windshield 110 by the sensor module 130 formed in the rear end region of the driver's seat on the lower surface of the roof of the autonomous vehicle 10 . ), when a touch input or recognized pointing coordinate information is generated by performing one direction recognition for finger pointing designation by a vehicle occupant, a plurality of target objects are extracted from the storage unit 150 in the generated pointing coordinate information , an enlarged image corresponding to a preset multiple around the entire area of the transparent front touch screen 120 or the entire area including the plurality of target objects on the transparent front touch screen 130 for reselection of a plurality of target objects can be output to the transparent front touch screen 120 . That is, the transparent front touch screen 120 performs a function of reinforcing the front glass window 120 with transparent glass, but performs the function of a display when outputting an enlarged image.

이후, 지정 객체 채택 모듈(174)은 확대된 영상이 출력된 투명 전면 터치스크린(120)으로의 대상 객체에 대한 지정을 위한 터치 입력 인식을 수행하거나, 자율주행차량(10)의 루프의 하부면에서 운전자석의 후단영역에 형성된 센서모듈(130)에 의해 전면 유리창(110)을 향하는 자율주행차량(10)의 차량 탑승자에 의한 손가락 포인팅 지정에 대한 인식을 다시 수행함으로써, 터치 입력되거나 인식된 포인팅 좌표정보를 생성하며, 지정된 포인팅 좌표정보를 지정 객체 출력 모듈(173)로 제공함으로써, 상술한 방식에 의해 지정 객체 출력 모듈(173)에 의해 저장부(150)에서 맵 정보 객체에서 포인팅 좌표정보에 해당하는 대상 객체에 대한 센서모듈(130) 중 내부 카메라(132)에 의해 촬영된 영상이미지에 대한 영상인식을 통해 각 맵 정보 객체의 패턴이미지와의 비교를 통해 지정 객체의 명칭을 저장부(150)로부터 추출하여 투명 전면 터치스크린(120)을 활용하여 출력하도록 할 수 있다. Thereafter, the designated object adopting module 174 performs touch input recognition for designating the target object to the transparent front touch screen 120 on which the enlarged image is output, or the lower surface of the loop of the autonomous vehicle 10 . By re-recognizing the finger pointing designation by the vehicle occupant of the autonomous driving vehicle 10 facing the front windshield 110 by the sensor module 130 formed in the rear end region of the driver's seat, touch input or recognized pointing By generating coordinate information and providing the designated pointing coordinate information to the designated object output module 173, by the designated object output module 173 in the above-described manner, from the map information object to the pointing coordinate information in the storage unit 150 The name of the designated object is stored in the storage unit 150 through image recognition for the image image taken by the internal camera 132 among the sensor module 130 for the corresponding target object and compared with the pattern image of each map information object. ) can be extracted and output using the transparent front touch screen 120 .

이후, 지정 객체 채택 모듈(174)은 터치 입력되거나 인식된 재선택된 지정 객체에 대한 지정 객체의 명칭 정보와 함께 포인팅 기반 목적지 경로정보 요청을 자율주행 안내서버(400)로 전송하여, 주율주행 안내서버(400)로부터 목적지 경로정보를 수신하도록 송수신부(160)를 제어하여, 목적지 경로정보를 수신하여 투명 전면 터치스크린(120)에 출력하거나, 내부 디스플레이(140)에 출력하도록 제어할 수 있다.Thereafter, the designated object adoption module 174 transmits a pointing-based destination route information request to the autonomous driving guide server 400 along with the name information of the designated object for the reselected designated object that is touch-input or recognized, to the autonomous driving guide server By controlling the transceiver 160 to receive the destination route information from the 400 , the destination route information may be received and output to the transparent front touch screen 120 or may be controlled to be output on the internal display 140 .

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data readable by a computer system is stored.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. also includes

또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the computer-readable recording medium is distributed in a computer system connected through a network, so that the computer-readable code can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention pertains.

이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.As described above, preferred embodiments of the present invention have been disclosed in the present specification and drawings, and although specific terms are used, these are only used in a general sense to easily explain the technical contents of the present invention and to help the understanding of the present invention. , it is not intended to limit the scope of the present invention. It will be apparent to those of ordinary skill in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.

1 : 자율주행차량의 객체 선택 네비게이션 제공 시스템
10 : 자율주행차량
100 : 자율주행차량 장치
110 : 전면 유리창
120 : 투명 전면 터치스크린
130 : 센서모듈
131 : 외부 카메라
132 : 내부 카메라
133 : 거리감지센서
134 : GPS 센서
140 : 내부 디스플레이
150 : 저장부
160 : 송수신부
170 : 제어부
200 : 네트워크
300 : 객체 인식 서비스 제공 서버
400 : 자율주행 안내서버
1: Object selection navigation system for autonomous vehicles
10: autonomous vehicle
100: autonomous vehicle device
110: front windshield
120: transparent front touch screen
130: sensor module
131: external camera
132: internal camera
133: distance sensor
134: GPS sensor
140: internal display
150: storage
160: transceiver
170: control unit
200: network
300: object recognition service providing server
400: autonomous driving guide server

Claims (5)

투명 전면 터치스크린(120)에 대상 객체가 지정되기 위한 터치 입력을 수신하는 경우 터치 입력된 객체의 포인팅 좌표정보를 생성하거나, 자율주행차량(10)의 루프의 하부면에서 운전자석의 후단영역에 형성된 센서모듈(130)을 구성하는 내부 카메라(132)에 의해 전면 유리창(110)을 향하는 자율주행차량(10)의 차량 탑승자에 의한 손가락 포인팅 지정에 대한 인식을 수행하는 경우 인식된 포인팅 좌표정보를 생성하는 지정 객체 입력 모듈(172);
포인팅 좌표정보에 해당하는 지정 객체에 대한 센서모듈(130)에 의해 촬영된 영상이미지에 대한 영상인식을 통해 각 맵 정보 객체의 패턴이미지와의 비교를 통해 지정 객체의 명칭을 저장부(150)로부터 추출하거나 네트워크(200)를 통해 자율주행 안내서버(400)에 대한 지정 객체의 명칭을 요청하여 반환받도록 송수신부(160)를 제어하는 지정 객체 출력 모듈(173); 및
생성된 포인팅 좌표정보에 대한 포인팅 기반 목적지 경로정보 요청을 자율주행 안내서버(400)로 전송하여, 자율주행 안내서버(400)로부터 목적지 경로정보를 수신하도록 송수신부(160)를 제어하는 지정 객체 채택 모듈(174);
을 포함하고,
상기 지정 객체 채택 모듈(174)은 생성된 포인팅 좌표정보에 복수의 대상 객체가 저장부(150)로부터 추출되는 경우, 복수의 대상 객체에 대한 재선택을 위해 투명 전면 터치스크린(120)에 복수의 대상 객체를 출력하는 것을 특징으로 하는 자율주행차량 장치.
When a touch input for designating a target object is received on the transparent front touch screen 120 , the pointing coordinate information of the touched object is generated, or in the rear region of the driver's seat from the lower surface of the roof of the autonomous vehicle 10 . When the recognition of finger pointing designation by the vehicle occupant of the autonomous driving vehicle 10 facing the front windshield 110 by the internal camera 132 constituting the formed sensor module 130 is performed, the recognized pointing coordinate information a specified object input module 172 to generate;
Through image recognition for the image image taken by the sensor module 130 for the designated object corresponding to the pointing coordinate information, the name of the designated object is stored from the storage 150 through comparison with the pattern image of each map information object. a designated object output module 173 for controlling the transceiver 160 to extract or request and return the name of the designated object for the autonomous driving guide server 400 through the network 200; and
A designated object that controls the transceiver 160 to receive the destination route information from the autonomous driving guide server 400 by sending a pointing-based destination route information request for the generated pointing coordinate information to the autonomous driving guide server 400 Adopted module 174;
including,
When a plurality of target objects are extracted from the storage unit 150 in the generated pointing coordinate information, the designated object adoption module 174 displays a plurality of objects on the transparent front touch screen 120 for reselection of the plurality of target objects. An autonomous driving vehicle device, characterized in that it outputs a target object.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020190080901A 2019-07-04 2019-07-04 Autonomous vehicle apparatus KR102303419B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190080901A KR102303419B1 (en) 2019-07-04 2019-07-04 Autonomous vehicle apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190080901A KR102303419B1 (en) 2019-07-04 2019-07-04 Autonomous vehicle apparatus

Publications (2)

Publication Number Publication Date
KR20210005759A KR20210005759A (en) 2021-01-15
KR102303419B1 true KR102303419B1 (en) 2021-09-27

Family

ID=74127182

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190080901A KR102303419B1 (en) 2019-07-04 2019-07-04 Autonomous vehicle apparatus

Country Status (1)

Country Link
KR (1) KR102303419B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101588184B1 (en) * 2014-10-22 2016-01-25 현대자동차주식회사 Control apparatus for vechicle, vehicle, and controlling method for vehicle
JP2019020129A (en) * 2017-07-11 2019-02-07 日産自動車株式会社 Method for generating travel route of driving assisted vehicle and travel route generator

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101982774B1 (en) * 2016-11-29 2019-05-27 엘지전자 주식회사 Autonomous Vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101588184B1 (en) * 2014-10-22 2016-01-25 현대자동차주식회사 Control apparatus for vechicle, vehicle, and controlling method for vehicle
JP2019020129A (en) * 2017-07-11 2019-02-07 日産自動車株式会社 Method for generating travel route of driving assisted vehicle and travel route generator

Also Published As

Publication number Publication date
KR20210005759A (en) 2021-01-15

Similar Documents

Publication Publication Date Title
US10976413B2 (en) LIDAR system with synchronized MEMS mirrors
US10943485B2 (en) Perception assistant for autonomous driving vehicles (ADVs)
EP3342666B1 (en) Method and system for operating autonomous driving vehicles using graph-based lane change guide
US20210389768A1 (en) Trajectory Assistance for Autonomous Vehicles
US11758111B2 (en) 3D lidar system using a dichroic mirror for autonomous driving vehicles
US10551840B2 (en) Planning driven perception system for autonomous driving vehicles
EP3324332B1 (en) Method and system to predict vehicle traffic behavior for autonomous vehicles to make driving decisions
US11427211B2 (en) Methods for handling sensor failures in autonomous driving vehicles
US10262234B2 (en) Automatically collecting training data for object recognition with 3D lidar and localization
US10712746B2 (en) Method and system to construct surrounding environment for autonomous vehicles to make driving decisions
US10049328B2 (en) Group driving style learning framework for autonomous vehicles
US10296001B2 (en) Radar multipath processing
US11113971B2 (en) V2X communication-based vehicle lane system for autonomous vehicles
US10890914B2 (en) Trigger logic to trigger sensors of an autonomous driving vehicle for capturing data
US10860868B2 (en) Lane post-processing in an autonomous driving vehicle
WO2018087801A1 (en) Vehicle control system, vehicle control method, and vehicle control program
JPWO2018131290A1 (en) Vehicle control system, vehicle control method, and vehicle control program
US11221405B2 (en) Extended perception based on radar communication of autonomous driving vehicles
US11267471B2 (en) Spiral path based three-point turn planning for autonomous driving vehicles
US11372090B2 (en) Light detection and range (LIDAR) device with SPAD and APD sensors for autonomous driving vehicles
KR102303419B1 (en) Autonomous vehicle apparatus
KR20210005417A (en) Accident information providing system of autonomous vehicle, and autonomous vehicle apparatus thereof
US11360483B2 (en) Method and system for generating reference lines for autonomous driving vehicles
KR20210005758A (en) Object recognition system for autonomous vehicle, autonomous vehicle apparatus thereof
US20240101152A1 (en) Mobile object control device, mobile object control method, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant