KR102303419B1 - Autonomous vehicle apparatus - Google Patents
Autonomous vehicle apparatus Download PDFInfo
- Publication number
- KR102303419B1 KR102303419B1 KR1020190080901A KR20190080901A KR102303419B1 KR 102303419 B1 KR102303419 B1 KR 102303419B1 KR 1020190080901 A KR1020190080901 A KR 1020190080901A KR 20190080901 A KR20190080901 A KR 20190080901A KR 102303419 B1 KR102303419 B1 KR 102303419B1
- Authority
- KR
- South Korea
- Prior art keywords
- autonomous driving
- vehicle
- destination
- information
- module
- Prior art date
Links
- 238000000034 method Methods 0.000 abstract description 7
- 230000000694 effects Effects 0.000 abstract description 4
- 238000001514 detection method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/10—Accelerator pedal position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/12—Brake pedal position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/60—Traffic rules, e.g. speed limits or right of way
- B60W2555/80—Country specific, e.g. driver age limits or right hand drive
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Navigation (AREA)
Abstract
본 발명은 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치에 관한 것이다. 본 발명은, 네트워크(200)를 통해 자율주행 안내서버(400)로 액세스하여 자율주행 안내서버(400)로부터 반환된 차량 회피를 위한 회피주행 경로정보, 교통상황정보에 따라 최단시간 또는 최단거리에 의해 목적지로 가려는 경로를 의미하는 목적지 경로정보를 제공받고, 회피주행 경로정보 및 목적지 경로정보를 활용하여 미리 설정된 목적지로 향하도록 구동부를 구성하는 조향장치인 조향 핸들, 그리고 가속 페달 및 제동 페달에 대한 자율주행 제어 정보를 생성하여 자율주행차량(10)의 자율주행을 제어하는 자율주행 모듈(171); 및 전면 유리창(110)으로 펼쳐진 풍경에서 하나에 대한 객체에 대한 미리 설정된 포인팅 방식의 지정을 통해 포인팅 좌표정보가 생성되면, 생성된 포인팅 좌표정보에 대한 포인팅 기반 목적지 경로정보 요청을 자율주행 안내서버(400)로 전송하여, 주율주행 안내서버(400)로부터 목적지 경로정보를 수신하도록 송수신부(160)를 제어하는 지정 객체 채택 모듈(174); 을 포함하는 것을 특징으로 한다.
이에 의해, 자율주행차량을 공유하는 차량 탑승자가 일반적인 네비게이션 시스템에서는 텍스트나 음성으로 목적지를 입력하는 것이 아닌 보이는 객체를 선택하여 목적지를 입력할 수 있는 효과를 제공한다. The present invention relates to a system for providing object selection navigation for an autonomous driving vehicle, and an autonomous driving vehicle apparatus therefor. The present invention accesses the autonomous driving guide server 400 through the network 200 and provides a shortest time or shortest distance according to the avoidance driving route information for vehicle avoidance returned from the autonomous driving guide server 400 and traffic situation information. A steering wheel, which is a steering device that configures the driving unit to go to a preset destination by receiving destination route information indicating a route to the destination by an autonomous driving module 171 for generating autonomous driving control information to control autonomous driving of the autonomous driving vehicle 10; And when pointing coordinate information is generated through designation of a preset pointing method for one object in the landscape unfolded by the front windshield 110, a pointing-based destination route information request for the generated pointing coordinate information is sent to the autonomous driving guide server ( 400), a designated object adopting module 174 for controlling the transceiver 160 to receive the destination route information from the circumnavigation guide server 400; It is characterized in that it includes.
Accordingly, the vehicle occupant sharing the autonomous driving vehicle provides an effect of being able to input a destination by selecting a visible object rather than inputting the destination through text or voice in a general navigation system.
Description
본 발명은 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치에 관한 것으로, 보다 구체적으로는, 자율주행차량을 공유하는 차량 탑승자가 일반적인 네비게이션 시스템에서는 텍스트나 음성으로 목적지를 입력하는 것이 아닌 보이는 객체를 선택하여 목적지를 입력하도록 하기 위한 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치에 관한 것이다. The present invention relates to a system for providing object selection navigation for an autonomous driving vehicle, and an autonomous driving vehicle apparatus for the same. It relates to a system for providing object selection navigation of an autonomous driving vehicle for selecting a visible object and inputting a destination by selecting a visible object, and an autonomous driving vehicle apparatus therefor.
자율주행차량은 각종 주행 수단에 내장되어 주행 위치 탐색을 통해 자율 주행을 수행하는 자율주행장치에 해당하는 차량 단말이 포함되어 있으며, 이러한 자율주행장치는 주로 선박, 항공기 등에 적용되다가, 최근 들어 도로를 주행하는 차량에도 적용되어 예를 들면, 주행 경로, 도로 혼잡도 등과 같은 다양한 정보를 모니터를 통해 사용자에게 알려주거나, 스스로 차량을 운전하거나 주행 상태를 제어한다.Autonomous driving vehicles are embedded in various driving means and include vehicle terminals corresponding to autonomous driving devices that perform autonomous driving through driving location search. It is also applied to a driving vehicle, for example, notifies a user of various information such as a driving route and road congestion through a monitor, or drives a vehicle by itself or controls a driving state.
이러한 자율주행차량은 고속으로 움직이는 이동체의 경우, 주행 환경(예를 들면, 전방 차량 인식, 장애물 검출 등)을 실시간으로 인식하여 운전자에게 알려주거나, 주행 환경을 실시간으로 판단하여 스스로 그에 대응하는 각각의 응급 기능을 수행해야 하며, 이를 위해서 많은 데이터량을 실시간으로 처리할 수 있다.In the case of a moving object moving at high speed, the autonomous vehicle recognizes the driving environment (eg, front vehicle recognition, obstacle detection, etc.) in real time and informs the driver, or determines the driving environment in real time and responds to the driving environment in real time. It needs to perform an emergency function, and for this purpose, a large amount of data can be processed in real time.
한편, 기존의 자율주행차량에서는 자율주행차량을 공유하는 차량 탑승자가 네비게이션 시스템상에서 텍스트나 음성으로 목적지를 입력하는데, 이러한 방식은 종래의 입력 방식은 자율주행차량의 차량 탑승자에게 불편을 초래할 뿐만 아니라, 입력 과정이 불푠하여 완전 자율주행의 개념에도 맞지 않은 한계점이 있다.On the other hand, in an existing autonomous vehicle, a vehicle occupant sharing an autonomous vehicle inputs a destination by text or voice on the navigation system. There is a limit that does not fit the concept of fully autonomous driving because the input process is not good.
본 발명은 상기의 문제점을 해결하기 위한 것으로, 자율주행차량을 공유하는 차량 탑승자가 일반적인 네비게이션 시스템에서는 텍스트나 음성으로 목적지를 입력하는 것이 아닌 보이는 객체를 선택하여 목적지를 입력하도록 하기 위한 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치를 제공하기 위한 것이다.The present invention is intended to solve the above problems, and is an autonomous vehicle for allowing a vehicle occupant sharing an autonomous vehicle to input a destination by selecting a visible object rather than inputting the destination by text or voice in a general navigation system. It is to provide an object selection navigation providing system, and an autonomous vehicle device for the same.
또한, 본 발명은 자율주행차량을 공유하는 차량 탑승자가 목적지 근처에 도달하였으나, 교차로 등의 복잡한 도로 상황에서 정확하게 가는 경로를 모를 수 있는 경우 차량의 유리창에서 목적지에 대한 설정을 통해 신속한 목적지 경로정보를 제공받을 수 있도록 하기 위한 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치를 제공하기 위한 것이다.In addition, in the present invention, when a vehicle occupant sharing an autonomous vehicle arrives near a destination, but may not know the exact route in a complex road situation such as an intersection, it is possible to quickly provide destination route information through setting of the destination in the vehicle window. It is to provide a system for providing object selection navigation of an autonomous driving vehicle so as to be provided, and an autonomous driving vehicle apparatus therefor.
또한, 본 발명은 한번 지정된 포인팅 좌표가 복수의 객체를 지정 가능한 경우, 확대된 영상이미지를 제공하고 제공된 영상이미지를 기반으로 목적지에 대해서 다시 설정이 가능하도록 하기 위한 자율주행차량의 객체 인식 시스템, 그리고 자율주행차량 장치를 제공하기 위한 것이다.In addition, the present invention provides an object recognition system of an autonomous driving vehicle for providing an enlarged image image when the pointing coordinates once designated can designate a plurality of objects and enabling setting again for a destination based on the provided image image, and It is intended to provide an autonomous vehicle device.
그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.
ㅍblood
상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 자율주행차량 장치는, 네트워크(200)를 통해 자율주행 안내서버(400)로 액세스하여 자율주행 안내서버(400)로부터 반환된 차량 회피를 위한 회피주행 경로정보, 교통상황정보에 따라 최단시간 또는 최단거리에 의해 목적지로 가려는 경로를 의미하는 목적지 경로정보를 제공받고, 회피주행 경로정보 및 목적지 경로정보를 활용하여 미리 설정된 목적지로 향하도록 구동부를 구성하는 조향장치인 조향 핸들, 그리고 가속 페달 및 제동 페달에 대한 자율주행 제어 정보를 생성하여 자율주행차량(10)의 자율주행을 제어하는 자율주행 모듈(171); 및 전면 유리창(110)으로 펼쳐진 풍경에서 하나에 대한 객체에 대한 미리 설정된 포인팅 방식의 지정을 통해 포인팅 좌표정보가 생성되면, 생성된 포인팅 좌표정보에 대한 포인팅 기반 목적지 경로정보 요청을 자율주행 안내서버(400)로 전송하여, 주율주행 안내서버(400)로부터 목적지 경로정보를 수신하도록 송수신부(160)를 제어하는 지정 객체 채택 모듈(174); 을 포함하는 것을 특징으로 한다.In order to achieve the above object, the autonomous driving vehicle apparatus according to an embodiment of the present invention accesses the autonomous
이때, 본 발명은, 전면 유리창(110)을 중심으로 차량 내부에 덧대는 형태로 형성되는 투명 전면 터치스크린(120); 을 더 포함하는 것을 특징으로 한다.At this time, the present invention, a transparent
또한, 본 발명은, 투명 전면 터치스크린(120)으로 대상 객체에 대한 지정을 위한 터치 입력을 수신하는 경우 터치 입력된 포인팅 좌표정보를 생성하는 지정 객체 입력 모듈(172); 을 더 포함하는 것을 특징으로 한다.In addition, the present invention provides a designation
또한, 본 발명은, 지정 객체 입력 모듈(172)은, 자율주행차량(10)의 루프의 하부면에서 운전자석의 후단영역에 형성된 센서모듈(130)을 구성하는 내부 카메라(132)에 의해 전면 유리창(110)을 향하는 자율주행차량(10)의 차량 탑승자에 의한 손가락 포인팅 지정에 대한 인식을 수행하는 경우 인식된 포인팅 좌표정보를 생성하는 것을 특징으로 한다.In addition, in the present invention, the designated
또한, 본 발명은, 내부 디스플레이(140) 또는 투명 전면 스크린(120)에 현재 출력되는 내비게이션 목적지 경로정보에서 지정된 객체를 추출하기 위한 맵 객체 정보를 저장부(150)로부터 추출하는 지정 객체 출력 모듈(173); 을 더 포함하는 것을 특징으로 한다. In addition, the present invention provides a designated object output module ( 173); It is characterized in that it further comprises.
본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치는, 자율주행차량을 공유하는 차량 탑승자가 일반적인 네비게이션 시스템에서는 텍스트나 음성으로 목적지를 입력하는 것이 아닌 보이는 객체를 선택하여 목적지를 입력할 수 있는 효과를 제공한다. The system for providing object selection navigation of an autonomous driving vehicle, and an autonomous driving vehicle apparatus therefor, according to an embodiment of the present invention, provide a view that a vehicle occupant sharing an autonomous driving vehicle does not input a destination by text or voice in a general navigation system. It provides the effect of entering a destination by selecting an object.
또한, 본 발명의 다른 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치는, 자율주행차량을 공유하는 차량 탑승자가 목적지 근처에 도달하였으나, 교차로 등의 복잡한 도로 상황에서 정확하게 가는 경로를 모를 수 있는 경우 차량의 유리창에서 목적지에 대한 설정을 통해 신속한 목적지 경로정보를 제공받을 수 있는 효과를 제공한다. In addition, in the system for providing object selection navigation of an autonomous driving vehicle, and an autonomous driving vehicle apparatus therefor, according to another embodiment of the present invention, a vehicle occupant sharing an autonomous driving vehicle arrives near a destination, but complex road conditions such as an intersection It provides the effect of being able to receive prompt destination route information by setting the destination on the vehicle's windshield when the exact route cannot be known.
뿐만 아니라, 본 발명의 다른 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치는, 한번 지정된 포인팅 좌표가 복수의 객체를 지정 가능한 경우, 확대된 영상이미지를 제공하고 제공된 영상이미지를 기반으로 목적지에 대해서 다시 설정이 가능한 효과를 제공한다.In addition, the system for providing object selection navigation of an autonomous driving vehicle, and an autonomous driving vehicle apparatus therefor, according to another embodiment of the present invention, provide an enlarged image image when pointing coordinates designated once can designate a plurality of objects, Based on the provided video image, it provides an effect that can be set again for the destination.
도 1은 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1)을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1) 중 자율주행차량 장치(100)의 구성요소를 나타내는 블록도이다.
도 3 및 도 4는 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1)에 의한 지정된 대상 객체로의 경로 안내 과정을 설명하기 위한 도면이다. 1 is a diagram illustrating a
FIG. 2 is a block diagram illustrating components of an autonomous
3 and 4 are diagrams for explaining a process of guiding a route to a designated target object by the
이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, detailed description of preferred embodiments of the present invention will be described with reference to the accompanying drawings. In the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.
본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다. In the present specification, when one component 'transmits' data or signal to another component, the component may directly transmit the data or signal to another component, and through at least one other component This means that data or signals can be transmitted to other components.
도 1은 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1)을 나타내는 도면이다. 도 1을 참조하면, 자율주행차량의 객체 선택 네비게이션 제공 시스템(1)은 자율주행차량(10)에 설치된 자율주행차량 장치(100), 네트워크(200), 객체 인식 서비스 제공 서버(300), 자율주행 안내서버(400)를 포함함으로써, 자율주행차량(10)에서 차창으로 보이는 대상 객체(건물, 경관, 표지물 등)을 보면서 전면 유리창을 터치하면 그 대상 객체의 정보를 출력할 뿐만 아니라, 대상 객체에 대한 목적지 입력을 통해 경로 정보를 제공할 수 있다. 1 is a diagram illustrating a
여기서, 네트워크(200)는 대용량, 장거리 음성 및 데이터 서비스가 가능한 대형 통신망의 고속 기간 망인 통신망이며, 인터넷(Internet) 또는 고속의 멀티미디어 서비스를 제공하기 위한 차세대 유선 및 무선 망일 수 있다. 네트워크(200)가 이동통신망일 경우 동기식 이동 통신망일 수도 있고, 비동기식 이동 통신망일 수도 있다. 비동기식 이동 통신망의 일 실시 예로서, WCDMA(Wideband Code Division Multiple Access) 방식의 통신망을 들 수 있다. 이 경우 도면에 도시되진 않았지만, 네트워크(200)는 RNC(Radio Network Controller)을 포함할 수 있다. 한편, WCDMA망을 일 예로 들었지만, 3G LTE망, 4G망 등 차세대 통신망, 그 밖의 IP를 기반으로 한 IP망일 수 있다. 네트워크(200)는 자율주행차량 장치(100), 네트워크(200), 객체 인식 서비스 제공 서버(300), 자율주행 안내서버(400), 그 밖의 시스템 상호 간의 신호 및 데이터를 상호 전달하는 역할을 한다. Here, the
도 2는 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1) 중 자율주행차량 장치(100)의 구성요소를 나타내는 블록도이다. 도 3 및 도 4는 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1)에 의한 지정된 대상 객체로의 경로 안내 과정을 설명하기 위한 도면이다. 도 2를 참조하면, 자율주행차량 장치(100)는 전면 유리창(110), 투명 전면 터치스크린(120), 센서모듈(130), 내부 디스플레이(140), 저장부(150), 송수신부(160) 및 제어부(170)를 포함할 수 있다. 센서모듈(130)은 외부 카메라(131), 내부 카메라(132), 거리감지센서(133), GPS 센서(134)를 포함할 수 있으며, 거리감지센서(133)는 라이다(Light Detection And Ranging, LiDAR), 레이더, 초음파 센서 중 적어도 하나 이상의 복합센서로 형성됨으로써, 충분한 중첩을 통해 중복을 증가시켜 안전을 개선하도록 형성될 수 있다. 라이다는 종종 LADAR(Laser Detection And Ranging)나 ToF(Time of Flight), 레이저 스캐너, 레이저 레이더 등으로 불리기도 하는 이것은 물체를 감지해 거리를 맵핑하는 센싱 방식에 해당하며, 광학 펄스로 목표물을 비춘 후 반사된 반송 신호의 특징을 측정하고, 광학-펄스의 폭은 몇 나노초부터 몇 마이크로초까지 변동할 수 있다. 2 is a block diagram illustrating components of an autonomous
제어부(170)는 자율주행 모듈(171), 지정 객체 입력 모듈(172), 지정 객체 출력 모듈(173), 지정 객체 채택 모듈(174) 및 지정 객체 경로 제공 모듈(175)을 포함할 수 있다. The controller 170 may include an autonomous driving module 171 , a designated
그리고 본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.And, in the present specification, a module may mean a functional and structural combination of hardware for carrying out the technical idea of the present invention and software for driving the hardware. For example, the module may mean a logical unit of a predetermined code and a hardware resource for executing the predetermined code, and does not necessarily mean physically connected code or a single type of hardware. It can be easily inferred to an average expert in the technical field of
자율주행 모듈(171)은 네트워크(200)를 통해 자율주행 안내서버(400)로 액세스하여 센서모듈(130)에 포함된 전, 후, 좌, 우 4방향에 설치된 외부 카메라(131)에 의해 촬영되어 획득된 영상정보, 거리감지센서(133)에 의해 획득된 감지센서 범위 내에 있는 차량간의 거리정보를 제공하고, 자율주행 안내서버(400)로부터 반환된 차량 회피를 위한 회피주행 경로정보, 교통상황정보에 따라 최단시간 또는 최단거리에 의해 목적지로 가려는 경로를 의미하는 목적지 경로정보를 제공받고, 회피주행 경로정보 및 목적지 경로정보를 활용하여 미리 설정된 목적지로 향하도록 구동부를 구성하는 조향장치인 조향 핸들, 그리고 가속 페달 및 제동 페달에 대한 자율주행 제어 정보를 생성하여 자율주행차량(10)의 자율주행을 제어할 수 있다.The autonomous driving module 171 accesses the autonomous
지정 객체 입력 모듈(172)은 도 3과 같이 전면 유리창(110)을 중심으로 차량 내부에 덧대는 형태로 형성되는 투명 전면 터치스크린(120)으로 대상 객체에 대한 지정을 위한 터치 입력을 수행하거나, 자율주행차량(10)의 루프의 하부면에서 운전자석의 후단영역에 형성된 센서모듈(130)을 구성하는 내부 카메라(132)에 의해 전면 유리창(110)을 향하는 자율주행차량(10)의 차량 탑승자에 의한 손가락 포인팅 지정에 대한 인식을 수행함으로써, 터치 입력되거나 인식된 포인팅 좌표정보를 생성할 수 있다. The designated
지정 객체 출력 모듈(173)은 내부 디스플레이(140) 또는 투명 전면 스크린(120)에 현재 출력되는 내비게이션 목적지 경로정보에서 지정된 객체를 추출하기 위한 맵 객체 정보를 저장부(150)로부터 추출할 수 있다. 여기서 맵 객체 정보는 내비게이션 목적지 경로정보 파일에서 경로정보의 지리좌표의 메타데이터로 지정된 모든 객체를 의미할 수 있으며, 저장부(150)는 비휘발성 메모리(Non-volatile memory, NVM)로써 전원이 공급되지 않아도 저장된 데이터를 계속 유지하며 삭제되지 않으며, 플래시 메모리(Flash Memory), MRAM(Magnetic Random Access Memory), PRAM(Phase-change Random Access memory: 상변화 램), FRAM(Ferroelectric RAM: 강유전체 램) 등으로 구성될 수 있다.The designated object output module 173 may extract map object information for extracting a designated object from the navigation destination route information currently output on the internal display 140 or the
이후, 지정 객체 출력 모듈(173)은 추출된 맵 정보 객체에서 포인팅 좌표정보에 해당하는 지정 객체에 대한 센서모듈(130)에 의해 촬영된 영상이미지에 대한 영상인식을 통해 각 맵 정보 객체의 패턴이미지와의 비교를 통해 지정 객체의 명칭을 저장부(150)로부터 추출하거나 네트워크(200)를 통해 자율주행 안내서버(400)에 대한 지정 객체의 명칭을 요청하여 반환받도록 송수신부(160)를 제어할 수 있다.Then, the designated object output module 173 is a pattern image of each map information object through image recognition for the image image taken by the
즉, 지정 객체 출력 모듈(173)은 촬영된 영상이미지와, 자율주행 안내서버(400)에서 제공된 각 맵 정보 객체의 패턴이미지 간의 비교를 위해 저장부(150)에 저장되거나 자율주행 안내서버(400)의 데이터베이스에 저장된 각 맵 정보 객체의 패턴 이미지를 활용할 수 있다. 지정 객체 출력 모듈(173)은 패턴 이미지로 각 맵 정보 객체의 수평면상의 패턴 이미지, 미리 설정된 각도로 기울어진 것 등과 촬영된 영상이미지 간의 비교를 통해서 매칭되는 맵 정보 객체를 지정 객체로 추출할 수 있다. That is, the designated object output module 173 is stored in the storage unit 150 or stored in the autonomous
지정 객체 출력 모듈(173)은 지정 객체의 명칭이 추출되면, 투명 전면 터치스크린(130)에서 지정 객체를 위한 설명 영역에 대해서 지정 객체의 명칭을 출력하기 위한 설명을 위한 화소에 대해서 전원(ON)을 통해 지정 객체의 명칭을 출력함으로써, 차량 탑승객의 시야를 최소화하면서도 지정 객체에 대한 명칭을 제공받을 수 있다.When the name of the designated object is extracted, the designated object output module 173 is powered on for the pixel for explanation for outputting the name of the designated object for the description area for the designated object on the transparent
지정 객체 채택 모듈(174)은 인식된 지정 객체에 대해서 도 3과 같이 전면 유리창(110)을 중심으로 차량 내부에 덧대는 형태로 형성되는 투명 전면 터치스크린(120)으로 목적지 지정을 위한 다시 한 번의 터치 입력을 수행하거나, 자율주행차량(10)의 루프의 하부면에서 운전자석의 후단영역에 형성된 센서모듈(130)을 구성하는 내부 카메라(132)에 의해 전면 유리창(110)을 향하는 자율주행차량(10)의 차량 탑승자에 의한 손가락 포인팅 지정에 대한 다시 한번 인식을 수행함으로써, 한번 더 터치 입력되거나 인식된 목적지로 설정된 지정 객체에 대한 명칭 정보를 포함하는 포인팅 기반 목적지 경로정보 요청을 자율주행 안내서버(400)로 전송하여, 주율주행 안내서버(400)로부터 목적지 경로정보를 수신하도록 송수신부(160)를 제어할 수 있다.Designated object adoption module 174 is a transparent
보다 구체적으로, 지정 객체 채택 모듈(174)은 도 4와 같이 전면 유리창(110)을 중심으로 차량 내부에 덧대는 형태로 형성되는 투명 전면 터치스크린(120)의 상단뷰(view) 형태로 지정 객체로 향하는 목적지 경로정보를 출력하도록 제어할 수 있다. More specifically, the designated object adopting module 174 is a designated object in the form of a top view of the transparent
본 발명의 다른 실시예로, 지정 객체 채택 모듈(174)은 센서모듈(130) 중 거리감지센서(133)에 의해 획득된 감지센서 범위 내에 있는 회피를 위한 차량간의 거리정보와 GPS 센서(134)에 의해 제공된 위치 및 방위 정보를 활용할 수 있다. 보다 구체적으로, 지정 객체 채택 모듈(174)은 위치 및 방위 정보를 활용하여 지정 객체로 향하는 목적지 경로정보의 이탈 여부를 분석하되, 거리감지센서(133)에 의해 획득된 감지센서 범위 내에 있는 차량간의 거리정보에 따라 자율주행차량(10)에 의한 객체의 회피에 따른 경로의 이탈인 경우, 이탈된 위치 및 방위에 따른 경로 보정요청을 네트워크(200)를 통해 자율주행 안내서버(400)로 전송하도록 송수신부(160)를 제어한 뒤, 자율주행 안내서버(400)로부터 보정된 목적지 경로정보를 수신하여 자율주행 모듈(171)로 제공하는 방식으로 자율주행이 수행되도록 할 수 있다.In another embodiment of the present invention, the designated object adoption module 174 includes distance information between vehicles and the
본 발명의 다른 실시예로, 지정 객체 채택 모듈(174)은 지정 객체 입력 모듈(172)에 의한 전면 유리창(110)의 내부에 덧대는 형태로 형성되는 투명 전면 터치스크린(120)으로 대상 객체에 대한 지정을 위한 한 번의 터치 입력을 인식하거나, 자율주행차량(10)의 루프의 하부면에서 운전자석의 후단영역에 형성된 센서모듈(130)에 의해 전면 유리창(110)을 향하는 자율주행차량(10)의 차량 탑승자에 의한 손가락 포인팅 지정에 대한 한 번의 방향 인식을 수행하여 터치 입력되거나 인식된 포인팅 좌표정보를 생성시, 생성된 포인팅 좌표정보에 복수의 대상 객체가 저장부(150)로부터 추출되는 경우, 복수의 대상 객체에 대한 재선택을 위해 투명 전면 터치스크린(120)의 전체 또는 투명 전면 터치스크린(130)에서 복수의 대상 객체를 포함하는 전체 영역을 중심으로 미리 설정된 배수에 해당하는 만큼 확대 영상을 투명 전면 터치스크린(120)으로 출력할 수 있다. 즉, 투명 전면 터치스크린(120)은 투명 유리로 전면 유리창(120)에 대한 보강 기능을 하지만, 확대 영상을 출력시 디스플레이의 기능을 수행하는 것이다.In another embodiment of the present invention, the designated object adoption module 174 is a transparent
이후, 지정 객체 채택 모듈(174)은 확대된 영상이 출력된 투명 전면 터치스크린(120)으로의 대상 객체에 대한 지정을 위한 터치 입력 인식을 수행하거나, 자율주행차량(10)의 루프의 하부면에서 운전자석의 후단영역에 형성된 센서모듈(130)에 의해 전면 유리창(110)을 향하는 자율주행차량(10)의 차량 탑승자에 의한 손가락 포인팅 지정에 대한 인식을 다시 수행함으로써, 터치 입력되거나 인식된 포인팅 좌표정보를 생성하며, 지정된 포인팅 좌표정보를 지정 객체 출력 모듈(173)로 제공함으로써, 상술한 방식에 의해 지정 객체 출력 모듈(173)에 의해 저장부(150)에서 맵 정보 객체에서 포인팅 좌표정보에 해당하는 대상 객체에 대한 센서모듈(130) 중 내부 카메라(132)에 의해 촬영된 영상이미지에 대한 영상인식을 통해 각 맵 정보 객체의 패턴이미지와의 비교를 통해 지정 객체의 명칭을 저장부(150)로부터 추출하여 투명 전면 터치스크린(120)을 활용하여 출력하도록 할 수 있다. Thereafter, the designated object adopting module 174 performs touch input recognition for designating the target object to the transparent
이후, 지정 객체 채택 모듈(174)은 터치 입력되거나 인식된 재선택된 지정 객체에 대한 지정 객체의 명칭 정보와 함께 포인팅 기반 목적지 경로정보 요청을 자율주행 안내서버(400)로 전송하여, 주율주행 안내서버(400)로부터 목적지 경로정보를 수신하도록 송수신부(160)를 제어하여, 목적지 경로정보를 수신하여 투명 전면 터치스크린(120)에 출력하거나, 내부 디스플레이(140)에 출력하도록 제어할 수 있다.Thereafter, the designated object adoption module 174 transmits a pointing-based destination route information request to the autonomous
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data readable by a computer system is stored.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. also includes
또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the computer-readable recording medium is distributed in a computer system connected through a network, so that the computer-readable code can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention pertains.
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.As described above, preferred embodiments of the present invention have been disclosed in the present specification and drawings, and although specific terms are used, these are only used in a general sense to easily explain the technical contents of the present invention and to help the understanding of the present invention. , it is not intended to limit the scope of the present invention. It will be apparent to those of ordinary skill in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.
1 : 자율주행차량의 객체 선택 네비게이션 제공 시스템
10 : 자율주행차량
100 : 자율주행차량 장치
110 : 전면 유리창
120 : 투명 전면 터치스크린
130 : 센서모듈
131 : 외부 카메라
132 : 내부 카메라
133 : 거리감지센서
134 : GPS 센서
140 : 내부 디스플레이
150 : 저장부
160 : 송수신부
170 : 제어부
200 : 네트워크
300 : 객체 인식 서비스 제공 서버
400 : 자율주행 안내서버1: Object selection navigation system for autonomous vehicles
10: autonomous vehicle
100: autonomous vehicle device
110: front windshield
120: transparent front touch screen
130: sensor module
131: external camera
132: internal camera
133: distance sensor
134: GPS sensor
140: internal display
150: storage
160: transceiver
170: control unit
200: network
300: object recognition service providing server
400: autonomous driving guide server
Claims (5)
포인팅 좌표정보에 해당하는 지정 객체에 대한 센서모듈(130)에 의해 촬영된 영상이미지에 대한 영상인식을 통해 각 맵 정보 객체의 패턴이미지와의 비교를 통해 지정 객체의 명칭을 저장부(150)로부터 추출하거나 네트워크(200)를 통해 자율주행 안내서버(400)에 대한 지정 객체의 명칭을 요청하여 반환받도록 송수신부(160)를 제어하는 지정 객체 출력 모듈(173); 및
생성된 포인팅 좌표정보에 대한 포인팅 기반 목적지 경로정보 요청을 자율주행 안내서버(400)로 전송하여, 자율주행 안내서버(400)로부터 목적지 경로정보를 수신하도록 송수신부(160)를 제어하는 지정 객체 채택 모듈(174);
을 포함하고,
상기 지정 객체 채택 모듈(174)은 생성된 포인팅 좌표정보에 복수의 대상 객체가 저장부(150)로부터 추출되는 경우, 복수의 대상 객체에 대한 재선택을 위해 투명 전면 터치스크린(120)에 복수의 대상 객체를 출력하는 것을 특징으로 하는 자율주행차량 장치.When a touch input for designating a target object is received on the transparent front touch screen 120 , the pointing coordinate information of the touched object is generated, or in the rear region of the driver's seat from the lower surface of the roof of the autonomous vehicle 10 . When the recognition of finger pointing designation by the vehicle occupant of the autonomous driving vehicle 10 facing the front windshield 110 by the internal camera 132 constituting the formed sensor module 130 is performed, the recognized pointing coordinate information a specified object input module 172 to generate;
Through image recognition for the image image taken by the sensor module 130 for the designated object corresponding to the pointing coordinate information, the name of the designated object is stored from the storage 150 through comparison with the pattern image of each map information object. a designated object output module 173 for controlling the transceiver 160 to extract or request and return the name of the designated object for the autonomous driving guide server 400 through the network 200; and
A designated object that controls the transceiver 160 to receive the destination route information from the autonomous driving guide server 400 by sending a pointing-based destination route information request for the generated pointing coordinate information to the autonomous driving guide server 400 Adopted module 174;
including,
When a plurality of target objects are extracted from the storage unit 150 in the generated pointing coordinate information, the designated object adoption module 174 displays a plurality of objects on the transparent front touch screen 120 for reselection of the plurality of target objects. An autonomous driving vehicle device, characterized in that it outputs a target object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190080901A KR102303419B1 (en) | 2019-07-04 | 2019-07-04 | Autonomous vehicle apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190080901A KR102303419B1 (en) | 2019-07-04 | 2019-07-04 | Autonomous vehicle apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210005759A KR20210005759A (en) | 2021-01-15 |
KR102303419B1 true KR102303419B1 (en) | 2021-09-27 |
Family
ID=74127182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190080901A KR102303419B1 (en) | 2019-07-04 | 2019-07-04 | Autonomous vehicle apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102303419B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101588184B1 (en) * | 2014-10-22 | 2016-01-25 | 현대자동차주식회사 | Control apparatus for vechicle, vehicle, and controlling method for vehicle |
JP2019020129A (en) * | 2017-07-11 | 2019-02-07 | 日産自動車株式会社 | Method for generating travel route of driving assisted vehicle and travel route generator |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101982774B1 (en) * | 2016-11-29 | 2019-05-27 | 엘지전자 주식회사 | Autonomous Vehicle |
-
2019
- 2019-07-04 KR KR1020190080901A patent/KR102303419B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101588184B1 (en) * | 2014-10-22 | 2016-01-25 | 현대자동차주식회사 | Control apparatus for vechicle, vehicle, and controlling method for vehicle |
JP2019020129A (en) * | 2017-07-11 | 2019-02-07 | 日産自動車株式会社 | Method for generating travel route of driving assisted vehicle and travel route generator |
Also Published As
Publication number | Publication date |
---|---|
KR20210005759A (en) | 2021-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10976413B2 (en) | LIDAR system with synchronized MEMS mirrors | |
US10943485B2 (en) | Perception assistant for autonomous driving vehicles (ADVs) | |
EP3342666B1 (en) | Method and system for operating autonomous driving vehicles using graph-based lane change guide | |
US20210389768A1 (en) | Trajectory Assistance for Autonomous Vehicles | |
US11758111B2 (en) | 3D lidar system using a dichroic mirror for autonomous driving vehicles | |
US10551840B2 (en) | Planning driven perception system for autonomous driving vehicles | |
EP3324332B1 (en) | Method and system to predict vehicle traffic behavior for autonomous vehicles to make driving decisions | |
US11427211B2 (en) | Methods for handling sensor failures in autonomous driving vehicles | |
US10262234B2 (en) | Automatically collecting training data for object recognition with 3D lidar and localization | |
US10712746B2 (en) | Method and system to construct surrounding environment for autonomous vehicles to make driving decisions | |
US10049328B2 (en) | Group driving style learning framework for autonomous vehicles | |
US10296001B2 (en) | Radar multipath processing | |
US11113971B2 (en) | V2X communication-based vehicle lane system for autonomous vehicles | |
US10890914B2 (en) | Trigger logic to trigger sensors of an autonomous driving vehicle for capturing data | |
US10860868B2 (en) | Lane post-processing in an autonomous driving vehicle | |
WO2018087801A1 (en) | Vehicle control system, vehicle control method, and vehicle control program | |
JPWO2018131290A1 (en) | Vehicle control system, vehicle control method, and vehicle control program | |
US11221405B2 (en) | Extended perception based on radar communication of autonomous driving vehicles | |
US11267471B2 (en) | Spiral path based three-point turn planning for autonomous driving vehicles | |
US11372090B2 (en) | Light detection and range (LIDAR) device with SPAD and APD sensors for autonomous driving vehicles | |
KR102303419B1 (en) | Autonomous vehicle apparatus | |
KR20210005417A (en) | Accident information providing system of autonomous vehicle, and autonomous vehicle apparatus thereof | |
US11360483B2 (en) | Method and system for generating reference lines for autonomous driving vehicles | |
KR20210005758A (en) | Object recognition system for autonomous vehicle, autonomous vehicle apparatus thereof | |
US20240101152A1 (en) | Mobile object control device, mobile object control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |