KR20160035384A - Vehicle and control method of the same - Google Patents
Vehicle and control method of the same Download PDFInfo
- Publication number
- KR20160035384A KR20160035384A KR1020140126902A KR20140126902A KR20160035384A KR 20160035384 A KR20160035384 A KR 20160035384A KR 1020140126902 A KR1020140126902 A KR 1020140126902A KR 20140126902 A KR20140126902 A KR 20140126902A KR 20160035384 A KR20160035384 A KR 20160035384A
- Authority
- KR
- South Korea
- Prior art keywords
- sensing
- hand
- user
- vehicle
- sensing area
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000001514 detection method Methods 0.000 claims description 14
- 230000003213 activating effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 6
- 210000003195 fascia Anatomy 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 238000004378 air conditioning Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 239000003990 capacitor Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003749 cleanliness Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000002803 fossil fuel Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Transportation (AREA)
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
일 측면은 사용자의 제스처를 인식하고 그 피드백을 제공하는 차량 및 그 제어 방법을 제공한다.
일 실시 예에 따른 차량은 복수 개의 감지 영역을 가지며, 감지 영역 내에서 사용자의 손을 감지하는 모션 센서 및 손의 감지 시 피드백을 제공하는 표시부를 포함한다.One aspect provides a vehicle and method of controlling the same that recognize a user's gesture and provide feedback.
A vehicle according to an exemplary embodiment has a plurality of sensing areas, and includes a motion sensor for sensing the user's hand in the sensing area and a display for providing feedback in sensing the hand.
Description
사용자의 모션에 따른 피드백을 제공하는 차량 및 그 제어 방법에 관한 발명이다.The present invention relates to a vehicle that provides feedback according to a motion of a user and a control method thereof.
차량은 기본적인 주행 기능 외에도 오디오 기능, 비디오 기능, 내비게이션 기능, 공조 제어, 시트 제어, 조명 제어 등의 사용자 편의를 위한 부가적인 기능을 더 수행할 수 있다.In addition to basic driving functions, the vehicle can perform additional functions for user convenience such as audio function, video function, navigation function, air conditioning control, seat control, lighting control, and the like.
이러한 기능을 수행하기 위해 차량에는 메뉴 화면 또는 제어 화면을 표시하는 디스플레이가 구비될 수 있으며, 하드 키(hard key) 방식, 터치 스크린 방식 또는 제스처 인식 방식에 따라 사용자로부터 원하는 메뉴의 선택을 입력 받거나 선택된 메뉴에 대한 제어 명령을 입력 받을 수 있다.In order to perform such a function, the vehicle may be provided with a display for displaying a menu screen or a control screen, and may receive a selection of a desired menu from the user according to a hard key method, a touch screen method or a gesture recognition method, A control command for the menu can be inputted.
하드 키 방식은 다수의 하드 키를 구비하기 위해 물리적으로 넓은 공간이 소모되거나, 소수의 하드 키로 제어 명령을 입력 받기 위해 사용자의 조작 부하가 늘어날 수 있다. In the hard key method, a physically large space may be consumed in order to have a plurality of hard keys, or a user's operation load may be increased in order to receive control commands with a small number of hard keys.
터치 스크린 방식은 운전자가 제어 명령을 입력하기 위해 대시 보드에 마련된 디스플레이를 일일이 터치해야 하기 때문에 안전 운전에 영향을 미칠 수 있다. The touch screen method may affect safe driving because the operator has to touch the display provided on the dashboard one by one in order to enter control commands.
제스처 인식 방식은 인식 여부를 사용자가 명확히 알 수 없어 제어 명령이 중첩되어 수행될 수 있으며 이로 인한 오작동의 위험이 있다.The gesture recognition method can be performed by superimposing control commands because the user can not clearly recognize whether or not the gesture recognition method is recognized, and there is a risk of malfunction thereof.
일 측면은 사용자의 모션에 따른 피드백을 제공하는 차량 및 그 제어 방법을 제공한다.One aspect provides a vehicle and a control method thereof for providing feedback according to a motion of a user.
일 측면에 따른 차량은, 복수 개의 감지 영역을 가지며, 상기 감지 영역 내에서 사용자의 손을 감지하는 모션 센서; 및 상기 손의 감지 시 피드백을 제공하는 표시부;를 포함할 수 있다.A vehicle according to one aspect, comprising: a motion sensor having a plurality of sensing areas and sensing a user's hand within the sensing area; And a display unit for providing feedback in sensing the hand.
또한, 복수 개의 감지 영역은, 상기 복수 개의 감지 영역을 구분하는 구분 영역을 포함할 수 있다.In addition, the plurality of sensing areas may include a plurality of sensing areas.
또한, 구분 영역은, 상기 복수 개의 감지 영역의 경계에 위치할 수 있다.In addition, the segment region may be located at the boundary of the plurality of sensing regions.
또한, 표시부는, 구분 영역에서 상기 손이 감지되면, 온 상태 또는 오프 상태로 피드백을 제공할 수 있다.Further, when the hand is detected in the segment region, the display unit can provide feedback in an on state or an off state.
또한, 표시부는, 상기 복수 개의 감지 영역에 대응하는 복수 개의 표시부를 포함할 수 있다.The display unit may include a plurality of display units corresponding to the plurality of sensing areas.
또한, 감지 영역은, 제 1 감지 영역 및 제 2 감지 영역을 포함하고, 상기 표시부는, 제 1 감지 영역에 대응하는 제 1 표시부 및 제 2 감지 영역에 대응하는 제 2 표시부를 포함할 수 있다.The sensing area may include a first sensing area and a second sensing area, and the display may include a first display part corresponding to the first sensing area and a second display part corresponding to the second sensing area.
또한, 제 1 표시부는, 상기 제 1 감지 영역에 상기 손의 감지 시 피드백을 제공하고, 상기 제 2 표시부는, 상기 제 2 감지 영역에 상기 손의 감지 시 피드백을 제공할 수 있다.In addition, the first display unit may provide feedback in sensing the hand to the first sensing area, and the second display may provide feedback in sensing the hand to the second sensing area.
또한, 감지 영역은, 미리 설정되거나, 학습 기반으로 설정된 영역일 수 있다.In addition, the sensing area may be a preset area or a learning area.
또한, 표시부는, 백라이트, 테두리 램프 및 디스플레이 중 적어도 하나를 포함할 수 있다.Further, the display unit may include at least one of a backlight, a frame lamp, and a display.
일 측면에 따른 차량은, 복수 개의 감지 영역을 가지며, 상기 감지 영역 내에서 사용자의 손을 감지하는 모션 센서; 및 상기 손의 감지 시 상기 감지 영역의 제어 대상을 활성화하는 제어부;를 포함한다.A vehicle according to one aspect, comprising: a motion sensor having a plurality of sensing areas and sensing a user's hand within the sensing area; And a controller for activating an object to be controlled in the sensing area when the hand is sensed.
또한, 복수 개의 감지 영역은, 상기 복수 개의 감지 영역을 구분하는 구분 영역을 포함할 수 있다.In addition, the plurality of sensing areas may include a plurality of sensing areas.
또한, 구분 영역은, 상기 복수 개의 감지 영역의 경계에 위치할 수 있다.In addition, the segment region may be located at the boundary of the plurality of sensing regions.
또한, 제어부는, 상기 구분 영역에서 상기 손이 인식되면, 상기 감지 영역의 제어 대상을 비활성화할 수 있다.In addition, when the hand is recognized in the segment region, the control unit may deactivate the control object of the sensing region.
일 측면에 따른 차량의 제어 방법은 복수 개의 감지 영역에 대한 사용자의 손을 감지하는 단계; 및 상기 손의 감지 시 피드백을 제공하는 단계;를 포함한다.A method of controlling a vehicle according to one aspect includes sensing a user's hand on a plurality of sensing areas; And providing feedback upon detection of the hand.
또한, 복수 개의 감지 영역은, 상기 복수 개의 감지 영역을 구분하는 구분 영역을 포함할 수 있다.In addition, the plurality of sensing areas may include a plurality of sensing areas.
또한, 구분 영역은, 상기 복수 개의 감지 영역의 경계에 위치할 수 있다.In addition, the segment region may be located at the boundary of the plurality of sensing regions.
또한, 구분 영역에 상기 손이 위치하면, 표시부를 온 상태 또는 오프 상태로 제어할 수 있다.Further, when the hand is positioned in the division area, the display section can be controlled to be in an on state or an off state.
일 측면에 따른 차량 및 그 제어 방법에 의하면, 제어 대상의 제어를 위해 감지 영역을 이동하는 사용자의 손에 대한 피드백을 제공함으로써 조작의 편의성을 향상시킬 수 있다. According to the vehicle and the control method thereof according to one aspect, it is possible to improve the convenience of the operation by providing the feedback of the user's hand moving in the detection area for the control of the control object.
도 1은 일 실시 예에 따른 차량의 외관도 이다.
도 2는 차량 내부 구성의 일 예를 나타낸 도면이다.
도 3 및 도 4는 내비게이션 장치 주위에 설치되는 네비게이션 장치 표시부의 예를 도시한 도면이다.
도 5 및 도 6은 공조 장치 주위에 설치되는 공조장치 표시부의 예를 도시한 도면이다.
도 7은 사용자 모션에 대한 감지 영역을 구획한 일 예를 도시한 도면이다.
도 8은 사용자 모션에 대한 감지 영역을 구획한 다른 예를 도시한 도면이다.
도 9는 일 실시 예에 따른 차량의 제어 블록도 이다.
도 10은 일 실시 에에 따른 차량의 제어 과정을 도시한 순서도이다.
도 11은 사용자의 손이 제 1 감지 영역에 위치한 예를 도시한 도면이다.
도 12는 사용자의 손이 제 1 감지 영역에 위치할 경우 내비게이션 장치 표시부의 표시 예를 도시한 도면이다.
도 13은 사용자의 손이 구분 영역에 위치한 예를 도시한 도면이다.
도 14 및 도 15는 사용자의 손이 구분 영역에 위치할 경우 내비게이션 장치 표시부와 공조장치 표시부의 표시 예를 도시한 도면이다.
도 16은 사용자의 손이 제 2 감지 영역에 위치한 예를 도시한 도면이다.
도 17은 사용자의 손이 제 2 감지 영역에 위치할 경우 공조장치 표시부의 표시 예를 도시한 도면이다.1 is an external view of a vehicle according to an embodiment.
2 is a diagram showing an example of the internal configuration of a vehicle.
3 and 4 are views showing an example of a navigation device display unit installed around the navigation device.
5 and 6 are views showing an example of an air conditioner display unit installed around the air conditioner.
FIG. 7 is a diagram showing an example of dividing a sensing region for user motion.
Fig. 8 is a diagram showing another example of partitioning the detection area for user motion.
9 is a control block diagram of a vehicle according to an embodiment.
10 is a flowchart showing a process of controlling a vehicle according to one embodiment.
11 is a diagram showing an example in which the user's hand is located in the first sensing area.
12 is a diagram showing an example of display of the navigation device display unit when the user's hand is located in the first sensing area.
13 is a diagram showing an example in which the user's hand is located in the segment region.
14 and 15 are views showing examples of display of the navigation device display unit and the air conditioner display unit when the user's hand is located in the segment region.
16 is a diagram showing an example in which the user's hand is located in the second sensing area.
17 is a view showing an example of display of the air conditioner display unit when the user's hand is located in the second sensing area.
이하 첨부된 도면을 참조하여 일 측면에 따른 차량 및 그 제어 방법에 대한 실시 예를 상세하게 설명하도록 한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of a vehicle and a control method thereof according to an aspect will be described in detail with reference to the accompanying drawings.
도 1은 일 실시 예에 따른 차량의 외관도 이다.1 is an external view of a vehicle according to an embodiment.
도 1을 참조하면, 일 실시 예에 따른 차량(100)은 차량(100)의 외관을 형성하는 본체(1), 차량(100) 내부의 운전자에게 차량(100) 전방의 시야를 제공하는 전면 유리(30), 차량(100)을 이동시키는 차륜(51, 52), 차륜(51, 52)을 회전시키는 구동 장치(60), 차량(100) 내부를 외부로부터 차폐시키는 도어(71), 운전자에게 차량(100) 후방의 시야를 제공하는 사이드 미러(81, 82)를 포함한다. 1, a
전면 유리(30)는 본체(100)의 전방 상측에 마련되어 차량(100) 내부의 운전자가 차량(100) 전방의 시각 정보를 획득할 수 있도록 하는 것으로서, 윈드쉴드 글래스(windshield glass)라고도 한다. The
차륜(51, 52)은 차량의 전방에 마련되는 전륜(51), 차량의 후방에 마련되는 후륜(52)을 포함하며, 구동 장치(60)는 본체(1)가 전방 또는 후방으로 이동하도록 전륜(51) 또는 후륜(52)에 회전력을 제공한다. 이와 같은 구동 장치(60)는 화석 연료를 연소시켜 회전력을 생성하는 엔진(engine) 또는 축전기(미도시)로부터 전원을 공급받아 회전력을 생성하는 모터(motor)를 채용할 수 있다.The
도어(71)는 본체(1)의 좌측 및 우측에 회동 가능하게 마련되어 개방 시에 운전자가 차량(100)의 내부에 탑승할 수 있도록 하며, 폐쇄 시에 차량(100)의 내부를 외부로부터 차폐시킨다.The
사이드 미러(81, 82)는 본체(1)의 좌측에 마련되는 좌측 사이드 미러(81) 및 우측에 마련되는 우측 사이드 미러(82)를 포함하며, 차량(100) 내부의 운전자가 차량(100) 측면 및 후방의 시각 정보를 획득할 수 있도록 한다.The
이외에도 차량(100)은 후방의 장애물 내지 다른 차량을 감지하는 근접 센서, 강수 여부 및 강수량을 감지하는 레인 센서 등의 감지 장치를 포함할 수 있다. In addition, the
근접 센서의 일 예로서, 차량(100)의 측면 또는 후면에 감지 신호를 발신하고, 다른 차량 등의 장애물로부터 반사되는 반사 신호를 수신한다. 또한 수신된 반사 신호의 파형을 기초로 차량(100) 후방의 장애물의 존재 여부를 감지하고, 장애물의 위치를 검출할 수 있다. 이와 같은 근접 센서는 초음파를 발신하고, 장애물에 반사된 초음파를 이용하여 장애물까지의 거리를 검출하는 방식을 채용할 수 있다.As an example of the proximity sensor, a detection signal is transmitted to the side or rear surface of the
도 2는 차량(100) 내부 구성의 일 예를 나타낸 도면이다. 2 is a diagram showing an example of the internal configuration of the
도 2에 도시된 바를 참조하면 차량(100)은 기어박스(120), 센터페시아(130) 및 스티어링 휠(140) 등이 마련된 대시보드(dashboard)와, 차량(100) 내부의 기기 제어를 위한 사용자의 손을 감지하는 모션 센서(150)를 포함할 수 있다. 2, the
기어박스(120)에는 차량(100) 변속을 위한 변속 기어(121)가 설치된다. 또한, 도2에 도시된 것처럼, 기어 박스(120)에는 차량(100)의 주요 기능의 수행을 제어하기 위한 다이얼 조작부(122)가 설치될 수도 있다. The
센터페시아(130)에는 내비게이션 장치(132), 공조 장치(136) 등이 설치될 수 있다. A
내비게이션 장치(132)는 차량(100)의 센터페시아(130) 내부에 매립되어 형성될 수 있다. 내비게이션 장치(132)의 디스플레이부(133) 주변에는 내비게이션 장치(132)를 제어하기 위한 내비게이션 장치 입력부(134, 도 4 참조)가 설치될 수 있으며, 내비게이션 장치 입력부(134, 도 4 참조)는 터치 스크린 형태로 내비게이션 장치(132)의 디스플레이부(133)와 일체로 마련될 수도 있다. The
내비게이션 장치(132)의 주위에는 내비게이션 장치(132)의 활성화를 표시하는 내비게이션 장치 표시부(135)가 설치될 수 있다. A navigation
도 3 및 도 4는 내비게이션 장치(132) 주위에 설치되는 내비게이션 장치 표시부(135)의 예를 도시한 도면이다. 3 and 4 are views showing an example of a navigation
도 3에 도시된 바를 참조하면, 내비게이션 장치 표시부(135)는 내비게이션 장치 주위에 복수 개의 램프를 배치해 마련할 수 있으며, 도 4에 도시된 바를 참조하면, 내비게이션 장치 표시부(135)는 내비게이션 장치 입력부(134) 배면에 백라이트 형태로 마련할 수 있다. 내비게이션 장치 표시부(135)의 설치 예가 이에 한정되는 것은 아니며, 내비게이션 장치(132)의 디스플레이부(133)가 내비게이션 장치 표시부(135)로 기능할 수도 있다. Referring to FIG. 3, the navigation
공조 장치(136)는 차량(100) 내부의 온도, 습도, 공기의 청정도, 공기의 흐름을 조절하여 차량(100)의 내부를 쾌적하게 유지한다. 공조 장치(136)는 센터페시아(130)에 설치되고 공기를 토출하는 적어도 하나의 토출구(137)를 포함할 수 있다. 센터페시아(130)에는 공조 장치(136)를 제어하기 위한 공조 장치 입력부(138)가 설치될 수 있으며, 공조 장치(136)의 활성화를 표시하는 공조장치 표시부(139)가 설치될 수 있다.The
도 5 및 도 6은 공조 장치(136) 주위에 설치되는 공조장치 표시부(139)의 예를 도시한 도면이다.5 and 6 are views showing an example of the air
도 5에 도시된 바를 참조하면, 공조장치 표시부(139)는 공조 장치(136) 주위에 복수 개의 램프 형태로 마련될 수 있으며, 도 6에 도시된 바를 참조하면, 공조장치 표시부(139)는 공조 장치 입력부(138) 배면에 백라이트 형태로 마련될 수 있다.Referring to FIG. 5, the air
스티어링 휠(140)은 차량(100)의 주행 방향을 조절하기 위한 장치로, 운전자에 의해 파지되는 림(141) 및 차량(100)의 조향 장치와 연결되고 림(141)과 조향을 위한 회전축의 허브를 연결하는 스포크(142)를 포함할 수 있다. 실시 예에 따라서 스포크(142)에는 차량(100) 내의 각종 장치, 일례로 오디오 장치(136) 등을 제어하기 위한 조작 장치(142a, 142b)가 형성될 수 있다.The
또한 대시 보드는 실시 예에 따라서 차량(100)의 주행 속도, 엔진 회전 수 또는 연료 잔량 등을 표시할 수 있는 각종 계기판 및 각종 물건을 수납할 수 있는 글로브 박스(globe box) 등을 더 포함할 수도 있다.The dashboard may further include various instrument panels capable of displaying the running speed, engine speed, fuel remaining amount, etc. of the
모션 센서(150)는 사용자의 모션을 감지하는 센서로, 보다 상세하게 차량(100)의 여러 기능을 제어하기 위한 사용자의 모션을 감지할 수 있다. The
모션 센서(150)의 일 예로 립 모션 센서(Leap Motion Sensor)가 사용될 수 있다. 립 모션 센서는 카메라를 기반으로 하는 동작 인식 기기로, 보다 상세하게 적외선 카메라를 사용해 손의 움직임을 감지할 수 있다. As an example of the
일 예에 따른 립 모션 센서(150)는 두 개의 적외선 카메라(또는 적외선 인식 모듈)와, 3 개의 적외선 광원을 포함할 수 있다. 립 모션 센서(150)는 카메라가 영상 정보를 받아 들이면서 x, y 및 z 축을 결정할 수 있으며, 화면상의 특정 점을 추출해 이 점이 움직이는 궤도를 연속적으로 추적한 뒤 추적된 점들을 분석해 움직임을 인식할 수 있다. 본 실시 예에서는 팜의 중심을 추적해 사용자의 손의 움직임을 인식하는 방법으로 립 모션 센서(150)가 적용될 수 있으나 이에 한정되는 것은 아니다. The
모션 센서(150)는 복수 개의 감지 영역을 가질 수 있다. 일 예에 따른 복수 개의 감지 영역은 모션 센서(150)가 가지는 단일 감지 영역을 복수 개의 서브 영역으로 구획한 복수 개의 감지 영역일 수 있다. 복수 개의 감지 영역은 복수 개의 감지 영역을 구분하는 구분 영역을 포함할 수 있다. 구분 영역은 복수 개의 감지 영역에 사이에 위치하는 영역일 수 있으나 이에 한정되는 것은 아니다. The
도 7은 사용자 모션에 대한 감지 영역(A)을 구획한 일 예를 도시한 도면이고, 도 8은 사용자 모션에 대한 감지 영역(AA)을 구획한 다른 예를 도시한 도면이다. FIG. 7 is a view showing an example of dividing a sensing area A for user's motion, and FIG. 8 is a view showing another example of dividing a sensing area AA for a user's motion.
도 7에 도시된 바를 참조하면, 일 예에 따른 감지 영역(A)은 타원 형상으로 마련될 수 있으며, 타원 형상의 감지 영역(A)은 제 1 감지 영역(A1)과 제 2 감지 영역(A2)으로 구획될 수 있다. 아울러, 제 1 감지 영역(A1)과 제 2 감지 영역(A2)의 경계에는 구분 영역(A3)이 밴드 형태로 마련될 수 있으며, 구분 영역(A3)은 제 1 감지 영역(A1)의 일부와 제 2 감지 영역(A2)의 일부를 포함할 수 있다.7, the sensing area A according to an exemplary embodiment may be provided in an elliptic shape, and the sensing area A having an elliptical shape may include a first sensing area A1 and a second sensing area A2 ). ≪ / RTI > In addition, a division area A3 may be provided in the form of a band at the boundary between the first sensing area A1 and the second sensing area A2, and the division area A3 may include a part of the first sensing area A1 And may include a portion of the second sensing area A2.
도 8에 도시된 바를 참조하면, 다른 예에 따른 감지 영역(AA)은 타원 형상으로 마련될 수 있으며, 타원 형상의 감지 영역(AA)은 제 1 감지 영역(AA1)과 제 2 감지 영역(AA2)으로 구획될 수 있다. 아울러, 제 1 감지 영역(AA1)과 제 2 감지 영역(AA2)의 경계에는 구분 영역(AA3)이 라인 형태로 마련될 수 있다.8, the sensing area AA according to another example may be provided in an elliptical shape, and the sensing area AA having an elliptical shape may include a first sensing area AA1 and a second sensing area AA2 ). ≪ / RTI > In addition, the division area AA3 may be provided in the form of a line at the boundary between the first sensing area AA1 and the second sensing area AA2.
도 7 및 도 8에 도시된 제 1 감지 영역(A1, AA1)은 제 1 기기에 대한 제어 신호를 입력 받기 위한 감지 영역(A, AA)일 수 있으며, 제 2 감지 영역(A2, AA2)은 제 2 기기에 대한 제어 신호를 입력 받기 위한 감지 영역(A, AA)일 수 있다. 여기서 제 1 기기는 내비게이션 장치(132)일 수 있으며, 제 2 기기는 공조 장치(136)일 수 있다. 아울러, 구분 영역(A3)은 제 1 감지 영역(A1)과 제 2 감지 영역(A2)의 중첩 영역일 수 있으며, 어떠한 기기에 대한 제어 신호도 입력 받지 않는 영역일 수 있다. 이하 설명의 편의상, 제 1 감지 영역(A1, AA1)은 내비게이션 장치(132)에 대한 제어 신호를 입력받는 영역이며, 제 2 감지 영역(A2, AA2)은 공조 장치(136)에 대한 제어 신호를 입력 받는 영역임을 전제로 발명을 설명한다.The first sensing areas A1 and AA1 shown in FIGS. 7 and 8 may be sensing areas A and AA for receiving a control signal for the first device and the second sensing areas A2 and AA2 And a sensing area (A, AA) for receiving a control signal for the second device. Here, the first device may be the
도 9는 일 실시 예에 따른 차량(100)의 제어 블록도 이다.9 is a control block diagram of the
도 9를 참조하면 일 실시 예에 따른 차량(100)은, 입력부(126)와, 표시부(127)와, 내비게이션 장치(132)와, 공조 장치(136)와, 모션 센서(150)와, 저장부(152)와, 제어부(155)를 포함할 수 있다. 이하, 내비게이션 장치(132)와, 공조 장치(136)와, 모션 센서(150)와 관련해 도 2 내지 도 6과 중복되는 설명은 생략한다. 9, a
입력부(126)는 사용자로부터 차량(100)의 여러 기능들에 대한 제어 신호를 입력 받고, 입력된 제어 신호를 제어부(155)에 전송한다.The
일 예에 따르면, 입력부(126)는 내비게이션 장치 입력부(134), 공조 장치 입력부(138) 등을 포함할 수 있다. 내비게이션 장치 입력부(134)는 터치 패널 형태로 구현될 수 있으며, 공조 장치 입력부 (138)는 가압식 버튼 장치 또는 터치 패널 형태로 구현될 수 있다. According to an example, the
표시부(127)는 발광 다이오드(Light Emitting Diode; LED) 또는 액정 디스플레이(Liquid Crystal Display; LCD)를 채용할 수 있다. 일 예에 따른 표시부(127)는 백라이트 형태, 제어 대상의 외곽을 감싸는 테두리 램프 형태, 디스플레이 형태 등으로 마련될 수 있다. The
표시부(127)는 복수 개의 감지 영역(A)에 대응하는 복수 개의 표시부(127)를 포함할 수 있다. 일 예에 따른 표시부(127)는, 모션 센서(150)의 제 1 감지 영역(A1)에서 사용자의 손이 감지되면 피드백을 제공하는 내비게이션 장치 표시부(135)와, 모션 센서(150)의 제 2 감지 영역(A2)에서 사용자의 손이 감지되면 피드백을 제공하는 공조장치 표시부(139)를 포함할 수 있으나, 표시부(127)의 예가 이에 한정되는 것은 아니다.The
표시부(127)는 모션 센서(150)가 사용자의 손을 감지하면, 온 상태 또는 오프 상태로 피드백을 제공할 수 있다. When the
일 예에 따르면, 모션 센서(150)의 제 1 감지 영역(A1)에서 사용자의 손이 감지되면 내비게이션 장치 표시부(135)가 온 상태로 전환되어 내비게이션 장치의 제어가 가능함을 사용자에게 알릴 수 있다. 또한, 모션 센서(150)의 제 1 감지 영역(A1)으로부터 제 2 감지 영역(A2)으로 사용자의 손이 이동하면 내비게이션 장치 표시부(135)가 오프 상태로 전환되고 공조장치 표시부(139)가 온 상태로 전환되어 공조 장치(136)의 제어가 가능함을 사용자에게 알릴 수 있다. According to an example, when the user's hand is detected in the first sensing area A1 of the
한편, 표시부(127)는 모션 센서(150)의 감지 영역(A) 중 구분 영역(A3)에서 사용자의 손이 감지되는 경우 역시 온 상태 또는 오프 상태로 피드백을 제공할 수 있다. 일 예에 따르면, 사용자의 손이 구분 영역(A3)에 도달하면, 내비게이션 장치 표시부(135)와 공조장치 표시부(139)에서 모두 레드 계열의 광이 출력될 수 있으며, 이 경우 사용자는 손이 구분 영역(A3)에 위치한 것으로 판단하고 손을 제 1 감지 영역(A1) 또는 제 2 감지 영역(A2)으로 이동시킬 수 있다.On the other hand, the
저장부(152)는 차량(100)을 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 예를 들어, 저장부(152)는 사용자의 모션 정보 및 표시부(127)의 표시 형태 등에 대한 정보를 저장할 수 있으며, 차량(100)의 제어를 위한 제어 프로그램, 제조사에서 최초로 제공되는 전용 어플리케이션 또는 외부에서 다운받은 범용 어플리케이션 등의 프로그램을 저장할 수 있다. 아울러, 입/출력되는 신호들의 임시 저장을 위한 기능을 수행할 수도 있다. The
이러한 저장부(152)는 플래시 메모리(flash memory), 하드디스크(hard disc), 메모리 카드, 롬(ROM: Read-Only Memory), 램(RAM: Random Access Memory), 메모리 카드, EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광 디스크 중 적어도 하나의 저장 매체를 포함할 수 있다. The
제어부(155)는 차량(100)의 전반적인 동작 및 차량(100)의 내부 구성요소들 사이의 신호 흐름을 제어하고 데이터를 처리할 수 있다. 제어부(155)는 사용자의 입력 또는 미리 설정된 조건을 만족하는 경우 저장부(152)에 저장된 OS(Operation System) 및 다양한 어플리케이션을 실행할 수 있다. The
제어부(155)는 모션 센서(150)의 감지 영역(A)에 사용자의 손이 감지되면 감지 영역(A)의 제어 대상이 활성화 되도록 제어할 수 있으며, 제어 대상이 활성화되었음을 사용자가 인지할 수 있도록 제어 대상과 대응하는 표시부(127)의 온/오프 제어를 통해 피드백을 제공할 수 있다. The
일 예에 따르면, 제 1 감지 영역(A1)에 사용자의 손이 위치하면 제어부(155)는 제 1 감지 영역(A1)의 제어 대상인 내비게이션 장치(132)가 활성화 되도록 제어할 수 있으며, 내비게이션 장치 표시부(135)를 온 상태로 제어함으로써 사용자에게 피드백을 제공할 수 있다. According to an example, when the user's hand is located in the first sensing area A1, the
또한, 제 2 감지 영역(A2)에 사용자의 손이 위치하면 제 2 감지 영역(A2)의 제어 대상인 공조 장치(136)가 활성화되도록 제어할 수 있으며, 공조 장치 표시부(139)를 온 상태로 제어 함으로써 사용자에게 피드백을 제공할 수 있다.If the user's hand is located in the second sensing area A2, the controller can control the
구분 영역(A3)에 사용자의 손이 위치하면 제어 대상이 사용자의 제스쳐를 인식하기 어려울 수 있으며, 제어부(155)는 어떠한 제어 대상도 활성화되지 않도록 제어할 수 있다. 따라서, 제어부(155)는 구분 영역(A3)에 사용자의 손이 위치하면 내비게이션 장치(132)와 공조장치(136)가 모두 비활성화되도록 제어할 수 있다. 또한, 내비게이션 장치 표시부(135)와 공조장치 표시부(139)가 모두 온 상태로 전환되어 미리 설정된 레드 계열의 광을 출광하거나, 내비게이션 장치 표시부(135)와 공조장치 표시부(139)가 모두 오프 상태로 전환되도록 제어할 수 있다. If the user's hand is located in the segment area A3, the control object may be difficult to recognize the user's gesture, and the
피드백 제공 방식의 예가 전술한 예에 한정되는 것은 아니며, 당업자가 쉽게 실시할 수 있는 변경 예를 포함하는 개념으로 넓게 이해되어야 할 것이다. The example of the feedback providing method is not limited to the above-described example, but should be broadly understood as a concept including a modification example that can be easily performed by a person skilled in the art.
이하, 제어부(155)의 제어 과정을 상세하게 설명한다. Hereinafter, the control process of the
도 10은 일 실시 에에 따른 차량(100)의 제어 과정을 도시한 순서도이고, 도 11 내지 도 17은 도 10에 따른 차량(100)의 제어 과정을 구체화한 도면이다. 도 11 내지 도 17에서는 모션 센서(150)가 도 7의 감지 영역(A)을 가지는 경우를 전제로 설명한다.FIG. 10 is a flowchart illustrating a control process of the
도 10을 참조하면, 차량(100)의 제어 과정은 모션 센서(150)의 감지 영역(A) 감시 단계와(210), 감지 영역(A) 내에서 사용자의 손을 인식하는 단계와(220), 표시부(127)의 피드백 제어 단계(230)를 포함할 수 있다. 10, the control process of the
먼저, 모션 센서(150)가 감지 영역(A)을 감시하는 단계가 수행될 수 있다(210). 모션 센서(150)는 복수 개의 감지 영역(A1, A2)을 가질 수 있으며, 복수 개의 감지 영역(A1, A2)은 모션 센서(150)가 가지는 단일 감지 영역(A)을 복수 개의 서브 영역으로 구획한 복수 개의 감지 영역(A1, A2)일 수 있다. First, a step of monitoring the sensing area A by the
다음, 감지 영역(A) 내에서 사용자의 손을 인식하는 단계 및 표시부(127)의 피드백 제어 단계가 수행될 수 있다(220, 230). 이하, 복수 개의 감지 영역(A)에서 사용자의 손을 인식하는 단계 및 표시부(127)의 피드백 제어 단계에 대해 첨부된 도면을 참조하여 설명한다. Next, recognition of the user's hand within the sensing area A and feedback control of the
도 11은 사용자의 손이 제 1 감지 영역(A1)에 위치한 예를 도시한 도면이고, 도 12는 사용자의 손이 제 1 감지 영역(A1)에 위치할 경우, 내비게이션 장치 표시부(135)의 표시 예를 도시한 도면이다. FIG. 11 is a view showing an example in which the user's hand is located in the first sensing area A1. FIG. 12 is a view showing an example of the display of the navigation
도 11에 도시된 바를 참조하면, 사용자의 손은 제 1 감지 영역(A1)에 위치할 수 있다. 사용자의 손이 제 1 감지 영역(A1)에 위치하면 모션 센서(150)는 사용자의 손에 대한 위치 정보를 제어부(155)로 출력할 수 있다. 여기서, 사용자의 손에 대한 위치 정보는 사용자의 팜(Palm)에 대한 위치 정보를 포함할 수 있다. 제어부(155)는 사용자의 손이 제 1 감지 영역(A1)에 위치함을 인식할 수 있으며, 내비게이션 장치 표시부(135)가 온상태로 전환되도록 제어할 수 있다.Referring to FIG. 11, the user's hand may be located in the first sensing area A1. When the user's hand is located in the first sensing area A1, the
도 13은 사용자의 손이 구분 영역(A3)에 위치한 예를 도시한 도면이고, 도 14 및 도 15는 사용자의 손이 구분 영역(A3)에 위치할 경우 내비게이션 장치 표시부(135)와 공조장치 표시부(139)의 표시 예를 도시한 도면이다. FIG. 13 is a diagram illustrating an example in which the user's hand is located in the segment region A3. FIG. 14 and FIG. 15 are diagrams showing an example in which when the user's hand is located in the segment region A3, (139).
도 13에 도시된 바를 참조하면, 사용자의 손은 제 1 감지 영역(A1)과 제 2 감지 영역(A2) 사이에 위치한 구분 영역(A3)에 위치할 수 있다. 사용자의 손이 구분 영역(A3)에 위치하면 모션 센서(150)는 사용자의 손에 대한 정보를 제어부(155)로 출력할 수 있다. 여기서, 사용자의 손에 대한 위치 정보는 사용자의 팜에 대한 위치 정보를 포함할 수 있다. 제어부(155)는 사용자의 손이 구분 영역(A3)에 위치함을 인식하고 도 14에 도시된 바와 같이 내비게이션 장치 표시부(135)와 공조장치 표시부(139)를 모두 오프 상태로 전환할 수 있으며, 또는 도 15에 도시된 바와 같이 내비게이션 장치 표시부(135)와 공조장치 표시부(139)에 레드 계열의 광이 출력되도록 제어할 수 있다. Referring to FIG. 13, the user's hand may be located in the segment area A3 located between the first sensing area A1 and the second sensing area A2. When the user's hand is positioned in the segment area A3, the
도 16은 사용자의 손이 제 2 감지 영역(A2)에 위치한 예를 도시한 도면이고, 도 17은 사용자의 손이 제 2 감지 영역(A2)에 위치한 경우, 공조장치 표시부(139)의 표시 예를 도시한 도면이다.FIG. 16 is a view showing an example in which the user's hand is located in the second sensing area A2. FIG. 17 shows an example of the display example of the air
도 16에 도시된 바를 참조하면, 사용자의 손은 제 2 감지 영역(A2)에 위치할 수 있다. 사용자의 손이 제 2 감지 영역(A2)에 위치하면 모션 센서(150)는 사용자의 손에 대한 위치 정보를 제어부(155)로 출력할 수 있다. 여기서, 사용자의 손에 대한 위치 정보는 사용자의 팜에 대한 위치 정보를 포함할 수 있다. 제어부(155)는 사용자의 손이 제 2 감지 영역(A2)에 위치함을 인식할 수 있으며, 공조장치 표시부(139)가 온 상태로 전환되도록 제어할 수 있다. Referring to FIG. 16, the user's hand may be located in the second sensing area A2. When the user's hand is positioned in the second sensing area A2, the
이상으로 차량(100) 및 그 제어 방법의 여러 실시 예에 대해 설명하였다. 발명의 기술적 사상이 전술한 실시 예에 의해 한정되는 것은 아니다.
Various embodiments of the
100 : 차량
120 : 기어 박스
130 : 센터페시아
140 : 스티어링 휠
150 : 모션 센서
155 : 제어부
A : 감지 영역
A1, AA1 : 제 1 감지 영역
A2, AA2 : 제 2 감지 영역
A3, AA3 : 구분 영역100: vehicle
120: Gear box
130: Center Fesia
140: Steering wheel
150: Motion sensor
155:
A: detection area
A1, AA1: first sensing area
A2, AA2: second sensing area
A3, AA3:
Claims (17)
상기 손의 감지 시 피드백을 제공하는 표시부;를 포함하는 차량.A motion sensor having a plurality of sensing areas and sensing a user's hand within the sensing area; And
And a display unit for providing feedback when the hands are detected.
상기 복수 개의 감지 영역은,
상기 복수 개의 감지 영역을 구분하는 구분 영역을 포함하는 차량.The method according to claim 1,
Wherein the plurality of sensing areas comprise:
And a plurality of detection regions for distinguishing the plurality of detection regions.
상기 구분 영역은,
상기 복수 개의 감지 영역의 경계에 위치하는 차량.3. The method of claim 2,
Wherein the division region includes:
Wherein the vehicle is located at a boundary of the plurality of sensing areas.
상기 표시부는,
상기 구분 영역에서 상기 손이 감지되면, 온 상태 또는 오프 상태로 피드백을 제공하는 차량.3. The method of claim 2,
The display unit includes:
And provides feedback to an on state or an off state when the hand is detected in the segment region.
상기 표시부는,
상기 복수 개의 감지 영역에 대응하는 복수 개의 표시부를 포함하는 차량.The method according to claim 1,
The display unit includes:
And a plurality of display portions corresponding to the plurality of sensing regions.
상기 감지 영역은,
제 1 감지 영역 및 제 2 감지 영역을 포함하고,
상기 표시부는,
제 1 감지 영역에 대응하는 제 1 표시부 및 제 2 감지 영역에 대응하는 제 2 표시부를 포함하는 차량.The method according to claim 1,
Wherein the sensing area comprises:
A first sensing area and a second sensing area,
The display unit includes:
A first display portion corresponding to the first sensing area and a second display portion corresponding to the second sensing area.
상기 제 1 표시부는,
상기 제 1 감지 영역에 상기 손의 감지 시 피드백을 제공하고,
상기 제 2 표시부는,
상기 제 2 감지 영역에 상기 손의 감지 시 피드백을 제공하는 차량.The method according to claim 6,
The first display unit displays,
Providing feedback to the first sensing area upon detection of the hand,
The second display unit displays,
And provides feedback in sensing the hands to the second sensing area.
상기 감지 영역은,
미리 설정되거나, 학습 기반으로 설정된 영역인 차량.The method according to claim 1,
Wherein the sensing area comprises:
Vehicle that is pre-set or set to learning based.
상기 표시부는,
백라이트, 테두리 램프 및 디스플레이 중 적어도 하나를 포함하는 차량.The method according to claim 1,
The display unit includes:
A backlight, a border lamp, and a display.
상기 손의 감지 시 상기 감지 영역의 제어 대상을 활성화하는 제어부;를 포함하는 차량.A motion sensor having a plurality of sensing areas and sensing a user's hand within the sensing area; And
And a control unit for activating an object to be controlled of the sensing area when the hand is sensed.
상기 복수 개의 감지 영역은,
상기 복수 개의 감지 영역을 구분하는 구분 영역을 포함하는 차량.11. The method of claim 10,
Wherein the plurality of sensing areas comprise:
And a plurality of detection regions for distinguishing the plurality of detection regions.
상기 구분 영역은,
상기 복수 개의 감지 영역의 경계에 위치하는 차량.12. The method of claim 11,
Wherein the division region includes:
Wherein the vehicle is located at a boundary of the plurality of sensing areas.
상기 제어부는,
상기 구분 영역에서 상기 손이 인식되면, 상기 감지 영역의 제어 대상을 비활성화하는 차량.3. The method of claim 2,
Wherein,
And when the hand is recognized in the segment region, deactivates the control target of the detection region.
상기 손의 감지 시 피드백을 제공하는 단계;를 포함하는 차량의 제어 방법.Sensing a user's hand on a plurality of sensing areas; And
And providing feedback when the hands are sensed.
상기 복수 개의 감지 영역은,
상기 복수 개의 감지 영역을 구분하는 구분 영역을 포함하는 차량의 제어 방법.15. The method of claim 14,
Wherein the plurality of sensing areas comprise:
Wherein the plurality of sensing areas are divided into a plurality of sensing areas.
상기 구분 영역은,
상기 복수 개의 감지 영역의 경계에 위치하는 차량의 제어 방법.16. The method of claim 15,
Wherein the division region includes:
Wherein the plurality of sensing areas are located at a boundary of the plurality of sensing areas.
상기 구분 영역에 상기 손이 위치하면, 표시부를 온 상태 또는 오프 상태로 제어하는 차량의 제어 방법.16. The method of claim 15,
And controlling the display unit to be in an on state or an off state when the hand is positioned in the division region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140126902A KR20160035384A (en) | 2014-09-23 | 2014-09-23 | Vehicle and control method of the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140126902A KR20160035384A (en) | 2014-09-23 | 2014-09-23 | Vehicle and control method of the same |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160060713A Division KR20160061941A (en) | 2016-05-18 | 2016-05-18 | Control method of the vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20160035384A true KR20160035384A (en) | 2016-03-31 |
Family
ID=55652104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140126902A KR20160035384A (en) | 2014-09-23 | 2014-09-23 | Vehicle and control method of the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20160035384A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180025378A (en) * | 2016-08-30 | 2018-03-09 | 자동차부품연구원 | System and method for provision of head up display information based on driver's gesture |
KR20180070086A (en) * | 2016-12-16 | 2018-06-26 | 현대자동차주식회사 | Vehicle, and control method for the same |
-
2014
- 2014-09-23 KR KR1020140126902A patent/KR20160035384A/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180025378A (en) * | 2016-08-30 | 2018-03-09 | 자동차부품연구원 | System and method for provision of head up display information based on driver's gesture |
KR20180070086A (en) * | 2016-12-16 | 2018-06-26 | 현대자동차주식회사 | Vehicle, and control method for the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101537936B1 (en) | Vehicle and control method for the same | |
US10514790B2 (en) | Display device and vehicle having the same | |
CN109278844B (en) | Steering wheel, vehicle with steering wheel and method for controlling vehicle | |
KR101630153B1 (en) | Gesture recognition apparatus, vehicle having of the same and method for controlling of vehicle | |
US20160132126A1 (en) | System for information transmission in a motor vehicle | |
US11858424B2 (en) | Electronic device for displaying image by using camera monitoring system (CMS) side display mounted in vehicle, and operation method thereof | |
US10639992B2 (en) | Vehicle and method of controlling the same | |
US20140195096A1 (en) | Apparatus and method for contactlessly detecting objects and/or persons and gestures and/or operating procedures made and/or carried out thereby | |
US10650787B2 (en) | Vehicle and controlling method thereof | |
US9256325B2 (en) | Curved display apparatus for vehicle | |
US20140058633A1 (en) | Vehicle-mounted apparatus control device and program | |
KR20220088711A (en) | Vehicle display device and its control method | |
US9399429B2 (en) | Predictive cockpit lighting and performance mode via touch | |
KR102222855B1 (en) | Steering assistance system provided in the steering wheel and steering control method using the same | |
KR20160035384A (en) | Vehicle and control method of the same | |
KR20160061941A (en) | Control method of the vehicle | |
US20210333869A1 (en) | Vehicle control device and vehicle control method | |
KR102097966B1 (en) | Cruise control system and cruise control method | |
US20170072797A1 (en) | Vehicle and control method thereof | |
KR20220042904A (en) | Steering wheel device and method for operating thereof | |
KR101657658B1 (en) | Input apparatus, vehicle comprising the same and control method for the vehicle | |
KR102272765B1 (en) | Vehicle and controlling method for the vehicle | |
CN107608501B (en) | User interface apparatus, vehicle including the same, and method of controlling vehicle | |
KR101480777B1 (en) | Vehicle and controlling method thereof | |
KR101767074B1 (en) | Vehicle and controlling method for the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20140923 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20150917 Patent event code: PE09021S01D |
|
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20160301 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20150917 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
PG1501 | Laying open of application | ||
E601 | Decision to refuse application | ||
E801 | Decision on dismissal of amendment | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20160418 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20150917 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
PE0801 | Dismissal of amendment |
Patent event code: PE08012E01D Comment text: Decision on Dismissal of Amendment Patent event date: 20160418 Patent event code: PE08011R01I Comment text: Amendment to Specification, etc. Patent event date: 20160331 Patent event code: PE08011R01I Comment text: Amendment to Specification, etc. Patent event date: 20151117 |
|
A107 | Divisional application of patent | ||
PA0107 | Divisional application |
Comment text: Divisional Application of Patent Patent event date: 20160518 Patent event code: PA01071R01D |