[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20220029930A - Vehicle management apparatus - Google Patents

Vehicle management apparatus Download PDF

Info

Publication number
KR20220029930A
KR20220029930A KR1020200111494A KR20200111494A KR20220029930A KR 20220029930 A KR20220029930 A KR 20220029930A KR 1020200111494 A KR1020200111494 A KR 1020200111494A KR 20200111494 A KR20200111494 A KR 20200111494A KR 20220029930 A KR20220029930 A KR 20220029930A
Authority
KR
South Korea
Prior art keywords
vehicle
image
information
damage
region
Prior art date
Application number
KR1020200111494A
Other languages
Korean (ko)
Other versions
KR102529430B1 (en
Inventor
안지영
Original Assignee
주식회사 디메타 (D-meta,corp.)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디메타 (D-meta,corp.) filed Critical 주식회사 디메타 (D-meta,corp.)
Priority to KR1020200111494A priority Critical patent/KR102529430B1/en
Priority to PCT/KR2020/017004 priority patent/WO2022050504A1/en
Publication of KR20220029930A publication Critical patent/KR20220029930A/en
Application granted granted Critical
Publication of KR102529430B1 publication Critical patent/KR102529430B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a vehicle management apparatus to increase accuracy of vehicle damage determination through a plurality of images of the external of a vehicle. According to one embodiment of the present invention, the vehicle management apparatus comprises: an output unit outputting a damage image and a control unit controlling the output unit to output the damage image on the basis of a first image captured by a camera at a first viewpoint and a second image captured by a camera at a second viewpoint. The first image includes a first area of the exterior of a vehicle and at least one fixed area and a variable area are included inside the first area. The second image includes a second area of the exterior of the vehicle and at least a part of the fixed area and at least a part of the variable area are included in the second area. The damage image is an image in which the variable area is removed from the first image and the second image, wherein the fixed area is an area for damage to the vehicle, the variable area is an area not related to the damage to the vehicle, and the first viewpoint is different from the second viewpoint.

Description

차량 관리 장치 {VEHICLE MANAGEMENT APPARATUS}Vehicle Management Device {VEHICLE MANAGEMENT APPARATUS}

본 발명은 차량 관리 장치에 관한 것으로서, 보다 구체적으로는 차량의 외관에 관한 복수의 이미지를 통하여 차량 손상 판단의 정확도를 향상시키기 위한 차량 관리 장치에 관한 것이다.The present invention relates to a vehicle management apparatus, and more particularly, to a vehicle management apparatus for improving the accuracy of vehicle damage determination through a plurality of images related to the exterior of a vehicle.

경제가 발전하고 사회가 고도화됨에 따라, 차량의 판매량은 지속적으로 증가하고 있다. 이에 따라, 주차장, 중고차 거래, 자동차 보험, 렌터카, 공유차 관리 등 차량과 관련된 산업 역시 점차 다양해지며 시장의 크기 역시 날로 증가하고 있다. As the economy develops and society becomes more sophisticated, the sales volume of vehicles continues to increase. Accordingly, vehicle-related industries such as parking lot, used car transaction, car insurance, rental car, and shared car management are also gradually diversifying, and the size of the market is also increasing day by day.

관련 시장의 크기가 커짐에 따라, 다양한 소비자의 필요에 의하여 차량의 상태 내지 가치를 평가하고 차량을 지속적으로 관리할 필요성 역시 증가되고 있다. 특히, 차량의 손상 등으로 인한 품질 관리에 실패할 경우, 이는 차량의 가치 하락뿐 아니라 인명 사고 등으로 이어질 가능성도 존재한다. 그러나, 아직까지는 차량의 품질 관리에 대하여는 전문가들을 동원한 인력 투입되는 것이 일반적인 바, 일반 소비자에게는 접근성이 부족한 상황이다.As the size of the relevant market increases, the necessity of evaluating the condition or value of a vehicle and continuously managing the vehicle according to the needs of various consumers is also increasing. In particular, if quality control fails due to damage to the vehicle, etc., there is a possibility that this may lead to not only a decrease in the value of the vehicle but also an accident. However, it is still common to input manpower by mobilizing experts for vehicle quality control, so access is insufficient for general consumers.

이에, 일반 소비자들이 다양한 산업 환경에서 차량의 상태를 쉽게 관리할 수 있도록 하는 기술의 개발 필요성이 대두된다.Accordingly, there is a need to develop a technology that allows general consumers to easily manage the state of a vehicle in various industrial environments.

본 발명의 일 과제는, 차량의 손상 상태를 관리하기 위한 차량 관리 장치를 제공하는 것이다.An object of the present invention is to provide a vehicle management apparatus for managing a damaged state of a vehicle.

본 발명의 다른 일 과제는, 차량의 외관에 관한 복수의 이미지를 통하여 차량 손상 판단의 정확도를 향상시키기 위한 차량 관리 장치를 제공하는 것이다. Another object of the present invention is to provide a vehicle management apparatus for improving the accuracy of vehicle damage determination through a plurality of images related to the exterior of the vehicle.

본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the above-mentioned problems, and the problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the present specification and the accompanying drawings. .

본 발명의 일 양태에 따르면, 손상 이미지를 출력하는 출력부 및 카메라에 의해 제1 시점에 촬영된 제1 이미지와 상기 카메라에 의해 제2 시점에 촬영된 제2 이미지를 기초로 상기 손상 이미지를 출력하기 위해 상기 출력부를 제어하는 제어부를 포함하되, 상기 제1 이미지는 차량의 외관에 관한 제1 영역이 촬영되되, 상기 제1 영역의 내부에는 적어도 하나 이상의 이상 영역인 고정 영역 및 가변 영역이 포함되어 있고, 상기 제2 이미지는 차량의 외관에 관한 제2 영역이 촬영되되, 상기 제2 영역의 내부에는 상기 고정 영역 중 적어도 일부 영역 및 상기 가변 영역 중 적어도 일부 영역이 포함되어 있고, 상기 손상 이미지는 상기 제1 이미지 및 상기 제2 이미지로부터 상기 가변 영역이 제거된 이미지이되, 상기 고정 영역은 차량의 손상에 대한 영역이고, 상기 가변 영역은 차량의 손상에 대한 영역이 아닌 영역이고, 상기 제1 시점과 제2 시점은 서로 다른 시점인 차량 관리 장치가 제공될 수 있다.According to an aspect of the present invention, the damaged image is output based on a first image taken at a first time point by an output unit and a camera for outputting a damaged image and a second image taken at a second time point by the camera and a control unit for controlling the output unit to In the second image, a second area related to the exterior of the vehicle is photographed, and at least some of the fixed area and at least some of the variable area are included in the second area, and the damaged image is An image in which the variable region is removed from the first image and the second image, wherein the fixed region is a region for vehicle damage, the variable region is a region not for vehicle damage, and the first time point The vehicle management device and the second time point may be different from each other.

본 발명의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The solutions to the problems of the present invention are not limited to the above-described solutions, and solutions not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the present specification and the accompanying drawings. will be able

본 발명에 의하면, 차량의 손상 상태를 관리하기 위한 차량 관리 장치가 제공될 수 있다. According to the present invention, a vehicle management apparatus for managing a damaged state of a vehicle can be provided.

본 발명에 의하면, 차량의 외관에 관한 복수의 이미지를 통하여 차량 손상 판단의 정확도를 향상시키기 위한 차량 관리 장치가 획득될 수 있다.According to the present invention, a vehicle management apparatus for improving the accuracy of vehicle damage determination through a plurality of images related to the exterior of the vehicle may be obtained.

본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Effects of the present invention are not limited to the above-described effects, and effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention pertains from the present specification and accompanying drawings.

도 1은 일 실시예에 따른 차량 관리 방법을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 차량 이미지를 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 이미지 데이터를 예시하기 위한 도면이다.
도 4는 일 실시예에 따른 이미지 데이터를 예시하기 위한 도면이다.
도 5는 다른 일 실시예에 따른 이미지 데이터를 예시하기 위한 도면이다.
도 6은 일 실시예에 따른 이미지 데이터를 예시하기 위한 도면이다.
도 7은 노이즈 제거 처리를 설명하기 위한 도면이다.
도 8은 복수의 이미지를 이용한 노이즈 제거 처리를 예시하기 위한 도면이다.
도 9는 복수의 이미지를 이용한 노이즈 제거 처리를 예시하기 위한 도면이다.
도 10은 일 실시예에 따른 차량 정보 획득을 위한 신경망 모델을 설명하기 위한 도면이다.
도 11은 일 실시예에 따른 차량 정보 획득을 위한 신경망 모델을 설명하기 위한 도면이다.
도 12는 일 실시예에 따른 차량 정보 획득을 위한 신경망 모델을 설명하기 위한 도면이다.
도 13은 일 실시예에 따른 신경망 모델을 예시하기 위한 도면이다.
도 14는 일 실시예에 따른 부품 영역 정보를 설명하기 위한 도면이다.
도 15는 차량 이미지 및 부품 정보를 설명하기 위한 도면이다.
도 16은 차량 이미지 및 부품 정보를 설명하기 위한 도면이다.
도 17은 일 실시예에 따른 부품 학습 데이터를 예시하기 위한 도면이다.
도 18은 다른 일 실시예에 따른 부품 학습 데이터를 예시하기 위한 도면이다.
도 19는 일 실시예에 따른 손상 정보를 설명하기 위한 도면이다.
도 20은 손상 영역 정보를 설명하기 위한 도면이다.
도 21은 손상 학습 데이터를 예시하기 위한 도면이다.
도 22는 부품-손상 정보를 획득하는 장치에 대하여 설명하기 위한 도면이다.
도 23은 일 실시예에 따른 차량 정보의 획득을 설명하기 위한 도면이다.
도 24는 부품-손상 정보를 획득하는 장치에 대하여 설명하기 위한 도면이다.
도 25는 부품-손상 정보를 획득하는 장치에 대하여 설명하기 위한 도면이다.
도 26은 일 실시예에 따른 신규 손상 정보를 설명하기 위한 도면이다.
도 27은 손상 이력 관리를 설명하기 위한 도면이다.
도 28은 일 실시예에 따른 출력 화면을 설명하기 위한 도면이다.
도 29는 일 실시예에 따른 손상 영역 정보의 표시를 설명하기 위한 도면이다.
도 30은 일 실시예에 따른 차량 관리 보조 방법을 설명하기 위한 도면이다.
도 31은 일 실시예에 따른 차량 손상 관리 방법을 설명하기 위한 도면이다.
도 32는 일 실시예에 따른 차량 손상 관리 방법을 설명하기 위한 도면이다.
도 33은 일 실시예에 따른 차량 손상 관리 방법을 설명하기 위한 도면이다.
도 34는 온-사이트 차량 관리 시스템의 구성을 설명하기 위한 도면이다.
도 35는 온-사이트 차량 관리 프로세스에 의해 수행되는 일련의 단계들을 설명하기 위한 도면이다.
도 36은 온-사이트 차량 관리 프로세스에서 차량 관리에 필요한 차량 데이터를 획득하는 단계를 설명하기 위한 도면이다.
도 37은 일 실시예에 따른 영상 데이터가 감지수단에 감지되는 특정 시점에서 카메라 모듈에 의해 촬영되는 것을 설명하기 위한 도면이다.
도 38은 다른 실시예에 따른 영상 데이터가 센서에 감지되는 특정 시점에서 카메라 모듈에 의해 촬영되는 것을 설명하기 위한 도면이다.
도 39는 또 다른 실시예에 따른 영상 데이터가 센서에 감지되는 특정 시점에서 카메라 모듈에 의해 촬영되는 것을 설명하기 위한 도면이다.
도 40은 또 다른 실시예에 따른 영상 데이터가 차단기가 작동한 시점부터 일정 범위 내의 시점에서 카메라 모듈에 의해 촬영되는 것을 설명하기 위한 도면이다.
도 41은 일 실시예에 따른 영상 데이터로부터 이미지 데이터를 추출하는 방법을 설명하기 위한 도면이다.
도 42는 복수의 이미지를 이용한 노이즈 제거 처리를 예시하기 위한 도면이다.
도 43은 복수의 이미지를 이용한 노이즈 제거 처리를 예시하기 위한 도면이다.
도 44는 관리장치의 출력 화면 중 손상 정보를 출력하는 화면을 설명하기 위한 도면이다.
도 45는 관리장치의 출력 화면 중 손상 정보에 대한 사용자 또는 관리자의 동의 여부를 선택할 수 있는 화면을 설명하기 위한 도면이다.
도 46은 관리장치의 출력 화면 중 손상 정보에 관한 상세한 내용이 포함된 화면을 설명하기 위한 도면이다.
도 47은 관리장치의 출력 화면 중 손상 이력에 관한 정보를 포함하는 출력 화면을 설명하기 위한 도면이다.
도 48은 관리장치의 출력 화면 중 손상 이력에 관한 정보를 포함하는 출력 화면을 설명하기 위한 도면이다.
도 49는 모바일 베이스 차량 관리 시스템의 구성을 설명하기 위한 도면이다.
도 50은 모바일 베이스 차량 관리 프로세스에 의해 수행되는 일련의 단계들을 설명하기 위한 도면이다.
도 51은 일 실시예에 따른 영상 데이터에 포함되어 있는 차량 손상 정보가 충분하지 않은 경우 재 촬영 요청을 설명하기 위한 도면이다.
도 52는 일 실시예에 따른 영상 데이터가 특정 시점에서 카메라 모듈에 의해 촬영되는 것을 설명하기 위한 도면이다.
도 53은 카메라 모듈로 차량을 촬영하는 경우 대상 차량의 정보에 기초하여 제공되는 촬영 가이드를 설명하기 위한 도면이다.
도 54는 카메라 모듈로 차량을 촬영하는 경우 제공되는 촬영 맵을 설명하기 위한 도면이다.
도 55는 일 실시예에 따른 단말기에서 차량 정보 및/또는 보조 정보를 출력하는 화면을 설명하기 위한 도면이다.
도 56은 복수의 공유 차량 이용자가 시간 순서에 따라 공유 차량을 이용하고 이용을 종료하는 과정을 개략적으로 표현한 도면이다.
도 57은 공유 차량 이용자가 공유 차량 이용 후 차량 외관을 촬영하고 추가 손상 정보를 확인하는 차량 반납 프로세스의 설명을 위한 도면이다.
도 58은 공유 차량 이용자가 공유 차량 이용 전 공유 차량의 기존 손상 정보에 동의 여부를 표시하고 동의하지 않을 시 차량 외관을 촬영하는 차량 이용 프로세스의 설명을 위한 도면이다.
도 59는 공유 차량 이용자가 공유 차량의 기존 손상 정보에 동의하지 않는 경우 공유 차량 외관을 재 촬영하는 프로세스를 설명하기 위한 도면이다.
1 is a diagram for describing a vehicle management method according to an exemplary embodiment.
2 is a diagram for describing a vehicle image according to an exemplary embodiment.
3 is a diagram for illustrating image data according to an embodiment.
4 is a diagram illustrating image data according to an embodiment.
5 is a diagram illustrating image data according to another embodiment.
6 is a diagram illustrating image data according to an embodiment.
7 is a diagram for explaining noise removal processing.
8 is a diagram for illustrating noise removal processing using a plurality of images.
9 is a diagram for illustrating noise removal processing using a plurality of images.
10 is a diagram for explaining a neural network model for acquiring vehicle information according to an embodiment.
11 is a diagram for explaining a neural network model for acquiring vehicle information according to an embodiment.
12 is a diagram for explaining a neural network model for acquiring vehicle information according to an embodiment.
13 is a diagram illustrating a neural network model according to an embodiment.
14 is a diagram for describing part area information according to an exemplary embodiment.
15 is a diagram for describing a vehicle image and part information.
16 is a diagram for describing a vehicle image and part information.
17 is a diagram illustrating parts learning data according to an embodiment.
18 is a diagram illustrating parts learning data according to another embodiment.
19 is a view for explaining damage information according to an embodiment.
20 is a diagram for explaining damaged area information.
21 is a diagram for illustrating impairment learning data.
22 is a diagram for explaining a device for acquiring part-damage information.
23 is a diagram for explaining acquisition of vehicle information according to an exemplary embodiment.
24 is a diagram for explaining a device for acquiring part-damage information.
25 is a diagram for explaining a device for acquiring part-damage information.
26 is a view for explaining new damage information according to an embodiment.
27 is a view for explaining damage history management.
28 is a diagram for explaining an output screen according to an exemplary embodiment.
29 is a view for explaining the display of damaged area information according to an embodiment.
30 is a diagram for describing a vehicle management assistance method according to an exemplary embodiment.
31 is a view for explaining a vehicle damage management method according to an embodiment.
32 is a view for explaining a vehicle damage management method according to an embodiment.
33 is a view for explaining a vehicle damage management method according to an embodiment.
34 is a diagram for explaining the configuration of an on-site vehicle management system.
35 is a diagram for explaining a series of steps performed by the on-site vehicle management process.
36 is a diagram for explaining a step of acquiring vehicle data required for vehicle management in an on-site vehicle management process.
37 is a diagram for explaining that image data is captured by the camera module at a specific point in time when image data is sensed by a sensing means according to an embodiment.
38 is a diagram for explaining that image data is captured by a camera module at a specific point in time when image data is sensed by a sensor, according to another embodiment.
FIG. 39 is a diagram for explaining that image data is captured by a camera module at a specific point in time when image data is sensed by a sensor, according to another embodiment.
40 is a view for explaining that image data is captured by the camera module at a time within a predetermined range from a time when a circuit breaker operates according to another embodiment.
41 is a diagram for describing a method of extracting image data from image data according to an exemplary embodiment.
42 is a diagram for illustrating noise removal processing using a plurality of images.
43 is a diagram for illustrating noise removal processing using a plurality of images.
44 is a view for explaining a screen for outputting damage information among the output screens of the management device.
45 is a view for explaining a screen for selecting whether a user or an administrator agrees to damage information among the output screens of the management device.
46 is a view for explaining a screen including detailed information regarding damage information among the output screens of the management device.
47 is a view for explaining an output screen including information about a damage history among the output screens of the management device.
48 is a view for explaining an output screen including information about a damage history among the output screens of the management device.
49 is a diagram for explaining the configuration of a mobile-based vehicle management system.
50 is a diagram for explaining a series of steps performed by the mobile-based vehicle management process.
51 is a diagram for explaining a request for re-photographing when vehicle damage information included in image data is not sufficient, according to an exemplary embodiment.
52 is a diagram for explaining that image data is captured by a camera module at a specific time point according to an embodiment.
53 is a view for explaining a photographing guide provided based on information on a target vehicle when photographing a vehicle with a camera module.
54 is a view for explaining a photographing map provided when photographing a vehicle with a camera module.
55 is a diagram for explaining a screen for outputting vehicle information and/or auxiliary information in a terminal according to an embodiment.
56 is a diagram schematically illustrating a process in which a plurality of shared vehicle users use the shared vehicle and end the use according to time sequence.
57 is a diagram for explaining a vehicle return process in which a shared vehicle user takes a picture of the vehicle exterior and checks additional damage information after using the shared vehicle.
58 is a diagram for explaining a vehicle use process in which a shared vehicle user displays whether or not to agree to the existing damage information of the shared vehicle before using the shared vehicle, and takes a picture of the exterior of the vehicle when the user does not agree.
59 is a view for explaining a process of re-photographing the appearance of the shared vehicle when the shared vehicle user does not agree with the existing damage information of the shared vehicle.

본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. The above-mentioned objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. However, since the present invention may have various changes and may have various embodiments, specific embodiments will be exemplified in the drawings and described in detail below.

도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장된 것이며, 또한, 구성요소(element) 또는 층이 다른 구성요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성요소 또는 층의 바로 위뿐만 아니라 중간에 다른 층 또는 다른 구성요소를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조 부호를 사용하여 설명한다.In the drawings, the thicknesses of layers and regions are exaggerated for clarity, and an element or layer is also referred to as “on” or “on” another component or layer. It includes all cases where another layer or other component is interposed in the middle as well as directly on top of another component or layer. Throughout the specification, like reference numerals refer to like elements in principle. In addition, components having the same function within the scope of the same idea shown in the drawings of each embodiment will be described using the same reference numerals.

본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별 기호에 불과하다.If it is determined that a detailed description of a known function or configuration related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, numbers (eg, first, second, etc.) used in the description of the present specification are merely identification symbols for distinguishing one component from other components.

또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함 만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. In addition, the suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

일 예에 따르면, 차량 이미지에 기초하여 차량 외부와 관련된 차량 정보를 획득하는 차량 관리 보조 장치에 있어서, 상기 차량의 외부를 촬영하여 획득된 상기 차량 이미지를 획득하는 이미지 획득부; 상기 차량의 특성과 관련된 추가 정보를 획득하는 추가 정보 획득부; 및 상기 차량 이미지에 기초하여 상기 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 상기 차량 정보를 획득하는 처리부; 를 포함하되, 상기 신경망 모델은 상기 차량 이미지에 기초하여 제1 특징 세트를 획득하도록 학습되고 적어도 하나의 합성곱 신경망 레이어를 포함하는 제1 부분 및 상기 제1 특징 세트와 상기 추가 정보에 기초하여 제2 특징 세트를 획득하도록 학습되는 제2 부분을 포함하고, 상기 처리부는 상기 이미지 획득부를 통하여 대상 차량의 외부를 촬영하여 획득된 대상 차량 이미지를 획득하고, 상기 추가 정보 획득부를 통하여 상기 대상 차량의 특성과 관련된 대상 추가 정보를 획득하고, 상기 대상 차량 이미지에 기초하여 상기 신경망 모델을 이용하여 상기 대상에 대한 대상 차량 정보를 획득하는,차량 관리 보조 장치를 제공할 수 있다.According to an example, there is provided a vehicle management assistance apparatus for obtaining vehicle information related to the outside of a vehicle based on a vehicle image, comprising: an image obtaining unit which obtains the vehicle image obtained by photographing the outside of the vehicle; an additional information acquisition unit configured to acquire additional information related to the characteristics of the vehicle; and a processing unit configured to obtain the vehicle information using a neural network model trained to obtain the vehicle information based on the vehicle image. wherein the neural network model is trained to obtain a first feature set based on the vehicle image and a first part comprising at least one convolutional neural network layer and a first part based on the first feature set and the additional information. a second part learned to acquire two feature sets, wherein the processing unit acquires a target vehicle image obtained by photographing the exterior of the target vehicle through the image acquisition unit, and the characteristics of the target vehicle through the additional information acquisition unit A vehicle management assistance apparatus may be provided that obtains additional target information related to , and acquires target vehicle information on the target using the neural network model based on the target vehicle image.

상기 신경망 모델은 상기 차량 외부의 손상과 관련된 손상 정보를 획득하도록 학습되고, 상기 제2 특징 세트는 상기 차량의 상기 외부의 손상 여부와 관련된 적어도 하나의 특징 값을 포함할 수 있다.The neural network model may be trained to obtain damage information related to damage outside the vehicle, and the second feature set may include at least one feature value related to whether or not the vehicle is damaged outside.

상기 신경망 모델은 상기 차량의 외부를 구성하는 부품과 관련된 부품 정보를 획득하도록 학습되고, 상기 제2 특징 세트는 상기 차량의 외부를 구성하는 부품과 관련된 적어도 하나의 특징 값을 포함할 수 있다.The neural network model may be trained to acquire part information related to parts constituting the exterior of the vehicle, and the second feature set may include at least one feature value related to parts constituting the exterior of the vehicle.

차량의 특성과 관련된 상기 추가 정보는, 상기 차량의 제조사, 색상 정보, 연식, 차종 중 적어도 하나에 기초하여 결정될 수 있다.The additional information related to the characteristics of the vehicle may be determined based on at least one of a manufacturer, color information, year, and vehicle model of the vehicle.

상기 차량의 특성과 관련된 상기 추가 정보는, 상기 차량의 내부를 촬영하여 획득된 상기 차량 내부 이미지에 기초하여 획득될 수 있다.The additional information related to the characteristic of the vehicle may be obtained based on the vehicle interior image obtained by photographing the interior of the vehicle.

상기 제2 부분은 상기 제1 특징 세트 및 상기 추가 정보에 기초하여, 상기 차량의 외부를 구성하는 적어도 하나의 부품과 관련된 상기 제2 특징 세트를 획득하되, 상기 제2 특징 세트는 상기 제1 부품이 분포하는 영역을 나타내는 제1 영역 특징 세트 및 상기 제2 부품이 분포하는 영역을 나타내는 제2 영역 특징 세트를 포함할 수 있다.the second part acquires the second feature set related to at least one part constituting the exterior of the vehicle based on the first feature set and the additional information, wherein the second feature set comprises the first part a first set of domain features representing the area of distribution and a second set of domain features representing areas over which the second part is distributed.

상기 제2 부분은 상기 제1 특징 세트 및 상기 추가 정보에 기초하여, 상기 대상 차량의 외부에 위치하는 적어도 하나의 손상 영역과 관련된 상기 제2 특징 세트를 획득하되, 상기 제2 특징 세트는 상기 손상 영역의 위치를 나타내는 손상 영역 특징 세트를 포함할 수 있다.the second part obtains, based on the first set of features and the additional information, the second set of features associated with at least one damaged area located outside of the target vehicle, wherein the second set of features includes: It may include a set of damaged area features indicating the location of the area.

일 예에 따르면, 차량 이미지를 획득하는 이미지 획득부, 차량의 특성과 관련된 추가 정보를 획득하는 추가 정보 획득부 및 상기 차량 이미지와 상기 추가 정보에 기초하여 차량 정보를 획득하는 처리부를 포함하는 차량 관리 보조 장치를 이용하여, 상기 차량 이미지에 기초하여 상기 차량의 외부와 관련된 정보를 획득하는 차량 관리 보조 방법에 있어서, 상기 이미지 획득부를 통하여 대상 차량에 대한 대상 차량 이미지를 획득하는 단계; 상기 추가 정보 획득부를 통하여 상기 대상 차량의 특성과 관련된 대상 추가 정보를 획득하는 단계; 및 상기 처리부가 상기 대상 추가 정보 및 상기 대상 차량 이미지에 기초하여 상기 대상 차량에 대한 대상 차량 정보를 획득하는 단계; 를 포함하되, 상기 대상 차량에 대한 상기 차량 정보를 획득하는 단계는, 상기 대상 차량 이미지에 기초하여, 상기 차량 이미지에 기초하여 상기 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여, 상기 대상 차량에 대한 상기 대상 차량 정보를 획득하는 것을 더 포함하고, 상기 신경망 모델은 상기 차량 이미지에 기초하여 제1 특징 세트를 획득하도록 학습되고 적어도 하나의 합성곱 신경망 레이어를 포함하는 제1 부분 및 상기 제1 특징 세트와 상기 추가 정보에 기초하여 제2 특징 세트를 획득하도록 학습되는 제2 부분을 포함하는, 차량 관리 보조 방법을 제공할 수 있다.According to an example, vehicle management comprising an image acquisition unit acquiring a vehicle image, an additional information acquiring unit acquiring additional information related to characteristics of a vehicle, and a processing unit acquiring vehicle information based on the vehicle image and the additional information A vehicle management assistance method for acquiring information related to the exterior of the vehicle based on the vehicle image by using an auxiliary device, the method comprising: acquiring a target vehicle image of the target vehicle through the image acquisition unit; acquiring additional target information related to the characteristics of the target vehicle through the additional information acquiring unit; and obtaining, by the processing unit, target vehicle information on the target vehicle based on the target additional information and the target vehicle image; Including, wherein the obtaining of the vehicle information on the target vehicle includes: Based on the target vehicle image, using a neural network model trained to obtain the vehicle information based on the vehicle image, to the target vehicle and obtaining the target vehicle information for the first part and the first feature, wherein the neural network model is trained to obtain a first feature set based on the vehicle image and includes at least one convolutional neural network layer and a second part learned to obtain a second feature set based on the set and the additional information.

상기 신경망 모델은 상기 차량 외부의 손상과 관련된 손상 정보를 획득하도록 학습되고, 상기 제2 특징 세트는 상기 차량의 상기 외부의 손상 여부와 관련된 적어도 하나의 특징 값을 포함할 수 있다.The neural network model may be trained to obtain damage information related to damage outside the vehicle, and the second feature set may include at least one feature value related to whether or not the vehicle is damaged outside.

상기 신경망 모델은 상기 차량의 외부를 구성하는 부품과 관련된 부품 정보를 획득하도록 학습되고, 상기 제2 특징 세트는 상기 차량의 외부를 구성하는 부품과 관련된 적어도 하나의 특징 값을 포함할 수 있다.The neural network model may be trained to acquire part information related to parts constituting the exterior of the vehicle, and the second feature set may include at least one feature value related to parts constituting the exterior of the vehicle.

상기 차량의 특성과 관련된 추가 정보는, 상기 차량의 제조사, 색상 정보, 연식, 차종 중 적어도 하나에 기초하여 결정될 수 있다.The additional information related to the characteristics of the vehicle may be determined based on at least one of a manufacturer, color information, year, and vehicle model of the vehicle.

상기 차량의 특성과 관련된 추가 정보는, 상기 차량의 내부를 촬영하여 획득된 상기 차량 내부 이미지에 기초하여 획득될 수 있다.The additional information related to the characteristic of the vehicle may be obtained based on the vehicle interior image obtained by photographing the interior of the vehicle.

상기 제2 부분은 상기 제1 특징 세트 및 상기 추가 정보에 기초하여, 상기 대상 차량의 외부를 구성하는 적어도 하나의 부품과 관련된 상기 제2 특징 세트를 획득하되, 상기 제2 특징 세트는 상기 제1 부품이 분포하는 영역을 나타내는 제1 영역 특징 세트 및 상기 제2 부품이 분포하는 영역을 나타내는 제2 영역 특징 세트를 포함할 수 있다.The second part acquires the second feature set related to at least one part constituting the exterior of the target vehicle, wherein the second feature set is the first feature set based on the first feature set and the additional information and a first set of region features representative of an area in which the part is distributed and a second set of region features representative of an region in which the second part is distributed.

상기 제2 부분은 상기 제1 특징 세트 및 상기 추가 정보에 기초하여, 상기 대상 차량의 외부에 위치하는 적어도 하나의 손상 영역과 관련된 상기 제2 특징 세트를 획득하되, 상기 제2 특징 세트는 상기 손상 영역의 위치를 나타내는 손상 영역 특징 세트를 포함할 수 있다.the second part obtains, based on the first set of features and the additional information, the second set of features associated with at least one damaged area located outside of the target vehicle, wherein the second set of features includes: It may include a set of damaged area features indicating the location of the area.

상기 차량 관리 보조 방법을 수행하는 프로그램을 저장하는 컴퓨터 판독 가능한 기록 매체를 제공할 수 있다.A computer-readable recording medium storing a program for performing the vehicle management assistance method may be provided.

일 예에 따르면, 손상 이미지를 출력하는 출력부; 및 카메라에 의해 제1 시점에 촬영된 제1 이미지와 상기 카메라에 의해 제2 시점에 촬영된 제2 이미지를 기초로 상기 손상 이미지를 출력하기 위해 상기 출력부를 제어하는 제어부를 포함하되, 상기 제1 이미지는 차량의 외관에 관한 제1 영역이 촬영되되, 상기 제1 영역의 내부에는 적어도 하나 이상의 이상 영역인 고정 영역 및 가변 영역이 포함되어 있고, 상기 제2 이미지는 차량의 외관에 관한 제2 영역이 촬영되되, 상기 제2 영역의 내부에는 상기 고정 영역 중 적어도 일부 영역 및 상기 가변 영역 중 적어도 일부 영역이 포함되어 있고, 상기 손상 이미지는 상기 제1 이미지 및 상기 제2 이미지로부터 상기 가변 영역이 제거된 이미지이되, 상기 고정 영역은 차량의 손상에 대한 영역이고, 상기 가변 영역은 차량의 손상에 대한 영역이 아닌 영역이고, 상기 제1 시점과 제2 시점은 서로 다른 시점인 차량 관리 장치를 제공할 수 있다.According to an example, an output unit for outputting a damaged image; and a control unit controlling the output unit to output the damaged image based on a first image photographed at a first time point by the camera and a second image photographed at a second time point by the camera, wherein the first In the image, a first area related to the exterior of the vehicle is photographed, and the first area includes at least one or more fixed areas and variable areas, which are at least one area, and the second image is a second area related to the exterior of the vehicle. At least a partial region of the fixed region and at least a partial region of the variable region are included in the inside of the second region, and the variable region is removed from the first image and the second image in the damaged image. image, wherein the fixed area is an area for damage to the vehicle, the variable area is an area not for damage to the vehicle, and the first time point and the second time point are different points of view. can

상기 제1 이미지 및 제2 이미지는 차량과 관련된 다수의 특징점 중 제1 특징점을 포함하고, 상기 제1 이미지의 상기 제1 특징점은 제1 좌표를 가지고, 상기 제2 이미지의 상기 제1 특징점은 제2 좌표를 가지며, 상기 제1 이미지에 포함된 상기 고정 영역을 대표하는 좌표는 제3 좌표이며, 상기 제2 이미지에 포함된 상기 고정 영역을 대표하는 좌표는 제4 좌표이며, 상기 제1 좌표와 제3 좌표 사이의 제1 거리와 상기 제2 좌표와 상기 제4 좌표 사이의 제2 거리는 서로 대응되는 차량 관리 장치를 제공할 수 있다.The first image and the second image include a first feature point among a plurality of feature points related to a vehicle, the first feature point of the first image has a first coordinate, and the first feature point of the second image is a first 2 coordinates, the coordinates representing the fixed region included in the first image are third coordinates, the coordinates representing the fixed region included in the second image are fourth coordinates, and the first coordinate and The first distance between the third coordinates and the second distance between the second coordinates and the fourth coordinates may correspond to each other.

상기 제1 이미지에 포함된 상기 가변 영역을 대표하는 좌표는 제5 좌표이고, 상기 제2 이미지에 포함된 상기 가변 영역을 대표하는 좌표는 제6 좌표이며, 상기 제1 좌표와 제5 좌표 사이의 제3 거리는 상기 제2 좌표와 상기 제6 좌표 사이의 제4 거리와 다른 차량 관리 장치를 제공할 수 있다.The coordinates representing the variable region included in the first image are fifth coordinates, the coordinates representing the variable region included in the second image are the sixth coordinates, and the coordinates between the first coordinates and the fifth coordinates are The third distance may provide a vehicle management device different from a fourth distance between the second coordinate and the sixth coordinate.

상기 제1 거리와 제2 거리의 차이는 상기 제3 거리와 상기 제4 거리의 차이보다 작은 차량 관리장치를 제공할 수 있다.A difference between the first distance and the second distance may be smaller than a difference between the third distance and the fourth distance.

상기 제어부는 상기 이상 영역에서 고정 영역과 가변 영역을 분류하여, 상기 가변 영역을 제거한 상기 손상 이미지를 출력하고, 상기 제1 이미지 및 제2 이미지는 차량과 관련된 다수의 특징점 중 제1 특징점을 포함하고, 상기 제1 이미지의 상기 제1 특징점은 제1 좌표를 가지고, 상기 제2 이미지의 상기 제1 특징점은 제2 좌표를 가지고, 상기 제1 이미지의 이상영역을 대표하는 좌표는 제7 좌표이고, 상기 제2 이미지의 이상영역을 대표하는 좌표는 제8 좌표이며, 상기 제어부는 상기 제1 좌표와 상기 제7 좌표 사이의 제5 거리와 상기 제2 좌표와 상기 제8 좌표 사이의 제6 거리에 기초하여 상기 고정 영역과 가변영역을 분류하는 차량 관리 장치를 제공할 수 있다.The control unit classifies a fixed region and a variable region in the abnormal region, outputs the damaged image from which the variable region is removed, and the first image and the second image include a first feature point among a plurality of feature points related to the vehicle, , the first feature point of the first image has a first coordinate, the first feature point of the second image has a second coordinate, and the coordinate representing the abnormal region of the first image is a seventh coordinate, The coordinates representing the abnormal region of the second image are eighth coordinates, and the controller is configured to measure a fifth distance between the first coordinate and the seventh coordinate and a sixth distance between the second coordinate and the eighth coordinate. It is possible to provide a vehicle management apparatus for classifying the fixed region and the variable region based on the above.

상기 제어부는 상기 제5 거리와 제6 거리의 차이가 미리 정해진 값 이상인 경우 가변영역으로 판단하고, 상기 제5 거리와 제6 거리의 차이가 미리 정해진 값 미만인 경우 고정 영역으로 판단하는 차량 관리 장치를 제공할 수 있다.When the difference between the fifth distance and the sixth distance is equal to or greater than a predetermined value, the control unit determines as a variable region, and when the difference between the fifth distance and the sixth distance is less than a predetermined value, the vehicle management apparatus determines as a fixed region. can provide

상기 가변 영역은 차량의 외부의 배경 영역인 차량 관리장치를 제공할 수 있다.The variable region may provide a vehicle management device that is a background region outside the vehicle.

상기 가변 영역은 외부 광에 의해 외부 물체가 반사되어 이미지에 포함된 영역인 차량 관리 장치를 제공할 수 있다.The variable region may provide a vehicle management apparatus that is a region included in an image by reflecting an external object by external light.

상기 손상 이미지는 제1 이미지에 상기 가변 영역이 제거된 이미지이고, 상기 제1 이미지는 상기 제2 이미지에 비해 차량이 이미지의 중앙영역에 가깝게 위치하는 이미지인 차량 관리 장치를 제공할 수 있다.The damaged image may be an image in which the variable region is removed from a first image, and the first image may be an image in which the vehicle is located closer to a central region of the image compared to the second image.

센서부로부터 신호를 수신하는 통신부를 더 포함하고, 상기 센서부는 제1 센서와 제2 센서를 포함하고, 상기 제1 센서는 차량의 진입 방향과 가까운 영역에 위치하고, 상기 제2 센서는 차량의 진입 방향과 먼 영역에 위치하는 차량 관리 장치를 제공할 수 있다.Further comprising a communication unit for receiving a signal from the sensor unit, wherein the sensor unit includes a first sensor and a second sensor, the first sensor is located in an area close to the vehicle's entrance direction, the second sensor is the vehicle's entrance It is possible to provide a vehicle management device located in an area remote from the direction.

상기 제1 시점과 상기 제2 시점은 시작시점과 종료시점 사이의 유효 기간 내의 시점이고, 상기 시작시점은 상기 통신부가 제1 센서로부터 제1 신호를 수신한 시점이고, 상기 종료시점은 상기 통신부가 제2 센서로부터 제2 신호를 수신한 시점이며. 상기 제1 이미지와 제2 이미지는 상기 유효 기간 내에 획득된 다수의 이미지에 포함되는 차량 관리 장치를 제공할 수 있다.The first time point and the second time point are time points within an effective period between the start time point and the end time point, the start time point is a time point when the communication unit receives the first signal from the first sensor, and the end time point is the time point when the communication unit receives the first signal from the first sensor It is the time when the second signal is received from the second sensor. The first image and the second image may provide a vehicle management device included in a plurality of images acquired within the validity period.

상기 시작 시점은 상기 제1 센서에 의해 차량이 감지된 다음 차량의 감지가 종료된 시점이고, 상기 종료 시점은 상기 제2 센서에 의해 차량이 최초로 감지된 시점인 차량 관리 장치를 제공할 수 있다.The start time may be a time when the vehicle is detected by the first sensor and then the detection of the vehicle is finished, and the end time may be a time when the vehicle is first detected by the second sensor.

상기 시작 시점은 상기 제1 센서에 의해 차량이 최초로 감지된 시점이고, 상기 종료 시점은 상기 제2 센서에 의해 차량이 감지된 다음 감지가 종료된 시점인 차량 관리 장치를 제공할 수 있다.The start time may be a time when the vehicle is first detected by the first sensor, and the end time may be a time when the detection is terminated after the vehicle is detected by the second sensor.

차단기로부터 개방 정보를 수신하는 통신부를 더 포함하고, 상기 제1 시점과 제2 시점은 시작시점과 종료시점 사이의 유효 기간 내의 시점이고, 상기 차단기가 개방된 시점은 종료 시점이고, 상기 차단기가 개방된 시점보다 미리 정의된 만큼의 이전의 시점은 시작 시점이며, 상기 제1 이미지와 제2 이미지는 상기 유효 기간 내에 획득된 다수의 이미지에 포함되는 차량 관리 장치를 제공할 수 있다.Further comprising a communication unit for receiving the open information from the breaker, wherein the first time point and the second time point are time points within the effective period between the start time and the end time, the time when the breaker is opened is the end time, the breaker is open It is possible to provide a vehicle management apparatus that is included in a plurality of images acquired within the validity period, wherein a predetermined time point before the predetermined time point is a start time point.

상기 카메라는 제1 카메라 및 제2 카메라를 포함하고, 상기 제1 카메라는 상기 제1 센서와 대응되는 영역에 위치하여, 차량의 일측면을 촬영하고, 상기 제2 카메라는 상기 제2 센서와 대응되는 영역에 위치하여 차량의 타측면을 촬영하는 차량 관리 장치를 제공할 수 있다.The camera includes a first camera and a second camera, wherein the first camera is located in an area corresponding to the first sensor to photograph one side of the vehicle, and the second camera corresponds to the second sensor It is possible to provide a vehicle management device that is located in the area where the vehicle is used and captures the other side of the vehicle.

상기 제1 이미지 및 제2 이미지는 차량과 관련된 다수의 특징점 중 제1 특징점을 포함하고, 상기 제1 시점에 상기 카메라는 상기 제1 특징점과 제1 거리를 가지는 위치에 위치하고, 상기 제2 시점에 상기 카메라는 상기 제1 특징점과 제2 거리를 가지는 위치에 위치하고, 상기 제1 거리와 제2 거리는 상이한 차량 관리 장치를 제공할 수 있다.The first image and the second image include a first feature point among a plurality of feature points related to a vehicle, and at the first time point, the camera is located at a position having a first distance from the first feature point, and at the second time point The camera may be located at a position having a second distance from the first feature point, and the first distance and the second distance may be different from each other.

상기 차량 관리 장치는 모바일 디바이스이고, 상기 카메라는 상기 모바일 디바이스에 내장된 카메라인 차량 관리 장치를 제공할 수 있다.The vehicle management apparatus may be a mobile device, and the camera may be a camera built into the mobile device.

상기 카메라는 시작 시점과 종료 시점 사이의 동영상을 촬영하고, 상기 제1 이미지와 상기 제2 이미지는 상기 동영상으로부터 추출된 이미지인 차량 관리 장치를 제공할 수 있다.The camera may capture a moving picture between a start time and an end time, and the first image and the second image may be images extracted from the moving image.

일 예에 따르면, 차량 이미지에 기초하여 차량 외부의 손상과 관련된 정보를 획득하는 차량 손상 관리 장치에 있어서, 대상 차량의 외관을 촬영하여 획득된 적어도 하나의 대상 차량 이미지를 획득하는 이미지 획득부; 및 상기 적어도 하나의 대상 차량 이미지에 기초하여 상기 대상 차량의 외관 손상과 관련된 손상 정보를 획득하는 처리부; 를 포함하되, 상기 적어도 하나의 대상 차량 이미지는 상기 대상 차량의 일면을 촬영하여 획득된 제1 대상 차량 이미지를 포함하고, 상기 제1 대상 차량 이미지는, 상기 대상 차량에 대응되는 제1 영역 및 상기 대상 차량의 식별 정보가 위치되는 제2 영역을 포함하고- 상기 제1 영역은 상기 제2 영역보다 큼-, 상기 처리부는, 상기 제2 영역에 기초하여 결정된 상기 대상 차량의 차종 정보 및 상기 차종 정보와 상기 제1 대상 차량 이미지에 기초하여 획득되고 상기 제1 영역과 관련된 상기 손상 정보를 획득하는 차량 손상 관리 장치를 제공할 수 있다.According to an example, there is provided a vehicle damage management apparatus for acquiring information related to damage to the outside of a vehicle based on a vehicle image, comprising: an image acquisition unit configured to acquire at least one target vehicle image obtained by photographing an exterior of a target vehicle; and a processing unit configured to obtain damage information related to exterior damage of the target vehicle based on the at least one target vehicle image. The at least one target vehicle image includes a first target vehicle image obtained by photographing one surface of the target vehicle, and the first target vehicle image includes a first area corresponding to the target vehicle and the and a second area in which identification information of a target vehicle is located, wherein the first area is larger than the second area, wherein the processing unit includes the vehicle model information and the vehicle model information of the target vehicle determined based on the second area and a vehicle damage management apparatus that is obtained based on the first target vehicle image and obtains the damage information related to the first area.

상기 손상 정보를 출력하는 출력부; 를 더 포함하되, 상기 출력부는 상기 대상 차량의 상기 손상 정보를 출력하는 차량 손상 관리 장치를 제공할 수 있다.an output unit for outputting the damage information; Further comprising, the output unit may provide a vehicle damage management apparatus for outputting the damage information of the target vehicle.

상기 손상 정보는 상기 대상 차량의 손상에 대응되는 손상 영역 정보를 포함하고, 상기 출력부는 상기 대상 차량 이미지 및 상기 대상 차량 이미지에 중첩되는 상기 손상 영역 정보를 출력하는 차량 손상 관리 장치를 제공할 수 있다.The damage information may include damage area information corresponding to damage to the target vehicle, and the output unit may provide a vehicle damage management apparatus that outputs the target vehicle image and the damage area information superimposed on the target vehicle image .

사용자 입력을 획득하는 입력부;를 더 포함하고, 상기 처리부는, 상기 손상 정보의 출력에 응답하여, 상기 입력부를 통하여 상기 손상 정보에 대한 사용자 응답을 획득하는, 차량 손상 관리 장치를 제공할 수 있다.An input unit for obtaining a user input; further comprising, wherein the processing unit, in response to the output of the damage information, obtains a user response to the damage information through the input unit, it is possible to provide a vehicle damage management apparatus.

상기 처리부는 상기 제2 영역에 기초해서 결정되는 상기 대상 차량의 식별 정보를 획득하는, 차량 손상 관리 장치를 제공할 수 있다.The processing unit may provide an apparatus for managing vehicle damage to obtain identification information of the target vehicle determined based on the second area.

상기 처리부는 상기 제2 영역에 기초해서 결정되는 상기 대상 차량의 식별 정보를 획득하고, 상기 대상 차량의 식별 정보에 대응되는 상기 대상 차량의 손상 이력을 획득하고, 상기 손상 이력은, 상기 제1 대상 차량 이미지보다 먼저 촬영된 제2 대상 차량 이미지에 기초하여 획득되고 상기 대상 차량의 상기 외관 손상과 관련된 기존 손상 정보를 포함하는, 차량 손상 관리 장치를 제공할 수 있다.The processing unit obtains identification information of the target vehicle determined based on the second region, obtains a damage history of the target vehicle corresponding to the identification information of the target vehicle, and the damage history includes: It is possible to provide an apparatus for managing vehicle damage, which is obtained based on a second target vehicle image captured before the vehicle image and includes existing damage information related to the exterior damage of the target vehicle.

상기 처리부는 상기 기존 손상 정보 및 상기 손상 정보에 기초하여, 상기 대상 차량의 상기 제1 대상 차량 이미지가 촬영된 시점에 대응되는 신규 손상 정보를 획득하는, 차량 손상 관리 장치를 제공할 수 있다.The processing unit may provide a vehicle damage management apparatus that acquires new damage information corresponding to a time point at which the first target vehicle image of the target vehicle is captured, based on the existing damage information and the damage information.

상기 손상 정보는, 상기 제1 대상 차량 이미지에 포함되는 상기 제2 영역과 관련된 제1 손상 정보 및 상기 제1 영역에 기초하여 획득되는 상기 대상 차량의 식별 정보와 연관하여 미리 저장된 제2 손상 정보에 기초하여 생성되는, 차량 손상 관리 장치를 제공할 수 있다.The damage information may include first damage information related to the second area included in the first target vehicle image and second damage information stored in advance in association with identification information of the target vehicle obtained based on the first area. It is possible to provide a vehicle damage management device, which is generated based on the

상기 적어도 하나의 대상 차량 이미지는 상기 대상 차량의 상기 일면과 다른 타면을 촬영하여 획득된 제2 대상 차량 이미지를 더 포함하고, 상기 제2 대상 차량 이미지는 상기 대상 차량에 대응되는 제3 영역을 포함하고, 상기 처리부는 상기 제1 대상 차량 이미지의 상기 제2 영역에 기초하여 결정된 상기 대상 차량의 차종 정보 및 상기 차종 정보와 상기 제2 대상 차량 이미지에 기초하여 획득되고 상기 제3 영역과 관련된 상기 손상 정보를 획득하는, 차량 손상 관리 장치를 제공할 수 있다.The at least one target vehicle image further includes a second target vehicle image obtained by photographing another surface different from the one surface of the target vehicle, wherein the second target vehicle image includes a third area corresponding to the target vehicle and the processing unit vehicle model information of the target vehicle determined based on the second area of the first target vehicle image and the damage related to the third area obtained based on the vehicle model information and the second target vehicle image It is possible to provide a vehicle damage management apparatus for obtaining information.

상기 처리부는, 상기 제1 대상 영역 이미지 및 상기 차종 정보에 기초하여, 상기 제1 영역에 포함되고 상기 대상 차량의 제1 부품에 대응되는 제1 부품 영역 및 상기 제1 영역에 포함되고 상기 대상 차량의 제2 부품에 대응되는 제2 부품 영역을 포함하는 부품 정보를 획득하는, 차량 손상 관리 장치를 제공할 수 있다.The processing unit may be configured to include, based on the first target region image and the vehicle model information, a first part region included in the first region and corresponding to a first part of the target vehicle and a first part region included in the first region and the target vehicle It is possible to provide an apparatus for managing vehicle damage that obtains parts information including a second part area corresponding to the second part of the .

상기 처리부는, 상기 손상 정보 및 상기 부품 정보에 기초하여, 상기 손상과 대응되는 부품 영역 정보를 획득하는, 차량 손상 관리 장치를 제공할 수 있다.The processing unit, based on the damage information and the parts information, may provide a vehicle damage management apparatus for acquiring parts area information corresponding to the damage.

상기 처리부는 상기 제1 대상 차량 이미지로부터 상기 대상 차량의 번호판에 대응되는 상기 제2 영역을 획득하고, 상기 번호판에 대응되는 상기 제2 영역에 기초하여 상기 차종 정보를 획득하는 차량 손상 관리 방법을 제공할 수 있다.The processing unit obtains the second area corresponding to the license plate of the target vehicle from the first target vehicle image, and provides a vehicle damage management method for obtaining the vehicle model information based on the second area corresponding to the license plate can do.

상기 처리부는, 상기 대상 차량 이미지에 기초하여 상기 손상 정보를 획득하도록 학습된 신경망 모델을 이용하여, 상기 대상 차량 이미지에 기초하여 상기 손상 정보를 획득하는 차량 손상 관리 방법을 제공할 수 있다.The processing unit may provide a vehicle damage management method for obtaining the damage information based on the target vehicle image by using a neural network model trained to obtain the damage information based on the target vehicle image.

상기 손상 정보는 상기 제1 영역 중 상기 차량 외부의 손상과 대응되는 영역을 나타내는 영역 정보를 포함하는 차량 손상 관리 장치를 제공할 수 있다.The damage information may provide the vehicle damage management apparatus including area information indicating an area corresponding to the damage outside the vehicle among the first area.

일 예에 따르면, 차량 이미지를 획득하는 이미지 획득부 및 손상 정보를 획득하는 처리부를 포함하는 장치를 이용한 차량 손상 관리 방법에 있어서, 상기 이미지 획득부를 통하여, 대상 차량의 외관을 촬영하여 획득된 적어도 하나의 대상 차량 이미지를 획득하는 단계- 상기 적어도 하나의 대상 차량 이미지는 상기 대상 차량의 일면을 촬영하여 획득된 제1 대상 차량 이미지를 포함하고, 상기 제1 대상 차량 이미지는, 상기 대상 차량에 대응되는 제1 영역 및 상기 대상 차량의 식별 정보가 위치되는 제2 영역을 포함함-; 상기 처리부를 통하여, 상기 제2 영역에 기초하여 결정된 상기 대상 차량의 차종 정보를 획득하는 단계; 및 상기 처리부를 통하여, 차종 정보와 상기 제1 대상 차량 이미지에 기초하여 상기 대상 차량의 외관 손상과 관련된 손상 정보를 획득하는 단계; 를 포함하는 차량 손상 관리 방법을 제공할 수 있다.According to an example, in a vehicle damage management method using an apparatus including an image acquisition unit for acquiring a vehicle image and a processing unit for acquiring damage information, at least one obtained by photographing the exterior of a target vehicle through the image acquisition unit Acquiring a target vehicle image of - The at least one target vehicle image includes a first target vehicle image obtained by photographing one surface of the target vehicle, and the first target vehicle image corresponds to the target vehicle. comprising a first area and a second area in which identification information of the target vehicle is located; obtaining, through the processing unit, vehicle model information of the target vehicle determined based on the second area; and acquiring, through the processing unit, damage information related to exterior damage of the target vehicle based on vehicle model information and the first target vehicle image. It is possible to provide a vehicle damage management method comprising a.

상기 손상 정보를 출력하는 단계; 를 더 포함하되, 상기 손상 정보는 상기 대상 차량의 손상에 대응되는 손상 영역 정보를 포함하고, 상기 손상 정보를 출력하는 것은 상기 대상 차량 이미지 및 상기 대상 차량 이미지에 중첩되는 상기 손상 영역 정보를 출력하는 것을 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.outputting the damage information; further comprising, wherein the damage information includes damage area information corresponding to damage to the target vehicle, and outputting the damage information includes outputting the damage area information superimposed on the target vehicle image and the target vehicle image It is possible to provide a vehicle damage management method further comprising that.

일 예에 따르면, 상기 처리부를 통하여, 상기 제2 영역에 기초해서 결정되는 상기 대상 차량의 식별 정보를 획득하는 단계; 를 더 포함하는, 차량 손상 관리 방법을 제공할 수 있다.According to an example, the method may include: acquiring, through the processing unit, identification information of the target vehicle determined based on the second area; Further comprising, it is possible to provide a vehicle damage management method.

상기 처리부를 통하여, 상기 대상 차량의 식별 정보에 대응되는 상기 대상 차량의 손상 이력을 획득하는 단계-상기 손상 이력은, 상기 제1 대상 차량 이미지보다 먼저 촬영된 제2 대상 차량 이미지에 기초하여 획득되고 상기 대상 차량의 상기 외관 손상과 관련된 기존 손상 정보를 포함함-;를 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.Obtaining, through the processing unit, a damage history of the target vehicle corresponding to the identification information of the target vehicle - The damage history is obtained based on a second target vehicle image taken before the first target vehicle image, and It is possible to provide a vehicle damage management method further comprising a-; including existing damage information related to the damage to the exterior of the target vehicle.

상기 처리부를 통하여, 상기 기존 손상 정보 및 상기 손상 정보에 기초하여, 상기 대상 차량의 상기 제1 대상 차량 이미지가 촬영된 시점에 대응되는 신규 손상 정보를 획득하는 단계; 를 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.acquiring, through the processing unit, new damage information corresponding to a time point at which the first target vehicle image of the target vehicle is captured, based on the existing damage information and the damage information; It is possible to provide a vehicle damage management method further comprising a.

상기 손상 정보는 상기 제1 영역에 포함되고 상기 대상 차량의 손상에 대응되는 손상 영역정보를 포함하는 차량 손상 관리 방법을 제공할 수 있다.The damage information may be included in the first area and may provide a vehicle damage management method including damage area information corresponding to damage to the target vehicle.

상기 적어도 하나의 대상 차량 이미지는 상기 대상 차량의 상기 일면과 다른 타면을 촬영하여 획득된 제2 대상 차량 이미지를 더 포함하고, 상기 제2 대상 차량 이미지는 상기 대상 차량에 대응되는 제3 영역을 포함하고, 상기 손상 정보를 획득하는 단계는, 상기 제1 대상 차량 이미지의 상기 제2 영역에 기초하여 결정된 상기 대상 차량의 차종 정보 및 상기 차종 정보와 상기 제2 대상 차량 이미지에 기초하여 획득되고 상기 제3 영역과 관련된 상기 손상 정보를 획득하는 것을 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.The at least one target vehicle image further includes a second target vehicle image obtained by photographing another surface different from the one surface of the target vehicle, wherein the second target vehicle image includes a third area corresponding to the target vehicle and obtaining the damage information includes: vehicle model information of the target vehicle determined based on the second region of the first target vehicle image, and obtained based on the vehicle model information and the second target vehicle image, and It is possible to provide a vehicle damage management method further comprising obtaining the damage information related to area 3 .

상기 처리부를 통하여, 상기 제1 대상 영역 이미지 및 상기 차종 정보에 기초하여, 상기 제1 영역에 포함되고 상기 대상 차량의 제1 부품에 대응되는 제1 부품 영역 및 상기 제1 영역에 포함되고 상기 대상 차량의 제2 부품에 대응되는 제2 부품 영역을 포함하는 부품 정보를 획득하는 단계; 를 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.Through the processing unit, based on the image of the first target region and the vehicle model information, a first part region included in the first region and corresponding to a first part of the target vehicle and a first part region included in the first region and the target vehicle obtaining part information including a second part area corresponding to a second part of the vehicle; It is possible to provide a vehicle damage management method further comprising a.

상기 처리부를 통하여, 상기 손상 정보 및 상기 부품 정보에 기초하여, 상기 손상과 대응되는 부품 영역 정보를 획득하는 단계;를 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.Through the processing unit, based on the damage information and the parts information, obtaining part region information corresponding to the damage; may provide a vehicle damage management method further comprising.

상기 처리부를 통하여, 상기 제1 대상 차량 이미지로부터 상기 대상 차량의 번호판에 대응되는 상기 제2 영역을 획득하는 단계; 를 더 포함하고, 상기 차종 정보를 획득하는 단계는 상기 번호판에 대응되는 상기 제2 영역에 기초하여 상기 차종 정보를 획득하는 것을 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.obtaining, by the processing unit, the second area corresponding to the license plate of the target vehicle from the first target vehicle image; The method may further include, wherein the acquiring of the vehicle model information may provide a vehicle damage management method further comprising acquiring the vehicle model information based on the second area corresponding to the license plate.

상기 손상 정보를 획득하는 단계는 상기 대상 차량 이미지에 기초하여 상기 손상 정보를 획득하도록 학습된 신경망 모델을 이용하여, 상기 대상 차량 이미지에 기초하여 상기 손상 정보를 획득하는 것을 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.The obtaining of the damage information includes obtaining the damage information based on the target vehicle image by using a neural network model trained to obtain the damage information based on the target vehicle image. can provide

상기 차량 손상 관리 장치는 사용자 입력을 획득하는 입력부를 더 포함하고, 상기 처리부가, 상기 손상 정보를 출력하는 것에 응답하여, 상기 입력부를 통하여 상기 손상 정보에 대한 사용자 응답을 획득하는 단계; 를 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.The vehicle damage management apparatus further includes an input unit for obtaining a user input, and in response to the processing unit outputting the damage information, obtaining a user response to the damage information through the input unit; It is possible to provide a vehicle damage management method further comprising a.

일 예로, 상기 차량 손상 관리 방법을 수행하는 프로그램을 저장하는 컴퓨터 판독 가능한 기록 매체를 제공할 수 있다.As an example, it is possible to provide a computer-readable recording medium storing a program for performing the vehicle damage management method.

일 예로, 차량의 이미지를 촬영하는 카메라; 사용자로부터 정보를 입력 받는 입력부; 무선신호를 송수신하는 통신부; 기존 손상 정보와 관련된 메시지를 표시하는 디스플레이부; 및 상기 카메라, 통신부 및 디스플레이부를 제어하는 제어부를 포함하되, 상기 사용자는 이전 사용자 및 현재 사용자를 포함하고, 상기 제어부는 상기 기존 손상 정보를 상기 디스플레이부를 통해 상기 현재 사용자에게 제공하고, 상기 기존 손상 정보에 대해 상기 현재 사용자가 동의하는 경우 상기 차량이 사용 가능한 상태가 되도록 변경해 주되, 상기 기존 손상 정보는 상기 이전 사용자가 촬영한 제1 이미지를 기초로 산출된 손상 정보이고, 상기 디스플레이부는 상기 기존 손상 정보에 대해 상기 현재 사용자가 동의 여부를 선택할 수 있는 제1 알림창을 표시하는 모바일 디바이스를 제공할 수 있다.For example, a camera for taking an image of the vehicle; an input unit for receiving information from a user; a communication unit for transmitting and receiving wireless signals; Display unit for displaying a message related to the existing damage information; and a control unit for controlling the camera, the communication unit and the display unit, wherein the user includes a previous user and a current user, and the control unit provides the existing damage information to the current user through the display unit, and the existing damage information When the current user agrees with respect to It is possible to provide a mobile device that displays a first notification window through which the current user can select whether to agree or not.

상기 제1 이미지는 상기 이전 사용자가 차량 반납 시 촬영한 이미지이며, 상기 기존 손상 정보는 상기 이전 사용자의 차량 이용 종료 시까지 발생한 손상 정보를 의미하는 것인 모바일 디바이스를 제공할 수 있다.The first image may be an image taken by the previous user when returning the vehicle, and the existing damage information may mean damage information that occurred until the previous user's vehicle use ends.

상기 손상 정보는 상기 이전 사용자의 모바일 디바이스에 의해 전송된 상기 제1 이미지에 의해 업데이트된 정보인 모바일 디바이스를 제공할 수 있다.The damage information may provide the mobile device which is information updated by the first image sent by the mobile device of the previous user.

상기 디스플레이부는, 상기 기존 손상 정보에 대해 상기 현재 사용자가 동의하지 않는 경우 상기 현재 사용자에게 제2 이미지를 촬영하도록 요구하는 제2 알림창을 표시하고 상기 제어부는 상기 제2 이미지 촬영이 완료되면 상기 제2 이미지를 상기 통신부를 통해 서버로 전송하고 상기 차량이 사용 가능한 상태가 되도록 변경해주는 모바일 디바이스를 제공할 수 있다.The display unit, when the current user does not agree with the existing damage information, displays a second notification window requesting the current user to take a second image, and the control unit displays the second notification window when the second image shooting is completed It is possible to provide a mobile device that transmits an image to a server through the communication unit and changes the vehicle to a usable state.

상기 현재 사용자가 상기 기존 손상 정보에 대해 전부 동의하지 않는 경우, 상기 디스플레이부는 상기 현재 사용자에게 차량 전체 외관에 대한 제2 이미지를 촬영하도록 요구하는 제2 알림창을 표시하고, 상기 제어부는 상기 제2 이미지 촬영이 완료되면 상기 제2 이미지를 상기 통신부를 통해 상기 서버로 전송하고 상기 차량이 사용 가능한 상태가 되도록 변경해주는 모바일 디바이스를 제공할 수 있다.When the current user does not agree with all of the existing damage information, the display unit displays a second notification window requesting the current user to take a second image of the entire exterior of the vehicle, and the control unit displays the second image When photographing is completed, a mobile device that transmits the second image to the server through the communication unit and changes the vehicle to a usable state may be provided.

상기 현재 사용자가 상기 기존 손상 정보에 대해 일부 동의하지 않는 경우, 상기 디스플레이부는 상기 현재 사용자에게 차량 외관 중 상기 현재 사용자가 동의하지 않은 부분에 대한 제2 이미지를 촬영하도록 요구하는 제2 알림창을 표시하고, 상기 제어부는 상기 제2 이미지 촬영이 완료되면 상기 제2 이미지를 상기 통신부를 통해 상기 서버로 전송하고 상기 차량이 사용 가능한 상태가 되도록 변경해주는 모바일 디바이스를 제공할 수 있다.When the current user does not partially agree to the existing damage information, the display unit displays a second notification window requesting the current user to take a second image of a portion of the vehicle exterior that the current user does not agree to, , the control unit may provide a mobile device that transmits the second image to the server through the communication unit when capturing the second image is completed and changes the vehicle to a usable state.

상기 디스플레이부는 촬영 가이드를 표시하되, 상기 촬영 가이드는 상기 현재 사용자가 상기 제2 이미지를 촬영하는 경우 상기 차량의 전체 외관 또는 상기 차량의 부품이 촬영될 수 있도록 가이드해주는 것인 모바일 디바이스를 제공할 수 있다.The display unit may provide a mobile device that displays a shooting guide, wherein the shooting guide guides the entire exterior of the vehicle or parts of the vehicle to be photographed when the current user shoots the second image there is.

상기 촬영 가이드는 차량 정보에 기초하여 촬영을 가이드해줄 수 있되, 상기 차량 정보는 상기 현재 이용자가 입력한 정보 또는 차량 정보를 획득하도록 학습된 신경망 모델을 통하여 얻어질 수 있는 것인 모바일 디바이스를 제공할 수 있다.The photographing guide may guide photographing based on vehicle information, and the vehicle information may be obtained through a neural network model trained to obtain information or vehicle information input by the current user. can

상기 제어부는 상기 현재 사용자가 상기 제2 이미지를 촬영하는 경우 상기 촬영 가이드 내에 상기 차량이 일정 비율 이상 위치하는 경우 자동적으로 촬영 버튼을 실행하여 이미지를 저장하는 모바일 디바이스를 제공할 수 있다.When the current user captures the second image, the controller may provide a mobile device that automatically executes a photographing button to store the image when the vehicle is located in the photographing guide by a predetermined ratio or more.

상기 디스플레이부는 촬영 맵을 표시하되, 상기 촬영 맵은 상기 현재 사용자가 상기 제2 이미지를 촬영하는 경우 상기 차량 외관의 주요 부위 중 적어도 일부가 상기 제2 이미지에 포함될 수 있도록 촬영을 가이드해주는 것인 모바일 디바이스를 제공할 수 있다.The display unit displays a photographing map, wherein the photographing map guides photographing so that at least some of the main parts of the exterior of the vehicle can be included in the second image when the current user photographs the second image device can be provided.

상기 제어부는 상기 서버가 상기 제2 이미지와 상기 기존 손상 정보를 비교하여 상기 차량에 추가 손상이 발생되었는지 판단한 비교 결과를 상기 통신부를 통해 수신하고, 상기 제어부는 상기 디스플레이부를 통해 상기 비교 결과를 상기 현재 사용자에게 제공하며, 상기 디스플레이부는 상기 비교 결과에 대해 상기 현재 사용자가 동의 여부를 선택할 수 있는 제3 알림창을 표시하는 모바일 디바이스를 제공할 수 있다.The control unit receives a comparison result of which the server compares the second image with the existing damage information to determine whether additional damage has occurred to the vehicle through the communication unit, and the control unit transmits the comparison result through the display unit to the present It is provided to the user, and the display unit may provide a mobile device that displays a third notification window through which the current user can select whether to agree to the comparison result.

상기 제어부는 상기 비교 결과에 대해 상기 현재 사용자가 동의하는 경우 상기 차량이 사용 가능한 상태가 되도록 변경해주는 모바일 디바이스를 제공할 수 있다.When the current user agrees to the comparison result, the controller may provide a mobile device that changes the vehicle to a usable state.

상기 디스플레이부는 상기 비교 결과에 대해 상기 현재 사용자가 동의하지 않는 경우 이의 제기할 수 있는 메시지를 표시하고, 상기 제어부는 상기 현재 사용자가 상기 이의 제기를 완료하면 상기 차량이 사용 가능한 상태가 되도록 변경해주는 모바일 디바이스를 제공할 수 있다.When the current user does not agree with the comparison result, the display unit displays a message that can object to the comparison result, and the control unit changes the vehicle to a usable state when the current user completes the objection. device can be provided.

일 예로, 차량의 이미지를 촬영하는 카메라; 사용자로부터 정보를 입력 받는 입력부; 무선신호를 송수신하는 통신부; 차량 손상 정보와 관련된 메시지를 표시하는 디스플레이부; 및 상기 카메라, 통신부 및 디스플레이부를 제어하는 제어부를 포함하되, 상기 사용자는 이전 사용자 및 현재 사용자를 포함하고, 상기 디스플레이부는, 상기 현재 사용자의 차량 반납 시 상기 현재 이용자에게 제3 이미지를 촬영하도록 요구하는 제4 알림창을 표시하고, 상기 제어부는 상기 제3 이미지 촬영이 완료되면 상기 제3 이미지를 상기 통신부를 통해 서버로 전송하고 상기 차량의 반납 처리가 완료되도록 처리하는 모바일 디바이스를 제공할 수 있다.For example, a camera for taking an image of the vehicle; an input unit for receiving information from a user; a communication unit for transmitting and receiving wireless signals; a display unit for displaying a message related to vehicle damage information; and a control unit for controlling the camera, the communication unit and the display unit, wherein the user includes a previous user and a current user, and the display unit requests the current user to take a third image when returning the vehicle of the current user A fourth notification window may be displayed, and when capturing the third image is completed, the controller may provide a mobile device that transmits the third image to the server through the communication unit and processes to complete the return process of the vehicle.

상기 디스플레이부는 촬영 가이드를 표시하되, 상기 촬영 가이드는 상기 현재 사용자가 상기 제3 이미지를 촬영하는 경우 상기 차량의 전체 모습 또는 상기 차량의 부품이 촬영될 수 있도록 가이드해주는 것인 모바일 디바이스를 제공할 수 있다.The display unit may provide a mobile device that displays a photographing guide, and the photographing guide guides the overall appearance of the vehicle or parts of the vehicle to be photographed when the current user photographs the third image. there is.

상기 디스플레이부는 촬영 맵을 표시하되, 상기 촬영 맵은 상기 현재 사용자가 상기 제3 이미지를 촬영하는 경우 상기 차량 외관의 주요 부위 중 적어도 일부가 상기 제2 이미지에 포함될 수 있도록 촬영을 가이드해주는 것인 모바일 디바이스를 제공할 수 있다.The display unit displays a photographing map, wherein the photographing map guides photographing so that at least some of the main parts of the exterior of the vehicle can be included in the second image when the current user photographs the third image device can be provided.

상기 제어부는 상기 서버가 상기 제3 이미지를 기존 손상 정보와 비교하여 상기 차량에 추가 손상이 발생되었는지 판단한 추가 손상 정보를 상기 통신부를 통해 수신하고, 상기 제어부는 상기 디스플레이부를 통해 상기 추가 손상 정보를 상기 현재 사용자에게 제공하며, 상기 디스플레이부는 상기 추가 손상 정보에 대해 상기 현재 사용자가 동의 여부를 선택할 수 있는 제5 알림창을 표시하는 모바일 디바이스를 제공할 수 있다.The control unit receives the additional damage information that the server compares the third image with the existing damage information to determine whether additional damage has occurred to the vehicle through the communication unit, and the control unit receives the additional damage information through the display unit It is provided to the current user, and the display unit may provide a mobile device displaying a fifth notification window through which the current user can select whether to agree to the additional damage information.

상기 추가 손상 정보는 상기 현재 사용자의 차량 이용 시작 시점부터 상기 현재 사용자의 차량 이용 종료 시점까지 발생한 손상 정보를 의미하는 것인 모바일 디바이스를 제공할 수 있다.The additional damage information may provide a mobile device that means damage information that has occurred from the start time of the current user's vehicle use to the end time of the current user's vehicle use.

상기 제어부는 상기 추가 손상 정보에 대해 상기 현재 사용자가 동의하는 경우 상기 차량의 반납 처리가 완료되도록 처리하는 모바일 디바이스를 제공할 수 있다.When the current user agrees to the additional damage information, the control unit may provide a mobile device that processes the return process of the vehicle to be completed.

상기 디스플레이부는 상기 추가 손상 정보에 대해 상기 현재 사용자가 동의하지 않는 경우 이의 제기할 수 있는 메시지를 표시하고, 상기 제어부는 상기 현재 사용자가 상기 이의 제기를 완료하면 상기 차량의 반납 처리가 완료될 수 있도록 처리하는 모바일 디바이스를 제공할 수 있다.The display unit displays a message that can be objected when the current user does not agree to the additional damage information, and the control unit allows the return process of the vehicle to be completed when the current user completes the objection It is possible to provide a mobile device for processing.

아래에서는 도면을 참조하여, 실시 예에 따른 차량관리 장치를 설명한다.Hereinafter, a vehicle management apparatus according to an embodiment will be described with reference to the drawings.

1. 개요1. Overview

본 명세서에서는 차량의 상태를 관리하기 위한 장치, 방법 및 시스템 등에 대하여 설명한다. 이하에서는 차량의 상태를 관리하기 위한 장치 등에 대하여 몇몇 실시예를 들어 설명한다.In this specification, an apparatus, method, and system for managing the state of a vehicle will be described. Hereinafter, a device for managing the state of a vehicle, etc. will be described with reference to some embodiments.

2. 차량 관리 시스템2. Vehicle management system

일 실시예에 따르면, 차량을 촬영한 이미지를 이용하여 차량의 상태를 관리하기 위한 차량 관리 시스템이 제공될 수 있다. According to an embodiment, a vehicle management system for managing the state of a vehicle using an image captured by the vehicle may be provided.

차량 관리 시스템은 적어도 하나의 장치를 포함할 수 있다. 차량 관리 시스템은 적어도 하나의 카메라 모듈을 가지는 장치를 포함할 수 있다. 차량 관리 시스템은 적어도 하나의 제어부를 가지는 장치를 포함할 수 있다. 차량 관리 시스템은 사용자 입력을 획득하는 입력 모듈을 포함하는 장치를 적어도 하나 포함할 수 있다. 차량 관리 시스템은 저장 모듈을 가지는 장치를 적어도 하나 포함할 수 있다. 차량 관리 시스템은 통신 모듈을 가지는 장치를 적어도 하나 포함할 수 있다.The vehicle management system may include at least one device. The vehicle management system may include a device having at least one camera module. The vehicle management system may include a device having at least one control unit. The vehicle management system may include at least one device including an input module for obtaining a user input. The vehicle management system may include at least one device having a storage module. The vehicle management system may include at least one device having a communication module.

차량 관리 시스템은 태블릿, 스마트폰, PC, 노트북 등의 사용자 장치를 포함할 수 있다. 사용자 장치는 디스플레이, 사용자 인터페이스, 통신 모듈, 카메라 모듈, 메모리 및/또는 컨트롤러를 포함할 수 있다.The vehicle management system may include a user device such as a tablet, a smartphone, a PC, or a laptop computer. The user device may include a display, a user interface, a communication module, a camera module, a memory and/or a controller.

차량 관리 시스템은 서버 장치를 포함할 수 있다. 서버 장치는 데이터 또는 프로그램을 저장할 수 있다. 서버 장치는 사용자 장치와 통신할 수 있다.The vehicle management system may include a server device. The server device may store data or programs. The server device may communicate with the user device.

차량 관리 시스템은 차량 촬영 장치를 포함할 수 있다. 차량 촬영 장치는 서버 장치 및/또는 사용자 장치와 통신할 수 있다.The vehicle management system may include a vehicle photographing device. The vehicle imaging device may communicate with a server device and/or a user device.

2.1 차량 관리 프로세스2.1 Fleet Management Process

일 실시예에 따르면, 차량을 촬영한 이미지를 이용하여 차량의 상태를 관리하기 위한 차량 관리 프로세스가 제공될 수 있다. 차량 관리 프로세스는 전술한 차량 관리 시스템에 의해 수행될 수 있다. According to an embodiment, a vehicle management process for managing the state of the vehicle using an image captured by the vehicle may be provided. The vehicle management process may be performed by the aforementioned vehicle management system.

도 1을 참조하면, 차량 관리 프로세스는 차량과 관련된 차량 데이터를 획득하고(S110), 획득된 차량 데이터에 기초하여 차량 정보를 획득하고(S130), 차량 정보를 관리하고(S150), 차량 정보를 출력하는(S170) 것을 포함할 수 있다. 이하에서는 각 단계에 대하여 보다 구체적으로 설명한다.Referring to FIG. 1 , the vehicle management process obtains vehicle data related to a vehicle (S110), obtains vehicle information based on the obtained vehicle data (S130), manages vehicle information (S150), and collects vehicle information It may include outputting (S170). Hereinafter, each step will be described in more detail.

2.2 데이터 획득2.2 Data Acquisition

차량 관리 프로세스는 차량 관리에 필요한 차량 데이터를 획득하는 것을 포함할 수 있다. The vehicle management process may include acquiring vehicle data required for vehicle management.

차량 데이터는 다양한 형태로 마련될 수 있다. 예컨대, 차량 데이터는 이미지 데이터 또는 비-이미지 데이터일 수 있다. 차량 데이터는 장치에 미리 저장되거나 외부로부터 획득될 수 있다. 예컨대, 차량 데이터는 카메라 모듈을 통하여 획득되거나, 사용자 입력 모듈을 통하여 획득될 수 있다. The vehicle data may be provided in various forms. For example, the vehicle data may be image data or non-image data. The vehicle data may be pre-stored in the device or obtained from outside. For example, the vehicle data may be obtained through a camera module or may be obtained through a user input module.

차량 데이터 및 차량 데이터의 획득에 대하여는 이하에서 구체적인 예시를 들어 보다 상세히 설명한다.The vehicle data and the acquisition of the vehicle data will be described in more detail below with reference to specific examples.

2.2.1 이미지 데이터 획득2.2.1 Image data acquisition

일 실시예에 따르면, 차량 데이터는 차량을 촬영한 차량 이미지를 포함하는 이미지 데이터일 수 있다. 차량 이미지는 차량의 일부 부품을 포함하는 이미지일 수 있다. 차량 이미지는 차량을 식별하기 위한 식별 정보가 포함되도록 차량의 일부를 촬영하여 획득된 이미지일 수 있다. According to an embodiment, the vehicle data may be image data including a vehicle image obtained by photographing the vehicle. The vehicle image may be an image including some parts of the vehicle. The vehicle image may be an image obtained by photographing a part of the vehicle to include identification information for identifying the vehicle.

차량 데이터는 차량을 촬영한 차량 영상 데이터일 수 있다. 차량 데이터는 영상 데이터 및 영상 데이터로부터 추출된 이미지 데이터를 포함할 수 있다. 이하에서는 이미지 데이터를 기준으로 차량 데이터의 실시예에 대하여 설명한다. 다만, 차량 데이터는 이하에서 설명되는 형태의 차량 이미지와 대응되는 형태의 차량 영상 형태로 획득될 수도 있다. The vehicle data may be vehicle image data obtained by photographing the vehicle. The vehicle data may include image data and image data extracted from the image data. Hereinafter, an embodiment of vehicle data will be described based on image data. However, the vehicle data may be acquired in the form of a vehicle image corresponding to the vehicle image of the form described below.

도 2는 일 실시예에 따른 차량 이미지를 설명하기 위한 도면이다. 2 is a diagram for describing a vehicle image according to an exemplary embodiment.

도 2의 (a)를 참조하면, 일 실시예에 따른 차량 이미지는 차량을 일 방향, 예컨대 측방에서 촬영하여 획득된 이미지일 수 있다. 차량 이미지는 일 방향에서, 프레임 내에 차량 전체가 들어오도록 촬영하여 획득된 이미지일 수 있다.Referring to FIG. 2A , a vehicle image according to an exemplary embodiment may be an image obtained by photographing the vehicle in one direction, for example, from a side. The vehicle image may be an image obtained by photographing so that the entire vehicle enters the frame in one direction.

도 2의 (b)를 참조하면, 일 실시예에 따른 차량 이미지는 차량을 전방에서 촬영하여 획득된 이미지일 수 있다. 차량 이미지는 차량을 식별하기 위한 식별 정보를 포함할 수 있다. 식별 정보는 VIN(Vehicle Identification Number) 또는 차번일 수 있다. 도 2의 (b)를 참조하면, 일 실시예에 따른 차량 이미지는 차량의 VIN이 표시된 VIN 영역 또는 차번이 표시된 번호판 영역을 포함할 수 있다.Referring to FIG. 2B , the vehicle image according to an exemplary embodiment may be an image obtained by photographing the vehicle from the front. The vehicle image may include identification information for identifying the vehicle. The identification information may be a vehicle identification number (VIN) or a vehicle number. Referring to FIG. 2B , the vehicle image according to an exemplary embodiment may include a VIN area in which the VIN of the vehicle is displayed or a license plate area in which a vehicle number is displayed.

도 2의 (c)를 참조하면, 일 실시예에 따른 차량 이미지는 차량의 일부 부품, 예컨대 이 포함되도록 촬영된 이미지 일 수 있다.Referring to FIG. 2C , a vehicle image according to an exemplary embodiment may be an image captured to include some parts of the vehicle, for example.

일 실시예에 따르면, 차량 데이터는 복수의 차량 이미지를 포함할 수 있다. According to an embodiment, the vehicle data may include a plurality of vehicle images.

복수의 차량 이미지는 서로 다른 시점에서 촬영된 하나 이상의 이미지들을 포함할 수 있다. 예컨대, 복수의 차량 이미지는 동일한 차량에 대하여 서로 다른 시점에 촬영된 이미지들을 포함할 수 있다. 복수의 차량 이미지는 동일한 차량을 기준으로, 동일한 방향(예컨대, 전방에서)에서 촬영된 이미지들을 포함할 수 있다. The plurality of vehicle images may include one or more images captured at different viewpoints. For example, the plurality of vehicle images may include images captured at different viewpoints with respect to the same vehicle. The plurality of vehicle images may include images captured in the same direction (eg, from the front) with respect to the same vehicle.

도 3은 일 실시예에 따른 이미지 데이터를 예시하기 위한 도면이다. 도 3을 참조하면, 이미지 데이터는 제1 시점에서 차량을 촬영한 제1 이미지(a), 제1 시점 이후인 제2 시점에서 차량을 촬영한 제2 이미지(b) 및 제3 시점에서 차량을 촬영한 제3 이미지(c)를 포함할 수 있다. 제1 이미지, 제2 이미지 및 제3 이미지는 하나의 영상 데이터로부터 추출된 이미지들일 수 있다. 제1 이미지, 제2 이미지 및 제3 이미지는 동일한 차량에 대하여 같은 방향, 예컨대 좌측에서, 촬영된 이미지일 수 있다.3 is a diagram for illustrating image data according to an embodiment. Referring to FIG. 3 , the image data includes a first image (a) obtained by photographing a vehicle at a first time point, a second image (b) obtained by photographing a vehicle at a second time point after the first time point, and a vehicle at a third time point. The photographed third image (c) may be included. The first image, the second image, and the third image may be images extracted from one image data. The first image, the second image, and the third image may be images taken in the same direction, for example, from the left side with respect to the same vehicle.

복수의 차량 이미지는 차량을 다양한 방향에서 촬영하여 획득된 하나 이상의 이미지들을 포함할 수 있다. The plurality of vehicle images may include one or more images obtained by photographing the vehicle in various directions.

도 4는 일 실시예에 따른 이미지 데이터를 예시하기 위한 도면이다. 도 4를 참조하면, 이미지 데이터는 차량의 좌측을 촬영하여 획득된 좌측 이미지(a), 차량의 우측을 촬영하여 획득된 우측 이미지(b), 차량의 전방을 촬영하여 획득된 전방 이미지(c) 및 차량의 후방을 촬영하여 획득된 후방 이미지(d)를 포함할 수 있다.4 is a diagram illustrating image data according to an embodiment. Referring to FIG. 4 , the image data includes a left image obtained by photographing the left side of the vehicle (a), a right image obtained by photographing the right side of the vehicle (b), and a front image obtained by photographing the front of the vehicle (c) And it may include a rear image (d) obtained by photographing the rear of the vehicle.

도 5는 다른 일 실시예에 따른 이미지 데이터를 예시하기 위한 도면이다. 도 5를 참조하면, 이미지 데이터는 차량의 좌전방을 촬영하여 획득된 좌전방 이미지(a), 차량의 좌후방을 촬영하여 획득된 좌후방 이미지(b), 차량의 우전방을 촬영하여 획득된 우전방 이미지(c) 및 차량의 우후방을 촬영하여 획득된 우후방 이미지(d)를 포함할 수 있다.5 is a diagram illustrating image data according to another embodiment. 5 , the image data is a left front image (a) obtained by photographing the left front of the vehicle, a left and rear image (b) obtained by photographing the left and rear of the vehicle, and the right front image obtained by photographing the vehicle It may include a right-front image (c) and a right-rear image (d) obtained by photographing the right-rear image of the vehicle.

복수의 차량 이미지는 차량의 서로 다른 부분을 포함하도록 촬영된 하나 이상의 이미지들을 포함할 수 있다. The plurality of vehicle images may include one or more images captured to include different parts of the vehicle.

도 6은 일 실시예에 따른 이미지 데이터를 예시하기 위한 도면이다. 도 6을 참조하면, 이미지 데이터는 차량의 좌전방 휀더가 포함되도록 촬영하여 획득된 제1 이미지(a), 차량의 좌전방 도어가 포함되도록 촬영하여 획득된 제2 이미지(b), 차량의 좌후방 도어를 포함하도록 촬영하여 획득된 제3 이미지(c) 및 차량의 좌후방 휀더가 포함되도록 촬영하여 획득된 제4 이미지(d)를 포함할 수 있다. 6 is a diagram illustrating image data according to an embodiment. Referring to FIG. 6 , the image data includes a first image (a) obtained by photographing to include the left front fender of the vehicle, a second image (b) obtained by photographing to include the left front door of the vehicle, and the left side of the vehicle. A third image (c) obtained by photographing to include the rear door and a fourth image (d) obtained by photographing to include the left rear fender of the vehicle may be included.

일 실시예에 따르면, 차량이 아닌 다른 사물을 촬영한 이미지 데이터가 획득될 수도 있다. 예컨대, 차량 주변 사물을 촬영한 사물 이미지, 차량 주변 환경, 예컨대, 하늘을 촬영한 이미지, 운전자의 신분증 또는 면허증을 촬영한 이미지 등이 획득될 수 있다. According to an embodiment, image data obtained by photographing an object other than a vehicle may be obtained. For example, an object image obtained by photographing an object around the vehicle, an image photographing the environment around the vehicle, for example, the sky, an image photographing the driver's identification card or driver's license may be acquired.

이미지 데이터 또는 영상 데이터는 카메라 모듈을 통하여 획득될 수 있다. 이미지 데이터 또는 영상 데이터는 외부 장치, 예컨대, 카메라 모듈을 가지는 외부 장치로부터 획득될 수 있다. Image data or image data may be acquired through a camera module. The image data or image data may be obtained from an external device, for example, an external device having a camera module.

2.2.2 비-이미지 데이터 획득 2.2.2 Acquisition of Non-Image Data

일 실시예에 따르면, 이미지가 아닌 비-이미지 형태의 차량 데이터가 획득될 수 있다. 차량 데이터는 비-이미지 데이터일 수 있다. 차량 데이터는 차량과 관련된 정보를 포함하는 비-이미지 데이터일 수 있다. According to an embodiment, vehicle data in the form of a non-image other than an image may be obtained. The vehicle data may be non-image data. The vehicle data may be non-image data including information related to the vehicle.

차량 데이터는 차량의 제조사, 모델명, 연식, 제조 시기, 제조 장소, 제조자, 위치, 등록 기준지 등을 나타내는 차량 정보를 포함할 수 있다. The vehicle data may include vehicle information indicating a manufacturer, model name, year, manufacturing time, manufacturing location, manufacturer, location, registration base, and the like of the vehicle.

차량 데이터는 차량의 종류를 나타내는 차종 정보를 포함할 수 있다. 차종 정보는 세단, 쿠페, 웨건, 컨버터블, 해치백, SUV, 밴, 트럭, 버스 등, 차량의 차종을 나타낼 수 있다. The vehicle data may include vehicle model information indicating the type of vehicle. The vehicle type information may indicate a vehicle type of a vehicle, such as a sedan, a coupe, a wagon, a convertible, a hatchback, an SUV, a van, a truck, and a bus.

차량 데이터는 차량을 식별하기 위한 차량 식별 정보를 포함할 수 있다. 차량 식별 정보는 차량에 부여되는 차량 번호, 차량 식별 번호(VIN) 등을 포함할 수 있다.The vehicle data may include vehicle identification information for identifying the vehicle. The vehicle identification information may include a vehicle number assigned to the vehicle, a vehicle identification number (VIN), and the like.

일 실시예에 따르면, 비-이미지 형태의 추가 정보가 더 획득될 수 있다. 예컨대, 운전자 또는 차량 소유자의 인적사항을 나타내는 운전자 정보, 차량의 보험 유무, 보험 종류 등을 나타내는 보험 정보, 차량의 사고 이력 등을 포함하는 추가 정보가 더 획득될 수 있다.According to an embodiment, additional information in the form of a non-image may be further obtained. For example, additional information including driver information indicating personal information of the driver or vehicle owner, insurance information indicating whether the vehicle is insured, insurance type, etc., and an accident history of the vehicle may be further acquired.

비-이미지 데이터는 미리 저장되거나, 획득될 수 있다. 비-이미지 데이터는 사용자 입력을 획득하는 입력 모듈을 통하여 획득될 수 있다. 비-이미지 데이터는 사용자 인터페이스를 통하여 획득될 수 있다. 비-이미지 데이터는 외부 장치로부터 획득될 수 있다.The non-image data may be pre-stored or obtained. The non-image data may be obtained through an input module that obtains a user input. Non-image data may be obtained through a user interface. Non-image data may be obtained from an external device.

2.2.3 데이터 처리2.2.3 Data processing

획득된 데이터에 대한 처리가 수행될 수 있다.Processing may be performed on the obtained data.

획득된 이미지 데이터에 대한 전처리(또는 후처리)가 수행될 수 있다. 예컨대, 획득된 이미지(예컨대, 차량 이미지)에 대하여, 밝기 변경, 채도 변경, 색상 변경, 색온도 변경, 휘도 변경, 크기 변경, 이미지 크롭, 화소 수 조정, 사이즈 변경, 가로와 세로의 비율 조정, 화소 선형화(pixel linearization), 필터링, 불량 화소 보정(dead pixel correction), 이미지 선명화(image sharpening), 기하학적 왜곡 보정(geometric distortion correction), 색도 억제(chroma suppression), 이미지 스케일링(image scaling), 디더링(dithering), 보간, 압축(compressing), 압축 해제(decompressing) 등의 처리가 수행될 수 있다. Pre-processing (or post-processing) may be performed on the acquired image data. For example, with respect to the acquired image (eg, vehicle image), brightness change, saturation change, color change, color temperature change, luminance change, size change, image cropping, number of pixels adjustment, size change, horizontal/vertical ratio adjustment, pixels Pixel linearization, filtering, dead pixel correction, image sharpening, geometric distortion correction, chroma suppression, image scaling, dithering ( dithering), interpolation, compression (compressing), decompressing (decompressing), etc. may be performed.

일 예로, 획득된 이미지 데이터에 대하여 노이즈 제거 처리가 수행될 수 있다. 차량 이미지에 대하여, 노이즈 제거 처리가 수행될 수 있다. 이미지에 포함된 배경 영역 또는 차량 영역에 위치되는 반사광, 얼룩 등의 노이즈, 즉, 차량 관리에 불필요한 이미지 정보를 제거하는 노이즈 제거 처리가 수행될 수도 있다. 이미지에 대하여, 가우시안 필터 등의 처리를 수행하여, 노이즈 제거 처리가 수행될 수 있다. 또는 이미지에 대하여, 노이즈 제거를 위하여 학습된 신경망 모델을 통하여 노이즈 제거 처리가 수행될 수 있다. As an example, noise removal processing may be performed on the acquired image data. For the vehicle image, noise removal processing may be performed. Noise removal processing for removing noises such as reflected light and stains located in the background area or vehicle area included in the image, ie, image information unnecessary for vehicle management, may be performed. The image may be subjected to processing such as a Gaussian filter, and noise removal processing may be performed. Alternatively, noise removal processing may be performed on the image through a neural network model trained for noise removal.

도 7은 노이즈 제거 처리를 설명하기 위한 도면이다. 7 is a diagram for explaining noise removal processing.

일 실시예에 따르면, 차량 이미지로부터 차량이 아닌 사물을 제거하는 노이즈 제거 처리가 수행될 수 있다. 도 7의 (a) 및 (b)를 참조하면, 일 실시예에 따른 노이즈 제거 처리는 차량에 대응되는 차량 영역 및 차량에 대응되지 않는 영역인 배경 영역을 포함하는 원본 이미지(a)를 획득하고, 배경 영역이 제거된 전처리된 이미지(b)를 획득하는 것을 포함할 수 있다. According to an embodiment, noise removal processing for removing non-vehicle objects from the vehicle image may be performed. Referring to FIGS. 7A and 7B , the noise removal processing according to an embodiment acquires an original image (a) including a vehicle area corresponding to a vehicle and a background area that is a non-vehicle area, and , it may include acquiring a pre-processed image (b) from which the background area is removed.

노이즈 제거 처리는 원본 이미지로부터 차량 영역을 획득하도록 학습된 신경망 모델을 이용하여 수행될 수 있다. 예컨대, 신경망 모델은 컨벌루션 신경망(CNN; Convolutional Neural Network) 레이어를 포함하고, 원본 이미지에 차량 영역이 마스킹된 복수의 이미지를 포함하는 학습 데이터에 기초하여, 원본 이미지로부터 차량 영역을 추출하도록 학습될 수 있다. 학습된 신경망 모델을 이용하여, 대상 원본 이미지로부터 차량 영역을 추출하고, 나머지 영역은 제거하는 노이즈 제거 처리가 수행될 수 있다. The denoising processing may be performed using a neural network model trained to obtain the vehicle region from the original image. For example, the neural network model includes a convolutional neural network (CNN) layer, and based on training data including a plurality of images in which the vehicle region is masked in the original image, it can be learned to extract the vehicle region from the original image. there is. A noise removal process of extracting a vehicle region from the target original image and removing the remaining regions may be performed using the learned neural network model.

다른 일 실시예에 따르면, 차량 이미지로부터 차량 정보 획득에 방해가 되는 요소를 제거하기 위한 노이즈 제거 처리가 수행될 수 있다. 차량 정보 획득에 방해가 되는 요소를 제거하기 위한 노이즈 제거 처리는 차량에 대응되는 차량 영역 내에 포함되는 노이즈를 제거하는 것을 포함할 수 있다. 도 7의 (c) 및 (d)를 참조하면, 일 실시예에 따른 노이즈 제거 처리는 차량의 손상 정보를 획득하기 위한 차량 이미지를 획득하고, 차량 영역으로부터 차량의 손상과 무관한 반사광에 대응되는 반사광 영역을 제거하는 것을 포함할 수 있다.According to another exemplary embodiment, noise removal processing may be performed to remove an element that obstructs acquisition of vehicle information from a vehicle image. The noise removal processing for removing a factor that obstructs acquisition of vehicle information may include removing noise included in a vehicle area corresponding to the vehicle. Referring to FIGS. 7C and 7D , the noise removal process according to an embodiment acquires a vehicle image for acquiring vehicle damage information, and corresponds to reflected light independent of damage to the vehicle from the vehicle area. It may include removing the reflected light region.

노이즈 제거 처리는 원본 이미지로부터, 반사광이 제거된 이미지를 획득하도록 학습된 신경망 모델을 이용하여 수행될 수 있다. 예컨대, 신경망 모델은 컨벌루션 신경망 레이어를 포함하고, 원본 이미지에 반사광 영역이 마스킹된 복수의 이미지를 포함하는 학습 데이터(또는 반사광 영역을 포함하는 원본 이미지 및 반사광 영역이 수작업으로 제거된 이미지)에 기초하여, 원본 이미지로부터 반사광 영역이 제거된 이미지를 획득하도록 학습될 수 있다. 학습된 신경망 모델을 이용하여, 대상 원본 이미지로부터 반사광 영역이 제거된 이미지를 획득하는 노이즈 제거 처리가 수행될 수 있다. The noise removal processing may be performed using a neural network model trained to obtain an image from which reflected light has been removed from the original image. For example, a neural network model includes a convolutional neural network layer, and based on training data (or an original image including a specular region and an image in which the specular region is manually removed) including a plurality of images in which the specular region is masked in the original image. , can be learned to obtain an image in which the specular region is removed from the original image. Using the learned neural network model, a noise removal process for obtaining an image in which the reflected light region is removed from the target original image may be performed.

다른 일 예로, 복수의 이미지를 포함하는 이미지 데이터에 대하여 노이즈 제거 처리가 수행될 수 있다. 이미지 데이터가 복수의 이미지를 포함하는 경우, 각각의 이미지에 대하여 노이즈 제거 처리를 수행하거나, 하나 이상의 이미지를 함께 이용하여, 보다 정확도가 향상된 노이즈 제거 처리가 수행될 수 있다. As another example, noise removal processing may be performed on image data including a plurality of images. When the image data includes a plurality of images, noise removal processing with improved accuracy may be performed by performing noise removal processing on each image or using one or more images together.

복수의 원본 이미지에 기초하여, 배경 영역이 제거된 이미지를 획득하는 노이즈 제거 처리가 수행될 수 있다. 노이즈 제거 처리는 복수의 이미지를 획득하고, 위치가 변동되는 오브젝트(예컨대, 차량에 대응되는 오브젝트) 및 위치가 변동되지 않는 오브젝트(예컨대, 배경에 대응되는 오브젝트)를 구분하여, 위치가 변동되는 오브젝트 또는 위치가 변동되지 않는 오브젝트를 제거하는 것을 포함할 수 있다. 위치 변동은 이미지 프레임 내에서의 상대적인 위치 변동을 의미할 수 있다. 예컨대, 노이즈 제거 처리는 복수의 이미지를 획득하고, 위치가 변동되지 않는 오브젝트를 제거하여, 위치가 변동되는 오브젝트만을 포함하는 이미지를 획득하는 것을 포함할 수 있다. 또 예컨대, 노이즈 제거 처리는 복수의 이미지를 획득하고, 위치가 변동되는 오브젝트를 제거하여, 위치가 변동되지 아니하는 오브젝트만을 포함하는 이미지를 획득하는 것을 포함할 수 있다. 여기서 위치가 변동되는 오브젝트는 가변 영역으로 정의될 수 있고, 위치가 변동되지 아니하는 오브젝트는 고정 영역으로 정의될 수 있다.Based on the plurality of original images, noise removal processing for obtaining an image from which the background region is removed may be performed. The noise removal process acquires a plurality of images, classifies an object whose position changes (eg, an object corresponding to a vehicle) and an object whose position does not change (eg, an object corresponding to a background), and an object whose position changes Alternatively, it may include removing an object whose position does not change. The positional change may mean a relative positional change within the image frame. For example, the noise removal processing may include acquiring a plurality of images, removing an object whose position does not change, and obtaining an image including only an object whose position does not change. Also, for example, the noise removal processing may include acquiring a plurality of images, removing an object whose position changes, and acquiring an image including only an object whose position does not change. Here, an object whose position changes may be defined as a variable region, and an object whose position does not change may be defined as a fixed region.

도 8은 복수의 이미지를 이용한 노이즈 제거 처리를 예시하기 위한 도면이다. 도 8을 참조하면, 차량 영역 및 배경 영역을 가지는 복수의 원본 이미지(a, b 및 c)를 획득하고, 복수의 원본 이미지(a, b 및 c)에 기초하여 배경 영역이 제거된 이미지(d)를 획득하는 노이즈 제거 처리가 수행될 수 있다. 도 8을 참조하면, 복수의 원본 이미지(a, b 및 c)에 기초하여, 이미지 내에서의 위치가 고정된 오브젝트인 배경에 대응되는 영역(즉, 배경 영역)이 제거되고, 이미지 내에서의 위치가 변경되는 오브젝트인 차량에 대응되는 영역(즉, 차량 영역)을 포함하는 이미지(d)가 획득될 수 있다. 8 is a diagram for illustrating noise removal processing using a plurality of images. Referring to FIG. 8 , a plurality of original images (a, b, and c) having a vehicle region and a background region are acquired, and an image d from which a background region is removed based on the plurality of original images (a, b and c). ) may be subjected to noise removal processing. Referring to FIG. 8 , based on the plurality of original images (a, b, and c), a region (ie, a background region) corresponding to a background, which is an object having a fixed position in the image, is removed, and An image d including a region (ie, a vehicle region) corresponding to a vehicle, which is an object whose position is changed, may be obtained.

배경이 제거된 이미지(d)는 복수의 원본 이미지(a, b 및 c)중 어느 하나에 기초하여 생성될 수 있다. 예컨대, 노이즈 제거 처리는 복수의 원본 이미지(a, b 및 c)에 기초하여 배경 영역 및 차량 영역을 획득하고, 복수의 원본 이미지(a, b 및 c)중 어느 하나로부터 배경 영역을 제거하여, 노이즈 제거된 이미지(d)를 획득하는 것을 포함할 수 있다.The image d from which the background is removed may be generated based on any one of the plurality of original images a, b, and c. For example, the denoising process obtains a background area and a vehicle area based on the plurality of original images (a, b and c), and removes the background area from any one of the plurality of original images (a, b and c), It may include acquiring a denoised image (d).

여기서, 복수의 원본 이미지(a, b 및 c) 중 적어도 2개의 이미지에 기초하여 노이즈 제거 처리가 수행될 수 있다. 상기 노이즈 제거 처리가 수행되는 이미지는 제1 이미지와 제2 이미지로 정의될 수 있다.Here, noise removal processing may be performed based on at least two of the plurality of original images a, b, and c. The image on which the noise removal process is performed may be defined as a first image and a second image.

예를 들어, 도 8의 (a)는 제1 이미지로 정의될 수 있고, 도 8의 (b)는 제2 이미지로 정의될 수 있다. 상기 제1 이미지와 제2 이미지는 서로 다른 시점에 촬영된 이미지일 수 있다. 상기 제1 이미지는 제1 시점에 촬영된 이미지일 수 있고, 상기 제2 이미지는 제2 시점에 촬영된 이미지일 수 있다. 상기 제1 시점과 제2 시점은 서로 다른 시점일 수 있다.For example, (a) of FIG. 8 may be defined as a first image, and (b) of FIG. 8 may be defined as a second image. The first image and the second image may be images taken at different time points. The first image may be an image captured at a first time point, and the second image may be an image captured at a second time point. The first time point and the second time point may be different time points.

노이즈 제거 처리는 신경망 모델을 이용하여 수행될 수 있다. 신경망 모델은 컨벌루션 신경망 레이어를 포함하고, 차량 영역 및/또는 배경 영역이 마스킹된 복수의 차량 이미지를 포함하는 학습 데이터를 이용하여, 배경 영역이 제거된 이미지를 획득하도록 학습될 수 있다. 노이즈 제거 처리는 학습된 신경망 모델을 이용하여, 대상 원본 이미지들로부터 배경 영역이 제거된 차량 이미지를 획득하는 것을 포함할 수 있다. The noise removal processing may be performed using a neural network model. The neural network model may include a convolutional neural network layer, and may be trained to obtain an image from which the background region is removed by using training data including a plurality of vehicle images in which the vehicle region and/or the background region are masked. The noise removal processing may include acquiring a vehicle image from which a background region is removed from the target original images by using the learned neural network model.

복수의 원본 이미지에 기초하여, 반사광 등을 제거하기 위한 노이즈 제거 처리가 수행될 수 있다. 노이즈 제거 처리는 복수의 이미지를 획득하고, 위치가 변동되는 오브젝트(예컨대, 반사광에 대응되는 반사 영역) 및 위치가 변동되지 않는 오브젝트(예컨대, 차량 영역 또는 차량의 손상에 대응되는 손상 영역)를 구분하여, 위치가 변동되는 오브젝트 또는 위치가 변동되지 않는 오브젝트를 제거하는 것을 포함할 수 있다. 예컨대, 차량의 손상된 부분에 대응되는 손상 영역 및 차량의 표면에 의한 반사광에 대응되는 반사 영역을 포함하는 차량 이미지에 기초하여, 반사 영역이 제거된 차량 이미지를 획득하는 노이즈 제거 처리가 수행될 수 있다. 여기서 위치가 변동되는 오브젝트는 가변 영역으로 정의될 수 있고, 위치가 변동되지 아니하는 오브젝트는 고정 영역으로 정의될 수 있다. 즉, 상기 손상 영역은 고정영역으로 정의될 수 있고, 상기 반사 영역은 가변 영역으로 정의될 수 있다.Based on the plurality of original images, noise removal processing for removing reflected light or the like may be performed. The noise removal processing acquires a plurality of images, and distinguishes an object whose position changes (eg, a reflective region corresponding to reflected light) and an object whose position does not change (eg, a vehicle region or a damaged region corresponding to damage to the vehicle) Thus, it may include removing an object whose position is changed or an object whose position does not change. For example, based on a vehicle image including a damaged area corresponding to a damaged part of the vehicle and a reflection area corresponding to light reflected by the surface of the vehicle, noise removal processing to obtain a vehicle image from which the reflection area is removed may be performed. . Here, an object whose position changes may be defined as a variable region, and an object whose position does not change may be defined as a fixed region. That is, the damaged region may be defined as a fixed region, and the reflective region may be defined as a variable region.

도 9는 복수의 이미지를 이용한 노이즈 제거 처리를 예시하기 위한 도면이다. 도 9를 참조하면, 손상 영역 및 반사 영역을 포함하는 복수의 원본 이미지(a 및 b)를 획득하고, 반사 영역이 제거된 이미지(c)를 획득하는 노이즈 제거 처리가 수행될 수 있다. 도 9를 참조하면, 복수의 원본 이미지(a 및 b)에 기초하여, 이미지 내에서 또는 차량 영역 내에서 위치 또는 상태가 변경되는 반사 영역이 제거된 이미지(c)를 획득하는 노이즈 제거 처리가 수행될 수 있다.9 is a diagram for illustrating noise removal processing using a plurality of images. Referring to FIG. 9 , a noise removal process of acquiring a plurality of original images (a and b) including a damaged region and a reflective region, and obtaining an image (c) from which the reflective region is removed may be performed. Referring to FIG. 9 , based on a plurality of original images (a and b), noise removal processing is performed to obtain an image (c) from which a reflective region whose position or state is changed within the image or within the vehicle region is removed. can be

반사 영역이 제거된 이미지(c)는 복수의 원본 이미지(a 및 b)중 어느 하나에 기초하여 생성될 수 있다. 예컨대, 노이즈 제거 처리는 복수의 원본 이미지(a 및 b)에 기초하여 반사 영역을 획득하고, 복수의 원본 이미지(a 및 b)중 어느 하나로부터 반사 영역을 제거하여, 노이즈 제거된 이미지를 획득하는 것을 포함할 수 있다.The image (c) from which the reflection region is removed may be generated based on any one of the plurality of original images (a and b). For example, the noise removal process obtains a reflection area based on a plurality of original images (a and b), and removes the reflection area from any one of the plurality of original images (a and b) to obtain a denoised image may include

여기서, 복수의 원본 이미지(a, b 및 c) 중 적어도 2개의 이미지에 기초하여 노이즈 제거 처리가 수행될 수 있다. 상기 노이즈 제거 처리가 수행되는 이미지는 제1 이미지와 제2 이미지로 정의될 수 있다.Here, noise removal processing may be performed based on at least two of the plurality of original images a, b, and c. The image on which the noise removal process is performed may be defined as a first image and a second image.

예를 들어, 도 9의 (a)는 제1 이미지로 정의될 수 있고, 도 9의 (b)는 제2 이미지로 정의될 수 있다. 상기 제1 이미지와 제2 이미지는 서로 다른 시점에 촬영된 이미지일 수 있다. 상기 제1 이미지는 제1 시점에 촬영된 이미지일 수 있고, 상기 제2 이미지는 제2 시점에 촬영된 이미지일 수 있다. 상기 제1 시점과 제2 시점은 서로 다른 시점일 수 있다.For example, FIG. 9A may be defined as a first image, and FIG. 9B may be defined as a second image. The first image and the second image may be images taken at different time points. The first image may be an image captured at a first time point, and the second image may be an image captured at a second time point. The first time point and the second time point may be different time points.

상기 노이즈 제거 처리는 상기 제1 이미지에서의 고정 영역과 가변 영역의 위치와 제2 이미지에서의 고정 영역과 가변 영역의 위치의 차이에 기초하여 수행될 수 있다. The noise removal processing may be performed based on a difference between the positions of the fixed region and the variable region in the first image and the positions of the fixed region and the variable region in the second image.

상기 노이즈 제거 처리는 상기 제1 이미지와 제2 이미지에 포함되는 이상 영역의 거리 차이에 의해 고정 영역과 가변 영역이 분류되고, 분류된 고정 영역과 가변 영역 중 가변 영역을 제거하여 손상 이미지를 만드는 것에 의해 처리될 수 있다. 상기 손상 이미지는 상기 제1 이미지와 제2 이미지 중 차량이 이미지의 중앙영역에 가깝게 위치하는 이미지에서 가변 영역을 제거한 이미지일 수 있다.In the noise removal process, the fixed region and the variable region are classified according to the difference in distance between the abnormal region included in the first image and the second image, and the variable region is removed from the classified fixed region and the variable region to create a damaged image. can be processed by The damaged image may be an image in which a variable region is removed from an image in which the vehicle is located close to a central region of the first image and the second image.

예를 들어, 상기 제1 이미지는 제1 이상 영역과 제2 이상 영역을 포함하는 다수의 이상 영역을 포함하고, 상기 제2 이미지는 제3 이상 영역과 제4 이상 영역을 포함하는 다수의 이상 영역을 포함하고, 상기 제1 이상 영역과 상기 제3 이상 영역이 대응되고, 상기 제2 이상 영역과 제4 이상 영역이 대응되는 것으로 정의한다.For example, the first image includes a plurality of abnormal regions including a first abnormal region and a second abnormal region, and the second image includes a plurality of abnormal regions including a third abnormal region and a fourth abnormal region including, wherein the first abnormal region and the third abnormal region correspond, and the second abnormal region and the fourth abnormal region correspond to each other.

상기 노이즈 제거처리는 제1 이미지에서의 각각의 이상 영역의 위치와 상기 제2 이미지에서의 각각의 이상 영역의 위치에 기초하여 고정영역과 가변 영역을 분류할 수 있다.The noise removal processing may classify the fixed region and the variable region based on the position of each abnormal region in the first image and the position of each abnormal region in the second image.

상기 이상 영역의 위치는 차량의 일부 영역을 기준으로 정의되는 상대적 위치일 수 있다. 즉, 제1 이미지와 제2 이미지에 포함된 차량의 다수의 특징점 중 어느 하나의 특징점을 제1 특징점으로 정의하는 경우 상기 이상 영역의 위치하는 상기 제1 특징점을 기준으로 정의될 수 있다.The position of the abnormal region may be a relative position defined based on a partial region of the vehicle. That is, when any one of a plurality of feature points of the vehicle included in the first image and the second image is defined as the first feature point, it may be defined based on the first feature point located in the abnormal region.

상기 제1 특징점은 각각의 이미지에서 서로 다른 좌표를 가질 수 있다.The first feature point may have different coordinates in each image.

예를 들어, 상기 제1 이미지에서의 제1 특징점은 제1 좌표를 가지고, 상기 제2 이미지에서의 상기 제1 특징점은 제2 좌표를 가질 수 있다.For example, a first feature point in the first image may have first coordinates, and the first feature point in the second image may have second coordinates.

상기 이상 영역은 하나의 점이 아니라, 면적을 가지는 영역이므로, 상기 제1 특징점과의 비교를 위해서는 각 영역을 대표하는 좌표가 정의되어야 한다. 상기 노이즈 제거처리는 각 영역을 대표하는 좌표를 정의할 수 있다. 상기 노이즈 제거처리는 각 영역에 포함되는 다수의 좌표 중 어느 하나의 좌표를 대표하는 좌표로 정의할 수 있다. 예를 들어, 상기 노이즈 제거처리는 각 영역의 중앙의 좌표를 해당영역을 대표하는 좌표로 정의할 수 있다.Since the abnormal region is not a single point but a region having an area, coordinates representing each region must be defined for comparison with the first feature point. The noise removal process can define coordinates representing each area. The noise removal process may be defined as a coordinate representing any one of a plurality of coordinates included in each region. For example, in the noise removal process, the coordinates of the center of each region may be defined as coordinates representing the corresponding region.

상기 제1 이미지의 제1 이상 영역을 대표하는 좌표는 제3 좌표료 정의될 수 있고, 상기 제2 이상 영역을 대표하는 좌표는 제4 좌표로 정의될 수 있다.Coordinates representing the first abnormal region of the first image may be defined as third coordinates, and coordinates representing the second abnormal region may be defined as fourth coordinates.

또한, 상기 제2 이미지에서 제3 이상 영역을 대표하는 좌표는 제5 좌표로 정의될 수 있고, 상기 제4 이상 영역을 대표하는 좌표는 제6 좌표로 정의될 수 있다.Also, in the second image, the coordinates representing the third abnormal region may be defined as fifth coordinates, and the coordinates representing the fourth abnormal region may be defined as the sixth coordinates.

상기 제1 좌표와 상기 제3 좌표 사이의 제1 거리와 상기 제2 좌표와 상기 제5 좌표 사이의 제2 거리는 서로 대응될 수 있다. 상기 제1 좌표와 상기 제4 좌표 사이의 제3 거리와 상기 제2 좌표와 상기 제6 좌표 사이의 제4 거리는 다를 수 있다.A first distance between the first coordinates and the third coordinates and a second distance between the second coordinates and the fifth coordinates may correspond to each other. A third distance between the first coordinates and the fourth coordinates may be different from a fourth distance between the second coordinates and the sixth coordinates.

상기 제1 거리와 상기 제2 거리의 차이는 상기 제3 거리와 상기 제4 거리의 차이보다 작을 수 있다.A difference between the first distance and the second distance may be smaller than a difference between the third distance and the fourth distance.

상기 노이즈 제거 처리는 상기 제1 거리와 상기 제2 거리의 차이 값과 상기 제3 거리와 상기 제4 거리의 차이 값에 의해 이상영역이 고정 영역인지 가변 영역인지 분류할 수 있다.The noise removal process may classify whether the abnormal region is a fixed region or a variable region based on a difference value between the first distance and the second distance and a difference value between the third distance and the fourth distance.

상기 고정 영역은 차량 내에서 위치하는 상대 좌표가 변하지 않고, 상기 가변 영역은 차량 내에서 위치하는 상태 좌표가 변할 수 있다.In the fixed region, relative coordinates positioned in the vehicle may not change, and in the variable region, state coordinates positioned in the vehicle may change.

상기 노이즈 제거 처리는 상기 제1 거리와 상기 제2 거리의 차이 값이 미리 정해진 값 미만인 경우에 고정 영역으로 분류할 수 있고, 상기 제3 거리와 상기 제4 거리의 차이 값이 미리 정해진 값 이상인 경우 가변 영역으로 분류할 수 있다.The noise removal process may be classified as a fixed region when the difference between the first distance and the second distance is less than a predetermined value, and when the difference between the third distance and the fourth distance is greater than or equal to a predetermined value It can be classified as a variable region.

즉, 상기 제1 이상 영역과 제3 이상 영역은 고정 영역으로 분류될 수 있고, 상기 제2 이상 영역과 제4 이상 영역은 가변 영역으로 분류될 수 있다.That is, the first abnormal region and the third abnormal region may be classified as a fixed region, and the second abnormal region and the fourth abnormal region may be classified as a variable region.

노이즈 제거 처리는 신경망 모델을 이용하여 수행될 수 있다. 신경망 모델은 컨벌루션 신경망 레이어를 포함하고, 반사 영역이 마스킹된 복수의 차량 이미지를 포함하는 학습 데이터를 이용하여, 반사 영역이 제거된 이미지를 획득하도록 학습될 수 있다. 노이즈 제거 처리는 학습된 신경망 모델을 이용하여, 대상 원본 이미지들로부터 반사 영역이 제거된 차량 이미지를 획득하는 것을 포함할 수 있다. The noise removal processing may be performed using a neural network model. The neural network model may include a convolutional neural network layer, and may be trained to obtain an image in which the reflective region is removed by using training data including a plurality of vehicle images in which the reflective region is masked. The noise removal processing may include acquiring a vehicle image in which a reflection region is removed from the target original images by using the learned neural network model.

한편, 위 실시예들에서는 세 개 또는 두 개의 원본 이미지에 기초하여 노이즈 제거 처리된 이미지를 획득하는 경우를 기준으로 설명하였으나, 이는 예시에 불과하며, 노이즈 제거 처리는 보다 적거나 많은 수의 원본 이미지에 기초하여 수행될 수도 있다.Meanwhile, in the above embodiments, a case in which an image subjected to noise removal is obtained based on three or two original images has been described as a reference. It may be performed based on

획득된 비-이미지 데이터에 대한 전처리가 수행될 수 있다. Pre-processing may be performed on the acquired non-image data.

예컨대, 획득된 비-이미지 데이터는 차량 정보 획득에 용이한 형태로 변형될 수 있다. 비-이미지 데이터는 수치화될 수 있다. 비-이미지 데이터는 바이너리 데이터 형태로 변환될 수 있다. 복수의 비-이미지 데이터에 기초하여, 차량 정보 획득을 위한 점수가 계산될 수 있다. For example, the obtained non-image data may be transformed into a form that is easy to obtain vehicle information. Non-image data can be quantified. Non-image data may be converted into binary data form. Based on the plurality of non-image data, a score for obtaining vehicle information may be calculated.

2.3 차량 정보 획득2.3 Acquisition of vehicle information

차량 관리 프로세스는 차량 데이터에 기초하여 차량 정보를 획득하는 것을 포함할 수 있다.The vehicle management process may include obtaining vehicle information based on vehicle data.

차량 정보는 대상 차량을 구성하는 부품과 관련된 부품 정보, 대상 차량 내/외부의 손상과 관련된 손상 정보, 대상 차량의 종류와 관련된 차종 정보 및/또는 대상 차량을 식별하기 위한 식별 정보를 포함할 수 있다. The vehicle information may include parts information related to parts constituting the target vehicle, damage information related to damage inside/outside the target vehicle, vehicle model information related to the type of the target vehicle, and/or identification information for identifying the target vehicle. .

차량 정보는 차량 데이터로부터 추출되거나, 차량 데이터를 처리하여 얻어질 수 있다. 차량 정보는 차량 데이터를 입력 데이터로 하여, 차량 정보를 획득하도록 설계된 알고리즘 또는 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 얻어질 수 있다. Vehicle information may be extracted from vehicle data or obtained by processing vehicle data. Vehicle information may be obtained using vehicle data as input data, an algorithm designed to obtain vehicle information, or a neural network model trained to obtain vehicle information.

차량 정보 획득을 위하여, 입력 이미지를 하나 이상의 라벨에 대하여 분류 또는 예측하는 분류기 알고리즘이 이용될 수 있다. 분류 또는 예측을 위하여, 다양한 형태의 알고리즘이 이용될 수 있다. 예컨대, K-최근접이웃(k-nearest neighbor), 서포트벡터머신(Support Vector Machine), 인공신경망(Artificial Neural Nerwork), 의사결정나무(Decision Tree), 자기조직화 맵(Self-organizing map), 논리적 회귀(Logistic regression) 등이 이용될 수 있다. In order to obtain vehicle information, a classifier algorithm that classifies or predicts an input image with respect to one or more labels may be used. For classification or prediction, various types of algorithms may be used. For example, k-nearest neighbor, support vector machine, artificial neural network, decision tree, self-organizing map, logical Logistic regression or the like may be used.

인공 신경망은 분류기, 하이브리드형 분류기 (Hybrid classifiers), 앙상블형 분류기 (Ensemble classifiers), 선형 회귀(Linear Regression) 신경망 등일 수 있다. 인공 신경망은 지도 학습, 비지도 학습 또는 강화 학습된 모델일 수 있다. The artificial neural network may be a classifier, hybrid classifiers, ensemble classifiers, a linear regression neural network, or the like. An artificial neural network may be a supervised learning, unsupervised learning, or reinforcement learning model.

도 10은 일 실시예에 따른 차량 정보 획득을 위한 신경망 모델을 설명하기 위한 도면이다.10 is a diagram for explaining a neural network model for acquiring vehicle information according to an embodiment.

도 10을 참조하면, 일 실시예에 따른 신경망 모델은 분류기 형태로 마련될 수 있다. 일 실시예에 따르면, 신경망 모델은 입력 레이어(IL), 풀링 레이어(PL), 컨벌루션 신경망 레이어(CL), 전연결 레이어(FCL), 히든 레이어(HL) 및 출력 레이어(OL) 등을 포함하고, 입력 이미지에 기초하여 특징 벡터를 획득할 수 있다. 신경망 모델은 입력 이미지를 하나 이상의 라벨로 분류하는 분류기 형태로 마련될 수 있다. 또는 신경망 모델은 회귀 모델 형태로 마련될 수도 있다. 신경망 모델은 입력에 이미지에 기초하여, 특정 차량 정보에 대한 선형 출력값을 획득하는 회귀 모델로 마련될 수 있다.Referring to FIG. 10 , a neural network model according to an embodiment may be provided in the form of a classifier. According to an embodiment, the neural network model includes an input layer (IL), a pooling layer (PL), a convolutional neural network layer (CL), a full-connection layer (FCL), a hidden layer (HL), an output layer (OL), and the like. , a feature vector may be obtained based on the input image. The neural network model may be prepared in the form of a classifier that classifies input images into one or more labels. Alternatively, the neural network model may be prepared in the form of a regression model. The neural network model may be prepared as a regression model that obtains a linear output value for specific vehicle information based on an image as an input.

신경망 모델은 차량의 일부를 촬영하여 획득된 차량 이미지를 입력으로 하여, 출력 정보를 획득할 수 있다. 출력 정보는 입력된 이미지가 대상 오브젝트를 포함하는지 여부를 나타낼 수 있다. 예컨대, 신경망 모델의 출력 레이어는 확률 함수가 부여된 출력 노드를 포함할 수 있다. 신경망 모델의 출력 레이어는 대상 이미지가 대상 오브젝트를 포함하는지 여부를 나타내는 확률 함수가 부여된 출력 노드를 포함할 수 있다. 출력 레이어는 하나 이상의 대상 오브젝트에 대하여, 입력 이미지가 각각의 대상 오브젝트를 포함하는지 여부를 나타내는 하나 이상의 확률 함수가 부여된 출력 노드를 포함할 수 있다.The neural network model may acquire output information by taking a vehicle image obtained by photographing a part of the vehicle as an input. The output information may indicate whether the input image includes the target object. For example, the output layer of the neural network model may include an output node to which a probability function is assigned. The output layer of the neural network model may include an output node to which a probability function indicating whether the target image includes the target object is assigned. The output layer may include, with respect to one or more target objects, an output node to which one or more probability functions indicating whether an input image includes each target object are assigned.

차량 정보 획득을 위하여, 입력 이미지에 기초하여, 이미지에 포함된 하나 이상의 오브젝트의 세그멘테이션을 포함하는 세그멘테이션 맵(또는 이미지)를 획득하는 신경망 모델이 이용될 수 있다. 세그멘테이션 맵을 획득하기 위하여, 다양한 형태의 신경망이 이용될 수 있다. 예컨대, FCN(Fully Convolutional Network), SegNet, UNet, UNet++, DeConvNet 등이 이용될 수 있다.In order to obtain vehicle information, a neural network model that obtains a segmentation map (or image) including segmentation of one or more objects included in the image may be used, based on an input image. In order to obtain the segmentation map, various types of neural networks may be used. For example, a Fully Convolutional Network (FCN), SegNet, UNet, UNet++, DeConvNet, etc. may be used.

도 11은 일 실시예에 따른 차량 정보 획득을 위한 신경망 모델을 설명하기 위한 도면이다. 도 11을 참조하면, 일 실시예에 따른 신경망 모델은 영상 분할(Image Segmentation) 신경망 모델일 수 있다. 신경망 모델은 입력 레이어(IL), 다운샘플링을 수행하는 풀링 레이어(PL), 특징 맵을 획득하는 컨벌루션 신경망 레이어(CL), 세그멘테이션 맵을 획득하는 디컨벌루션 신경망 레이어(DCL), 업샘플링을 수행하는 언풀링 레이어(UPL) 및 출력 레이어(OL) 등을 포함할 수 있다.11 is a diagram for explaining a neural network model for acquiring vehicle information according to an embodiment. Referring to FIG. 11 , a neural network model according to an embodiment may be an image segmentation neural network model. The neural network model consists of an input layer (IL), a pooling layer (PL) that performs downsampling, a convolutional neural network layer (CL) that acquires a feature map, a deconvolutional neural network layer (DCL) that acquires a segmentation map, and upsampling. It may include an unpooling layer (UPL), an output layer (OL), and the like.

풀링 레이어는 최댓값 풀링, 최소값 풀링, 평균값 풀링 등을 수행할 수 있다. 언풀링 레이어는 풀링 레이어에 대응될 수 있다. 디컨벌루션 레이어는 중간(intermediate) 세그멘테이션 맵을 생성할 수 있다. 언풀링 레이어는 중간 세그멘테이션 맵을 업샘플링할 수 있다. 언풀링 레이어는 최대값 언풀링, 최근접 이웃 언풀링 등을 수행할 수 있다.The pooling layer may perform maximum value pooling, minimum value pooling, average value pooling, and the like. The unpooling layer may correspond to the pooling layer. The deconvolution layer may generate an intermediate segmentation map. The unpooling layer may upsample the intermediate segmentation map. The unpooling layer may perform maximum value unpooling, nearest neighbor unpooling, and the like.

차량 정보 획득을 위하여, 입력 이미지로부터 하나 이상의 오브젝트를 검출하는 신경망 모델이 이용될 수 있다. 오브젝트의 검출을 위하여, 다양한 형태의 신경망 모델이 이용될 수 있다. YOLO(You Only Look Once), R-CNN, fast-RNN, faster R-CNN, SAS 딥러닝, SPPnet, 등을 이용하여 수행될 수 있다.In order to obtain vehicle information, a neural network model that detects one or more objects from an input image may be used. For detection of an object, various types of neural network models may be used. It can be performed using YOLO (You Only Look Once), R-CNN, fast-RNN, faster R-CNN, SAS deep learning, SPPnet, etc.

도 12는 일 실시예에 따른 차량 정보 획득을 위한 신경망 모델을 설명하기 위한 도면이다. 일 실시예에 따르면, 부품 정보 획득을 위하여, fast-RNN 모델이 이용될 수 있다. 예컨대, 도 12를 참조하면, 일 실시예에 따른 신경망 모델은 입력 레이어(OL), 컨벌루션 신경망 레이어(CNL), 특징 맵(FM), 영역 제안(region proposal) 신경망(RPN), 관심 영역(ROI; Reason of Interest) 바운딩 박스(RBB), ROI 풀링 레이어(RP) 및 전연결 레이어를 포함하는 딥러닝 신경망(DNN)을 포함할 수 있다. 12 is a diagram for explaining a neural network model for acquiring vehicle information according to an embodiment. According to an embodiment, a fast-RNN model may be used to obtain part information. For example, referring to FIG. 12 , a neural network model according to an embodiment includes an input layer (OL), a convolutional neural network layer (CNL), a feature map (FM), a region proposal neural network (RPN), and a region of interest (ROI). ; Reason of Interest) It may include a deep learning neural network (DNN) including a bounding box (RBB), an ROI pooling layer (RP), and an all-connection layer.

영역 제안 신경망은 이미지의 특징 맵에 기초하여, 하나 이상의 ROI(또는 오브젝트 제안) 또는 ROI의 바운딩 박스를 획득할 수 있다. 영역 제안 신경망은 개별 ROI(또는 오브젝트 제안) 또는 그 바운딩 박스에 대하여, 스코어를 획득할 수 있다. 스코어는 대상 ROI가 검출 대상 오브젝트에 일치하는 정도를 나타낼 수 있다. The region proposal neural network may obtain one or more ROIs (or object proposals) or a bounding box of the ROIs based on the feature map of the image. A region proposal neural network may obtain a score for an individual ROI (or object proposal) or its bounding box. The score may indicate a degree to which the target ROI matches the detection target object.

ROI 풀링 레이어는 개별 ROI에 대해 풀링을 수행할 수 있다. ROI 풀링 레이어는 개별 ROI에 대응되는 특징 맵에 대하여 풀링을 수행할 수 있다. ROI 풀링 레이어는 개별 ROI에 대하여 사이즈 조절을 수행할 수 있다. ROI 풀링 레이어는 미리 정해진 크기의 특징 맵을 획득할 수 있다. 전연결 신경망은 ROI 풀링 레이어를 통하여 획득된 특징 맵을 플래튼하여 획득된 값을 이용할 수 있다. The ROI pooling layer may perform pooling on individual ROIs. The ROI pooling layer may perform pooling on a feature map corresponding to an individual ROI. The ROI pooling layer may perform size adjustment on individual ROIs. The ROI pooling layer may acquire a feature map of a predetermined size. The fully connected neural network may use a value obtained by flattening the feature map obtained through the ROI pooling layer.

신경망 모델은 전연결 신경망 레이어 및 전연결 신경망 레이어와 연결되는 은닉 레이어 및 출력 레이어를 통하여, 개별 ROI에 포함되는 오브젝트의 식별자 또는 개별 오브젝트의 바운딩 박스를 획득할 수 있다. The neural network model may acquire an identifier of an object included in an individual ROI or a bounding box of an individual object through the all-connected neural network layer and the hidden layer and the output layer connected to the all-connected neural network layer.

한편, 위에서 설명한 신경망 모델들은 예시에 불과하며, 본 명세서에서 설명하는 차량 정보의 획득이 이에 한정되지는 아니한다. 차량 정보의 획득은 본 명세서에서 설명되지 아니한 알고리즘 또는 신경망 모델을 이용하여 수행될 수 있다. Meanwhile, the neural network models described above are only examples, and the acquisition of vehicle information described herein is not limited thereto. Acquisition of vehicle information may be performed using an algorithm or neural network model not described herein.

신경망 모델은 추가 정보를 추가 입력으로 이용하여, 차량 정보를 획득할 수 있다. 신경망 모델은 추가 정보에 기초하여 생성된 추가 입력 및 차량의 이미지에 기초하여, 차량 정보를 획득할 수 있다. 추가 입력은 차량의 종류, 모델명, 제조사, 연식 및/또는 색상 등의 추가 정보에 기초하여 획득될 수 있다. 추가 입력은 입력 이미지 또는 입력 이미지와 상이한 추가 이미지에 기초하여 획득된 특징값일 수 있다. The neural network model may acquire vehicle information by using the additional information as an additional input. The neural network model may acquire vehicle information based on the additional input generated based on the additional information and the image of the vehicle. The additional input may be obtained based on additional information such as the type, model name, manufacturer, year, and/or color of the vehicle. The additional input may be an input image or a feature value obtained based on an additional image different from the input image.

도 13은 일 실시예에 따른 신경망 모델을 예시하기 위한 도면이다. 도 13을 참조하면, 합성곱 신경망 네트워크 및 전연결 레이어, 은닉 레이어 및 출력 레이어 등을 포함하는 신경망(예컨대, 이미지 기반 분류기 신경망)은 추가 정보를 더 이용하여 차량 정보를 획득할 수 있다. 예컨대, 분류기 모델은 합성곱 신경망 및 적어도 하나의 전연결 레이어를 포함하고, 적어도 하나의 전연결 레이어는 합성곱 신경망을 통하여 획득된 특징값 및 추가 정보에 기초하여 획득된 추가 입력값(AI)에 대응되는 하나 이상의 노드를 포함할 수 있다. 분류기 모델은 추가 입력값(AI)을 입력값으로 하는 적어도 하나의 노드를 포함할 수 있다. 13 is a diagram illustrating a neural network model according to an embodiment. Referring to FIG. 13 , a convolutional neural network and a neural network including a pre-connection layer, a hidden layer, and an output layer (eg, an image-based classifier neural network) may further use additional information to acquire vehicle information. For example, the classifier model includes a convolutional neural network and at least one preconnected layer, and the at least one preconnected layer is an additional input value (AI) obtained based on feature values and additional information obtained through the convolutional neural network. It may include one or more corresponding nodes. The classifier model may include at least one node having an additional input value AI as an input value.

추가 정보는 도 11에서 예시한 신경망 모델의 경우에도 유사하게 이용될 수 있다. 예컨대, 일 실시예에 따른 영역 분할 신경망 모델은 인코딩 파트 및 디코딩 파트를 포함하고, 추가 정보에 기초하여 생성된 추가 입력을 더 이용하여 차량 정보를 획득할 수 있다. 영역 분할 신경망 모델은 추가 정보에 기초하여 생성된 추가 입력을 이용하는 하나 이상의 노드를 포함할 수 있다. 영역 분할 신경망 모델은 추가 정보에 기초하여 생성된 추가 입력을 파라미터로 이용하는 하나 이상의 레이어를 포함할 수 있다. Additional information may be similarly used in the case of the neural network model illustrated in FIG. 11 . For example, the region division neural network model according to an embodiment includes an encoding part and a decoding part, and may acquire vehicle information by further using an additional input generated based on the additional information. A region segmentation neural network model may include one or more nodes that use additional inputs generated based on the additional information. The region segmentation neural network model may include one or more layers that use additional inputs generated based on the additional information as parameters.

추가 정보는 도 12에서 예시한 신경망 모델의 경우에도 유사하게 이용될 수 있다. 예컨대, 일 실시예에 따른 신경망 모델은 입력 레이어, 컨벌루션 신경망 레이어, 특징 맵, 영역 제안(region proposal) 신경망, 관심 영역(ROI; Reason of Interest) 레이어, ROI 풀링 레이어 및 전연결 신경망을 포함하고, 전연결 신경망은 추가 정보에 기초하여 생성된 추가 입력을 입력값으로 하는 적어도 하나의 노드를 포함하는 레이어를 포함할 수 있다. Additional information may be similarly used in the case of the neural network model illustrated in FIG. 12 . For example, the neural network model according to an embodiment includes an input layer, a convolutional neural network layer, a feature map, a region proposal neural network, a reason of interest (ROI) layer, an ROI pooling layer, and a full-connection neural network, The fully connected neural network may include a layer including at least one node having an additional input generated based on the additional information as an input value.

일 실시예에 따르면, 차량 이미지 및 추가 정보에 기초하여 차량 정보를 획득하는 차량 관리 보조 장치가 제공될 수 있다. According to an embodiment, a vehicle management assistance apparatus for obtaining vehicle information based on a vehicle image and additional information may be provided.

차량 이미지에 기초하여 차량 외부와 관련된 차량 정보를 획득하는 차량 관리 보조 장치는, 차량의 외부를 촬영하여 획득된 차량 이미지를 획득하는 이미지 획득부, 차량의 특성과 관련된 추가 정보를 획득하는 추가 정보 획득부 및 차량 이미지에 기초하여 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 차량 정보를 획득하는 처리부를 포함할 수 있다. The vehicle management assistance device for acquiring vehicle information related to the exterior of the vehicle based on the vehicle image includes an image acquisition unit that acquires a vehicle image obtained by photographing the exterior of the vehicle, and additional information acquisition that acquires additional information related to characteristics of the vehicle and a processing unit configured to acquire vehicle information using a neural network model trained to acquire vehicle information based on the vehicle and vehicle image.

신경망 모델은 차량 이미지에 기초하여 제1 특징 세트를 획득하도록 학습되고 적어도 하나의 합성곱 신경망 레이어를 포함하는 제1 부분 및 제1 특징 세트와 추가 정보에 기초하여 제2 특징 세트를 획득하도록 학습되는 제2 부분을 포함할 수 있다.The neural network model is trained to obtain a first feature set based on the vehicle image and is trained to obtain a second feature set based on the first feature set and additional information and a first part comprising at least one convolutional neural network layer. It may include a second part.

신경망 모델은 분류기 또는 분할(segmentation) 모델일 수 있다. 신경망 모델은 CNN, FCN(Fully Convolutional Network), SegNet, UNet, UNet++, DeConvNet 등의 형태로 마련될 수 있다.The neural network model may be a classifier or a segmentation model. The neural network model may be prepared in the form of CNN, FCN (Fully Convolutional Network), SegNet, UNet, UNet++, DeConvNet, and the like.

신경망 모델은 차량 이미지에 기초하여 특징 세트를 획득하도록 학습될 수 있다. 신경망 모델은 차량 이미지에 기초하여 차량의 부품 정보 또는 손상 정보를 획득하도록 학습될 수 있다. 신경망 모델은 부품 정보가 라벨링된 차량 이미지 또는 손상 정보가 라벨링된 차량 이미지를 포함하는 학습 데이터를 이용하여 학습될 수 있다. The neural network model may be trained to obtain a feature set based on the vehicle image. The neural network model may be trained to obtain part information or damage information of the vehicle based on the vehicle image. The neural network model may be trained using training data including a vehicle image labeled with part information or a vehicle image labeled with damage information.

신경망 모델은 차량 이미지 및 추가 정보에 기초하여 손상 정보 또는 부품 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 추가 정보 및 추가 정보와 연관되고 손상 정보 또는 부품 정보가 라벨링된 차량 이미지를 포함하는 학습 데이터에 기초하여 학습될 수 있다. 추가 정보는 이미지 또는 비-이미지 정보일 수 있다. 차량의 특성과 관련된 추가 정보는, 차량의 제조사, 색상 정보, 연식, 차종 중 적어도 하나에 기초하여 결정될 수 있다. 차량의 특성과 관련된 추가 정보는, 차량의 내부를 촬영하여 획득된 차량 내부 이미지에 기초하여 획득될 수도 있다. The neural network model may be trained to obtain damage information or parts information based on the vehicle image and additional information. The neural network model may be trained based on training data comprising additional information and a vehicle image associated with the additional information and labeled with damage information or part information. The additional information may be image or non-image information. The additional information related to the characteristics of the vehicle may be determined based on at least one of a vehicle manufacturer, color information, a year, and a vehicle model. The additional information related to the characteristics of the vehicle may be obtained based on an image inside the vehicle obtained by photographing the interior of the vehicle.

처리부는 이미지 획득부를 통하여 대상 차량의 외부를 촬영하여 획득된 대상 차량 이미지를 획득하고, 추가 정보 획득부를 통하여 대상 차량의 특성과 관련된 대상 추가 정보를 획득하고, 대상 차량 이미지에 기초하여 신경망 모델을 이용하여 대상에 대한 대상 차량 정보를 획득할 수 있다.The processing unit acquires the target vehicle image obtained by photographing the exterior of the target vehicle through the image acquisition unit, obtains target additional information related to the characteristics of the target vehicle through the additional information acquisition unit, and uses a neural network model based on the target vehicle image Thus, target vehicle information for the target may be acquired.

신경망 모델은 차량 외부의 손상과 관련된 손상 정보를 획득하도록 학습될 수 있다. 제1 특징 세트는 차량의 부품, 종류, 색상, 구성, 형태 등을 나타내는 적어도 하나의 특징 값을 포함할 수 있다. 제2 특징 세트는 차량의 외부의 손상 여부와 관련된 적어도 하나의 특징 값을 포함할 수 있다. 제2 특징 세트는 차량의 외부 손상 유무를 나타내는 특징 값을 포함할 수 있다. 제2 특징 세트는 차량의 외부 손상의 종류를 나타내는 하나 이상의 특징 값을 포함할 수 있다. 특징 세트를 구성하는 특징 값은 확률 함수의 값으로 획득될 수 있다. The neural network model can be trained to obtain damage information related to damage outside the vehicle. The first feature set may include at least one feature value indicating a part, type, color, configuration, shape, etc. of the vehicle. The second feature set may include at least one feature value related to whether the vehicle is damaged or not. The second feature set may include a feature value indicating whether or not the vehicle is damaged externally. The second feature set may include one or more feature values indicating a type of external damage to the vehicle. A feature value constituting the feature set may be obtained as a value of a probability function.

신경망 모델은 차량의 외부를 구성하는 부품과 관련된 부품 정보를 획득하도록 학습될 수 있다. 제1 특징 세트는 차량의 부품, 종류, 색상, 구성, 형태 등을 나타내는 적어도 하나의 특징 값을 포함할 수 있다. 제2 특징 세트는 차량의 외부를 구성하는 부품과 관련된 적어도 하나의 특징 값을 포함할 수 있다. 제2 특징 세트는 차량을 구성하는 부품의 종류를 나타내는 하나 이상의 특징 값을 포함할 수 있다. 각 특징 값은, 입력된 차량 이미지에 특정 부품이 포함되는지 여부 또는 포함할 확률을 나타낼 수 있다. The neural network model may be trained to acquire part information related to parts constituting the exterior of the vehicle. The first feature set may include at least one feature value indicating a part, type, color, configuration, shape, etc. of the vehicle. The second feature set may include at least one feature value related to a component constituting the exterior of the vehicle. The second feature set may include one or more feature values indicating types of parts constituting the vehicle. Each feature value may indicate whether or not a specific part is included in the input vehicle image or a probability of including it.

제2 부분은 제1 특징 세트 및 추가 정보에 기초하여, 차량의 외부를 구성하는 적어도 하나의 부품과 관련된 제2 특징 세트를 획득할 수 있다. 제2 특징 세트는 제1 부품이 분포하는 영역을 나타내는 제1 영역 특징 세트 및 제2 부품이 분포하는 영역을 나타내는 제2 영역 특징 세트를 포함할 수 있다.The second part may acquire, based on the first feature set and the additional information, a second feature set related to at least one part constituting the exterior of the vehicle. The second set of features may include a first set of regional features representing regions in which the first part is distributed and a second set of regional features indicating regions in which the second part is distributed.

제2 부분은 제1 특징 세트 및 추가 정보에 기초하여, 대상 차량의 외부에 위치하는 적어도 하나의 손상 영역과 관련된 제2 특징 세트를 획득할 수 있다. 제2 특징 세트는 손상 영역의 위치를 나타내는 손상 영역 특징 세트를 포함할 수 있다. The second part may obtain, based on the first feature set and the additional information, a second feature set related to at least one damaged area located outside of the target vehicle. The second set of features may include a set of damage area features indicating the location of the damage area.

다른 일 실시예에 따르면, 차량 이미지 및 추가 정보에 기초하여 차량 정보를 획득하는 차량 관리 보조 방법이 제공될 수 있다. 차량 관리 보조 방법에 대하여, 특별한 설명이 없는 한, 전술한 차량 관리 보조 장치에 관한 내용이 유사하게 적용될 수 있다.According to another embodiment, a vehicle management assistance method for acquiring vehicle information based on a vehicle image and additional information may be provided. With respect to the vehicle management assistance method, the above-described information regarding the vehicle management assistance apparatus may be similarly applied unless otherwise specified.

도 30은 일 실시예에 따른 차량 관리 보조 방법을 설명하기 위한 도면이다.30 is a diagram for describing a vehicle management assistance method according to an exemplary embodiment.

차량 이미지를 획득하는 이미지 획득부, 차량의 특성과 관련된 추가 정보를 획득하는 추가 정보 획득부 및 차량 이미지와 추가 정보에 기초하여 차량 정보를 획득하는 처리부를 포함하는 차량 관리 보조 장치를 이용하여, 차량 이미지에 기초하여 차량의 외부와 관련된 정보를 획득하는 차량 관리 보조 방법이 제공될 수 있다.Using a vehicle management assistance device including an image acquisition unit that acquires a vehicle image, an additional information acquisition unit that acquires additional information related to characteristics of the vehicle, and a processing unit that acquires vehicle information based on the vehicle image and the additional information, A vehicle management assistance method for acquiring information related to the exterior of the vehicle based on the image may be provided.

도 30을 참조하면, 차량 관리 보조 방법은 대상 차량 이미지를 획득하는 단계(S3010), 대상 차량의 특성과 관련된 대상 추가 정보를 획득하는 단계(S3030) 및 대상 차량 이미지 및 대상 추가 정보에 기초하여 대상 차량 정보를 획득하는 단계(S3050)를 더 포함할 수 있다. Referring to FIG. 30 , the vehicle management assistance method includes the steps of acquiring a target vehicle image (S3010), acquiring additional target information related to characteristics of the target vehicle (S3030), and a target based on the target vehicle image and target additional information The method may further include obtaining vehicle information (S3050).

차량 관리 보조 방법은, 이미지 획득부를 통하여 대상 차량에 대한 대상 차량 이미지를 획득하는 단계(S3010)를 포함할 수 있다. 대상 차량 이미지는 차량을 임의의 방향에서 촬영한 이미지일 수 있다. 또는, 대상 차량 이미지는 차량을 정면, 측면 또는 후면에서 촬영한 이미지일 수 있다. The vehicle management assistance method may include acquiring a target vehicle image of the target vehicle through the image acquisition unit ( S3010 ). The target vehicle image may be an image obtained by photographing the vehicle in an arbitrary direction. Alternatively, the target vehicle image may be an image photographed from the front, side, or rear of the vehicle.

차량 관리 보조 방법은, 추가 정보 획득부를 통하여 대상 차량의 특성과 관련된 대상 추가 정보를 획득하는 단계(S3030)를 포함할 수 있다. The vehicle management assistance method may include acquiring additional target information related to the characteristics of the target vehicle through the additional information obtaining unit ( S3030 ).

차량 관리 보조 방법은, 처리부가 대상 추가 정보 및 대상 차량 이미지에 기초하여 대상 차량에 대한 대상 차량 정보를 획득하는 단계(S3050)를 포함할 수 있다. The vehicle management assistance method may include, by the processor, obtaining target vehicle information on the target vehicle based on the target additional information and the target vehicle image ( S3050 ).

대상 차량에 대한 차량 정보를 획득하는 단계(S3050)는, 대상 차량 이미지에 기초하여, 차량 이미지에 기초하여 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여, 대상 차량에 대한 대상 차량 정보를 획득하는 것을 더 포함할 수 있다. The step of obtaining vehicle information on the target vehicle ( S3050 ) includes, on the basis of the target vehicle image, using a neural network model trained to obtain vehicle information based on the vehicle image to obtain target vehicle information on the target vehicle. may include more.

신경망 모델은 차량 이미지에 기초하여 제1 특징 세트를 획득하도록 학습되고 적어도 하나의 합성곱 신경망 레이어를 포함하는 제1 부분 및 제1 특징 세트와 추가 정보에 기초하여 제2 특징 세트를 획득하도록 학습되는 제2 부분을 포함할 수 있다.The neural network model is trained to obtain a first feature set based on the vehicle image and is trained to obtain a second feature set based on the first feature set and additional information and a first part comprising at least one convolutional neural network layer. It may include a second part.

신경망 모델은 차량 외부의 손상과 관련된 손상 정보를 획득하도록 학습되고, 제2 특징 세트는 차량의 외부의 손상 여부와 관련된 적어도 하나의 특징 값을 포함할 수 있다.The neural network model is trained to acquire damage information related to damage to the exterior of the vehicle, and the second feature set may include at least one feature value related to whether or not the vehicle is damaged outside.

신경망 모델은 차량의 외부를 구성하는 부품과 관련된 부품 정보를 획득하도록 학습되고, 제2 특징 세트는 차량의 외부를 구성하는 부품과 관련된 적어도 하나의 특징 값을 포함할 수 있다.The neural network model is trained to obtain part information related to parts constituting the exterior of the vehicle, and the second feature set may include at least one feature value related to parts constituting the exterior of the vehicle.

차량의 특성과 관련된 추가 정보는, 차량의 제조사, 색상 정보, 연식, 차종 중 적어도 하나에 기초하여 결정될 수 있다.The additional information related to the characteristics of the vehicle may be determined based on at least one of a vehicle manufacturer, color information, a year, and a vehicle model.

차량의 특성과 관련된 추가 정보는, 차량의 내부를 촬영하여 획득된 차량 내부 이미지에 기초하여 획득될 수 있다.The additional information related to the characteristics of the vehicle may be obtained based on an image inside the vehicle obtained by photographing the interior of the vehicle.

제2 부분은 제1 특징 세트 및 추가 정보에 기초하여, 대상 차량의 외부를 구성하는 적어도 하나의 부품과 관련된 제2 특징 세트를 획득할 수 있다. 제2 특징 세트는 제1 부품이 분포하는 영역을 나타내는 제1 영역 특징 세트 및 제2 부품이 분포하는 영역을 나타내는 제2 영역 특징 세트를 포함할 수 있다. The second part may acquire a second feature set related to at least one part constituting the exterior of the target vehicle based on the first feature set and the additional information. The second set of features may include a first set of regional features representing regions in which the first part is distributed and a second set of regional features indicating regions in which the second part is distributed.

제2 부분은 제1 특징 세트 및 추가 정보에 기초하여, 대상 차량의 외부에 위치하는 적어도 하나의 손상 영역과 관련된 제2 특징 세트를 획득할 수 있다. 제2 특징 세트는 손상 영역의 위치를 나타내는 손상 영역 특징 세트를 포함할 수 있다.The second part may obtain, based on the first feature set and the additional information, a second feature set related to at least one damaged area located outside of the target vehicle. The second set of features may include a set of damage area features indicating the location of the damage area.

본 명세서에서 설명하는 차량 관리 보조 방법은, 각 방법을 수행하는 프로그램을 저장하는 컴퓨터 판독 가능한 기록 매체의 형태로 제공될 수 있다. The vehicle management assistance method described in this specification may be provided in the form of a computer-readable recording medium storing a program for performing each method.

한편, 신경망 모델은 학습 데이터를 이용하여 학습될 수 있다. 학습 데이터는 획득 대상 정보에 따라 달리 마련될 수 있다. 구체적인 학습 데이터의 형태 및 신경망 모델의 학습에 대하여는 각 정보의 획득과 관련하여 이하에서 보다 상세하게 설명한다. Meanwhile, the neural network model may be trained using training data. The learning data may be prepared differently according to acquisition target information. The form of specific learning data and learning of the neural network model will be described in more detail below in relation to the acquisition of each information.

이하에서는 각 차량 정보의 종류 및 획득 방법에 대하여 설명한다.Hereinafter, the types and acquisition methods of each vehicle information will be described.

2.3.1 부품 정보 획득2.3.1 Obtaining part information

차량을 구성하는 부품과 관련된 부품 정보가 획득될 수 있다.Part information related to parts constituting the vehicle may be acquired.

일 실시예에 따르면, 부품 정보는 차량을 구성하는 부품의 수, 종류, 이름, 식별 정보 등을 포함할 수 있다. According to an embodiment, the part information may include the number, type, name, and identification information of parts constituting the vehicle.

부품 정보는 비-이미지 데이터에 기초하여 획득될 수 있다. 부품 정보는 차량의 종류, 모델명, 제조사, 연식 및/또는 색상 등의 차량 정보를 더 고려하여 결정될 수 있다. 부품 정보는 차량 정보에 기초하여, 미리 저장된 부품 정보 데이터베이스로부터 획득될 수 있다.Part information may be obtained based on non-image data. The part information may be determined by further considering vehicle information such as the type, model name, manufacturer, year, and/or color of the vehicle. The parts information may be obtained from a pre-stored parts information database based on the vehicle information.

부품 정보는 이미지 데이터에 기초하여 획득될 수 있다. 부품 정보는 이미지 데이터에 기초하여 획득된 차량 정보(예컨대, 차량의 종류, 모델명, 제조사, 색상 등)에 기초하여, 미리 저장된 부품 정보 데이터베이스로부터 획득될 수 있다. 부품 정보는 이미지 데이터 및 신경망 모델을 이용하여 획득된 차량 정보에 기초하여, 미리 저장된 부품 정보 데이터베이스로부터 획득될 수 있다.The part information may be obtained based on the image data. The parts information may be acquired from a pre-stored parts information database based on vehicle information (eg, type of vehicle, model name, manufacturer, color, etc.) acquired based on image data. The parts information may be acquired from a pre-stored parts information database based on image data and vehicle information acquired using a neural network model.

부품 정보는 부품의 수, 종류, 이름, 식별 정보 등이 차종, 모델명, 제조사, 연식 등의 구분 정보와 매칭되어 저장된 부품 정보 데이터베이스에 기초하여 획득될 수 있다. 예컨대, 부품 정보 데이터베이스는 특정 모델의 특정 연식 차량을 구성하는 부품의 수, 종류, 이름 및 각 부품에 대응되는 식별 정보를 해당 모델의 해당 연식과 매칭하여 저장할 수 있다. The parts information may be obtained based on the parts information database stored by matching the number, type, name, identification information, etc. of the parts with classification information such as vehicle model, model name, manufacturer, and year. For example, the parts information database may store the number, type, name, and identification information corresponding to each part constituting a specific year vehicle of a specific model by matching it with the corresponding model year.

다른 일 실시예에 따르면, 부품 정보는 차량 이미지에 포함되고 각 부품에 대응되는 부품 영역 정보를 포함할 수 있다. 부품 영역 정보는 차량 이미지에 포함되는 개별 부품 영역의 경계(boundary)를 포함할 수 있다. 부품 영역 정보는 차량 이미지 내에 포함되는 부품 영역 및 각 부품 영역에 대응되는 부품의 명칭 또는 식별 번호를 포함할 수 있다. According to another exemplary embodiment, the part information is included in the vehicle image and may include part area information corresponding to each part. The part region information may include a boundary of an individual part region included in the vehicle image. The part region information may include a parts region included in the vehicle image and a name or identification number of a part corresponding to each part region.

부품 정보는 차량 이미지에 포함된 서로 다른 부품에 대응되는 영역에 대하여 형식을 달리하여 마스킹된 부품 영역 정보를 포함할 수 있다. 부품 정보는 차량 이미지에 포함된 서로 다른 부품에 대응되는 영역에 대하여 다른 색상으로 마스킹된 부품 영역 정보 또는 서로 다른 부품에 대응되는 영역에 상이한 태그로 라벨링된 부품 영역 정보를 포함할 수 있다. The part information may include masked part region information by changing the format of regions corresponding to different parts included in the vehicle image. The part information may include part region information masked with different colors for regions corresponding to different parts included in the vehicle image or parts region information labeled with different tags in regions corresponding to different parts.

도 14는 일 실시예에 따른 부품 영역 정보를 설명하기 위한 도면이다. 도 14를 참조하면, 부품 영역 정보는 차량 이미지 내의 각 부품에 대응되는 부품 영역 정보를 포함할 수 있다. 14 is a diagram for describing part area information according to an exemplary embodiment. Referring to FIG. 14 , the part region information may include part region information corresponding to each part in a vehicle image.

도 14의 (a)를 참조하면, 부품 정보는 차량의 좌전방에서 촬영된 이미지에 포함되는 차량의 헤드라이트에 대응되는 헤드라이트 영역 정보(HL), 차량의 앞범퍼에 대응되는 앞범퍼 영역 정보(FB), 차량의 좌전방 휀더에 대응되는 좌전방 휠 영역 정보(LFF), 차량의 좌전방 도어에 대응되는 좌전방 도어 영역 정보(LFD), 차량의 좌후방 도어에 대응되는 좌후방 도어 영역 정보(LRD), 차량의 번호판에 대응되는 번호판 영역 정보(NP), 차량의 후방 휀더에 대응되는 좌후방 휀더 영역 정보(LRF), 차량의 후드에 대응되는 후드 영역 정보(HO)등을 포함할 수 있다. 각 영역 정보는 각 영역에 대응되는 부품의 명칭 또는 식별 정보와 연관되어 저장될 수 있다. Referring to (a) of FIG. 14 , the part information includes headlight area information HL corresponding to a headlight of the vehicle included in an image photographed from the left front side of the vehicle, and front bumper area information corresponding to the front bumper of the vehicle. (FB), left front wheel area information (LFF) corresponding to the left front fender of the vehicle, left front door area information (LFD) corresponding to the left front door of the vehicle, left rear door area corresponding to the left rear door of the vehicle information (LRD), license plate area information (NP) corresponding to the license plate of the vehicle, left rear fender area information (LRF) corresponding to the rear fender of the vehicle, hood area information (HO) corresponding to the hood of the vehicle, etc. can Each region information may be stored in association with a name or identification information of a part corresponding to each region.

도 14의 (b)를 참조하면, 부품 영역 정보는 차량의 전방에서 촬영된 차량 이미지 내의 각 부품에 대응되는 부품 영역 정보를 포함할 수 있다. 도 14의 (b)를 참조하면, 부품 정보는 차량의 전방 이미지에 포함되는 차량의 헤드라이트에 대응되는 헤드라이트 영역 정보(LHL, RHL), 차량의 앞범퍼에 대응되는 앞범퍼 영역 정보(FB), 차량의 번호판에 대응되는 번호판 영역 정보(NP), 차량의 사이드 미러에 대응되는 사이드 미러 영역 정보(LSM, RSM), 차량의 앞유리에 대응되는 앞유리 영역 정보(FG), 차량의 엠블럼에 대응되는 엠블럼 영역 정보(EM), 차량의 후드에 대응되는 후드 영역 정보(HO) 등을 포함할 수 있다. 각 영역 정보는 각 영역에 대응되는 부품의 명칭 또는 식별 정보와 연관되어 저장될 수 있다.Referring to FIG. 14B , the part region information may include part region information corresponding to each part in a vehicle image captured from the front of the vehicle. Referring to (b) of FIG. 14 , the part information includes headlight area information (LHL, RHL) corresponding to the headlight of the vehicle included in the front image of the vehicle, and front bumper area information (FB) corresponding to the front bumper of the vehicle. ), license plate area information (NP) corresponding to the vehicle's license plate, side mirror area information (LSM, RSM) corresponding to the vehicle's side mirror, windshield area information (FG) corresponding to the vehicle's windshield, vehicle emblem may include emblem area information EM corresponding to , hood area information HO corresponding to the hood of the vehicle, and the like. Each region information may be stored in association with a name or identification information of a part corresponding to each region.

도 14에서는 차량의 좌전방 및 전방에서 촬영된 이미지를 기준으로 부품 영역 정보를 설명하였으나, 이는 예시일 뿐이며, 다양한 방향에서 촬영된 차량 이미지에 대하여 부품 영역 정보가 획득될 수 있다.In FIG. 14 , the parts area information has been described based on the images taken from the front left and the front of the vehicle, but this is only an example, and the parts area information may be obtained with respect to the vehicle images taken from various directions.

일 실시예에 따르면, 부품 정보는 신경망 모델을 이용하여 획득될 수 있다. 부품 정보는 객체 인식(object recognition)을 수행하는 신경망 모델을 이용하여 획득될 수 있다. 부품 정보는 도 10 내지 13과 관련하여 전술한 신경망 모델을 이용하여 획득될 수 있다. According to an embodiment, the part information may be obtained using a neural network model. The part information may be obtained using a neural network model that performs object recognition. The part information may be obtained using the neural network model described above with reference to FIGS. 10 to 13 .

신경망 모델은 차량 이미지를 입력으로 하여, 부품 정보를 획득할 수 있다. 신경망 모델은 입력된 차량 이미지에 포함된 부품의 종류 또는 이름을 획득할 수 있다. 신경망 모델은 입력된 차량 이미지에 특정 부품이 포함되는지 여부를 획득할 수 있다. The neural network model may acquire part information by taking a vehicle image as an input. The neural network model may acquire the type or name of a part included in the input vehicle image. The neural network model may acquire whether a specific part is included in the input vehicle image.

일 실시예에 따르면, 신경망 모델의 출력 레이어는 입력 이미지가 특정 부품을 포함하는지 여부를 나타내는 확률 함수를 포함할 수 있다. 또 예컨대, 출력 레이어는 하나 이상의 대상 부품에 대하여, 입력 이미지가 각각의 대상 부품을 포함하는지 여부를 나타내는 하나 이상의 확률 함수를 포함할 수 있다.According to an embodiment, the output layer of the neural network model may include a probability function indicating whether the input image includes a specific part. Also for example, the output layer may include, for one or more target parts, one or more probability functions indicating whether the input image includes each target part.

다른 일 실시예에 따르면, 부품 정보는 도 12와 관련하여 전술한 신경망 모델을 이용하여 획득될 수 있다. 부품 정보는 신경망 모델을 통하여 획득되고 개별 부품에 대응되는 영역을 표시하는 영역 정보를 포함할 수 있다. According to another embodiment, the part information may be obtained using the neural network model described above with reference to FIG. 12 . The part information may include region information that is obtained through a neural network model and indicates a region corresponding to an individual part.

도 15를 참조하면, 일 실시예에 따른 신경망 모델은 차량의 일부가 촬영된 이미지(a)를 입력으로 하여 차량 이미지에 포함된 부품에 대한 부품 정보를 획득할 수 있다. 신경망 모델은 부품 정보를 획득하는 신경망 모델을 이용하여 입력된 이미지에 포함된 부품을 식별하고, 식별된 부품에 대응되는 부품 정보를 획득할 수 있다. 신경망 모델은 차량의 일부가 촬영된 이미지(a)에 기초하고 부품 정보를 획득하는 신경망 모델을 이용하여 입력된 이미지에 좌전방 도어가 포함되었음을 나타내는 부품 정보를 획득할 수 있다. Referring to FIG. 15 , the neural network model according to an embodiment may acquire part information on parts included in the vehicle image by inputting an image (a) of a part of the vehicle as an input. The neural network model may identify a part included in an input image using a neural network model that acquires part information, and may acquire part information corresponding to the identified part. The neural network model may acquire parts information indicating that the left front door is included in the input image using a neural network model that obtains parts information based on the image (a) in which a part of the vehicle is captured.

도 15를 참조하면, 일 실시예에 따른 신경망 모델은 차량의 일부가 촬영된 이미지(a)를 입력으로 하여 차량 이미지에 포함된 부품에 대응되는 부품 영역 정보를 획득할 수 있다. 신경망 모델은 신경망 모델을 이용하여 차량 이미지에 포함된 부품을 식별하고 식별된 부품에 대응되는 영역(또는 세그멘테이션)을 획득할 수 있다. 도 16의 (b)를 참조하면, 신경망 모델은 차량 이미지에 포함된 좌전방 도어에 대응되는 영역 정보를 획득할 수 있다. Referring to FIG. 15 , the neural network model according to an embodiment may obtain part region information corresponding to a part included in the vehicle image by inputting an image (a) of a part of the vehicle as an input. The neural network model may identify a part included in the vehicle image using the neural network model and acquire a region (or segmentation) corresponding to the identified part. Referring to FIG. 16B , the neural network model may acquire region information corresponding to the left front door included in the vehicle image.

도 16을 참조하면, 일 실시예에 따른 신경망 모델은 차량의 일 측면이 촬영된 이미지(a)를 입력으로 하여 차량 이미지에 포함된 하나 이상의 부품에 대한 부품 정보를 획득할 수 있다. 신경망 모델은 차량의 일부가 촬영된 이미지(a)에 기초하고 부품 정보를 획득하는 신경망 모델을 이용하여 입력된 이미지에 좌전방 도어, 좌후방 도어, 좌전방 휀더 및 좌후방 휀더가 포함되었음을 나타내는 부품 정보를 획득할 수 있다.Referring to FIG. 16 , the neural network model according to an embodiment may acquire part information on one or more parts included in the vehicle image by inputting an image (a) of one side of the vehicle as an input. The neural network model is a part indicating that the left front door, left rear door, left front fender and left rear fender are included in the input image using a neural network model that is based on the image (a) taken of a part of the vehicle and acquires parts information information can be obtained.

신경망 모델은 차량 이미지를 입력으로 하여, 하나 이상의 부품에 대응되는 영역이 표시된 세그멘테이션 맵을 획득할 수 있다. 예컨대, 신경망 모델은 제1 부품에 대응되는 제1 영역 및 제2 부품에 대응되는 제2 영역이 서로 달리 표시된 세그멘테이션 맵을 획득할 수 있다. The neural network model may obtain a segmentation map in which regions corresponding to one or more parts are displayed by receiving a vehicle image as an input. For example, the neural network model may obtain a segmentation map in which a first region corresponding to the first part and a second region corresponding to the second part are displayed differently.

도 16을 참조하면, 신경망 모델은 차량의 일 측면이 촬영된 이미지(a)를 입력으로 하여 차량 이미지에 포함된 부품에 하나 이상의 부품에 대응되는 부품 영역 정보(b)를 획득할 수 있다. 신경망 모델은 이미지 내에 포함된 개별 부품에 대응되는 복수의 영역에 대하여, 서로 달리 표시된(예컨대, 상이한 색상으로 마스킹된) 이미지(b)를 획득할 수 있다. 도 16의 (b)를 참조하면, 신경망 모델은 차량 이미지에 포함된 좌전방 도어, 좌후방 도어, 좌전방 휀더 및 좌후방 휀더에 대응되는 영역 정보를 획득할 수 있다. Referring to FIG. 16 , the neural network model may obtain part region information (b) corresponding to one or more parts in a part included in the vehicle image by inputting an image (a) of one side of the vehicle as an input. The neural network model may acquire images (b) displayed differently from each other (eg, masked with different colors) for a plurality of regions corresponding to individual parts included in the image. Referring to FIG. 16B , the neural network model may acquire area information corresponding to the front left door, the left rear door, the left front fender, and the left rear fender included in the vehicle image.

또 다른 일 실시예에 따르면, 부품 정보는 도10 내지 13과 관련하여 전술한 신경망 모델을 이용하여 획득될 수 있다. 부품 정보는 신경망 모델을 통하여 획득되고 개별 부품에 대응되는 영역을 표시하는 바운딩 박스를 포함할 수 있다. According to another embodiment, the part information may be obtained using the neural network model described above with reference to FIGS. 10 to 13 . The part information may include a bounding box that is acquired through a neural network model and displays a region corresponding to an individual part.

신경망 모델은 전연결 레이어 및 전연결 레이어와 연결되는 은닉 레이어 및 출력 레이어를 통하여, 개별 ROI에 포함되는 오브젝트의 식별자 또는 개별 ROI의 바운딩 박스를 획득할 수 있다. 신경망 모델은 차량 이미지를 입력으로 하여, 차량 이미지에 포함되는 개별 부품에 대한 ROI 바운딩 박스를 획득할 수 있다. 신경망 모델은 차량 이미지를 입력으로 하여, 차량 이미지에 포함되는 개별 ROI에 대응되는 개별 부품 영역에 대한 분류 결과를 획득할 수 있다.The neural network model may acquire an identifier of an object included in an individual ROI or a bounding box of an individual ROI through a hidden layer and an output layer connected to the all-connection layer and the all-connection layer. The neural network model may obtain an ROI bounding box for individual parts included in the vehicle image by taking the vehicle image as an input. The neural network model may obtain a classification result for an individual part region corresponding to an individual ROI included in the vehicle image by receiving a vehicle image as an input.

신경망 모델은 부품 정보를 획득하도록 학습되어 마련될 수 있다. 신경망 모델은 부품 정보가 라벨링된 복수의 차량 이미지를 포함하는 부품 학습 데이터를 이용하여 학습될 수 있다. The neural network model may be trained and prepared to acquire part information. The neural network model may be trained using part learning data including a plurality of vehicle images labeled with part information.

부품 학습 데이터는 복수의 차량 이미지를 포함할 수 있다. 부품 학습 데이터는 차량에 대하여 서로 다른 방향에서 촬영된 복수의 차량 이미지를 포함할 수 있다. 부품 학습 데이터는 차량에 대하여 동일한 방향에서 촬영된 복수의 차량 이미지를 포함할 수 있다. 부품 학습 데이터는 다양한 종류, 모델 또는 제조사의 차량을 촬영하여 획득된 복수의 차량 이미지를 포함할 수 있다. 부품 학습 데이터는 단일 종류, 모델 또는 제조사의 차량을 촬영하여 획득된 복수의 차량 이미지를 포함할 수 있다.The part learning data may include a plurality of vehicle images. The component learning data may include a plurality of vehicle images photographed in different directions with respect to the vehicle. The component learning data may include a plurality of vehicle images photographed in the same direction with respect to the vehicle. The parts learning data may include a plurality of vehicle images obtained by photographing vehicles of various types, models, or manufacturers. The parts learning data may include a plurality of vehicle images obtained by photographing a vehicle of a single type, model, or manufacturer.

부품 학습 데이터는, 이미지에 포함되는 하나 이상의 부품에 각각 대응되는 부품 라벨이 부여된 차량 이미지를 포함할 수 있다. 부품 학습 데이터는 다양한 종류의 차량을 촬영하여 획득되고 부품 라벨이 부여된 차량 이미지를 포함할 수 있다. 부품 라벨은 차량의 종류, 모델 또는 제조사 별로 달리 부여될 수 있다. The part learning data may include a vehicle image to which a part label corresponding to one or more parts included in the image is given, respectively. The parts learning data may include vehicle images obtained by photographing various types of vehicles and to which parts labels are assigned. The parts label may be differently assigned to each vehicle type, model, or manufacturer.

부품 학습 데이터는 서로 다른 부품에 대하여 형식을 달리하여 마스킹된(또는 라벨링된) 차량 이미지를 적어도 하나 포함할 수 있다. 차량 이미지는 서로 다른 부품에 대하여 다른 색상으로 마스킹된(또는 라벨링된) 차량 이미지 또는 서로 다른 부품에 대응되는 영역에 대하여 상이한 태그로 라벨링된 차량 이미지를 적어도 하나 포함할 수 있다. The part learning data may include at least one vehicle image masked (or labeled) in different formats for different parts. The vehicle image may include at least one vehicle image that is masked (or labeled) with different colors for different parts or a vehicle image labeled with different tags for regions corresponding to different parts.

부품 학습 데이터는 다양한 부품에 대하여 마스킹된 차량 이미지를 포함할 수 있다. 부품 학습 데이터는 하나 이상의 부품 영역, 예컨대, 좌전방 도어에 대응되는 좌전방 도어 영역 정보 및/또는 차량의 앞범퍼에 대응되는 앞범퍼 영역 정보(FB)를 포함할 수 있다. 부품 학습 데이터는 하나 이상의 공통되는 부품 영역 정보를 포함하고 차량에 대하여 서로 다른 방향에서 촬영된 복수의 차량 이미지를 포함할 수 있다. 부품 학습 데이터는 적어도 일부 상이한 부품 영역 정보를 포함하는 하나 이상의 차량 이미지를 포함할 수 있다. 부품 학습 데이터는 이미지 내에 포함되는 모든 부품 대응 영역에 각 대응 부품 정보로 마스킹된 하나 이상의 차량 이미지를 포함할 수 있다. The part learning data may include masked vehicle images with respect to various parts. The component learning data may include one or more component areas, for example, information on the left front door corresponding to the left front door and/or the front bumper area information FB corresponding to the front bumper of the vehicle. The component learning data may include one or more pieces of common component area information and may include a plurality of vehicle images photographed in different directions with respect to the vehicle. The part learning data may include one or more vehicle images including at least some different part region information. The parts learning data may include one or more vehicle images masked with each corresponding part information in all parts corresponding regions included in the image.

도 17은 일 실시예에 따른 부품 학습 데이터를 예시하기 위한 도면이다. 도 17을 참조하면, 부품 학습 데이터는, 다양한 모델의 차량을 촬영하여 획득되고, 특정 부품, 예컨대, 좌전방 도어에 대응되는 영역이 라벨링된 복수의 차량 이미지를 포함할 수 있다. 복수의 차량 이미지는 서로 다른 종류의 차량을 촬영하여 획득될 수 있다. 17 is a diagram illustrating parts learning data according to an embodiment. Referring to FIG. 17 , the component learning data may include a plurality of vehicle images obtained by photographing vehicles of various models and in which a specific component, for example, an area corresponding to a left front door is labeled. The plurality of vehicle images may be obtained by photographing different types of vehicles.

도 18은 다른 일 실시예에 따른 부품 학습 데이터를 예시하기 위한 도면이다. 도 18을 참조하면, 부품 학습 데이터는, 다양한 모델의 차량을 촬영하여 획득되고, 복수의 부품, 예컨대, 좌전방 도어, 좌후방 도어, 좌전방 휀더, 좌후방 휀더에 대응되는 영역이 서로 달리 라벨링된 복수의 차량 이미지를 포함할 수 있다.18 is a diagram illustrating parts learning data according to another embodiment. Referring to FIG. 18 , parts learning data is obtained by photographing vehicles of various models, and a plurality of parts, for example, areas corresponding to the left front door, left rear door, left front fender, and left rear fender are labeled differently. It may include a plurality of vehicle images.

도 17 및 18에서는 부품 학습 데이터가, 차량에 대하여 동일한 방향에서 촬영된 복수의 차량 이미지를 포함하는 경우를 기준으로 설명하였으나 이는 예시에 불과하며 부품 학습 데이터는 다양한 방향에서 촬영된 차량 이미지를 포함할 수 있다. In FIGS. 17 and 18, the parts learning data has been described based on a case in which a plurality of vehicle images photographed in the same direction with respect to the vehicle are included, but this is only an example, and the parts learning data may include vehicle images photographed in various directions. can

신경망 모델은 부품 학습 데이터를 이용하여, 차량 이미지에 기초하여 부품 정보를 획득하도록 지도, 비지도 또는 강화 학습될 수 있다. 신경망 모델은 역전파 방식을 이용하여 학습될 수 있다.The neural network model may be supervised, unsupervised, or reinforcement-learned to obtain part information based on a vehicle image by using the part learning data. A neural network model can be trained using a backpropagation method.

신경망 모델은 위에서 설명한 부품 학습 데이터를 이용하여, 차량 이미지를, 차량 이미지에 포함된 부품에 따라 분류하도록 학습될 수 있다. 신경망 모델은 차량 이미지에 포함된 부품에 대응되는 라벨이 부여된 차량 이미지를 포함하는 학습 데이터를 이용하여, 차량 이미지를, 차량 이미지에 포함된 부품에 따라 분류하도록 학습될 수 있다. The neural network model may be trained to classify a vehicle image according to parts included in the vehicle image by using the component learning data described above. The neural network model may be trained to classify the vehicle image according to the parts included in the vehicle image by using learning data including the vehicle image to which a label corresponding to the part included in the vehicle image is given.

신경망 모델은 부품 학습 데이터를 통하여 차량 이미지가 특정 부품을 포함하는지 여부를 획득하도록 학습될 수 있다. 신경망 모델은 부품 학습 데이터를 통하여, 복수의 부품에 대하여 각 부품이 대상 이미지에 포함되는지 여부를 획득하도록 학습될 수 있다.The neural network model may be trained to obtain whether the vehicle image includes a specific part through the part learning data. The neural network model may be trained to obtain whether each part is included in the target image with respect to a plurality of parts through the part learning data.

신경망 모델은 부품 학습 데이터를 통하여, 차량 이미지에 특정 부품이 분포하는 영역에 대한 영역 정보를 획득하도록 학습될 수 있다. 신경망 모델은 차량 이미지에 포함된 개별 부품의 종류 및 개별 부품에 대응되는 영역이 라벨링된 차량 이미지를 포함하는 부품 학습 데이터를 통하여, 차량 이미지에 특정 부품이 분포하는 영역에 대한 영역 정보를 획득하도록 학습될 수 있다. The neural network model may be trained to acquire region information on a region in which a specific part is distributed in the vehicle image through the part learning data. The neural network model learns to acquire region information on the region in which a specific part is distributed in the vehicle image through the part learning data including the vehicle image in which the type of individual part included in the vehicle image and the region corresponding to the individual part are labeled. can be

신경망 모델은 부품 학습 데이터를 통하여, 차량 이미지에 특정 부품이 분포하는 영역에 대한 영역 정보를 획득하도록 학습될 수 있다. 신경망 모델은 부품 학습 데이터를 통하여, 차량 이미지에 포함된 복수의 부품 각각에 대하여, 각 부품이 분포하는 영역에 대한 영역 정보를 획득하도록 학습될 수 있다.The neural network model may be trained to acquire region information on a region in which a specific part is distributed in the vehicle image through the part learning data. The neural network model may be trained to acquire region information on a region in which each part is distributed for each of a plurality of parts included in the vehicle image through the part learning data.

신경망 모델은 복수의 부품 학습 데이터를 이용하여 학습될 수도 있다. 신경망 모델은 제1 차종의 차량(또는 제1 제조사의 차량)을 촬영하여 학습된 차량 이미지를 포함하는 제1 부품 학습 데이터 및 제2 차종의 차량(또는 제2 제조사의 차량)을 촬영하여 학습된 차량 이미지를 포함하는 제2 부품 학습 데이터를 이용하여 학습될 수 있다.The neural network model may be trained using a plurality of parts learning data. The neural network model is a first part learning data including a vehicle image learned by photographing a vehicle of a first type (or a vehicle of a first manufacturer) and a vehicle of a second type of vehicle (or a vehicle of a second manufacturer) learned by photographing It may be learned using the second part learning data including the vehicle image.

한편, 복수의 신경망 모델이 학습 및 이용될 수도 있다. 제1 신경망 모델은 제1 부품 학습 데이터에 기초하여 학습되고, 제2 신경망 모델은 제2 부품 학습 데이터에 기초하여 학습될 수 있다.Meanwhile, a plurality of neural network models may be trained and used. The first neural network model may be trained based on the first part learning data, and the second neural network model may be trained based on the second part learning data.

신경망 모델은 차량 이미지 및 추가 정보에 기초하여 부품 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 차량의 종류, 모델명, 제조사, 색상 등의 추가 정보를 더 이용하여 부품 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 차량 이미지에 기초하여 획득된 제1 특징 세트 및 추가 정보에 기초하여 획득된 제2 특징 세트에 기초하여 부품 정보를 획득하도록 학습될 수 있다.The neural network model may be trained to obtain parts information based on the vehicle image and additional information. The neural network model may be trained to acquire parts information by further using additional information such as vehicle type, model name, manufacturer, and color. The neural network model may be trained to obtain part information based on a first feature set obtained based on the vehicle image and a second feature set obtained based on additional information.

신경망 모델은 차량 이미지 및 다른 이미지에 기초하여 부품 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 차량 이미지에 기초하여 획득된 제1 특징 세트 및 다른 이미지(예컨대, 배경을 촬영한 배경 이미지 등)에 기초하여 획득된 제2 특징 세트에 기초하여, 부품 정보를 획득하도록 학습될 수 있다.Neural network models can be trained to obtain parts information based on vehicle images and other images. The neural network model may be trained to obtain part information based on a first feature set obtained based on the vehicle image and a second feature set obtained based on another image (eg, a background image obtained by photographing a background). there is.

2.3.2 손상 정보 획득2.3.2 Obtaining Damage Information

차량 외관의 손상과 관련된 손상 정보가 획득될 수 있다. Damage information related to damage to the exterior of the vehicle may be obtained.

손상 정보는 차량 외관의 긁힘, 찍힘, 찌그러짐, 부서짐, 유실, 깨짐, 크랙 등의 손상과 관련된 정보일 수 있다. 손상 정보는, 차량 외관 손상의 종류, 위치, 정도, 개수, 발생 시기 등에 대한 정보를 포함할 수 있다.The damage information may be information related to damage such as scratches, dents, dents, breaks, loss, cracks, and the like on the exterior of the vehicle. The damage information may include information about the type, location, degree, number, and occurrence time of vehicle exterior damage.

손상 정보는 차량 이미지에 포함되고 손상이 발생한 위치와 대응되는 손상 영역 정보를 포함할 수 있다. 손상 영역 정보는 차량 이미지에 포함되는 하나 이상의 손상 부위를 지시할 수 있다. 손상 영역 정보는 차량 이미지에 포함되고 손상 부위에 대응되는 영역을 시각적으로 구분하기 위한 표시를 포함할 수 있다. 손상 영역 정보는 손상 부위의 경계(boundary)를 포함할 수 있다. 손상 영역 정보는 손상 부위를 표시하는 바운딩 박스(Bounding Box)를 포함할 수 있다. 손상 영역 정보는 차량 이미지 내에서 손상 부위의 좌표 정보를 포함할 수 있다. 손상 영역 정보는 바운딩 박스의 차량 이미지 내에서의 모서리 좌표 정보를 포함할 수 있다. 손상 영역 정보는 차량에 대한 손상 부위의 위치 정보 또는 좌표 정보를 포함할 수 있다. 손상 영역 정보는 차량의 특정 부품(예컨대, 번호판의 중심선, 엠블럼 등)을 기준으로 한 손상 부위의 절대 위치 정보(예컨대, 좌표 정보)를 포함할 수 있다. The damage information is included in the vehicle image and may include damage area information corresponding to a location where the damage has occurred. The damaged area information may indicate one or more damaged areas included in the vehicle image. The damaged area information may include a mark for visually distinguishing an area that is included in the vehicle image and corresponds to the damaged area. The damaged area information may include a boundary of the damaged area. The damaged area information may include a bounding box indicating the damaged area. The damaged area information may include coordinate information of the damaged area in the vehicle image. The damage area information may include corner coordinate information in the vehicle image of the bounding box. The damaged area information may include location information or coordinate information of the damaged area with respect to the vehicle. The damaged area information may include absolute position information (eg, coordinate information) of the damaged area based on a specific part of the vehicle (eg, a center line of a license plate, an emblem, etc.).

손상 정보는 차량 이미지 내에 포함되는 손상 부위에 대응되는 손상 영역 정보 및 해당 손상 부위와 관련되고 손상 영역 정보와 매칭되는 정보(예를 들어, 손상 발생 시기, 손상 종류, 손상 정도 등)를 포함할 수 있다.The damage information may include damage area information corresponding to the damaged area included in the vehicle image, and information related to the damaged area and matching the damage area information (eg, the time of occurrence of damage, type of damage, degree of damage, etc.). there is.

도 19는 일 실시예에 따른 손상 정보를 설명하기 위한 도면이다. 도 19의 (a)를 참조하면, 손상 정보는 차량 이미지에 포함된 차량 외관 손상과 관련된 정보를 포함할 수 있다. 손상 정보는 차량 이미지에 부여된 태그 내지 메타데이터의 형태로 획득될 수 있다. 도 19의 (b)를 참조하면, 손상 정보는 차량 이미지 내에서 손상 부위를 강조하기 위한 표시를 포함할 수 있다. 도 19의 (c)를 참조하면, 손상 정보는 차량 이미지 내에서 손상이 위치할 가능성이 높은 영역을 나타내기 위한 표시, 예컨대 히트맵을 포함할 수 있다. 도 19의 (d)를 참조하면, 손상 정보는 차량 이미지 내에서 손상이 위치하는 영역을 표시하기 위한 바운딩 박스를 포함할 수 있다. 19 is a view for explaining damage information according to an embodiment. Referring to FIG. 19A , the damage information may include information related to damage to the exterior of the vehicle included in the vehicle image. Damage information may be obtained in the form of tags or metadata attached to the vehicle image. Referring to (b) of FIG. 19 , the damage information may include a mark for highlighting the damaged area in the vehicle image. Referring to FIG. 19C , the damage information may include an indication, for example, a heat map, for indicating an area where damage is likely to be located in a vehicle image. Referring to (d) of FIG. 19 , the damage information may include a bounding box for displaying a region where the damage is located in the vehicle image.

손상 정보는 이미지 데이터에 기초하여 획득될 수 있다. 손상 정보는 차량 이미지에 기초하여 손상 정보를 획득하도록 학습된 신경망 모델을 이용하여 획득될 수 있다. 손상 정보는 도 10 내지 13과 관련하여 전술한 신경망 모델을 이용하여 획득될 수 있다. Damage information may be obtained based on image data. Damage information may be obtained using a neural network model trained to obtain damage information based on the vehicle image. Damage information may be obtained using the neural network model described above with reference to FIGS. 10 to 13 .

신경망 모델은 차량의 일부를 촬영하여 획득된 차량 이미지를 입력으로 하여 손상 정보를 획득할 수 있다. 신경망 모델은 입력된 차량 이미지에 기초하여, 촬영된 차량에 손상된 부분이 존재하는지 여부를 획득할 수 있다. 신경망 모델은 입력된 차량 이미지에 기초하여, 촬영된 차량의 특정 영역 내에 손상된 부분이 존재하는지 여부를 획득할 수 있다. 신경망 모델의 출력 레이어는 차량 이미지에 손상 영역이 포함되는지 여부를 나타내는 확률값을 획득하는 출력 노드를 포함할 수 있다. 신경망 모델은 입력된 차량 이미지에 기초하여, 하나 이상의 손상 종류에 대하여, 촬영된 차량에 손상 영역이 포함되는지 여부를 획득할 수 있다. 신경망 모델의 출력 레이어는 차량 이미지에 복수의 손상 종류에 각각 대응되는 손상 영역이 포함되는지 여부를 나타내는 확률값을 획득하는 복수의 출력 노드를 포함할 수 있다.The neural network model may acquire damage information by inputting a vehicle image obtained by photographing a part of the vehicle. The neural network model may acquire whether a damaged part exists in the photographed vehicle based on the input vehicle image. The neural network model may acquire whether a damaged part exists in a specific area of the photographed vehicle based on the input vehicle image. The output layer of the neural network model may include an output node that obtains a probability value indicating whether a damaged region is included in the vehicle image. The neural network model may acquire whether a damaged area is included in the photographed vehicle with respect to one or more types of damage based on the input vehicle image. The output layer of the neural network model may include a plurality of output nodes for obtaining a probability value indicating whether or not damage regions respectively corresponding to a plurality of damage types are included in the vehicle image.

신경망 모델은 차량의 일부를 촬영하여 획득된 차량 이미지에 기초하여 손상 영역을 획득할 수 있다. 신경망 모델은 차량 이미지로부터 차량 외부 손상에 대응되는 영역을 검출할 수 있다. 신경망 모델은 차량 이미지에 포함되고 차량 외부 손상에 대응되는 영역에 대한 바운딩 박스 또는 세그멘테이션을 획득할 수 있다. 신경망 모델은, 복수의 손상 영역에 대한 세그멘테이션을 획득할 수도 있다. 신경망 모델은 히트맵을 획득할 수도 있다. 신경망 모델은 도 19의 (c)에서 예시하는 것과 같이 손상이 위치하는 영역을 표시하기 위한 히트맵 형태의 샐리언시 맵을 획득할 수 있다. The neural network model may acquire a damaged area based on a vehicle image obtained by photographing a part of the vehicle. The neural network model may detect a region corresponding to external damage to the vehicle from the vehicle image. The neural network model may acquire a bounding box or segmentation for a region included in the vehicle image and corresponding to external damage to the vehicle. The neural network model may acquire segmentation for a plurality of damaged regions. The neural network model may obtain a heatmap. The neural network model may acquire a saliency map in the form of a heat map for indicating an area where damage is located as illustrated in FIG. 19(c) .

도 20을 참조하면, 일 실시예에 따른 신경망 모델은 차량의 일부가 촬영된 이미지(a)를 입력으로 하여 손상 부위에 대응되는 손상 영역 정보를 획득할 수 있다. 손상 부위를 나타내는 손상 영역 정보는, 신경망 모델을 통하여 획득된 바운딩 박스(B1)를 포함할 수 있다. 도 20을 참조하면, 일 실시예에 따른 신경망 모델은 차량의 일 측면이 촬영된 이미지(b)를 입력으로 하여 손상 부위에 대응되는 손상 영역 정보(B2)를 획득할 수 있다. 손상 부위를 나타내는 손상 영역 정보는, 신경망 모델을 통하여 획득된 바운딩 박스를 포함할 수 있다. 손상 영역 정보는, 각 바운딩 박스에 대응되는 손상 영역에 대하여, 대응되는 손상 종류를 더 포함할 수 있다. 손상 종류는 신경망 모델의 분류기 부분에 의해 획득될 수 있다.Referring to FIG. 20 , the neural network model according to an embodiment may acquire damage area information corresponding to a damaged area by inputting an image (a) of a part of a vehicle taken. Damage region information indicating the damaged area may include a bounding box B1 obtained through a neural network model. Referring to FIG. 20 , the neural network model according to an embodiment may obtain damage area information B2 corresponding to a damaged area by inputting an image (b) of one side of the vehicle as an input. Damage region information indicating the damaged area may include a bounding box obtained through a neural network model. The damage area information may further include a damage type corresponding to the damage area corresponding to each bounding box. The damage type can be obtained by the classifier part of the neural network model.

신경망 모델은 손상 정보를 획득하도록 학습될 수 있다. 신경망 모델은 손상 정보가 라벨링된 복수의 차량 이미지를 포함하는 손상 학습 데이터를 이용하여 학습될 수 있다. A neural network model can be trained to obtain impairment information. The neural network model may be trained using damage learning data including a plurality of vehicle images labeled with damage information.

손상 학습 데이터는 복수의 차량 이미지를 포함할 수 있다. 손상 학습 데이터는 차량에 대하여 서로 다른 방향에서 촬영된 복수의 차량 이미지를 포함할 수 있다. 손상 학습 데이터는 차량에 대하여 동일한 방향에서 촬영된 복수의 차량 이미지를 포함할 수 있다. 손상 학습 데이터는 다양한 종류, 모델 또는 제조사의 손상 차량을 촬영하여 획득된 복수의 손상 차량 이미지를 포함할 수 있다. 손상 학습 데이터는 단일 종류, 모델 또는 제조사의 손상 차량을 촬영하여 획득된 복수의 손상 차량 이미지를 포함할 수 있다.The damage learning data may include a plurality of vehicle images. The damage learning data may include a plurality of vehicle images taken from different directions with respect to the vehicle. The damage learning data may include a plurality of vehicle images taken in the same direction with respect to the vehicle. Damage learning data may include a plurality of damaged vehicle images obtained by photographing damaged vehicles of various types, models, or manufacturers. The damage learning data may include a plurality of damaged vehicle images obtained by photographing a damaged vehicle of a single type, model, or manufacturer.

손상 학습 데이터는 손상 유무를 나타내는 손상 라벨이 부여된 차량 이미지를 포함할 수 있다. 손상 학습 데이터는 다양한 종류의 차량을 촬영하여 획득되고 손상 라벨이 부여된 차량 이미지를 포함할 수 있다. 손상 라벨은 손상의 종류(예컨대, 긁힘, 찍힘, 파손 등)에 따라 달리 부여될 수 있다.The damage learning data may include a vehicle image to which a damage label indicating the presence or absence of damage is assigned. Damage learning data may include vehicle images obtained by photographing various types of vehicles and to which damage labels are assigned. The damage label may be provided differently depending on the type of damage (eg, scratch, dent, break, etc.).

손상 학습 데이터는 손상 영역에 마스킹된 차량 이미지를 포함할 수 있다. 손상 학습 데이터는 하나 이상의 손상 영역에 대하여 마스킹(또는 라벨링)된 차량 이미지를 포함할 수 있다. 손상 학습 데이터는 복수 종류의 손상 영역에 대하여 서로 달리 마스킹(또는 라벨링)된 차량 이미지를 포함할 수 있다. 예컨대, 손상 학습 데이터는 제1 종류의 손상(예를 들어, 긁힘)에 대하여 제1 색상으로 표시되고, 제2 종류의 손상(예를 들어, 찌그러짐)에 대하여 제2 색상으로 표시된 차량 이미지를 포함할 수 있다. The damage learning data may include a masked vehicle image in the damaged area. The damage learning data may include masked (or labeled) vehicle images with respect to one or more damaged areas. The damage learning data may include vehicle images that are masked (or labeled) differently with respect to a plurality of types of damage areas. For example, impairment learning data may include vehicle images displayed in a first color for a first type of damage (eg, scratches) and in a second color for a second type of damage (eg, dents). can do.

도 21은 손상 학습 데이터를 예시하기 위한 도면이다. 도 21의 (a)를 참조하면 손상 학습 데이터는, 손상 부위가 마스킹(M1)된 차량 이미지를 포함할 수 있다. 도 21의 (b)를 참조하면, 손상 학습 데이터는, 제1 종류의 손상(예를 들어, 찌그러짐)이 위치하는 손상 부위에 대하여 제1 색상으로 마스킹(M2)되고, 제2 종류의 손상(예를 들어, 긁힘)이 위치하는 손상 부위에 대하여 제2 색상으로 마스킹(M3)된 차량 이미지를 포함할 수 있다.21 is a diagram for illustrating impairment learning data. Referring to (a) of FIG. 21 , the damage learning data may include a vehicle image in which the damaged area is masked (M1). Referring to (b) of FIG. 21 , the damage learning data is masked (M2) with a first color with respect to the damage site where the first type of damage (eg, dent) is located, and the second type of damage ( For example, it may include a vehicle image that is masked (M3) with the second color with respect to the damaged area where the scratch is located.

도 21에서는 손상 학습 데이터가, 차량에 대하여 동일한 방향에서 촬영된 복수의 차량 이미지를 포함하는 경우를 기준으로 설명하였으나 이는 예시에 불과하며 손상 학습 데이터는 다양한 방향에서 촬영된 차량 이미지를 포함할 수 있다. In FIG. 21, the damage learning data has been described based on a case that includes a plurality of vehicle images photographed in the same direction with respect to the vehicle, but this is only an example, and the damage learning data may include vehicle images photographed in various directions. .

신경망 모델은 위에서 설명한 손상 학습 데이터를 이용하여 학습될 수 있다. 신경망 모델은 손상 학습 데이터를 이용하여, 차량 이미지에 기초하여 손상 정보를 획득하도록 지도, 비지도 또는 강화 학습될 수 있다. 신경망 모델은 역전파 방식을 이용하여 학습될 수 있다.The neural network model can be trained using the damage learning data described above. The neural network model may be supervised, unsupervised, or reinforcement trained to obtain damage information based on a vehicle image by using the damage learning data. A neural network model can be trained using a backpropagation method.

신경망 모델은 차량 이미지를 손상 여부가 라벨링된 차량 이미지를 포함하는 손상 학습 데이터를 이용하여 손상 부위를 포함하는지 여부에 따라 분류하도록 학습될 수 있다. 신경망 모델은 차량 이미지를 차량 이미지에 포함된 손상의 종류에 따라 분류하도록 학습될 수 있다. 신경망 모델은 복수 종류의 손상의 유무에 대하여 라벨링된 차량 이미지를 포함하는 손상 학습 데이터를 통하여, 복수의 손상에 대하여, 대상 이미지가 각 종류의 손상을 포함하는지 여부를 획득하도록 학습될 수 있다.The neural network model may be trained to classify a vehicle image according to whether or not it includes a damaged area using damage learning data including a vehicle image labeled as to whether or not the vehicle is damaged. The neural network model may be trained to classify the vehicle image according to the type of damage included in the vehicle image. The neural network model may be trained to obtain whether a target image includes each type of damage with respect to a plurality of injuries through damage learning data including a vehicle image labeled with respect to the presence or absence of multiple types of damage.

신경망 모델은 손상 학습 데이터를 통하여 손상 영역 정보를 획득하도록 학습될 수 있다. 신경망 모델은 하나 이상의 종류의 손상에 대하여 손상 부위에 마스킹된 차량 이미지를 포함하는 손상 학습 데이터를 이용하여 대상 이미지로부터 손상 영역을 검출하도록 학습될 수 있다. 신경망 모델은 복수 종류의 손상 영역에 대하여 라벨링된 차량 이미지를 포함하는 손상 학습 데이터를 통하여, 차량 이미지에 포함된 복수의 손상 각각에 대하여, 각 손상이 분포하는 영역 및/또는 종류에 대한 영역 정보를 획득하도록 학습될 수 있다.The neural network model may be trained to acquire damage region information through damage learning data. The neural network model may be trained to detect a damaged area from a target image using damage learning data including a vehicle image masked to the damaged area for one or more types of damage. The neural network model uses damage learning data including a vehicle image labeled for a plurality of types of damage regions, and for each of a plurality of injuries included in the vehicle image, region information about the area and/or type of each damage is distributed. can be learned to acquire.

신경망 모델은 복수의 손상 학습 데이터를 이용하여 학습될 수도 있다. 신경망 모델은 제1 종류의 손상(예컨대, 긁힘)을 가지는 차량을 촬영하여 학습된 차량 이미지를 포함하는 제1 손상 학습 데이터 및 제2 종류의 손상(예컨대, 찌그러짐)을 가지는 차량을 촬영하여 학습된 차량 이미지를 포함하는 제2 손상 학습 데이터를 이용하여 학습될 수 있다.The neural network model may be trained using a plurality of damage learning data. The neural network model is trained by photographing a vehicle having a first type of damage (eg, dent) and first damage learning data including a vehicle image learned by photographing a vehicle having a first type of damage (eg, scratch) It may be learned using the second damage learning data including the vehicle image.

한편, 복수의 신경망 모델이 학습 및 이용될 수도 있다. 제1 신경망 모델은 제1 손상 학습 데이터에 기초하여 학습되고, 제2 신경망 모델은 제2 손상 학습 데이터에 기초하여 학습될 수 있다. 제2 손상 학습 데이터는 제1 손상 학습 데이터와 적어도 일부 상이할 수 있다. Meanwhile, a plurality of neural network models may be trained and used. The first neural network model may be trained based on the first impairment learning data, and the second neural network model may be trained based on the second impairment learning data. The second impairment learning data may be at least partially different from the first impairment learning data.

신경망 모델은 차량 이미지 및 추가 정보에 기초하여 손상 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 차량의 종류, 모델명, 제조사, 색상 등의 추가 정보를 더 이용하여 손상 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 차량 이미지에 기초하여 획득된 제1 특징 세트 및 추가 정보에 기초하여 획득된 제2 특징 세트에 기초하여 손상 정보를 획득하도록 학습될 수 있다.The neural network model may be trained to obtain damage information based on the vehicle image and additional information. The neural network model may be trained to acquire damage information by further using additional information such as vehicle type, model name, manufacturer, and color. The neural network model may be trained to obtain damage information based on a first feature set obtained based on the vehicle image and a second feature set obtained based on additional information.

신경망 모델은 차량 이미지 및 다른 이미지에 기초하여 손상 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 차량 이미지에 기초하여 획득된 제1 특징 세트 및 다른 이미지(예컨대, 배경을 촬영한 배경 이미지 등)에 기초하여 획득된 제2 특징 세트에 기초하여, 손상 정보를 획득하도록 학습될 수 있다.Neural network models can be trained to obtain damage information based on vehicle images and other images. The neural network model may be trained to obtain damage information based on a first feature set obtained based on the vehicle image and a second feature set obtained based on another image (eg, a background image taken in the background). there is.

일 실시예에 따르면, 손상 정보는 부품 정보와 함께 이용될 수 있다. 이와 관련하여서는, 이하에서 보다 상세히 설명한다. According to one embodiment, the damage information may be used together with the parts information. In this regard, it will be described in more detail below.

2.3.3 차량 종류 정보 획득2.3.3 Acquisition of vehicle type information

차량의 종류에 관련된 차종 정보가 획득될 수 있다.Vehicle type information related to the type of vehicle may be acquired.

차종 정보는, 세단, 쿠페, 웨건, 컨버터블, 해치백, SUV, 밴, 트럭, 버스 등 차량의 차종을 나타낼 수 있다. The vehicle model information may indicate the vehicle model of a vehicle, such as a sedan, a coupe, a wagon, a convertible, a hatchback, an SUV, a van, a truck, and a bus.

차종 정보는 비-이미지 데이터에 기초하여 획득될 수 있다. 차종 정보는 차량의 등록번호, VIN, 모델명 등에 기초하여 획득될 수 있다. 차종 정보는 미리 저장된 데이터베이스로부터 획득될 수 있다. The vehicle model information may be obtained based on the non-image data. The vehicle model information may be obtained based on a vehicle registration number, VIN, model name, and the like. The vehicle model information may be obtained from a pre-stored database.

차종 정보는 이미지 데이터를 이용하여 획득될 수 있다. 차종 정보는 차량 이미지에 기초하여 차종 정보를 획득하도록 학습된 신경망 모델을 이용하여 획득될 수 있다. 차종 정보는 도 10과 관련하여 전술한 신경망 모델을 이용하여 획득될 수 있다.Vehicle model information may be obtained using image data. The vehicle type information may be obtained using a neural network model trained to obtain vehicle type information based on the vehicle image. The vehicle model information may be obtained using the neural network model described above with reference to FIG. 10 .

신경망 모델은 차량 이미지에 기초하여 차종 정보를 획득할 수 있다. 신경망 모델은 복수의 차종 라벨에 대하여 차량 이미지를 분류할 수 있다. 예컨대, 신경망 모델은, 적어도 하나의 합성곱 신경망 레이어 및 하나 이상의 출력 노드를 가지는 출력 레이어를 포함할 수 있다. 신경망 모델은 합성곱 신경망 레이어를 통하여 차량 이미지에 기초하여 차종과 관련된 특징 세트를 획득하고, 특징 세트에 기초하여 적어도 하나의 차종 라벨에 대한 확률값을 획득하는 출력 노드를 포함할 수 있다.The neural network model may acquire vehicle model information based on the vehicle image. The neural network model may classify vehicle images with respect to a plurality of vehicle model labels. For example, the neural network model may include at least one convolutional neural network layer and an output layer having one or more output nodes. The neural network model may include an output node that acquires a feature set related to a vehicle model based on a vehicle image through a convolutional neural network layer, and acquires a probability value for at least one car model label based on the feature set.

신경망 모델은 차종 정보를 획득하도록 학습될 수 있다. 신경망 모델은 차종 정보가 라벨링된 복수의 차량 이미지를 포함하는 차종 학습 데이터를 이용하여 학습될 수 있다. 신경망 모델은 차종 학습 데이터를 이용하여, 차량 이미지에 기초하여 손상 정보를 획득하도록 지도, 비지도 또는 강화 학습될 수 있다. 신경망 모델은 역전파 방식을 이용하여 학습될 수 있다. The neural network model may be trained to obtain vehicle model information. The neural network model may be trained using vehicle model learning data including a plurality of vehicle images labeled with vehicle model information. The neural network model may be supervised, unsupervised, or reinforcement trained to obtain damage information based on a vehicle image using vehicle model learning data. A neural network model can be trained using a backpropagation method.

차종 학습 데이터는 복수의 차량 이미지를 포함할 수 있다. 차종 학습 데이터는 차량에 대하여 서로 다른 방향 또는 동일한 방향에서 촬영된 복수의 차량 이미지를 포함할 수 있다. 차종 학습 데이터는 제1 제조사의 제1 차종 차량을 촬영하여 획득되고, 제1 차종 라벨이 부여된 이미지 및 제2 제조사의 제1 차종 차량을 촬영하여 획득되고 제1 차종 라벨이 부여된 이미지를 포함할 수 있다.The vehicle model learning data may include a plurality of vehicle images. The vehicle model learning data may include a plurality of vehicle images photographed in different directions or the same direction with respect to the vehicle. The vehicle model learning data is obtained by photographing the first vehicle model of the first manufacturer, and includes an image to which the first vehicle model label is given and an image obtained by photographing the first vehicle model of the second manufacturer and to which the first vehicle model label is assigned. can do.

차종 학습 데이터는 복수의 차종에 대하여, 각각 다양한 색상 또는 제조사의 차량을 촬영하여 획득된 복수의 차량 이미지를 포함할 수 있다. 예컨대, 차종 학습 데이터는, 다양한 제조사의 제1 차종(예를 들어, SUV)에 속하는 차량을 촬영하여 획득되고 제1 차종 라벨이 부여된 복수의 이미지를 포함하는 제1 이미지 세트 및 다양한 제조사의 제2 차종(예를 들어, 세단)에 속하는 차량을 촬영하여 획득되고 제2 차종 라벨이 부여된 복수의 이미지를 포함하는 제2 이미지 세트를 포함할 수 있다.The vehicle model learning data may include a plurality of vehicle images obtained by photographing vehicles of various colors or manufacturers for a plurality of vehicle types, respectively. For example, the vehicle model learning data may include a first image set including a plurality of images obtained by photographing a vehicle belonging to a first vehicle model (eg, SUV) of various manufacturers and to which a first vehicle model label is assigned, and a first image set of various manufacturers. It may include a second image set including a plurality of images obtained by photographing a vehicle belonging to a second vehicle model (eg, a sedan) and to which a second vehicle model label is assigned.

신경망 모델은 대상 이미지가 특정 차종을 촬영한 이미지인지 여부를 획득하도록 학습될 수 있다. 신경망 모델은 제1 차종과 관련된 이미지임을 나타내는 제1 라벨이 부여된 제1 이미지 및 및 제1 차종과 관련된 이미지가 아님을 나타내는 제2 라벨이 부여된 제2 이미지를 포함하는 차종 학습 데이터를 이용하여 차량 이미지를 제1 차종 포함 여부에 따라 분류하도록 학습될 수 있다. The neural network model may be trained to acquire whether the target image is an image of a specific vehicle model. The neural network model uses car model learning data including a first image to which a first label indicating that the image is related to the first car model is assigned and a second image to which a second label is assigned to represent that the image is not related to the first car model. It may be learned to classify the vehicle image according to whether the first vehicle type is included.

신경망 모델은 차종 학습 데이터를 이용하여, 차량 이미지를 차종에 따라 분류하도록 학습될 수 있다. 신경망 모델은, 제1 차종과 관련된 이미지임을 나타내는 제1 라벨이 부여된 제1 이미지, 제2 차종과 관련된 이미지임을 나타내는 제2 라벨이 부여된 제2 이미지를 포함하는 차종 학습 데이터를 이용하여, 차량 이미지를 관련 차종에 따라 분류하도록 학습될 수 있다. The neural network model may be trained to classify vehicle images according to vehicle types by using vehicle model learning data. The neural network model uses vehicle model learning data including a first image to which a first label indicating that it is an image related to a first vehicle model is attached and a second image to which a second label indicating that it is an image related to a second vehicle model is attached, It can be learned to classify images according to related vehicle types.

복수의 신경망 모델이 학습 및 이용될 수도 있다. 제1 신경망 모델은 제1 차종과 관련된 제1 차종 학습 데이터에 기초하여 학습되고, 제2 신경망 모델은 제2 차종과 관련된 제2 차종 학습 데이터에 기초하여 학습될 수 있다. 제2 차종 학습 데이터는 제1 차종 학습 데이터와 적어도 일부 상이할 수 있다. 제1 차종 학습 데이터는 제1 차종 관련 여부가 라벨링된 차량 이미지를 포함하고, 제2 차종 학습 데이터는 제1 차종과 상이한 제2 차종 관련 여부가 라벨링된 차량 이미지를 포함할 수 있다. A plurality of neural network models may be trained and used. The first neural network model may be trained based on first car model learning data related to the first car model, and the second neural network model may be trained based on second car model learning data related to the second car model. The second car model learning data may be at least partially different from the first car model learning data. The first vehicle model learning data may include a vehicle image labeled whether related to a first vehicle model, and the second vehicle model learning data may include a vehicle image labeled whether related to a second vehicle model different from the first vehicle model.

일 실시예에 따르면, 차종 정보에 기초하여, 차량 촬영 가이드가 제공될 수 있다. 이와 관련하여서는, 이하에서 보다 상세히 설명한다. According to an embodiment, a vehicle photographing guide may be provided based on vehicle model information. In this regard, it will be described in more detail below.

2.3.4 식별 정보 획득2.3.4 Obtaining Identification Information

차량을 식별하기 위한 차량 식별 정보가 획득될 수 있다.Vehicle identification information for identifying the vehicle may be obtained.

차량 식별 정보는 차량의 등록 번호, VIN 등일 수 있다.The vehicle identification information may be a vehicle registration number, VIN, or the like.

차량 식별 정보는 비-이미지 데이터에 기초하여 획득될 수 있다. 차량 식별 정보는 사용자입력을 통하여 획득될 수 있다. 차량 식별 정보는 미리 저장된 데이터베이스로부터 획득될 수 있다. The vehicle identification information may be obtained based on non-image data. Vehicle identification information may be obtained through a user input. The vehicle identification information may be obtained from a pre-stored database.

차량 식별 정보는 이미지 데이터에 기초하여 획득될 수 있다. 차량 식별 정보는 차량의 번호판에 대응되는 영역을 포함하는 차량 이미지에 기초하여 획득될 수 있다. 차량 식별 정보는 차량의 전면부 또는 후면부를 촬영하여 획득된 이미지로부터 획득될 수 있다. 차량 식별 정보는 차량 식별 정보를 획득하는 알고리즘, 프로그램 또는 신경망 모델을 통하여 획득될 수 있다. The vehicle identification information may be obtained based on image data. The vehicle identification information may be obtained based on a vehicle image including an area corresponding to the license plate of the vehicle. The vehicle identification information may be obtained from an image obtained by photographing the front or rear portion of the vehicle. Vehicle identification information may be obtained through an algorithm, program, or neural network model for acquiring vehicle identification information.

차량 식별 정보는, 전처리된 이미지에 기초하여 획득될 수 있다. 예컨대, 차량 식별 정보는 그레이스케일, 경계 강조(e.g., Thresholding), 컨투어링, 회전 등의 전처리를 통하여 획득된 이미지로부터 획득될 수 있다. 차량 식별 정보는 차량 이미지 내에 포함되고 식별 정보에 대응되는 영역에 기초하여 획득될 수 있다. The vehicle identification information may be obtained based on the pre-processed image. For example, vehicle identification information may be obtained from an image obtained through preprocessing such as grayscale, boundary emphasis (e.g., Thresholding), contouring, rotation, and the like. The vehicle identification information may be obtained based on a region included in the vehicle image and corresponding to the identification information.

식별 정보에 대응되는 영역은 수평/수직 에지 방식을 이용하여 차량 이미지로부터 추출될 수 있다.  예컨대, 식별 정보에 대응되는 영역은 차량 이미지에서 수평 및 수직 에지 영상을 검출하고 에지로 나타나는 직사각형을 후보 영역으로 설정하여 추출될 수 있다. The area corresponding to the identification information may be extracted from the vehicle image using a horizontal/vertical edge   method. For example, the region corresponding to the identification information may be extracted by detecting horizontal and vertical edge images in the vehicle image and setting a rectangle appearing as an edge as a candidate region.

식별 정보에 대응되는 영역은 명암 변화를 통하여 획득될 수 있다. 예컨대, 식별 정보에 대응되는 영역은 차량 이미지의 수평 방향으로 한 줄을 읽어 들일 때 번호판의 숫자나 문자 부위에서 명암 값이 음에서 양으로 혹은 양에서 음으로 연속적인 명암 변화 벡터를 가지는 것을 이용하여 명암 변화가 대칭적으로 일어나는 곳에 번호판 영역이 있음을 추정하고, 추정된 좌표로부터 대상 영역을 확장하여 획득될 수 있다. The region corresponding to the identification information may be obtained through a change in brightness. For example, in the area corresponding to the identification information, when one line is read in the horizontal direction of the vehicle image, the contrast value in the number or letter part of the license plate has a continuous intensity change vector from negative to positive or from positive to negative. It can be obtained by estimating that there is a license plate area where the contrast change occurs symmetrically, and extending the target area from the estimated coordinates.

식별 정보에 대응되는 영역은 템플릿을 이용하여 획득될 수 있다. 예컨대, 식별 정보에 대응되는 영역은, 기준 원형 집합을 차량 영상에 적용하여, 즉, 표준 패턴에 입력된 영상을 정합시켜 문자를 인식시키는 템플릿을 이용하여 획득될 수 있다. The region corresponding to the identification information may be obtained using a template. For example, the region corresponding to the identification information may be obtained using a template for recognizing a character by applying a reference circular set to a vehicle image, that is, matching an image input to a standard pattern.

식별 정보에 대응되는 영역은 색상 정보를 이용하여 획득될 수 있다. The region corresponding to the identification information may be obtained using color information.

식별 정보에 대응되는 영역은 허프 변환을 이용하여 획득될 수 있다. 예컨대, 식별 정보에 대응되는 영역은 소벨 연산자를 이용하여 차량 이미지로부터 에지를 검출한 후 허프 변환을 이용하여 수직 직선군과 수평 직선군을 탐색하여 추출될 수 있다. The region corresponding to the identification information may be obtained using Hough transform. For example, the region corresponding to the identification information may be extracted by detecting an edge from the vehicle image using a Sobel operator and then searching for a group of vertical and horizontal straight lines using Hough transform.

식별 정보에 대응되는 영역은 run-length를 이용하여 획득될 수도 있다. 예컨대, 식별 정보에 대응되는 영역은, 이웃 방향의 기울기를 이용하여 이진 영상을 얻은 다음 임의의 각도인 세타로 투영하고 이때 투영되는 직선을 run-length 방법을 적용하여 후보 영역을 찾고, 수직을 이루는 두 직선의 비가 2:1인 위치를 검출하여 획득될 수 있다.The region corresponding to the identification information may be obtained using run-length. For example, the region corresponding to the identification information obtains a binary image using the gradient in the neighboring direction, then projects it to an arbitrary angle theta, and applies the run-length method to the projected straight line to find a candidate region, It can be obtained by detecting a position where the ratio of two straight lines is 2:1.

식별 정보에 대응되는 영역에 대한 전처리가 수행될 수 있다. 예컨대, 기울기 보정을 위한 회전, 아핀 변환, 선형 회귀, 등의 처리가 수행될 수 있다. 또는 음영 보정을 위한 전처리가 수행될 수 있다. 또는, 노이즈 제거를 위한 전처리가 수행될 수도 있다. Pre-processing may be performed on a region corresponding to the identification information. For example, processing such as rotation for tilt correction, affine transformation, linear regression, and the like may be performed. Alternatively, pre-processing for shading correction may be performed. Alternatively, pre-processing for noise removal may be performed.

차량 식별 정보는 번호판을 인식하는 알고리즘을 이용하여 획득될 수 있다. 차량 식별 정보는 OCR(Optical Character Recognition, 광학 문자 인식) 알고리즘을 이용하여 획득될 수 있다. 차량 식별 정보는, Tesseract, OpenCV, EAST detector, Python 등을 통하여 구현된 OCR 알고리즘을 이용하여 획득될 수 있다. Vehicle identification information may be obtained using an algorithm for recognizing a license plate. The vehicle identification information may be obtained using an OCR (Optical Character Recognition) algorithm. Vehicle identification information may be obtained using an OCR algorithm implemented through Tesseract, OpenCV, EAST detector, Python, or the like.

차량 식별 정보는 신경망 모델을 통하여 획득될 수 있다. 신경망 모델은 차량 이미지에 기초하여 차량 식별 정보를 획득할 수 있다. 신경망 모델은 차량의 전면부를 촬영하여 획득된 차량 전면 이미지 및/또는 차량의 후면부를 촬영하여 획득된 차량 후면 이미지에 기초하여 차량 식별 정보를 획득할 수 있다. 신경망 모델은 차량 전면 이미지에 포함되고 차량의 번호판에 대응되는 전면 번호판 영역 또는 차량 후면 이미지에 포함되고 차량의 번호판에 대응되는 후면 번호판 영역에 기초하여 차량 식별 정보를 획득할 수 있다. 신경망 모델은 차량 이미지에 포함되고 VIN에 대응되는 VIN 영역에 기초하여 차량 식별 정보를 획득할 수 있다. Vehicle identification information may be obtained through a neural network model. The neural network model may acquire vehicle identification information based on the vehicle image. The neural network model may acquire vehicle identification information based on a vehicle front image obtained by photographing a front portion of the vehicle and/or a vehicle rear image obtained by photographing a rear portion of the vehicle. The neural network model is included in the vehicle front image and may obtain vehicle identification information based on the front license plate area corresponding to the license plate of the vehicle or the rear license plate area included in the vehicle rear image and corresponding to the license plate of the vehicle. The neural network model may acquire vehicle identification information based on a VIN region included in a vehicle image and corresponding to a VIN.

신경망 모델은 합성곱 신경망을 포함할 수 있다. 신경망 모델은 순환 신경망(RNN; Recurrent Neural Network) 및/또는 장단기 메모리(LSTM; Long Short Term Memory)를 포함할 수 있다. 신경망 모델은 합성곱 신경망을 통하여 차량 이미지로부터 특징 세트를 획득할 수 있다. 신경망 모델은 장단기 메모리 또는 순환 신경망을 통하여, 특징 세트에 기초하여 차량 이미지에 대응되는 차량 식별 정보(예컨대, 차량 번호 또는 VIN)을 획득할 수 있다. The neural network model may include a convolutional neural network. The neural network model may include a Recurrent Neural Network (RNN) and/or Long Short Term Memory (LSTM). The neural network model may acquire a feature set from a vehicle image through a convolutional neural network. The neural network model may acquire vehicle identification information (eg, vehicle number or VIN) corresponding to the vehicle image based on the feature set through a long-term memory or a recurrent neural network.

신경망 모델은 차량 식별 정보를 획득하도록 학습될 수 있다. 신경망 모델은 차량 식별 정보 또는 차량 식별 정보를 구성하는 문자 정보가 라벨링된 차량 이미지를 포함하는 식별 학습 데이터를 이용하여, 차량 이미지에 기초하여 차량 식별 정보를 획득하도록 학습될 수 있다. 신경망 모델은 식별 학습 데이터를 이용하여, 차량 이미지에 기초하여 손상 정보를 획득하도록 지도, 비지도 또는 강화 학습될 수 있다. 신경망 모델은 역전파 방식을 이용하여 학습될 수 있다.The neural network model may be trained to obtain vehicle identification information. The neural network model may be trained to acquire vehicle identification information based on the vehicle image by using identification learning data including vehicle identification information or vehicle images labeled with text information constituting vehicle identification information. The neural network model may be supervised, unsupervised, or reinforcement trained to obtain damage information based on a vehicle image, using identification learning data. A neural network model can be trained using a backpropagation method.

식별 정보 학습 데이터는 다양한 환경에서 촬영되고 차량의 식별 정보가 라벨링된 차량 이미지를 포함할 수 있다. 식별 정보 학습 데이터는 야간, 주간, 새벽, 우천, 안개, 강설 등의 환경에서 촬영되고 식별 정보 라벨이 부여된 차량 이미지를 포함할 수 있다. The identification information learning data may include a vehicle image photographed in various environments and labeled with vehicle identification information. The identification information learning data may include a vehicle image photographed in an environment such as night, daytime, dawn, rain, fog, snowfall, etc. and assigned an identification information label.

식별 정보 학습 데이터는 차량의 식별 정보에 대응되는 영역이 표시된 차량 이미지를 포함할 수 있다. 식별 정보 학습 데이터는 차량의 식별 정보에 대응되는 영역에 마스킹되고 식별 정보 라벨이 부여된 하나 이상의 이미지를 포함할 수 있다.The identification information learning data may include a vehicle image in which a region corresponding to identification information of the vehicle is displayed. The identification information learning data may include one or more images masked in a region corresponding to identification information of the vehicle and to which an identification information label is assigned.

식별 정보 학습 데이터는 차량의 전면을 촬영하여 획득되고 차량의 식별 번호를 나타내는 라벨이 부여된 차량의 전면 이미지 및/또는 차량의 후면을 촬영하여 획득되고 차량의 식별 번호를 나타내는 라벨이 부여된 차량의 후면 이미지를 포함할 수 있다.Identification information learning data is obtained by photographing the front of the vehicle and is obtained by photographing the front image of the vehicle and/or the rear of the vehicle to which a label indicating the identification number of the vehicle is given of the vehicle to which the label indicating the identification number of the vehicle is assigned. It may include a back image.

식별 정보 학습 데이터는 차량의 식별 정보에 대응되는 영역에 대한 식별 영역 이미지를 포함할 수 있다. 예컨대, 식별 정보 학습 데이터는 차량의 전면 번호판을 촬영하여 획득되고 식별 번호 라벨이 부여된 전면 번호판 이미지, 차량의 후면 번호판을 촬영하여 획득되고 식별 번호 라벨이 부여된 후면 번호판 이미지 및/또는 차량의 VIN을 촬영하여 획득되고 식별 번호(VIN)가 부여된 VIN 이미지를 포함할 수 있다. The identification information learning data may include an identification region image of a region corresponding to vehicle identification information. For example, the identification information learning data is obtained by photographing the front license plate of the vehicle and assigned an identification number label, the rear license plate image obtained by photographing the rear license plate of the vehicle and assigned an identification number label, and/or the VIN of the vehicle It may include a VIN image obtained by photographing and to which an identification number (VIN) is assigned.

일 실시예에 따르면, 차량의 운전자(또는 소유자)를 식별하기 위한 운전자 식별 정보가 획득될 수 있다. 운전자 식별 정보는, 사용자 입력 등의 비-이미지 데이터 또는 운전자의 신분증을 촬영한 이미지 등의 이미지 데이터에 기초하여 획득될 수 있다. 운전자 식별 정보가 이미지 데이터에 기초하여 획득되는 경우, 전술한 알고리즘, 프로그램 또는 신경망 모델이 유사하게 이용될 수 있다.According to an embodiment, driver identification information for identifying a driver (or owner) of a vehicle may be obtained. The driver identification information may be obtained based on non-image data such as a user input or image data such as an image obtained by photographing the driver's identification card. When driver identification information is obtained based on image data, the aforementioned algorithm, program or neural network model may be similarly used.

차량의 식별 정보 또는 운전자 식별 정보는 각각 차량 또는 운전자의 이력 관리에 이용될 수 있다. 이와 관련하여서는 차량 정보 관리 항목에서 보다 상세히 설명한다.The identification information of the vehicle or the driver identification information may be used to manage the history of the vehicle or the driver, respectively. In this regard, it will be described in more detail in the vehicle information management item.

2.3.5 차량 정보 획득 실시예 1 2.3.5 Vehicle Information Acquisition Example 1

일 실시예에 따르면, 부품 별 손상을 나타내는 부품-손상 정보가 획득될 수 있다. According to an embodiment, part-damage information indicating damage for each part may be obtained.

도 22를 참조하면, 부품-손상 정보는 차량 이미지 획득부(221), 부품 정보 획득부(223), 손상 정보 획득부(225) 및 부품-손상 정보 획득부(227)를 포함하는 장치(220)에 의해 획득될 수 있다. 이하에서는 도 22를 참조하여 부품-손상 정보의 획득에 대하여 설명한다. Referring to FIG. 22 , the part-damage information device 220 including the vehicle image acquisition unit 221 , the parts information acquisition unit 223 , the damage information acquisition unit 225 , and the parts-damage information acquisition unit 227 . ) can be obtained by Hereinafter, the acquisition of parts-damage information will be described with reference to FIG. 22 .

차량 이미지 획득부(221)는 차량의 외관을 촬영하여 획득된 차량 이미지를 획득할 수 있다. 차량 이미지 획득부(221)는 카메라 모듈을 통하여 차량 이미지를 획득하거나, 외부 장치로부터 차량 이미지를 획득할 수 있다.The vehicle image acquisition unit 221 may acquire a vehicle image obtained by photographing the exterior of the vehicle. The vehicle image acquisition unit 221 may acquire a vehicle image through a camera module or acquire a vehicle image from an external device.

부품 정보 획득부(223)는 차량 이미지에 기초하여 차량을 구성하는 부품 정보를 획득할 수 있다. 부품 정보 획득부(223)는 입력된 대상 차량 이미지에 포함된 부품의 종류(또는 식별 정보) 및 각 부품에 대응되는 부품 영역 정보를 획득할 수 있다. 부품 정보에 관하여는 부품 정보 획득과 관련하여 설명된 내용이 적용될 수 있다. The parts information acquisition unit 223 may acquire parts information constituting the vehicle based on the vehicle image. The parts information acquisition unit 223 may acquire a type (or identification information) of a part included in the input target vehicle image and part region information corresponding to each part. Regarding the parts information, the contents described in relation to obtaining the parts information may be applied.

손상 정보 획득부(225)는 차량 이미지에 기초하여 차량 외관의 손상과 관련된 손상 정보를 획득할 수 있다. 손상 정보 획득부(225)는 입력된 대상 차량 이미지에 손상 부위가 존재하는지 여부 및/또는 대상 차량 이미지로부터 손상 부위에 대응되는 손상 영역 정보를 획득할 수 있다. 손상 정보에 관하여는 손상 정보 획득과 관련하여 설명된 내용이 적용될 수 있다.The damage information acquisition unit 225 may acquire damage information related to damage to the exterior of the vehicle based on the vehicle image. The damage information obtaining unit 225 may acquire information on whether a damaged area exists in the input target vehicle image and/or damage area information corresponding to the damaged area from the target vehicle image. Regarding the damage information, the contents described in relation to the acquisition of the damage information may be applied.

부품-손상 정보 획득부(227)는 부품 정보 및 손상 정보에 기초하여 대상 이미지에 포함된 개별부품 별 손상 정보를 나타내는 부품-손상 정보를 획득할 수 있다. 부품-손상 정보는 대상 이미지에 포함된 개별 부품 별로 손상 부위가 존재하는지 여부, 손상의 개수 및/또는 손상 부위를 나타내는 손상 영역 정보를 포함할 수 있다.The part-damage information acquisition unit 227 may acquire part-damage information indicating damage information for each individual part included in the target image based on the part information and the damage information. The part-damage information may include damage area information indicating whether a damaged part exists for each individual part included in the target image, the number of damage and/or the damaged part.

예를 들어, 부품-손상 정보 획득부(227)는 부품 정보 및 손상 정보를 획득하고, 부품 영역 정보 및 손상 영역 정보에 기초하여 개별 부품에 대응되는 부품 영역과 중첩되는 손상 영역이 존재하는지 판단할 수 있다. 부품-손상 정보 획득부(227)는 특정 부품에 대응되는 부품 영역과 중첩되는 손상 영역이 존재하는 경우 해당 부품에 손상이 존재함을 지시하는(또는 손상의 수를 나타내는) 부품-손상 정보를 획득할 수 있다. 부품-손상 정보 획득부(227)는 특정 부품에 대응되는 부품 영역과 중첩되는 손상 영역이 존재하는 경우 해당 부품에 존재하는 손상 부위의 위치를 표시하는 부품-손상 영역 정보를 획득할 수 있다.For example, the part-damage information acquisition unit 227 acquires parts information and damage information, and determines whether a damaged region overlapping a part region corresponding to an individual part exists based on the part region information and the damaged region information. can The part-damage information acquisition unit 227 acquires part-damage information indicating that damage exists in the corresponding part (or indicating the number of damage) when there is a damaged area overlapping the part area corresponding to the specific part. can do. The part-damage information obtaining unit 227 may acquire part-damaged area information indicating the location of a damaged part existing in the part when there is a damaged area overlapping the part area corresponding to a specific part.

구체적인 예로, 입력된 대상 차량 이미지가 제1 부품 및 제2 부품과 관련되고, 제1 부품은 대상 차량 이미지의 제1 영역과 대응되고 제2 부품은 대상 차량 이미지의 제2 영역과 대응되는 경우, 부품 정보는, 제1 부품 식별 정보, 제2 부품 식별 정보, 제1 부품 식별 정보에 대응되는 제1 영역 및 제2 부품 식별 정보에 대응되는 제2 영역을 포함할 수 있다. 대상 차량의 제1 부품에 손상이 발생된 경우, 손상 정보는 대상 차량 이미지에 손상 영역이 포함됨을 나타내고, 손상 영역의 위치를 나타내는 손상 영역 정보를 포함할 수 있다. 이때, 부품-손상 정보 획득부(227)는, 대상 차량 이미지 내에서 손상 영역 정보를 제1 영역 및 제2 영역과 비교하고, 손상 영역이 보다 많이 중첩되는 제1 영역에 손상이 존재하는 것으로 판단할 수 있다. 부품-손상 정보 획득부(227)는 제1 부품에 손상이 존재함을 지시하는 부품-손상 정보를 획득할 수 있다. As a specific example, when the input target vehicle image is related to the first part and the second part, the first part corresponds to the first area of the target vehicle image, and the second part corresponds to the second area of the target vehicle image, The part information may include first part identification information, second part identification information, a first area corresponding to the first part identification information, and a second area corresponding to the second part identification information. When the first part of the target vehicle is damaged, the damage information may indicate that the damaged area is included in the target vehicle image and may include damage area information indicating the location of the damaged area. At this time, the parts-damage information obtaining unit 227 compares the damaged area information with the first and second areas in the target vehicle image, and determines that damage exists in the first area where the damaged areas overlap more. can do. The part-damage information acquisition unit 227 may acquire part-damage information indicating that damage exists in the first part.

도 23은 일 실시예에 따른 차량 정보의 획득을 설명하기 위한 도면이다. 도 23을 참조하면, 부품 정보 획득부는 차량 이미지(a)에 기초하여, 각 부품에 대응되는 영역 정보를 포함하는 세그멘테이션 이미지(b)를 획득할 수 있다. 손상 정보 획득부는 동일한 차량 이미지(a)에 기초하여, 손상이 위치하는 영역을 나타내는 바운딩 박스(BB) 또는 바운딩 박스(BB)를 포함하는 이미지(c)를 획득할 수 있다. 부품-손상 정보 획득부는 바운딩 박스(BB)의 위치 및 각 부품에 대응되는 세그멘테이션에 기초하여, 부품 별 손상 정보를 획득할 수 있다. 도 23을 참조하면, 부품-손상 정보 획득부는, 바운딩 박스(BB)의 분포 좌표 및 세그멘테이션 정보에 기초하여, 차량의 좌전방 도어 및 좌후방 도어에 손상이 위치하는 것을 나타내는 부품-손상 정보를 획득할 수 있다. 23 is a diagram for explaining acquisition of vehicle information according to an exemplary embodiment. Referring to FIG. 23 , the parts information acquisition unit may acquire a segmentation image b including region information corresponding to each part based on the vehicle image a. The damage information obtaining unit may obtain, based on the same vehicle image (a), a bounding box (BB) indicating an area in which the damage is located or an image (c) including the bounding box (BB). The part-damage information acquisition unit may acquire damage information for each part based on the location of the bounding box BB and the segmentation corresponding to each part. Referring to FIG. 23 , the parts-damage information obtaining unit acquires parts-damage information indicating that damage is located in the left front door and left rear door of the vehicle, based on the distribution coordinates and segmentation information of the bounding box BB. can do.

2.3.6 차량 정보 획득 실시예 2 2.3.6 Vehicle Information Acquisition Example 2

일 실시예에 따르면, 부품 정보와 손상 정보에 기초하여 부품 별 손상을 나타내는 부품-손상 정보가 획득될 수 있다. According to an embodiment, part-damage information indicating damage for each part may be obtained based on the part information and the damage information.

도 24를 참조하면, 부품-손상 정보는 차량 이미지 획득부(241), 부품 정보 획득부(243), 손상 정보 획득부(245) 및 부품-손상 정보 획득부(247)를 포함하는 장치(240)에 의해 획득될 수 있다. 차량 이미지 획득부(241), 부품 정보 획득부(243) 및 손상 정보 획득부(245)에 대하여 특별한 설명이 없는 한 위에서 설명된 내용이 유사하게 적용될 수 있다. 이하에서는 도 24를 참조하여 부품-손상 정보의 획득에 대하여 설명한다. Referring to FIG. 24 , parts-damage information is a vehicle image acquisition unit 241 , a parts information acquisition unit 243 , a damage information acquisition unit 245 , and a part-damage information acquisition unit 240 including a part 247 . ) can be obtained by The contents described above may be similarly applied to the vehicle image obtaining unit 241 , the parts information obtaining unit 243 , and the damage information obtaining unit 245 unless otherwise specified. Hereinafter, the acquisition of parts-damage information will be described with reference to FIG. 24 .

부품 정보 획득부(243)는 개별 부품에 대응되는 부품 영역(예를 들어, 부품 영역의 세그멘테이션 또는 바운딩 박스)을 획득할 수 있다. The part information acquisition unit 243 may acquire a part region (eg, a segmentation or a bounding box of the part region) corresponding to an individual part.

손상 정보 획득부(245)는 차량 이미지에 포함되는 개별 부품에 대응되는 부품 영역에 기초하여, 대상 부품 영역에 손상이 포함되는지 여부, 대상 부품 영역에 포함되는 손상의 종류, 수를 나타내는 손상 정보 및/또는 대상 부품 영역 중 손상이 위치하는 손상 영역 정보를 획득할 수 있다. 손상 정보 획득부(245)는 개별 부품 영역 별로 손상 정보를 획득하도록 학습된 신경망 모델을 이용하여, 개별 부품 별 손상 정보를 획득할 수 있다. The damage information acquisition unit 245 may include damage information indicating whether or not damage is included in the target part area, the type and number of damage included in the target part area, based on the part area corresponding to the individual part included in the vehicle image, and / Alternatively, damage area information in which damage is located among the target part areas may be acquired. The damage information acquisition unit 245 may acquire damage information for each individual part by using a neural network model trained to acquire damage information for each individual part area.

부품-손상 정보 획득부(247)는 개별 부품 별 손상과 관련된 손상 정보에 기초하여, 대상 이미지에 따른 부품-손상 정보를 획득할 수 있다. 부품-손상 정보는 대상 이미지에 포함된 개별 부품 별로 손상 부위가 존재하는지 여부, 손상의 개수 및/또는 손상 부위를 나타내는 손상 영역 정보를 포함할 수 있다.The part-damage information acquisition unit 247 may acquire part-damage information according to the target image based on damage information related to damage for each individual part. The part-damage information may include damage area information indicating whether a damaged part exists for each individual part included in the target image, the number of damage and/or the damaged part.

구체적인 예로, 입력된 대상 차량 이미지가 제1 부품 및 제2 부품과 관련되고, 제1 부품은 대상 차량 이미지의 제1 영역과 대응되고 제2 부품은 대상 차량 이미지의 제2 영역과 대응되는 경우, 부품 정보는, 제1 부품 식별 정보, 제2 부품 식별 정보, 제1 부품 식별 정보에 대응되는 제1 영역 및 제2 부품 식별 정보에 대응되는 제2 영역을 포함할 수 있다. 대상 차량의 제1 부품에 손상이 발생된 경우, 손상 정보 획득부(245)는, 제1 영역에 손상이 위치함을 나타내는 제1 손상 정보 및 제1 영역에 포함되는 손상 영역의 위치를 나타내는 제1 손상 영역 정보를 획득할 수 있다. 손상 정보 획득부는 제2 부품에 손상이 존재하지 아니함을 나타내는 손상 정보를 획득할 수 있다. 부품-손상 정보 획득부(247)는, 손상 정보 및 손상 영역 정보에 기초하여, 제1 부품 및 제2 부품에 대한 부품-손상 정보를 획득할 수 있다.As a specific example, when the input target vehicle image is related to the first part and the second part, the first part corresponds to the first area of the target vehicle image, and the second part corresponds to the second area of the target vehicle image, The part information may include first part identification information, second part identification information, a first area corresponding to the first part identification information, and a second area corresponding to the second part identification information. When damage occurs to the first part of the target vehicle, the damage information obtaining unit 245 may include first damage information indicating that the damage is located in the first area and second damage information indicating the location of the damaged area included in the first area. 1 Damage area information can be obtained. The damage information obtaining unit may obtain damage information indicating that damage does not exist in the second part. The part-damage information acquisition unit 247 may acquire part-damage information for the first part and the second part based on the damage information and the damaged area information.

2.3.7 차량 정보 획득 실시예 3 2.3.7 Vehicle Information Acquisition Example 3

일 실시예에 따르면, 부품 정보와 손상 정보에 기초하여 부품 별 손상을 나타내는 부품-손상 정보가 획득될 수 있다. According to an embodiment, part-damage information indicating damage for each part may be obtained based on the part information and the damage information.

도 25를 참조하면, 부품-손상 정보는 차량 이미지 획득부(251), 차종 정보 획득부(253), 부품 정보 획득부(255), 손상 정보 획득부(257) 및 부품-손상 정보 획득부(259)를 포함하는 장치(250)에 의해 획득될 수 있다. 차량 이미지 획득부(251), 부품 정보 획득부(253) 및 손상 정보 획득부(255)에 대하여 특별한 설명이 없는 한 위에서 설명된 내용이 유사하게 적용될 수 있다. 이하에서는 도 25를 참조하여 부품-손상 정보의 획득에 대하여 설명한다. Referring to FIG. 25 , parts-damage information includes a vehicle image acquisition unit 251 , a vehicle model information acquisition unit 253 , a parts information acquisition unit 255 , a damage information acquisition unit 257 , and a parts-damage information acquisition unit ( 259). The contents described above may be similarly applied to the vehicle image obtaining unit 251 , the parts information obtaining unit 253 , and the damage information obtaining unit 255 unless otherwise specified. Hereinafter, the acquisition of parts-damage information will be described with reference to FIG. 25 .

차종 정보 획득부(253)는 차량 이미지에 기초하여 대상 차량의 차종과 관련된 차종 정보를 획득할 수 있다. 차종 정보 획득부(253)는 사용자 입력 또는 미리 저장된 데이터베이스를 통하여 획득될 수도 있다. The vehicle model information acquisition unit 253 may acquire vehicle model information related to the vehicle model of the target vehicle based on the vehicle image. The vehicle model information acquisition unit 253 may be acquired through a user input or a pre-stored database.

부품 정보 획득부(255)는 차종 정보에 기초하여 부품 정보를 획득할 수 있다. 부품 정보 획득부는 차종 정보와 차량 이미지를 함께 고려하여 부품 정보를 획득할 수 있다. 부품 정보 획득부(255)는 차종 정보를 추가 입력으로 이용하고 차량 이미지에 기초하여 특징 세트를 획득하는 신경망 모델을 이용하여 부품 정보를 획득할 수 있다. 부품 정보 획득부(255)는 차종 별로 미리 마련된 부품 정보 및/또는 부품 영역 정보를 이용하여 차량 이미지와 부품 영역 정보를 맵핑함으로써 부품 정보 및/또는 부품 영역 정보를 획득할 수 있다. The parts information acquisition unit 255 may acquire parts information based on vehicle model information. The parts information acquisition unit may acquire the parts information by considering the vehicle model information and the vehicle image together. The parts information acquisition unit 255 may acquire parts information using a neural network model that uses vehicle model information as an additional input and acquires a feature set based on a vehicle image. The parts information acquisition unit 255 may acquire parts information and/or parts region information by mapping the vehicle image and the parts region information using parts information and/or parts region information prepared in advance for each vehicle type.

일반적으로, 차종 별로 차량을 구성하는 부품이 달라지는 경향이 있어, 차종을 함께 고려하여 부품 또는 부품 영역을 판단할 경우, 정확도가 향상될 수 있다. 한편, 여기에서는 차종 정보가 차량 이미지에 기초하여 획득되는 경우를 기준으로 설명하였으나, 차종 정보는 사용자 입력 또는 미리 저장된 데이터 등으로부터 획득될 수도 있다. In general, since parts constituting a vehicle tend to vary for each vehicle type, accuracy may be improved when a component or a component area is determined in consideration of the vehicle type. Meanwhile, although the description is based on a case in which vehicle model information is obtained based on a vehicle image, the vehicle model information may be obtained from a user input or pre-stored data.

부품-손상 정보 획득부(257)는 부품 정보 및 손상 정보에 기초하여 부품-손상 정보를 획득할 수 있다. 부품-손상 정보의 획득과 관련하여서는, 도 22 및 23과 관련하여 전술한 내용이 유사하게 적용될 수 있다. The part-damage information acquisition unit 257 may acquire part-damage information based on the part information and the damage information. With respect to the acquisition of part-damage information, the above-described contents with reference to FIGS. 22 and 23 may be similarly applied.

2.4 차량 정보 관리2.4 Vehicle information management

차량 관리 프로세스는 차량 정보를 관리하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 전술한 부품 정보, 손상 정보, 차량 종류 정보 및/또는 식별 정보를 관리하는 것을 포함할 수 있다. The vehicle management process may include managing vehicle information. Managing the vehicle information may include managing the aforementioned part information, damage information, vehicle type information, and/or identification information.

차량 정보를 관리하는 것은 차량 정보를 시계열적으로 관리하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 차량 정보를 분류하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 하나 이상의 정보를 연관하여 관리하는 것을 포함할 수 있다.Managing the vehicle information may include managing the vehicle information in time series. Managing the vehicle information may include classifying the vehicle information. Managing the vehicle information may include managing one or more pieces of information in association.

이하에서는 차량 정보의 관리에 대하여 몇몇 실시예를 들어 설명한다. Hereinafter, management of vehicle information will be described with reference to some embodiments.

2.4.1 이력 관리2.4.1 History Management

차량 정보를 관리하는 것은 차량 정보를 이력 관리하는 것을 포함할 수 있다. 차량 정보를 이력 관리하는 것은 서로 다른 시점에 획득된 하나 이상의 차량 정보를 시계열적으로 나열 및/또는 관리하는 것을 의미할 수 있다. Managing the vehicle information may include managing the history of the vehicle information. History management of vehicle information may mean listing and/or managing one or more vehicle information acquired at different times in time series.

차량 정보를 관리하는 것은 하나 이상의 부품 정보에 기초하여, 부품 정보를 시계열적으로 관리하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 개별 부품 별로, 해당 부품의 교체, 결손, 손상 등을 나타내는 부품 정보를 각 부품 정보가 획득된 시간을 나타내는 시간 정보와 함께 관리하는 것을 의미할 수 있다. 예컨대, 차량 정보를 관리하는 것은 제1 시점에 제1 부품이 파손되었음을 나타내는 제1 정보를 획득하고, 제1 시점 이후인 제2 시점에 제1 부품이 교체되었음을 나타내는 제2 정보를 획득하고, 제1 정보 및 제2 정보를 시간 순으로 관리하는 것을 포함할 수 있다. 제1 정보 또는 제2 정보는 차량 이미지에 기초하여 획득될 수 있다. Managing the vehicle information may include managing the parts information in time series based on one or more parts information. Managing vehicle information may mean managing, for each individual part, part information indicating replacement, defect, damage, etc. of a corresponding part together with time information indicating a time at which each part information was acquired. For example, managing the vehicle information includes acquiring first information indicating that the first part is damaged at a first time point, acquiring second information indicating that the first part has been replaced at a second time point after the first time point, and It may include managing the first information and the second information in chronological order. The first information or the second information may be obtained based on the vehicle image.

차량 정보를 관리하는 것은 하나 이상의 손상 정보에 기초하여 손상 정보(또는 부품-손상 정보)를 시계열적으로 관리하는 것을 포함할 수 있다. 차량 관리 프로세스는 특정 차량에 대하여, 차량에 발생한 손상을 나타내는 손상 정보를 손상 정보가 획득된 시간을 나타내는 시간 정보와 함께 관리하는 것을 의미할 수 있다. 예컨대, 차량 정보를 관리하는 것은 제1 시점에 제1 차량에 제1 손상이 발생하였음을 나타내는 제1 정보를 획득하고, 제1 시점 이후인 제2 시점에 제1 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 획득하고, 제1 정보 및 제2 정보를 시간 순으로 관리하는 것을 포함할 수 있다. 제1 정보 또는 제2 정보는 차량 이미지에 기초하여 획득될 수 있다. 제1 정보 또는 제2 정보는 각 손상에 대응되는 영역 정보를 포함할 수 있다. Managing the vehicle information may include managing damage information (or parts-damage information) in time series based on one or more pieces of damage information. The vehicle management process may mean managing, with respect to a specific vehicle, damage information indicating damage to the vehicle along with time information indicating a time at which the damage information was acquired. For example, managing the vehicle information acquires first information indicating that the first damage has occurred to the first vehicle at a first time point, and the second damage has occurred to the first vehicle at a second time point that is after the first time point It may include acquiring second information indicating The first information or the second information may be obtained based on the vehicle image. The first information or the second information may include area information corresponding to each damage.

차량 정보를 관리하는 것은 하나 이상의 이미지에 기초하여 손상 정보를 시계열적으로 관리하는 것을 포함할 수 있다. 예컨대, 차량 정보를 관리하는 것은 제1 시점에 획득된 제1 차량 이미지에 기초하여 획득된 제1 손상 정보 및 제1 시점 이후인 제2 시점에 획득된 제2 차량 이미지에 기초하여 획득된 제2 손상 정보를 시간을 고려하여 관리하는 것을 포함할 수 있다. Managing the vehicle information may include time-series management of damage information based on one or more images. For example, managing the vehicle information includes first damage information obtained based on a first vehicle image obtained at a first time point and a second vehicle image obtained based on a second vehicle image obtained at a second time point after the first time point. It may include managing damage information in consideration of time.

차량 정보를 관리하는 것은 사용자 정보를 고려하여 수행될 수 있다. 예컨대, 차량 정보를 관리하는 것은, 제1 사용자에 의해 제1 시점에 촬영된 제1 차량 이미지에 기초하여 획득된 제1 손상 정보 및 제1 사용자에 의해 제2 시점에 촬영된 제2 차량 이미지에 기초하여 획득된 제2 손상 정보를 시간을 고려하여 관리하는 것을 포함할 수 있다. Managing vehicle information may be performed in consideration of user information. For example, managing the vehicle information includes first damage information obtained based on the first vehicle image captured by the first user at the first time point and the second vehicle image captured by the first user at the second time point. It may include managing the acquired second damage information based on time in consideration.

사용자 정보를 고려하여 차량 정보를 관리하는 것은, 이하의 온-사이트 차량 관리 프로세스 및 모바일 베이스 차량 관리 프로세스에서 보다 상세히 설명한다.Managing vehicle information in consideration of user information will be described in more detail in the following on-site vehicle management process and mobile-based vehicle management process.

2.4.2 손상 이력 관리 실시예 1 - 신규 손상2.4.2 Damage history management Example 1 - New damage

손상 정보의 이력 관리는 새롭게 발생한 신규 손상에 대한 신규 손상 정보를 획득하는 것을 포함할 수 있다. 손상 정보의 이력 관리는 동일한 차량을 다양한 시점에 촬영하여 획득된 복수의 이미지에 기초하여, 신규 손상 정보를 획득하는 것을 포함할 수 있다.History management of damage information may include acquiring new damage information for new damage that has occurred. History management of damage information may include acquiring new damage information based on a plurality of images obtained by photographing the same vehicle at various time points.

신규 손상 정보는 복수의 손상 정보에 기초하여 획득될 수 있다. 신규 손상 정보는 제1 시점에 대응되는 제1 손상 정보 및 제1 시점 이후인 제2 시점에 대응되는 제2 손상 정보에 기초하여 획득될 수 있다. The new damage information may be obtained based on a plurality of pieces of damage information. The new damage information may be acquired based on the first damage information corresponding to the first time point and the second damage information corresponding to the second time point after the first time point.

신규 손상 정보는 새롭게 발생한 손상의 개수, 정도, 위치(예컨대, 좌표) 등을 포함할 수 있다. The new damage information may include the number, degree, and location (eg, coordinates) of the newly generated damage.

신규 손상 정보는 제1 차량에 대하여 제1 시점에 촬영된 제1 이미지에 기초하여 획득된 제1 손상 정보 및 제1 차량에 대하여 제1 시점 이후인 제2 시점에 촬영된 제2 이미지에 기초하여 획득된 제2 손상 정보에 기초하여 획득될 수 있다. 신규 손상 정보는 제1 시점 이후 및 제2 시점 이전에 제1 차량에 새롭게 발생한 손상에 대한 정보를 포함할 수 있다. 예컨대, 신규 손상 정보는 제1 손상 정보에 따른 손상의 개수(또는 정도)와 제2 손상 정보에 따른 손상의 개수에 기초하여 획득된 새로이 발생한 손상의 수를 포함할 수 있다. 제1 이미지 및 제2 이미지는 차량을 동일한(또는 유사한)방향으로 촬영하여 획득된 이미지일 수 있다. The new damage information is based on first damage information acquired based on a first image captured at a first time point for the first vehicle and a second image captured at a second time point after the first time point with respect to the first vehicle It may be obtained based on the obtained second damage information. The new damage information may include information on damage newly generated to the first vehicle after the first time point and before the second time point. For example, the new damage information may include the number of new damage acquired based on the number (or degree) of damage according to the first damage information and the number of damage according to the second damage information. The first image and the second image may be images obtained by photographing the vehicle in the same (or similar) direction.

신규 손상 정보는 차량 이미지 내의 신규 손상에 대응되는 영역의 위치, 크기, 분포 등을 포함할 수 있다. The new damage information may include the location, size, distribution, etc. of a region corresponding to the new damage in the vehicle image.

신규 손상 정보는 제1 차량에 대하여 제1 시점에 촬영된 제1 이미지에 기초하여 획득된 제1 손상 영역 정보 및 제1 차량에 대하여 제1 시점 이후인 제2 시점에 촬영된 제2 이미지에 기초하여 획득된 제2 손상 영역 정보에 기초하여 획득될 수 있다. 신규 손상 정보는 제1 손상 영역 정보 및 제2 손상 영역 정보에 기초하여, 제1 시점 이후 및 제2 시점 이전에 제1 차량에 새롭게 발생한 손상 영역의 차량 이미지 내에서의 위치, 크기 내지 분포에 대한 정보를 포함할 수 있다. The new damage information is based on first damage area information obtained based on a first image captured at a first time point for the first vehicle and a second image captured at a second time point after the first time point with respect to the first vehicle and may be obtained based on the obtained second damaged area information. The new damage information is based on the first damage area information and the second damage area information, after the first time point and before the second time point, the location, size, or distribution of the damage area newly generated in the first vehicle in the vehicle image. may contain information.

신규 손상 정보는 부품 별로 획득될 수도 있다. 신규 손상 정보는 개별 부품에 대하여 새롭게 발생한 손상의 개수, 정도, 위치(예컨대, 좌표), 대응되는 영역의 위치, 크기, 분포 등을 포함할 수 있다. 신규 손상 정보를 부품 별로 독립적으로 관리함으로써 개별 부품 별 상태 관리가 용이해질 수 있다. New damage information may be acquired for each part. The new damage information may include the number, degree, location (eg, coordinates) of the damage newly generated with respect to individual parts, and the location, size, distribution, and the like of a corresponding area. By independently managing the new damage information for each part, it is possible to easily manage the state of each individual part.

신규 손상 정보는 제1 차량에 대하여 제1 시점에 촬영된 제1 이미지에 기초하여 획득된 제1 부품에 대한 제1 손상 정보 및 제1 차량에 대하여 제1 시점 이후인 제2 시점에 촬영된 제2 이미지에 기초하여 획득된 제1 부품에 대한 제2 손상 정보에 기초하여 획득될 수 있다. 신규 손상 정보는 제1 손상 정보 및 제2 손상 정보에 기초하여, 제1 시점 이후 및 제2 시점 이전에 제1 부품에 새로이 발생한 손상의 수, 크기, 위치 등을 나타낼 수 있다. The new damage information includes the first damage information for the first part obtained based on the first image captured at the first time point for the first vehicle and the second time point photographed at a second time point after the first time point with respect to the first vehicle. 2 It may be obtained based on the second damage information on the first part obtained based on the image. The new damage information may indicate the number, size, location, etc. of damage newly generated to the first part after the first time point and before the second time point based on the first damage information and the second damage information.

도 26은 일 실시예에 따른 신규 손상 정보를 설명하기 위한 도면이다. 도 26을 참조하면, 제1 시점에 획득된 제1 차량 이미지(a) 및 제2 시점에 촬영된 제2 차량 이미지(b)에 기초하여 신규 손상 정보가 획득될 수 있다. 26 is a view for explaining new damage information according to an embodiment. Referring to FIG. 26 , new damage information may be acquired based on a first vehicle image (a) acquired at a first time point and a second vehicle image (b) captured at a second time point.

제1 차량 이미지에 기초하여 차량에 1개의 손상이 존재함을 나타내는 제1 손상 정보가 획득되고, 제2 차량 이미지에 기초하여 차량에 2개의 손상이 존재함을 나타내는 제2 손상 정보가 획득될 수 있다. 제1 손상 정보 및 제2 손상 정보에 기초하여, 하나의 신규 손상(후방 휀더의 B2)이 발생하였음을 나타내는 신규 손상 정보가 획득될 수 있다. First damage information indicating that one damage is present in the vehicle may be obtained based on the first vehicle image, and second damage information indicating that two damages are present in the vehicle may be obtained based on the second vehicle image. there is. Based on the first damage information and the second damage information, new damage information indicating that one new damage (B2 of the rear fender) has occurred may be obtained.

제1 차량 이미지(a)에 기초하여 제1 손상 영역 정보(B1)를 포함하는 제1 손상 정보가 획득될 수 있다. 제2 차량 이미지(b)에 기초하여 제1 손상 영역 정보(B1) 및 제2 손상 영역 정보(B2)를 포함하는 제2 손상 정보가 획득될 수 있다. 제1 손상 정보 및 제2 손상 정보에 기초하여, 제1 시점 이후 및 제2 시점 이전에 발생된 차량 후방 휀더의 손상을 신규 손상으로 판단할 수 있다. 신규 손상 정보 후방 휀더의 손상에 대응되는 제2 손상 영역 정보를 포함할 수 있다. First damage information including the first damage area information B1 may be obtained based on the first vehicle image a. Second damage information including the first damage area information B1 and the second damage area information B2 may be obtained based on the second vehicle image b. Based on the first damage information and the second damage information, damage to the rear fender of the vehicle occurring after the first time point and before the second time point may be determined as a new damage. New damage information may include second damage area information corresponding to damage to the rear fender.

2.4.3 손상 이력 관리 실시예 2 - 손상 중첩 2.4.3 Damage history management Example 2 - Damage overlap

새로 발생한 손상이 기존 손상과 적어도 일부 중첩되는 경우가 발생할 수 있다. 이러한 경우, 새로 손상이 발생하였음에도 불구하고 손상의 개수가 변경되지 않을 수 있다. 특히, 신규 손상 영역이 기존 손상 영역에 포함되거나 기존 손상 영역이 신규 손상 영역에 포함되는 경우 이러한 문제가 발생할 수 있다. 이러한 경우에도 사용자에게 신규 손상이 발생하였음을 고지하기 위한 수단이 요구된다.There may be cases where the newly generated damage overlaps at least partially with the existing damage. In this case, the number of damages may not be changed even though new damage has occurred. In particular, when the new damaged area is included in the existing damaged area or the existing damaged area is included in the new damaged area, such a problem may occur. Even in this case, a means for notifying the user that new damage has occurred is required.

도 27은 기존 손상과 중첩되는 신규 손상이 발생한 경우의 손상 이력 관리를 설명하기 위한 도면이다. 기존 손상과 중첩되는 신규 손상이 발생한 경우의 손상 이력은 손상 부위의 위치, 크기, 좌표 등을 이용하여 획득될 수 있다.27 is a view for explaining damage history management when new damage overlapping existing damage occurs. The damage history when a new damage overlaps with the existing damage occurs may be obtained using the location, size, coordinates, etc. of the damaged area.

도 27을 참조하면, 손상 이력을 관리하는 것은, 제1 시점에 촬영된 제1 차량 이미지(a)를 획득하고 제1 차량 이미지(a)에 기초하여 제1 손상 영역 정보(B1)를 포함하는 제1 손상 정보를 획득하는 것을 포함할 수 있다. 손상 이력을 관리하는 것은 제1 시점 이후인 제2 시점에 촬영된 제2 차량 이미지(b)를 획득하고 제2 차량 이미지(b)에 기초하여 제2 손상 영역 정보(B2)를 포함하는 제2 손상 정보를 획득하는 것을 포함할 수 있다. Referring to FIG. 27 , managing the damage history includes acquiring the first vehicle image (a) photographed at the first time point and including the first damage area information (B1) based on the first vehicle image (a) and obtaining first damage information. Managing the damage history includes acquiring a second vehicle image (b) photographed at a second time point that is after the first time point and including second damage area information (B2) based on the second vehicle image (b) It may include obtaining damage information.

도 27을 참조하면, 제2 손상 영역 정보(B2)는 제1 손상 영역 정보(B1)와 중첩될 수 있다. 제1 손상 영역 정보(B1)는 제2 손상 영역 정보(B1)에 포함될 수 있다. 제1 손상 영역 정보(B1)가 제2 손상 영역 정보(B1)와 적어도 일부 중첩되는 경우, 제1 손상 정보에 따른 손상의 개수 및 제2 손상 정보에 따른 손상의 개수는 동일할 수 있다. Referring to FIG. 27 , the second damaged area information B2 may overlap with the first damaged area information B1 . The first damaged area information B1 may be included in the second damaged area information B1. When the first damaged area information B1 at least partially overlaps with the second damaged area information B1, the number of damages according to the first damage information and the number of damages according to the second damage information may be the same.

신규 손상 정보는 제2 손상 영역 정보(B2) 및 제1 손상 영역 정보(B1)의 차이에 기초하여 획득될 수 있다. 신규 손상 정보는 제2 손상 영역 정보(B2)에 따른 제2 손상 영역(제2 바운딩 박스)의 크기 및 제1 손상 영역(제1 바운딩 박스)의 크기의 차이에 기초하여 획득될 수 있다. 신규 손상 정보는 제2 손상 영역(제2 바운딩 박스)의 위치(예컨대, 중심점의 좌표) 및 제1 손상 영역(제1 바운딩 박스)의 위치(예컨대, 중심점의 좌표)의 차이에 기초하여 획득될 수 있다. 신규 손상 정보는 제2 손상 영역(제2 바운딩 박스)의 모서리의 좌표 및 제1 손상 영역(제2 바운딩 박스)의 모서리의 좌표의 차이에 기초하여 획득될 수 있다. The new damage information may be obtained based on a difference between the second damaged area information B2 and the first damaged area information B1. The new damage information may be obtained based on a difference between the size of the second damaged area (the second bounding box) and the size of the first damaged area (the first bounding box) according to the second damaged area information B2 . New damage information is to be obtained based on the difference between the position (eg, coordinates of the central point) of the second damaged region (second bounding box) and the position (eg, coordinates of the central point) of the first damaged region (first bounding box) can The new damage information may be obtained based on a difference between the coordinates of the corners of the second damaged area (the second bounding box) and the coordinates of the corners of the first damaged area (the second bounding box).

2.5 차량 정보 출력 및 차량 정보 출력 인터페이스2.5 Vehicle information output and vehicle information output interface

차량 관리 시스템은 차량 정보를 출력할 수 있다. 차량 정보는 디스플레이를 구비하는 사용자 단말, 관리자 장치 등을 통하여 출력될 수 있다. The vehicle management system may output vehicle information. The vehicle information may be output through a user terminal having a display, a manager device, or the like.

2.5.1 출력되는 정보 2.5.1 Output information

차량 관리 시스템은 획득된 차량 정보 및/또는 차량 정보에 기초하여 획득된 보조 정보를 출력할 수 있다. The vehicle management system may output the obtained vehicle information and/or the obtained auxiliary information based on the vehicle information.

차량 관리 시스템은 부품 정보, 손상 정보, 차량 종류 정보, 식별 정보 등의 차량 정보를 출력할 수 있다. 차량 관리 시스템은 사용자 정보 및/또는 위치 정보를 함께 출력할 수 있다. The vehicle management system may output vehicle information such as parts information, damage information, vehicle type information, and identification information. The vehicle management system may output user information and/or location information together.

차량 관리 시스템은 차량 이미지 및 차량 이미지에 대응되는 차량 정보를 출력할 수 있다. 차량 관리 시스템은 복수의 차량 이미지 및 각 차량 이미지에 대응되는 차량 정보를 출력할 수 있다. 복수의 차량 이미지는 차량에 대하여 다양한 각도에서 촬영된 이미지일 수 있다. The vehicle management system may output a vehicle image and vehicle information corresponding to the vehicle image. The vehicle management system may output a plurality of vehicle images and vehicle information corresponding to each vehicle image. The plurality of vehicle images may be images captured at various angles with respect to the vehicle.

차량 관리 시스템은 차량 이미지 및 해당 이미지의 차량에 대한 촬영 방향을 나타내는 방향 지시자를 함께 출력할 수 있다. 촬영 방향은 차량 이미지에 기초하여 획득될 수 있다. 차량을 촬영한 방향은 사용자의 입력을 통하여 획득될 수도 있다. The vehicle management system may output the vehicle image and a direction indicator indicating a photographing direction of the vehicle of the corresponding image together. The photographing direction may be obtained based on the vehicle image. The direction in which the vehicle was photographed may be obtained through a user input.

도 28은 일 실시예에 따른 출력 화면을 설명하기 위한 도면이다. 28 is a diagram for explaining an output screen according to an exemplary embodiment.

도 28을 참조하면, 일 실시예에 따른 출력 화면은 차량 이미지 표시부(CI), 차량 이미지의 촬영 방향을 나타내는 방향 지시자(DI), 차량과 관련된 비-이미지 정보 표시부(IF), 차량의 손상 정보를 나타내는 손상 정보 테이블(DT)을 포함할 수 있다.Referring to FIG. 28 , an output screen according to an exemplary embodiment includes a vehicle image display unit (CI), a direction indicator (DI) indicating a photographing direction of a vehicle image, a vehicle-related non-image information display unit (IF), and vehicle damage information. It may include a damage information table (DT) indicating the.

차량 이미지 표시부(CI)는 노이즈가 제거된 이미지를 표시할 수 있다. 차량 이미지 표시부(CI)는 손상 영역 정보를 표시될 수 있다. 손상 영역 정보는 기존 손상 영역(ED) 및 신규 손상 영역(ND)을 포함할 수 있다. 기존 손상 영역(ED) 및 신규 손상 영역(ND)은 서로 달리 표시될 수 있다. 도 28을 참조하면, 기존 손상 영역(ED) 및 신규 손상 영역(ND)은 서로 다른 색상 또는 서로 다른 형태의 바운딩 박스로 표시될 수 있다. The vehicle image display unit CI may display an image from which noise is removed. The vehicle image display unit CI may display damaged area information. The damaged area information may include an existing damaged area ED and a new damaged area ND. The existing damaged area ED and the new damaged area ND may be displayed differently. Referring to FIG. 28 , the existing damaged area ED and the new damaged area ND may be displayed with different colors or different types of bounding boxes.

방향 지시자(DI)는 표시되고 있는 차량 이미지의 촬영 방향을 나타낼 수 있다. 도 28을 참조하면, 방향 지시자(DI)는 차량의 좌측 방향을 지시하고, 차량 이미지 표시부(CI)는 차량의 좌측에서 촬영된 차량 이미지를 표시할 수 있다. 방향 지시자(DI)에 의해 지시되는 복수의 방향 각각에 대하여 서로 다른 방향에서 촬영된 차량 이미지가 대응될 수 있다. 방향 지시자(DI)의 방향을 선택하는 사용자 입력에 응답하여 대응되는 차량 이미지가 표시될 수 있다. The direction indicator DI may indicate a photographing direction of the vehicle image being displayed. Referring to FIG. 28 , the direction indicator DI may indicate a left direction of the vehicle, and the vehicle image display unit CI may display a vehicle image photographed from the left side of the vehicle. Vehicle images photographed in different directions may correspond to each of the plurality of directions indicated by the direction indicator DI. A corresponding vehicle image may be displayed in response to a user input for selecting a direction of the direction indicator DI.

비-이미지 정보 표시부(IF)는 차량과 관련된 비-이미지 정보를 표시할 수 있다. 도 28을 참조하면, 비-이미지 정보 표시부(IF)는 차량 이미지가 촬영된 시점, 차량의 번호, 차량의 VIN, 차량의 모델 등을 표시할 수 있다. The non-image information display unit IF may display non-image information related to the vehicle. Referring to FIG. 28 , the non-image information display unit IF may display a time point at which a vehicle image is captured, a vehicle number, a vehicle VIN, a vehicle model, and the like.

손상 정보 테이블(DT)은 차량 이미지에 대응되는 부품 별로 손상의 수를 나타낼 수 있다. 이미지에 대응되는 부품은 현재 표시되고 있는 차량 이미지의 방향에 대응되는 부품을 의미할 수 있다. 예컨대, 도 28에서는 차량의 좌측을 촬영한 이미지가 표시되고 있으므로, 손상 정보 테이블(DT)은 차량의 좌측에 위치된 부품에 대한 부품 별 손상의 수를 나타낼 수 있다. 부품 별 손상의 수는 부품별 기존 손상의 수 및 신규 손상의 수(+로 구분됨)를 포함할 수 있다. 도 28을 참조하면, 손상 정보 테이블(DT)은 좌전방 도어, 좌측 도어 핸들, 좌후방 휀더에 기존 손상이 존재하며, 좌전방 도어 및 좌후방 휀더에 신규 손상이 존재함을 나타낼 수 있다. The damage information table DT may indicate the number of damage for each part corresponding to the vehicle image. The part corresponding to the image may mean a part corresponding to the direction of the currently displayed vehicle image. For example, in FIG. 28 , since an image taken from the left side of the vehicle is displayed, the damage information table DT may indicate the number of damages for each component with respect to the components located on the left side of the vehicle. The number of damages per component may include the number of existing damages and the number of new damages (separated by +) per component. Referring to FIG. 28 , the damage information table DT may indicate that existing damage is present in the left front door, the left door handle, and the left rear fender, and new damage is present in the left front door and the left rear fender.

한편, 손상 정보 테이블(DT)은 손상 정보 표시부의 일 실시예일 뿐이며, 기존 손상 또는 신규 손상에 대한 정보는 다른 형태로 표시될 수도 있다.Meanwhile, the damage information table DT is only an example of the damage information display unit, and information on existing damage or new damage may be displayed in another form.

일 실시예에 따르면, 차량 관리 시스템은 차량 정보에 기초하여 획득된 보조 정보를 출력할 수 있다. 보조 정보는 차량 정보에 기초하여 획득되고 차량 관리를 보조하기 위한 정보일 수 있다. According to an embodiment, the vehicle management system may output auxiliary information obtained based on vehicle information. The auxiliary information is obtained based on vehicle information and may be information for assisting vehicle management.

보조 정보는 손상 정보에 따른 손상의 정도에 따라 결정될 수 있다. 예컨대, 보조 정보는 손상 정도에 따라 차량의 수리, 도색, 일부 부품의 교체 등 필요한 조치를 지시할 수 있다. The auxiliary information may be determined according to the degree of damage according to the damage information. For example, the auxiliary information may instruct necessary actions such as repair, painting, replacement of some parts, etc. of the vehicle according to the degree of damage.

보조 정보는 수리비 정보를 포함할 수 있다. 수리비 정보는 손상 정보에 기초하여 획득될 수 있다. 수리비 정보는 손상 정보에 기초하여 차량의 손상에 따라 적절히 수리 조치하는데 소요되는 비용의 추정치를 포함할 수 있다. The auxiliary information may include repair cost information. The repair cost information may be obtained based on the damage information. The repair cost information may include an estimate of a cost required to properly take a repair action according to the damage to the vehicle based on the damage information.

보조 정보는 보험 관련 정보를 포함할 수 있다. 보조 정보는 미리 저장된 보험 데이터에 기초하여 결정된 보험 청구 정보를 포함할 수 있다. The auxiliary information may include insurance-related information. The auxiliary information may include insurance claim information determined based on pre-stored insurance data.

2.5.2 차량 정보 출력 실시예 1 - 복수 이미지 이용시 출력 이미지 선택2.5.2 Vehicle information output Example 1 - Selection of output image when using multiple images

일 실시예에 따르면, 차량 정보 획득을 위하여 복수의 차량 이미지가 이용될 수 있다. 예컨대, 2.2.3에서 전술한 바와 같이 차량 이미지의 노이즈 제거를 위하여 복수의 이미지가 사용되는 경우가 있을 수 있다. 이와 같이 복수의 이미지를 이용하여 얻어진 차량 정보를 출력하는 경우에, 복수의 이미지 중 어느 이미지를 기준으로 하여 차량 정보를 출력할지에 대하여 살펴본다.According to an embodiment, a plurality of vehicle images may be used to obtain vehicle information. For example, as described above in 2.2.3, a plurality of images may be used to remove noise from a vehicle image. In the case of outputting vehicle information obtained using a plurality of images as described above, it will be described which image among the plurality of images is used as a reference to output vehicle information.

복수의 이미지를 이용하여 차량의 손상 정보(또는 부품-손상 정보)가 획득된 경우, 차량 이미지와 획득된 손상 정보, 특히 손상 영역 정보가 중첩되어 사용자에게 제공될 수 있다. 이때, 손상 영역 정보가 중첩되는 차량 이미지는 복수의 이미지 중 어느 하나일 수 있다. 손상 영역 정보가 중첩되는 차량 이미지는 복수의 이미지에 기초하여 생성된 이미지일 수 있다. When damage information (or parts-damage information) of a vehicle is obtained using a plurality of images, the vehicle image and the obtained damage information, particularly damage area information, may be provided to the user by overlapping. In this case, the vehicle image on which the damaged area information is overlapped may be any one of a plurality of images. The vehicle image on which the damaged area information is overlapped may be an image generated based on a plurality of images.

도 29는 일 실시예에 따른 손상 영역 정보의 표시를 설명하기 위한 도면이다. 도 29의 (a), (b) 및 (c)을 참조하면, 도 7에서 설명한 것과 동일하게, 배경 등의 노이즈 제거를 위한 처리가 수행될 수 있다. 도 29의 (d)를 참조하면, 차량의 손상 부위에 대응되는 바운딩 박스(BB)가 중첩된 차량 이미지가 제공될 수 있다. 바운딩 박스(BB)가 중첩되는 차량 이미지는 복수의 차량 이미지 (a), (b) 및 (c)에 기초하여 생성된 배경이 제거된 차량 이미지일 수 있다. 또는, 바운딩 박스(BB)가 중첩되는 차량 이미지는 복수의 차량 이미지 (a), (b) 및 (c) 중 차량의 위치가 프레임 중앙에 가까운 이미지일 수 있다. 또는, 또는, 바운딩 박스(BB)가 중첩되는 차량 이미지는 복수의 차량 이미지 (a), (b) 및 (c) 중 차량의 표시 비율이 가장 높은 이미지일 수 있다. 차량의 표시 비율은 차량의 전체 외면 중 이미지에 표시된 영역의 비율을 의미할 수 있다. 29 is a view for explaining the display of damaged area information according to an embodiment. Referring to (a), (b) and (c) of FIGS. 29 , a process for removing noise, such as a background, may be performed in the same manner as described with reference to FIG. 7 . Referring to FIG. 29D , a vehicle image in which a bounding box BB corresponding to a damaged portion of the vehicle is overlapped may be provided. The vehicle image on which the bounding box BB overlaps may be a vehicle image from which a background generated based on a plurality of vehicle images (a), (b) and (c) is removed. Alternatively, the vehicle image on which the bounding box BB overlaps may be an image in which the location of the vehicle is close to the center of the frame among the plurality of vehicle images (a), (b) and (c). Alternatively, the vehicle image on which the bounding box BB overlaps may be an image having the highest vehicle display ratio among the plurality of vehicle images (a), (b), and (c). The display ratio of the vehicle may mean a ratio of a region displayed on the image among the entire exterior of the vehicle.

도 29에서는 복수의 이미지에 기초하여 배경 제거를 위한 노이즈 제거 처리를 수행하는 경우를 기준으로 설명하였으나, 이는 차량 내의 반사광 제거를 위한 노이즈 제거 처리가 수행되는 경우에도 유사하게 적용될 수 있다. 반사광 제거를 위한 노이즈 제거 처리의 경우, 반사광이 제거된 이미지에 손상 영역 정보가 중첩되어 출력될 수 있다.In FIG. 29 , a case in which noise removal processing for removing a background is performed based on a plurality of images has been described as a reference, but this may be similarly applied to a case in which noise removal processing for removing reflected light in a vehicle is performed. In the case of noise removal processing for removing reflected light, damage region information may be superimposed on an image from which reflected light is removed and output.

3. 온-사이트 차량 관리 시스템3. On-site fleet management system

3.1 온-사이트 시스템3.1 On-site system

일 실시예에 따르면, 온-사이트(On-site)에서 차량을 촬영한 이미지를 이용하여 차량의 상태를 관리하기 위한 차량 관리 시스템이 제공될 수 있다.According to an embodiment, a vehicle management system for managing the state of a vehicle using an image captured by an on-site vehicle may be provided.

도 34는 온-사이트 차량 관리 시스템의 구성을 설명하기 위한 도면이다.34 is a diagram for explaining the configuration of an on-site vehicle management system.

도 34를 참조하면, 일 실시예에 따른 온-사이트 차량 관리 시스템은 관리장치(341), 카메라 모듈(343) 및 감지수단(345)을 포함할 수 있다.Referring to FIG. 34 , the on-site vehicle management system according to an embodiment may include a management device 341 , a camera module 343 , and a detection means 345 .

관리장치(341)는 카메라 모듈(343) 및 감지수단(345)과 연결되어, 상기 카메라 모듈(343) 및 감지수단(345)을 제어할 수 있다. 상기 관리장치(341)는 카메라 모듈(343) 및 감지수단(345)으로부터 데이터를 전달받을 수 있다. 상기 관리장치(341)는 디스플레이, 사용자 인터페이스, 통신 모듈, 메모리 및 컨트롤러 중 적어도 하나를 포함할 수 있다.The management device 341 may be connected to the camera module 343 and the detection means 345 to control the camera module 343 and the detection means 345 . The management device 341 may receive data from the camera module 343 and the detection means 345 . The management device 341 may include at least one of a display, a user interface, a communication module, a memory, and a controller.

상기 관리장치(341)는 적어도 하나 이상의 전자기기로 구성될 수 있다. 상기 관리장치(341)는 태블릿, 스마트폰 및 노트북의 형태로 구현될 수 있다.The management device 341 may be composed of at least one electronic device. The management device 341 may be implemented in the form of a tablet, a smartphone, and a notebook computer.

도시하지 않았지만 상기 관리장치(341)는 서버와 연결될 수 있다. 상기 관리장치(341)가 서버와 연결되는 경우 상기 관리장치(341)는 서버와 데이터를 교환할 수 있다. 이 경우 서버는 다수의 관리장치(341)와 연결되어, 다수의 관리장치(341)로부터 데이터를 수신하여 처리할 수 있다.Although not shown, the management device 341 may be connected to a server. When the management device 341 is connected to a server, the management device 341 may exchange data with the server. In this case, the server may be connected to the plurality of management devices 341 to receive and process data from the plurality of management devices 341 .

또는 상기 관리장치(341)는 서버의 역할을 할 수 있다. 이 경우 상기 관리장치(341)는 다른 관리장치(341) 또는 다른 전자기기와 연결되어 데이터를 교환하고 처리할 수 있다.Alternatively, the management device 341 may serve as a server. In this case, the management device 341 may be connected to another management device 341 or other electronic devices to exchange and process data.

카메라 모듈(343)은 입차 또는 출차하는 차량을 촬영할 수 있다. 상기 카메라 모듈(343)은 차량을 촬영한 촬영 데이터를 상기 관리장치(341)로 전달할 수 있다.The camera module 343 may photograph a vehicle entering or leaving the vehicle. The camera module 343 may transmit photographing data of the vehicle to the management device 341 .

감지수단(345)은 입차 또는 출차하는 차량의 위치를 감지할 수 있다. 상기 감지수단(345)은 입차 또는 출차하는 차량을 감지할 수 있다. 상기 감지수단(345)은 광학적 센서 또는 차단기(PB)일 수 있다.The sensing means 345 may detect the position of the vehicle entering or leaving the vehicle. The sensing means 345 may detect a vehicle entering or exiting. The sensing means 345 may be an optical sensor or a circuit breaker (PB).

상기 감지수단(345)은 상기 관리장치(341)로 센싱 값을 전달하고, 상기 관리장치(341)는 상기 센싱 값에 기초하여 차량의 관리에 이용되는 영상 데이터를 추출할 수 있다. 상기 관리장치(341)는 센싱 값에 기초하여 상기 촬영 데이터 중 영상 데이터를 추출할 수 있다.The sensing means 345 may transmit a sensed value to the management device 341 , and the management device 341 may extract image data used for vehicle management based on the sensed value. The management device 341 may extract image data from the captured data based on the sensed value.

온-사이트 차량 관리 시스템은 차량 집합 관리에 사용될 수 있다.The on-site fleet management system may be used for fleet fleet management.

온-사이트 차량 관리 시스템은 주차 관제에 사용될 수 있다. 보다 구체적으로, 온-사이트 차량 관리 시스템은 주차 관리자가 주차 구역으로 입차 하는 차량의 이미지와 주차 구역에서 출차 하는 차량의 이미지를 비교 분석하는 작업에 사용될 수 있다.An on-site vehicle management system can be used for parking control. More specifically, the on-site vehicle management system may be used for a parking manager to compare and analyze an image of a vehicle entering a parking area and an image of a vehicle leaving the parking area.

또한, 온-사이트 차량 관리 시스템은 택시 회사의 택시 관리 업무에 사용될 수 있다. 보다 구체적으로, 온-사이트 차량 관리 시스템은 택시 회사가 운전자의 택시 운행 전, 후의 차량 이미지를 비교 분석하는 업무에 사용될 수 있다.In addition, the on-site vehicle management system may be used for taxi management tasks of a taxi company. More specifically, the on-site vehicle management system may be used for a taxi company to compare and analyze vehicle images before and after the driver's taxi operation.

3.2 온-사이트 차량 관리 프로세스3.2 On-site fleet management process

일 실시예에 따르면, 온-사이트에서 차량을 촬영한 이미지를 이용하여 차량의 상태를 관리하기 위한 차량 관리 프로세스가 제공될 수 있다. 온-사이트 차량 관리 프로세스는 전술한 온-사이트 차량 관리 시스템에 의해 수행될 수 있다.According to an embodiment, a vehicle management process for managing the state of a vehicle using an image captured on-site may be provided. The on-site vehicle management process may be performed by the above-described on-site vehicle management system.

도 35는 온-사이트 차량 관리 프로세스에 의해 수행되는 일련의 단계들을 설명하기 위한 도면이다.35 is a diagram for explaining a series of steps performed by the on-site vehicle management process.

도 35를 참조하면, 온-사이트 차량 관리 프로세스는 차량과 관련된 온-사이트에서 촬영된 차량 데이터를 획득하는 단계(S3510), 획득된 차량 데이터에 기초하여 차량 정보를 획득하는 단계(S3530), 차량 정보를 관리하는 단계(S3550) 및 차량 정보를 출력하는 단계(S3570)를 포함할 수 있다. 이하에서는 각 단계에 대하여 보다 구체적으로 설명한다.Referring to FIG. 35 , the on-site vehicle management process includes obtaining vehicle data photographed on-site related to the vehicle ( S3510 ), obtaining vehicle information based on the obtained vehicle data ( S3530 ), and the vehicle It may include a step of managing information (S3550) and a step of outputting vehicle information (S3570). Hereinafter, each step will be described in more detail.

3.2.1 온-사이트 차량 데이터 획득3.2.1 On-Site Vehicle Data Acquisition

온-사이트 차량 관리 프로세스는 차량 관리에 필요한 차량 데이터를 획득하는 단계(S3510)를 포함할 수 있다.The on-site vehicle management process may include acquiring vehicle data required for vehicle management ( S3510 ).

차량 데이터는 다양한 형태로 마련될 수 있다. 예컨대, 차량 데이터는 이미지 데이터 또는 비-이미지 데이터일 수 있다. 차량 데이터는 장치에 미리 저장되거나 외부로부터 획득될 수 있다. 예컨대, 차량 데이터는 카메라 모듈(343)을 통하여 획득되거나, 사용자 입력 모듈을 통하여 획득될 수 있다.The vehicle data may be provided in various forms. For example, the vehicle data may be image data or non-image data. The vehicle data may be pre-stored in the device or obtained from outside. For example, the vehicle data may be obtained through the camera module 343 or may be obtained through a user input module.

차량 데이터 및 차량 데이터의 획득에 대하여는 이하에서 구체적인 예시를 들어 보다 상세히 설명한다.The vehicle data and the acquisition of the vehicle data will be described in more detail below with reference to specific examples.

3.2.1.1 이미지 데이터 획득3.2.1.1 Image data acquisition

도 36은 온-사이트 차량 관리 프로세스에서 차량 관리에 필요한 차량 데이터를 획득하는 단계(S3510)를 설명하기 위한 도면이다. 이하에서는 도 36을 참조하여 촬영된 차량 데이터를 획득하는 단계(S3510)에 대하여 보다 구체적으로 설명한다.FIG. 36 is a diagram for explaining a step ( S3510 ) of acquiring vehicle data required for vehicle management in an on-site vehicle management process. Hereinafter, the step of acquiring photographed vehicle data ( S3510 ) will be described in more detail with reference to FIG. 36 .

도 36을 참조하면, 일 실시예에 따른 차량 데이터를 획득하는 단계(S3510)는 복수의 이미지를 포함하는 영상 데이터를 획득하는 단계(S3511) 및 획득한 복수의 이미지 중 유효 이미지 데이터를 추출하는 단계(S3513)를 포함할 수 있다.Referring to FIG. 36 , the step of obtaining vehicle data according to an embodiment ( S3510 ) includes obtaining image data including a plurality of images ( S3511 ) and extracting effective image data from among the plurality of obtained images. (S3513) may be included.

일 실시예에 따르면, 차량 데이터는 차량을 촬영한 차량 이미지를 포함하는 이미지 데이터일 수 있다. 차량 이미지는 차량의 일부 부품을 포함하는 이미지일 수 있다. 차량 이미지는 차량을 식별하기 위한 식별 정보가 포함되도록 차량의 일부를 촬영하여 획득된 이미지일 수 있다.According to an embodiment, the vehicle data may be image data including a vehicle image obtained by photographing the vehicle. The vehicle image may be an image including some parts of the vehicle. The vehicle image may be an image obtained by photographing a part of the vehicle to include identification information for identifying the vehicle.

차량 데이터는 차량을 촬영한 차량 영상 데이터일 수 있다. 차량 데이터는 영상 데이터 및 영상 데이터로부터 추출된 이미지 데이터를 포함할 수 있다.The vehicle data may be vehicle image data obtained by photographing the vehicle. The vehicle data may include image data and image data extracted from the image data.

영상 데이터는 카메라 모듈(343)이 복수의 특정 시점 사이에 촬영한 데이터를 의미할 수 있다. 이때, 상기 복수의 특정 시점은 서로 다른 시점을 의미할 수 있다. 이하에서는 도면을 참조하여 상기 복수의 특정 시점을 구체적인 예시를 들어 보다 상세히 설명한다.The image data may refer to data captured by the camera module 343 between a plurality of specific viewpoints. In this case, the plurality of specific time points may mean different time points. Hereinafter, the plurality of specific time points will be described in more detail with specific examples with reference to the drawings.

도 37은 일 실시예에 따른 영상 데이터가 감지수단(345)에 감지되는 특정 시점에서 카메라 모듈(343)에 의해 촬영되는 것을 설명하기 위한 도면이다.FIG. 37 is a diagram for explaining that image data is captured by the camera module 343 at a specific point in time when image data is detected by the sensing means 345 according to an embodiment.

도 37을 참조하면, 일 실시예에 따른 차량관리 시스템은 관리장치(341), 감지수단(345) 및 카메라 모듈(343)을 포함할 수 있다. 또한, 차량관리 시스템은 차량의 입차 또는 출차를 제어하기 위한 차단기(PB)를 더 포함할 수 있다.Referring to FIG. 37 , the vehicle management system according to an embodiment may include a management device 341 , a detection means 345 , and a camera module 343 . In addition, the vehicle management system may further include a circuit breaker (PB) for controlling the entrance or exit of the vehicle.

상기 카메라 모듈(343)은 적어도 하나 이상의 카메라를 포함할 수 있다. 상기 카메라 모듈(343)은 제1 카메라(C1) 및 제2 카메라(C2)를 포함할 수 있다.The camera module 343 may include at least one camera. The camera module 343 may include a first camera C1 and a second camera C2.

상기 감지수단(345)은 적어도 하나 이상의 센서를 포함할 수 있다. 상기 감지수단(345)은 제1 센서(S1) 및 제2 센서(S2)를 포함할 수 있다.The sensing means 345 may include at least one or more sensors. The sensing means 345 may include a first sensor S1 and a second sensor S2.

상기 차단기(PB)는 상기 관리장치(341)에 의해 제어될 수 있다. 상기 관리장치(341)는 입차 또는 출차하는 차량이 차단기(PB)에 접근하는 경우 차단기(PB)를 제어할 수 있다. 상기 관리장치(341)는 입차 또는 출차하는 차량이 차단기(PB)에 접근하고, 입차 또는 출차가 허가되는 경우에 차단기(PB)를 제어할 수 있다. 상기 관리장치(341)는 상기 제1 센서(S1) 및 제2 센서(S2) 중 적어도 하나의 센싱 값에 의해 차단기(PB)를 제어할 수 있다. 상기 관리장치(341)는 제1 센서(S1)에 의해 차량이 감지되는 경우 차단기(PB)를 제어할 수 있다.The circuit breaker PB may be controlled by the management device 341 . The management device 341 may control the circuit breaker PB when a vehicle entering or leaving the vehicle approaches the circuit breaker PB. The management device 341 may control the circuit breaker PB when a vehicle entering or leaving the vehicle approaches the circuit breaker PB, and entry or exit is permitted. The management device 341 may control the circuit breaker PB according to a sensing value of at least one of the first sensor S1 and the second sensor S2. The management device 341 may control the circuit breaker PB when the vehicle is detected by the first sensor S1.

상기 카메라 모듈(343)은 주차장에 입차 또는 출차하는 차량의 촬영하기 위해 입차 또는 출차하는 차량의 이동경로와 인접한 영역에 설치될 수 있다. 아래에서는 입차하는 차량을 촬영하는 카메라 모듈(343)에 대해서 설명한다.The camera module 343 may be installed in an area adjacent to a movement path of a vehicle entering or exiting the parking lot in order to photograph the vehicle entering or exiting the parking lot. Hereinafter, the camera module 343 for photographing a vehicle entering the vehicle will be described.

상기 제1 카메라(C1)와 제2 카메라(C2)는 차량의 다른 측면을 촬영하기 위해 설치될 수 있다. 예를 들어, 제1 카메라(C1)는 차량의 제1 측면을 촬영할 수 있는 위치에 설치되고, 제2 카메라(C2)는 차량의 제2 측면을 촬영할 수 있는 위치에 설치될 수 있다. 상기 제1 카메라(C1)와 제2 카메라(C2)는 서로 마주보는 방향으로 설치될 수 있다. The first camera C1 and the second camera C2 may be installed to photograph the other side of the vehicle. For example, the first camera C1 may be installed at a position capable of photographing the first side of the vehicle, and the second camera C2 may be installed at a position capable of photographing the second side of the vehicle. The first camera C1 and the second camera C2 may be installed to face each other.

상기 제1 카메라(C1)는 입차 또는 출차하는 차량의 측면과 후면을 촬영할 수 있는 위치에 설치될 수 있다. 상기 제1 카메라(C1)는 상기 제2 카메라(C2)가 촬영영역에 위치하도록 설치될 수 있다. 상기 제1 카메라(C1)는 제2 카메라(C2)를 향해 설치될 수도 있다. 상기 제1 카메라(C1)가 입차 또는 출차하는 차량의 후면을 추가로 촬영할 수 있어, 비-이미지 데이터를 추가로 획득할 수도 있다.The first camera C1 may be installed at a position capable of photographing the side and rear of a vehicle entering or exiting the vehicle. The first camera C1 may be installed such that the second camera C2 is located in a photographing area. The first camera C1 may be installed toward the second camera C2. The first camera C1 may additionally photograph the rear of the entering or exiting vehicle, so that non-image data may be additionally obtained.

상기 제2 카메라(C2)는 입차 또는 출차하는 차량의 측면과 전면을 촬영할 수 있는 위치에 설치될 수 있다. 상기 제2 카메라(C2)는 상기 제1 카메라(C1)가 촬영영역에 위치하도록 설치될 수 있다. 상기 제2 카메라(C2)는 제1 카메라(C1)를 향해 설치될 수도 있다. 상기 제2 카메라(C2)가 입차 또는 출차하는 차량의 전면을 추가로 촬영할 수 있어, 비-이미지 데이터를 추가로 획득할 수도 있다.The second camera C2 may be installed at a position capable of photographing the side and front of the vehicle entering or leaving the vehicle. The second camera C2 may be installed such that the first camera C1 is located in a photographing area. The second camera C2 may be installed toward the first camera C1. The second camera C2 may additionally photograph the front of the vehicle entering or leaving the vehicle, so that non-image data may be additionally obtained.

상기 제1 카메라(C1)와 제2 카메라(C2)는 상기 차단기(PB)와 평행하도록 위치할 수 있다. The first camera C1 and the second camera C2 may be positioned parallel to the circuit breaker PB.

또는 상기 제1 카메라(C1)와 제2 카메라(C2)는 서로 이격되어 위치할 수 있다. 상기 제1 카메라(C1)는 차단기(PB)와 이격되는 영역에 위치할 수 있고, 제2 카메라(C2)는 차단기(PB)와 대응되는 영역에 위치할 수 있다. 상기 제1 카메라(C1)가 차단기(PB)와 이격되는 영역에 위치함으로써 차량의 비-이미지 정보를 보다 빠른 시점에 획득하여 처리시간을 단축할 수 있는 효과가 있다. 제1 센서(S1)는 차단기(PB)와 이격되는 영역에 위치할 수 있고, 제2 센서(S2)는 차단기(PB)와 대응되는 영역에 위치할 수 있다. 제1 센서(S2)는 주차장에 진입하는 차량을 감지하기 위해 차단기(PB)와 이격되어 설치될 수 있고, 제2 센서(S2)는 차량이 차단기(PB)와 인접하였는지를 감지하기 위해 상기 차단기(PB)와 대응되는 영역에 위치하도록 설치될 수 있다.Alternatively, the first camera C1 and the second camera C2 may be spaced apart from each other. The first camera C1 may be located in an area spaced apart from the blocker PB, and the second camera C2 may be located in an area corresponding to the blocker PB. Since the first camera C1 is located in an area separated from the circuit breaker PB, non-image information of the vehicle can be acquired at a faster time, thereby shortening the processing time. The first sensor S1 may be located in an area spaced apart from the circuit breaker PB, and the second sensor S2 may be located in an area corresponding to the circuit breaker PB. The first sensor S2 may be installed to be spaced apart from the breaker PB to detect a vehicle entering the parking lot, and the second sensor S2 may be installed to detect whether the vehicle is adjacent to the breaker PB. PB) and may be installed to be located in the corresponding area.

관리장치(341)는 제1 카메라(C1)와 제2 카메라(C2)로부터의 촬영 데이터를 획득할 수 있다. 관리장치(341)는 제1 센서(S1)와 제2 센서(S2)로부터 전달받은 센싱 값에 기초하여 상기 촬영 데이터 중 영상 데이터를 추출할 수 있다. 여기서 영상 데이터는 차량 관리에 실질적으로 이용되는 데이터를 포함할 수 있다.The management device 341 may acquire photographing data from the first camera C1 and the second camera C2 . The management device 341 may extract image data from the captured data based on the sensed values received from the first sensor S1 and the second sensor S2 . Here, the image data may include data substantially used for vehicle management.

또는 관리장치(341)는 제1 센서(S1) 및 제2 센서(S2) 중 적어도 어느 하나의 센서로 전달받은 센싱값에 기초하여 제1 카메라(C1) 및 제2 카메라(C2) 중 적어도 어느 하나를 제어할 수 있다. 예를 들어, 상기 제1 센서(S1)에 의해 차량의 진입이 인식되는 경우 상기 제1 카메라(C1) 및 제2 카메라(C2)가 차량을 촬영할 수 있는 상태가 되도록 제어할 수 있고, 제2 센서(S2)에 의해 차량의 입차가 완료되는 경우 제1 카메라(C1) 및 제2 카메라(C2)가 차량을 촬영하지 않는 상태로 변경되도록 제어할 수 있다.Alternatively, the management device 341 may include at least one of the first camera C1 and the second camera C2 based on the sensed value transmitted to at least one of the first sensor S1 and the second sensor S2. You can control one. For example, when the entrance of the vehicle is recognized by the first sensor S1, the first camera C1 and the second camera C2 may be controlled to be in a state in which the vehicle can be photographed, and the second When the entrance of the vehicle is completed by the sensor S2 , the first camera C1 and the second camera C2 may be controlled to change to a state in which the vehicle is not photographed.

관리장치(341)는 차량이 제1 센서(S1)를 완전히 통과한 시점과 차량이 제2 센서(S2)에 최초로 감지된 시점 사이의 촬영 데이터를 영상 데이터로 정의할 수 있다. 이 경우 제1 센서(S1)에 차량이 인식되었다가 인식이 종료된 시점을 시작시점으로 정의할 수 있고, 제2 센서(S2)에 차량이 인식된 시점을 종료시점으로 정의할 수 있다. 상기 관리장치(341)는 상기 시작시점과 종료시점 사이에 획득된 촬영 데이터를 영상 데이터로 정의할 수 있다.The management device 341 may define image data as image data as captured data between a time when the vehicle completely passes through the first sensor S1 and a time when the vehicle is first detected by the second sensor S2 . In this case, a time when the vehicle is recognized by the first sensor S1 and the recognition is finished may be defined as a start time, and a time when the vehicle is recognized by the second sensor S2 may be defined as an end time. The management device 341 may define the captured data obtained between the start time and the end time as image data.

상기 관리장치(341)는 차량이 제1 센서(S1)를 완전히 통과한 시점과 차량이 제2 센서(S2)에 최초로 감지된 시점 사이의 촬영 데이터를 영상 데이터로 정의하고, 상기 영상 데이터를 이용하여 차량관리를 위한 데이터로 사용함으로써 관리장치(341)의 저장부에 저장되는 데이터의 양을 줄일 수 있고, 제1 카메라(C1)와 제2 카메라(C2)로부터 관리장치(341)로 전달되는 데이터의 양을 줄일 수 있는 효과가 있다.The management device 341 defines, as image data, the photographing data between the time when the vehicle completely passes the first sensor S1 and the time when the vehicle is first detected by the second sensor S2 as image data, and uses the image data Thus, the amount of data stored in the storage unit of the management device 341 can be reduced by using it as data for vehicle management, and the data transmitted from the first camera C1 and the second camera C2 to the management device 341 can be reduced. This has the effect of reducing the amount of data.

제1 카메라(C1)는 상기 제1 센서(S1)와 대응되는 영역에 위치하고, 제2 카메라(C2)는 제2 센서(S2)와 대응되는 영역에 위치할 수 있다. 상기 제1 카메라(C1)를 상기 제1 센서(S1)와 대응되는 영역에 위치시키고, 차량이 제1 센서(S1)를 완전히 통과한 시점을 시작시점으로 정의함으로써 제1 카메라(C1)가 차량의 일 측의 모든 영역을 촬영한 데이터를 영상 데이터로 정의할 수 있다. 또한, 상기 제2 카메라(C2)를 제2 센서(S2)와 대응되는 영역에 위치시키고, 차량이 제2 센서(S2)에 최초로 감지된 시점을 종료시점으로 정의함으로써 제2 카메라(C2)가 차량의 타 측의 모든 영역을 촬영한 데이터를 영상 데이터로 정의할 수 있다. 이로써, 제1 카메라(C1) 및 제2 카메라(C2)의 영상 데이터는 차량의 양측 모든 영역을 촬영한 데이터로 정의되고, 이에 따라 차량의 손상을 보다 정확히 인식할 수 있다.The first camera C1 may be located in an area corresponding to the first sensor S1 , and the second camera C2 may be located in an area corresponding to the second sensor S2 . By positioning the first camera C1 in an area corresponding to the first sensor S1 and defining a point in time when the vehicle completely passes the first sensor S1 as a starting point, the first camera C1 becomes the vehicle Data obtained by photographing all areas on one side of the image may be defined as image data. In addition, by positioning the second camera C2 in an area corresponding to the second sensor S2 and defining the time when the vehicle is first detected by the second sensor S2 as the end time, the second camera C2 is Data obtained by photographing all areas of the other side of the vehicle may be defined as image data. Accordingly, the image data of the first camera C1 and the second camera C2 are defined as data obtained by photographing all areas on both sides of the vehicle, and accordingly, damage to the vehicle can be recognized more accurately.

도 38은 다른 실시예에 따른 영상 데이터가 센서에 감지되는 특정 시점에서 카메라 모듈(343)에 의해 촬영되는 것을 설명하기 위한 도면이다.38 is a diagram for explaining that image data is captured by the camera module 343 at a specific point in time when image data is sensed by a sensor, according to another embodiment.

도 38을 참조하면, 다른 실시예에 따른 관리장치(341)는 차량이 제1 센서(S1)에 최초로 감지된 시점과 차량이 제2 센서(S2)에 최초로 감지된 시점 사이의 촬영 데이터를 영상 데이터로 정의할 수 있다. 이 경우 제1 센서(S1)에 차량이 인식된 시점을 시작시점으로 정의할 수 있고, 제2 센서(S2)에 차량이 인식된 시점을 종료시점으로 정의할 수 있다. 상기 관리장치(341)는 상기 시작시점과 종료시점 사이에 획득된 촬영 데이터를 영상 데이터로 정의할 수 있다.Referring to FIG. 38 , the management device 341 according to another embodiment captures image data between a time when the vehicle is first detected by the first sensor S1 and a time when the vehicle is first detected by the second sensor S2 . data can be defined. In this case, a time when the vehicle is recognized by the first sensor S1 may be defined as a start time, and a time when the vehicle is recognized by the second sensor S2 may be defined as an end time. The management device 341 may define the captured data obtained between the start time and the end time as image data.

상기 관리장치(341)는 차량이 제1 센서(S1)에 최초로 감지된 시점과 차량이 제2 센서(S2)에 최초로 감지된 시점 사이의 촬영 데이터를 영상 데이터로 정의함으로써 도 37에 비해 시작시점을 앞당길 수 있다. 상기 관리장치(341)는 보다 이른 시점에서의 촬영 데이터를 영상 데이터로 정의함으로써 차량 앞 부분에 위치한 차량 번호 또는 VIN 정보 등의 차량 식별 정보를 정확하게 확보함으로써 차량 관리가 보다 원활히 수행될 수 있도록 하는 효과가 있다.The management device 341 defines the image data between the time when the vehicle is first detected by the first sensor S1 and the time when the vehicle is first detected by the second sensor S2 as image data, so that the start time point compared to FIG. 37 . can be advanced The management device 341 defines the captured data at an earlier point in time as image data, thereby accurately securing vehicle identification information, such as vehicle number or VIN information located in the front of the vehicle, so that vehicle management can be performed more smoothly. there is

도 39는 또 다른 실시예에 따른 영상 데이터가 센서에 감지되는 특정 시점에서 카메라 모듈(343)에 의해 촬영되는 것을 설명하기 위한 도면이다.FIG. 39 is a diagram for explaining that image data is captured by the camera module 343 at a specific point in time when image data is sensed by a sensor, according to another embodiment.

도 39를 참조하면, 또 다른 실시예에 따른 관리장치(341)는 차량이 제1 센서(S1)에 최초로 감지된 시점과 차량이 제2 센서(S2)를 완전히 통과한 시점 사이의 촬영 데이터를 영상 데이터로 정의할 수 있다. 이 경우 제1 센서(S1)에 차량이 인식된 시점을 시작시점으로 정의할 수 있고, 제2 센서(S2)에 차량이 인식되었다가 인식이 종료된 시점을 종료시점으로 정의할 수 있다. 상기 관리장치(341)는 상기 시작시점과 종료시점 사이에 획득된 촬영 데이터를 영상 데이터로 정의할 수 있다.Referring to FIG. 39 , the management device 341 according to another embodiment captures the photographing data between the time when the vehicle is first detected by the first sensor S1 and the time when the vehicle completely passes the second sensor S2 . It can be defined as image data. In this case, a time when the vehicle is recognized by the first sensor S1 may be defined as a start time, and a time when the vehicle is recognized and then recognized by the second sensor S2 may be defined as an end time. The management device 341 may define the captured data obtained between the start time and the end time as image data.

상기 관리장치(341)는 차량이 제1 센서(S1)에 최초로 감지된 시점과 차량이 제2 센서(S2)를 완전히 통과한 시점 사이의 촬영 데이터를 영상 데이터로 정의함으로써 도 37 및 도 38에 비해 시작시점을 앞당기고 종료시점을 늦출 수 있다. 상기 관리장치(341)는 보다 이른 시점에서의 촬영 데이터를 영상 데이터로 정의하고, 보다 늦은 시점에서의 촬영 데이터를 영상 데이터로 정의함으로써 차량의 주요 부위가 최대로 확보된 영상 데이터를 이용하여 차량관리를 수행할 수 있고, 그 결과로 차량 외관에 발생하는 손상 정보의 누락을 최소화할 수 있는 효과가 있다.37 and 38 by defining the photographing data between the time when the vehicle is first detected by the first sensor S1 and the time when the vehicle completely passes the second sensor S2 as image data. The start time can be earlier and the end time can be delayed. The management device 341 defines the captured data at an earlier time point as image data and defines the captured data at a later time point as image data, thereby managing the vehicle using the image data in which the main part of the vehicle is maximally secured. can be performed, and as a result, there is an effect of minimizing the omission of damage information occurring on the exterior of the vehicle.

한편, 도면에 표시되지는 않았지만, 일 실시예에 따른 차량 관리 시스템은 제3 센서, 제4 센서, 제3 카메라 및 제4 카메라를 더 포함할 수 있다.Meanwhile, although not shown in the drawings, the vehicle management system according to an embodiment may further include a third sensor, a fourth sensor, a third camera, and a fourth camera.

상술한 제1 센서(S1), 제2 센서(S2), 제1 카메라(C1) 및 제2 카메라(C2)가 차량의 주차 구역으로 입차 시의 영상 데이터 확보를 위한 것일 수 있으며, 제3 센서, 제4 센서, 제3 카메라 및 제4 카메라는 차량의 주차 구역밖으로 출차 시의 영상 데이터 확보를 위한 것일 수 있다. The above-described first sensor S1 , second sensor S2 , first camera C1 , and second camera C2 may be for securing image data when entering a parking area of a vehicle, and the third sensor , the fourth sensor, the third camera, and the fourth camera may be for securing image data when the vehicle is pulled out of a parking area.

다시 말해, 출차 시는 제3 센서와 제3 카메라를 더 포함할 수 있고, 제3 센서는 입차 시의 제1 센서(S1)와 대응되는 역할을 할 수 있고, 제3 카메라는 입차 시의 제1 카메라(C1)와 대응되는 역할을 할 수 있다. 이 경우 제3 카메라는 제1 카메라(C1)가 촬영하는 차량의 동일한 측면을 촬영하기 위해 설치될 수 있다. 또한, 출차 시는 제4 센서와 제4 카메라를 더 포함할 수 있고, 제4 센서는 입차 시의 제2 센서(S2)와 대응되는 역할을 할 수 있고, 제4 카메라는 입차 시의 제2 카메라(C2)와 대응되는 역할을 할 수 있다. 이 경우 제4 카메라는 제2 카메라(C2)가 촬영하는 차량의 동일한 측면을 촬영하기 위해 설치될 수 있다.In other words, a third sensor and a third camera may be further included when the vehicle is pulled out, and the third sensor may play a role corresponding to the first sensor S1 when entering the vehicle, and the third camera may be a third camera when entering the vehicle. 1 It may play a role corresponding to the camera C1. In this case, the third camera may be installed to photograph the same side of the vehicle photographed by the first camera C1. In addition, the vehicle may further include a fourth sensor and a fourth camera when entering the vehicle, and the fourth sensor may serve to correspond to the second sensor S2 upon entering the vehicle, and the fourth camera may be a second camera upon entering the vehicle. It may play a role corresponding to the camera C2. In this case, the fourth camera may be installed to photograph the same side of the vehicle photographed by the second camera C2.

제1 센서(S1), 제2 센서(S2), 제1 카메라(C1) 및 제2 카메라(C2)에 관하여는 상술한 바, 제3 센서, 제4 센서, 제3 카메라 및 제4 카메라에 관한 내용 중 제1 센서(S1), 제2 센서(S2), 제1 카메라(C1) 및 제2 카메라(C2)와 중복되는 내용은 생략한다.The first sensor S1 , the second sensor S2 , the first camera C1 , and the second camera C2 are described above for the third sensor, the fourth sensor, the third camera, and the fourth camera. Among the related contents, contents overlapping with the first sensor S1 , the second sensor S2 , the first camera C1 and the second camera C2 will be omitted.

도 40은 또 다른 실시예에 따른 영상 데이터가 차단기(PB)가 작동한 시점부터 일정 범위 내의 시점에서 카메라 모듈(343)에 의해 촬영되는 것을 설명하기 위한 도면이다.FIG. 40 is a diagram for explaining that image data is captured by the camera module 343 at a time point within a predetermined range from a time point when the circuit breaker PB operates, according to another embodiment.

도 40의 또 다른 실시 예에 따른 차량관리 시스템은 도 33과 비교하여 감지수단(345)으로 차단기(PB)가 사용되는 것 이외에는 도 37의 실시 예와 동일하다. 따라서, 도 40의 일 실시 예에 따른 차량관리 시스템을 설명함에 있어서, 도 37과 공통되는 부분에 대해서는 동일한 도면번호를 부여하고 상세한 설명을 생략한다.The vehicle management system according to another embodiment of FIG. 40 is the same as the embodiment of FIG. 37 except that the circuit breaker PB is used as the sensing means 345 as compared with FIG. 33 . Accordingly, in describing the vehicle management system according to the embodiment of FIG. 40 , the same reference numerals are assigned to parts common to those of FIG. 37 and detailed descriptions thereof will be omitted.

도 40을 참조하면, 또 다른 실시 예에 따른 차량관리 시스템은 적어도 하나 이상의 차단기(PB)와 적어도 하나 이상의 카메라 모듈(343)을 포함할 수 있다.Referring to FIG. 40 , the vehicle management system according to another embodiment may include at least one circuit breaker PB and at least one camera module 343 .

상기 카메라 모듈(343)은 제1 카메라(C1) 및 제2 카메라(C2)를 포함할 수 있다. 제1 카메라(C1)는 차단기(PB)와 이격되는 영역에 위치할 수 있고, 제2 카메라(C2)는 차단기(PB)와 대응되는 영역에 위치할 수 있다. 상기 제1 카메라(C1)와 제2 카메라(C2)는 이격되도록 설치될 수 있고, 상기 제1 카메라(C1)와 제2 카메라(C2)는 차량의 다른 측면을 촬영할 수 있다.The camera module 343 may include a first camera C1 and a second camera C2. The first camera C1 may be located in an area spaced apart from the blocker PB, and the second camera C2 may be located in an area corresponding to the blocker PB. The first camera C1 and the second camera C2 may be installed to be spaced apart, and the first camera C1 and the second camera C2 may photograph the other side of the vehicle.

관리장치(341)는 제1 카메라(C1)와 제2 카메라(C2)로부터 촬영 데이터를 획득할 수 있다. 관리장치(341)는 제1 카메라(C1)와 제2 카메라(C2)로부터 획득된 촬영 데이터 중 영상 데이터를 추출할 수 있다. 여기서 영상 데이터는 차량 관리에 실질적으로 이용되는 데이터를 포함할 수 있다.The management device 341 may acquire photographing data from the first camera C1 and the second camera C2 . The management device 341 may extract image data from among the photographing data obtained from the first camera C1 and the second camera C2 . Here, the image data may include data substantially used for vehicle management.

영상 데이터는 상기 카메라 모듈(343)에 의해 촬영된 촬영 데이터 중 복수의 특정 시점 사이에 촬영된 영상을 의미할 수 있다. 이때 복수의 특정 시점은 차단기(PB)가 작동한 시점부터 일정 범위 내의 시점을 의미할 수 있다. 한편, 차단기(PB)가 작동한 시점부터 일정 범위 내의 시점이란, 상기 일정 범위 내의 시점에서 차량이 촬영될 경우 영상 데이터에 차량 전체 외관의 주요 부위 중 적어도 일부가 포함될 수 있을 정도 일정 범위를 가지는 시점을 의미할 수 있다. 즉, 주차 구역으로 차량이 접근하는 경우 차단기(PB)가 작동하게 되는데, 복수의 특정 시점은 차량의 접근에 따라 차단기(PB)가 작동한 시점을 기준으로 일정 시점 이전인 제1 시점과 일정 시점 이후인 제2 시점을 의미할 수 있다.The image data may mean an image captured between a plurality of specific time points among the captured data captured by the camera module 343 . In this case, the plurality of specific time points may mean a time point within a certain range from a time point at which the circuit breaker PB operates. On the other hand, the time point within a certain range from the time when the circuit breaker PB operates is a time point having a certain range such that at least some of the main parts of the entire exterior of the vehicle can be included in the image data when the vehicle is photographed from the point of time within the predetermined range. can mean That is, when the vehicle approaches the parking area, the circuit breaker PB is activated. The plurality of specific time points are the first time point and a predetermined time point before a certain point based on the time when the circuit breaker PB operates according to the approach of the vehicle. It may mean a second time point which is later.

다시 말해, 영상 데이터는 차단기(PB)가 작동한 시점을 기준으로 일정 시점 이전인 제1 시점과 일정 시점 이후인 제2 시점 사이에 카메라 모듈(343)에 의해 촬영된 영상을 의미할 수 있다. In other words, the image data may refer to an image captured by the camera module 343 between a first time point before a predetermined time point and a second time point after a predetermined time point based on the time when the circuit breaker PB operates.

관리장치(341)는 차량이 제1 시점과 제2 시점 사이의 촬영 데이터를 영상 데이터로 정의할 수 있다. 이 경우 차단기(PB)가 작동한 시점을 기준으로 일정 시점 이전을 시작시점으로 정의할 수 있고, 차단기(PB)가 작동한 후 차량이 차단기(PB)를 완전히 통과한 시점을 종료시점으로 정의할 수 있다. 상기 관리장치(341)는 상기 시작시점과 종료시점 사이에 획득된 촬영 데이터를 영상 데이터로 정의할 수 있다.The management device 341 may define image data as image data captured by the vehicle between a first time point and a second time point. In this case, it can be defined as the start point before a certain point based on the time when the circuit breaker (PB) operates, and when the vehicle completely passes through the circuit breaker (PB) after the circuit breaker (PB) operates as the end point. can The management device 341 may define the captured data obtained between the start time and the end time as image data.

상기 관리장치(341)는 상기 시작시점과 종료시점 사이에 획득된 촬영 데이터를 영상 데이터로 정의하고, 상기 영상 데이터를 이용하여 차량관리를 위한 데이터로 사용함으로써 센서가 구비되어 있지 않은 주차 구역에서도 차단기(PB)만을 이용해 차량 관리 기능 수행이 가능하게 하는 효과가 있다.The management device 341 defines the captured data obtained between the start time and the end time as image data, and uses the image data as data for vehicle management by using the image data as data for vehicle management. It has the effect of enabling the vehicle management function to be performed using only (PB).

또한, 상기 제2 시점은 차단기(PB)가 작동한 시점과 대응되는 시점일 수도 있다. 이 경우 제1 카메라(C1)와 제2 카메라(C2)로부터 관리장치(341)로 전달되는 데이터의 양을 줄일 수 있는 효과가 있다In addition, the second time point may be a time point corresponding to a time point at which the circuit breaker PB operates. In this case, there is an effect of reducing the amount of data transmitted from the first camera C1 and the second camera C2 to the management device 341 .

한편, 일 실시예에 따른 카메라 모듈(343)은 촬영 시 촬영 시점 및 각도가 고정되어 있는 고정식일 수 있으나 이에 한정되는 것은 아니다. 다른 예로, 일 실시예에 따른 카메라 모듈(343)은 촬영 시 차량의 움직임에 따라 회전하는 회전식일 수 있다.Meanwhile, the camera module 343 according to an exemplary embodiment may be a fixed type in which a photographing time point and an angle are fixed during photographing, but is not limited thereto. As another example, the camera module 343 according to an embodiment may be of a rotation type that rotates according to the movement of the vehicle when photographing.

일 실시예에 따른 카메라 모듈(343)이 회전식으로 구비되는 경우, 상술한 복수의 특정 시점은 영상 데이터가 차량 외관의 주요 부위 중 적어도 일부를 포함할 수 있는 범위에서 가변적일 수 있다.When the camera module 343 according to an embodiment is rotatably provided, the plurality of specific viewpoints described above may be variable within a range in which the image data may include at least some of the main parts of the exterior of the vehicle.

이하에서는 도면을 참조하여 상기 영상 데이터로부터 온-사이트 차량 관리 프로세스에 적합한 이미지 데이터를 추출하는 방법을 설명한다.Hereinafter, a method of extracting image data suitable for an on-site vehicle management process from the image data will be described with reference to the drawings.

영상 데이터로부터 추출된 이미지 데이터는 카메라 모듈(343)이 상술한 복수의 특정 시점에 촬영한 차량 이미지 중 어느 하나일 수 있다. 또한, 상기 영상 데이터로부터 추출된 이미지 데이터는 복수의 특정 시점 사이에 카메라 모듈(343)에 의해 촬영된 차량 이미지 중 어느 하나일 수 있다. 상기 이미지 데이터는 시작시점과 종료시점 사이에 카메라 모듈(343)에 의해 촬영된 차량 이미지 중 어느 하나일 수 있다.The image data extracted from the image data may be any one of vehicle images captured by the camera module 343 at a plurality of specific points in time. Also, the image data extracted from the image data may be any one of vehicle images captured by the camera module 343 between a plurality of specific time points. The image data may be any one of vehicle images captured by the camera module 343 between a start time and an end time.

도 41은 일 실시예에 따른 영상 데이터로부터 이미지 데이터를 추출하는 방법을 설명하기 위한 도면이다.41 is a diagram for describing a method of extracting image data from image data according to an exemplary embodiment.

상술한 바와 같이 복수의 특정 시점에서 카메라 모듈(343)에 의해 획득된 영상 데이터는 복수의 이미지를 포함할 수 있다. 이때, 온-사이트 차량 관리 프로세스가 정상적으로 수행될 수 있게 하기 위하여 상기 복수의 이미지 중 유효 이미지 데이터가 추출될 수 있다.As described above, image data acquired by the camera module 343 at a plurality of specific viewpoints may include a plurality of images. In this case, valid image data from among the plurality of images may be extracted so that the on-site vehicle management process can be normally performed.

관리장치(341)에 의해 상기 시작시점과 종료시점 사이에 획득된 촬영 데이터가 영상 데이터로 정의된 경우, 유효 이미지 데이터는 상기 시작시점과 종료시점 사이에 있는 영상 데이터 중 적어도 하나일 수 있다.When the photographing data acquired between the start time and the end time by the management device 341 is defined as image data, the effective image data may be at least one of the image data between the start time and the end time.

상기 유효 이미지 데이터는 영상 데이터 중 중간 구간에서의 적어도 하나의 이미지일 수 있다. 상기 중간 구간은 시작시점과 종료시점 사이의 특정 구간일 수 있다. 상기 중간 구간은 상기 시작시점과 종료시점의 중간시점을 포함할 수 있다. 이 때, 상기 시작시점과 중간시점 간의 시간간격과 중간시점과 종료시점 간의 시간간격은 대응될 수 있다.The effective image data may be at least one image in an intermediate section of the image data. The intermediate section may be a specific section between the start time and the end time. The intermediate section may include an intermediate point between the start time and the end time. In this case, the time interval between the start time and the intermediate time point and the time interval between the intermediate time point and the end time point may correspond to each other.

유효 이미지 데이터는 상기 영상 데이터가 포함하고 있는 복수의 이미지 중 차량 외관의 주요 부위가 포함되어 있는 적어도 하나 이상의 이미지 데이터를 의미할 수 있다.The effective image data may refer to at least one image data including a main part of the exterior of the vehicle among a plurality of images included in the image data.

결국, 상기 관리장치(341)는 상기 유효 이미지 데이터를 이용하여 차량관리를 위한 데이터로 사용함으로써 관리장치(341)의 저장부에 저장되는 데이터의 양을 줄일 수 있고, 차량 외관의 주요 부위를 효과적으로 관리할 수 있는 효과가 있다.As a result, the management device 341 can reduce the amount of data stored in the storage unit of the management device 341 by using the effective image data as data for vehicle management, and effectively reduce the main part of the vehicle exterior. It has a manageable effect.

상기 관리장치(341)가 획득하는 영상 데이터는 도 41의 (a) 내지 (c)이미지를 포함하는 복수의 이미지일 수 있다. 상기 관리장치(341)는 주요 부위가 도시된 (b) 이미지를 유효 이미지 데이터로 추출하여 차량 외관의 주요 부위를 효과적으로 관리할 수 있다.The image data acquired by the management device 341 is 41 (a) to (c) may be a plurality of images including the images. The management device 341 can effectively manage the main parts of the vehicle exterior by extracting the (b) image showing the main parts as effective image data.

한편, 상기 유효 이미지 데이터는 차량의 일부 영역만 포함된 이미지일 수도 있다. 이 경우에도 상기 유효 이미지 데이터는 차량 외관의 주요 부위를 포함하는 형태일 수도 있고, 이로써 차량 외관을 보다 명확히 판단하는 효과가 있다.Meanwhile, the effective image data may be an image including only a partial area of the vehicle. Even in this case, the effective image data may be in a form including a major part of the exterior of the vehicle, thereby having an effect of more clearly determining the exterior of the vehicle.

3.2.1.2 비-이미지 데이터 획득3.2.1.2 Acquisition of non-image data

일 실시예에 따르면, 이미지가 아닌 비-이미지 형태의 차량 데이터가 획득될 수 있다. 차량 데이터는 비-이미지 데이터일 수 있다. 차량 데이터는 차량과 관련된 정보를 포함하는 비-이미지 데이터일 수 있다. 상기 비-이미지 데이터는 미리 저장되거나 획득될 수 있다. 상기 비-이미지 데이터는 상기 카메라 모듈(343)에 의해 획득될 수 있다. 상기 비-이미지 데이터는 상기 카메라 모듈(343)에 의해 촬영된 촬영 데이터에 기초하여 획득될 수 있다. 상기 관리장치(341)는 상기 영상 데이터에 기초하여 비-이미지 데이터를 획득할 수 있다.According to an embodiment, vehicle data in the form of a non-image other than an image may be obtained. The vehicle data may be non-image data. The vehicle data may be non-image data including information related to the vehicle. The non-image data may be previously stored or obtained. The non-image data may be acquired by the camera module 343 . The non-image data may be obtained based on photographing data captured by the camera module 343 . The management device 341 may acquire non-image data based on the image data.

3.2.1.3 데이터 처리3.2.1.3 Data processing

온-사이트 차량 관리 프로세스에서는 획득된 데이터에 대한 처리가 수행될 수 있다.In the on-site vehicle management process, processing may be performed on the acquired data.

온-사이트 차량 관리 프로세스에서는 획득된 이미지 데이터에 대한 전처리(또는 후처리)가 수행될 수 있다. In the on-site vehicle management process, pre-processing (or post-processing) may be performed on the acquired image data.

상기 관리장치(341)는 영상 데이터 중 적어도 하나 이상의 유효 이미지 데이터에 대한 전처리를 수행할 수 있다.The management device 341 may pre-process at least one or more valid image data among the image data.

상기 관리장치(341)는 시작시점과 종료시점 사이의 중간 구간의 다수의 이미지에 기초하여 노이즈 제거처리를 수행할 수 있다. 상기 관리장치(341)는 다수의 유효 이미지 데이터에 기초하여 노이즈 제거 처리를 수행할 수 있다. The management device 341 may perform noise removal processing based on a plurality of images in an intermediate section between a start time and an end time. The management device 341 may perform noise removal processing based on a plurality of valid image data.

도 42는 복수의 이미지를 이용한 노이즈 제거 처리를 예시하기 위한 도면이다. 도 42를 참조하면, 관리장치(341)는 차량 영역 및 배경 영역을 가지는 복수의 유효 이미지 데이터 (a) 내지 (c)를 획득하고, 복수의 유효 이미지 데이터 (a) 내지 (c)에 기초하여 배경 영역이 제거된 이미지(d)를 획득하는 노이즈 제거 처리를 수행할 수 있다. 상기 관리장치(341)는 복수의 유효 이미지 데이터 (a) 내지 (c)에 기초하여, 유효 이미지 데이터 내에서의 위치가 고정된 오브젝트인 배경에 대응되는 영역(즉, 배경 영역)이 제거되고, 유효 이미지 데이터 내에서의 위치가 변경되는 오브젝트인 차량에 대응되는 영역(즉, 차량 영역)을 포함하는 이미지(d)가 획득될 수 있다. 42 is a diagram for illustrating noise removal processing using a plurality of images. Referring to FIG. 42 , the management device 341 obtains a plurality of valid image data (a) to (c) having a vehicle region and a background region, and based on the plurality of valid image data (a) to (c), A noise removal process may be performed to obtain the image d from which the background region is removed. The management device 341 removes an area (ie, a background area) corresponding to the background, which is an object with a fixed position in the effective image data, based on the plurality of valid image data (a) to (c), An image d including a region (ie, a vehicle region) corresponding to a vehicle, which is an object whose position is changed in the valid image data, may be obtained.

예시적으로, 주차 관제 회사 또는 택시 회사의 경우, 카메라 모듈(343)은 고정된 위치에서 움직이는 차량을 촬영하므로, 유효 이미지 데이터는 움직이는 차량 이미지와 고정되어 있는 배경 이미지를 포함할 수 있다. 이 경우, 배경 이미지는 신경망 모델에 의해 차량 이미지가 아닌 것으로 반복 학습될 수 있다. 따라서, 상기 노이즈 제거 처리는 배경 이미지에 관한 정보가 반복 학습되어 있는 신경망 모델을 이용하여, 상기 유효 이미지 데이터들로부터 배경 영역이 제거된 차량 이미지를 획득하는 것을 포함할 수 있다.Illustratively, in the case of a parking control company or a taxi company, the camera module 343 captures a moving vehicle at a fixed position, and thus effective image data may include a moving vehicle image and a fixed background image. In this case, the background image may be repeatedly learned by the neural network model as a non-vehicle image. Accordingly, the noise removal process may include acquiring a vehicle image from which a background region is removed from the valid image data by using a neural network model in which information about the background image is repeatedly learned.

상기 관리장치(341)는 복수의 유효 이미지 데이터에 기초하여, 반사광 등을 제거하기 위한 노이즈 제거 처리를 수행할 수 있다. 관리장치(341)는 복수의 유효 이미지 데이터를 획득하고, 위치가 변동되는 오브젝트(예컨대, 반사광에 대응되는 반사 영역) 및 위치가 변동되지 않는 오브젝트(예컨대, 차량 영역 또는 차량의 손상에 대응되는 손상 영역)를 구분하여, 위치가 변동되는 오브젝트 또는 위치가 변동되지 않는 오브젝트를 제거할 수 있다. 예컨대, 관리장치(341)는 차량의 손상된 부분에 대응되는 손상 영역 및 차량의 표면에 의한 반사광에 대응되는 반사 영역을 포함하는 유효 이미지 데이터에 기초하여, 반사 영역이 제거된 차량 이미지를 획득하는 노이즈 제거 처리가 수행될 수 있다.The management device 341 may perform a noise removal process for removing reflected light, etc., based on a plurality of valid image data. The management device 341 acquires a plurality of valid image data, and an object whose position is changed (eg, a reflective region corresponding to reflected light) and an object whose position does not change (eg, a vehicle region or damage corresponding to damage to the vehicle) area) to remove an object whose position is changed or an object whose position does not change. For example, the management device 341 may be configured to obtain a vehicle image from which the reflection area is removed based on effective image data including a damaged area corresponding to a damaged part of the vehicle and a reflection area corresponding to light reflected by the surface of the vehicle. A removal treatment may be performed.

도 43은 복수의 이미지를 이용한 노이즈 제거 처리를 예시하기 위한 도면이다. 도 43을 참조하면, 관리장치(341)는 손상 영역 및 반사 영역을 포함하는 복수의 유효 이미지 데이터(a) 및 (b)를 획득하고, 반사 영역이 제거된 이미지(c)를 획득하는 노이즈 제거 처리를 수행할 수 있다. 도 43을 참조하면, 관리장치(341)는 복수의 유효 이미지 데이터(a) 및 (b)에 기초하여, 이미지 내에서 또는 차량 영역 내에서 위치 또는 상태가 변경되는 반사 영역이 제거된 이미지(c)를 획득하는 노이즈 제거 처리를 수행할 수 있다.43 is a diagram for illustrating noise removal processing using a plurality of images. Referring to FIG. 43 , the management device 341 obtains a plurality of valid image data (a) and (b) including a damaged region and a reflective region, and removes noise to obtain an image (c) from which the reflective region is removed. processing can be performed. Referring to Figure 43, the management device 341, based on the plurality of valid image data (a) and (b), in the image or in the vehicle area, the position or state is changed in the image (c) is removed. ) can be subjected to noise removal processing to obtain

반사 영역이 제거된 이미지(c)는 복수의 유효 이미지 데이터 (a) 및 (b)중 어느 하나에 기초하여 생성될 수 있다. 예컨대, 관리장치(341)는 복수의 유효 이미지 데이터(a) 및 (b)에 기초하여 반사 영역을 획득하고, 복수의 유효 이미지 데이터 (a) 및 (b)중 어느 하나로부터 반사 영역을 제거하여, 노이즈 제거된 이미지를 획득할 수 있다.The image (c) from which the reflection region is removed may be generated based on any one of a plurality of valid image data (a) and (b). For example, the management device 341 obtains a reflection area based on the plurality of effective image data (a) and (b), and removes the reflection area from any one of the plurality of effective image data (a) and (b). , an image from which noise has been removed can be obtained.

관리장치(341)는 신경망 모델을 이용하여 노이즈 제거 처리를 수행할 수 있다. 신경망 모델은 컨벌루션 신경망 레이어를 포함하고, 반사 영역이 마스킹된 복수의 차량 이미지를 포함하는 학습 데이터를 이용하여, 반사 영역이 제거된 이미지를 획득하도록 학습될 수 있다. 관리장치(341)는 학습된 신경망 모델을 이용하여, 유효 이미지 데이터들로부터 반사 영역이 제거된 차량 이미지를 획득하는 노이즈 제거 처리를 수행할 수 있다.The management device 341 may perform noise removal processing using the neural network model. The neural network model may include a convolutional neural network layer, and may be trained to obtain an image in which the reflective region is removed by using training data including a plurality of vehicle images in which the reflective region is masked. The management device 341 may perform a noise removal process for obtaining a vehicle image from which a reflection region is removed from valid image data by using the learned neural network model.

상술한 노이즈 제거 처리가 수행된 이미지는 손상 이미지로 정의될 수 있다. 상기 관리장치(341)는 상기 손상 이미지를 기초로 차량의 손상을 포함하는 차량의 정보를 판단할 수 있다.An image on which the above-described noise removal processing has been performed may be defined as a damaged image. The management device 341 may determine vehicle information including damage to the vehicle based on the damage image.

상기 카메라 모듈(343)이 노이즈가 발생하지 않는 환경에 설치된 경우 상기 관리장치(341)는 노이즈 제거 처리를 생략할 수도 있다. 이 경우 후술할 차량 정보 획득은 유효 이미지 데이터를 기초로 수행될 수 있다. 이 때의 손상 이미지는 상기 유효 이미지 데이터일 수 있다.When the camera module 343 is installed in an environment in which noise is not generated, the management device 341 may omit the noise removal process. In this case, vehicle information, which will be described later, may be obtained based on valid image data. In this case, the damaged image may be the valid image data.

3.2.2 온-사이트 차량 정보 획득3.2.2 Acquisition of on-site vehicle information

온-사이트 차량 관리 프로세스는 차량 데이터에 기초하여 차량 정보를 획득하는 것을 포함할 수 있다.The on-site vehicle management process may include obtaining vehicle information based on vehicle data.

차량 정보는 대상 차량을 구성하는 부품과 관련된 부품 정보, 대상 차량 내/외부의 손상과 관련된 손상 정보, 대상 차량의 종류와 관련된 차종 정보 및/또는 대상 차량을 식별하기 위한 식별 정보를 포함할 수 있다. The vehicle information may include parts information related to parts constituting the target vehicle, damage information related to damage inside/outside the target vehicle, vehicle model information related to the type of the target vehicle, and/or identification information for identifying the target vehicle. .

차량 정보는 차량 데이터로부터 추출되거나, 차량 데이터를 처리하여 얻어질 수 있다. 차량 정보는 차량 데이터를 입력 데이터로 하여, 차량 정보를 획득하도록 설계된 알고리즘 또는 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 얻어질 수 있다.Vehicle information may be extracted from vehicle data or obtained by processing vehicle data. Vehicle information may be obtained using vehicle data as input data, an algorithm designed to obtain vehicle information, or a neural network model trained to obtain vehicle information.

차량 데이터에 기초하여 차량 정보를 획득하는 것은 2.3에서 상술한 바 있으므로, 중복되는 내용은 생략한다.Acquiring vehicle information based on vehicle data has been described above in 2.3, and thus redundant information is omitted.

일 실시예에 따르면 관리장치(341)는 손상 이미지에 기초하여 차량정보를 획득할 수 있다. 상기 관리장치(341)는 상기 손상 이미지에 기초하여 손상정보를 획득할 수 있다.According to an embodiment, the management device 341 may acquire vehicle information based on the damaged image. The management device 341 may acquire damage information based on the damage image.

일 실시예에 따르면, 주차 관제 회사의 경우 관리장치(341)는 미리 저장되어 있는 데이터베이스를 이용하여 주차 차량 정보를 획득할 수 있다. 상기 주차 차량 정보는 주차 차량의 차종, 제조사, 모델명, 연식 등을 나타내는 차량 종류 정보를 포함할 수 있다. 또한, 상기 주차 차량 정보는 주차 차량을 구성하는 부품의 수, 종류, 이름, 식별 정보 등을 나타내는 부품 정보를 더 포함할 수 있다.According to an embodiment, in the case of a parking control company, the management device 341 may acquire parking vehicle information using a pre-stored database. The parked vehicle information may include vehicle type information indicating a vehicle model, a manufacturer, a model name, and a year of the parked vehicle. In addition, the parking vehicle information may further include part information indicating the number, type, name, identification information, etc. of the parts constituting the parking vehicle.

주차 차량 정보는 대상 차량 내/외부에 발생한 추가 손상 정보를 포함할 수 있다. 상기 추가 손상 정보는 입차하는 차량의 손상 이미지와 출차하는 차량의 손상 이미지에 기초하여 산출될 수 있다. 상기 추가 손상 정보는 입차하는 차량의 손상 이미지와 출차하는 차량의 손상 이미지를 비교하여 산출될 수 있다.The parking vehicle information may include additional damage information occurring inside/outside the target vehicle. The additional damage information may be calculated based on a damaged image of a vehicle entering and a damaged image of a vehicle leaving the vehicle. The additional damage information may be calculated by comparing a damaged image of a vehicle entering and a damaged image of an exiting vehicle.

상기 추가 손상 정보는 입차하는 차량의 손상 이미지를 기초로 산출된 손상정보와 출차하는 차량의 손상 이미지를 기초로 산출된 손상 정보에 기초하여 산출될 수 있다.The additional damage information may be calculated based on damage information calculated based on the damage image of the vehicle entering and damage information calculated based on the damage image of the vehicle leaving the vehicle.

상기 관리장치(341)는 입차하는 차량의 손상 이미지 및 손상 정보 중 적어도 어느 하나를 저장하고, 출차시 이를 불러와 출차하는 차량의 손상 이미지 및 손상 정보 중 적어도 어느 하나와 비교하여 추가 손상 정보를 산출할 수 있다.The management device 341 stores at least one of the damage image and damage information of the vehicle entering, and calculates additional damage information by comparing it with at least any one of the damage image and damage information of the vehicle exiting the vehicle by retrieving it when exiting. can do.

상기 관리장치(341)는 입차하는 차량의 비-이미지 데이터와 상기 손상 이미지 및 손상 정보를 연동하여 저장할 수 있다. 예를 들어, 관리장치(341)는 입차하는 차량의 손상 이미지 및 손상 정보를 상기 차량의 차량번호와 연동하여 저장할 수 있다.The management device 341 may store non-image data of the vehicle entering the vehicle in association with the damaged image and damage information. For example, the management device 341 may store a damage image and damage information of a vehicle entering the vehicle in association with the vehicle number of the vehicle.

상기 관리장치(341)는 해당 차량이 출차하는 경우 인식된 차량번호에 기초하여 해당 차량의 차량번호와 연동된 손상 이미지 및 손상 정보를 로드하고, 이를 출차시 획득한 손상 이미지 및 손상 정보와 비교하여 추가 손상 정보를 산출할 수 있다.The management device 341 loads the damage image and damage information linked to the vehicle number of the vehicle based on the recognized vehicle number when the vehicle is pulled out, and compares it with the damage image and damage information obtained when the vehicle is pulled out. Additional damage information can be calculated.

다른 예로, 상기 관리장치(341)는 주차 차량이 2회 이상 주차 시설을 이용하는 경우, 상기 주차 차량 정보는 차량의 사고 이력 등을 포함하는 추가 정보를 더 포함할 수 있다.As another example, when the parked vehicle uses the parking facility twice or more, the management device 341 may further include additional information including an accident history of the vehicle.

다른 일 실시예에 따르면, 택시 회사 경우 관리장치(341)는 미리 저장되어 있는 데이터를 이용하여 택시 차량 정보를 획득할 수 있다. 상기 택시 차량 정보는 택시 차량의 차종, 제조사, 모델명, 연식, 제조 시기, 제조 장소, 제조자, 위치, 등록 기준지 등을 나타내는 차량 종류 정보를 포함할 수 있다. 또한, 상기 택시 차량 정보는 택시 차량을 구성하는 부품의 수, 종류, 이름, 식별 정보 등을 나타내는 부품 정보를 더 포함할 수 있다.According to another embodiment, in the case of a taxi company, the management device 341 may acquire taxi vehicle information using previously stored data. The taxi vehicle information may include vehicle type information indicating a vehicle type, manufacturer, model name, year, manufacturing time, manufacturing location, manufacturer, location, registration base, and the like of the taxi vehicle. In addition, the taxi vehicle information may further include parts information indicating the number, type, name, identification information, etc. of the parts constituting the taxi vehicle.

택시 차량 정보는 대상 차량 내/외부에 발생한 추가 손상 정보를 포함할 수 있다. 상기 추가 손상 정보는 택시 운행전에 획득한 차량의 손상 이미지와 택시 운행 후에 획득한 차량의 손상 이미지에 기초하여 산출될 수 있다. 상기 추가 손상 정보는 택시 운행 전에 획득한 차량의 손상 이미지와 택시 운행 후에 획득한 차량의 손상 이미지를 비교하여 산출될 수 있다.The taxi vehicle information may include additional damage information generated inside/outside the target vehicle. The additional damage information may be calculated based on the damage image of the vehicle acquired before the taxi operation and the damage image of the vehicle acquired after the taxi operation. The additional damage information may be calculated by comparing the damage image of the vehicle acquired before the taxi operation with the damage image of the vehicle acquired after the taxi operation.

상기 추가 손상 정보는 택시 운행 전에 획득한 차량의 손상 이미지를 기초로 산출된 손상정보와 택시 운행 후에 획득된 차량의 손상 이미지를 기초로 산출된 손상 정보에 기초하여 산출될 수 있다.The additional damage information may be calculated based on damage information calculated on the basis of the damage image of the vehicle obtained before taxi operation and damage information calculated on the basis of the damage image of the vehicle obtained after taxi operation.

상기 관리장치(341)는 택시 운행 전에 획득한 차량의 손상 이미지 및 손상 정보 중 적어도 어느 하나를 저장하고, 택시 운행 후에 이를 불러와 택시 운행 후에 획득한 차량의 손상 이미지 및 손상 정보 중 적어도 어느 하나와 비교하여 추가 손상 정보를 산출할 수 있다.The management device 341 stores at least one of the damage image and damage information of the vehicle acquired before the taxi operation, and calls it after the taxi operation, and at least one of the damage image and the damage information of the vehicle acquired after the taxi operation Comparisons can yield additional damage information.

상기 관리장치(341)는 택시 운행 전에 획득한 차량의 비-이미지 데이터와 상기 손상 이미지 및 손상 정보를 연동하여 저장할 수 있다. 예를 들어, 관리장치(341)는 택시 운행 전에 획득한 차량의 손상 이미지 및 손상 정보를 상기 차량의 차량번호와 연동하여 저장할 수 있다.The management device 341 may store the non-image data of the vehicle acquired before driving the taxi in association with the damaged image and damage information. For example, the management device 341 may store the damage image and damage information of the vehicle acquired before driving the taxi in association with the vehicle number of the vehicle.

상기 관리장치(341)는 해당 차량이 택시 운행을 마친 경우 인식된 차량번호에 기초하여 해당 차량의 차량번호와 연동된 손상 이미지 및 손상 정보를 로드하고, 이를 택시 운행 후 획득한 손상 이미지 및 손상 정보와 비교하여 추가 손상 정보를 산출할 수 있다.The management device 341 loads the damage image and damage information linked to the vehicle number of the vehicle based on the recognized vehicle number when the vehicle has completed taxi operation, and the damage image and damage information obtained after taxi operation Comparing with , additional damage information can be calculated.

3.2.3 차량 정보 관리3.2.3 Vehicle information management

온-사이트 차량 관리 프로세스는 차량 정보를 관리하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 전술한 부품 정보, 손상 정보, 차량 종류 정보 및/또는 식별 정보를 관리하는 것을 포함할 수 있다.The on-site vehicle management process may include managing vehicle information. Managing the vehicle information may include managing the aforementioned part information, damage information, vehicle type information, and/or identification information.

또한, 차량 정보를 관리하는 것은 차량 정보를 시계열적으로 관리하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 차량 정보를 분류하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 하나 이상의 정보를 연관하여 관리하는 것을 포함할 수 있다.In addition, managing the vehicle information may include managing the vehicle information in time series. Managing the vehicle information may include classifying the vehicle information. Managing the vehicle information may include managing one or more pieces of information in association.

이하에서는 차량 정보의 관리에 대하여 몇몇 실시예를 들어 설명한다. Hereinafter, management of vehicle information will be described with reference to some embodiments.

3.2.3.1 이력 관리3.2.3.1 History Management

차량 정보를 관리하는 것은 차량 정보를 이력 관리하는 것을 포함할 수 있다. 차량 정보를 이력 관리하는 것은 서로 다른 시점에 획득된 하나 이상의 차량 정보를 시계열적으로 나열 및/또는 관리하는 것을 의미할 수 있다.Managing the vehicle information may include managing the history of the vehicle information. History management of vehicle information may mean listing and/or managing one or more vehicle information acquired at different times in time series.

일 실시예에 따르면, 온-사이트 차량 관리 프로세스에서 차량 정보를 관리한다는 것은, 특정 차량에 대하여 차량에 발생한 손상을 나타내는 손상 정보를 손상 정보가 획득된 시간을 나타내는 시간 정보와 함께 관리하는 것을 의미할 수 있다. 예컨대, 차량 정보를 관리하는 것은 제1 시점에 제1 차량에 제1 손상이 발생하였음을 나타내는 제1 정보를 획득하고, 제1 시점 이후인 제2 시점에 제1 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 획득하고, 제1 정보 및 제2 정보를 시간 순으로 관리하는 것을 포함할 수 있다.According to one embodiment, managing vehicle information in the on-site vehicle management process means managing damage information indicating damage to the vehicle for a specific vehicle together with time information indicating a time at which the damage information was acquired. can For example, managing the vehicle information acquires first information indicating that the first damage has occurred to the first vehicle at a first time point, and the second damage has occurred to the first vehicle at a second time point that is after the first time point It may include acquiring second information indicating

예시적으로, 주차 관리 프로세스에서 차량 정보를 관리한다는 것은, 주차 차량에 대하여 차량에 발생한 손상을 나타내는 손상 정보를 손상 정보가 획득된 시간을 나타내는 시간 정보와 함께 관리하는 것을 의미할 수 있다. 예컨대, 주차 관리 프로세스에서 차량 정보를 관리한다는 것은 제1 주차 차량이 주차 구역으로 입차 시에 제1 주차 차량에 제1 손상이 발생하였음을 나타내는 제1 정보를 획득하고, 제1 주차 차량이 주차 구역 밖으로 출차 시에 제1 주차 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 획득하고, 제1 정보 및 제2 정보를 시간 순으로 관리하는 것을 포함할 수 있다.For example, managing the vehicle information in the parking management process may mean managing damage information indicating damage to the vehicle with respect to the parked vehicle along with time information indicating the time at which the damage information was acquired. For example, managing the vehicle information in the parking management process means that when the first parked vehicle enters the parking area, acquiring first information indicating that the first parking vehicle has suffered the first damage, and the first parked vehicle enters the parking area It may include acquiring second information indicating that the second damage has occurred to the first parked vehicle when taking the vehicle out, and managing the first information and the second information in chronological order.

다른 예로, 택시 차량 관리 프로세스에서 차량 정보를 관리한다는 것은, 택시 차량에 대하여 차량에 발생한 손상을 나타내는 손상 정보를 손상 정보가 획득된 시간을 나타내는 시간 정보와 함께 관리하는 것을 의미할 수 있다. 예컨대, 택시 차량 관리 프로세스에서 차량 정보를 관리한다는 것은 제1 택시가 운행 전 제1 택시에 제1 손상이 발생하였음을 나타내는 제1 정보를 획득하고, 제1 택시가 운행 후 제1 택시에 제2 손상이 발생하였음을 나타내는 제2 정보를 획득하고, 제1 정보와 제2 정보를 시간 순으로 관리하는 것을 포함할 수 있다.As another example, managing vehicle information in the taxi vehicle management process may mean managing damage information indicating damage to the vehicle for a taxi vehicle together with time information indicating a time at which the damage information was acquired. For example, managing the vehicle information in the taxi vehicle management process means that the first taxi obtains first information indicating that the first damage has occurred in the first taxi before driving, and after the first taxi drives the first taxi, the second in the first taxi It may include acquiring second information indicating that damage has occurred, and managing the first information and the second information in chronological order.

3.2.3.2 손상 이력 관리 실시예 1 - 운전자 별 관리3.2.3.2 Damage history management Example 1 - Management by driver

온-사이트 차량 관리 프로세스에서 손상 정보의 이력을 관리할 수 있다. 손상 정보의 이력 관리는 새롭게 발생한 신규 손상에 대한 신규 손상 정보를 획득하는 것을 포함할 수 있다. 손상 정보의 이력 관리는 동일한 차량을 다양한 시점에 촬영하여 획득된 복수의 이미지에 기초하여, 신규 손상 정보를 획득하는 것을 포함할 수 있다.It is possible to manage the history of damage information in the on-site vehicle management process. History management of damage information may include acquiring new damage information for new damage that has occurred. History management of damage information may include acquiring new damage information based on a plurality of images obtained by photographing the same vehicle at various time points.

손상 정보 이력은 운전자 정보를 고려하여 운전자 별로 관리될 수 있다.The damage information history may be managed for each driver in consideration of driver information.

일 실시예에 따르면, 관리장치(341)는 운전자 정보를 고려하여 택시 차량의 손상 정보 이력을 운전자 별로 관리할 수 있다. 관리장치(341)는 택시 차량의 손상 정보 이력을 운전자 별로 관리함으로써, 택시 차량에 손상이 발생하는 경우 책임 소재를 명확하게 할 수 있고, 택시 차량에 현재 또는 과거에 발생한 손상이 어느 운전자에 의해 발생한 것인지 파악하기가 용이하며, 그에 따른 택시 차량 관리 비용을 절감할 수 있는 효과를 제공할 수 있다. 또한, 관리장치(341)는 택시 차량의 손상 정보 이력을 운전자 별로 관리함으로써, 해당 운전자에 대한 평가 예컨대, 안전 운행 점수 등을 수행할 수 있고, 해당 운전자에 대한 상벌 예컨대, 일정 횟수 이상 사고 발생 시 벌금 부여 또는 일정 기간 무사고 시 상금 부여 등을 수행하여 회사 내 운전자들에 대한 관리가 용이하게 이루어지게 할 수 있는 효과를 제공할 수 있다.According to an embodiment, the management device 341 may manage the damage information history of the taxi vehicle for each driver in consideration of driver information. The management device 341 manages the damage information history of the taxi vehicle by driver, so that when damage occurs to the taxi vehicle, it is possible to clarify the location of responsibility, It is easy to determine whether it is the case, and it is possible to provide the effect of reducing the taxi vehicle management cost accordingly. In addition, the management device 341 manages the damage information history of the taxi vehicle for each driver, so that the driver can be evaluated, for example, a safe driving score, etc. It is possible to provide the effect of facilitating the management of drivers within the company by granting a fine or granting a prize in case of no accident for a certain period of time.

예시적으로, 관리장치(341)가 운전자 정보를 고려하여 택시 차량의 손상 정보 이력을 운전자별로 관리한다는 것은, 제1 택시 운전자의 운행 전 산출된 제1 손상 이미지에 기초하여 획득된 제1 손상 정보 및 제1 택시 운전자의 운행 후 산출된 제2 손상 이미지에 기초하여 획득된 제2 손상 정보를 시간을 고려하여 관리하는 것을 포함할 수 있다.Exemplarily, the management device 341 managing the damage information history of the taxi vehicle for each driver in consideration of the driver information means that the first damage information obtained based on the first damage image calculated before the first taxi driver is driven And it may include managing the second damage information obtained based on the second damage image calculated after the driving of the first taxi driver in consideration of time.

다른 예로, 관리장치(341)가 운전자 정보를 고려하여 택시 차량의 손상 정보 이력을 관리한다는 것은, 제1 택시 운전자가 제1 택시를 운행하기 전 산출된 제1 손상 이미지에 기초하여 획득된 제1 손상 정보 및 제1 택시 운전자가 제1 택시를 운행한 후 산출된 제2 손상 이미지에 기초하여 획득된 제2 손상 정보를 비교하여 얻은 제1 사용자의 제1 손상 이력과, 제1 택시 운전자가 제2 택시를 운행하기 전 산출된 제3 손상 이미지에 기초하여 획득된 제3 손상 정보 및 제1 택시 운전자가 제2 택시를 운행한 후 산출된 제4 손상 이미지에 기초하여 획득된 제4 손상 정보를 비교하여 얻은 제1 사용자의 제2 손상 이력을 시간을 고려하여 관리하는 것을 포함할 수 있다.As another example, the management device 341 managing the damage information history of the taxi vehicle in consideration of the driver information means that the first taxi driver is the first obtained based on the first damage image calculated before driving the first taxi. The first damage history of the first user obtained by comparing the damage information and the second damage information obtained based on the second damage image calculated after the first taxi driver drives the first taxi, and the first taxi driver 2 The third damage information obtained on the basis of the third damage image calculated before driving the taxi and the fourth damage information obtained on the basis of the fourth damage image calculated after the first taxi driver drives the second taxi It may include managing the second damage history of the first user obtained by comparison in consideration of time.

3.2.3.3 손상 이력 관리 실시예 2 - 차량 별 관리3.2.3.3 Damage history management Example 2 - Management by vehicle

손상 정보 이력은 차량 별로 관리될 수 있다.The damage information history may be managed for each vehicle.

일 실시예에 따르면, 관리장치(341)는 택시 차량의 손상 정보 이력을 차량 별로 관리할 수 있다. 관리장치(341)가 택시 차량의 손상 정보 이력을 차량 별로 관리함으로써, 택시 차량에 과거부터 현재까지 발생한 손상 정보를 시계열적으로 용이하게 파악할 수 있는 효과를 제공할 수 있다. 또한, 관리장치(341)가 택시 차량의 손상 정보 이력을 차량 별로 관리함으로써, 택시 차량의 수리 및 점검 일정을 차량의 상태에 따라 차량 별로 맞춤 일정으로 계획할 수 있게 하여 효율적인 차량 관리가 이루어질 수 있게 하는 효과를 제공할 수 있다.According to one embodiment, the management device 341 may manage the damage information history of the taxi vehicle for each vehicle. Since the management device 341 manages the damage information history of the taxi vehicle for each vehicle, it is possible to provide an effect of easily identifying damage information that has occurred from the past to the present in the taxi vehicle in time series. In addition, the management device 341 manages the damage information history of the taxi vehicle for each vehicle, so that the repair and inspection schedule of the taxi vehicle can be planned according to the condition of the vehicle as a customized schedule for each vehicle, so that efficient vehicle management can be achieved effect can be provided.

예시적으로, 관리장치(341)가 택시 차량의 손상 정보 이력을 차량 별로 관리한다는 것은, 제1 택시의 운행 전 촬영된 제1 이미지에 기초하여 획득된 제1 손상 정보 및 제1 택시의 운행 후 촬영된 제2 이미지에 기초하여 획득된 제2 손상 정보를 시간을 고려하여 관리한다는 것을 포함할 수 있다.Illustratively, the management device 341 managing the damage information history of the taxi vehicle for each vehicle means that the first damage information obtained on the basis of the first image taken before the operation of the first taxi and after the operation of the first taxi It may include managing the second damage information acquired based on the second image taken in consideration of time.

다른 예로, 관치장치가 택시 차량의 손상 정보 이력을 차량 별로 관리한다는 것은, 제1 택시가 제1 택시 운전자에 의해 운행되기 전 산출된 제1 손상 이미지에 기초하여 획득된 제1 손상 정보 및 제1 택시가 제1 택시 운전자에 의해 운행된 후 산출된 제2 손상 이미지에 기초하여 획득된 제2 손상 정보를 비교하여 얻은 제1 택시의 제1 손상 이력과, 제1 택시가 제2 택시 운전자에 의해 운행되기 전 산출된 제3 손상 이미지에 기초하여 획득된 제3 손상 정보 및 제1 택시가 제2 택시 운전자에 의해 운행된 후 산출된 제4 손상 이미지에 기초하여 획득된 제4 손상 정보를 비교하여 얻은 제1 택시의 제2 손상 이력을 시간을 고려하여 관리하는 것을 포함할 수 있다.As another example, the management device managing the damage information history of the taxi vehicle for each vehicle means that the first damage information and the first obtained based on the first damage image calculated before the first taxi is driven by the first taxi driver The first damage history of the first taxi obtained by comparing the second damage information obtained based on the second damage image calculated after the taxi is driven by the first taxi driver, and the first taxi by the second taxi driver By comparing the third damage information obtained on the basis of the third damage image calculated before driving and the fourth damage information obtained on the basis of the fourth damage image calculated after the first taxi is driven by the second taxi driver, It may include managing the obtained second damage history of the first taxi in consideration of time.

다른 실시예에 따르면, 관리장치(341)는 주차 차량의 손상 정보 이력을 차량 별로 관리할 수 있다.According to another embodiment, the management device 341 may manage the damage information history of the parked vehicle for each vehicle.

예시적으로, 관리장치(341)가 주차 차량의 손상 정보 이력을 차량 별로 관리한다는 것은, 제1 주차 차량의 입차 시 산출된 제1 손상 이미지에 기초하여 획득된 제1 손상 정보 및 제1 주차 차량의 출차 시 산출된 제2 손상 이미지에 기초하여 획득된 제2 손상 정보를 시간을 고려하여 관리한다는 것을 포함할 수 있다.Exemplarily, the management device 341 managing the damage information history of the parked vehicle for each vehicle means that the first damage information and the first parking vehicle are obtained based on the first damage image calculated when the first parked vehicle is entered. It may include managing the second damage information obtained based on the calculated second damage image when taking out the vehicle in consideration of time.

3.2.3.4 차량 정보 관리 실시예 3.2.3.4 Vehicle information management embodiment

일 실시예에 따르면, 차량 이미지에 기초하여 차량 외부의 손상과 관련된 정보를 획득하는 차량 손상 관리 장치가 제공될 수 있다.According to an embodiment, a vehicle damage management apparatus for acquiring information related to damage to the outside of a vehicle based on a vehicle image may be provided.

차량 손상 관리 장치는, 대상 차량의 외관을 촬영하여 획득된 적어도 하나의 대상 차량 이미지를 획득하는 이미지 획득부 및 적어도 하나의 대상 차량 이미지에 기초하여 상기 대상 차량의 외관 손상과 관련된 손상 정보를 획득하는 처리부를 포함할 수 있다.The vehicle damage management apparatus includes an image acquisition unit configured to acquire at least one target vehicle image obtained by photographing the exterior of the target vehicle, and damage information related to exterior damage of the target vehicle based on the at least one target vehicle image It may include a processing unit.

적어도 하나의 대상 차량 이미지는 상기 대상 차량의 일면을 촬영하여 획득된 제1 대상 차량 이미지를 포함할 수 있다. 대상 차량의 일면은 차량의 전면 또는 후면일 수 있다. 적어도 하나의 대상 차량 이미지는 차량의 전면, 후면, 좌측면, 우측면, 좌전방면, 좌후방면, 우전방면, 우후방면 및 상면 중 적어도 하나를 나타내는 차량 이미지를 포함할 수 있다. The at least one target vehicle image may include a first target vehicle image obtained by photographing one surface of the target vehicle. One surface of the target vehicle may be the front or rear of the vehicle. The at least one target vehicle image may include a vehicle image representing at least one of a front surface, a rear surface, a left surface, a right surface, a left front surface, a left rear surface, a right front surface, a right rear surface, and an upper surface of the vehicle.

상기 제1 대상 차량 이미지는, 상기 대상 차량에 대응되는 제1 영역 및 상기 대상 차량의 식별 정보가 위치되는 제2 영역을 포함할 수 있다. 제1 영역은 상기 제2 영역보다 클 수 있다. 제1 영역은 제2 영역을 포함할 수 있다. The first target vehicle image may include a first area corresponding to the target vehicle and a second area in which identification information of the target vehicle is located. The first area may be larger than the second area. The first area may include a second area.

처리부는, 상기 제2 영역에 기초하여 결정된 상기 대상 차량의 차종 정보 및 상기 차종 정보와 상기 제1 대상 차량 이미지에 기초하여 획득되고 상기 제1 영역과 관련된 상기 손상 정보를 획득할 수 있다. 예컨대 손상 정보는 제1 대상 차량 이미지에 포함된 차량 대상 차량에 손상이 존재하는지 여부, 손상의 위치, 정도, 크기, 종류, 영역 등을 나타낼 수 있다. The processor may obtain vehicle model information of the target vehicle determined based on the second area and the damage information obtained based on the vehicle model information and the first target vehicle image and related to the first area. For example, the damage information may indicate whether damage exists in the vehicle target vehicle included in the first target vehicle image, and the location, degree, size, type, area, and the like of the damage.

차량 손상 관리 장치는, 상기 손상 정보를 출력하는 출력부를 더 포함할 수 있다. 상기 출력부는 상기 대상 차량의 상기 손상 정보를 출력할 수 있다. 출력부는 이미지, 영상, 음성 등의 수단을 통하여 손상 정보를 출력할 수 있다. 출력부는 통신 수단을 통하여 외부 장치로 손상 정보를 출력할 수도 있다. The vehicle damage management apparatus may further include an output unit for outputting the damage information. The output unit may output the damage information of the target vehicle. The output unit may output damage information through means such as an image, video, or sound. The output unit may output damage information to an external device through a communication means.

상기 손상 정보는 상기 대상 차량의 손상에 대응되는 손상 영역 정보를 포함할 수 있다. 출력부는 상기 대상 차량 이미지 및 상기 대상 차량 이미지에 중첩되는 상기 손상 영역 정보를 출력할 수 있다.The damage information may include damage area information corresponding to damage to the target vehicle. The output unit may output the target vehicle image and the damaged area information superimposed on the target vehicle image.

차량 손상 관리 장치는, 사용자 입력을 획득하는 입력부를 더 포함할 수 있다. 처리부는, 상기 손상 정보의 출력에 응답하여, 상기 입력부를 통하여 상기 손상 정보에 대한 사용자 응답을 획득할 수 있다. The vehicle damage management apparatus may further include an input unit for obtaining a user input. The processing unit, in response to the output of the damage information, may obtain a user response to the damage information through the input unit.

처리부는 상기 제2 영역에 기초해서 결정되는 상기 대상 차량의 식별 정보를 획득할 수 있다. 처리부는, 차량의 번호판 또는 VIN에 대응되는 영역에 기초해서 결정되는 대상 차량의 차량 번호 또는 VIN을 획득할 수 있다.The processor may acquire identification information of the target vehicle determined based on the second area. The processing unit may acquire the vehicle number or VIN of the target vehicle determined based on an area corresponding to the license plate or VIN of the vehicle.

상기 처리부는 상기 제2 영역에 기초해서 결정되는 상기 대상 차량의 식별 정보를 획득하고, 상기 대상 차량의 식별 정보에 대응되는 상기 대상 차량의 손상 이력을 획득하고,The processing unit obtains identification information of the target vehicle determined based on the second area, obtains a damage history of the target vehicle corresponding to the identification information of the target vehicle,

상기 손상 이력은, 상기 제1 대상 차량 이미지보다 먼저 촬영된 제2 대상 차량 이미지에 기초하여 획득되고 상기 대상 차량의 상기 외관 손상과 관련된 기존 손상 정보를 포함할 수 있다. 기존 손상 정보는 제1 대상 차량 이미지가 촬영된 시점 이전에 촬영된 제2 대상 차량 이미지에 기초하여 획득된 손상 정보로서 제1 대상 차량 이미지를 통하여 판단하고자 하는 신규 손상 정보가 아닌 손상 정보를 의미할 수 있다. The damage history may be acquired based on a second target vehicle image captured before the first target vehicle image and may include existing damage information related to the exterior damage of the target vehicle. Existing damage information is damage information acquired on the basis of the second target vehicle image taken before the time when the first target vehicle image is taken, and means damage information, not new damage information to be determined through the first target vehicle image. can

처리부는 상기 기존 손상 정보 및 상기 손상 정보에 기초하여, 상기 대상 차량의 상기 제1 대상 차량 이미지가 촬영된 시점에 대응되는 신규 손상 정보를 획득할 수 있다.The processing unit may acquire new damage information corresponding to a time point at which the first target vehicle image of the target vehicle is captured, based on the existing damage information and the damage information.

상기 손상 정보는, 상기 제1 대상 차량 이미지에 포함되는 상기 제2 영역과 관련된 제1 손상 정보 및 상기 제1 영역에 기초하여 획득되는 상기 대상 차량의 식별 정보와 연관하여 미리 저장된 제2 손상 정보에 기초하여 생성될 수 있다.The damage information may include first damage information related to the second area included in the first target vehicle image and second damage information stored in advance in association with identification information of the target vehicle obtained based on the first area. It can be created based on

적어도 하나의 대상 차량 이미지는 상기 대상 차량의 상기 일면과 다른 타면을 촬영하여 획득된 제2 대상 차량 이미지를 더 포함할 수 있다. 여기서의 제2 대상 차량 이미지는 대상 차량의 식별 정보를 포함하지 아니하는 영역을 촬영하여 획득된 이미지일 수 있다. 예컨대, 제1 대상 차량 이미지가 차량의 번호판을 포함하는 영역을 촬영하여 획득된 전면 또는 후면 이미지인 경우, 제2 대상 차량 이미지는 차량의 측면을 촬영하여 획득된 이미지일 수 있다. The at least one target vehicle image may further include a second target vehicle image obtained by photographing another surface different from the one surface of the target vehicle. Here, the second target vehicle image may be an image obtained by photographing an area that does not include identification information of the target vehicle. For example, when the first target vehicle image is a front or rear image obtained by photographing an area including a license plate of the vehicle, the second target vehicle image may be an image obtained by photographing a side surface of the vehicle.

제2 대상 차량 이미지는 상기 대상 차량에 대응되는 제3 영역을 포함할 수 있다. 처리부는 상기 제1 대상 차량 이미지의 상기 제2 영역에 기초하여 결정된 상기 대상 차량의 차종 정보 및 상기 차종 정보와 상기 제2 대상 차량 이미지에 기초하여 획득되고 상기 제3 영역과 관련된 상기 손상 정보를 획득할 수 있다.The second target vehicle image may include a third area corresponding to the target vehicle. The processing unit obtains the vehicle model information of the target vehicle determined based on the second area of the first target vehicle image and the damage information obtained based on the vehicle model information and the second target vehicle image and related to the third area can do.

처리부는, 상기 제1 대상 영역 이미지 및 상기 차종 정보에 기초하여, 상기 제1 영역에 포함되고 상기 대상 차량의 제1 부품에 대응되는 제1 부품 영역 및 상기 제1 영역에 포함되고 상기 대상 차량의 제2 부품에 대응되는 제2 부품 영역을 포함하는 부품 정보를 획득할 수 있다. The processing unit may be configured to: based on the first target area image and the vehicle model information, a first part area included in the first area and corresponding to a first part of the target vehicle and a first part area included in the first area and of the target vehicle Part information including a second part area corresponding to the second part may be acquired.

처리부는, 상기 손상 정보 및 상기 부품 정보에 기초하여, 상기 손상과 대응되는 부품 영역 정보를 획득할 수 있다.The processing unit may acquire part region information corresponding to the damage based on the damage information and the part information.

처리부는 상기 제1 대상 차량 이미지로부터 상기 대상 차량의 번호판에 대응되는 상기 제2 영역을 획득하고, 상기 번호판에 대응되는 상기 제2 영역에 기초하여 상기 차종 정보를 획득할 수 있다. The processing unit may obtain the second area corresponding to the license plate of the target vehicle from the first target vehicle image, and obtain the vehicle model information based on the second area corresponding to the license plate.

처리부는, 상기 대상 차량 이미지에 기초하여 상기 손상 정보를 획득하도록 학습된 신경망 모델을 이용하여, 상기 대상 차량 이미지에 기초하여 상기 손상 정보를 획득할 수 있다. 신경망 모델은 손상 영역 또는 손상 정보가 라벨링된 차량 이미지를 포함하는 학습 데이터를 이용하여, 차량 이미지에 기초하여 손상 정보를 획득하도록 학습될 수 있다. 손상 정보는 상기 제1 영역 중 상기 차량 외부의 손상과 대응되는 영역을 나타내는 영역 정보를 포함할 수 있다. The processing unit may obtain the damage information based on the target vehicle image by using a neural network model trained to obtain the damage information based on the target vehicle image. The neural network model may be trained to acquire damage information based on the vehicle image by using training data including a vehicle image labeled with a damaged area or damage information. The damage information may include area information indicating an area corresponding to the damage outside the vehicle among the first areas.

다른 일 실시예에 따르면, 차량 이미지를 획득하는 이미지 획득부 및 손상 정보를 획득하는 처리부를 포함하는 장치를 이용한 차량 손상 관리 방법이 제공될 수 있다.According to another exemplary embodiment, there may be provided a vehicle damage management method using an apparatus including an image obtaining unit obtaining a vehicle image and a processing unit obtaining damage information.

도 31은 일 실시예에 따른 차량 손상 관리 방법을 설명하기 위한 도면이다. 도 31을 참조하면, 차량 손상 관리 방법은 대상 차량 이미지를 획득하는 단계(S3110), 대상 차량의 차종 정보를 획득하는 단계(S3130), 대상 차량 이미지 및 차종 정보에 기초하여 손상 정보를 획득하는 단계(S3150)를 포함할 수 있다. 31 is a view for explaining a vehicle damage management method according to an embodiment. Referring to FIG. 31 , the vehicle damage management method includes acquiring a target vehicle image ( S3110 ), acquiring vehicle model information of the target vehicle ( S3130 ), and acquiring damage information based on the target vehicle image and vehicle model information (S3150) may be included.

차량 손상 관리 방법은, 이미지 획득부를 통하여, 대상 차량의 외관을 촬영하여 획득된 적어도 하나의 대상 차량 이미지를 획득하는 단계(S3110)를 포함할 수 있다. 적어도 하나의 대상 차량 이미지는 상기 대상 차량의 일면을 촬영하여 획득된 제1 대상 차량 이미지를 포함하고, 상기 제1 대상 차량 이미지는, 상기 대상 차량에 대응되는 제1 영역 및 상기 대상 차량의 식별 정보가 위치되는 제2 영역을 포함할 수 있다.The vehicle damage management method may include acquiring at least one target vehicle image obtained by photographing the exterior of the target vehicle through the image acquisition unit ( S3110 ). The at least one target vehicle image includes a first target vehicle image obtained by photographing one surface of the target vehicle, and the first target vehicle image includes a first area corresponding to the target vehicle and identification information of the target vehicle It may include a second area in which is located.

차량 손상 관리 방법은, 처리부를 통하여, 상기 제2 영역에 기초하여 결정된 상기 대상 차량의 차종 정보를 획득하는 단계(S3130)를 포함할 수 있다. The vehicle damage management method may include, through the processing unit, acquiring vehicle model information of the target vehicle determined based on the second area ( S3130 ).

처리부를 통하여, 차종 정보와 상기 제1 대상 차량 이미지에 기초하여 상기 대상 차량의 외관 손상과 관련된 손상 정보를 획득하는 단계(S3150)를 포함할 수 있다.The method may include, through the processing unit, acquiring damage information related to the exterior damage of the target vehicle based on the vehicle model information and the first target vehicle image ( S3150 ).

차량 손상 관리 방법은, 손상 정보를 출력하는 단계; 를 더 포함할 수도 있다. 손상 정보는 상기 대상 차량의 손상에 대응되는 손상 영역 정보를 포함하고, 손상 정보를 출력하는 것은 상기 대상 차량 이미지 및 상기 대상 차량 이미지에 중첩되는 상기 손상 영역 정보를 출력하는 것을 더 포함할 수 있다. A vehicle damage management method comprising: outputting damage information; may further include. The damage information may include damage area information corresponding to damage to the target vehicle, and outputting the damage information may further include outputting the target vehicle image and the damage area information superimposed on the target vehicle image.

일 실시예에 따르면, 식별 정보를 획득하고 이에 기초하여 차량의 손상 이력 및/또는 신규 손상 정보를 획득하는 차량 손상 관리 방법이 제공될 수 있다. 도 32는 일 실시예에 따른 차량 손상 관리 방법을 설명하기 위한 도면이다. 도 32를 참조하면, 차량 손상 관리 방법은, 대상 차량의 식별 정보를 획득하는 단계(S3171), 대상 차량의 손상 이력을 획득하는 단계(S3173) 및/또는 신규 손상 정보를 획득하는 단계(S3175)를 더 포함할 수 있다. According to an embodiment, a vehicle damage management method for acquiring identification information and acquiring a damage history and/or new damage information of a vehicle based thereon may be provided. 32 is a view for explaining a vehicle damage management method according to an embodiment. Referring to FIG. 32 , the vehicle damage management method includes the steps of obtaining identification information of a target vehicle (S3171), obtaining a damage history of the target vehicle (S3173), and/or obtaining new damage information (S3175) may further include.

차량 손상 관리 방법은, 처리부를 통하여, 상기 제2 영역에 기초해서 결정되는 상기 대상 차량의 식별 정보를 획득하는 단계(S3171)를 더 포함할 수 있다. The vehicle damage management method may further include, through the processing unit, obtaining identification information of the target vehicle determined based on the second area ( S3171 ).

차량 손상 관리 방법은, 상기 처리부를 통하여, 상기 대상 차량의 식별 정보에 대응되는 상기 대상 차량의 손상 이력을 획득하는 단계(S3173)를 더 포함할 수 있다. 손상 이력은, 상기 제1 대상 차량 이미지보다 먼저 촬영된 제2 대상 차량 이미지에 기초하여 획득되고 상기 대상 차량의 상기 외관 손상과 관련된 기존 손상 정보를 포함할 수 있다. The vehicle damage management method may further include, through the processing unit, acquiring a damage history of the target vehicle corresponding to the identification information of the target vehicle ( S3173 ). The damage history may be acquired based on a second target vehicle image captured before the first target vehicle image and may include existing damage information related to the exterior damage of the target vehicle.

차량 손상 관리 방법은, 상기 처리부를 통하여, 상기 기존 손상 정보 및 상기 손상 정보에 기초하여, 상기 대상 차량의 상기 제1 대상 차량 이미지가 촬영된 시점에 대응되는 신규 손상 정보를 획득하는 단계(S3175)를 더 포함할 수 있다.The vehicle damage management method includes, through the processing unit, based on the existing damage information and the damage information, acquiring new damage information corresponding to a time point at which the first target vehicle image of the target vehicle is captured (S3175) may further include.

손상 정보는 상기 제1 영역에 포함되고 상기 대상 차량의 손상에 대응되는 손상 영역정보를 포함할 수 있다. The damage information is included in the first area and may include damage area information corresponding to damage to the target vehicle.

적어도 하나의 대상 차량 이미지는 상기 대상 차량의 상기 일면과 다른 타면을 촬영하여 획득된 제2 대상 차량 이미지를 더 포함하고, 상기 제2 대상 차량 이미지는 상기 대상 차량에 대응되는 제3 영역을 포함할 수 있다. The at least one target vehicle image may further include a second target vehicle image obtained by photographing another surface different from the one surface of the target vehicle, and the second target vehicle image may include a third area corresponding to the target vehicle. can

상기 손상 정보를 획득하는 단계는, 상기 제1 대상 차량 이미지의 상기 제2 영역에 기초하여 결정된 상기 대상 차량의 차종 정보 및 상기 차종 정보와 상기 제2 대상 차량 이미지에 기초하여 획득되고 상기 제3 영역과 관련된 상기 손상 정보를 획득하는 것을 더 포함할 수 있다.The obtaining of the damage information includes: vehicle model information of the target vehicle determined based on the second area of the first target vehicle image, and obtained based on the vehicle model information and the second target vehicle image, wherein the third area It may further include obtaining the damage information related to.

일 실시예에 따르면, 부품 정보를 획득하고 이에 기초하여 손상과 대응되는 부품 영역 정보를 획득하는 차량 손상 관리 방법이 제공될 수 있다. 차량 손상 관리 방법은, 대상 차량의 부품 정보를 획득하는 단계(S3191), 손상과 대응되는 부품 영역 정보를 획득하는 단계(S3193)를 더 포함할 수 있다.According to an embodiment, there may be provided a vehicle damage management method for acquiring parts information and acquiring parts area information corresponding to the damage based thereon. The vehicle damage management method may further include obtaining parts information of the target vehicle ( S3191 ) and obtaining parts area information corresponding to the damage ( S3193 ).

차량 손상 관리 방법은, 처리부를 통하여, 상기 제1 대상 영역 이미지 및 상기 차종 정보에 기초하여, 상기 제1 영역에 포함되고 상기 대상 차량의 제1 부품에 대응되는 제1 부품 영역 및 상기 제1 영역에 포함되고 상기 대상 차량의 제2 부품에 대응되는 제2 부품 영역을 포함하는 부품 정보를 획득하는 단계(S3191)를 더 포함할 수 있다.The vehicle damage management method includes, through a processing unit, a first part region and the first region included in the first region and corresponding to the first part of the target vehicle, based on the first target region image and the vehicle model information. The method may further include obtaining part information including a second part area included in the target vehicle and corresponding to the second part of the target vehicle ( S3191 ).

차량 손상 관리 방법은, 상기 처리부를 통하여, 상기 손상 정보 및 상기 부품 정보에 기초하여, 상기 손상과 대응되는 부품 영역 정보를 획득하는 단계(S3193)를 더 포함할 수 있다. 손상과 대응되는 부품 영역 정보를 획득하는 것은, 손상 영역이 위치하는 부품의 명칭, 식별 부호, 개수 등을 획득하는 것을 포함할 수 있다. 손상과 대응되는 부품 영역 정보를 획득하는 것은, 본 명세서에 설명하는 부품-손상 정보를 획득하는 것을 포함할 수 있다. The vehicle damage management method may further include, through the processing unit, obtaining part area information corresponding to the damage based on the damage information and the parts information ( S3193 ). Acquiring the part area information corresponding to the damage may include obtaining the name, identification code, number, and the like of the part in which the damaged area is located. Acquiring the part area information corresponding to the damage may include obtaining the part-damage information described herein.

차량 손상 관리 방법은, 처리부를 통하여, 상기 제1 대상 차량 이미지로부터 상기 대상 차량의 번호판에 대응되는 상기 제2 영역을 획득하는 단계를 더 포함할 수 있다. 차종 정보를 획득하는 단계는 상기 번호판에 대응되는 상기 제2 영역에 기초하여 상기 차종 정보를 획득하는 것을 더 포함할 수 있다. The vehicle damage management method may further include, through the processing unit, obtaining the second area corresponding to the license plate of the target vehicle from the first target vehicle image. The obtaining of the vehicle model information may further include obtaining the vehicle model information based on the second area corresponding to the license plate.

상기 손상 정보를 획득하는 단계는 상기 대상 차량 이미지에 기초하여 상기 손상 정보를 획득하도록 학습된 신경망 모델을 이용하여, 상기 대상 차량 이미지에 기초하여 상기 손상 정보를 획득하는 것을 더 포함할 수 있다. The obtaining of the damage information may further include obtaining the damage information based on the target vehicle image by using a neural network model trained to obtain the damage information based on the target vehicle image.

차량 손상 관리 방법은, 사용자 입력을 획득하는 입력부를 더 포함할 수 있다. 이때, 차량 손상 관리 방법은, 상기 처리부가, 상기 손상 정보를 출력하는 것에 응답하여, 상기 입력부를 통하여 상기 손상 정보에 대한 사용자 응답을 획득하는 단계를 더 포함할 수 있다. The vehicle damage management method may further include an input unit for obtaining a user input. In this case, the vehicle damage management method may further include, in response to the processing unit outputting the damage information, obtaining a user response to the damage information through the input unit.

전술한 차랑 손상 관리 방법은, 방법을 수행하는 프로그램을 저장하는 컴퓨터 판독 가능한 기록 매체로 제공될 수 있다.The above-described vehicle damage management method may be provided as a computer-readable recording medium storing a program for performing the method.

3.2.4 차량 정보 출력3.2.4 Vehicle information output

3.2.4.1 출력되는 정보3.2.4.1 Output information

온-사이트 차량 관리 시스템은 관리장치(341)의 디스플레이를 통해 차량 정보 및 차량 정보에 기초하여 획득된 보조 정보를 출력할 수 있다. 또한, 상기 관리장치(341)는 상기 관리장치(341)와 연결된 전자기기를 통해 차량 정보 및 보조 정보를 출력할 수 있다.The on-site vehicle management system may output vehicle information and auxiliary information obtained based on the vehicle information through the display of the management device 341 . Also, the management device 341 may output vehicle information and auxiliary information through an electronic device connected to the management device 341 .

상기 관리장치(341)는 부품 정보, 손상 정보, 차량 종류 정보, 식별 정보 등의 차량 정보를 출력할 수 있다. 차량 관리 시스템은 사용자 정보 및/또는 위치 정보를 함께 출력할 수 있다.The management device 341 may output vehicle information such as parts information, damage information, vehicle type information, and identification information. The vehicle management system may output user information and/or location information together.

상기 관리장치(341)는 차량 이미지 및 차량 이미지에 대응되는 차량 정보를 출력할 수 있다. 차량 관리 시스템은 복수의 차량 이미지 및 각 차량 이미지에 대응되는 차량 정보를 출력할 수 있다. 복수의 차량 이미지는 차량에 대하여 다양한 각도에서 촬영된 이미지일 수 있다. The management device 341 may output a vehicle image and vehicle information corresponding to the vehicle image. The vehicle management system may output a plurality of vehicle images and vehicle information corresponding to each vehicle image. The plurality of vehicle images may be images captured at various angles with respect to the vehicle.

이하에서는, 도 44 내지 도 47을 참조하여 주차 관리 시스템 및 택시 차량 관리 시스템의 차량 정보 출력 화면을 설명하도록 한다.Hereinafter, vehicle information output screens of the parking management system and the taxi vehicle management system will be described with reference to FIGS. 44 to 47 .

3.2.4.2 차량 정보 출력 실시예 1 - 주차 관제 회사3.2.4.2 Vehicle information output Example 1 - Parking control company

도 44 내지 도 48은 일 실시예에 따른 관리장치(341)에서 차량 정보 및/또는 보조 정보를 출력하는 화면을 설명하기 위한 도면이다.44 to 48 are diagrams for explaining a screen for outputting vehicle information and/or auxiliary information in the management device 341 according to an exemplary embodiment.

일 실시예에 따르면, 관리장치(341)는 획득된 차량 정보 및/또는 차량 정보에 기초하여 획득된 보조 정보를 출력할 수 있다. 관리장치(341)는 관리자의 정보 통신 기기에 차량 정보 및/또는 보조 정보를 출력할 수 있다. 도면에는 도시되지 않았지만, 상술한 차량 정보 및/또는 보조 정보는 차량 운전자의 정보 통신 기기에 출력될 수 있다.According to an embodiment, the management device 341 may output the obtained vehicle information and/or auxiliary information obtained based on the vehicle information. The management device 341 may output vehicle information and/or auxiliary information to the information communication device of the manager. Although not shown in the drawings, the above-described vehicle information and/or auxiliary information may be output to an information communication device of a vehicle driver.

관리장치(341)는 주차 차량에 신규 손상 정보가 검출된 경우, 차량 정보 및/또는 보조 정보를 출력할 수 있다. 또한, 관리장치(341)는 운전자가 주차 차량에 주차 중 손상이 발생되었다고 주장하는 경우, 상기 관리장치(341)의 사용자 인터페이스에 의한 입력에 기초하여 차량 정보 및/또는 보조 정보를 출력할 수 있다. 또한, 관리장치(341)는 주차 차량 관리를 위해 신규 손상 정보가 검출되지 않거나 운전자가 주차 중 손상 발생을 주장하지 않는 경우에도, 차량 정보 및/또는 보조 정보를 출력할 수 있다.The management device 341 may output vehicle information and/or auxiliary information when new damage information is detected in the parked vehicle. In addition, the management device 341 may output vehicle information and/or auxiliary information based on an input by the user interface of the management device 341 when the driver asserts that the parked vehicle is damaged during parking. . In addition, the management device 341 may output vehicle information and/or auxiliary information even when new damage information is not detected or the driver does not claim damage during parking for parking vehicle management.

또한 상기 관리장치(341)는 출차하는 차량의 신규 손상 정보가 검출되는 경우 차단기(PB)를 개방하지 않은 상태에서 차량 운전자에 추가 손상이 발생하였음을 출력할 수 있다. 이 경우 관리장치(341)는 차량 운전자의 정보통신기기에 추가 손상이 발생하였음이 출력되도록 할 수 있고, 차량 운전자가 추가 손상에 대한 컨펌을 진행하는 경우 상기 관리장치(341)는 차단기(PB)를 개방할 수도 있다.In addition, when new damage information of an outgoing vehicle is detected, the management device 341 may output that additional damage has occurred to the driver of the vehicle in a state in which the circuit breaker PB is not opened. In this case, the management device 341 can output that additional damage has occurred to the information and communication device of the vehicle driver, and when the vehicle driver confirms the additional damage, the management device 341 is a circuit breaker (PB) may be opened.

또는, 상기 관리장치(341)는 출차하는 차량의 신규 손상 정보가 검출되는 경우 차단기(PB)를 개방한 후에 추가손상이 발생하였음을 상기 차량 운전자의 정보통신기기에 전달할 수 있다.Alternatively, the management device 341 may transmit, to the information communication device of the vehicle driver, that additional damage has occurred after opening the circuit breaker PB when new damage information of the outgoing vehicle is detected.

도 44는 관리장치(341)의 출력 화면 중 손상 정보를 출력하는 화면을 설명하기 위한 도면이다.44 is a view for explaining a screen for outputting damage information among the output screens of the management device 341 .

일 실시예에 따른 출력 화면은 차량 이미지 표시부(CI), 차량 이미지의 촬영 방향을 나타내는 방향 지시자(DI), 차량과 관련된 비-이미지 정보 표시부(IF), 차량의 손상 정보를 나타내는 손상 정보 테이블(DT)을 포함할 수 있다.The output screen according to an embodiment includes a vehicle image display unit (CI), a direction indicator (DI) indicating a photographing direction of a vehicle image, a vehicle-related non-image information display unit (IF), and a damage information table indicating vehicle damage information ( DT) may be included.

일 실시예에 따른 차량 이미지 표시부(CI)는 노이즈가 제거된 이미지를 표시할 수 있다. 차량 이미지 표시부(CI)는 주차 구역에서 출차 시 촬영된 차량 이미지를 표시할 수 있다. 차량 이미지 표시부(CI)는 주차 구역에서 출차 시 촬영된 차량의 손상 영역 정보가 포함된 차량 이미지를 표시할 수 있다. 손상 영역 정보는 기존 손상 영역(ED) 및 신규 손상 영역(ND)을 포함할 수 있다. 기존 손상 영역(ED) 및 신규 손상 영역(ND)은 서로 달리 표시될 수 있다. 또한, 기존 손상 영역(ED) 및 신규 손상 영역(ND)은 서로 다른 색상 또는 서로 다른 형태의 바운딩 박스로 표시될 수 있다.The vehicle image display unit CI according to an exemplary embodiment may display an image from which noise is removed. The vehicle image display unit CI may display a vehicle image photographed when the vehicle is taken out of the parking area. The vehicle image display unit CI may display a vehicle image including damage area information of the vehicle photographed when the vehicle is taken out of the parking area. The damaged area information may include an existing damaged area ED and a new damaged area ND. The existing damaged area ED and the new damaged area ND may be displayed differently. In addition, the existing damaged area ED and the new damaged area ND may be displayed with different colors or different types of bounding boxes.

또한, 차량 이미지 표시부(CI)에 표시되는 차량 이미지는 사용자에 의해 확대 또는 축소가 가능한 형태로 출력될 수 있다.In addition, the vehicle image displayed on the vehicle image display unit CI may be output in a form that can be enlarged or reduced by the user.

일 실시예에 따른 방향 지시자(DI)는 표시되고 있는 차량 이미지의 촬영 방향을 나타낼 수 있다. 또한, 방향 지시자(DI)는 차량의 좌측 방향을 지시하고, 차량 이미지 표시부(CI)는 차량의 좌측에서 촬영된 차량 이미지를 표시할 수 있다. 방향 지시자(DI)에 의해 지시되는 복수의 방향 각각에 대하여 서로 다른 방향에서 촬영된 차량 이미지가 대응될 수 있다. 방향 지시자(DI)의 방향을 선택하는 사용자 입력에 응답하여 대응되는 차량 이미지가 표시될 수 있다.The direction indicator DI according to an exemplary embodiment may indicate a photographing direction of a vehicle image being displayed. Also, the direction indicator DI may indicate a left direction of the vehicle, and the vehicle image display unit CI may display a vehicle image photographed from the left side of the vehicle. Vehicle images photographed in different directions may correspond to each of the plurality of directions indicated by the direction indicator DI. A corresponding vehicle image may be displayed in response to a user input for selecting a direction of the direction indicator DI.

일 실시예에 따른 비-이미지 정보 표시부(IF)는 차량과 관련된 비-이미지 정보를 표시할 수 있다. 도 44를 참조하면, 비-이미지 정보 표시부(IF)는 차량 이미지가 촬영된 시점, 차량의 번호, 차량의 모델 등을 표시할 수 있다. 예시적으로, 차량 이미지가 촬영된 시점은 주차 구역으로 입차한 시간 및 주차 구역에서 출차한 시간을 의미할 수 있다. 또한, 비-이미지 정보 표시부(IF)는 차량 번호 및 차량 모델명을 표시할 수 있다.The non-image information display unit IF according to an embodiment may display non-image information related to the vehicle. Referring to FIG. 44 , the non-image information display unit IF may display a time point at which a vehicle image is captured, a vehicle number, a vehicle model, and the like. For example, the time at which the vehicle image is captured may mean the time of entering the parking area and the time of leaving the parking area. In addition, the non-image information display unit IF may display a vehicle number and a vehicle model name.

일 실시예에 따른 손상 정보 테이블(DT)은 차량 이미지에 대응되는 부품 별로 손상의 수를 나타낼 수 있다. 이미지에 대응되는 부품은 현재 표시되고 있는 차량 이미지의 방향에 대응되는 부품을 의미할 수 있다. 예컨대, 도 44에서는 차량의 좌측을 촬영한 이미지가 표시되고 있으므로, 손상 정보 테이블(DT)은 차량의 좌측에 위치된 부품에 대한 부품 별 손상의 수를 나타낼 수 있다. 부품 별 손상의 수는 부품별 기존 손상의 수 및 신규 손상의 수(+로 구분됨)를 포함할 수 있다. 도 44를 참조하면, 손상 정보 테이블(DT)은 좌전방 도어, 좌측 도어 핸들, 좌후방 휀더에 기존 손상이 존재하며, 좌전방 도어 및 좌후방 휀더에 신규 손상이 존재함을 나타낼 수 있다.The damage information table DT according to an embodiment may indicate the number of damage for each part corresponding to the vehicle image. The part corresponding to the image may mean a part corresponding to the direction of the currently displayed vehicle image. For example, in FIG. 44 , since the image taken from the left side of the vehicle is displayed, the damage information table DT may indicate the number of damages for each component with respect to the components located on the left side of the vehicle. The number of damages per component may include the number of existing damages and the number of new damages (separated by +) per component. Referring to FIG. 44 , the damage information table DT may indicate that existing damage is present in the left front door, the left door handle, and the left rear fender, and new damage is present in the left front door and the left rear fender.

한편, 손상 정보 테이블(DT)은 손상 정보 표시부의 일 실시예일 뿐이며, 기존 손상 또는 신규 손상에 대한 정보는 다른 형태로 표시될 수도 있다.Meanwhile, the damage information table DT is only an example of the damage information display unit, and information on existing damage or new damage may be displayed in another form.

도 45는 관리장치(341)의 출력 화면 중 손상 정보에 대한 사용자 또는 관리자의 동의 여부를 선택할 수 있는 화면을 설명하기 위한 도면이고, 도 46은 관리장치(341)의 출력 화면 중 손상 정보에 관한 상세한 내용이 포함된 화면을 설명하기 위한 도면이다.45 is a view for explaining a screen for selecting whether or not the user or the administrator agrees to the damage information among the output screen of the management device 341, Figure 46 is related to the damage information among the output screen of the management device (341) It is a diagram for explaining a screen including detailed information.

도 45의 (a)를 참조하면, 일 실시예에 따른 관리장치(341)의 출력 화면 중 손상 정보를 출력하는 화면은 상세 확인 버튼(CO)을 포함할 수 있다. 사용자 또는 관리자는 신규 손상 영역(ND)에 관한 정보에 동의하지 않거나, 동의하더라도 보다 구체적인 정보를 얻고 싶은 경우 차량 이미지 표시부(CI)에 포함되어 있는 상세 확인 버튼(CO)을 클릭할 수 있다.Referring to (a) of FIG. 45 , a screen for outputting damage information among the output screens of the management device 341 according to an embodiment may include a detailed confirmation button CO. If the user or manager does not agree with the information on the new damaged area ND or wants to obtain more specific information even if they agree, they can click the detailed confirmation button CO included in the vehicle image display unit CI.

사용자 또는 관리자가 상세 확인 버튼(CO)을 클릭하는 경우, 관리장치(341)의 출력 화면은 입차 시 산출된 손상 이미지 및 출차 시 산출된 손상 이미지를 표시할 수 있다. 이때, 입차 시 산출된 손상 이미지 및 출차 시 산출된 손상 이미지는 서로 대응되는 방향에서 촬영된 차량 이미지일 수 있다. 다른 예로, 입차 시 산출된 손상 이미지 및 출차 시 산출된 손상 이미지는 적어도 하나 이상의 차량의 주요 부위를 포함하되, 상기 차량의 주요 부위는 적어도 하나 이상 공통될 수 있다.When the user or the manager clicks the detailed confirmation button CO, the output screen of the management device 341 may display the damage image calculated when entering the vehicle and the damage image calculated when exiting the vehicle. In this case, the damaged image calculated at the time of entering the vehicle and the damaged image calculated upon exiting the vehicle may be vehicle images photographed in a direction corresponding to each other. As another example, the damage image calculated when entering the vehicle and the damage image calculated when leaving the vehicle may include at least one main part of the vehicle, and at least one main part of the vehicle may be common.

또는, 상기 관리장치(341)의 출력 화면은 입차시 도출된 유효 이미지 데이터에 입사치 손상 정보가 매핑된 이미지를 표시할 수 있다. 또한, 상기 관리장치(341)의 출력 화면은 출차시 도출된 유효 이미지 데이터에 출차시 손상 정보가 매핑된 이미지를 표시할 수 있다.Alternatively, the output screen of the management device 341 may display an image in which incident value damage information is mapped to valid image data derived when entering a vehicle. Also, the output screen of the management device 341 may display an image in which damage information is mapped when taking out of a vehicle to valid image data derived when taking out a vehicle.

입차 시 산출된 손상 이미지에는 기존 손상 영역(ED)이 포함될 수 있고, 출차 시 산출된 손상 이미지에는 신규 손상 영역(ND)이 포함될 수 있다. 즉, 사용자 또는 관리자가 상세 확인 버튼을 클릭하는 경우, 사용자 또는 관리자는 입차 시 촬영된 차량 이미지와 출차 시 산출된 손상 이미지를 비교하여 신규 손상에 관한 보다 구체적인 정보를 획득할 수 있다.The damaged image calculated upon entering the vehicle may include the existing damaged area ED, and the damaged image calculated upon exiting the vehicle may include the new damaged area ND. That is, when the user or manager clicks the detailed check button, the user or manager can obtain more specific information about the new damage by comparing the vehicle image taken when entering the vehicle and the damage image calculated when leaving the vehicle.

도 45의 (b)를 참조하면, 다른 실시예에 따른 관리장치(341)의 출력 화면 중 손상 정보를 출력하는 화면은 신규 손상 정보에 대해 동의 여부를 선택할 수 있는 선택창(CO)을 포함할 수 있다. 사용자 또는 관리자는 신규 손상 영역(ND)에 관한 정보에 동의하는 경우 'Confirm' 버튼을 클릭할 수 있고, 동의하지 않는 경우 'Objection'버튼을 클릭할 수 있다.Referring to (b) of FIG. 45 , the screen for outputting damage information among the output screens of the management device 341 according to another embodiment may include a selection window CO for selecting whether to agree to the new damage information. can The user or administrator may click the 'Confirm' button if they agree to the information on the new damaged area (ND), or click the 'Objection' button if they do not agree.

도 46를 참조하면, 사용자 또는 관리자가 'Objection'버튼을 클릭하는 경우, 관리장치(341)의 출력 화면은 입차 시 산출된 손상 이미지 및 출차 시 산출된 손상 이미지를 표시할 수 있다. Referring to FIG. 46 , when the user or the manager clicks the 'Objection' button, the output screen of the management device 341 may display a damaged image calculated when entering a vehicle and a damaged image calculated when leaving the vehicle.

도 47은 관리장치(341)의 출력 화면 중 손상 이력에 관한 정보를 포함하는 출력 화면을 설명하기 위한 도면이다.FIG. 47 is a diagram for explaining an output screen including information on a damage history among the output screens of the management device 341 .

도 47을 참조하면, 일 실시예에 따른 손상 이력에 관한 정보를 포함하는 출력 화면은 차량 이미지 표시부(CI), 차량과 관련된 비-이미지 정보 표시부(IF) 및 손상 이력 표시부(DH)를 포함할 수 있다.Referring to FIG. 47 , the output screen including information about the damage history according to an embodiment may include a vehicle image display unit CI, a vehicle-related non-image information display unit IF, and a damage history display unit DH. can

차량 이미지 표시부(CI) 및 비-이미지 정보 표시부(IF)에 관한 내용은 상술한 바 있으므로 자세한 설명은 생략한다.Since the vehicle image display unit CI and the non-image information display unit IF have been described above, detailed descriptions thereof will be omitted.

손상 이력 표시부(DH)는 과거부터 현재까지 해당 차량에 발생한 손상 정보를 표시할 수 있다. 또한, 손상 이력 표시부(DH)는 과거부터 현재까지 해당 차량에 발생한 손상에 대해 손상 발생 날짜, 손상 발생 시간, 손상 개수, 손상 위치 등을 포함하는 정보를 표시할 수 있다.The damage history display unit DH may display damage information that has occurred in the corresponding vehicle from the past to the present. In addition, the damage history display unit DH may display information including the date of occurrence of the damage, the time of occurrence of the damage, the number of damage, the location of the damage, and the like for damage that has occurred in the corresponding vehicle from the past to the present.

3.2.4.3 차량 정보 출력 실시예 2 - 택시 회사3.2.4.3 Vehicle information output Example 2 - Taxi company

택시 차량 관리 시스템의 관리장치(341)의 디스플레이에 출력되는 정보는 3.2.4.2에서 서술한 주차 관리 시스템에서 출력하는 정보와 대응된다. 따라서, 주차관리 시스템에서 설명했던 내용과 중복되는 설명은 생략한다.The information output to the display of the management device 341 of the taxi vehicle management system corresponds to the information output from the parking management system described in 3.2.4.2. Accordingly, descriptions overlapping with those described in the parking management system will be omitted.

일 실시예에 따르면, 택시 차량 관리 시스템의 관리장치(341)는 획득된 차량 정보 및/또는 차량 정보에 기초하여 획득된 보조 정보를 출력할 수 있다. 상기 관리장치(341)는 관리자의 정보 통신 기기에 차량 정보 및/또는 보조 정보를 출력할 수 있다. 도면에는 도시되지 않았지만, 상술한 차량 정보 및/또는 보조 정보는 택시 운전자의 정보 통신 기기에 출력될 수 있다.According to an embodiment, the management device 341 of the taxi vehicle management system may output the obtained vehicle information and/or the obtained auxiliary information based on the vehicle information. The management device 341 may output vehicle information and/or auxiliary information to the information communication device of the manager. Although not shown in the drawings, the above-described vehicle information and/or auxiliary information may be output to an information communication device of a taxi driver.

도 48은 관리장치(341)의 출력 화면 중 손상 이력에 관한 정보를 포함하는 출력 화면을 설명하기 위한 도면이다.FIG. 48 is a diagram for explaining an output screen including information about a damage history among the output screens of the management device 341 .

도 48을 참조하면, 택시에 발생한 손상 이력을 운전자 별로 분류하여 출력하는 화면은 운전자와 관련된 비-이미지 정보 표시부(IF), 손상 이력 표시부(DH) 및 차량 이미지 표시부(CI)를 포함할 수 있다.Referring to FIG. 48 , the screen for classifying and outputting the history of damage in the taxi by driver may include a driver-related non-image information display unit (IF), a damage history display unit (DH), and a vehicle image display unit (CI). .

일 실시예에 따른 비-이미지 정보 표시부(IF)는 운전자에 관한 정보 예컨대, 운전자 이름, 운전자의 면허 정보, 운전자의 주소 등에 관한 정보를 표시할 수 있다. 또한, 비-이미지 정보 표시부(IF)는 해당 운전자가 주행한 총 주행 거리, 총 주행 시간, 총 사고 횟수, 총 수리/교체 횟수, 총 수리/교체 비용 등에 관한 정보를 표시할 수 있다.The non-image information display unit IF according to an embodiment may display information about the driver, for example, information about the driver's name, driver's license information, and the driver's address. In addition, the non-image information display unit IF may display information about the total mileage driven by the driver, the total driving time, the total number of accidents, the total number of repairs/replacements, the total repair/replacement costs, and the like.

일 실시예에 따른 손상 이력 표시부(DH)는 과거부터 현재까지 해당 운전자에 의해 발생한 손상 정보를 표시할 수 있다. 또한, 손상 이력 표시부(DH)는 과거부터 현재까지 해당 운전자에 의해 발생한 손상에 대해 손상 발생 차량 번호, 손상 발생 날짜, 손상 개수, 손상 위치 등에 관한 정보를 표시할 수 있다.The damage history display unit DH according to an exemplary embodiment may display damage information caused by the driver from the past to the present. In addition, the damage history display unit DH may display information on damage caused by the driver from the past to the present, such as a damage occurring vehicle number, a damage occurring date, the number of damage, and a location of damage.

일 실시예에 따른 차량 이미지 표시부(CI)는 운전자 또는 관리자가 해당 운전자의 손상 이력 중 어느 하나를 선택하는 경우 운전자 또는 관리자가 선택한 손상 정보에 관한 상세 내용을 표시할 수 있다. 이때, 상기 운전자 또는 관리자가 선택한 손상 정보에 관한 상세 내용은 사고 발생 차량의 보험 번호, 부품 교체/수리 여부, 부품 교체/수리 가격 등에 관한 정보를 포함할 수 있다.The vehicle image display unit CI according to an embodiment may display details regarding damage information selected by the driver or manager when the driver or manager selects any one of the driver's damage histories. In this case, the detailed information on the damage information selected by the driver or the manager may include information on the insurance number of the vehicle in which the accident occurred, whether parts are replaced/repaired, and the price of parts replacement/repair, and the like.

또한, 손상 이력 정보 출력 화면은 택시에 발생한 손상 이력을 차량 별로 분류하여 출력할 수도 있다. 상기 관리장치(341)는 해당 택시에서 발생한 손상 영역 별로 손상이 발생하였을 때의 운전자를 연계하여 표시할 수 있다.In addition, the damage history information output screen may classify and output the damage history generated in the taxi for each vehicle. The management device 341 may link and display the driver when damage has occurred for each damaged area generated in the taxi.

4. 모바일 베이스 차량 관리 시스템4. Mobile-based vehicle management system

4.1 모바일 시스템4.1 Mobile Systems

일 실시예에 따르면, 모바일에서 차량을 촬영한 이미지를 이용하여 차량의 상태를 관리하기 위한 차량 관리 시스템이 제공될 수 있다.According to an embodiment, a vehicle management system for managing the state of a vehicle using an image captured by a mobile device may be provided.

도 49는 모바일 베이스 차량 관리 시스템의 구성을 설명하기 위한 도면이다.49 is a diagram for explaining the configuration of a mobile-based vehicle management system.

도 49를 참조하면, 일 실시예에 따른 모바일 베이스 차량 관리 시스템은 단말기(490) 및 서버(499)를 포함할 수 있다.Referring to FIG. 49 , the mobile-based vehicle management system according to an embodiment may include a terminal 490 and a server 499 .

단말기(490)는 서버(499)와 연결될 수 있다. 상기 단말기(490)가 서버(499)와 연결되는 경우 상기 단말기(490)는 서버(499)와 데이터를 교환할 수 있다. 이 경우 서버(499)는 다수의 단말기(490)와 연결되어, 다수의 단말기(490)로부터의 데이터를 수신하여 처리할 수 있다.The terminal 490 may be connected to the server 499 . When the terminal 490 is connected to the server 499 , the terminal 490 may exchange data with the server 499 . In this case, the server 499 may be connected to the plurality of terminals 490 to receive and process data from the plurality of terminals 490 .

단말기(490)는 적어도 하나 이상의 카메라 모듈(491), 제어부(492), 저장부(493), 통신부(494), 입력부(495) 및 출력부(496)를 포함할 수 있다.The terminal 490 may include at least one camera module 491 , a control unit 492 , a storage unit 493 , a communication unit 494 , an input unit 495 , and an output unit 496 .

카메라 모듈(491)은 차량의 외관을 촬영할 수 있다. 카메라 모듈(491)은 공유 차량의 이용 전과 후에 차량의 외관을 촬영할 수 있다.The camera module 491 may photograph the exterior of the vehicle. The camera module 491 may photograph the exterior of the vehicle before and after the shared vehicle is used.

저장부(493)는 상기 카메라 모듈(491)에 의해 촬영된 촬영 데이터를 저장할 수 있다. 또한, 저장부(493)는 비-이미지 데이터를 저장할 수 있다.The storage unit 493 may store photographing data captured by the camera module 491 . Also, the storage unit 493 may store non-image data.

통신부(494)는 데이터를 송/수신하는 구성이다. 단말기(490)와 서버(499)는 상기 통신부(494)를 통해 서로 연결되어 데이터를 교환할 수 있다.The communication unit 494 is configured to transmit/receive data. The terminal 490 and the server 499 may be connected to each other through the communication unit 494 to exchange data.

입력부(495)는 이용자 또는 관리자로부터 데이터를 입력 받는 구성이다. 상기 데이터는 차량에 관한 정보, 이용자 정보 등을 포함할 수 있다.The input unit 495 is configured to receive data from a user or an administrator. The data may include information about the vehicle, user information, and the like.

출력부(496)는 이용자 또는 관리자에게 차량에 관한 정보를 출력하는 구성으로, 디스플레이 등의 모듈을 지칭할 수 있다.The output unit 496 is a configuration for outputting vehicle-related information to a user or a manager, and may refer to a module such as a display.

제어부(492)는 저장부(493), 통신부(494), 입력부(495) 및 출력부(496)를 제어할 수 있다. 제어부(492)는 카메라 모듈(491)에 의해 촬영된 촬영 데이터가 저장부(493)에 저장될 수 있도록 제어하며, 다양한 실시예의 형태로서 통신부(494)에서 데이터가 송수신되도록 제어하고, 입력부(495)를 통해 차량에 관한 정보 및 이용자 정보 등을 입력 받도록 제어하고, 출력부(496)를 통해 이용자 또는 관리자에게 차량에 관한 정보를 출력하도록 제어할 수 있다.The control unit 492 may control the storage unit 493 , the communication unit 494 , the input unit 495 , and the output unit 496 . The control unit 492 controls so that the photographed data photographed by the camera module 491 can be stored in the storage unit 493 , and controls data to be transmitted/received from the communication unit 494 in the form of various embodiments, and the input unit 495 ) can be controlled to receive vehicle-related information and user information, and the like, and can be controlled to output vehicle-related information to a user or manager through the output unit 496 .

4.2 모바일 베이스 차량 관리 프로세스4.2 Mobile-based vehicle management process

일 실시예에 따르면, 모바일에서 차량을 촬영한 이미지를 이용하여 차량의 상태를 관리하기 위한 차량 관리 프로세스가 제공될 수 있다. 모바일 베이스 차량 관리 프로세스는 전술한 모바일 베이스 차량 관리 시스템에 의해 수행될 수 있다.According to an embodiment, a vehicle management process for managing the state of a vehicle using an image captured by a mobile device may be provided. The mobile-based vehicle management process may be performed by the aforementioned mobile-based vehicle management system.

도 50은 모바일 베이스 차량 관리 프로세스에 의해 수행되는 일련의 단계들을 설명하기 위한 도면이다.50 is a diagram for explaining a series of steps performed by the mobile-based vehicle management process.

도 50을 참조하면, 모바일 베이스 차량 관리 프로세스는 모바일에서 촬영된 차량 데이터를 획득하는 단계(S510), 획득된 차량 데이터에 기초하여 차량 정보를 획득하는 단계(S530), 차량 정보를 관리하는 단계(S550) 및 차량 정보를 출력하는 단계(S570)를 포함할 수 있다. 이하에서는 각 단계에 대하여 보다 구체적으로 설명한다.Referring to FIG. 50 , the mobile-based vehicle management process includes the steps of obtaining vehicle data photographed from the mobile (S510), obtaining vehicle information based on the obtained vehicle data (S530), and managing the vehicle information (S510). S550) and outputting vehicle information (S570). Hereinafter, each step will be described in more detail.

4.2.1 모바일 차량 데이터 획득4.2.1 Mobile Vehicle Data Acquisition

모바일 베이스 차량 관리 프로세스는 차량 관리에 필요한 차량 데이터를 획득하는 단계(S510)를 포함할 수 있다. 차량 데이터는 다양한 형태로 마련될 수 있다. 예컨대, 차량 데이터는 이미지 데이터 또는 비-이미지 데이터일 수 있다. 차량 데이터는 장치에 미리 저장되거나 외부로부터 획득될 수 있다.The mobile-based vehicle management process may include acquiring vehicle data required for vehicle management ( S510 ). The vehicle data may be provided in various forms. For example, the vehicle data may be image data or non-image data. The vehicle data may be pre-stored in the device or obtained from outside.

차량 데이터 및 차량 데이터의 획득에 대하여는 이하에서 구체적인 예시를 들어 보다 상세히 설명한다.The vehicle data and the acquisition of the vehicle data will be described in more detail below with reference to specific examples.

4.2.1.1 이미지 데이터 획득4.2.1.1 Image data acquisition

일 실시예에 따른 이미지 데이터 획득은 복수의 이미지를 포함하는 영상 데이터를 획득하고, 획득한 복수의 이미지 중 유효 이미지 데이터를 추출하는 것을 포함할 수 있다. 상기 영상 데이터 및 유효 이미지 데이터는 3.2.1.1에서 서술한 영상 데이터 및 유효 이미지 데이터와 각각 서로 대응되는 구성이며, 그에 관한 내용은 상술한 바 있으므로 중복되는 내용은 생략하도록 한다.Acquiring image data according to an embodiment may include acquiring image data including a plurality of images and extracting effective image data from among the plurality of acquired images. The image data and the effective image data have a configuration corresponding to the image data and the effective image data described in 3.2.1.1, respectively, and since the contents have been described above, the overlapping contents will be omitted.

도 51은 일 실시예에 따른 영상 데이터에 포함되어 있는 차량 손상 정보가 충분하지 않은 경우 재 촬영 요청을 설명하기 위한 도면이다.51 is a diagram for explaining a request for re-photographing when vehicle damage information included in image data is not sufficient, according to an exemplary embodiment.

모바일 베이스 차량 관리 프로세스는 영상 데이터에 손상 개수, 손상 종류, 손상 정도에 관한 정보 및 손상이 발생한 위치, 손상이 발생한 부품 정보 등이 모두 포함되어 있어야 정상적으로 작동할 수 있다. 따라서, 영상 데이터에 상기 차량 손상에 관한 정보가 충분히 표현되어 있지 않은 경우 단말기(490)는 이용자 또는 관리자에게 재 촬영할 것을 요청할 수 있다.The mobile-based vehicle management process can operate normally only when the image data includes information on the number of damage, types of damage, degree of damage, location of damage, and information on damaged parts. Accordingly, when the information about the vehicle damage is not sufficiently expressed in the image data, the terminal 490 may request the user or the manager to re-photograph.

즉, 단말기(490)에 의해 촬영된 영상 데이터는 서버(499)로 전송되고, 서버(499)가 전달받은 영상 데이터가 차량 손상에 관한 정보가 충분히 표현되어 있는지 여부를 판단하고, 그 결과를 상기 단말기(490)에 전송할 수 있다. 상기 단말기(490)는 출력부(496)를 통해 판단 결과를 이용자에게 표시할 수 있다. 상기 단말기(490)는 촬영된 영상 데이터가 차량 손상에 관한 정보가 충분히 표현되어 있는 경우에는 적합한 촬영임을 이용자에게 알릴 수 있고, 촬영된 영상 데이터가 차량 손상에 관한 정보가 충분히 표현되어 있지 않은 경우에는 이용자에게 재촬영이 필요함을 알릴 수 있다.That is, the image data photographed by the terminal 490 is transmitted to the server 499, and the server 499 determines whether the information about vehicle damage is sufficiently expressed in the image data received, and the result is described above. may be transmitted to the terminal 490 . The terminal 490 may display the determination result to the user through the output unit 496 . The terminal 490 can inform the user that the photographed image data is suitable for shooting when information about vehicle damage is sufficiently expressed, and when the photographed image data does not sufficiently express information about vehicle damage, You can notify the user that a retake is required.

또는 상기 단말기(490)는 촬영된 영상 데이터가 차량 손상에 관한 정보가 충분히 표현되어 있는지 여부를 판단할 수도 있다.Alternatively, the terminal 490 may determine whether the photographed image data sufficiently expresses information about vehicle damage.

도 51의 (a)를 참조하면, 카메라 모듈(491)에 의해 촬영된 영상 데이터(MBB1)에 손상 개수, 손상 종류, 손상 정도 등에 관한 정보가 명확히 포함되어 있지 않다. 또한, 도 51의 (b)를 참조하면, 손상 부위를 확대 촬영한 결과 카메라 모듈(491)에 의해 촬영된 영상 데이터(MBB2)에 차량 외관 중 손상이 발생한 위치, 손상이 발생한 부품 정보 등에 관한 정보가 명확히 포함되어 있지 않다.Referring to (a) of FIG. 51 , the image data MBB1 captured by the camera module 491 does not clearly include information regarding the number of damages, types of damage, degree of damage, and the like. In addition, referring to (b) of FIG. 51 , as a result of magnifying the damaged part, the image data MBB2 photographed by the camera module 491 includes information on the location where the damage occurred during the exterior of the vehicle, information on the damaged parts, etc. is not clearly included.

이 경우, 단말기(490)의 제어부(492)는 출력부(496)를 통해 이용자 또는 관리자에게 도 51의 (c)에 도시된 바와 같이 영상 데이터(MBB3)에 손상 개수, 손상 종류, 손상 정도에 관한 정보 및 손상이 발생한 위치, 손상이 발생한 부품 정보 등이 모두 포함될 수 있도록 재 촬영을 요청하는 메시지를 표시할 수 있다.In this case, the control unit 492 of the terminal 490 sends the user or the manager through the output unit 496 on the number of damage, the type of damage, and the degree of damage to the image data MBB3 as shown in FIG. 51 ( c ). A message requesting re-shooting can be displayed so that information about the location of damage, information on damaged parts, etc. can all be included.

또는 상기 단말기(490)의 제어부(492)는 저장부(493)에 저장된 기존 손상부위에 대한 촬영이 진행되지 않은 경우 기존 손상부위에 대한 재촬영을 요청하는 메시지를 표시할 수도 있다.Alternatively, the control unit 492 of the terminal 490 may display a message requesting re-photographing of the existing damaged portion when the photographing of the existing damaged portion stored in the storage 493 has not proceeded.

한편, 영상 데이터는 카메라 모듈(491)이 복수의 특정 시점 사이에 촬영한 데이터를 의미할 수 있다. 이때, 상기 복수의 특정 시점은 서로 다른 시점을 의미할 수 있다. 이하에서는 도면을 참조하여 상기 복수의 특정 시점을 구체적인 예시를 들어 보다 상세히 설명한다.Meanwhile, the image data may refer to data captured by the camera module 491 between a plurality of specific viewpoints. In this case, the plurality of specific time points may mean different time points. Hereinafter, the plurality of specific time points will be described in more detail with specific examples with reference to the drawings.

도 52는 일 실시예에 따른 영상 데이터가 특정 시점에서 카메라 모듈(491)에 의해 촬영되는 것을 설명하기 위한 도면이다.52 is a diagram for explaining that image data is captured by the camera module 491 at a specific time point according to an embodiment.

영상 데이터는 복수의 이미지를 포함할 수 있다. 영상 데이터는 제1 이미지 및 제2 이미지를 포함할 수 있다. 상기 제1 이미지는 촬영되는 차량의 특정 지점으로부터 제1 거리(D1)를 가지는 제1 지점에 위치한 단말기(490)에 의해 촬영된 이미지이다. 상기 제2 이미지는 상기 차량의 상기 특정 지점으로부터 제2 거리(D2)를 가지는 제2 지점에 위치한 단말기(490)에 의해 촬영된 이미지이다. 이때, 상기 제1 거리(D1)와 제2 거리(D2)는 상이할 수 있다.The image data may include a plurality of images. The image data may include a first image and a second image. The first image is an image captured by the terminal 490 located at a first point having a first distance D1 from a specific point of the vehicle being photographed. The second image is an image captured by the terminal 490 located at a second point having a second distance D2 from the specific point of the vehicle. In this case, the first distance D1 and the second distance D2 may be different.

예를 들어, 상기 영상 데이터는 이용자의 조작에 의해 촬영된 이미지일 수 있다. 상기 제1 이미지 및 제2 이미지는 이용자의 조작에 의해 촬영된 이미지일 수 있다. 즉, 이용자의 상기 단말기(490)에 대한 제1 조작에 의해 제1 이미지가 촬영되고, 제2 조작에 의해 제2 이미지가 촬영될 수 있다.For example, the image data may be an image captured by a user's manipulation. The first image and the second image may be images captured by a user's manipulation. That is, the first image may be photographed by the user's first manipulation of the terminal 490 , and the second image may be captured by the second manipulation.

또는, 상기 단말기(490)는 이용자의 조작에 의해 촬영된 영상 데이터 중 일부를 추출할 수 있다. 즉, 상기 단말기(490)는 이용자의 조작에 의해 동영상 형태로 촬영되고, 상기 단말기(490)는 상기 영상 데이터 중 주요 부위가 촬영된 영상 데이터를 제1 이미지와 제2 이미지로 추출할 수 있다. 또는 상기 서버(499)가 영상 데이터를 전송받고, 상기 서버(499)는 상기 영상 데이터 중 주요 부위가 촬영된 영상 데이터를 제1 이미지와 제2 이미지로 추출할 수 있다.Alternatively, the terminal 490 may extract some of the image data captured by the user's manipulation. That is, the terminal 490 is photographed in the form of a moving picture by a user's manipulation, and the terminal 490 may extract image data in which a main part of the image data is photographed as a first image and a second image. Alternatively, the server 499 may receive the image data, and the server 499 may extract image data in which a main part of the image data is captured as a first image and a second image.

영상 데이터가 카메라 모듈(491)에 의해 제1 거리(D1)와 상기 제1 거리(D1)와 상이한 제2 거리(D2)를 가지는 지점에서 획득되는 경우, 상기 영상 데이터에는 차량 손상 정보 외에도 해당 손상 정보 이외의 다양한 정보가 포함될 수 있다. 이에 따라, 단말기(490)는 영상 데이터로부터 노이즈가 제거된 즉, 차량 손상에 관한 보다 정확한 정보가 포함되어 있는 유효 이미지 데이터를 검출할 수 있다.When the image data is acquired by the camera module 491 at a point having a first distance D1 and a second distance D2 different from the first distance D1, the image data includes the corresponding damage in addition to vehicle damage information. Various information other than information may be included. Accordingly, the terminal 490 may detect effective image data in which noise is removed from the image data, that is, more accurate information on vehicle damage is included.

또한, 상기 제1 이미지는 차량 외관에 관한 제1 영역이 촬영되되, 상기 제1 영역에는 적어도 하나 이상의 차량 주요 부위가 포함되어 있는 이미지이다. 상기 제2 이미지는 차량 외관에 관한 제2 영역이 촬영되되, 상기 제2 영역에는 적어도 하나 이상의 차량 주요 부위가 포함되어 있는 이미지이다. 이때, 단말기(490)에 의해 촬영된 차량 주요 부위 중 적어도 일부는 제1 영역 및 제2 영역에 공통적으로 포함될 수 있다.In addition, the first image is an image in which a first area related to the exterior of the vehicle is photographed, and the first area includes at least one main part of the vehicle. The second image is an image in which a second area related to the exterior of the vehicle is photographed, and the second area includes at least one main part of the vehicle. In this case, at least some of the main parts of the vehicle photographed by the terminal 490 may be included in common in the first area and the second area.

도 53은 카메라 모듈(491)로 차량을 촬영하는 경우 대상 차량의 정보에 기초하여 제공되는 촬영 가이드를 설명하기 위한 도면이다.53 is a view for explaining a photographing guide provided based on information on a target vehicle when photographing a vehicle with the camera module 491 .

도 53의 (a)를 참조하면, 단말기(490)는 이용자 또는 관리자가 카메라 모듈(491)로 차량을 촬영하는 경우 대상 차량의 정보에 기초하여 출력부(496)를 통해 촬영 가이드를 표시할 수 있다. 상기 대상 차량의 정보는 차량 이용자가 입력한 정보, 차량 이용자의 예약 정보 또는 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 얻어질 수 있다. 예시적으로, 차량 이용자가 차량 이용 전 특정 차종을 예약하는 경우, 단말기(490)는 이용자의 예약 정보에 기초하여 해당 차종에 관한 촬영 가이드를 출력부(496)를 통해 이용자 또는 관리자에게 제공할 수 있다. 다른 예로, 차량 이용자가 차량 이용을 위해 카메라 모듈(491)로 차량을 촬영하는 경우, 단말기(490)는 차량 정보를 획득하도록 학습된 신경망 모델을 통해 해당 차종에 관한 정보를 획득 후 해당 차종에 관한 촬영 가이드를 출력부(496)를 통해 이용자 또는 관리자에게 제공할 수 있다. 한편, 도 53의 (a)에 도시된 촬영 가이드는 예시적인 것으로 일 실시예의 촬영 가이드는 기 알려진 다양한 촬영 가이드의 형태를 포함할 수 있다.Referring to (a) of FIG. 53 , the terminal 490 may display a shooting guide through the output unit 496 based on the information of the target vehicle when the user or manager takes a picture of the vehicle with the camera module 491 . there is. The information of the target vehicle may be obtained using a neural network model trained to obtain information input by a vehicle user, reservation information of the vehicle user, or vehicle information. For example, when the vehicle user makes a reservation for a specific vehicle type before using the vehicle, the terminal 490 may provide a shooting guide for the vehicle type to the user or the manager through the output unit 496 based on the user's reservation information. there is. As another example, when a vehicle user takes a picture of a vehicle with the camera module 491 for vehicle use, the terminal 490 obtains information about the vehicle model through a neural network model trained to acquire vehicle information, and then relates to the vehicle model. A shooting guide may be provided to a user or an administrator through the output unit 496 . Meanwhile, the photographing guide shown in (a) of FIG. 53 is exemplary, and the photographing guide according to an embodiment may include various known types of photographing guides.

도 53의 (b) 및 (c)를 참조하면, 상술한 촬영 가이드에 기초하여 이용자가 차량을 촬영할 때 촬영 가이드 내에 해당 차량이 일정 비율 이상 적합하게 위치할 경우, 단말기(490)의 제어부(492)는 촬영 버튼을 활성화하여 이용자의 차량 촬영 및 저장이 가능하도록 할 수 있다.Referring to (b) and (c) of FIG. 53 , when the user takes a picture of a vehicle based on the above-described shooting guide, when the corresponding vehicle is properly located in the shooting guide by a certain ratio or more, the controller 492 of the terminal 490 ) activates the shooting button to enable the user's vehicle shooting and storage.

또한, 상술한 촬영 가이드에 기초하여 이용자가 차량을 촬영할 때 촬영 가이드 내에 해당 차량이 일정 비율 이상 적합하게 위치할 경우, 단말기(490)의 제어부(492)는 카메라 모듈(491)이 자동적으로 차량의 외관을 촬영하도록 제어한 후, 촬영된 이미지가 단말기(490)의 저장부(493)에 저장되도록 제어할 수 있다.In addition, when the user takes a picture of a vehicle based on the above-described shooting guide, when the vehicle is located in the shooting guide at a certain ratio or more, the control unit 492 of the terminal 490 automatically controls the camera module 491 of the vehicle. After controlling to photograph the exterior, it is possible to control so that the photographed image is stored in the storage unit 493 of the terminal 490 .

한편, 도 53에는 도시되지 않았지만, 단말기(490)는 차량 전체 모습을 촬영하기 위한 촬영 가이드를 제공하는 것뿐만 아니라, 차량의 특정 부품을 촬영하기 위한 부품 별 촬영 가이드를 제공할 수 있다. 상기 부품 별 촬영 가이드는 차량 이용자가 입력한 정보, 차량 이용자의 예약 정보 또는 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 얻어질 수 있으며, 이에 관하여는 상술한 바 있으므로 중복되는 내용은 생략한다.Meanwhile, although not shown in FIG. 53 , the terminal 490 may provide a photographing guide for each part for photographing specific parts of the vehicle as well as providing a photographing guide for photographing the entire vehicle. The photographing guide for each part may be obtained using a neural network model trained to obtain information input by a vehicle user, reservation information of a vehicle user, or vehicle information, and since this has been described above, overlapping content will be omitted.

도 54는 카메라 모듈(491)로 차량을 촬영하는 경우 제공되는 촬영 맵을 설명하기 위한 도면이다.54 is a view for explaining a photographing map provided when photographing a vehicle with the camera module 491 .

도 54를 참조하면, 단말기(490)는 출력부(496)를 통해 이용자에게 촬영 맵을 표시할 수 있다. 단말기(490)는 이용자가 카메라 모듈(491)로 차량을 촬영하는 경우 차량 외관의 주요 부위가 모두 촬영될 수 있도록 가이드해주는 촬영 맵을 출력부(496)를 통해 이용자에게 표시할 수 있다. 보다 구체적으로, 촬영 맵은 차량 외관의 주요 부위가 모두 촬영될 수 있도록 하기 위해 다양한 방향에서 차량을 촬영할 수 있도록 유도하는 UI를 포함할 수 있다. 예시적으로, 상기 차량 외관의 주요 부위는 차량의 전면, 후면, 보조석 앞면, 보조석 뒷면, 운전석 앞면, 운전석 뒷면 등을 포함할 수 있다.Referring to FIG. 54 , the terminal 490 may display a photographing map to the user through the output unit 496 . The terminal 490 may display, through the output unit 496 , a photographing map that guides the user so that all major parts of the exterior of the vehicle can be photographed when the user photographs the vehicle with the camera module 491 . More specifically, the photographing map may include a UI for inducing photographing of the vehicle in various directions so that all major parts of the exterior of the vehicle may be photographed. Exemplarily, the main parts of the vehicle exterior may include a front surface, a rear surface, a front passenger seat front, a passenger seat rear surface, a driver's seat front surface, and a driver's seat rear surface of the vehicle.

촬영 맵은 가이드부(GU)와 촬영부(CB)를 포함할 수 있다. 이하에서는 도면을 참조하여 상기 가이드부(GU)와 촬영부(CB)에 관한 구체적인 실시예에 대하여 설명한다.The photographing map may include a guide unit GU and a photographing unit CB. Hereinafter, specific embodiments of the guide unit GU and the photographing unit CB will be described with reference to the drawings.

단말기(490)는 이용자가 카메라 모듈(491)로 차량 외관을 촬영하는 경우 차량 외관의 주요 부위가 촬영될 수 있도록 상기 가이드부(GU)를 통해 촬영을 가이드해 줄 수 있다. 상기 가이드부(GU)는 차량 외관의 주요 부위가 모두 촬영될 수 있도록 적어도 하나 이상의 가이드를 포함할 수 있다. 단말기(490)는 서로 다른 방향에서 차량이 촬영될 수 있도록 상기 가이드부(GU)를 통해 차량 촬영을 유도할 수 있다.The terminal 490 may guide the photographing through the guide unit GU so that a main part of the vehicle exterior may be photographed when the user photographs the exterior of the vehicle with the camera module 491 . The guide unit GU may include at least one guide so that all major parts of the exterior of the vehicle can be photographed. The terminal 490 may induce vehicle photographing through the guide unit GU so that the vehicle may be photographed in different directions.

예시적으로, 상기 가이드부(GU)는 차량의 전면부 촬영을 유도하는 제1 가이드, 보조석 앞면의 촬영을 유도하는 제2 가이드, 보조석 뒷면의 촬영을 유도하는 제3 가이드, 차량의 후면부 촬영을 유도하는 제4 가이드, 운전석 뒷면의 촬영을 유도하는 제5 가이드 및 운전석 앞면의 촬영을 유도하는 제6 가이드를 포함할 수 있다.Illustratively, the guide unit GU includes a first guide for inducing photographing of the front of the vehicle, a second guide for inducing photographing of the front side of the passenger seat, a third guide for inducing photographing of the rear of the passenger seat, and photographing of the rear of the vehicle. It may include a fourth guide for inducing, a fifth guide for inducing photographing of the rear side of the driver's seat, and a sixth guide for inducing photographing of the front side of the driver's seat.

한편, 촬영부(CB)는 차량의 외관 촬영 및 촬영된 이미지를 저장하는 기능을 포함할 수 있다. 촬영부(CB)는 차량 외관의 주요 부위를 촬영할 수 있는 촬영 버튼을 포함할 수 있다. 보다 구체적으로, 촬영부(CB)는 이용자가 상술한 가이드 중 어느 하나를 선택하는 경우 해당 가이드가 촬영을 유도하고 있는 차량 외관의 촬영이 가능한 촬영 버튼을 포함할 수 있다.Meanwhile, the photographing unit CB may include a function of photographing the exterior of the vehicle and storing the photographed image. The photographing unit CB may include a photographing button capable of photographing a main part of the exterior of the vehicle. More specifically, when the user selects any one of the guides described above, the photographing unit CB may include a photographing button capable of photographing the exterior of the vehicle in which the corresponding guide induces photographing.

예를 들어, 이용자가 상기 가이드부(GU)에서 차량의 전면부 촬영을 유도하는 제1 가이드를 선택하는 경우, 단말기(490)는 출력부(496)를 통해 차량의 전면부 촬영이 가능한 촬영 버튼이 활성화되어 있는 촬영부(CB)를 표시할 수 있다. 이때, 이용자가 상기 촬영 버튼을 클릭하여 차량의 전면부를 촬영하는 경우, 단말기(490)의 제어부(492)는 촬영된 이미지를 차량의 전면부로 분류하여 저장부(493)에 저장할 수 있다.For example, when the user selects a first guide for inducing photographing of the front portion of the vehicle in the guide unit GU, the terminal 490 uses a photographing button capable of photographing the front portion of the vehicle through the output unit 496 . The activated photographing unit CB may be displayed. In this case, when the user clicks the photographing button to photograph the front portion of the vehicle, the controller 492 of the terminal 490 may classify the photographed image as the front portion of the vehicle and store it in the storage 493 .

한편, 카메라 모듈(491)에 의해 획득된 영상 데이터는 복수의 이미지를 포함할 수 있다. 이때, 모바일 베이스 차량 관리 프로세스가 정상적으로 수행될 수 있게 하기 위하여 상기 복수의 이미지 중 유효 이미지 데이터가 추출될 수 있다.Meanwhile, image data acquired by the camera module 491 may include a plurality of images. In this case, valid image data among the plurality of images may be extracted so that the mobile-based vehicle management process can be normally performed.

상기 영상 데이터로부터 모바일 베이스 차량 관리 프로세스에 적합한 유효 이미지 데이터를 추출하는 단계는 도 36의 S3513 단계와 대응하므로, 중복되는 내용은 생략한다.Since the step of extracting valid image data suitable for the mobile-based vehicle management process from the image data corresponds to step S3513 of FIG. 36 , overlapping content is omitted.

4.2.1.2 비-이미지 데이터 획득4.2.1.2 Acquisition of non-image data

일 실시예에 따르면, 이미지가 아닌 비-이미지 형태의 차량 데이터가 획득될 수 있다. 차량 데이터는 비-이미지 데이터일 수 있다. 차량 데이터는 차량과 관련된 정보를 포함하는 비-이미지 데이터일 수 있다. 상기 비-이미지 데이터에 관하여는 3.2.1.2에서 상술한 바 있으므로 중복되는 내용은 생략하도록 한다.According to an embodiment, vehicle data in the form of a non-image other than an image may be obtained. The vehicle data may be non-image data. The vehicle data may be non-image data including information related to the vehicle. Since the non-image data has been described above in 3.2.1.2, redundant contents will be omitted.

상기 비-이미지 데이터는 미리 저장되거나 획득될 수 있다. 상기 비-이미지 데이터는 상기 카메라 모듈(491)에 의해 획득될 수 있다. 상기 비-이미지 데이터는 상기 카메라 모듈(491)에 의해 촬영된 촬영 데이터에 기초하여 획득될 수 있다. 상기 관리장치(341)는 상기 영상 데이터에 기초하여 비-이미지 데이터를 획득할 수 있다.The non-image data may be previously stored or obtained. The non-image data may be acquired by the camera module 491 . The non-image data may be obtained based on photographing data captured by the camera module 491 . The management device 341 may acquire non-image data based on the image data.

4.2.1.3 데이터 처리4.2.1.3 Data processing

모바일 베이스 차량 관리 프로세스에서는 획득된 데이터에 대한 처리가 수행될 수 있다.In the mobile-based vehicle management process, processing may be performed on the acquired data.

모바일 베이스 차량 관리 프로세스에서는 획득된 데이터에 대한 전처리(또는 후처리)가 수행될 수 있다. 상기 단말기(490)는 영상 데이터 중 적어도 하나 이상의 유효 이미지 데이터에 대한 전처리를 수행할 수 있다. 상기 단말기(490)는 상기 영상 데이터 중 상기 제1 이미지와 제2 이미지를 기초로 전처리를 수행할 수 있다.In the mobile-based vehicle management process, pre-processing (or post-processing) may be performed on the acquired data. The terminal 490 may perform pre-processing on at least one valid image data among the image data. The terminal 490 may perform pre-processing based on the first image and the second image among the image data.

상기 단말기(490)는 복수의 특정 지점사이에 촬영된 다수의 이미지에 기초하여 노이즈 제거처리를 수행할 수 있다. 상기 단말기(490)는 다수의 유효 이미지 데이터에 기초하여 노이즈 제거 처리를 수행할 수 있다.The terminal 490 may perform noise removal processing based on a plurality of images captured between a plurality of specific points. The terminal 490 may perform noise removal processing based on a plurality of valid image data.

상술한 노이즈 제거 처리가 수행된 이미지는 손상 이미지로 정의될 수 있다. 상기 단말기(490)는 상기 손상 이미지를 기초로 차량의 손상을 포함하는 차량의 정보를 판단할 수 있다.An image on which the above-described noise removal processing has been performed may be defined as a damaged image. The terminal 490 may determine vehicle information including damage to the vehicle based on the damage image.

상기 카메라 모듈(491)이 노이즈가 발생하지 않는 환경에 설치된 경우 상기 관리장치(341)는 노이즈 제거 처리를 생략할 수도 있다. 이 경우 후술할 차량 정보 획득은 유효 이미지 데이터를 기초로 수행될 수 있다. 이 때의 손상 이미지는 상기 유효 이미지 데이터일 수 있다.When the camera module 491 is installed in an environment in which noise is not generated, the management device 341 may omit the noise removal process. In this case, vehicle information, which will be described later, may be obtained based on valid image data. In this case, the damaged image may be the valid image data.

상기 단말기(490)는 복수의 유효 이미지 데이터에 기초하여, 반사광 등을 제거하기 위한 노이즈 제거 처리를 수행할 수 있다. 단말기(490)는 복수의 유효 이미지 데이터를 획득하고, 위치가 변동되는 오브젝트(예컨대, 반사광에 대응되는 반사 영역) 및 위치가 변동되지 않는 오브젝트(예컨대, 차량 영역 또는 차량의 손상에 대응되는 손상 영역)를 구분하여, 위치가 변동되는 오브젝트 또는 위치가 변동되지 않는 오브젝트를 제거할 수 있다. 예컨대, 단말기(490)는 차량의 손상된 부분에 대응되는 손상 영역 및 차량의 표면에 의한 반사광에 대응되는 반사 영역을 포함하는 유효 이미지 데이터에 기초하여, 반사 영역이 제거된 차량 이미지를 획득하는 노이즈 제거 처리가 수행될 수 있다. 상기 유효 이미지 데이터는 주요 부위가 포함된 이미지 데이터일 수 있다.The terminal 490 may perform noise removal processing for removing reflected light, etc., based on a plurality of valid image data. The terminal 490 acquires a plurality of valid image data, and an object whose position is changed (eg, a reflective region corresponding to reflected light) and an object whose position does not change (eg, a vehicle region or a damaged region corresponding to damage to the vehicle) ), it is possible to remove an object whose position changes or an object whose position does not change. For example, the terminal 490 removes noise to obtain a vehicle image from which the reflection area is removed based on effective image data including a damaged area corresponding to a damaged part of the vehicle and a reflection area corresponding to light reflected by the surface of the vehicle. processing may be performed. The effective image data may be image data including a main part.

상기 단말기(490)는 고정된 형태로 촬영되는 것이 아니므로, 주요 부위로부터 제1 거리를 가지는 제1 이미지와 상기 주요 부위로 제2 거리를 가지는 제2 이미지는 주요부위로부터 카메라 모듈(491) 사이의 거리가 달라질 확률이 크다. 즉, 제1 거리와 제2 거리는 다를 수 있다. 이로써, 이용자가 상기 단말기(490)를 휴대한 상태에서 상기 제1 조작과 제2 조작에 의해 제1 이미지와 제2 이미지를 촬영한 경우와 이용자가 상기 단말기(490)를 휴대한 상태에서 한 번의 조작에 의해 동영상을 촬영하고, 이를 기초로 제1 이미지와 제2 이미지를 추출하는 경우 모두 제1 거리와 제2 거리는 다를 가능성이 높다.Since the terminal 490 is not photographed in a fixed form, the first image having a first distance from the main part and the second image having a second distance to the main part are between the camera module 491 from the main part. It is highly probable that the distance of That is, the first distance and the second distance may be different. Accordingly, when the user captures the first image and the second image by the first and second manipulations while carrying the terminal 490 , and when the user carries the terminal 490 , one In the case of capturing a video by manipulation and extracting the first image and the second image based thereon, the first distance and the second distance are highly likely to be different.

상기 제1 거리는 제1 이미지가 촬영되는 경우의 상기 카메라 모듈(491)과 상기 차량의 제1 특징점 사이의 거리일 수 있고, 상기 제2 거리는 제2 이미지가 촬영되는 경우의 상기 카메라와 제1 특징점 사이의 거리일 수 있다.The first distance may be a distance between the camera module 491 and a first feature point of the vehicle when a first image is captured, and the second distance is between the camera and a first feature point when a second image is captured It can be the distance between

따라서, 별도의 노력 없이 노이즈 처리를 수행할 수 있는 유효 이미지 데이터를 얻을 수 있고, 상기 단말기(490)는 이를 기초로 노이즈 제거처리를 수행할 수 있다.Therefore, it is possible to obtain effective image data on which noise processing can be performed without extra effort, and the terminal 490 can perform noise removal processing based on this.

상기 노이즈 제거처리는 단말기(490)에서 수행되는 것을 기재하였으나, 상기 노이즈 제거처리는 서버(499)에서 수행될 수도 있다.Although it has been described that the noise removal processing is performed in the terminal 490 , the noise removal processing may be performed in the server 499 .

4.2.2 모바일 차량 정보 획득4.2.2 Obtaining mobile vehicle information

모바일 베이스 차량 관리 프로세스는 차량 데이터에 기초하여 차량 정보를 획득하는 것을 포함할 수 있다.The mobile-based vehicle management process may include obtaining vehicle information based on vehicle data.

차량 정보는 대상 차량을 구성하는 부품과 관련된 부품 정보, 대상 차량 내/외부의 손상과 관련된 손상 정보, 대상 차량의 종류와 관련된 차종 정보 및/또는 대상 차량을 식별하기 위한 식별 정보를 포함할 수 있다. The vehicle information may include parts information related to parts constituting the target vehicle, damage information related to damage inside/outside the target vehicle, vehicle model information related to the type of the target vehicle, and/or identification information for identifying the target vehicle. .

차량 정보는 차량 데이터로부터 추출되거나, 차량 데이터를 처리하여 얻어질 수 있다. 차량 정보는 차량 데이터를 입력 데이터로 하여, 차량 정보를 획득하도록 설계된 알고리즘 또는 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 얻어질 수 있다.Vehicle information may be extracted from vehicle data or obtained by processing vehicle data. Vehicle information may be obtained using vehicle data as input data, an algorithm designed to obtain vehicle information, or a neural network model trained to obtain vehicle information.

차량 데이터에 기초하여 차량 정보를 획득하는 것은 2.3에서 상술한 바 있으므로, 중복되는 내용은 생략한다.Acquiring vehicle information based on vehicle data has been described above in 2.3, and thus redundant information is omitted.

일 실시예에 따르면 단말기(490)는 손상 이미지에 기초하여 차량정보를 획득할 수 있다. 상기 단말기(490)는 상기 손상 이미지에 기초하여 손상정보를 획득할 수 있다.According to an embodiment, the terminal 490 may acquire vehicle information based on the damaged image. The terminal 490 may acquire damage information based on the damage image.

일 실시예에 따르면, 카쉐어링 회사의 경우 단말기(490)는 미리 저장되어 있는 데이터베이스를 이용하여 공유 차량 정보를 획득할 수 있다. 상기 공유 차량 정보는 공유 차량의 차종, 제조사, 모델명, 연식 등을 나타내는 차량 종류 정보를 포함할 수 있다. 또한, 상기 공유 차량 정보는 공유 차량을 구성하는 부품의 수, 종류, 이름, 식별 정보 등을 나타내는 부품 정보를 더 포함할 수 있다. 또한, 상기 공유 차량 정보는 공유 차량 이용자의 인적사항 또는 공유 차량의 사고 이력 등을 포함하는 추가 정보를 더 포함할 수 있다.According to an embodiment, in the case of a car-sharing company, the terminal 490 may acquire shared vehicle information using a pre-stored database. The shared vehicle information may include vehicle type information indicating a vehicle type, manufacturer, model name, year, and the like of the shared vehicle. In addition, the shared vehicle information may further include parts information indicating the number, type, name, identification information, and the like of parts constituting the shared vehicle. In addition, the shared vehicle information may further include additional information including personal information of the shared vehicle user or an accident history of the shared vehicle.

공유 차량 정보는 대상 차량 내/외부에 발생한 추가 손상 정보를 포함할 수 있다. 상기 추가 손상 정보는 이용자가 차량을 이용하기 전의 차량의 손상 이미지와 이용자가 차량을 이용한 후의 차량의 손상 이미지에 기초하여 산출될 수 있다. 상기 추가 손상 정보는 이용자가 차량을 이용하기 전의 차량의 손상 이미지와 이용자가 차량을 이용한 후의 차량의 손상 이미지를 비교하여 산출될 수 있다.The shared vehicle information may include additional damage information generated inside/outside the target vehicle. The additional damage information may be calculated based on the damage image of the vehicle before the user uses the vehicle and the damage image of the vehicle after the user uses the vehicle. The additional damage information may be calculated by comparing the damage image of the vehicle before the user uses the vehicle with the damage image of the vehicle after the user uses the vehicle.

상기 추가 손상 정보는 이용자가 차량을 이용하기 전의 차량의 손상 이미지를 기초로 산출된 손상 정보와 이용자가 차량을 이용한 후의 차량의 손상 이미지를 기초로 산출된 손상 정보에 기초하여 산출될 수 있다.The additional damage information may be calculated based on damage information calculated based on the damage image of the vehicle before the user uses the vehicle and damage information calculated based on the damage image of the vehicle after the user uses the vehicle.

상기 단말기(490)는 이용자가 차량을 이용하기 전의 차량의 손상 이미지 및 손상 정보 중 적어도 어느 하나를 저장하고, 이용자가 차량을 이용한 후에 이를 불러와 이용자가 차량을 이용한 후의 차량의 손상 이미지 및 손상 정보 중 적어도 어느 하나와 비교하여 추가 손상 정보를 산출할 수 있다.The terminal 490 stores at least one of the damage image and damage information of the vehicle before the user uses the vehicle, and calls it after the user uses the vehicle, and the damage image and damage information of the vehicle after the user uses the vehicle It is possible to calculate additional damage information by comparing with at least one of the.

상기 단말기(490)는 이용자가 차량을 이용하기 전의 차량의 비-이미지 데이터와 상기 손상 이미지 및 손상 정보를 연동하여 저장할 수 있다. 예를 들어, 단말기(490)는 이용자가 차량을 이용하기 전의 차량의 손상 이미지 및 손상 정보를 상기 차량의 차량번호와 연동하여 저장할 수 있다.The terminal 490 may store non-image data of the vehicle before the user uses the vehicle in association with the damaged image and damage information. For example, the terminal 490 may store the damage image and damage information of the vehicle before the user uses the vehicle in association with the vehicle number of the vehicle.

상기 단말기(490)는 이용자가 해당 차량을 이용을 종료한 경우, 인식된 차량번호에 기초하여 해당 차량의 차량번호와 연동된 손상 이미지 및 손상 정보를 로드하고, 이를 이용자가 차량을 이용한 후의 차량의 손상 이미지 및 손상 정보와 비교하여 추가 손상 정보를 산출할 수 있다.When the user ends using the vehicle, the terminal 490 loads the damage image and damage information linked with the vehicle number of the vehicle based on the recognized vehicle number, and uses this information on the vehicle after the user uses the vehicle. Comparing with the damage image and damage information, additional damage information can be calculated.

4.2.3 차량 정보 관리4.2.3 Vehicle information management

모바일 베이스 차량 관리 프로세스는 차량 정보를 관리하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 전술한 부품 정보, 손상 정보, 차량 종류 정보 및/또는 식별 정보를 관리하는 것을 포함할 수 있다.The mobile-based vehicle management process may include managing vehicle information. Managing the vehicle information may include managing the aforementioned part information, damage information, vehicle type information, and/or identification information.

또한, 차량 정보를 관리하는 것은 차량 정보를 시계열적으로 관리하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 차량 정보를 분류하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 하나 이상의 정보를 연관하여 관리하는 것을 포함할 수 있다. 상기 차량 정보 관리는 상기 서버(499)에서 수행될 수 있다.In addition, managing the vehicle information may include managing the vehicle information in time series. Managing the vehicle information may include classifying the vehicle information. Managing the vehicle information may include managing one or more pieces of information in association. The vehicle information management may be performed by the server 499 .

이하에서는 차량 정보의 관리에 대하여 몇몇 실시예를 들어 설명한다. Hereinafter, management of vehicle information will be described with reference to some embodiments.

4.2.3.1 이력 관리4.2.3.1 History management

차량 정보를 관리하는 것은 차량 정보를 이력 관리하는 것을 포함할 수 있다. 차량 정보를 이력 관리하는 것은 서로 다른 시점에 획득된 하나 이상의 차량 정보를 시계열적으로 나열 및/또는 관리하는 것을 의미할 수 있다.Managing the vehicle information may include managing the history of the vehicle information. History management of vehicle information may mean listing and/or managing one or more vehicle information acquired at different times in time series.

일 실시예에 따르면, 모바일 베이스 차량 관리 프로세스에서 차량 정보를 관리한다는 것은, 특정 차량에 대하여 차량에 발생한 손상을 나타내는 손상 정보를 손상 정보가 획득된 시간을 나타내는 시간 정보와 함께 관리하는 것을 의미할 수 있다. 예컨대, 차량 정보를 관리하는 것은 제1 시점에 제1 차량에 제1 손상이 발생하였음을 나타내는 제1 정보를 획득하고, 제1 시점 이후인 제2 시점에 제1 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 획득하고, 제1 정보 및 제2 정보를 시간 순으로 관리하는 것을 포함할 수 있다.According to an embodiment, managing vehicle information in the mobile-based vehicle management process may mean managing damage information indicating damage to the vehicle for a specific vehicle together with time information indicating a time at which the damage information was acquired. there is. For example, managing the vehicle information acquires first information indicating that the first damage has occurred to the first vehicle at a first time point, and the second damage has occurred to the first vehicle at a second time point that is after the first time point It may include acquiring second information indicating

예시적으로, 카쉐어링 프로세스에서 차량 정보를 관리한다는 것은, 공유 차량에 대하여 차량에 발생한 손상을 나타내는 손상 정보를 손상 정보가 획득된 시간을 나타내는 시간 정보와 함께 관리하는 것을 의미할 수 있다.For example, managing vehicle information in the car-sharing process may mean managing damage information indicating damage to the vehicle with respect to the shared vehicle together with time information indicating a time at which the damage information was acquired.

보다 구체적으로, 카쉐어링 프로세스에서 차량 정보를 관리한다는 것은, 제1 이용자가 제1 차량 이용 전 공유 차량에 제1 손상이 발생하였음을 나타내는 제1 정보를 획득하고, 제1 이용자가 제1 차량 이용 후 공유 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 획득하고, 제1 이용자가 제2 차량 이용 전 공유 차량에 제3 손상이 발생하였음을 나타내는 제3 정보를 획득하고, 제1 이용자가 제2 차량 이용 후 공유 차량에 제4 손상이 발생하였음을 나타내는 제4 정보를 획득한 후, 제1 정보, 제2 정보, 제3 정보 및/또는 제4 정보를 시간 순으로 관리하는 것을 포함할 수 있다.More specifically, managing vehicle information in the car-sharing process means that the first user acquires first information indicating that the first damage has occurred in the shared vehicle before using the first vehicle, and the first user uses the first vehicle After obtaining second information indicating that the second damage has occurred in the shared vehicle, the first user obtains third information indicating that the third damage has occurred in the shared vehicle before using the second vehicle, and the first user After obtaining the fourth information indicating that the fourth damage has occurred to the shared vehicle after using the second vehicle, it may include managing the first information, the second information, the third information, and/or the fourth information in chronological order. can

또한, 카쉐어링 프로세스에서 차량 정보를 관리한다는 것은, 제1 이용자의 공유 차량 이용 후에 공유 차량에 제1 손상이 발생하였음을 나타내는 제1 정보를 획득하고, 제2 이용자의 공유 차량 이용 전에 공유 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 획득하고, 제2 이용자의 공유 차량 이용 후에 공유 차량에 제3 손상이 발생하였음을 나타내는 제3 정보를 획득한 후, 제1 정보, 제2 정보 및/또는 제3 정보를 시간 순으로 관리하는 것을 포함할 수 있다. 이때, 제1 이용자는 제2 이용자 보다 우선하여 공유 차량을 이용한 사람을 의미할 수 있다.In addition, managing vehicle information in the car-sharing process means acquiring first information indicating that the first damage has occurred to the shared vehicle after the first user's use of the shared vehicle, and providing the shared vehicle with the second user before using the shared vehicle. After obtaining the second information indicating that the second damage has occurred, and after obtaining the third information indicating that the third damage has occurred in the shared vehicle after the second user uses the shared vehicle, the first information, the second information and / or may include managing the third information in chronological order. In this case, the first user may mean a person who has used the shared vehicle in preference to the second user.

4.2.3.2 손상 이력 관리 실시예 1 - 운전자 별4.2.3.2 Damage history management Example 1 - By driver

모바일 베이스 차량 관리 프로세스에서 손상 정보의 이력을 관리할 수 있다. 손상 정보의 이력 관리는 새롭게 발생한 신규 손상에 대한 신규 손상 정보를 획득하는 것을 포함할 수 있다. 손상 정보의 이력 관리는 동일한 차량을 다양한 시점에 촬영하여 획득된 복수의 이미지에 기초하여, 신규 손상 정보를 획득하는 것을 포함할 수 있다.It is possible to manage the history of damage information in the mobile-based vehicle management process. History management of damage information may include acquiring new damage information for new damage that has occurred. History management of damage information may include acquiring new damage information based on a plurality of images obtained by photographing the same vehicle at various time points.

손상 정보 이력은 이용자 정보를 고려하여 이용자 별로 관리될 수 있다.Damage information history can be managed for each user in consideration of user information.

일 실시예에 따르면, 단말기(490)는 이용자 정보를 고려하여 공유 차량의 손상 정보 이력을 이용자 별로 관리할 수 있다. 단말기(490)는 공유 차량의 손상 정보 이력을 이용자 별로 관리함으로써, 공유 차량에 손상이 발생하는 경우 책임 소재를 명확하게 할 수 있고, 공유 차량에 현재 또는 과거에 발생한 손상이 어느 이용자에 의해 발생한 것인지 파악하기가 용이하며, 그에 따른 공유 차량 관리 비용을 절감할 수 있는 효과를 제공할 수 있다. 또한, 단말기(490)는 공유 차량의 손상 정보 이력을 이용자 별로 관리함으로써, 해당 이용자에 대한 평가 등을 수행할 수 있는 효과를 제공할 수 있다.According to an embodiment, the terminal 490 may manage the damage information history of the shared vehicle for each user in consideration of user information. The terminal 490 manages the damage information history of the shared vehicle for each user, so that when damage occurs to the shared vehicle, it is possible to clarify the location of responsibility, and to determine which user caused the damage that occurred in the shared vehicle in the present or in the past. It is easy to understand, and it can provide the effect of reducing the cost of managing a shared vehicle. In addition, the terminal 490 may provide an effect of performing an evaluation of the user by managing the damage information history of the shared vehicle for each user.

예시적으로, 단말기(490)가 이용자 정보를 고려하여 공유 차량의 손상 정보 이력을 이용자 별로 관리한다는 것은, 제1 이용자가 제1 차량 이용 전 공유 차량에 제1 손상이 발생하였음을 나타내는 제1 정보와 제1 이용자가 제1 차량 이용 후 공유 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 비교하여 획득된 제1 이용자의 제1 차량 이용 중 발생한 추가 손상 정보를 관리하는 것과, 제1 이용자가 제2 차량 이용 전 공유 차량에 제3 손상이 발생하였음을 나타내는 제3 정보와 제1 이용자가 제2 차량 이용 후 공유 차량에 제4 손상이 발생하였음을 나타내는 제4 정보를 비교하여 획득된 제1 이용자의 제2 차량 이용 중 발생한 추가 손상 정보를 관리하는 것을 의미할 수 있다. For example, that the terminal 490 manages the damage information history of the shared vehicle for each user in consideration of user information is first information indicating that the first damage occurred in the shared vehicle before the first user used the first vehicle. and managing additional damage information that occurred during the first user's use of the first vehicle obtained by comparing the second information indicating that the second damage occurred to the shared vehicle after the first user used the first vehicle, and the first user The third information obtained by comparing the third information indicating that the third damage occurred to the shared vehicle before using the second vehicle and the fourth information indicating that the fourth damage occurred to the shared vehicle after the first user used the second vehicle 1 may mean managing additional damage information that occurred while using the user's second vehicle.

4.2.3.3 손상 이력 관리 실시예 2 - 차량 별 관리4.2.3.3 Damage history management Example 2 - Management by vehicle

손상 정보 이력은 차량 별로 관리될 수 있다.The damage information history may be managed for each vehicle.

일 실시예에 따르면, 단말기(490)는 공유 차량의 손상 정보 이력을 차량 별로 관리할 수 있다. 단말기(490)가 공유 차량의 손상 정보 이력을 차량 별로 관리함으로써, 공유 차량에 과거부터 현재까지 발생한 손상 정보를 시계열적으로 용이하게 파악할 수 있는 효과를 제공할 수 있다. 또한, 단말기(490)가 공유 차량의 손상 정보 이력을 차량 별로 관리함으로써, 공유 차량의 수리 및 점검 일정을 차량의 상태에 따라 차량 별로 맞춤 일정으로 계획할 수 있게 하여 효율적인 차량 관리가 이루어질 수 있게 하는 효과를 제공할 수 있다.According to an embodiment, the terminal 490 may manage the damage information history of the shared vehicle for each vehicle. Since the terminal 490 manages the damage information history of the shared vehicle for each vehicle, it is possible to provide the effect of easily identifying damage information that has occurred from the past to the present in the shared vehicle in time series. In addition, the terminal 490 manages the damage information history of the shared vehicle for each vehicle, so that the repair and inspection schedule of the shared vehicle can be planned according to the condition of the vehicle as a customized schedule for each vehicle, thereby enabling efficient vehicle management effect can be provided.

예시적으로, 단말기(490)가 공유 차량의 손상 정보 이력을 차량 별로 관리한다는 것은, 제1 이용자의 공유 차량 이용 후에 공유 차량에 제1 손상이 발생하였음을 나타내는 제1 정보와 제2 이용자의 공유 차량 이용 전에 공유 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 비교하여 공유 차량의 주차 중 발생한 추가 손상 정보를 관리하는 것을 의미할 수 있다.For example, when the terminal 490 manages the damage information history of the shared vehicle for each vehicle, the sharing of the first information and the second user indicating that the first damage has occurred in the shared vehicle after the first user uses the shared vehicle It may mean managing additional damage information that occurs during parking of the shared vehicle by comparing the second information indicating that the second damage has occurred in the shared vehicle before using the vehicle.

다른 예로, 단말기(490)가 공유 차량의 손상 정보 이력을 차량 별로 관리한다는 것은, 제1 이용자의 공유 차량 이용 후에 공유 차량에 제1 손상이 발생하였음을 나타내는 제1 정보 또는 제2 이용자의 공유 차량 이용 전에 공유 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 제2 이용자의 공유 차량 이용 후에 공유 차량에 제3 손상이 발생하였음을 나타내는 제3 정보와 비교하여 제2 이용자의 공유 차량 이용 중 발생한 추가 손상 정보를 관리하는 것을 의미할 수 있다.As another example, when the terminal 490 manages the damage information history of the shared vehicle for each vehicle, the first information indicating that the first damage has occurred in the shared vehicle after the first user's use of the shared vehicle or the second user's shared vehicle Comparing the second information indicating that the second damage occurred to the shared vehicle before use with the third information indicating that the third damage occurred to the shared vehicle after the second user used the shared vehicle, the second user is using the shared vehicle It may mean managing additional damage information that has occurred.

4.2.4 차량 정보 출력4.2.4 Vehicle information output

4.2.4.1 출력되는 정보4.2.4.1 Output information

모바일 베이스 차량 관리 시스템은 단말기(490)의 출력부(496)를 통해 차량 정보 및 차량 정보에 기초하여 획득된 보조 정보를 출력할 수 있다. 또한, 상기 단말기(490)는 상기 단말기(490)와 연결된 서버(499)를 통해 차량 정보 및 보조 정보를 출력할 수 있다.The mobile-based vehicle management system may output vehicle information and auxiliary information obtained based on the vehicle information through the output unit 496 of the terminal 490 . Also, the terminal 490 may output vehicle information and auxiliary information through the server 499 connected to the terminal 490 .

상기 단말기(490)는 부품 정보, 손상 정보, 차량 종류 정보, 식별 정보 등의 차량 정보를 출력할 수 있다. 차량 관리 시스템은 사용자 정보 및/또는 위치 정보를 함께 출력할 수 있다.The terminal 490 may output vehicle information such as parts information, damage information, vehicle type information, and identification information. The vehicle management system may output user information and/or location information together.

상기 단말기(490)는 차량 이미지 및 차량 이미지에 대응되는 차량 정보를 출력할 수 있다. 차량 관리 시스템은 복수의 차량 이미지 및 각 차량 이미지에 대응되는 차량 정보를 출력할 수 있다. 복수의 차량 이미지는 차량에 대하여 다양한 각도에서 촬영된 이미지일 수 있다. The terminal 490 may output a vehicle image and vehicle information corresponding to the vehicle image. The vehicle management system may output a plurality of vehicle images and vehicle information corresponding to each vehicle image. The plurality of vehicle images may be images captured at various angles with respect to the vehicle.

이하에서는, 도 55를 참조하여 공유 차량 관리 시스템의 차량 정보 출력 화면을 설명하도록 한다.Hereinafter, a vehicle information output screen of the shared vehicle management system will be described with reference to FIG. 55 .

4.2.4.2 차량 정보 출력 실시예4.2.4.2 Example of vehicle information output

도 55는 일 실시예에 따른 단말기(490)에서 차량 정보 및/또는 보조 정보를 출력하는 화면을 설명하기 위한 도면이다.55 is a diagram for explaining a screen for outputting vehicle information and/or auxiliary information in the terminal 490 according to an embodiment.

일 실시예에 따르면, 단말기(490)는 획득된 차량 정보 및/또는 차량 정보에 기초하여 획득된 보조 정보를 출력할 수 있다. 단말기(490)는 이용자 또는 관리자의 정보 통신 기기에 차량 정보 및/또는 보조 정보를 출력할 수 있다According to an embodiment, the terminal 490 may output the obtained vehicle information and/or auxiliary information obtained based on the vehicle information. The terminal 490 may output vehicle information and/or auxiliary information to the information communication device of the user or manager.

단말기(490)는 공유 차량에 추가 손상 정보가 검출된 경우, 차량 정보 및/또는 보조 정보를 출력할 수 있다. 또한, 단말기(490)는 이용자의 공유 차량 이용 전/후 공유 차량에 추가 손상이 검출된 경우, 차량 정보 및/또는 보조 정보를 출력할 수 있다. 또한, 단말기(490)는 공유 차량의 관리를 위해 추가 손상 정보가 검출되지 않아도, 차량 정보 및/또는 보조 정보를 출력할 수 있다.The terminal 490 may output vehicle information and/or auxiliary information when additional damage information is detected in the shared vehicle. Also, the terminal 490 may output vehicle information and/or auxiliary information when additional damage is detected in the shared vehicle before/after the user's shared vehicle use. In addition, the terminal 490 may output vehicle information and/or auxiliary information even if additional damage information is not detected for management of the shared vehicle.

도 55의 (a)는 공유 차량의 현재 외관 상태에 관한 정보를 출력하는 화면을 설명하기 위한 도면이다. 55 (a) is a diagram for explaining a screen for outputting information about the current external state of the shared vehicle.

도 55의 (a)를 참조하면, 일 실시예에 따른 공유 차량 외관 정보 화면은 손상 정보 테이블 및 차량 외관의 손상 정보가 표시되는 손상 이미지를 포함할 수 있다. Referring to (a) of FIG. 55 , the shared vehicle exterior information screen according to an embodiment may include a damage information table and a damage image on which damage information of the vehicle exterior is displayed.

차량 외관 정보 출력 화면은 공유 차량에 발생한 손상에 관한 정보를 표시하는 손상 정보 테이블을 포함할 수 있다. 손상 정보 테이블에는 손상이 발생한 차량 부품, 손상 종류, 손상 정도, 손상 개수 등을 포함할 수 있다.The vehicle exterior information output screen may include a damage information table that displays information on damage that has occurred in the shared vehicle. The damage information table may include damaged vehicle parts, types of damage, degree of damage, number of damage, and the like.

차량 외관 정보 출력 화면은 손상 정보가 표시되어 있는 손상 이미지를 포함할 수 있다. 상기 손상 이미지에는 손상 영역 정보가 포함될 수 있는데, 손상 영역 정보는 기존 손상 영역(ED)을 포함할 수 있다.The vehicle exterior information output screen may include a damage image in which damage information is displayed. The damaged image may include damaged area information, and the damaged area information may include an existing damaged area (ED).

차량 외관 정보 출력 화면은 기존 손상 정보에 대해 동의 여부를 선택할 수 있는 선택창을 포함할 수 있다. 이용자는 손상 영역에 관한 정보에 동의하는 경우 'Confirm' 버튼을 클릭할 수 있고, 동의하지 않는 경우 'Objection'버튼을 클릭할 수 있다. 상기 단말기(490)는 이용자에 의해 'Confirm'버튼이 클릭된 경우 상기 기존 손상 정보에 대한 일괄 동의가 수행되었음을 서버(499)로 알려줄 수 있다.The vehicle exterior information output screen may include a selection window for selecting whether to agree to the existing damage information. Users can click the 'Confirm' button if they agree to the information about the damaged area, or click the 'Objection' button if they do not agree. When the 'Confirm' button is clicked by the user, the terminal 490 may inform the server 499 that the collective agreement for the existing damage information has been performed.

또는 차량 외관 정보 출력화면은 손상 정보가 표시되어 있는 손상 이미지를 표시할 수 있다. 상기 단말기(490)는 상기 손상 이미지에 대한 이용자의 개별 동의가 진행될 수 있도록 차량 외관 정보 출력화면을 표시할 수 있다. 즉, 상기 단말기(490)의 손상 이미지에 대한 정보는 차량 이미지에 매핑되어 출력될 수 있고, 사용자의 조작에 의해 차량 이미지는 회전, 확대, 축소 또는 이동될 수 있다. 상기 단말기(490)는 차량 이미지 중 손상이 있는 부위에 동의를 할 수 있는 버튼을 표시할 수 있고, 이용자가 상기 버튼을 누르는 경우 개별 동의가 진행된 것으로 판단하여, 상기 동의 정보를 상기 서버(499)로 보낼 수 있다.Alternatively, the vehicle exterior information output screen may display a damage image in which damage information is displayed. The terminal 490 may display the vehicle exterior information output screen so that the user's individual consent to the damaged image can be progressed. That is, the information on the damaged image of the terminal 490 may be mapped to the vehicle image and output, and the vehicle image may be rotated, enlarged, reduced, or moved by a user's manipulation. The terminal 490 may display a button for consenting to the damaged part of the vehicle image, and when the user presses the button, it is determined that individual consent has been made, and the consent information is transferred to the server 499 can be sent to

도 55의 (b)는 공유 차량 관리 시스템의 출력 화면 중 차량 외관 촬영 요구 화면을 설명하기 위한 도면이다.55B is a view for explaining a vehicle exterior photographing request screen among output screens of the shared vehicle management system.

도 55의 (b)를 참조하면, 일 실시예에 따른 차량 외관 촬영 요구 화면은 가이드부와 촬영부를 포함할 수 있다. 차량 외관 촬영 요구 화면은 차량 외관의 주요 부위가 촬영될 수 있도록 촬영을 가이드해주는 가이드부와 차량 외관 촬영을 위한 촬영 버튼을 포함하는 촬영부를 포함할 수 있다. 이때, 일 실시예에 따른 차량 외관 촬영 요구 화면은 이용자가 차량을 이용하기 전에 필수적으로 출력되는 화면일 수 있으나, 이에 한정되는 것은 아니다. 즉, 차량 외관 촬영 요구 화면은 이용자에 의해 선택적으로 출력될 수 있다.Referring to FIG. 55B , the vehicle exterior photographing request screen according to an embodiment may include a guide unit and a photographing unit. The vehicle exterior photographing request screen may include a guide unit for guiding photographing so that a major part of the exterior of the vehicle can be photographed, and a photographing unit including a photographing button for photographing the exterior of the vehicle. In this case, the vehicle exterior photographing request screen according to an embodiment may be a screen that is essentially output before the user uses the vehicle, but is not limited thereto. That is, the vehicle exterior photographing request screen may be selectively output by the user.

도 55의 (c)는 차량 외관 촬영이 완료된 후 차량에 발생된 추가 손상 여부에 관한 정보를 출력하는 화면을 설명하기 위한 도면이다.FIG. 55C is a view for explaining a screen for outputting information on whether additional damage has occurred to the vehicle after photographing the exterior of the vehicle is completed.

도 55의 (c)를 참조하면, 일 실시예에 따른 차량 손상 정보 화면은 손상 정보 테이블, 추가 손상 발생에 대해 확인 또는 동의 여부를 선택할 수 있는 선택창 및/또는 추가 손상 정보가 표시되어 있는 손상 이미지를 포함할 수 있다. Referring to (c) of Figure 55, the vehicle damage information screen according to an embodiment is a damage information table, a selection window for selecting whether to confirm or agree to the occurrence of additional damage and/or damage in which additional damage information is displayed May contain images.

추가 손상 정보를 출력하는 화면은 공유 차량에 발생한 손상에 관한 정보를 표시하는 손상 정보 테이블을 포함할 수 있다. 손상 정보 테이블에는 손상이 발생한 차량 부품, 손상 종류, 손상 정도, 손상 개수 등을 포함할 수 있다.The screen for outputting additional damage information may include a damage information table that displays information about damage that has occurred to the shared vehicle. The damage information table may include damaged vehicle parts, types of damage, degree of damage, number of damage, and the like.

추가 손상 정보를 출력하는 화면은 신규 손상 정보에 대해 동의 여부를 선택할 수 있는 선택창을 포함할 수 있다. 이용자는 신규 손상 영역(ND)에 관한 정보에 동의하는 경우 'Confirm' 버튼을 클릭할 수 있고, 동의하지 않는 경우 'Objection'버튼을 클릭할 수 있다. 상기 단말기(490)는 이용자에 의해 'Confirm'버튼이 클릭된 경우 상기 기존 손상 정보에 대한 일괄 동의가 수행되었음을 서버(499)로 알려줄 수 있다.The screen for outputting the additional damage information may include a selection window for selecting whether to agree to the new damage information. The user can click the 'Confirm' button if they agree to the information about the new damaged area (ND), or click the 'Objection' button if they do not agree. When the 'Confirm' button is clicked by the user, the terminal 490 may inform the server 499 that the collective agreement for the existing damage information has been performed.

또는 상기 단말기(490)는 상술한 상기 기존 손상 정보에 대한 동의를 받는 절차와 같이 다수의 개별 버튼에 의해 신규 손상 정보에 대해 개별 동의를 받는 절차를 수행할 수도 있다.Alternatively, the terminal 490 may perform a procedure of obtaining an individual consent for the new damage information by using a plurality of individual buttons, like the procedure for obtaining the consent for the existing damage information described above.

추가 손상 정보를 출력하는 화면은 추가 손상 정보가 표시되어 있는 손상 이미지를 포함할 수 있다. 상기 손상 이미지에는 손상 영역 정보가 포함될 수 있는데, 손상 영역 정보는 기존 손상 영역(ED) 및 신규 손상 영역(ND)을 포함할 수 있다. 이때, 기존 손상 영역(ED) 및 신규 손상 영역(ND)은 서로 달리 표시될 수 있다. 기존 손상 영역(ED) 및 신규 손상 영역(ND)은 서로 다른 색상 또는 서로 다른 형태의 바운딩 박스로 표시될 수 있다.The screen outputting the additional damage information may include a damage image in which the additional damage information is displayed. The damaged image may include damaged area information, and the damaged area information may include an existing damaged area ED and a new damaged area ND. In this case, the existing damaged area ED and the new damaged area ND may be displayed differently. The existing damaged area ED and the new damaged area ND may be displayed with different colors or different types of bounding boxes.

도 55의 (d)는 공유 차량에 발생된 손상 정보에 관한 상세한 내용이 포함된 화면을 설명하기 위한 도면이다.55 (d) is a view for explaining a screen including detailed information regarding damage information that has occurred in the shared vehicle.

도 55의 (d)를 참조하면, 공유 차량 관리 시스템의 출력 화면은 이용자가 'Objection'버튼을 클릭하는 경우, 이용자의 공유 차량 이용 전 추출된 손상 이미지 및 이용자의 공유 차량 이용 후 추출된 손상 이미지를 표시할 수 있다. 이때, 공유 차량 이용 전 추출된 손상 이미지 및 공유 차량 이용 후 추출된 손상 이미지는 서로 대응되는 방향에서 검출된 손상 이미지일 수 있다. 다른 예로, 공유 차량 이용 전 추출된 손상 이미지 및 공유 차량 이용 후 추출된 손상 이미지는 적어도 하나 이상의 차량의 주요 부위를 포함하되, 상기 차량의 주요 부위는 적어도 하나 이상 공통될 수 있다. 한편, 공유 차량 이용 전 추출된 손상 이미지와 공유 차량 이용 후 추출된 손상 이미지는 실제 촬영된 이미지가 아닌 가공된 이미지 예컨대, 차량의 3D 이미지 상에 맵핑된 형태일 수 있다.Referring to (d) of FIG. 55 , when the user clicks the 'Objection' button, the output screen of the shared vehicle management system shows the damaged image extracted before the user's shared vehicle use and the damaged image extracted after the user's shared vehicle use. can be displayed. In this case, the damaged image extracted before using the shared vehicle and the damaged image extracted after using the shared vehicle may be damaged images detected in directions corresponding to each other. As another example, the damaged image extracted before using the shared vehicle and the damaged image extracted after using the shared vehicle may include at least one main part of the vehicle, and at least one main part of the vehicle may be common. On the other hand, the damaged image extracted before using the shared vehicle and the damaged image extracted after using the shared vehicle may be in the form of mapped onto a processed image, eg, a 3D image of a vehicle, rather than an actual photographed image.

4.3 컨펌 시나리오4.3 Confirmation Scenario

일 실시예에 따르면, 모바일 베이스 차량 관리 프로세스는 공유 차량 이용자가 공유 차량 이용 후 공유 차량의 외관을 촬영하고 추가 손상 정보에 대한 동의 단계를 거쳐야 차량 반납 처리가 완료되는 단계를 포함할 수 있다.According to an embodiment, the mobile-based vehicle management process may include a step in which the vehicle return process is completed only after the shared vehicle user uses the shared vehicle, photographs the exterior of the shared vehicle, and passes a consent step for additional damage information.

또한, 모바일 베이스 차량 관리 프로세스는 공유 차량 이용자가 공유 차량 이용 전 공유 차량의 현재 외관 상태에 동의하는 경우 차량 이용이 가능하도록 하는 단계를 포함할 수 있다.In addition, the mobile-based vehicle management process may include enabling the vehicle to be used when the shared vehicle user agrees to the current appearance state of the shared vehicle before using the shared vehicle.

또한, 모바일 베이스 차량 관리 프로세스는 공유 차량 이용자가 공유 차량 이용 전 공유 차량의 현재 외관 상태에 동의하지 않는 경우 차량 외관 중 동의하지 않는 부분 또는 차량 외관 전체에 대해 재촬영 및 등록하는 단계를 수행하여야 차량 이용이 가능하도록 하는 단계를 포함할 수 있다.In addition, in the mobile-based vehicle management process, if the shared vehicle user does not agree with the current exterior state of the shared vehicle before using the shared vehicle, the steps of re-photographing and registering the part of the vehicle exterior or the entire exterior of the vehicle must be performed. It may include the step of making it available.

도 56은 복수의 공유 차량 이용자가 시간 순서에 따라 공유 차량을 이용하고 이용을 종료하는 과정을 개략적으로 표현한 도면이다.56 is a diagram schematically illustrating a process in which a plurality of shared vehicle users use the shared vehicle and end the use according to time sequence.

도 56을 참조하면, 제1 이용자는 제1 시점(T1)에 공유 차량 이용을 시작하고, 제2 시점(T2)에 공유 차량 이용을 종료할 수 있다. 또한, 제2 이용자는 제3 시점(T3)에 공유 차량 이용을 시작하고, 제4 시점(T4)에 공유 차량 이용을 종료할 수 있다. 이때, 제1 이용자와 제2 이용자는 동일한 공유 차량을 이용함을 전제할 수 있다. 또한, 제1 시점 내지 제4 시점은 각각 서로 다른 시점을 의미하고, 제1 시점은 제3 시점보다 앞선 시점일 수 있다.Referring to FIG. 56 , the first user may start using the shared vehicle at a first time point T1 and end using the shared vehicle at a second time point T2 . In addition, the second user may start using the shared vehicle at the third time point T3 and end the shared vehicle use at the fourth time point T4 . In this case, it may be assumed that the first user and the second user use the same shared vehicle. In addition, the first to fourth time points may refer to different time points, respectively, and the first time point may be a time prior to the third time point.

또한, 도 56을 참조하면, 제1 이용자의 공유 차량 이용 시기는 제1 시점과 제2 시점 사이인 제1 구간(P1)이고, 제2 이용자의 공유 차량 이용 시기는 제3 시점과 제4 시점 사이인 제3 구간(P3)이다. 즉, 제1 구간(P1)은 제1 이용자가 차량을 이용한 기간을 의미할 수 있고, 제3 구간(P3)은 제2 이용자가 차량을 이용한 기간을 의미할 수 있다.In addition, referring to FIG. 56 , the shared vehicle use time of the first user is a first section P1 between the first time point and the second time point, and the second user's shared vehicle use time is the third time point and the fourth time point. It is the third section P3 that is in between. That is, the first section P1 may mean a period in which the first user uses the vehicle, and the third section P3 may mean a period in which the second user uses the vehicle.

한편, 제1 이용자의 공유 차량 이용 종료 이후부터 제2 이용자의 공유 차량 이용 시작 전까지의 시기는 공유 차량이 이용자에 의해 운행되지 않고 주차되어 있는 시기를 의미할 수 있다. 즉, 제2 시점(T2)과 제3 시점(T3)사이의 시기인 제2 구간(P2)은 공유 차량이 이용자에 의해 운행되지 않고 주차되어 있는 구간을 의미할 수 있다.On the other hand, the period from the end of the first user's use of the shared vehicle to the start of the second user's use of the shared vehicle may mean a time when the shared vehicle is parked without being driven by the user. That is, the second section P2, which is a period between the second time point T2 and the third time point T3, may mean a section in which the shared vehicle is parked without being driven by the user.

이하에서는 도 56을 참조하여, 공유 차량 이용자가 공유 차량 이용 전 공유 차량의 기존 손상 정보에 대하여 동의 후 차량을 이용하는 단계, 동의하지 않는 경우 차량 외관을 재촬영 후 이용하는 단계 및 공유 차량 이용자가 공유 차량 이용 후 공유 차량의 외관 촬영 후 반납하는 단계에 관하여 상세히 설명한다.Hereinafter, referring to FIG. 56 , the step of using the vehicle after the shared vehicle user consents to the existing damage information of the shared vehicle before using the shared vehicle, the step of using the vehicle after re-photographing the exterior in case of disagreement, and the user of the shared vehicle using the shared vehicle The steps of returning the shared vehicle after taking a picture of it after use will be described in detail.

4.3.1 차량 이용 후 차량 외관 촬영 및 추가 손상 관리4.3.1 Vehicle exterior photography and additional damage management after vehicle use

도 57은 공유 차량 이용자가 공유 차량 이용 후 차량 외관을 촬영하고 추가 손상 정보를 확인하는 차량 반납 프로세스의 설명을 위한 도면이다. 이하에서는 도 56 및 도 57을 참조하여, 공유 차량 이용자가 공유 차량 이용 후 차량 외관을 촬영하고 추가 손상 정보를 확인하는 과정을 설명하도록 한다.57 is a view for explaining a vehicle return process in which a shared vehicle user takes a picture of the vehicle exterior and checks additional damage information after using the shared vehicle. Hereinafter, with reference to FIGS. 56 and 57, a process in which a shared vehicle user photographs the exterior of the vehicle after using the shared vehicle and confirms additional damage information will be described.

도 57을 참조하면, 모바일 베이스 차량관리 시스템은 단말기(490) 및 서버(499)를 포함할 수 있다. 상기 단말기(490)는 제1 이용자의 단말기(490)일 수 있다. 상기 제1 이용자의 차량 이용 시간은 제2 시점(T2)에 종료될 수 있다. Referring to FIG. 57 , the mobile-based vehicle management system may include a terminal 490 and a server 499 . The terminal 490 may be the terminal 490 of the first user. The vehicle use time of the first user may end at a second time point T2.

상기 제1 이용자의 단말기(490)는 상기 제1 이용자의 제어에 의해 차량 이용 시간이 종료되었음을 인식할 수 있고, 또는 상기 서버(499)로부터 전달받은 정보에 의해 상기 제1 이용자의 단말기(490)에 차량 이용 시간이 종료되었음이 표시될 수도 있다.The first user's terminal 490 may recognize that the vehicle use time has expired under the control of the first user, or the first user's terminal 490 based on information received from the server 499 It may be displayed that the vehicle use time has ended.

상기 제1 이용자의 단말기(490)는 출력부(496)를 통해 촬영 가이드를 표시할 수 있다. 상기 출력부(496)를 통한 촬영 가이드의 표시는 4.2.1.1에서 설명한 바와 같이 선택적인 과정일 수 있다.The first user's terminal 490 may display a shooting guide through the output unit 496 . The display of the photographing guide through the output unit 496 may be an optional process as described in 4.2.1.1.

상기 제1 이용자의 단말기(490)는 상기 제1 이용자의 제어에 의해 상기 카메라 모듈(491)을 통해 제1 이미지를 촬영할 수 있다. 상기 제1 이미지는 제1 이용자가 이용한 차량의 외관과 관련된 적어도 하나 이상의 이미지를 포함할 수 있다. 상기 제1 이미지는 차량 외관의 주요 부위를 포함하는 복수의 이미지를 일 수 있다. 상기 제1 이미지는 제2 시점(T2)과 대응되는 시점에 촬영된 이미지일 수 있다.The first user's terminal 490 may take a first image through the camera module 491 under the control of the first user. The first image may include at least one image related to the exterior of the vehicle used by the first user. The first image may be a plurality of images including a main part of the exterior of the vehicle. The first image may be an image captured at a time point corresponding to the second time point T2.

제2 이용자의 단말기(490) 또한 상기 제2 이용자의 제어에 의해 차량 이용시간이 종료되는 제4 시점(T4)에 카메라 모듈(491)을 이용하여 제3 이미지를 촬영할 수 있다. 상기 제3 이미지는 제2 이용자가 이용한 차량의 외관과 관련된 적어도 하나 이상의 이미지를 포함할 수 있다. 상기 제3 이미지는 차량 외관의 주요 부위를 포함하는 복수의 이미지를 일 수 있다. 상기 제3 이미지는 제4 시점(T4)과 대응되는 시점에 촬영된 이미지일 수 있다.The second user's terminal 490 may also take a third image using the camera module 491 at a fourth time T4 when the vehicle use time ends under the control of the second user. The third image may include at least one image related to the exterior of the vehicle used by the second user. The third image may be a plurality of images including a main part of the exterior of the vehicle. The third image may be an image captured at a time point corresponding to the fourth time point T4.

상기 제1 이용자의 단말기(490)는 제1 이미지를 상기 저장부(493)에 저장한 후 상기 통신부(494)를 통해 상기 서버(499)로 전송할 수 있다. 상기 제1 이용자의 단말기(490)는 제2 시점(T2)과 대응되는 시점에 상기 제1 이미지를 상기 서버(499)로 전송할 수 있다. 또한, 제2 이용자의 단말기(490)도 제4 시점(T4)과 대응되는 시점에 상기 제3 이미지를 상기 서버(499)로 전송할 수 있다.The terminal 490 of the first user may transmit the first image to the server 499 through the communication unit 494 after storing the first image in the storage unit 493 . The first user's terminal 490 may transmit the first image to the server 499 at a time point corresponding to the second time point T2 . Also, the second user's terminal 490 may transmit the third image to the server 499 at a time point corresponding to the fourth time point T4 .

상기 서버(499)는 상기 제1 이용자 단말기(490)로부터 상기 제1 이미지를 수신할 수 있다.The server 499 may receive the first image from the first user terminal 490 .

상기 서버(499)는 상기 제1 이미지에 기초하여 차량의 추가손상 유무를 판단할 수 있다.The server 499 may determine whether there is additional damage to the vehicle based on the first image.

상기 서버(499)는 상기 제1 이미지와 서버(499)에 저장된 데이터를 비교하여 공유 차량의 추가손상 유무를 판단할 수 있다. 상기 서버(499)에 저장된 데이터는 해당 공유 차량의 기존 손상정보일 수 있다. 상기 서버(499)는 상기 제1 이미지를 분석하여 해당 공유 차랑의 추가손상 유무를 판단할 수 있다. 즉, 서버(499)는 공유 차량 이용자가 이용한 차량에 공유 차량 이용자의 운행 중 발생한 손상이 있는지 판단할 수 있다.The server 499 may compare the first image with data stored in the server 499 to determine whether the shared vehicle is further damaged. The data stored in the server 499 may be existing damage information of the shared vehicle. The server 499 may analyze the first image to determine whether there is additional damage to the shared vehicle. That is, the server 499 may determine whether there is damage to the vehicle used by the shared vehicle user while the shared vehicle user is driving.

결국, 서버(499)는 공유 차량 이용자가 이용 종료 후 공유 차량을 촬영한 이미지를 공유 차량의 기존 손상 정보와 비교하여 해당 차량에 발생한 추가 손상 정보를 파악함으로써, 공유 차량에 발생한 손상에 대해 책임 소재를 명확히 할 수 있고, 공유 차량에 발생하는 손상을 시계열적으로 관리하여 체계적인 관리가 가능하도록 할 수 있다. 예시적으로, 서버(499)는 제3 이미지와 제1 이미지를 비교하여 추가 손상 정보를 파악함으로써, 제1 이용자의 이용 종료시점인 제2 시점(T2)부터 제2 이용자의 이용 종료시점인 제4 시점(T4)사이에 발생한 손상 정보를 파악 및 관리할 수 있다. 다시 말해, 서버(499)는 제3 이미지와 제1 이미지를 비교하여 추가 손상 정보를 파악함으로써, 제2 구간(P2) 또는 제3 구간(P3)에 발생한 손상 정보를 파악 및 관리할 수 있다.In the end, the server 499 compares the image of the shared vehicle after the shared vehicle user uses the shared vehicle with the existing damage information of the shared vehicle to determine additional damage information that occurred in the vehicle, thereby taking responsibility for the damage caused to the shared vehicle. can be clarified, and damage that occurs to shared vehicles can be managed in a time-series manner to enable systematic management. Illustratively, the server 499 compares the third image with the first image to determine additional damage information, thereby starting from the second time point T2 which is the end point of the first user's use to the second time point which is the end point of the second user's use. Damage information that occurred between 4 time points (T4) can be identified and managed. In other words, the server 499 may identify and manage damage information occurring in the second section P2 or the third section P3 by comparing the third image and the first image to determine additional damage information.

상기 서버(499)는 차량에 추가 손상이 발생되지 않았다고 판단하는 경우, 해당 차량에 관한 손상 정보를 업데이트할 수 있다. 즉, 서버(499)는 차량에 추가 손상이 발생되지 않았다고 판단하는 경우 해당 차량에 추가 손상이 발생되지 않았으며, 해당 차량에 관한 손상 정보는 기존 손상 정보와 동일하다는 내용으로 해당 차량에 관한 손상 정보를 업데이트할 수 있다. 이때, 상기 업데이트된 손상 정보를 제1 정보로 정의할 수 있다.The server 499 may update damage information about the vehicle when it is determined that no additional damage has occurred to the vehicle. That is, when the server 499 determines that no additional damage has occurred to the vehicle, no additional damage has occurred to the vehicle, and the damage information about the vehicle is the same as the existing damage information. can be updated. In this case, the updated damage information may be defined as first information.

예시적으로, 서버(499)는 제2 시점(T2) 또는 제4 시점(T4)에 촬영된 제1 이미지 또는 제3 이미지로부터 차량에 추가 손상이 발생되지 않았다고 판단하는 경우, 해당 차량에 관한 손상 정보는 기존 손상 정보와 동일하다는 내용으로 해당 차량에 관한 손상 정보를 업데이트할 수 있다.For example, when the server 499 determines that no additional damage has occurred to the vehicle from the first image or the third image captured at the second time point T2 or the fourth time point T4, damage to the vehicle Damage information about the vehicle can be updated with the content that the information is the same as the existing damage information.

다른 예로, 서버(499)는 제4 시점(T4)에 촬영된 제3 이미지로부터 차량에 추가 손상이 발생되지 않았다고 판단하는 경우, 해당 차량에 관한 손상 정보는 제2 시점(T2)에 촬영된 제1 이미지로부터 판단된 손상 정보와 동일하다는 내용으로 업데이트할 수 있다.As another example, when the server 499 determines that no additional damage has occurred to the vehicle from the third image captured at the fourth time point T4 , the damage information on the vehicle is the second time point T2 captured at the second time point T2 . 1 It can be updated with the same damage information as determined from the image.

서버(499)는 차량에 추가 손상이 발생되었다고 판단하는 경우, 해당 추가 손상 정보를 이용자의 단말기(490)로 전송할 수 있다.When the server 499 determines that additional damage has occurred to the vehicle, the server 499 may transmit the corresponding additional damage information to the user's terminal 490 .

이용자의 단말기(490)는 서버(499)로부터 추가 손상 정보를 수신할 수 있다.The user's terminal 490 may receive additional damage information from the server 499 .

상기 추가 손상 정보가 수신된 경우 상기 이용자의 단말기(490)는 상기 이용자에게 추가 손상에 대한 동의여부를 확인할 수 있다.When the additional damage information is received, the user's terminal 490 may confirm whether the user agrees to the additional damage.

상기 이용자의 단말기(490)는 출력부(496)를 이용하여 상기 이용자에게 추가 손상에 대한 동의여부를 표시할 수 있고, 이용자로하여금 해당 추가 손상 정보에 대한 동의 여부를 선택하도록 할 수 있다. 이용자는 입력부(495)를 통해 상기 추가 손상 정보가 자신의 차량 이용 기간 중 발생한 손상인지에 대하여 동의 여부를 선택할 수 있다.The user's terminal 490 may display whether or not to consent to the additional damage to the user by using the output unit 496 and allow the user to select whether to agree to the additional damage information. The user may select whether to agree to whether the additional damage information is damage that occurred during the period of using the vehicle through the input unit 495 .

이 경우 상기 추가 손상 정보는 현재 이용자의 이용 기간 중 발생한 추가 손상 정보를 포함할 수 있다. 예시적으로, 상기 추가 손상 정보는 제1 이용자의 이용 시작시점인 제1 시점(T1)부터 제1 이용자의 이용 종료시점인 제2 시점(T2)사이에 차량에 추가로 발생한 손상 정보를 의미할 수 있다. 즉, 상기 추가 손상 정보는 제1 이용자의 이용 기간인 제1 구간(P1)에서 차량에 추가로 발생한 손상 정보를 의미할 수 있다.In this case, the additional damage information may include additional damage information that occurred during the period of use of the current user. Illustratively, the additional damage information may refer to damage information additionally generated to the vehicle between the first time point T1, which is the start time of the first user's use, and the second time point T2, which is the end point of the first user's use. can That is, the additional damage information may refer to damage information additionally generated in the vehicle in the first section P1, which is the period of use of the first user.

상기 제4 시점(T4)에서의 상기 추가 손상 정보는 제2 이용자의 이용 시작시점인 제3 시점(T3)부터 제2 이용자의 이용 종료시점인 제4 시점(T4)사이에 차량에 추가로 발생한 손상 정보를 의미할 수 있다. 즉, 상기 추가 손상 정보는 제2 이용자의 이용 기간인 제3 구간(P3)에서 차량에 추가로 발생한 손상 정보를 의미할 수 있다.The additional damage information at the fourth time point T4 is additionally generated in the vehicle between the third time point T3, which is the start time of the second user's use, and the fourth time point T4, which is the use end time point of the second user. It may mean damage information. That is, the additional damage information may refer to damage information additionally generated in the vehicle in the third section P3, which is the period of use of the second user.

상기 추가 손상 정보는 제1 이용자의 이용 종료시점인 제2 시점(T2)부터 제2 이용자의 이용 종료시점인 제4 시점(T4)사이에 차량에 추가로 발생한 손상 정보를 의미할 수 있다. 즉, 상기 추가 손상 정보는 제2 구간(P2) 또는 제3 구간(P3)에서 차량에 추가로 발생한 손상 정보를 의미할 수 있다.The additional damage information may refer to damage information additionally generated in the vehicle between the second time point T2, which is the end point of the first user's use, and the fourth time point T4, which is the end point of the second user's use. That is, the additional damage information may refer to damage information additionally generated in the vehicle in the second section P2 or the third section P3.

다시 말해, 제2 이용자는 단말기(490)가 서버(499)로부터 상기 추가 손상 정보를 수신하면 상기 추가 손상 정보가 제2 시점(T2) 또는 제3 시점(T3)부터 제4 시점(T4) 사이에 발생한 손상인지에 대하여 동의 여부를 선택할 수 있다. 다른 예로, 제2 이용자는 단말기(490)가 서버(499)로부터 상기 추가 손상 정보를 수신하면 상기 추가 손상 정보가 제2 구간(P2) 또는 제3 구간(P3)에서 발생한 손상인지에 대하여 동의 여부를 선택할 수 있다.In other words, when the second user terminal 490 receives the additional damage information from the server 499, the additional damage information is transmitted between the second time point T2 or the third time point T3 and the fourth time point T4. You can choose whether or not to agree on whether or not the damage has occurred. As another example, whether the second user agrees on whether the additional damage information is damage occurring in the second section (P2) or the third section (P3) when the terminal 490 receives the additional damage information from the server 499 can be selected.

이용자의 단말기(490)에 의한 상기 추가 손상 정보를 확인하는 절차를 거쳐야 차량 반납 처리는 완료될 수 있다. 즉, 이용자가 예약한 시간이 경과하면 차량 이용은 종료되지만, 이후 이용자가 상기 추가 손상 정보에 동의 또는 이의제기 단계를 거쳐야 차량 반납 처리가 완료될 수 있다.The vehicle return process can be completed only after a procedure of confirming the additional damage information by the user's terminal 490 . That is, when the time reserved by the user elapses, the use of the vehicle is terminated, but the vehicle return process can be completed only after the user agrees to or object to the additional damage information.

이용자가 상기 추가 손상 정보에 동의하는 경우 차량 반납 처리는 완료될 수 있다. 이용자가 상기 추가 손상 정보에 이의가 없다고 인정하는 경우 차량 반납 처리는 완료될 수 있다.If the user agrees to the additional damage information, the vehicle return process can be completed. If the user acknowledges that there is no objection to the additional damage information, the vehicle return process may be completed.

예시적으로, 제1 이용자가 상기 제1 이용자 단말기(490)를 이용하여 상기 추가 손상 정보에 동의하는 경우 차량 반납 처리는 완료될 수 있다.For example, when the first user agrees to the additional damage information using the first user terminal 490 , the vehicle return process may be completed.

제2 이용자가 제2 이용자 단말기(490)를 이용하여 상기 추가 손상 정보가 제2 시점(T2) 또는 제3 시점(T3)부터 제4 시점(T4)사이에 차량에 추가로 발생한 손상이거나, 제2 구간(P2) 또는 제3 구간(P3)에서 차량에 추가로 발생한 손상임임에 동의하는 경우 차량 반납 처리는 완료될 수 있다.When the second user uses the second user terminal 490 to determine whether the additional damage information is additional damage to the vehicle between the second time point T2 or the third time point T3 and the fourth time point T4, If it is agreed that the damage is additionally caused to the vehicle in the second section P2 or the third section P3, the vehicle return process may be completed.

이용자가 상기 추가 손상 정보에 동의하지 않는 경우 이용자는 상기 추가 손상 정보에 동의하지 않는 이유에 대해 이의제기를 할 수 있고, 이의제기가 완료되면 차량 반납 처리는 완료될 수 있다. 즉, 이용자가 상기 추가 손상 정보에 전부 또는 일부 동의하지 않는 경우, 동의하지 않는 부분에 대해서 이의제기 절차를 거칠 수 있고, 상기 이의제기 절차가 완료되면 차량 반납 처리는 완료될 수 있다.If the user does not agree to the additional damage information, the user may object to the reason for not agreeing to the additional damage information, and when the objection is completed, the vehicle return process may be completed. That is, when the user does not agree in whole or in part with the additional damage information, the objection procedure may be performed for the part to which the user does not agree, and when the objection procedure is completed, the vehicle return process may be completed.

예시적으로, 제2 이용자가 상기 추가 손상 정보가 제2 시점(T2) 또는 제3 시점(T3)부터 제4 시점(T4)사이에 차량에 추가로 발생한 손상이거나, 제2 구간(P2) 또는 제3 구간(P3)에서 차량에 추가로 발생한 손상임임에 전부 동의하지 않거나 일부 동의하지 않는 경우, 동의하지 않는 부분에 대해서 이의제기를 거칠 수 있다. 이후, 상기 이의제기 절차가 완료되면 차량 반납 처리는 완료될 수 있다.Illustratively, if the second user receives the additional damage information from the second time point (T2) or the third time point (T3) to the fourth time point (T4), the damage additionally occurred to the vehicle, or the second section (P2) or In the third section (P3), if you do not fully agree or partially agree that it is an additional damage to the vehicle, you may raise an objection to the part you do not agree with. Thereafter, when the objection procedure is completed, the vehicle return process may be completed.

제1 이용자의 단말기(490)는 차량 반납 처리가 완료되면 추가 손상 정보에 이용자의 동의 여부를 반영하여 서버(499)에 전송할 수 있다.When the vehicle return process is completed, the first user's terminal 490 may transmit the additional damage information to the server 499 by reflecting the user's consent.

또한, 서버(499)는 상기 제1 이용자의 단말기(490)로부터 수신된 제1 이용자의 동의 여부가 반영된 추가 손상 정보를 토대로 차량 손상 정보를 업데이트할 수 있다. 이때, 상기 업데이트된 차량 손상 정보를 제1 정보로 정의할 수 있다. In addition, the server 499 may update the vehicle damage information based on the additional damage information in which the consent of the first user received from the terminal 490 of the first user is reflected. In this case, the updated vehicle damage information may be defined as first information.

이처럼 서버(499)가 단말기(490)로부터 획득된 정보를 토대로 차량 손상 정보를 업데이트함으로써 차량의 외관에 발생되어 있는 손상 정보를 시계열적으로 관리할 수 있고, 또한 차량의 외관에 발생되어 있는 손상 정보의 책임 소재를 명확히 하여 수리, 점검 및 교체 비용 청구가 원활히 이루어질 수 있도록 할 수 있다.As such, by updating the vehicle damage information based on the information obtained from the terminal 490, the server 499 can manage the damage information occurring on the exterior of the vehicle in time-series, and damage information on the exterior of the vehicle. By clarifying the location of responsibility for repair, inspection and replacement, it can be done smoothly.

4.3.2 차량 이용 전 기존 손상 정보에 대한 동의 여부 및 차량 외관 재촬영4.3.2 Whether you agree to the existing damage information and re-photographed the vehicle exterior before using the vehicle

일 실시예에 따르면, 모바일 베이스 차량 관리 프로세스는 공유 차량 이용자가 차량 이용 전 차량의 기존 손상 정보에 동의하는 경우 차량 이용이 가능하도록 하는 단계를 포함할 수 있다. 또한, 모바일 베이스 차량 관리 프로세스는 공유 차량 이용자가 차량 이용 전 차량의 기존 손상 정보에 전부 또는 일부 동의하지 않는 경우 차량 외관 중 동의하지 않는 부분 또는 차량 외관 전체에 대해 재 촬영하는 단계를 수행하여야 차량 이용이 가능하도록 하는 단계를 포함할 수 있다.According to an embodiment, the mobile-based vehicle management process may include enabling the vehicle to be used when the shared vehicle user agrees to the existing damage information of the vehicle before using the vehicle. In addition, in the mobile-based vehicle management process, if the shared vehicle user does not agree to all or part of the existing damage information of the vehicle before using the vehicle, the step of re-photographing the part of the vehicle exterior or the entire exterior of the vehicle must be performed. It may include steps to make this possible.

도 58은 공유 차량 이용자가 공유 차량 이용 전 공유 차량의 기존 손상 정보에 동의 여부를 표시하고 동의하지 않을 시 차량 외관을 촬영하는 차량 이용 프로세스의 설명을 위한 도면이다. 이하에서는 도 56 및 도 58을 참조하여, 공유 차량 이용자가 공유 차량 이용을 위해 공유 차량 이용 전 수행해야 하는 일련의 단계들에 대하여 설명한다.58 is a diagram for explaining a vehicle use process in which a shared vehicle user displays whether or not to agree to the existing damage information of the shared vehicle before using the shared vehicle, and takes a picture of the exterior of the vehicle when the user does not agree. Hereinafter, a series of steps that the shared vehicle user must perform before using the shared vehicle in order to use the shared vehicle will be described with reference to FIGS. 56 and 58 .

도 58을 참조하면, 이용자의 단말기(490)는 차량 이용 일정시간 이전에 스마트키를 활성화시킬 수 있다. 상기 서버(499)는 상기 이용자의 단말기(490)의 스마트키가 활성화될 수 있도록 제어할 수 있다. 상기 제2 이용자의 단말기(490)는 상기 제3 시점의 일정시간 이전에 스마트키를 활성화시킬 수 있다.Referring to FIG. 58 , the user's terminal 490 may activate the smart key before a predetermined time of using the vehicle. The server 499 may control the smart key of the user's terminal 490 to be activated. The second user's terminal 490 may activate the smart key before a predetermined time of the third time point.

상기 제2 이용자의 단말기(490)는 상기 스마트키가 활성화되면 서버(499)에 해당 차량에 관한 기존 손상 정보를 요청할 수 있다.When the smart key is activated, the second user's terminal 490 may request the server 499 for existing damage information on the vehicle.

이때, 상기 기존 손상 정보는 공유 차량의 현재 외관 상태에 대한 정보를 의미할 수 있다. 또한, 상기 기존 손상 정보는 현재 이용자가 차량을 이용하기 직전에 차량을 이용한 이전 이용자에 의해 업데이트 되어있는 차량의 손상 정보를 의미할 수 있다. 예시적으로, 상기 기존 손상 정보는 공유 차량 이용자가 공유 차량을 이용하기 전 공유 차량에 이미 발생되어 있던 손상 정보를 의미할 수 있다. 다른 예로, 상기 기존 손상 정보는 이전 공유 차량 이용자에 의해 공유 차량에 발생된 손상 정보를 의미할 수 있다. 또 다른 예로, 상기 기존 손상 정보는 이전 공유 차량 이용자가 공유 차량 반납 완료 후 현재 공유 차량 이용자가 공유 차량을 이용하기 전 발생된 손상 예컨대, 주차 중 손상 등을 의미할 수 있다.In this case, the existing damage information may mean information about the current appearance state of the shared vehicle. In addition, the existing damage information may mean damage information of the vehicle updated by a previous user who used the vehicle just before the current user uses the vehicle. For example, the existing damage information may mean damage information that has already occurred in the shared vehicle before the shared vehicle user uses the shared vehicle. As another example, the existing damage information may refer to damage information generated in the shared vehicle by a previous shared vehicle user. As another example, the existing damage information may mean damage that occurred before the current shared vehicle user uses the shared vehicle after the previous shared vehicle user completes returning the shared vehicle, for example, damage while parking.

또한, 도 56 및 도 58을 참조하면, 상기 기존 손상 정보는 제1 이용자가 차량 이용 후 제2 시점(T2)에서 촬영한 제1 이미지로부터 업데이트 되어 있는 제1 정보를 의미할 수 있다. 예를 들어, 제2 이용자를 현재 이용자로 정의하고, 제1 이용자를 이전 이용자로 정의하면, 상기 기존 손상 정보는 제1 시점(T1)부터 제2 시점(T2) 또는 제3 시점(T3)사이에 발생한 손상 정보를 의미할 수 있고, 또한 상기 기존 손상 정보는 제1 구간(P1) 또는 제2 구간(P2)에서 발생한 손상 정보를 의미할 수 있다. 또는, 상기 제1 이용자가 어떠한 촬영도 진행하지 않은 경우에 상기 기존 손상 정보는 가장 최근의 이미지를 촬영한 이용자가 촬영한 이미지일 수 있다.Also, referring to FIGS. 56 and 58 , the existing damage information may mean first information updated from a first image captured at a second time point T2 after the first user uses the vehicle. For example, if the second user is defined as the current user and the first user is defined as the previous user, the existing damage information is between the first time point (T1) and the second time point (T2) or the third time point (T3). It may mean damage information that has occurred in , and the existing damage information may mean damage information that occurred in the first section P1 or the second section P2. Alternatively, when the first user does not proceed with any photographing, the existing damage information may be an image photographed by the user who has photographed the most recent image.

한편, 상기 기존 손상 정보는 공유 차량의 실제 이미지를 통해 표현되거나 가공된 3D 이미지를 통해 표현될 수 있다. 예를 들어, 기존 손상 정보는 공유 차량의 실제 이미지 상에 손상 부위가 바운딩 박스로 표시된 형태로 제공될 수 있다. 다른 예로, 기존 손상 정보는 공유 차량에 관한 정보가 반영된 가공된 3D 이미지 상에 손상 부위가 바운딩 박스로 표시된 형태로 제공될 수 있다. 이때, 기존 손상 정보가 가공된 3D 이미지 형태로 제공되는 경우, 공유 차량 이용자는 상기 3D 이미지를 360도 회전하는 방법 등을 통해 차량 외관의 전체적인 손상 정보를 보다 편리하게 파악할 수 있다.Meanwhile, the existing damage information may be expressed through an actual image of the shared vehicle or may be expressed through a processed 3D image. For example, the existing damage information may be provided in a form in which a damaged area is displayed as a bounding box on an actual image of the shared vehicle. As another example, the existing damage information may be provided in a form in which a damaged area is displayed as a bounding box on a processed 3D image in which information about a shared vehicle is reflected. In this case, when the existing damage information is provided in the form of a processed 3D image, the shared vehicle user can more conveniently grasp the overall damage information of the vehicle exterior through a method of rotating the 3D image by 360 degrees.

서버(499)는 제2 이용자의 단말기(490)로부터 기존 손상 정보 요청 메시지를 수신한 후, 기존 손상 정보를 검색하여 해당 내용을 제2 이용자의 단말기(490)에 전송할 수 있다. 이후 제2 이용자의 단말기(490)는 상기 기존 손상 정보를 수신하고 제2 이용자의 단말기(490)에 기존 손상 정보를 표시한 후, 제2 이용자에게 차량 외관 정보를 확인하라는 메시지를 표시할 수 있다.After receiving the existing damage information request message from the second user's terminal 490 , the server 499 may search for the existing damage information and transmit the corresponding content to the second user's terminal 490 . After that, the second user's terminal 490 receives the existing damage information, displays the existing damage information on the second user's terminal 490, and then displays a message to the second user to check the vehicle exterior information. .

제2 이용자는 상기 기존 손상 정보에 동의 여부를 선택할 수 있다. 즉, 제2 이용자의 단말기(490)는 공유 차량 이용자에게 공유 차량에 발생되어 있는 기존 손상 정보를 표시한 후, 상기 제2 이용자가 기존 손상 정보에 대한 동의 여부를 선택할 수 있는 화면을 표시할 수 있다. 상기 동의는 전체 손상 정보에 대한 일괄 동의와 부분동의를 포함할 수 있다.The second user can choose whether to agree to the existing damage information. That is, the second user's terminal 490 displays information on the existing damage that has occurred in the shared vehicle to the shared vehicle user, and then displays a screen where the second user can select whether to agree to the existing damage information. there is. The consent may include a collective consent and a partial consent for the entire damage information.

모바일 베이스 차량 관리 프로세스의 제2 이용자의 단말기(490)는 제2 이용자가 공유 차량 이용 전 공유 차량의 기존 손상 정보에 동의하는 경우 공유 차량의 문 열림 기능 및 시동 기능을 활성화시킬 수 있다. 상기 제2 이용자의 단말기(490)는 제2 이용자가 단말기(490)를 통해 일괄 동의를 입력하는 경우 공유 차량의 문 열림 기능 및 시동 기능을 활성화할 수 있다. 즉, 제2 이용자는 공유 차량 이용 전 공유 차량의 기존 손상 정보에 일괄 동의하는 경우 공유 차량을 이용할 수 있다.The terminal 490 of the second user of the mobile-based vehicle management process may activate the door opening function and the starting function of the shared vehicle when the second user agrees to the existing damage information of the shared vehicle before using the shared vehicle. The second user's terminal 490 may activate a door opening function and a starting function of the shared vehicle when the second user inputs a collective agreement through the terminal 490 . That is, the second user can use the shared vehicle when collectively agreeing to the existing damage information of the shared vehicle before using the shared vehicle.

이때, 제2 이용자가 해당 차량의 기존 손상 정보에 동의한다는 것은 제2 이용자의 단말기(490)에 표시되어 있는 기존 손상 정보와 현재 차량의 외관 상태가 일치한다는 것에 동의한다는 것을 의미할 수 있다.In this case, that the second user agrees to the existing damage information of the vehicle may mean that the existing damage information displayed on the terminal 490 of the second user agrees with the current exterior state of the vehicle.

도시하지 않았지만, 상기 제2 이용자에 의한 일괄 동의가 입력되는 경우 상기 제2 이용자의 단말기(490)는 상기 서버(499)로 일괄 동의에 대한 정보를 전송할 수 있다. 상기 서버(499)는 일괄 동의에 대한 정보를 저장한 후 상기 제2 이용자의 단말기(490)가 문열림 및 시동기능을 활성화시킬 수 있도록 데이터를 전송할 수도 있다.Although not shown, when the collective agreement by the second user is input, the second user's terminal 490 may transmit information on the collective agreement to the server 499 . The server 499 may transmit data so that the terminal 490 of the second user can activate the door opening and starting functions after storing the information on the collective agreement.

상기 제2 이용자에 의한 일괄 동의가 입력되는 경우 상기 서버(499)는 차량의 외관상태가 기존과 동일하다는 정보를 저장할 수 있다.When the collective consent by the second user is input, the server 499 may store information indicating that the exterior state of the vehicle is the same as the existing one.

제2 이용자가 차량 이용 전 기존 손상 정보에 동의하지 않을 시 상기 제2 이용자의 단말기(490)는 상기 제2 이용자가 차량의 현재 외관 상태에 대한 촬영 및 등록을 수행할 수 있도록 표시할 수 있다. 이때, 상기 제2 이용자의 단말기(490)는 상기 제2 이용자가 차량 이용 전 차량의 현재 외관을 촬영할 수 있도록 촬영 가이드를 제공할 수 있다. 상기 촬영 가이드는 4.2.1.1에서 상술한 내용과 중복되므로, 자세한 설명은 생략한다.When the second user does not agree to the existing damage information before using the vehicle, the second user's terminal 490 may display the second user to record and register the current exterior state of the vehicle. In this case, the second user's terminal 490 may provide a photographing guide so that the second user can photograph the current exterior of the vehicle before using the vehicle. Since the photographing guide overlaps with the contents described in 4.2.1.1, a detailed description thereof will be omitted.

보다 구체적으로, 도 56을 참조하면, 상기 제2 이용자의 단말기(490)는 상기 제2 이용자가 차량 이용 시간이 시작되는 제3 시점(T3)에 차량 외관 촬영을 할 수 있도록 표시할 수 있다. 이때 상기 제2 이용자에 의해 이용 시작 전 촬영되는 차량 이미지는 제2 이미지일 수 있다. 즉, 제3 시점(T3)과 대응되는 시점에 제2 이용자의 단말기(490)에 의해 촬영되는 이미지는 제2 이미지로 정의될 수 있다. 제2 이미지는 차량 외관에 관한 이미지이며, 차량 외관의 주요 부위를 포함하는 복수의 이미지를 포함할 수 있다. 제1 이용자 또한 차량 이용 시간이 시작되는 제1 시점(T1)에 차량 외관 촬영을 할 수 있다.More specifically, referring to FIG. 56 , the second user's terminal 490 may display the display so that the second user can take a vehicle exterior photograph at a third time point T3 when the vehicle use time starts. In this case, the vehicle image taken by the second user before the start of use may be the second image. That is, an image captured by the second user's terminal 490 at a time point corresponding to the third time point T3 may be defined as the second image. The second image is an image related to the exterior of the vehicle, and may include a plurality of images including a main part of the exterior of the vehicle. The first user may also photograph the exterior of the vehicle at the first time point T1 when the vehicle use time starts.

상기 제2 이용자의 단말기(490)는 상기 제2 이용자가 기존 손상 정보에 동의하지 않을 경우에만 외관 촬영에 대한 절차를 진행하도록 함으로써, 손상 정보에 대한 다툼이 없는 경우에 공유 차량 이용 전 확인 프로세스를 보다 간소화할 수 있다.The second user's terminal 490 proceeds with the procedure for photographing the exterior only when the second user does not agree with the existing damage information, so that the verification process before using the shared vehicle in case there is no dispute over the damage information It can be further simplified.

제2 이용자에 의해 촬영된 이미지 데이터는 제2 이용자의 단말기(490)에 저장 및 등록된 후 서버(499)로 전송될 수 있다. 예를 들어, 제2 이용자에 의해 제3 시점(T3)에 촬영된 제2 이미지는 제2 이용자의 단말기(490)에 저장된 후 서버(499)로 전송될 수 있다. 또한, 제1 이용자에 의해 제1 시점(T1)에 촬영된 이미지도 마찬가지로 서버(499)로 전송될 수 있다.The image data photographed by the second user may be stored and registered in the terminal 490 of the second user and then transmitted to the server 499 . For example, the second image captured by the second user at the third time point T3 may be stored in the terminal 490 of the second user and then transmitted to the server 499 . In addition, an image captured by the first user at the first time point T1 may also be transmitted to the server 499 .

서버(499)는 제2 이용자의 단말기(490)로부터 제2 이미지를 수신한 후 상기 제2 이미지와 기존 손상정보에 기초하여 차량에 추가손상이 발생되었는지 판단할 수 있다. 보다 구체적으로 서버(499)는 제2 이용자의 단말기(490)로부터 제2 이미지를 수신한 후 상기 제2 이미지를 해당 차량의 기존 손상 정보와 비교하여 차량에 추가 손상이 발생되었는지 판단할 수 있다. 즉, 서버(499)는 차량의 현재 외관 상태가 기존 손상 정보와 차이가 있는지 판단할 수 있다.After receiving the second image from the terminal 490 of the second user, the server 499 may determine whether additional damage has occurred to the vehicle based on the second image and the existing damage information. More specifically, after receiving the second image from the second user's terminal 490, the server 499 may compare the second image with existing damage information of the vehicle to determine whether additional damage has occurred to the vehicle. That is, the server 499 may determine whether the current exterior state of the vehicle is different from the existing damage information.

예시적으로, 서버(499)는 제2 이용자가 이용 전 제3 시점(T3)에서 촬영한 제2 이미지를 제1 이용자가 이용 후 제2 시점(T2)에서 촬영한 제1 이미지와 비교 분석하여 차량에 추가 손상이 발생하였는지 판단할 수 있다. 즉, 서버(499)는 제2 시점(T2)과 제3 시점(T3)사이인 제2 구간(P2)에서 추가 손상이 발생하였는지 판단할 수 있다.Exemplarily, the server 499 compares and analyzes the second image captured by the second user at the third time point T3 before use with the first image captured at the second time point T2 after the first user uses it. It can be determined whether additional damage has occurred to the vehicle. That is, the server 499 may determine whether additional damage has occurred in the second section P2 between the second time point T2 and the third time point T3 .

결국, 서버(499)는 추가 손상 발생 여부 판단을 수행함으로써, 공유 차량의 현재 외관 상태에 관한 정보를 업데이트할 수 있고, 기존 손상 정보에서 누락되어 있던 손상 정보를 파악할 수 있으며, 이전 이용자의 이용 종료 후 주차 중 발생된 추가 손상 정보를 파악할 수 있는 효과를 제공할 수 있다. 예시적으로, 서버(499)는 제2 이미지와 제1 이미지를 비교하여 추가 손상 정보를 파악함으로써, 제1 이용자의 이용 종료시점인 제2 시점(T2)부터 제2 이용자의 이용 시작시점인 제3 시점(T3)사이에 발생한 손상 정보, 즉 제2 구간(P2)에서 발생한 손상 정보를 파악 및 관리할 수 있다.As a result, the server 499 can update information about the current appearance state of the shared vehicle by determining whether additional damage has occurred, can identify damage information that was missing from the existing damage information, and terminate the use of the previous user It is possible to provide the effect of identifying additional damage information generated during parking after parking. Illustratively, the server 499 compares the second image with the first image to determine additional damage information, so that from the second time point (T2), which is the end point of the first user's use, the second time point that is the use start time of the second user. Damage information occurring between the three time points T3, that is, damage information occurring in the second section P2, may be identified and managed.

한편, 제2 이용자는 공유 차량의 기존 손상 정보에 대해 전부 동의하지 않을 수 있고, 일부 동의하지 않을 수 있으며, 전부 또는 일부 동의 여부에 따라 공유 차량의 외관 재 촬영하는 범위가 달라질 수 있다. 이에 대한 자세한 설명은 후술하도록 한다.On the other hand, the second user may not agree with all or part of the existing damage information of the shared vehicle, and the scope of re-photographing the exterior of the shared vehicle may vary depending on whether all or part of the consent is given. A detailed description thereof will be provided later.

서버(499)는 차량에 추가 손상이 발생되었다고 판단하는 경우, 해당 차량에 관한 손상 정보를 업데이트할 수 있다. 즉, 서버(499)는 차량에 추가 손상이 발생되었다고 판단하는 경우 해당 차량의 현재 외관 상태에 맞도록 기존 손상 정보를 업데이트할 수 있다. 이때, 상기 업데이트된 손상 정보를 제2 정보로 정의할 수 있다.When determining that additional damage has occurred to the vehicle, the server 499 may update damage information about the corresponding vehicle. That is, when determining that additional damage has occurred to the vehicle, the server 499 may update the existing damage information to match the current exterior state of the vehicle. In this case, the updated damage information may be defined as second information.

예시적으로, 서버(499)는 제3 시점(T3)에 촬영된 제2 이미지부터 차량에 추가 손상이 발생되었다고 판단하는 경우, 해당 차량의 현재 외관 상태에 맞도록 기존 손상 정보를 업데이트할 수 있다. 상기 업데이트 내용은 기존 손상 정보에서 누락되어 있던 손상 정보에 관한 것일 수 있고, 이전 사용자의 이용 종료 후 주차 중 발생된 추가 손상 정보에 관한 것일 수 있다.For example, if the server 499 determines that additional damage has occurred to the vehicle from the second image captured at the third time point T3, the server 499 may update the existing damage information to match the current exterior state of the vehicle. . The update content may relate to damage information that was missing from the existing damage information, and may relate to additional damage information that occurred while parking after the previous user's use of the vehicle was terminated.

서버(499)는 차량에 추가 손상이 발생되지 않았다고 판단하는 경우, 해당 판단 결과를 제2 이용자의 단말기(490)로 전송할 수 있고, 제2 이용자의 단말기(490)가 서버(499)로부터 상기 판단 결과를 수신하면 제2 이용자는 상기 판단 결과에 대한 동의 여부를 선택할 수 있다. 이때, 상기 판단 결과는 기존 손상 정보에 문제가 없음을 나타내는 정보, 즉 기존 손상 정보가 현재 차량의 외관 상태와 동일하다는 정보를 포함할 수 있다.When the server 499 determines that no additional damage has occurred to the vehicle, the server 499 may transmit the determination result to the second user's terminal 490 , and the second user's terminal 490 receives the determination from the server 499 . Upon receiving the result, the second user may select whether to agree to the determination result. In this case, the determination result may include information indicating that there is no problem in the existing damage information, that is, information that the existing damage information is the same as the current exterior state of the vehicle.

제2 이용자의 단말기(490)는 제2 이용자가 상기 판단 결과를 확인하는 절차를 완료하면 차량의 문 열림 및 시동 기능을 활성화할 수 있다.The second user's terminal 490 may activate the door opening and starting functions of the vehicle when the second user completes the procedure for confirming the determination result.

제2 이용자의 단말기(490)는 제2 이용자가 상기 판단 결과에 동의하는 경우 차량의 문 열림 및 시동 기능을 활성화할 수 있다.The second user's terminal 490 may activate the door opening and starting functions of the vehicle when the second user agrees to the determination result.

도시하지 않았지만, 상기 서버(499)는 상기 제2 이용자의 단말기(490)가 제2 이미지를 전송한 경우에 상기 차량의 문 열림 및 시동 기능이 활성화 되도록 제어할 수 있다, 즉, 앞서 설명한 추가 손상에 대한 판단과 동의절차가 진행되기 전에 상기 제2 이용자의 단말기(490)는 차량의 문 열림 및 시동 기능을 활성화 할 수 있다. 이 경우 차량의 운행과정에서 서버(499)는 추가 손상 판단과 동의절차를 진행할 수 있고, 차량의 운행이 종료되기 전까지 추가 손상 판단과 동의절차를 진행하여 추가 손상 판단과 동의절차가 완료된 이후에 차량 반납 절차를 종료할 수 있다. 또는 상기 서버(499)는 추가 손상 판단과 동의절차를 차량 반납 절차 이후에 진행할 수도 있다. 상기 서버(499)는 상기 제2 이용자의 단말기(490)가 제2 이미지를 전송한 경우에 상기 차량의 문 열림 및 시동 기능이 활성화되도록 제어함으로써 차량의 운행시작 전의 절차들을 간소화할 수 있는 효과가 있다.Although not shown, the server 499 can control the door opening and starting functions of the vehicle to be activated when the second user's terminal 490 transmits the second image, that is, the additional damage described above. Before the determination and consent procedure for , the second user's terminal 490 may activate the door opening and starting functions of the vehicle. In this case, in the process of driving the vehicle, the server 499 may proceed with the additional damage determination and consent procedure, and proceed with the additional damage determination and consent procedure until the operation of the vehicle is terminated. You can end the return process. Alternatively, the server 499 may perform the additional damage determination and consent procedure after the vehicle return procedure. The server 499 has the effect of simplifying the procedures before starting the vehicle by controlling the door opening and starting functions of the vehicle to be activated when the second user's terminal 490 transmits the second image. there is.

상기 제2 이용자에 의해 상기 판단 결과에 대한 동의가 입력되는 경우 상기 서버(499)는 차량의 외관상태가 기존과 동일하다는 정보를 저장할 수 있다.When consent to the determination result is inputted by the second user, the server 499 may store information indicating that the exterior state of the vehicle is the same as before.

또한, 제2 이용자의 단말기(490)는 제2 이용자가 상기 판단 결과에 동의하지 않는 경우 제2 이용자가 상기 판단 결과에 동의하지 않는 이유에 대해 이의 제기할 수 있도록 표시할 수 있다. 이후, 제2 이용자의 단말기(490)는 제2 이용자의 이의제기가 완료되면 차량의 문 열림 및 시동 기능을 활성화할 수 있다.Also, when the second user does not agree with the determination result, the second user's terminal 490 may display a display so that the second user can raise an objection to the reason for not agreeing with the determination result. Thereafter, when the second user's objection is completed, the second user's terminal 490 may activate the door opening and starting functions of the vehicle.

상기 제2 이용자에 의해 상기 판단 결과에 대한 이의제기가 입력되는 경우 상기 서버(499)는 상기 이의제기 결과에 따라 차량의 외관 상태가 기존과 동일하거나 추가 손상이 발생되었다는 정보를 저장할 수 있다. 다시 말해, 서버(499)는 상기 제2 이용자에 의해 입력된 상기 판단 결과에 대한 이의제기가 받아들여지는 경우 차량의 외관 상태에 추가 손상이 발생하였다는 정보를 저장할 수 있고, 이의제기가 받아들여지지 않는 경우 차량의 외관 상태가 기존과 동일하다는 정보를 저장할 수 있다.When an objection to the determination result is input by the second user, the server 499 may store information indicating that the exterior state of the vehicle is the same as before or additional damage has occurred according to the objection result. In other words, when the objection to the determination result input by the second user is accepted, the server 499 may store information indicating that additional damage has occurred in the exterior state of the vehicle, and the objection is not accepted. If not, information indicating that the exterior state of the vehicle is the same as the existing one may be stored.

또한, 서버(499)는 단말기(490)로부터 수신된 이용자의 동의 여부 및/또는 이의제기 정보가 반영된 상기 기존 손상 정보를 토대로 차량 손상 정보를 업데이트할 수 있다. 이때, 상기 업데이트된 차량 손상 정보를 제2 정보로 정의할 수 있다.In addition, the server 499 may update the vehicle damage information based on the existing damage information in which the user's consent and/or objection information received from the terminal 490 is reflected. In this case, the updated vehicle damage information may be defined as second information.

예시적으로, 제2 이용자의 단말기(490)는 제2 이용자가 상기 기존 손상 정보가 제2 이용자의 이용 시작시점인 제3 시점(T3)에 촬영된 제2 이미지와 대응한다는 것에 동의하는 경우 차량의 문 열림 및 시동 기능을 활성화할 수 있고, 동의하지 않는 경우 이의제기 절차가 완료되면 차량의 문 열림 및 시동 기능을 활성화할 수 있다.Illustratively, the second user's terminal 490 is the vehicle when the second user agrees that the existing damage information corresponds to the second image captured at the third time point T3, which is the start point of the second user's use. You can activate the door opening and starting function of the vehicle, and if you do not agree, you can activate the vehicle's door opening and starting function when the objection procedure is completed.

도시하지 않았지만, 상기 서버(499)는 상기 제2 이용자의 단말기(490)에 의한 이의 제기 절차와 이에 대한 처리 절차가 완료된 이후에 차량의 문 열림 및 시동 기능이 활성화 되도록 제어할 수 있다, 즉, 상기 서버(499)는 제2 이용자의 단말기(490)에 의한 이의 제기 절차와 이에 대한 모든 동의절차가 완료된 이후에 차량의 문 열림 및 시동 기능을 활성화 할 수 있다. 상기 서버(499)는 상기 제2 이용자의 단말기(490)에 의한 이의 제기 절차와 이에 대한 처리 절차가 완료된 이후에 차량의 문 열림 및 시동 기능이 활성화 되도록 제어함으로써 이후에 발생할 수 있는 차량의 손상과 관련된 분쟁을 예방할 수 있는 효과가 있다.이처럼 서버(499)는 단말기(490)로부터 획득된 정보를 토대로 차량 손상 정보를 업데이트함으로써, 차량 외관에 발생되어 있는 손상 정보를 시계열적으로 관리할 수 있고, 또한 차량의 외관에 발생되어 있는 손상 정보의 책임 소재를 명확히 하여 수리, 점검 및 교체 비용 청구가 원활히 이루어질 수 있도록 할 수 있다.Although not shown, the server 499 can control the door opening and starting functions of the vehicle to be activated after the objection procedure by the second user's terminal 490 and the processing procedure therefor are completed, that is, The server 499 may activate the door opening and starting function of the vehicle after the second user's terminal 490 has completed an objection procedure and all consent procedures therefor. The server 499 controls the door opening and starting functions of the vehicle to be activated after the objection procedure by the second user's terminal 490 and the processing procedure therefor are completed, thereby preventing damage to the vehicle that may occur later. There is an effect that can prevent related disputes. In this way, the server 499 updates the vehicle damage information based on the information obtained from the terminal 490, so that damage information occurring on the exterior of the vehicle can be managed in a time-series manner, In addition, it is possible to make the repair, inspection, and replacement cost request smoothly by clarifying the location of responsibility for the damage information generated on the exterior of the vehicle.

또한, 서버(499)는 단말기(490)로부터 획득된 정보를 토대로 차량 손상 정보를 업데이트함으로써, 공유 차량 이용자는 자신이 차량을 이용하기 전에 이미 발생되어 있던 손상 정보를 명확히 하여 차량의 기존 손상에 대하여는 책임이 없음을 명확히 할 수 있다. 나아가, 서버(499)는 단말기(490)로부터 획득된 정보를 토대로 차량 손상 정보를 업데이트함으로써, 공유 차량 이용자는 자신의 차량 이용 중 추가로 발생된 손상에 대해서만 책임질 수 있고, 관리자도 차량에 발생한 손상에 관해 책임 소재를 분명히 할 수 있다.In addition, the server 499 updates the vehicle damage information based on the information obtained from the terminal 490, so that the shared vehicle user clarifies the damage information that has already occurred before using the vehicle. You can make it clear that you are not responsible. Furthermore, the server 499 updates the vehicle damage information based on the information obtained from the terminal 490, so that the shared vehicle user can be held responsible only for damage that occurs additionally while using his or her vehicle, and the manager can also damage the vehicle Responsibilities can be clearly identified.

또한, 서버(499)는 단말기(490)로부터 획득된 정보를 토대로 차량 손상 정보를 업데이트함으로써, 관리자는 차량이 이용자에 의해 이용되지 않고 주차되어 있는 시기에 발생한 손상 정보를 파악할 수 있고 그에 따른 대응 및 조치가 가능할 수 있다. 예를 들어, 도 56을 참조하면, 서버(499)가 단말기(490)로부터 획득된 정보를 토대로 차량 손상 정보를 업데이트함으로써, 관리자는 제1 이용자의 이용 종료시점인 제2 시점(T2)과 제2 이용자의 이용 시작시점인 제3 시점(T3) 사이에 발생한 손상 정보 즉, 제2 구간(P2)에서 발생한 손상 정보를 파악할 수 있고, 그에 따른 대응 및 조치가 가능할 수 있다.In addition, the server 499 updates the vehicle damage information based on the information obtained from the terminal 490, so that the manager can grasp the damage information that occurred when the vehicle is parked without being used by the user, and respond accordingly and action may be possible. For example, referring to FIG. 56 , the server 499 updates the vehicle damage information based on the information obtained from the terminal 490 , so that the manager can use the second time point T2 and the second time point T2, which is the end point of the first user's use. Damage information that occurred between the third time point T3, which is the start time of 2 users, that is, damage information that occurred in the second section P2 may be grasped, and corresponding responses and measures may be taken.

한편, 상술한 바와 같이 공유 차량 이용자는 공유 차량의 현재 외관 상태에 대해 전부 동의하지 않을 수 있고, 일부 동의하지 않을 수 있다. 즉, 공유차량 이용자는 공유 차량의 기존 손상 정보에 대해 부분적으로 동의 여부를 표시할 수 있다.On the other hand, as described above, the shared vehicle user may not agree with all of the current appearance state of the shared vehicle, and may not partially agree. That is, the shared vehicle user can partially indicate whether or not to agree to the existing damage information of the shared vehicle.

도 59는 공유 차량 이용자가 공유 차량의 기존 손상 정보에 동의하지 않는 경우 공유 차량 외관을 재 촬영하는 프로세스를 설명하기 위한 도면이다. 이하에서는, 도 59를 참조하여 공유 차량 이용자가 공유 차량의 기존 손상 정보에 동의하지 않는 경우 공유 차량의 외관을 재 촬영하는 프로세스를 설명한다.59 is a view for explaining a process of re-photographing the appearance of the shared vehicle when the shared vehicle user does not agree with the existing damage information of the shared vehicle. Hereinafter, a process of re-photographing the exterior of the shared vehicle when the shared vehicle user does not agree with the existing damage information of the shared vehicle will be described with reference to FIG. 59 .

도 59의 (a)를 참조하면, 제2 이용자가 공유 차량의 기존 손상 정보에 대해 전부 동의하지 않는 경우, 제2 이용자의 단말기(490)는 공유 차량 외관 전체에 대해 재촬영을 진행할 수 있도록 표시할 수 있다. 이때, 제2 이용자의 단말기(490)는 차량 외관의 주요 부위가 모두 촬영될 수 있도록 가이드해주는 재촬영 가이드를 출력할 수 있다. 상기 재촬영 가이드는 제2 이용자가 예약 시 입력한 정보 또는 학습된 신경망 모델을 통해 획득된 정보를 기초로 제공될 수 있다.Referring to (a) of FIG. 59 , when the second user does not agree with all of the existing damage information of the shared vehicle, the second user's terminal 490 displays the entire exterior of the shared vehicle to be re-photographed. can do. In this case, the second user's terminal 490 may output a rephotographing guide that guides all major parts of the exterior of the vehicle to be photographed. The re-photography guide may be provided based on information input by the second user during reservation or information obtained through a learned neural network model.

도 59의 (b)를 참조하면, 제2 이용자가 공유 차량의 기존 손상 정보에 대해 일부 동의하지 않는 경우, 제2 이용자의 단말기(490)는 동의하지 않는 부분에 대한 재촬영을 진행하도록 가이드할 수 있다. 상기 제2 이용자의 단말기(490)는 제2 이용자가 동의하지 않는 부분에 대응되는 재촬영 가이드를 표시할 수 있다. 상기 제2 이용자는 상기 재촬영 가이드에 따라 촬영을 진행함으로써 상기 제2 이용자 단말기(490)는 동의하지 않는 부분에 대한 이미지를 얻을 수 있다. 상기 재촬영 가이드는 공유 차량 이용자가 예약 시 입력한 정보 또는 학습된 신경망 모델을 통해 획득된 정보를 기초로 제공될 수 있다. 이러한 과정에 의해 상기 제2 이용자의 단말기(490)는 동의하지 않는 부분의 이미지를 저장하고 서버(499)에 전송할 수 있다. 상기 제2 이용자의 단말기(490)는 제2 이용자가 동의하지 않는 부분에 대해서만 재촬영을 진행할 수 있도록 제어하여 재촬영 절차를 간소화시킬 수 있다.Referring to (b) of Figure 59, when the second user does not partially agree with the existing damage information of the shared vehicle, the second user's terminal 490 guides the re-photographing of the part that does not agree. can The second user's terminal 490 may display a rephotographing guide corresponding to a part the second user does not agree with. As the second user proceeds to take a picture according to the re-shooting guide, the second user terminal 490 may obtain an image for a part to which the user does not agree. The re-photography guide may be provided based on information input by the shared vehicle user when making a reservation or information obtained through a learned neural network model. Through this process, the second user's terminal 490 may store the image of the part that does not agree and transmit it to the server 499 . The second user's terminal 490 may simplify the re-photographing procedure by controlling the re-photography to be performed only for the part the second user does not agree with.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (18)

손상 이미지를 출력하는 출력부; 및
카메라에 의해 제1 시점에 촬영된 제1 이미지와 상기 카메라에 의해 제2 시점에 촬영된 제2 이미지를 기초로 상기 손상 이미지를 출력하기 위해 상기 출력부를 제어하는 제어부를 포함하되,
상기 제1 이미지는 차량의 외관에 관한 제1 영역이 촬영되되, 상기 제1 영역의 내부에는 적어도 하나 이상의 이상 영역인 고정 영역 및 가변 영역이 포함되어 있고,
상기 제2 이미지는 차량의 외관에 관한 제2 영역이 촬영되되, 상기 제2 영역의 내부에는 상기 고정 영역 중 적어도 일부 영역 및 상기 가변 영역 중 적어도 일부 영역이 포함되어 있고,
상기 손상 이미지는 상기 제1 이미지 및 상기 제2 이미지로부터 상기 가변 영역이 제거된 이미지이되,
상기 고정 영역은 차량의 손상에 대한 영역이고, 상기 가변 영역은 차량의 손상에 대한 영역이 아닌 영역이고,
상기 제1 시점과 제2 시점은 서로 다른 시점인,
차량 관리 장치.
an output unit for outputting a damaged image; and
A control unit for controlling the output unit to output the damaged image based on a first image photographed at a first time point by the camera and a second image photographed at a second time point by the camera,
In the first image, a first area related to the exterior of the vehicle is photographed, and the inside of the first area includes at least one fixed area and a variable area, which are at least one or more areas,
In the second image, a second region related to the exterior of the vehicle is photographed, and at least a partial region of the fixed region and at least a partial region of the variable region are included in the second region,
The damaged image is an image in which the variable region is removed from the first image and the second image,
The fixed region is a region for damage to the vehicle, and the variable region is a region that is not a region for damage to the vehicle,
The first time point and the second time point are different time points,
Fleet Management Device.
제1항에 있어서,
상기 제1 이미지 및 제2 이미지는 차량과 관련된 다수의 특징점 중 제1 특징점을 포함하고,
상기 제1 이미지의 상기 제1 특징점은 제1 좌표를 가지고,
상기 제2 이미지의 상기 제1 특징점은 제2 좌표를 가지며,
상기 제1 이미지에 포함된 상기 고정 영역을 대표하는 좌표는 제3 좌표이며,
상기 제2 이미지에 포함된 상기 고정 영역을 대표하는 좌표는 제4 좌표이며,
상기 제1 좌표와 제3 좌표 사이의 제1 거리와 상기 제2 좌표와 상기 제4 좌표 사이의 제2 거리는 서로 대응되는,
차량 관리 장치.
The method of claim 1,
The first image and the second image include a first feature point among a plurality of feature points related to the vehicle,
The first feature point of the first image has a first coordinate,
The first feature point of the second image has a second coordinate,
Coordinates representing the fixed area included in the first image are third coordinates,
The coordinates representing the fixed area included in the second image are the fourth coordinates,
A first distance between the first coordinates and the third coordinates and a second distance between the second coordinates and the fourth coordinates correspond to each other,
Fleet Management Device.
제2항에 있어서,
상기 제1 이미지에 포함된 상기 가변 영역을 대표하는 좌표는 제5 좌표이고,
상기 제2 이미지에 포함된 상기 가변 영역을 대표하는 좌표는 제6 좌표이며,
상기 제1 좌표와 제5 좌표 사이의 제3 거리는 상기 제2 좌표와 상기 제6 좌표 사이의 제4 거리와 다른,
차량 관리 장치.
3. The method of claim 2,
Coordinates representing the variable region included in the first image are fifth coordinates,
The coordinates representing the variable region included in the second image are the sixth coordinates,
a third distance between the first coordinate and the fifth coordinate is different from a fourth distance between the second coordinate and the sixth coordinate;
Fleet Management Device.
제3항에 있어서,
상기 제1 거리와 제2 거리의 차이는 상기 제3 거리와 상기 제4 거리의 차이보다 작은,
차량 관리 장치.
4. The method of claim 3,
a difference between the first distance and the second distance is less than a difference between the third distance and the fourth distance;
Fleet Management Device.
제1항에 있어서,
상기 제어부는 상기 이상 영역에서 고정 영역과 가변 영역을 분류하여, 상기 가변 영역을 제거한 상기 손상 이미지를 출력하고,
상기 제1 이미지 및 제2 이미지는 차량과 관련된 다수의 특징점 중 제1 특징점을 포함하고,
상기 제1 이미지의 상기 제1 특징점은 제1 좌표를 가지고,
상기 제2 이미지의 상기 제1 특징점은 제2 좌표를 가지고,
상기 제1 이미지의 이상영역을 대표하는 좌표는 제7 좌표이고,
상기 제2 이미지의 이상영역을 대표하는 좌표는 제8 좌표이며,
상기 제어부는 상기 제1 좌표와 상기 제7 좌표 사이의 제5 거리와 상기 제2 좌표와 상기 제8 좌표 사이의 제6 거리에 기초하여 상기 고정 영역과 가변영역을 분류하는,
차량 관리 장치.
According to claim 1,
The control unit classifies a fixed region and a variable region in the abnormal region, and outputs the damaged image from which the variable region is removed,
The first image and the second image include a first feature point among a plurality of feature points related to the vehicle,
The first feature point of the first image has a first coordinate,
The first feature point of the second image has a second coordinate,
The coordinates representing the abnormal region of the first image are the seventh coordinates,
The coordinates representing the abnormal region of the second image are the eighth coordinates,
The control unit classifies the fixed region and the variable region based on a fifth distance between the first coordinate and the seventh coordinate and a sixth distance between the second coordinate and the eighth coordinate,
Fleet Management Device.
제5항에 있어서,
상기 제어부는 상기 제5 거리와 제6 거리의 차이가 미리 정해진 값 이상인 경우 가변영역으로 판단하고, 상기 제5 거리와 제6 거리의 차이가 미리 정해진 값 미만인 경우 고정 영역으로 판단하는,
차량 관리 장치.
6. The method of claim 5,
When the difference between the fifth distance and the sixth distance is greater than or equal to a predetermined value, the controller determines that the region is a variable region, and when the difference between the fifth distance and the sixth distance is less than a predetermined value, determines that the region is a fixed region;
Fleet Management Device.
제1항에 있어서,
상기 가변 영역은 차량의 외부의 배경 영역인,
차량 관리 장치.
According to claim 1,
The variable region is a background region outside the vehicle,
Fleet Management Device.
제1항에 있어서,
상기 가변 영역은 외부 광에 의해 외부 물체가 반사되어 이미지에 포함된 영역인
차량 관리 장치.
According to claim 1,
The variable region is a region included in the image by reflecting an external object by external light.
Fleet Management Device.
제1항에 있어서,
상기 손상 이미지는 제1 이미지에 상기 가변 영역이 제거된 이미지이고,
상기 제1 이미지는 상기 제2 이미지에 비해 차량이 이미지의 중앙영역에 가깝게 위치하는 이미지인,
차량 관리 장치.
According to claim 1,
The damaged image is an image in which the variable region is removed from the first image,
The first image is an image in which the vehicle is located closer to the central region of the image compared to the second image,
Fleet Management Device.
제1항에 있어서,
센서부로부터 신호를 수신하는 통신부를 더 포함하고,
상기 센서부는 제1 센서와 제2 센서를 포함하고,
상기 제1 센서는 차량의 진입 방향과 가까운 영역에 위치하고, 상기 제2 센서는 차량의 진입 방향과 먼 영역에 위치하는,
차량 관리 장치.
According to claim 1,
Further comprising a communication unit for receiving a signal from the sensor unit,
The sensor unit includes a first sensor and a second sensor,
The first sensor is located in an area close to the vehicle's entry direction, and the second sensor is located in an area far from the vehicle's entry direction,
Fleet Management Device.
제10항에 있어서,
상기 제1 시점과 상기 제2 시점은 시작시점과 종료시점 사이의 유효 기간 내의 시점이고,
상기 시작시점은 상기 통신부가 제1 센서로부터 제1 신호를 수신한 시점이고,
상기 종료시점은 상기 통신부가 제2 센서로부터 제2 신호를 수신한 시점이며.
상기 제1 이미지와 제2 이미지는 상기 유효 기간 내에 획득된 다수의 이미지에 포함되는,
차량 관리 장치.
11. The method of claim 10,
The first time point and the second time point are time points within the validity period between the start time and the end time,
The start time is the time when the communication unit receives the first signal from the first sensor,
The end time is a time when the communication unit receives the second signal from the second sensor.
wherein the first image and the second image are included in a plurality of images acquired within the validity period;
Fleet Management Device.
제11항에 있어서,
상기 시작 시점은 상기 제1 센서에 의해 차량이 감지된 다음 차량의 감지가 종료된 시점이고,
상기 종료 시점은 상기 제2 센서에 의해 차량이 최초로 감지된 시점인,
차량 관리 장치.
12. The method of claim 11,
The starting time is a time when the vehicle is detected by the first sensor and then the detection of the vehicle is finished,
The end time is a time when the vehicle is first detected by the second sensor,
Fleet Management Device.
제11항에 있어서,
상기 시작 시점은 상기 제1 센서에 의해 차량이 최초로 감지된 시점이고,
상기 종료 시점은 상기 제2 센서에 의해 차량이 감지된 다음 감지가 종료된 시점인,
차량 관리 장치.
12. The method of claim 11,
The starting time is a time when the vehicle is first detected by the first sensor,
The end time is a time at which the detection is terminated after the vehicle is detected by the second sensor,
Fleet Management Device.
제1항에 있어서,
차단기로부터 개방 정보를 수신하는 통신부를 더 포함하고,
상기 제1 시점과 제2 시점은 시작시점과 종료시점 사이의 유효 기간 내의 시점이고,
상기 차단기가 개방된 시점은 종료 시점이고, 상기 차단기가 개방된 시점보다 미리 정의된 만큼의 이전의 시점은 시작 시점이며,
상기 제1 이미지와 제2 이미지는 상기 유효 기간 내에 획득된 다수의 이미지에 포함되는,
차량 관리 장치.
According to claim 1,
Further comprising a communication unit for receiving the open information from the breaker,
The first time point and the second time point are time points within the validity period between the start time and the end time,
The time when the breaker is opened is the end time, and the time before the breaker is opened by a predefined amount is the start time,
wherein the first image and the second image are included in a plurality of images acquired within the validity period;
Fleet Management Device.
제10항에 있어서,
상기 카메라는 제1 카메라 및 제2 카메라를 포함하고,
상기 제1 카메라는 상기 제1 센서와 대응되는 영역에 위치하여, 차량의 일측면을 촬영하고,
상기 제2 카메라는 상기 제2 센서와 대응되는 영역에 위치하여 차량의 타측면을 촬영하는,
차량 관리 장치.
11. The method of claim 10,
The camera comprises a first camera and a second camera,
The first camera is located in an area corresponding to the first sensor to photograph one side of the vehicle,
The second camera is positioned in an area corresponding to the second sensor to photograph the other side of the vehicle,
Fleet Management Device.
제1항에 있어서,
상기 제1 이미지 및 제2 이미지는 차량과 관련된 다수의 특징점 중 제1 특징점을 포함하고,
상기 제1 시점에 상기 카메라는 상기 제1 특징점과 제1 거리를 가지는 위치에 위치하고,
상기 제2 시점에 상기 카메라는 상기 제1 특징점과 제2 거리를 가지는 위치에 위치하고,
상기 제1 거리와 제2 거리는 상이한,
차량 관리 장치.
According to claim 1,
The first image and the second image include a first feature point among a plurality of feature points related to the vehicle,
At the first time point, the camera is located at a position having a first distance from the first feature point,
At the second time point, the camera is located at a position having a second distance from the first feature point,
the first distance and the second distance are different;
Fleet Management Device.
제1항에 있어서,
상기 차량 관리 장치는 모바일 디바이스이고,
상기 카메라는 상기 모바일 디바이스에 내장된 카메라인,
차량 관리 장치.
According to claim 1,
The vehicle management apparatus is a mobile device,
The camera is a camera built into the mobile device,
Fleet Management Device.
제16항에 있어서,
상기 카메라는 시작 시점과 종료 시점 사이의 동영상을 촬영하고,
상기 제1 이미지와 상기 제2 이미지는 상기 동영상으로부터 추출된 이미지인,
차량 관리 장치.
17. The method of claim 16,
The camera shoots a video between the start time and the end time,
The first image and the second image are images extracted from the video,
Fleet Management Device.
KR1020200111494A 2020-09-02 2020-09-02 Vehicle management apparatus KR102529430B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200111494A KR102529430B1 (en) 2020-09-02 2020-09-02 Vehicle management apparatus
PCT/KR2020/017004 WO2022050504A1 (en) 2020-09-02 2020-11-26 Mobile device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200111494A KR102529430B1 (en) 2020-09-02 2020-09-02 Vehicle management apparatus

Publications (2)

Publication Number Publication Date
KR20220029930A true KR20220029930A (en) 2022-03-10
KR102529430B1 KR102529430B1 (en) 2023-05-08

Family

ID=80816352

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200111494A KR102529430B1 (en) 2020-09-02 2020-09-02 Vehicle management apparatus

Country Status (1)

Country Link
KR (1) KR102529430B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102675140B1 (en) * 2023-07-21 2024-06-17 주식회사 모빌테크 Method for facility management through text recognition, and computer program recorded on record-medium for executing method therefor

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273499A (en) * 2000-03-27 2001-10-05 Nagoya Electric Works Co Ltd Method and device for detecting moving object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273499A (en) * 2000-03-27 2001-10-05 Nagoya Electric Works Co Ltd Method and device for detecting moving object

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102675140B1 (en) * 2023-07-21 2024-06-17 주식회사 모빌테크 Method for facility management through text recognition, and computer program recorded on record-medium for executing method therefor

Also Published As

Publication number Publication date
KR102529430B1 (en) 2023-05-08

Similar Documents

Publication Publication Date Title
US11854181B2 (en) Systems and methods for utilizing machine-assisted vehicle inspection to identify insurance buildup or fraud
KR102198296B1 (en) Apparatus, method and computer program for automatically calculating the damage
US11436652B1 (en) System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US11823365B2 (en) Automatic image based object damage assessment
KR102529429B1 (en) Vehicle management assistant method and vehicle management assistant apparatus
US9842266B2 (en) Method for detecting driver cell phone usage from side-view images
JP2023524609A (en) How to Determine Paint Requirements for Damaged Vehicles
KR102125999B1 (en) Ai calculation device, method and computer program
KR102470594B1 (en) Vehicle damage management method and vehicle damage management apparatus
KR102223059B1 (en) Mobile device
KR102529430B1 (en) Vehicle management apparatus
WO2023205220A1 (en) Remote vehicle inspection
Prajapati et al. A Review Paper on Automatic Number Plate Recognition using Machine Learning: An In-Depth Analysis of Machine Learning Techniques in Automatic Number Plate Recognition: Opportunities and Limitations
KR20120114099A (en) Apparatus and method for car type recognition and method for coming and going managing method based on car type recognition
US20240320751A1 (en) Remote vehicle damage assessment
CN108873097B (en) Safety detection method and device for parking of vehicle carrying plate in unmanned parking garage
JP7277511B2 (en) car estimator
US20230334642A1 (en) Vehicle Inspection Using a Mobile Application
Gopikrishnan et al. Smart Parking System with Automated Vehicle Log Using Haar Cascade Classifier ANPR
Gopikrishnan et al. Check for updates Smart Parking System with Automated Vehicle Log Using Haar Cascade Classifier ANPR
WO2024192533A1 (en) Scalable vector cages: vector-to-pixel metadata transfer for object part classification

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant