[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20230147360A - User service app execution by cloud surveillance camera system - Google Patents

User service app execution by cloud surveillance camera system Download PDF

Info

Publication number
KR20230147360A
KR20230147360A KR1020220046281A KR20220046281A KR20230147360A KR 20230147360 A KR20230147360 A KR 20230147360A KR 1020220046281 A KR1020220046281 A KR 1020220046281A KR 20220046281 A KR20220046281 A KR 20220046281A KR 20230147360 A KR20230147360 A KR 20230147360A
Authority
KR
South Korea
Prior art keywords
user
surveillance camera
identification information
app
location
Prior art date
Application number
KR1020220046281A
Other languages
Korean (ko)
Inventor
윤석용
Original Assignee
한화비전 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화비전 주식회사 filed Critical 한화비전 주식회사
Priority to KR1020220046281A priority Critical patent/KR20230147360A/en
Publication of KR20230147360A publication Critical patent/KR20230147360A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • H04N21/2223Secondary servers, e.g. proxy server, cable television Head-end being a public access point, e.g. for downloading to or uploading from clients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4784Supplemental services, e.g. displaying phone caller identification, shopping application receiving rewards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8166Monomedia components thereof involving executable data, e.g. software
    • H04N21/8173End-user applications, e.g. Web browser, game
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

The present specification relates to a cloud monitoring camera system. The cloud monitoring camera system comprises: a monitoring camera that obtains user identification information by photographing a monitoring area and transmits the user identification information and monitoring camera identification information to a cloud server; and the cloud server that identifies a user photographed by the monitoring camera based on the user identification information and transmits a notification to a user terminal so that the notification confirming whether a user service app associated with a location where the monitoring camera is installed is executed is outputted to the user terminal of the identified user.

Description

클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱 실행{USER SERVICE APP EXECUTION BY CLOUD SURVEILLANCE CAMERA SYSTEM}User service app execution by cloud surveillance camera system {USER SERVICE APP EXECUTION BY CLOUD SURVEILLANCE CAMERA SYSTEM}

본 명세서는 클라우드에 연결된 복수의 감시 카메라를 포함하는 시스템 및 이를 이용한 사용자 서비스 앱의 실행에 관한 것이다.This specification relates to a system including a plurality of surveillance cameras connected to the cloud and the execution of a user service app using the same.

최근의 감시 카메라는 감시 영역을 촬영한 영상의 저장뿐만 아니라 감시 영역에서 촬영된 영상에서 사람의 얼굴을 인식하거나, 이벤트의 발생을 감지하는 등 인공지능을 접목한 지능형 감시 카메라 시스템으로 발전하고 있어서 상점, 쇼핑몰, 주유소, 공공기관 등 다양한 장소에서 널리 사용되고 있다.Recently, surveillance cameras are developing into intelligent surveillance camera systems that incorporate artificial intelligence, such as not only storing images captured in the surveillance area, but also recognizing people's faces in images captured in the surveillance area or detecting the occurrence of events. , It is widely used in various places such as shopping malls, gas stations, and public institutions.

한편, 전술한 감시 카메라 시스템이 설치된 다양한 장소 중 특히, 상점, 쇼핑몰, 주유소 등의 장소에서는 그 장소에서 제공되는 서비스 또는 상품과 관련하여 할인 쿠폰, 리워드 적립 등의 사용자 서비스가 제공되고 있으며, 이러한 사용자 서비스를 제공받기 위하여, 사용자는 자신의 휴대용 단말에 서비스 제공 애플리케이션(이하 앱이라 한다.)을 설치한 뒤, 필요 시 마다 앱을 실행하여 사용자 서비스를 제공받고 있다.Meanwhile, among various places where the above-mentioned surveillance camera system is installed, especially places such as stores, shopping malls, and gas stations, user services such as discount coupons and reward accumulation are provided in relation to services or products provided at those places, and these users In order to receive a service, the user installs a service provision application (hereinafter referred to as an app) on his or her portable terminal and then runs the app whenever necessary to receive the user service.

위 기재된 내용은 오직 본 발명의 기술적 사상들에 대한 배경 기술의 이해를 돕기 위한 것이며, 따라서 그것은 본 발명의 기술 분야의 당업자에게 알려진 선행 기술에 해당하는 내용으로 이해될 수 없다.The content described above is only intended to help understand the background technology of the technical ideas of the present invention, and therefore, it cannot be understood as content corresponding to prior art known to those skilled in the art of the present invention.

그러나, 전술한 사용자 서비스의 경우, 사용자가 특정 매장을 방문할 때마다 해당 매장과 관련된 사용자 서비스를 제공받기 위해서는 사용자 서비스 앱을 별도로 실행해야 하기 때문에 사용자의 불편을 초래하는 문제점이 있다.However, in the case of the above-described user service, there is a problem that causes inconvenience to the user because each time the user visits a specific store, the user service app must be separately launched in order to receive the user service related to the store.

한편, 지능형 감시 카메라의 객체 인식 기술을 활용하여 특정 장소를 방문하는 사람에게 다양한 서비스를 자동으로 제공하는 기술에 대한 필요가 있다.Meanwhile, there is a need for technology that automatically provides various services to people visiting a specific location by utilizing the object recognition technology of intelligent surveillance cameras.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below.

본 명세서는 클라우드 감시 카메라 시스템을 제시한다. 상기 클라우드 감시 카메라 시스템은 감시 영역을 촬영하여 사용자 식별 정보를 획득하고, 상기 사용자 식별 정보 및 감시 카메라 식별 정보를 클라우드 서버로 전송하는 감시 카메라; 및 상기 사용자 식별 정보에 기초하여 상기 감시 카메라에 촬영된 사용자를 식별하고, 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지(notification)가 상기 식별된 사용자의 사용자 단말에 출력되도록 상기 통지를 상기 사용자 단말에 전송하는 클라우드 서버;를 포함할 수 있다.This specification presents a cloud surveillance camera system. The cloud surveillance camera system includes a surveillance camera that captures a surveillance area to obtain user identification information and transmits the user identification information and surveillance camera identification information to a cloud server; and identifying the user captured by the surveillance camera based on the user identification information, and outputting a notification to the user terminal of the identified user to determine whether a user service app associated with the location where the surveillance camera is installed is running. It may include a cloud server that transmits the notification to the user terminal as much as possible.

상기 클라우드 감시 카메라 시스템 및 그 밖의 실시예는 다음과 같은 특징을 포함할 수 있다.The cloud surveillance camera system and other embodiments may include the following features.

실시 예에 따라, 상기 감시 카메라는, 상기 감시 영역에 대한 촬영 영상 데이터를 분석하여 상기 사용자 식별 정보를 획득할 수 있다.Depending on the embodiment, the surveillance camera may obtain the user identification information by analyzing captured image data for the surveillance area.

실시 예에 따라, 또한, 상기 사용자 식별 정보는 사용자의 얼굴 영상, 사용자의 차량 번호, 및 사용자에게 부착되어 있는 사용자 식별 표식을 포함하고, 상기 감시 카메라는 상기 감시 영역에 대한 촬영 영상 데이터로부터 상기 사용자의 얼굴 영상, 상기 사용자의 차량 번호, 및 상기 사용자에게 부착되어 있는 사용자 식별 표식을 추출할 수 있다.Depending on the embodiment, the user identification information includes the user's face image, the user's vehicle license plate number, and a user identification mark attached to the user, and the surveillance camera detects the user from captured image data for the surveillance area. The face image, the user's vehicle number, and the user identification mark attached to the user can be extracted.

실시 예에 따라, 또한, 상기 클라우드 서버는, 상기 사용자 단말로부터 상기 사용자 식별 정보를 수신하여 사용자를 등록할 수 있다.Depending on the embodiment, the cloud server may register the user by receiving the user identification information from the user terminal.

실시 예에 따라, 또한, 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱은, 상기 감시 카메라가 설치된 장소에서 제공되는 서비스 쿠폰을 제공하는 사용자 앱, 상기 감시 카메라가 설치된 장소에서 제공되는 리워드를 적립하는 사용자 앱, 또는 상기 감시 카메라가 설치된 장소에서 제공되는 서비스의 사용과 관련된 사용자 앱 중에 어느 하나일 수 있다.Depending on the embodiment, the user service app associated with the location where the surveillance camera is installed may include a user app that provides service coupons provided at the location where the surveillance camera is installed, and a user app that accumulates rewards provided at the location where the surveillance camera is installed. It may be either a user app or a user app related to the use of a service provided at a location where the surveillance camera is installed.

실시 예에 따라, 또한, 상기 사용자 서비스 앱은, 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지에 대한 선택 입력에 따라 실행될 수 있다.Depending on the embodiment, the user service app may be executed according to a selection input for a notification confirming whether or not the user service app associated with the location where the surveillance camera is installed is executed.

실시 예에 따라, 또한, 상기 클라우드 서버는, 상기 사용자 단말에 설치된 사용자 서비스 앱을 상기 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라에 대한 감시 카메라 식별 정보와 연관 짓고, 특정 감시 카메라 식별 정보를 가진 감시 카메라가 사용자 식별 정보를 전송해오면, 상기 특정 감시 카메라 식별 정보와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지를 출력하도록 상기 식별된 사용자의 사용자 단말로 제어 메시지를 전송할 수 있다.Depending on the embodiment, the cloud server also associates the user service app installed on the user terminal with surveillance camera identification information for a surveillance camera installed at a location providing the service provided by the user service app, and specifies the surveillance camera When a surveillance camera with identification information transmits user identification information, a control message can be sent to the user terminal of the identified user to output a notification confirming whether the user service app associated with the specific surveillance camera identification information is running. .

한편, 본 명세서는 다른 클라우드 감시 카메라 시스템을 제시한다. 상기 클라우드 감시 카메라 시스템은 감시 영역을 촬영하여 사용자 식별 정보를 획득하고, 상기 사용자 식별 정보 및 감시 카메라 식별 정보를 클라우드 서버로 전송하는 감시 카메라; 및 상기 사용자 식별 정보에 기초하여 상기 감시 카메라에 촬영된 사용자를 식별하고, 상기 식별된 사용자의 사용자 단말에 설치된 사용자 앱 중 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱을 실행시키도록 상기 사용자 단말에 설치된 사용자 서비스 관리 앱에 대한 작동 명령을 상기 사용자 단말로 전송하는 클라우드 서버;를 포함할 수 있다.Meanwhile, this specification presents another cloud surveillance camera system. The cloud surveillance camera system includes a surveillance camera that captures a surveillance area to obtain user identification information and transmits the user identification information and surveillance camera identification information to a cloud server; And identifying the user captured by the surveillance camera based on the user identification information, and executing a user service app associated with the location where the surveillance camera is installed among the user apps installed on the user terminal of the identified user. It may include a cloud server that transmits an operation command for the installed user service management app to the user terminal.

상기 클라우드 감시 카메라 시스템 및 그 밖의 실시예는 다음과 같은 특징을 포함할 수 있다.The cloud surveillance camera system and other embodiments may include the following features.

실시 예에 따라, 상기 감시 카메라는, 상기 감시 영역에 대한 촬영 영상 데이터를 분석하여 상기 사용자 식별 정보를 획득할 수 있다.Depending on the embodiment, the surveillance camera may obtain the user identification information by analyzing captured image data for the surveillance area.

실시 예에 따라, 또한, 상기 사용자 식별 정보는 사용자의 얼굴 영상, 사용자의 차량 번호, 및 사용자에게 부착되어 있는 사용자 식별 표식을 포함하고, 상기 감시 카메라는 상기 감시 영역에 대한 촬영 영상 데이터로부터 상기 사용자의 얼굴 영상, 상기 사용자의 차량 번호, 및 상기 사용자에게 부착되어 있는 사용자 식별 표식을 추출할 수 있다.Depending on the embodiment, the user identification information includes the user's face image, the user's vehicle license plate number, and a user identification mark attached to the user, and the surveillance camera detects the user from captured image data for the surveillance area. The face image, the user's vehicle number, and the user identification mark attached to the user can be extracted.

실시 예에 따라, 또한, 상기 클라우드 서버는, 상기 사용자 단말로부터 상기 사용자 식별 정보를 수신한 뒤, 상기 사용자 식별 정보에 대응되는 사용자를 등록하고, 상기 등록된 사용자 정보에 상기 사용자 서비스 앱을 연관 지어 저장할 수 있다.Depending on the embodiment, the cloud server receives the user identification information from the user terminal, registers a user corresponding to the user identification information, and associates the user service app with the registered user information. You can save it.

실시 예에 따라, 또한, 상기 사용자 서비스 관리 앱은, 상기 사용자 식별 정보의 등록 전에 상기 사용자 단말에 전송되어 설치되고, 상기 사용자 식별 정보를 상기 클라우드 서버로 전송하고, 상기 사용자 단말에 출력되는 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지에 대한 선택 입력에 따라 미리 등록되어 있는 사용자 서비스 앱을 실행할 수 있다.According to the embodiment, the user service management app is transmitted and installed on the user terminal before registration of the user identification information, transmits the user identification information to the cloud server, and outputs the monitoring to the user terminal. A pre-registered user service app can be executed by selecting a notification to check whether or not the user service app associated with the location where the camera is installed is selected.

실시 예에 따라, 또한, 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱은, 상기 감시 카메라가 설치된 장소에서 제공되는 서비스 쿠폰을 제공하는 사용자 앱, 상기 감시 카메라가 설치된 장소에서 제공되는 리워드를 적립하는 사용자 앱, 또는 상기 감시 카메라가 설치된 장소에서 제공되는 서비스의 사용과 관련된 사용자 앱일 수 있다.Depending on the embodiment, the user service app associated with the location where the surveillance camera is installed may include a user app that provides service coupons provided at the location where the surveillance camera is installed, and a user app that accumulates rewards provided at the location where the surveillance camera is installed. It may be a user app, or a user app related to the use of services provided at a location where the surveillance camera is installed.

실시 예에 따라, 또한, 상기 클라우드 서버는, 상기 사용자 단말에 설치된 사용자 서비스 앱을 상기 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라에 대한 감시 카메라 식별 정보와 연관 짓고, 특정 감시 카메라 식별 정보를 가진 감시 카메라가 사용자 식별 정보를 전송해오면, 상기 식별된 사용자의 사용자 단말에 설치된 사용자 서비스 앱 중에서 상기 특정 감시 카메라 식별 정보와 연관된 사용자 서비스 앱을 실행하도록 상기 사용자 단말로 상기 사용자 서비스 관리 앱에 대한 제어 메시지를 전송할 수 있다.Depending on the embodiment, the cloud server also associates the user service app installed on the user terminal with surveillance camera identification information for a surveillance camera installed at a location providing the service provided by the user service app, and specifies the surveillance camera When a surveillance camera with identification information transmits user identification information, the user service is managed by the user terminal to execute a user service app associated with the specific surveillance camera identification information among the user service apps installed on the user terminal of the identified user. You can send control messages to the app.

한편, 본 명세서는 감시 카메라 및 클라우드 서버를 포함하는 클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱 실행 방법을 제시한다. 상기 사용자 서비스 앱 실행 방법은, 상기 감시 카메라가 감시 영역을 촬영하여 사용자 식별 정보를 획득하는 단계; 상기 감시 카메라가 상기 사용자 식별 정보 및 감시 카메라 식별 정보를 상기 클라우드 서버로 전송하는 단계; 상기 클라우드 서버가 상기 사용자 식별 정보에 기초하여 사용자를 식별하고, 상기 사용자 식별 결과 및 상기 감시 카메라 식별 정보에 기초하여 상기 식별된 사용자가 입장하는 장소를 특정하는 단계; 및 상기 클라우드 서버가 상기 특정된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지를 상기 식별된 사용자의 사용자 단말로 전송하는 단계;를 포함할 수 있다.Meanwhile, this specification presents a method of executing a user service app by a cloud surveillance camera system including a surveillance camera and a cloud server. The method of executing the user service app includes obtaining user identification information by photographing a surveillance area by the surveillance camera; The surveillance camera transmitting the user identification information and surveillance camera identification information to the cloud server; The cloud server identifying a user based on the user identification information, and specifying a place where the identified user enters based on the user identification result and the surveillance camera identification information; and transmitting, by the cloud server, a notification confirming whether the user service app associated with the specified location is running to the user terminal of the identified user.

상기 감시 카메라 및 클라우드 서버를 포함하는 클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱 실행 방법 및 그 밖의 실시예는 다음과 같은 특징을 포함할 수 있다.The method of executing a user service app by a cloud surveillance camera system including the surveillance camera and a cloud server and other embodiments may include the following features.

실시 예에 따라, 상기 사용자 서비스 앱 실행 방법은, 상기 사용자 식별 정보를 수신하여 사용자를 상기 클라우드 서버에 등록하는 단계; 및 상기 감시 카메라 식별 정보, 상기 감시 카메라 식별 정보에 대응되는 감시 카메라의 설치 장소 정보 및 상기 설치 장소에서 제공되는 사용자 서비스와 연관된 사용자 서비스 앱을 상기 클라우드 서버에 등록하는 단계;를 더 포함할 수 있다.According to an embodiment, the method of executing the user service app includes receiving the user identification information and registering the user with the cloud server; And registering the surveillance camera identification information, the installation location information of the surveillance camera corresponding to the surveillance camera identification information, and the user service app associated with the user service provided at the installation location to the cloud server. It may further include; .

실시 예에 따라, 또한, 상기 사용자 서비스 앱 실행 방법은, 상기 사용자 단말에 설치된 사용자 서비스 앱을 상기 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라에 대한 감시 카메라 식별 정보와 연관 짓는 단계;를 더 포함할 수 있다.According to an embodiment, the method of executing the user service app includes the step of associating the user service app installed on the user terminal with surveillance camera identification information for a surveillance camera installed at a location providing the service provided by the user service app. It may further include ;.

실시 예에 따라, 또한, 상기 사용자 서비스 앱 실행 방법은, 상기 사용자 단말에 설치된 사용자 서비스 관리 앱을 통해 상기 감시 카메라가 설치된 장소와 연관되는 사용자 서비스 앱을 상기 클라우드 서버에 등록하는 단계;를 더 포함하고, 상기 사용자 서비스 관리 앱은, 상기 클라우드 서버로부터 특정 설치 장소에 설치된 감시 카메라 식별 정보 및 사용자 식별 정보를 수신하면, 상기 식별된 사용자의 사용자 단말에 설치된 사용자 서비스 앱 중에서 상기 특정 설치 장소에 설치된 감시 카메라 식별 정보와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지를 출력하고, 상기 사용자 서비스 앱의 실행 여부를 확인하는 통지에 대한 사용자의 선택에 따라 상기 사용자 서비스 앱을 실행할 수 있다.According to an embodiment, the user service app execution method further includes registering a user service app associated with a location where the surveillance camera is installed to the cloud server through a user service management app installed on the user terminal. And, when the user service management app receives the surveillance camera identification information and user identification information installed at a specific installation location from the cloud server, the user service management app installs the surveillance camera at the specific installation location among the user service apps installed on the user terminal of the identified user. A notification confirming whether the user service app associated with the camera identification information is executed is output, and the user service app can be executed according to the user's selection of the notification confirming whether the user service app is executed.

실시 예에 따라, 또한, 상기 사용자 서비스 앱은, 상기 감시 카메라가 설치된 장소에서 제공되는 할인 쿠폰을 제공하는 사용자 앱, 상기 감시 카메라가 설치된 장소에서 제공되는 리워드를 적립하는 사용자 앱, 또는 상기 감시 카메라가 설치된 장소에서 제공되는 서비스의 사용과 관련된 사용자 앱일 수 있다.Depending on the embodiment, the user service app may be a user app that provides a discount coupon provided at a location where the surveillance camera is installed, a user app that accumulates rewards provided at a location where the surveillance camera is installed, or the surveillance camera. It may be a user app related to the use of services provided in a location where is installed.

실시 예에 따라, 또한, 상기 사용자 식별 정보는, 사용자의 얼굴 영상, 사용자의 차량 번호, 및 사용자가 부착하고 있는 인식표를 포함할 수 있다.Depending on the embodiment, the user identification information may include the user's face image, the user's vehicle license plate number, and an identification tag attached to the user.

본 명세서에 개시된 실시 예들에 의하면, 감시 카메라가 설치된 특정 장소에 사용자가 방문을 하면, 감시 카메라가 상기 사용자를 인식한 뒤, 상기 특정 장소에서 제공되는 사용자 서비스와 연관된 사용자 서비스 앱을 자동으로 실행시켜 줌으로서 사용자 서비스를 용이하게 받을 수 있도록 해주는 효과가 있다.According to embodiments disclosed herein, when a user visits a specific location where a surveillance camera is installed, the surveillance camera recognizes the user and automatically runs a user service app associated with the user service provided at the specific location. Zoom has the effect of making it easier for users to receive services.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Meanwhile, the effects that can be obtained from the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 발명을 실시하기 위한 구체적인 내용과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 실시 예에 따른 클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱의 실행 방법에 대한 개념도이다.
도 2는 실시 예에 따른 감시 카메라의 개략적인 블록도이다.
도 3은 실시 예에 따른 클라우드 서버의 개략적인 블록도이다.
도 4는 일 실시예에 따른 감시 카메라 및 클라우드 서버에서 객체 인식에 적용되는 AI 프로세싱부를 설명하기 위한 도면이다.
도 5는 일 실시 예에 따른 클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱 실행 방법을 나타내는 순서도이다.
도 6은 다른 실시 예에 따른 클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱 실행 방법을 나타내는 순서도이다.
The following drawings attached to this specification illustrate preferred embodiments of the present invention, and serve to further understand the technical idea of the present invention along with specific details for carrying out the invention. Therefore, the present invention is described in such drawings. It should not be interpreted as limited to the specific details.
1 is a conceptual diagram of a method of executing a user service app by a cloud surveillance camera system according to an embodiment.
Figure 2 is a schematic block diagram of a surveillance camera according to an embodiment.
Figure 3 is a schematic block diagram of a cloud server according to an embodiment.
Figure 4 is a diagram for explaining an AI processing unit applied to object recognition in a surveillance camera and a cloud server according to an embodiment.
Figure 5 is a flowchart showing a method of executing a user service app by a cloud surveillance camera system according to an embodiment.
Figure 6 is a flowchart showing a method of executing a user service app by a cloud surveillance camera system according to another embodiment.

본 명세서에 개시된 기술은 감시 카메라에 적용될 수 있다. 그러나 본 명세서에 개시된 기술은 이에 한정되지 않고, 상기 기술의 기술적 사상이 적용될 수 있는 모든 장치 및 방법에도 적용될 수 있다.The technology disclosed in this specification can be applied to surveillance cameras. However, the technology disclosed in this specification is not limited to this, and can be applied to all devices and methods to which the technical idea of the technology can be applied.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 명세서에 개시된 기술의 사상을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 명세서에 개시된 기술의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 명세서에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥 상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in this specification are only used to describe specific embodiments and are not intended to limit the spirit of the technology disclosed in this specification. In addition, the technical terms used in this specification, unless specifically defined in a different way in this specification, should be interpreted as meanings generally understood by those skilled in the art in the field to which the technology disclosed in this specification belongs. It should not be interpreted in a very comprehensive sense or in an excessively reduced sense. In addition, if the technical term used in this specification is an incorrect technical term that does not accurately express the idea of the technology disclosed in this specification, it is a technical term that can be correctly understood by a person with ordinary knowledge in the field to which the technology disclosed in this specification belongs. It should be understood and replaced with . Additionally, general terms used in this specification should be interpreted as defined in the dictionary or according to the context, and should not be interpreted in an excessively reduced sense.

본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.Terms containing ordinal numbers, such as first, second, etc., used in this specification may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component without departing from the scope of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numerals regardless of the reference numerals, and duplicate descriptions thereof will be omitted.

또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 기술의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 그 기술의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.Additionally, when describing the technology disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the technology disclosed in this specification, the detailed description will be omitted. In addition, it should be noted that the attached drawings are only intended to facilitate easy understanding of the spirit of the technology disclosed in this specification, and should not be construed as limiting the spirit of the technology by the attached drawings.

본 발명의 일 실시예에 따른 영상 또는 이미지는 특별한 한정이 없는 한 정지영상 및 동영상을 모두 포함한다.Videos or images according to an embodiment of the present invention include both still images and moving images, unless otherwise specified.

이하에서는 첨부의 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 실시 예에 따른 클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱의 실행 방법에 대한 개념도이다.1 is a conceptual diagram of a method of executing a user service app by a cloud surveillance camera system according to an embodiment.

도 1을 참조하면, 본 명세서의 일 실시예에 따른 클라우드 감시 카메라 시스템(1000)은 여러 장소에 설치되어 있는 복수의 감시 카메라(100) 및 클라우드 서버(200)를 포함할 수 있다.Referring to FIG. 1, a cloud surveillance camera system 1000 according to an embodiment of the present specification may include a plurality of surveillance cameras 100 and a cloud server 200 installed in various locations.

복수의 감시 카메라(100)는 슈퍼 마켓(410), 주유소(420), 쇼핑몰(430), 주차장(440) 등 여러 장소의 고정된 위치에 배치되는 영상 촬영용 전자 장치일 수 있다. 복수의 감시 카메라(100)는 각각 감시하는 영역을 동영상이나 정지영상으로 촬영할 수 있다.The plurality of surveillance cameras 100 may be electronic devices for capturing images placed at fixed locations in various places, such as a super market 410, a gas station 420, a shopping mall 430, and a parking lot 440. The plurality of surveillance cameras 100 can each capture a monitored area as a video or still image.

감시 카메라(100)는 유선 또는 무선으로 인터넷에 연결하여 사용하는 네트워크 카메라일 수 있다. 감시 카메라(100) 각각은 팬(pan), 틸트(tilt), 및 줌(zoom) 기능을 갖는 PTZ 카메라일 수 있다. 감시 카메라(100)는 렌즈 및 이미지 센서를 포함하는 카메라 일 수 있다. 렌즈는 1매 이상의 렌즈로 구성되는 렌즈군일 수 있다. 이미지 센서는 렌즈에 의하여 입력된 영상을 전기적 신호로 변환할 수 있다.The surveillance camera 100 may be a network camera used by connecting to the Internet by wire or wirelessly. Each of the surveillance cameras 100 may be a PTZ camera with pan, tilt, and zoom functions. The surveillance camera 100 may be a camera including a lens and an image sensor. The lens may be a lens group consisting of one or more lenses. An image sensor can convert an image input by a lens into an electrical signal.

감시 카메라(100)는 촬영 대상 공간, 즉 감시 영역에 대한 RGB로 구성된 영상, 적외선 영상 또는 거리 정보를 포함하는 거리 영상 등을 제공할 수 있다. 감시 카메라(100)는 감시하는 영역에서 발생하는 소리를 녹음하는 기능을 가질 수 있다. 감시 카메라(100)는 감시하는 영역에서 움직임 또는 소리 등 변화가 발생할 경우, 이에 대한 알림을 발생시키거나 동영상을 녹화 또는 정지영상 촬영을 수행하는 기능을 가질 수 있다.The surveillance camera 100 may provide an image composed of RGB, an infrared image, or a distance image including distance information for the space to be captured, that is, the surveillance area. The surveillance camera 100 may have the function of recording sounds occurring in the monitored area. The surveillance camera 100 may have a function to generate a notification, record a video, or capture a still image when a change such as movement or sound occurs in the monitored area.

클라우드 서버(200)는 감시 카메라(100)를 통하여 촬영된 영상 자체 및/또는 해당 영상을 편집하여 얻어지는 영상을 수신하여 정해진 목적에 맞게 처리하는 장치일 수 있다.The cloud server 200 may be a device that receives the video itself captured through the surveillance camera 100 and/or the video obtained by editing the video and processes it for a specified purpose.

클라우드 서버(200)는 감시 카메라(100)와 네트워크를 통해 연결되어, 영상 데이터, 영상 데이터의 처리 결과 및 각종 제어 데이터를 송수신할 수 있다.The cloud server 200 is connected to the surveillance camera 100 through a network and can transmit and receive video data, video data processing results, and various control data.

각각의 감시 카메라(100)는 영상 데이터뿐만 아니라 슈퍼 마켓, 주유소, 쇼핑몰, 주차장 등과 같은 자신이 설치된 장소에 대한 정보를 포함한 감시 카메라 식별 정보를 클라우드 서버(200)로 전송하여 클라우드 서버(200)에 자신을 등록함으로써, 클라우드 서버(200)로 하여금 수신되는 영상 데이터가 어느 감시 카메라에서 촬영된 영상 데이터인지 구분할 수 있도록 할 수 있다.Each surveillance camera 100 transmits not only video data but also surveillance camera identification information, including information about the location where it is installed, such as a super market, gas station, shopping mall, parking lot, etc., to the cloud server 200. By registering itself, the cloud server 200 can distinguish which surveillance camera the received video data is from.

클라우드 서버(200)와 감시 카메라(100) 간의 유무선 통신 경로인 통신망은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트 워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 명세서의 범위가 이에 한정되는 것은 아니다.The communication network, which is a wired or wireless communication path between the cloud server 200 and the surveillance camera 100, is, for example, a wired network such as LANs (Local Area Networks), WANs (Wide Area Networks), MANs (Metropolitan Area Networks), and ISDNs (Integrated Service Digital Networks). It may encompass wireless networks such as networks, wireless LANs, CDMA, Bluetooth, and satellite communications, but the scope of the present specification is not limited thereto.

한편, 클라우드 서버(200)는 영상 분석 목적에 적합한 다양한 학습 모델을 저장하고 있을 수 있다. 클라우드 서버(200)는 감시 카메라(100)에서 수신된 영상 데이터에서 사람의 얼굴 또는 자동차 번호 등의 객체를 식별할 수 있는 인공지능 기반의 학습 모델을 저장하고 있을 수 있다.Meanwhile, the cloud server 200 may store various learning models suitable for video analysis purposes. The cloud server 200 may store an artificial intelligence-based learning model that can identify objects such as a person's face or a car license plate number from image data received from the surveillance camera 100.

클라우드 감시 카메라 시스템(1000) 또는 그 일부 구성은 DVR(Digital Video Recorder), CMS(Central Management System), NVR(Network Video Recorder), VMS(Video Management System) 등의 영상 보안 솔루션과 연결되어 영상 데이터를 전달하거나 이들 영상 보안 솔루션의 일부 구성으로 포함될 수도 있다.The cloud surveillance camera system 1000 or a portion thereof is connected to a video security solution such as a Digital Video Recorder (DVR), Central Management System (CMS), Network Video Recorder (NVR), and Video Management System (VMS) to collect video data. It may be delivered or included as part of these video security solutions.

사용자(30)는 먼저 슈퍼 마켓, 주유소, 쇼핑몰, 주차장 등의 다양한 장소에서 제공되는 사용자 서비스에 대한 사용자 서비스 앱을 앱 마켓 또는 클라우드 서버(200)로부터 다운로드 받아 사용자 단말(300)에 설치한다.The user 30 first downloads a user service app for user services provided in various places such as a super market, gas station, shopping mall, and parking lot from the app market or cloud server 200 and installs it on the user terminal 300.

사용자(30)는 사용자 단말(300)을 통해 자신의 얼굴 영상, 차량 번호, QR코드 같은 자신에게 부착된 식별 표식 등을 자신을 식별할 수 있는 사용자 식별 정보로서 클라우드 서버(200)에 전송하여 클라우드 서버(200)에 등록할 수 있다. 사용자 식별 정보는 전술한 사용자 서비스 앱을 통해서 클라우드 서버(200)로 전송될 수도 있다. 클라우드 서버(200)는 사용자 단말(300)에 설치된 사용자 서비스 앱을 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라(100)에 대한 감시 카메라 식별 정보와 연관 지어 저장한다.The user 30 transmits his or her face image, vehicle number, or identification mark attached to the user, such as a QR code, to the cloud server 200 as user identification information that can identify the user through the user terminal 300 to the cloud server 200. It can be registered on the server 200. User identification information may be transmitted to the cloud server 200 through the user service app described above. The cloud server 200 stores the user service app installed on the user terminal 300 in association with surveillance camera identification information for the surveillance camera 100 installed at the location providing the service provided by the user service app.

감시 카메라(100)는 각각의 감시 영역을 촬영하고, 촬영된 영상에서 사람이나 자동차 등의 객체가 촬영되면, 사람의 얼굴 또는 자동차의 번호 등 객체를 식별할 수 있는 정보를 추출한다. 예를 들어, 감시 카메라(100)들 중에서 주유소(420)에 설치된 감시 카메라가 특정 사용자(30)가 탑승하고 있는 자동차를 촬영하면, 촬영된 영상에서 특정 사용자(30)에 대한 사용자 식별 정보로서 자동차 번호를 추출하여 클라우드 서버(200)로 전송한다. 이 때, 사용자 식별 정보로서 자동차 번호뿐만 아니라, 감시 카메라 식별 정보도 함께 클라우드 서버(200)로 전송된다.The surveillance camera 100 photographs each surveillance area, and when an object such as a person or a car is photographed in the captured image, information that can identify the object, such as the person's face or the car number, is extracted. For example, when a surveillance camera installed at a gas station 420 among the surveillance cameras 100 captures a car in which a specific user 30 is riding, the vehicle is used as user identification information for the specific user 30 in the captured video. The number is extracted and transmitted to the cloud server (200). At this time, not only the car number but also the surveillance camera identification information is transmitted to the cloud server 200 as user identification information.

클라우드 서버(200)는 감시 카메라로부터 수신된 사용자 식별 정보에 기초하여 감시 카메라에 의해 촬영된 사용자가 누구인지 식별할 수 있다. 클라우드 서버(200)는 사용자 식별 정보를 사용자 데이터베이스와 비교하여 감시 카메라에 의해 촬영된 사용자가 누구인지 식별할 수 있고, 사용자 식별 결과 및 감시 카메라 식별 정보에 기초하여 식별된 사용자가 감시 카메라가 설치된 장소에 입장하는 지의 여부를 판단할 수 있다. 예를 들어, 클라우드 서버(200)는 감시 카메라로부터 사용자 식별 정보를 수신하면, 해당 사용자 식별 정보에 대응되는 사용자(30)의 사용자 단말(300)에 감시 카메라가 설치된 장소에서 사용될 수 있는 사용자 서비스 앱을 실행하기 위해 통지를 사용자 단말에 출력하고, 사용자의 선택 입력에 따라 해당 사용자 서비스 앱을 실행할 수 있다. 도면 부호 350은 클라우드 서버(200)에서의 사용자 인식 후 사용자 단말(300)에서의 출력의 예를 도시한다. 클라우드 서버(200)는 식별된 사용자에 대한 영상이 주유소(420)에 설치된 감시 카메라로부터 수신된 것이므로, 사용자(30)가 주유를 하기 위해 주유소(420)에 방문한 것으로 판단하고, 주유소의 결제 내역에 따른 리워드를 적립할 수 있도록 리워드 적립용 바코드를 사용자 단말(300)에 출력할 지를 확인하는 통지(notification: 310)를 사용자 단말(300)로 전송한다. 이어서, 사용자(30)가 바코드 출력에 대한 통지(310)를 터치하면, 사용자 단말(300)은 리워드 적립용 바코드(311)를 사용자 단말(300)에 출력한다. 따라서, 사용자(30)는 리워드 적립을 위해 별도로 앱을 실행할 필요 없이 자신의 단말(300)에 자동으로 출력된 통지(310)를 터치함으로써 간편하게 사용자 서비스로서 구매에 대한 리워드 적립을 제공받을 수 있다.The cloud server 200 may identify the user captured by the surveillance camera based on user identification information received from the surveillance camera. The cloud server 200 can identify the user captured by the surveillance camera by comparing the user identification information with the user database, and the user identified based on the user identification result and the surveillance camera identification information is located at the location where the surveillance camera is installed. You can decide whether to enter or not. For example, when the cloud server 200 receives user identification information from a surveillance camera, the user service app can be used in a location where a surveillance camera is installed on the user terminal 300 of the user 30 corresponding to the user identification information. To execute, a notification is output to the user terminal, and the corresponding user service app can be executed according to the user's selection input. Reference numeral 350 shows an example of output from the user terminal 300 after user recognition in the cloud server 200. Since the image of the identified user was received from a surveillance camera installed at the gas station 420, the cloud server 200 determines that the user 30 visited the gas station 420 to refuel, and enters the gas station's payment details. A notification (310) confirming whether to print the reward accumulation barcode to the user terminal 300 so that the corresponding rewards can be accumulated is transmitted to the user terminal 300. Next, when the user 30 touches the notification 310 for barcode output, the user terminal 300 outputs the barcode 311 for reward accumulation to the user terminal 300. Accordingly, the user 30 can easily receive reward accumulation for purchases as a user service by touching the notification 310 automatically displayed on his terminal 300 without the need to run a separate app to accumulate rewards.

이 외, 클라우드 서버(200)는 사용자가 슈퍼 마켓(410)에 입장한 것으로 판단되면, 사용자의 단말에 슈퍼 마켓(410)에서 제공되는 할인 쿠폰을 출력할 수 있고, 사용자가 쇼핑몰(430)에 입장한 것으로 판단되면, 사용자의 단말에 쇼핑몰(300)에서 제공되는 프로모션 쿠폰을 출력할 수 있고, 사용자가 주차장(440)에 입장한 것으로 판단되면, 사용자의 단말에 빈 주차공간을 안내하는 주차 안내 앱을 실행할 수도 있다. 본 명세서에서는 4가지 경우로 예를 들어 설명하였지만, 특정 장소에서 고객에게 제공되는 서비스와 관련된 어떠한 사용자 서비스 앱이라도 클라우드 서버(200)에 미리 등록하여 상기 특정 장소에 사용자가 방문하면 해당 장소에서 제공되는 서비스와 관련된 사용자 서비스 앱을 자동으로 실행되도록 할 수 있다.In addition, when the cloud server 200 determines that the user has entered the super market 410, it can print a discount coupon provided by the super market 410 on the user's terminal and allow the user to enter the shopping mall 430. If it is determined that the user has entered, a promotional coupon provided by the shopping mall 300 can be printed on the user's terminal. If it is determined that the user has entered the parking lot 440, parking information is provided to the user's terminal to indicate an empty parking space. You can also run apps. Although four cases are used as examples in this specification, any user service app related to the service provided to the customer at a specific location is registered in advance on the cloud server 200 and when the user visits the specific location, the service provided at the location is registered. User service apps related to the service can be run automatically.

다른 실시 예에 따라, 사용자 단말(300)에는 사용자가 방문하는 장소마다 제공되는 사용자 서비스를 제공받기 위한 사용자 서비스 앱들이 본 시스템과 관계없이 미리 설치되어 있을 수 있다. 이 경우에는 사용자가 사용자 서비스 관리 앱을 앱 마켓 또는 클라우드 서버(200)로부터 다운로드하여 사용자 단말(300)에 설치할 수 있다. 사용자 서비스 관리 앱은 전술한 사용자 서비스 앱들 중에서 특정 장소에서 제공되는 서비스와 관련된 사용자 서비스 앱을 실행시킬 수 있다. 사용자 서비스 관리 앱은 사용자 식별 정보 및 사용자 단말에 설치되어 있는 사용자 서비스 앱의 목록을 클라우드 서버(200)로 전송할 수 있다. 클라우드 서버(200)는 수신된 사용자 서비스 앱의 목록에서 각 사용자 서비스 앱을 해당 서비스를 제공하는 장소에 설치된 감시 카메라(100)의 식별 정보와 연관지어 데이터 베이스에 저장할 수 있다.According to another embodiment, user service apps for receiving user services provided at each place the user visits may be pre-installed on the user terminal 300, regardless of the system. In this case, the user can download the user service management app from the app market or cloud server 200 and install it on the user terminal 300. The user service management app can run a user service app related to a service provided at a specific location among the user service apps described above. The user service management app may transmit user identification information and a list of user service apps installed on the user terminal to the cloud server 200. The cloud server 200 may store each user service app in the database in the list of received user service apps in association with the identification information of the surveillance camera 100 installed at the location providing the service.

이 경우, 감시 카메라(100)가 감시 영역을 촬영하여 사용자 식별 정보를 획득한 뒤, 이를 감시 카메라 식별 정보와 함께 클라우드 서버(200)로 전송하면, 클라우드 서버(200)는 수신된 사용자 식별 정보에 기초하여 감시 카메라(100)에 촬영된 사용자를 식별하고, 식별된 사용자의 사용자 단말(300)에 설치된 사용자 앱 중 사용자를 식별한 감시 카메라(100)가 설치된 장소와 연관된 사용자 서비스 앱을 실행시키도록 식별된 사용자의 사용자 단말(100)에 설치된 사용자 서비스 관리 앱에 대한 작동 명령을 식별된 사용자의 사용자 단말(100)로 전송한다. 사용자 서비스 관리 앱은 통지에 실행이 지시된 사용자 서비스 앱에 대한 실행 여부를 메시지를 사용자 단말(300)에 출력하고, 사용자가 서비스 앱의 실행을 승인할 경우, 해당 사용자 서비스 앱을 실행하여 사용자가 서비스를 받을 수 있도록 할 수 있다.In this case, when the surveillance camera 100 acquires user identification information by photographing the surveillance area and transmits this along with the surveillance camera identification information to the cloud server 200, the cloud server 200 stores the received user identification information. Based on this, identify the user captured by the surveillance camera 100 and run the user service app associated with the location where the surveillance camera 100 that identified the user is installed among the user apps installed on the user terminal 300 of the identified user. An operation command for the user service management app installed on the user terminal 100 of the identified user is transmitted to the user terminal 100 of the identified user. The user service management app outputs a message to the user terminal 300 as to whether to run the user service app instructed to run in the notification, and when the user approves execution of the service app, it executes the user service app to allow the user to You can ensure that you receive services.

도 2는 실시 예에 따른 감시 카메라의 개략적인 블록도이다.Figure 2 is a schematic block diagram of a surveillance camera according to an embodiment.

도 2를 참조하면, 감시 카메라(100)는 이미지 센서(110), 인코더(120), 메모리(130), 프로세서(140), AI 프로세싱부(150), 및 통신부(160)를 포함할 수 있다.Referring to FIG. 2, the surveillance camera 100 may include an image sensor 110, an encoder 120, a memory 130, a processor 140, an AI processing unit 150, and a communication unit 160. .

이미지 센서(110)는 감시 영역을 촬영하여 영상을 획득하는 기능을 수행하는 것으로서, 예컨대, 이미지 센서는 CCD(Charge-Coupled Device) 또는 CMOS(Complementary Metal Oxide Semiconductor)와 같이 광학 신호를 전기적 신호(이하 영상으로 설명함)로 변환할 수 있는 반도체 소자 등으로 구현될 수 있다.The image sensor 110 performs the function of acquiring an image by photographing a surveillance area. For example, the image sensor converts optical signals into electrical signals (hereinafter referred to as CCD (Charge-Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor)). It can be implemented with semiconductor devices that can be converted to (explained in the video).

인코더(120)는 이미지 센서(110)를 통해 획득한 영상을 디지털 신호로 부호화하는 동작을 수행하며, 이는 예컨대, H.264, H.265, MPEG(Moving Picture Experts Group), M-JPEG(Motion Joint Photographic Experts Group) 표준 등을 따를 수 있다.The encoder 120 encodes the image acquired through the image sensor 110 into a digital signal, such as H.264, H.265, MPEG (Moving Picture Experts Group), M-JPEG (Motion Joint Photographic Experts Group) standards, etc.

메모리(130)는 영상 데이터, 음성 데이터, 스틸 이미지, 메타데이터 등을 저장할 수 있다. 메타데이터는 감시 영역에서 촬영된 객체 감지 정보(움직임, 소리, 지정 지역 침입 등), 객체 식별 정보(사람, 차, 얼굴, 모자, 의상 등), 및 감지된 위치 정보(좌표, 크기 등)을 포함하는 데이터일 수 있다. 또한, 스틸 이미지는 메타데이터와 함께 생성되어 메모리(130)에 저장되는 것으로서, 영상 분석 정보들 중 특정 분석 영역에 대한 이미지 정보를 캡처하여 생성될 수 있다. 일 예로, 스틸 이미지는 JPEG 이미지 파일로 구현될 수 있다. 일 예로, 스틸 이미지는 특정 영역 및 특정 기간 동안 감지된 감시 영역의 영상 데이터들 중 식별 가능한 객체로 판단된 영상 데이터의 특정영역을 크롭핑(cropping)하여 생성될 수 있으며, 이는 메타데이터와 함께 실시간으로 전송될 수 있다.The memory 130 can store video data, audio data, still images, metadata, etc. Metadata includes object detection information (movement, sound, intrusion into a designated area, etc.) captured in the surveillance area, object identification information (people, cars, faces, hats, clothes, etc.), and detected location information (coordinates, size, etc.). It may be data that it contains. Additionally, the still image is created with metadata and stored in the memory 130, and may be created by capturing image information for a specific analysis area among the image analysis information. As an example, a still image may be implemented as a JPEG image file. As an example, a still image may be created by cropping a specific area of the video data determined to be an identifiable object among the video data of the surveillance area detected in a specific area and for a specific period of time, which can be generated in real time along with metadata. can be transmitted.

프로세서(140)는 감시 카메라(100)를 구성하는 모든 구성 요소들을 제어하여 영상 촬영에서부터 객체 식별 정보의 추출 및 영상 데이터의 전송까지의 모든 기능을 제어할 수 있다.The processor 140 controls all components constituting the surveillance camera 100 and can control all functions from image capture to extraction of object identification information and transmission of image data.

AI 프로세싱부(150)는 인공지능 영상 처리를 위한 것으로서, 본 명세서의 일 실시예에 따라 감시 카메라를 통해 촬영된 영상에서 얼굴 영상, 차량 번호판, 객체에게 부착되어 있는 객체 식별 표식 등의 객체를 추출하여 객체에 대한 식별 정보를 획득할 수 있다. 상기 AI 프로세싱부(150)는 시스템 전반에 걸쳐 제어하는 프로세서(140)와 하나의 모듈로 구현되거나 독립된 모듈로 구현될 수 있다. 본 명세서의 실시예들은 객체에 대한 식별 정보의 탐지 및 추출에 있어서 YOLO(You Only Lock Once) 알고리즘이 적용될 수 있다. YOLO는 객체 감지 속도가 빠르기 때문에 실시간 동영상을 처리하는 감시 카메라에 적당한 AI 알고리즘이다. YOLO 알고리즘은 다른 객체 기반 알고리즘들(Faster R-CNN, R_FCN, FPN-FRCN 등)과 달리 한 장의 입력 영상을 리사이즈(Resize) 후 단일 신경망을 단 한 번 통과시킨 결과로 각 객체의 위치를 인디케이팅하는 바운딩 박스(Bounding Box)와 탐지된 객체가 무엇인지 객체 분류 확률을 출력한다. 최종적으로 Non-max suppression을 통해 하나의 객체를 한번 인식(detection)한다. 한편, 본 명세서에 개시되는 객체 인식 알고리즘은 전술한 YOLO에 한정되지 않고 다양한 딥러닝 알고리즘으로 구현될 수 있음을 밝혀 둔다.The AI processing unit 150 is for artificial intelligence image processing and extracts objects such as face images, vehicle license plates, and object identification marks attached to objects from images captured through surveillance cameras according to an embodiment of the present specification. Thus, identification information about the object can be obtained. The AI processing unit 150 may be implemented as a single module with the processor 140 that controls the overall system, or may be implemented as an independent module. Embodiments of the present specification may apply the YOLO (You Only Lock Once) algorithm in detecting and extracting identification information for objects. YOLO is an AI algorithm suitable for surveillance cameras that process real-time video because of its fast object detection speed. Unlike other object-based algorithms (Faster R-CNN, R_FCN, FPN-FRCN, etc.), the YOLO algorithm resizes one input image and passes it through a single neural network to indicate the location of each object. It outputs the object classification probability of the bounding box and the detected object. Finally, one object is recognized (detection) once through non-max suppression. Meanwhile, it should be noted that the object recognition algorithm disclosed in this specification is not limited to the above-described YOLO and can be implemented with various deep learning algorithms.

통신부(160)는 촬영된 영상 데이터 및 획득된 객체 식별 정보를 네트워크를 통해 클라우드 서버(200)로 전송할 수 있다. 또한, 통신부(160)는 영상 데이터, 음성 데이터, 스틸 이미지, 및/또는 메타데이터를 DVR, CMS, NVR, VMS 등의 영상 보안 솔루션 또는 디스플레이 장치에 전송한다. 일 실시예에 따른 통신부(160)는 영상 데이터, 음성 데이터, 스틸 이미지, 및/또는 메타데이터를 영상 보안 솔루션에 실시간으로 전송할 수 있다. 통신부(160)는 유무선 LAN(Local Area Network), 와이파이(Wi-Fi), 지그비(ZigBee), 블루투스(Bluetooth), 근거리 통신(Near Field Communication) 중 적어도 하나의 통신 기능을 수행할 수 있다.The communication unit 160 may transmit captured image data and acquired object identification information to the cloud server 200 through a network. Additionally, the communication unit 160 transmits video data, audio data, still images, and/or metadata to a video security solution or display device such as a DVR, CMS, NVR, or VMS. The communication unit 160 according to one embodiment may transmit video data, audio data, still images, and/or metadata to a video security solution in real time. The communication unit 160 may perform at least one communication function among wired and wireless LAN (Local Area Network), Wi-Fi, ZigBee, Bluetooth, and Near Field Communication.

도 3은 실시 예에 따른 클라우드 서버의 개략적인 블록도이다.Figure 3 is a schematic block diagram of a cloud server according to an embodiment.

도 3을 참조하면, 클라우드 서버(200)는 통신부(210), 디코더(220), 메모리(230), 프로세서(240), AI 프로세싱부(250), 및 데이터 베이스(260)를 포함할 수 있다.Referring to FIG. 3, the cloud server 200 may include a communication unit 210, a decoder 220, a memory 230, a processor 240, an AI processing unit 250, and a database 260. .

통신부(210)는 영상 데이터, 음성 데이터, 스틸 이미지, 및/또는 메타데이터를 감시 카메라(100)로부터 수신하고, 수신된 데이터를 DVR, CMS, NVR, VMS 등의 영상 보안 솔루션 또는 디스플레이 장치에 전송할 수 있다. 일 실시예에 따른 통신부(210)는 영상 데이터, 음성 데이터, 스틸 이미지, 및/또는 메타데이터를 영상 보안 솔루션에 실시간으로 전송할 수 있다. 통신부(210)는 유무선 LAN(Local Area Network), 와이파이(Wi-Fi), 지그비(ZigBee), 블루투스(Bluetooth), 근거리 통신(Near Field Communication) 중 적어도 하나의 통신 기능으로 감시 카메라(100)와의 통신을 수행할 수 있다.The communication unit 210 receives video data, audio data, still images, and/or metadata from the surveillance camera 100, and transmits the received data to a video security solution or display device such as DVR, CMS, NVR, and VMS. You can. The communication unit 210 according to one embodiment may transmit video data, audio data, still images, and/or metadata to a video security solution in real time. The communication unit 210 communicates with the surveillance camera 100 using at least one communication function among wired and wireless LAN (Local Area Network), Wi-Fi, ZigBee, Bluetooth, and Near Field Communication. Communication can be performed.

디코더(220)는 감시 카메라(100)의 통신부(160)를 통해 수신한 영상을 영상 신호로 복호화하는 동작을 수행하며, 이는 예컨대, H.264, H.265, MPEG(Moving Picture Experts Group), M-JPEG(Motion Joint Photographic Experts Group) 표준 등을 따를 수 있다.The decoder 220 performs an operation of decoding the video received through the communication unit 160 of the surveillance camera 100 into a video signal, such as H.264, H.265, MPEG (Moving Picture Experts Group), It can follow M-JPEG (Motion Joint Photographic Experts Group) standards, etc.

메모리(230)는 영상 데이터, 음성 데이터, 스틸 이미지, 메타데이터 등을 저장할 수 있다. 스틸 이미지는 메타데이터와 함께 생성되어 메모리(230)에 저장되는 것으로서, 영상 분석 정보들 중 특정 분석 영역에 대한 이미지 정보를 캡처하여 생성될 수 있다. 일 예로, 스틸 이미지는 JPEG 이미지 파일로 구현될 수 있다. 일 예로, 스틸 이미지는 특정 영역 및 특정 기간 동안 감지된 감시 영역의 영상 데이터들 중 식별 가능한 객체로 판단된 영상 데이터의 특정영역을 크롭핑(cropping)하여 생성될 수 있으며, 이는 메타데이터와 함께 실시간으로 저장될 수 있다.The memory 230 can store video data, audio data, still images, metadata, etc. A still image is created with metadata and stored in the memory 230, and may be created by capturing image information for a specific analysis area among image analysis information. As an example, a still image may be implemented as a JPEG image file. As an example, a still image may be created by cropping a specific area of the video data determined to be an identifiable object among the video data of the surveillance area detected in a specific area and for a specific period of time, which can be generated in real time along with metadata. It can be saved as .

프로세서(240)는 클라우드 서버(200)를 구성하는 모든 구성 요소들을 제어하며, 영상 데이터의 처리, 감시 카메라(100)의 식별 정보에 기초한 설치 장소 판단, 객체 식별 정보의 처리 및 객체 인식 등과 관련된 기능을 처리할 수 있다.The processor 240 controls all components constituting the cloud server 200, and functions related to processing of image data, determination of installation location based on identification information of the surveillance camera 100, processing of object identification information, and object recognition. can be processed.

AI 프로세싱부(250)는 인공지능 영상 처리를 위한 것으로서, 본 명세서의 일 실시예에 따라 감시 카메라(100)를 통해 획득된 객체 식별 정보에서 객체를 인식하여 감시 영역에서 촬영된 사람이 누구인지, 또는 자동차의 번호가 무엇인지를 판단할 수 있다. 상기 AI 프로세싱부(250)는 시스템 전반에 걸쳐 제어하는 프로세서(240)와 하나의 모듈로 구현되거나 독립된 모듈로 구현될 수 있다. 클라우드 서버(200)에서의 객체 인식을 위한 실시예들은 객체에 대한 식별 정보의 탐지 및 추출에 있어서 YOLO(You Only Lock Once) 알고리즘 같은 객체 인식 알고리즘이 적용될 수 있다.The AI processing unit 250 is for artificial intelligence image processing. According to an embodiment of the present specification, the AI processing unit 250 recognizes an object from the object identification information obtained through the surveillance camera 100 and determines who the person photographed in the surveillance area is. Or, you can determine what the car number is. The AI processing unit 250 may be implemented as one module with the processor 240 that controls the overall system, or may be implemented as an independent module. In embodiments for object recognition in the cloud server 200, an object recognition algorithm such as the You Only Lock Once (YOLO) algorithm may be applied in detecting and extracting identification information for an object.

데이터 베이스(260)는 사용자 DB(261), 사용자 서비스 앱 DB(262) 및 감시 카메라 DB(263)를 포함하여 구성될 수 있다.The database 260 may include a user DB 261, a user service app DB 262, and a surveillance camera DB 263.

사용자 DB(261)는 클라우드 감시 카메라 시스템(1000)에 의한 사용자 서비스 앱의 자동 실행 서비스를 제공받고자 하는 사용자들이 제공한 자신에 대한 사용자 식별 정보들의 데이터 베이스이다. 사용자 식별 정보는 사용자의 얼굴 영상, 사용자의 차량 번호, 및 사용자에게 부착되어 있는 사용자 식별 표식 등을 포함할 수 있으며, 이들 사용자 식별 정보는 사용자 단말(300)로부터 수신된 후, 대응되는 사용자에 매칭되어 사용자 정보로서 클라우드 서버(200)에 등록된다.The user DB 261 is a database of user identification information about themselves provided by users who wish to be provided with the automatic execution service of the user service app by the cloud surveillance camera system 1000. User identification information may include a user's face image, a user's vehicle registration number, and a user identification mark attached to the user. This user identification information is received from the user terminal 300 and then matched to the corresponding user. and is registered in the cloud server 200 as user information.

사용자 서비스 앱 DB(262)는 감시 카메라(100)가 설치된 장소 별로 제공되는 사용자 서비스와 연관된 사용자 서비스 앱과 사용자 정보를 매칭한 데이터 베이스로서, 등록된 사용자 별로 사용자 단말(300)에서 실행 가능한 사용자 서비스 앱들의 정보가 목록화된 데이터 베이스일 수 있다.The user service app DB 262 is a database that matches the user service app and user information associated with the user service provided for each location where the surveillance camera 100 is installed, and is a user service executable on the user terminal 300 for each registered user. It may be a database listing information about apps.

감시 카메라 DB(263)는 클라우드 감시 카메라 시스템(1000)에 연결된 감시 카메라(100)에 대한 감시 카메라 식별 정보와 상기 감시 카메라 식별 정보에 대응되는 감시 카메라가 설치된 장소 정보가 매칭된 감시 카메라 설치 장소 정보에 대한 데이터 베이스로서, 특정 감시 카메라 식별 정보에 기초하여 수신된 영상 데이터가 어느 장소에서 촬영된 것인 지를 알 수 있도록 만들어진 데이터 베이스일 수 있다.The surveillance camera DB 263 provides surveillance camera installation location information that matches surveillance camera identification information for the surveillance camera 100 connected to the cloud surveillance camera system 1000 and location information where the surveillance camera corresponding to the surveillance camera identification information is installed. It may be a database created to determine where the received video data was filmed based on specific surveillance camera identification information.

클라우드 서버(200)는 사용자 단말(300)로부터 사용자 식별 정보 및 사용자 서비스 앱 정보를 수신하면, 사용자 식별 정보에 해당하는 사용자의 사용자 단말(300)에 설치된 사용자 서비스 앱을 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라(100)에 대한 감시 카메라 식별 정보와 연관 지어 저장한다.When the cloud server 200 receives user identification information and user service app information from the user terminal 300, the cloud server 200 provides a service provided by the user service app installed on the user terminal 300 of the user corresponding to the user identification information. It is stored in association with surveillance camera identification information for the surveillance camera 100 installed in a location that provides.

따라서, 클라우드 서버(200)는 특정 감시 카메라에서 수신된 사용자 식별 정보와 사용자 DB(261)의 사용자 정보 데이터에 기초하여 상기 특정 감시 카메라에서 촬영된 사람이 누구인지를 식별할 수 있으며, 상기 특정 감시 카메라로부터 수신한 감시 카메라 식별 정보와 감시 카메라 DB(263)의 감시 카메라 설치 장소 정보에 기초하여 상기 식별된 사용자에 대한 영상이 어느 장소에서 촬영된 것인지, 즉 사용자가 입장한 장소를 특정할 수 있고, 사용자 서비스 앱 DB(262)의 사용자 서비스 앱 목록 정보에 기초하여 상기 식별된 사용자의 단말에서 사용자가 입장한 장소와 연관된 사용자 서비스 앱을 판단한 뒤, 이를 실행하도록 제어 명령을 사용자 단말로 전송할 수 있다.Therefore, the cloud server 200 can identify the person photographed by the specific surveillance camera based on the user identification information received from the specific surveillance camera and the user information data of the user DB 261, and can identify the person photographed by the specific surveillance camera. Based on the surveillance camera identification information received from the camera and the surveillance camera installation location information in the surveillance camera DB 263, it is possible to specify where the video for the identified user was filmed, that is, the location where the user entered. , Based on the user service app list information in the user service app DB 262, the identified user's terminal determines the user service app associated with the location where the user entered, and then transmits a control command to execute it to the user terminal. .

도 4는 일 실시예에 따른 감시 카메라 및 클라우드 서버에서 객체 인식에 적용되는 AI 프로세싱부를 설명하기 위한 도면이다.Figure 4 is a diagram for explaining an AI processing unit applied to object recognition in a surveillance camera and a cloud server according to an embodiment.

도 4를 살펴보면, AI 프로세싱부(500)는 AI 프로세싱을 수행할 수 있는 AI 모듈을 포함하는 전자 기기 등을 포함할 수 있다. 또한, AI 프로세싱부(500)는 감시 카메라(100) 및 클라우드 서버(200)의 적어도 일부의 구성으로 포함되어 AI 프로세싱 중 적어도 일부를 함께 수행하도록 구비될 수도 있다. AI 프로세싱은 감시 카메라(100)의 프로세서(140) 및 클라우드 서버(200)의 프로세서(240)와 관련된 모든 동작들을 포함할 수 있다. 예를 들어, 감시 카메라(100) 및 클라우드 서버(200)는 획득된 영상 신호를 AI 프로세싱 하여 처리/판단, 제어 신호 생성 동작을 수행할 수 있다.Looking at FIG. 4, the AI processing unit 500 may include an electronic device including an AI module capable of performing AI processing. Additionally, the AI processing unit 500 may be included as at least a portion of the surveillance camera 100 and the cloud server 200 and may be equipped to perform at least a portion of AI processing together. AI processing may include all operations related to the processor 140 of the surveillance camera 100 and the processor 240 of the cloud server 200. For example, the surveillance camera 100 and the cloud server 200 may perform processing/judgment and control signal generation operations by AI processing the acquired video signal.

AI 프로세싱부(500)는 AI 프로세싱 결과를 직접 이용하는 클라이언트 디바이스이거나, AI 프로세싱 결과를 다른 기기에 제공하는 클라우드 환경의 디바이스일 수도 있다. AI 프로세싱부(500)는 신경망을 학습할 수 있는 컴퓨팅 장치로서, 하나의 집적 회로로 구현된 칩, 서버, 데스크탑 PC, 노트북 PC, 태블릿 PC 등과 같은 다양한 전자 장치로 구현될 수 있다. The AI processing unit 500 may be a client device that directly uses AI processing results, or it may be a device in a cloud environment that provides AI processing results to other devices. The AI processing unit 500 is a computing device capable of learning a neural network, and may be implemented with various electronic devices such as a chip implemented as an integrated circuit, a server, a desktop PC, a laptop PC, and a tablet PC.

AI 프로세싱부(500)는 AI 프로세서(21), 메모리(25) 및/또는 통신부(27)를 포함할 수 있다.The AI processing unit 500 may include an AI processor 21, a memory 25, and/or a communication unit 27.

AI 프로세서(21)는 메모리(25)에 저장된 프로그램을 이용하여 신경망을 학습할 수 있다. 특히, AI 프로세서(21)는 감시 카메라의 관련 데이터를 인식하기 위한 신경망을 학습할 수 있다. 여기서, 감시 카메라의 관련 데이터를 인식하기 위한 신경망은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하는, 가중치를 갖는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 모드들은 뉴런이 시냅스(synapse)를 통해 신호를 주고 받는 뉴런의 시냅틱 활동을 모의하도록 각각 연결 관계에 따라 데이터를 주고 받을 수 있다. 여기서 신경망은 신경망 모델에서 발전한 딥러닝 모델을 포함할 수 있다. 딥러닝 모델에서 복수의 네트워크 노드들은 서로 다른 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다. 신경망 모델의 예는 심층 신경망(DNN, deep neural networks), 합성곱 신경망(CNN, convolutional neural networks), 순환 신경망(RNN, Recurrent Networks), 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, deep belief networks), 심층 Q-네트워크(Deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용될 수 있다.The AI processor 21 can learn a neural network using a program stored in the memory 25. In particular, the AI processor 21 can learn a neural network to recognize related data from surveillance cameras. Here, a neural network for recognizing related data from a surveillance camera may be designed to simulate the human brain structure on a computer, and may include a plurality of network nodes with weights that simulate neurons of a human neural network. there is. Multiple network modes can exchange data according to each connection relationship to simulate the synaptic activity of neurons sending and receiving signals through synapses. Here, the neural network may include a deep learning model developed from a neural network model. In a deep learning model, multiple network nodes are located in different layers and can exchange data according to convolutional connection relationships. Examples of neural network models include deep neural networks (DNN), convolutional neural networks (CNN), Recurrent Networks (RNN), Restricted Boltzmann Machine (RBM), and deep trust neural networks ( It includes various deep learning techniques such as DBN (deep belief networks) and Deep Q-Network, and can be applied to fields such as computer vision, speech recognition, natural language processing, and voice/signal processing.

한편, 전술한 바와 같은 기능을 수행하는 프로세서는 범용 프로세서(예를 들어, CPU)일 수 있으나, 인공지능 학습을 위한 AI 전용 프로세서(예를 들어, GPU)일 수 있다.Meanwhile, the processor that performs the above-described functions may be a general-purpose processor (e.g., CPU), or may be an AI-specific processor (e.g., GPU) for artificial intelligence learning.

메모리(25)는 AI 프로세싱부(500)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(25)는 비 휘발성 메모리, 휘발성 메모리, 플래시 메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SDD) 등으로 구현할 수 있다. 메모리(25)는 AI 프로세서(21)에 의해 액세스되며, AI 프로세서(21)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 또한, 메모리(25)는 본 발명의 일 실시예에 따른 데이터 분류/인식을 위한 학습 알고리즘을 통해 생성된 신경망 모델(예를 들어, 딥 러닝 모델(26))을 저장할 수 있다.The memory 25 can store various programs and data necessary for the operation of the AI processing unit 500. The memory 25 can be implemented as non-volatile memory, volatile memory, flash-memory, hard disk drive (HDD), or solid state drive (SDD). The memory 25 is accessed by the AI processor 21, and reading/writing/modifying/deleting/updating data by the AI processor 21 can be performed. Additionally, the memory 25 may store a neural network model (eg, deep learning model 26) generated through a learning algorithm for data classification/recognition according to an embodiment of the present invention.

한편, AI 프로세서(21)는 데이터 분류/인식을 위한 신경망을 학습하는 데이터 학습부(22)를 포함할 수 있다. 데이터 학습부(22)는 데이터 분류/인식을 판단하기 위하여 어떤 학습 데이터를 이용할지, 학습 데이터를 이용하여 데이터를 어떻게 분류하고 인식할지에 관한 기준을 학습할 수 있다. 데이터 학습부(22)는 학습에 이용될 학습 데이터를 획득하고, 획득된 학습데이터를 딥러닝 모델에 적용함으로써, 딥러닝 모델을 학습할 수 있다.Meanwhile, the AI processor 21 may include a data learning unit 22 that learns a neural network for data classification/recognition. The data learning unit 22 can learn standards regarding what learning data to use to determine data classification/recognition and how to classify and recognize data using the learning data. The data learning unit 22 can learn a deep learning model by acquiring learning data to be used for learning and applying the acquired learning data to the deep learning model.

데이터 학습부(22)는 적어도 하나의 하드웨어 칩 형태로 제작되어 AI 프로세싱부(500)에 탑재될 수 있다. 예를 들어, 데이터 학습부(22)는 인공지능(AI)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 범용 프로세서(CPU) 또는 그래픽 전용 프로세서(GPU)의 일부로 제작되어 AI 프로세싱부(500)에 탑재될 수도 있다. 또한, 데이터 학습부(22)는 소프트웨어 모듈로 구현될 수 있다. 소프트웨어 모듈(또는 인스트럭션(instruction)을 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록 매체(non-transitory computer readable media)에 저장될 수 있다. 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 애플리케이션에 의해 제공될 수 있다.The data learning unit 22 may be manufactured in the form of at least one hardware chip and mounted on the AI processing unit 500. For example, the data learning unit 22 may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or may be manufactured as part of a general-purpose processor (CPU) or a graphics processor (GPU) to form the AI processing unit 500. It may be mounted on . Additionally, the data learning unit 22 may be implemented as a software module. When implemented as a software module (or a program module including instructions), the software module may be stored in a non-transitory computer readable recording medium that can be read by a computer. In this case, at least one software module may be provided by an operating system (OS) or an application.

데이터 학습부(22)는 학습 데이터 획득부(23) 및 모델 학습부(24)를 포함할 수 있다.The data learning unit 22 may include a learning data acquisition unit 23 and a model learning unit 24.

학습 데이터 획득부(23)는 데이터를 분류하고 인식하기 위한 신경망 모델에 필요한 학습 데이터를 획득할 수 있다.The learning data acquisition unit 23 may acquire learning data required for a neural network model for classifying and recognizing data.

모델 학습부(24)는 획득된 학습 데이터를 이용하여, 신경망 모델이 소정의 데이터를 어떻게 분류할지에 관한 판단 기준을 가지도록 학습할 수 있다. 이 때 모델 학습부(24)는 학습 데이터 중 적어도 일부를 판단 기준으로 이용하는 지도 학습(supervised learning)을 통하여, 신경망 모델을 학습시킬 수 있다. 또는 모델 학습부(24)는 지도 없이 학습 데이터를 이용하여 스스로 학습함으로써, 판단 기준을 발견하는 비지도 학습(unsupervised learning)을 통해 신경망 모델을 학습시킬 수 있다. 또한, 모델 학습부(24)는 학습에 따른 상황 판단의 결과가 올바른지에 대한 피드백을 이용하여 강화 학습(reinforcement learning)을 통하여, 신경망 모델을 학습시킬 수 있다. 또한, 모델 학습부(24)는 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient decent)을 포함하는 학습 알고리즘을 이용하여 신경망 모델을 학습시킬 수 있다.The model learning unit 24 can use the acquired training data to train the neural network model to have a judgment standard on how to classify certain data. At this time, the model learning unit 24 can learn a neural network model through supervised learning that uses at least some of the learning data as a judgment standard. Alternatively, the model learning unit 24 can learn a neural network model through unsupervised learning, which discovers a judgment standard by learning on its own using training data without guidance. Additionally, the model learning unit 24 can learn a neural network model through reinforcement learning using feedback on whether the result of the situational judgment based on learning is correct. Additionally, the model learning unit 24 may learn a neural network model using a learning algorithm including error back-propagation or gradient descent.

신경망 모델이 학습되면, 모델 학습부(24)는 학습된 신경망 모델을 메모리에 저장할 수 있다. 모델 학습부(24)는 학습된 신경망 모델을 AI 프로세싱부(500)와 유선 또는 무선 네트워크로 연결된 서버의 메모리에 저장할 수도 있다.When the neural network model is learned, the model learning unit 24 may store the learned neural network model in memory. The model learning unit 24 may store the learned neural network model in the memory of a server connected to the AI processing unit 500 through a wired or wireless network.

데이터 학습부(22)는 인식 모델의 분석 결과를 향상시키거나, 인식 모델의 생성에 필요한 리소스 또는 시간을 절약하기 위해 학습 데이터 전처리부(미도시) 및 학습 데이터 선택부(미도시)를 더 포함할 수도 있다.The data learning unit 22 further includes a learning data preprocessing unit (not shown) and a learning data selection unit (not shown) to improve the analysis results of the recognition model or save the resources or time required for generating the recognition model. You may.

학습 데이터 전처리부는 획득된 데이터가 상황 판단을 위한 학습에 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 예를 들어, 학습 데이터 전처리부는, 모델 학습부(24)가 이미지 인식을 위한 학습을 위하여 획득된 학습 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다.The learning data preprocessor may preprocess the acquired data so that the acquired data can be used for learning to determine the situation. For example, the learning data preprocessor may process the acquired data into a preset format so that the model learning unit 24 can use the acquired learning data for training for image recognition.

또한, 학습 데이터 선택부는, 학습 데이터 획득부(23)에서 획득된 학습 데이터 또는 전처리부에서 전처리된 학습 데이터 중 학습에 필요한 데이터를 선택할 수 있다. 선택된 학습 데이터는 모델 학습부(24)에 제공될 수 있다.Additionally, the learning data selection unit may select data required for learning from among the learning data acquired by the learning data acquisition unit 23 or the learning data pre-processed by the pre-processing unit. The selected learning data may be provided to the model learning unit 24.

또한, 데이터 학습부(22)는 신경망 모델의 분석 결과를 향상시키기 위하여 모델 평가부(미도시)를 더 포함할 수도 있다.Additionally, the data learning unit 22 may further include a model evaluation unit (not shown) to improve the analysis results of the neural network model.

모델 평가부는, 신경망 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 분석 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(22)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 인식 모델을 평가하기 위한 기 정의된 데이터일 수 있다. 일 예로, 모델 평가부는 평가 데이터에 대한 학습된 인식 모델의 분석 결과 중, 분석 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정되 임계치를 초과하는 경우, 소정 기준을 만족하지 못한 것으로 평가할 수 있다.The model evaluation unit inputs evaluation data into the neural network model, and when the analysis result output from the evaluation data does not satisfy a predetermined standard, the model learning unit 22 can perform re-training. In this case, the evaluation data may be predefined data for evaluating the recognition model. As an example, the model evaluation unit may evaluate the evaluation data as not meeting a predetermined standard if the number or ratio of inaccurate evaluation data exceeds a preset threshold among the analysis results of the learned recognition model for the evaluation data. there is.

통신부(27)는 AI 프로세서(21)에 의한 AI 프로세싱 결과를 외부 전자 기기로 전송할 수 있다. 예를 들어, 외부 전자 기기는 다른 감시카메라, DVR, CMS, NVR, VMS 등의 영상 보안 솔루션 또는 디스플레이 장치 등을 포함할 수 있다.The communication unit 27 can transmit the results of AI processing by the AI processor 21 to an external electronic device. For example, external electronic devices may include other surveillance cameras, video security solutions such as DVR, CMS, NVR, and VMS, or display devices.

한편, 도시된 AI 프로세싱부(500)는 AI 프로세서(21)와 메모리(25), 통신부(27) 등으로 기능적으로 구분하여 설명하였지만, 전술한 구성요소들이 하나의 모듈로 통합되어 AI 모듈로 호칭될 수도 있음을 밝혀 둔다.Meanwhile, the illustrated AI processing unit 500 is described as functionally divided into the AI processor 21, memory 25, communication unit 27, etc., but the above-mentioned components are integrated into one module and are called AI module. Let's make it clear that it can happen.

이하에서는 첨부의 도 1 내지 도 6을 참조하여, 클라우드 감시 카메라 시스템(1000)에 의한 사용자 서비스 앱 실행 방법의 다양한 실시 예를 설명한다.Hereinafter, various embodiments of a method of executing a user service app by the cloud surveillance camera system 1000 will be described with reference to the attached FIGS. 1 to 6.

실시 예 1: 사용자 서비스 전용 앱 구동Example 1: Running a user service-only app

도 5는 일 실시 예에 따른 클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱 실행 방법을 나타내는 순서도이다.Figure 5 is a flowchart showing a method of executing a user service app by a cloud surveillance camera system according to an embodiment.

도 2, 3 및 5를 참조하면, 먼저, 감시 카메라(100)가 자신에 대한 감시 카메라 식별 정보와 감시 카메라 식별 정보에 대응되는 감시 카메라의 설치 장소 정보를 클라우드 서버(200)에 전송하고(S501), 클라우드 서버(200)는 수신된 감시 카메라 식별 정보에 대응되는 감시 카메라(100)와 감시 카메라(100)가 설치된 장소를 감시 카메라 DB(263)에 저장하여 감시 카메라(100)를 등록한다(S503).Referring to FIGS. 2, 3, and 5, first, the surveillance camera 100 transmits surveillance camera identification information about itself and information about the installation location of the surveillance camera corresponding to the surveillance camera identification information to the cloud server 200 (S501) ), the cloud server 200 stores the surveillance camera 100 corresponding to the received surveillance camera identification information and the location where the surveillance camera 100 is installed in the surveillance camera DB 263 and registers the surveillance camera 100 ( S503).

한편, 사용자는 사용자 단말(300)에 감시 카메라(100)의 설치 장소에서 제공되는 사용자 서비스와 연관된 사용자 서비스 앱을 설치한 뒤(S505), 사용자 식별 정보와 설치된 사용자 서비스 앱 정보를 클라우드 서버(200)에 전송한다(S507).Meanwhile, the user installs the user service app associated with the user service provided at the installation location of the surveillance camera 100 on the user terminal 300 (S505), and then sends the user identification information and the installed user service app information to the cloud server (200). ) (S507).

클라우드 서버(200)는 수신된 사용자 식별 정보에 대응되는 사용자를 등록하고, 사용자 정보에 해당 사용자 단말(300)에 설치된 사용자 서비스 앱을 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라(100)에 대한 감시 카메라 식별 정보와 연관 지어 저장한다(S509). 여기에서, 사용자 서비스 앱은 감시 카메라가 설치된 장소에서 제공되는 할인 쿠폰을 제공하는 사용자 앱, 감시 카메라가 설치된 장소에서 제공되는 리워드를 적립하는 사용자 앱, 또는 상기 감시 카메라가 설치된 장소에서 제공되는 서비스의 사용과 관련된 사용자 앱일 수 있다.The cloud server 200 registers a user corresponding to the received user identification information, and records the user service app installed on the corresponding user terminal 300 in the user information. A surveillance camera installed at a location providing the service provided by the user service app ( 100) is stored in association with the surveillance camera identification information (S509). Here, the user service app is a user app that provides discount coupons provided at a location where a surveillance camera is installed, a user app that accumulates rewards provided at a location where a surveillance camera is installed, or a service provided at a location where the surveillance camera is installed. This could be a user app related to usage.

다음으로, 감시 카메라(100)가 감시 영역을 촬영하여 사용자 식별 정보를 획득한 뒤(S511), 획득된 사용자 식별 정보와 감시 카메라 식별 정보를 클라우드 서버(200)로 전송한다(S513).Next, the surveillance camera 100 captures the surveillance area and obtains user identification information (S511), and then transmits the acquired user identification information and surveillance camera identification information to the cloud server 200 (S513).

클라우드 서버(200)는 수신된 사용자 식별 정보에 기초하여 사용자를 식별하고, 사용자 식별 결과 및 감시 카메라 식별 정보에 기초하여 식별된 사용자가 입장하는 장소를 특정한다(S515).The cloud server 200 identifies the user based on the received user identification information and specifies the location where the identified user enters based on the user identification result and the surveillance camera identification information (S515).

마지막으로, 클라우드 서버(200)가 상기 특정된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지를 상기 식별된 사용자의 사용자 단말(300)로 전송한다(S517).Finally, the cloud server 200 transmits a notification confirming whether the user service app associated with the specified location is running to the user terminal 300 of the identified user (S517).

이 후, 사용자 단말(300)은 사용자가 상기 통지에 대해서 사용자 서비스 앱을 실행할 것을 선택하면 상기 특정된 장소와 연관된 사용자 서비스 앱을 실행하여 상기 특정된 장소에서 제공되는 할인 쿠폰 출력 또는 리워드 적립 바코드 출력 등의 사용자 서비스를 제공한다(S519).Afterwards, when the user selects to run the user service app in response to the notification, the user terminal 300 runs the user service app associated with the specified location and outputs a discount coupon or reward accumulation barcode provided at the specified location. Provides user services such as (S519).

실시 예 2: 사용자 서비스 관리 앱을 이용한 사용자 서비스 앱 구동Example 2: Running a user service app using a user service management app

도 6은 다른 실시 예에 따른 클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱 실행 방법을 나타내는 순서도이다.Figure 6 is a flowchart showing a method of executing a user service app by a cloud surveillance camera system according to another embodiment.

도 2, 3 및 6을 참조하면, 먼저, 감시 카메라(100)가 자신에 대한 감시 카메라 식별 정보와 감시 카메라 식별 정보에 대응되는 감시 카메라의 설치 장소 정보를 클라우드 서버(200)에 전송하고(S601), 클라우드 서버(200)는 수신된 감시 카메라 식별 정보에 대응되는 감시 카메라(100)와 감시 카메라(100)가 설치된 장소를 감시 카메라 DB(263)에 저장하여 감시 카메라(100)를 등록한다(S603).Referring to FIGS. 2, 3, and 6, first, the surveillance camera 100 transmits surveillance camera identification information about itself and information about the installation location of the surveillance camera corresponding to the surveillance camera identification information to the cloud server 200 (S601) ), the cloud server 200 stores the surveillance camera 100 corresponding to the received surveillance camera identification information and the location where the surveillance camera 100 is installed in the surveillance camera DB 263 and registers the surveillance camera 100 ( S603).

한편, 사용자는 사용자 단말(300)에 감시 카메라(100)의 설치 장소에서 제공되는 사용자 서비스와 연관된 사용자 서비스 앱들을 실행시킬 수 있는 사용자 서비스 관리 앱을 설치하고, 사용자 서비스 관리 앱에 감시 카메라(100)의 설치 장소에서 제공되는 사용자 서비스와 연관된 사용자 서비스 앱들을 등록한다(S605).Meanwhile, the user installs a user service management app that can run user service apps related to the user service provided at the installation location of the surveillance camera 100 on the user terminal 300, and installs the surveillance camera (100) in the user service management app. ) Register user service apps related to user services provided at the installation location (S605).

사용자 단말(300)이 사용자 식별 정보 및 설치된 사용자 서비스 앱에 대한 정보를 클라우드 서버(200)에 전송하면(S607), 클라우드 서버(200)는 수신된 사용자 식별 정보에 대응되는 사용자를 등록하고, 사용자 정보에 해당 사용자 단말에서 실행될 수 있는 사용자 서비스 앱을 매칭하여 등록한다(S609). 여기에서, 사용자 서비스 앱은 감시 카메라가 설치된 장소에서 제공되는 할인 쿠폰을 제공하는 사용자 앱, 감시 카메라가 설치된 장소에서 제공되는 리워드를 적립하는 사용자 앱, 또는 상기 감시 카메라가 설치된 장소에서 제공되는 서비스의 사용과 관련된 사용자 앱일 수 있다.When the user terminal 300 transmits user identification information and information about the installed user service app to the cloud server 200 (S607), the cloud server 200 registers the user corresponding to the received user identification information, and the user The user service app that can be executed on the corresponding user terminal is matched to the information and registered (S609). Here, the user service app is a user app that provides discount coupons provided at a location where a surveillance camera is installed, a user app that accumulates rewards provided at a location where a surveillance camera is installed, or a service provided at a location where the surveillance camera is installed. This could be a user app related to usage.

다음으로, 감시 카메라(100)가 감시 영역을 촬영하여 사용자 식별 정보를 획득한 뒤(S611), 획득된 사용자 식별 정보와 감시 카메라 식별 정보를 클라우드 서버(200)로 전송한다(S613).Next, the surveillance camera 100 photographs the surveillance area to obtain user identification information (S611), and then transmits the obtained user identification information and surveillance camera identification information to the cloud server 200 (S613).

클라우드 서버(200)는 수신된 사용자 식별 정보에 기초하여 사용자를 식별하고, 사용자 식별 결과 및 감시 카메라 식별 정보에 기초하여 식별된 사용자가 입장하는 장소, 즉 감시 카메라가 사용자를 촬영한 장소를 특정한다(S615).The cloud server 200 identifies the user based on the received user identification information, and specifies the place where the identified user enters, that is, the place where the surveillance camera captured the user, based on the user identification result and the surveillance camera identification information. (S615).

클라우드 서버(200)가 상기 특정된 장소 정보 및 상기 특정된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지를 상기 식별된 사용자의 사용자 단말(300)로 전송한다(S617).The cloud server 200 transmits the specified location information and a notification confirming whether the user service app associated with the specified location is executed to the user terminal 300 of the identified user (S617).

이 후, 사용자 단말(300)의 사용자 서비스 관리 앱은 기 등록된 사용자 서비스 앱들 중에서 사용자가 입장한 것으로 특정된 장소와 연관된 사용자 서비스 앱을 실행할 지 여부를 확인하는 통지를 사용자 단말(300)에 출력한다(S619).Afterwards, the user service management app of the user terminal 300 outputs a notification to the user terminal 300 to confirm whether to run the user service app associated with the location specified as entered by the user among the pre-registered user service apps. Do it (S619).

마지막으로, 사용자 단말(300)은 사용자가 상기 통지에 대해서 사용자 서비스 앱을 실행할 것을 선택하면 상기 특정된 장소와 연관된 사용자 서비스 앱을 실행하여 상기 특정된 장소에서 제공되는 할인 쿠폰 출력 또는 리워드 적립 바코드 출력 등의 사용자 서비스를 제공한다(S621).Finally, when the user selects to run the user service app in response to the notification, the user terminal 300 runs the user service app associated with the specified location and outputs a discount coupon or reward accumulation barcode provided at the specified location. Provides user services such as (S621).

상술한 설명에서, 단계들, 과정들 또는 동작들은 본 발명의 구현예에 따라서, 추가적인 단계, 과정 또는 동작으로 더 분할되거나, 더 적은 단계, 과정 또는 동작으로 조합될 수 있다. 또한, 일부 단계, 과정 또는 동작은 필요에 따라 생략될 수도 있고, 단계 또는 동작 간의 순서가 전환될 수도 있다. 또한, 전술한 파노라마 감시 영상의 생성 방법이 포함하는 각 단계 또는 동작은 컴퓨터프로그램으로 구현되어 컴퓨터로 읽을 수 있는 기록매체에 저장될 수 있으며, 컴퓨터 장치에 의해 각 단계, 과정 또는 동작이 실행될 수도 있다.In the above description, steps, processes or operations may be further divided into additional steps, processes or operations, or may be combined into fewer steps, processes or operations, depending on the implementation of the invention. Additionally, some steps, processes, or operations may be omitted, or the order between steps or operations may be switched, as needed. In addition, each step or operation included in the method for generating the panoramic surveillance image described above may be implemented as a computer program and stored in a computer-readable recording medium, and each step, process, or operation may be executed by a computer device. .

본 명세서에서 사용된 용어 "부"는(예를 들면, 제어부 등), 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "부"는, 예를 들어, 유닛(unit), 로직(logic), 논리블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "부"는, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "부"는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "부"는 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들어, "부"는, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(Application-Specific Integrated Circuit) 칩, FPGAs(Field-Programmable Gate Arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.The term “unit” (e.g., control unit, etc.) used herein may mean, for example, a unit including one or a combination of two or more of hardware, software, or firmware. “Part” may be used interchangeably with terms such as unit, logic, logical block, component, or circuit, for example. A “part” may be the minimum unit of an integrated part or a part thereof. “Part” may be the minimum unit or part of one or more functions. The “part” may be implemented mechanically or electronically. For example, a “part” may be an Application-Specific Integrated Circuit (ASIC) chip, Field-Programmable Gate Arrays (FPGAs), or programmable-logic device, known or to be developed in the future, that performs certain operations. It can contain at least one.

다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터로 읽을 수 있는 저장매체/컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(read only memory), RAM(random access memory), 또는 플래시 메모리 등) 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.At least a portion of the device (e.g., modules or functions thereof) or method (e.g., operations) according to various embodiments may be stored in a computer-readable storage media, e.g., in the form of a program module. It can be implemented with instructions stored in . When the instruction is executed by a processor, the one or more processors may perform the function corresponding to the instruction. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Computer-readable storage media/computer-readable recording media include hard disks, floppy disks, magnetic media (e.g. magnetic tape), and optical media (e.g. CD-ROM (compact disc read only memory, digital versatile disc (DVD), magneto-optical media (e.g., floptical disk), hardware devices (e.g., read only memory (ROM), random disk (RAM)) access memory, or flash memory, etc.), and may also include those implemented in the form of a carrier wave (e.g., transmission via the Internet). In addition, program instructions include machine language such as that created by a compiler. In addition to code, it may include high-level language code that can be executed by a computer using an interpreter, etc. The above-described hardware device may be configured to operate as one or more software modules to perform the operations of various embodiments, and vice versa. Same thing.

다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술된 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.A module or program module according to various embodiments may include at least one of the above-described components, some of them may be omitted, or may further include other additional components. Operations performed by modules, program modules, or other components according to various embodiments may be executed sequentially, in parallel, iteratively, or in a heuristic manner. Additionally, some operations may be executed in a different order, omitted, or other operations may be added.

본 명세서에 사용된 용어 "하나"는 하나 또는 하나 이상으로 정의된다. 또한, 청구 범위에서 "적어도 하나" 및 "하나 이상"과 같은 도입 문구를 사용하는 것은, 동일한 청구항에 "적어도 하나" 및 "하나 이상"과 같은 도입 문구 및 "하나" 같은 불명료한 문구가 포함되어 있는 경우라 할지라도, 불명료한 문구 "하나"에 의한 다른 청구항 요소의 도입이 그러한 요소를 하나만을 포함하는 발명에 대해 그렇게 도입된 청구항 요소를 포함하는 임의의 특정 청구항을 제한한다는 것을 의미하는 것으로 해석되어서는 안된다.As used herein, the term “one” is defined as one or more than one. Additionally, the use of introductory phrases such as “at least one” and “one or more” in a claim may mean that the same claim contains introductory phrases such as “at least one” and “one or more” and ambiguous phrases such as “an.” The introduction of another claim element by the ambiguous phrase "a", if any, shall be construed to mean that any particular claim containing the claim element so introduced is limited to an invention containing only one such element. It shouldn't be.

본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다.In this document, expressions such as “A or B” or “at least one of A and/or B” may include all possible combinations of the items listed together.

달리 명시하지 않는 한, "제1" 및 "제2"와 같은 용어는 그러한 용어가 설명하는 요소들을 임의로 구별하는 데 사용된다. 따라서, 이들 용어는 그러한 요소들의 시간적 또는 다른 우선 순위를 나타내도록 반드시 의도된 것은 아니며, 특정 수단이 서로 다른 청구항들에 열거되어 있다는 단순한 사실만으로 이러한 수단들의 조합이 유리하게 사용될 수 없다는 것을 나타내는 것은 아니다. 따라서, 이들 용어는 그러한 요소의 시간적 또는 다른 우선 순위를 나타내도록 반드시 의도되지는 않는다. 특정 조치가 서로 다른 주장에 인용되었다는 단순한 사실만으로 이러한 조치의 조합이 유용하게 사용될 수 없다는 것을 나타내지는 않는다.Unless otherwise specified, terms such as “first” and “second” are used to optionally distinguish between the elements described by such terms. Accordingly, these terms are not necessarily intended to indicate temporal or other priority of such elements, and the mere fact that particular means are recited in different claims does not indicate that a combination of such means cannot be advantageously used. . Accordingly, these terms are not necessarily intended to indicate temporal or other priority of such elements. The mere fact that a particular measure is cited in different claims does not indicate that a combination of these measures cannot be used usefully.

"X일 수 있다"는 문구는 조건 X가 충족될 수 있음을 나타낸다. 이 문구는 또한 조건 X가 충족되지 않을 수도 있음을 나타낸다. 예를 들어, 특정 구성 요소를 포함하는 시스템에 대한 참조는 시스템이 특정 구성 요소를 포함하지 않는 시나리오도 포함해야 한다. 예를 들어, 특정 동작을 포함하는 방법에 대한 참조는 해당 방법이 특정 구성 요소를 포함하지 않는 시나리오도 포함해야 한다. 그러나 또 다른 예를 들면, 특정 동작을 수행하도록 구성된 시스템에 대한 참조는 시스템이 특정 작업을 수행하도록 구성되지 않은 시나리오도 포함해야 한다.The phrase “may be X” indicates that condition X may be met. This phrase also indicates that condition X may not be met. For example, a reference to a system containing a specific component should also include scenarios in which the system does not contain the specific component. For example, a reference to a method that includes a specific behavior should also include scenarios in which the method does not include that specific component. However, as another example, a reference to a system configured to perform a specific action should also include scenarios in which the system is not configured to perform a specific task.

용어 "포함하는", "갖는", "구성된", "이루어진" 및 "본질적으로 이루어진"은 상호 교환적으로 사용된다. 예를 들어, 임의의 방법은 적어도 도면 및/또는 명세서에 포함된 동작을 포함할 수 있으며, 도면 및/또는 명세서에 포함된 동작만을 포함할 수 있다. 또는, "포함하는"이라는 단어는 청구항에 나열된 요소들 또는 동작들의 존재를 배제하지 않는다.The terms “comprising,” “having,” “consisting of,” “consisting of,” and “consisting essentially of” are used interchangeably. For example, any method may include at least the operations included in the drawings and/or the specification, or may include only the operations included in the drawings and/or the specification. Alternatively, the word “comprising” does not exclude the presence of elements or acts listed in a claim.

본 명세서에 설명된 바와 같은 연결들은 예를 들어 중간 장치를 통해 각각의 노드, 유닛 또는 장치로부터 또는 각각의 노드, 유닛 또는 장치로 신호를 전송하기에 적합한 임의의 유형의 연결일 수 있다. 따라서, 묵시적으로 또는 달리 언급되지 않는 한, 연결은 예를 들어 직접 연결 또는 간접 연결일 수 있다. 연결은 단일 연결, 다수의 연결, 단방향 연결 또는 양방향 연결이라는 것을 참조하여 설명되거나 묘사될 수 있다. 그러나, 서로 다른 실시 예들은 연결의 구현을 변화시킬 수 있다. 예를 들어 양방향 연결이 아닌 별도의 단방향 연결을 사용할 수 있으며 그 반대의 경우도 가능할 수 있다. 또한, 다수의 연결은 복수의 신호를 순차적으로 또는 시간 다중화 방식으로 전송하는 단일 연결로 대체될 수 있다. 마찬가지로, 복수의 신호를 전송하는 단일 연결은 이러한 신호의 서브 세트를 전송하는 다양한 연결로 분리될 수 있다. 따라서 신호를 전송하기 위한 많은 옵션들이 존재한다.Connections as described herein may be any type of connection suitable for transmitting signals to or from each node, unit or device, for example via an intermediate device. Accordingly, unless implied or otherwise stated, a connection may be, for example, a direct connection or an indirect connection. A connection may be described or depicted with reference to being a single connection, multiple connections, one-way connection, or two-way connection. However, different embodiments may vary the implementation of the connection. For example, you could use a separate one-way connection rather than a two-way connection, or vice versa. Additionally, multiple connections can be replaced with a single connection that transmits multiple signals sequentially or in a time-multiplexed manner. Likewise, a single connection carrying multiple signals may be split into various connections carrying subsets of those signals. Therefore, many options exist for transmitting signals.

이상에서 본 명세서의 기술에 대한 바람직한 실시 예가 첨부된 도면들을 참조하여 설명되었다. 여기서, 본 명세서 및 청구 범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다. 본 발명의 범위는 본 명세서에 개시된 실시 예들로 한정되지 아니하고, 본 발명은 본 발명의 사상 및 특허청구범위에 기재된 범주 내에서 다양한 형태로 수정, 변경, 또는 개선될 수 있다.In the above, preferred embodiments of the technology of this specification have been described with reference to the attached drawings. Here, the terms or words used in this specification and claims should not be construed as limited to their usual or dictionary meanings, but should be construed as meanings and concepts consistent with the technical idea of the present invention. The scope of the present invention is not limited to the embodiments disclosed in this specification, and the present invention may be modified, changed, or improved in various forms within the scope described in the spirit and claims of the present invention.

Claims (20)

감시 영역을 촬영하여 사용자 식별 정보를 획득하고, 상기 사용자 식별 정보 및 감시 카메라 식별 정보를 클라우드 서버로 전송하는 감시 카메라; 및
상기 사용자 식별 정보에 기초하여 상기 감시 카메라에 촬영된 사용자를 식별하고, 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지(notification)가 상기 식별된 사용자의 사용자 단말에 출력되도록 상기 통지를 상기 사용자 단말에 전송하는 클라우드 서버;를 포함하는
클라우드 감시 카메라 시스템.
A surveillance camera that captures user identification information by photographing the surveillance area and transmits the user identification information and surveillance camera identification information to a cloud server; and
Identify the user captured by the surveillance camera based on the user identification information, and output a notification to the user terminal of the identified user to determine whether a user service app associated with the location where the surveillance camera is installed is executed. A cloud server transmitting the notification to the user terminal; including
Cloud surveillance camera system.
제1 항에 있어서, 상기 감시 카메라는,
상기 감시 영역에 대한 촬영 영상 데이터를 분석하여 상기 사용자 식별 정보를 획득하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.
The method of claim 1, wherein the surveillance camera,
Obtaining the user identification information by analyzing captured video data for the surveillance area
A cloud surveillance camera system characterized in that.
제2 항에 있어서,
상기 사용자 식별 정보는 사용자의 얼굴 영상, 사용자의 차량 번호, 및 사용자에게 부착되어 있는 사용자 식별 표식을 포함하고,
상기 감시 카메라는 상기 감시 영역에 대한 촬영 영상 데이터로부터 상기 사용자의 얼굴 영상, 상기 사용자의 차량 번호, 및 상기 사용자에게 부착되어 있는 사용자 식별 표식을 추출하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.
According to clause 2,
The user identification information includes the user's face image, the user's vehicle license plate number, and a user identification mark attached to the user,
The surveillance camera extracts the user's face image, the user's vehicle number, and the user identification mark attached to the user from the captured image data for the surveillance area.
A cloud surveillance camera system characterized in that.
제1 항에 있어서, 상기 클라우드 서버는,
상기 사용자 단말로부터 상기 사용자 식별 정보를 수신하여 사용자를 등록하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.
The method of claim 1, wherein the cloud server:
Registering a user by receiving the user identification information from the user terminal
A cloud surveillance camera system characterized in that.
제1 항에 있어서, 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱은,
상기 감시 카메라가 설치된 장소에서 제공되는 서비스 쿠폰을 제공하는 사용자 앱, 상기 감시 카메라가 설치된 장소에서 제공되는 리워드를 적립하는 사용자 앱, 또는 상기 감시 카메라가 설치된 장소에서 제공되는 서비스의 사용과 관련된 사용자 앱 중에 어느 하나인
것을 특징으로 하는 클라우드 감시 카메라 시스템.
The user service app of claim 1, where the surveillance camera is installed,
A user app that provides coupons for services provided at a location where the surveillance camera is installed, a user app that accumulates rewards provided at a location where the surveillance camera is installed, or a user app related to the use of services provided at a location where the surveillance camera is installed. which one of
A cloud surveillance camera system characterized in that.
제5 항에 있어서, 상기 사용자 서비스 앱은,
상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지에 대한 선택 입력에 따라 실행되는
것을 특징으로 하는 클라우드 감시 카메라 시스템.
The method of claim 5, wherein the user service app,
Executed according to the selection input for the notification confirming whether or not the user service app associated with the location where the surveillance camera is installed is running.
A cloud surveillance camera system characterized in that.
제6 항에 있어서, 상기 클라우드 서버는,
상기 사용자 단말에 설치된 사용자 서비스 앱을 상기 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라에 대한 감시 카메라 식별 정보와 연관 짓고,
특정 감시 카메라 식별 정보를 가진 감시 카메라가 사용자 식별 정보를 전송해오면, 상기 특정 감시 카메라 식별 정보와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지를 출력하도록 상기 식별된 사용자의 사용자 단말로 제어 메시지를 전송하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.
The method of claim 6, wherein the cloud server:
Associating the user service app installed on the user terminal with surveillance camera identification information for a surveillance camera installed in a location providing the service provided by the user service app,
When a surveillance camera with specific surveillance camera identification information transmits user identification information, a control message is sent to the user terminal of the identified user to output a notification confirming whether the user service app associated with the specific surveillance camera identification information is running. transmitting
A cloud surveillance camera system characterized in that.
감시 영역을 촬영하여 사용자 식별 정보를 획득하고, 상기 사용자 식별 정보 및 감시 카메라 식별 정보를 클라우드 서버로 전송하는 감시 카메라; 및
상기 사용자 식별 정보에 기초하여 상기 감시 카메라에 촬영된 사용자를 식별하고, 상기 식별된 사용자의 사용자 단말에 설치된 사용자 앱 중 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱을 실행시키도록 상기 사용자 단말에 설치된 사용자 서비스 관리 앱에 대한 작동 명령을 상기 사용자 단말로 전송하는 클라우드 서버;를 포함하는
클라우드 감시 카메라 시스템.
A surveillance camera that captures user identification information by photographing the surveillance area and transmits the user identification information and surveillance camera identification information to a cloud server; and
Based on the user identification information, the user captured by the surveillance camera is identified, and among the user apps installed on the user terminal of the identified user, a user service app associated with the location where the surveillance camera is installed is installed on the user terminal. A cloud server that transmits an operation command for the user service management app to the user terminal; including
Cloud surveillance camera system.
제8 항에 있어서, 상기 감시 카메라는,
상기 감시 영역에 대한 촬영 영상 데이터를 분석하여 상기 사용자 식별 정보를 획득하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.
The method of claim 8, wherein the surveillance camera,
Obtaining the user identification information by analyzing captured video data for the surveillance area
A cloud surveillance camera system characterized in that.
제9 항에 있어서,
상기 사용자 식별 정보는 사용자의 얼굴 영상, 사용자의 차량 번호, 및 사용자에게 부착되어 있는 사용자 식별 표식을 포함하고,
상기 감시 카메라는 상기 감시 영역에 대한 촬영 영상 데이터로부터 상기 사용자의 얼굴 영상, 상기 사용자의 차량 번호, 및 상기 사용자에게 부착되어 있는 사용자 식별 표식을 추출하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.
According to clause 9,
The user identification information includes the user's face image, the user's vehicle license plate number, and a user identification mark attached to the user,
The surveillance camera extracts the user's face image, the user's vehicle number, and the user identification mark attached to the user from the captured image data for the surveillance area.
A cloud surveillance camera system characterized in that.
제8 항에 있어서, 상기 클라우드 서버는,
상기 사용자 단말로부터 상기 사용자 식별 정보를 수신한 뒤, 상기 사용자 식별 정보에 대응되는 사용자를 등록하고,
상기 등록된 사용자 정보에 상기 사용자 서비스 앱을 연관 지어 저장하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.
The method of claim 8, wherein the cloud server:
After receiving the user identification information from the user terminal, registering a user corresponding to the user identification information,
Stores the user service app in association with the registered user information.
A cloud surveillance camera system characterized in that.
제11 항에 있어서, 상기 사용자 서비스 관리 앱은,
상기 사용자 식별 정보의 등록 전에 상기 사용자 단말에 전송되어 설치되고,
상기 사용자 식별 정보를 상기 클라우드 서버로 전송하고,
상기 사용자 단말에 출력되는 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지에 대한 선택 입력에 따라 미리 등록되어 있는 사용자 서비스 앱을 실행하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.
The method of claim 11, wherein the user service management app,
is transmitted and installed on the user terminal before registration of the user identification information,
transmitting the user identification information to the cloud server,
Executing a pre-registered user service app according to a selection input for a notification output to the user terminal to check whether or not the user service app associated with the location where the surveillance camera is installed is executed.
A cloud surveillance camera system characterized in that.
제12 항에 있어서, 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱은,
상기 감시 카메라가 설치된 장소에서 제공되는 서비스 쿠폰을 제공하는 사용자 앱, 상기 감시 카메라가 설치된 장소에서 제공되는 리워드를 적립하는 사용자 앱, 또는 상기 감시 카메라가 설치된 장소에서 제공되는 서비스의 사용과 관련된 사용자 앱인
것을 특징으로 하는 클라우드 감시 카메라 시스템.
The method of claim 12, wherein the user service app associated with the location where the surveillance camera is installed,
A user app that provides coupons for services provided at a location where the surveillance camera is installed, a user app that accumulates rewards provided at a location where the surveillance camera is installed, or a user app related to the use of services provided at a location where the surveillance camera is installed.
A cloud surveillance camera system characterized in that.
제8 항에 있어서, 상기 클라우드 서버는,
상기 사용자 단말에 설치된 사용자 서비스 앱을 상기 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라에 대한 감시 카메라 식별 정보와 연관 짓고,
특정 감시 카메라 식별 정보를 가진 감시 카메라가 사용자 식별 정보를 전송해오면, 상기 식별된 사용자의 사용자 단말에 설치된 사용자 서비스 앱 중에서 상기 특정 감시 카메라 식별 정보와 연관된 사용자 서비스 앱을 실행하도록 상기 사용자 단말로 상기 사용자 서비스 관리 앱에 대한 제어 메시지를 전송하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.
The method of claim 8, wherein the cloud server:
Associating the user service app installed on the user terminal with surveillance camera identification information for a surveillance camera installed in a location providing the service provided by the user service app,
When a surveillance camera with specific surveillance camera identification information transmits user identification information, the user terminal is instructed to execute a user service app associated with the specific surveillance camera identification information among the user service apps installed on the user terminal of the identified user. Sending control messages to user service management apps
A cloud surveillance camera system characterized in that.
감시 카메라 및 클라우드 서버를 포함하는 클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱 실행 방법에 있어서,
상기 감시 카메라가 감시 영역을 촬영하여 사용자 식별 정보를 획득하는 단계;
상기 감시 카메라가 상기 사용자 식별 정보 및 감시 카메라 식별 정보를 상기 클라우드 서버로 전송하는 단계;
상기 클라우드 서버가 상기 사용자 식별 정보에 기초하여 사용자를 식별하고, 상기 사용자 식별 결과 및 상기 감시 카메라 식별 정보에 기초하여 상기 식별된 사용자가 입장하는 장소를 특정하는 단계; 및
상기 클라우드 서버가 상기 특정된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지를 상기 식별된 사용자의 사용자 단말로 전송하는 단계;를
포함하는 방법.
In a method of executing a user service app by a cloud surveillance camera system including a surveillance camera and a cloud server,
Obtaining user identification information by having the surveillance camera capture a surveillance area;
The surveillance camera transmitting the user identification information and surveillance camera identification information to the cloud server;
The cloud server identifying a user based on the user identification information, and specifying a place where the identified user enters based on the user identification result and the surveillance camera identification information; and
Transmitting, by the cloud server, a notification confirming whether a user service app associated with the specified location is running to the user terminal of the identified user;
How to include it.
제15 항에 있어서,
상기 사용자 식별 정보를 수신하여 사용자를 상기 클라우드 서버에 등록하는 단계; 및
상기 감시 카메라 식별 정보, 상기 감시 카메라 식별 정보에 대응되는 감시 카메라의 설치 장소 정보 및 상기 설치 장소에서 제공되는 사용자 서비스와 연관된 사용자 서비스 앱을 상기 클라우드 서버에 등록하는 단계;를
더 포함하는 방법.
According to claim 15,
receiving the user identification information and registering the user with the cloud server; and
Registering the surveillance camera identification information, installation location information of the surveillance camera corresponding to the surveillance camera identification information, and a user service app associated with a user service provided at the installation location to the cloud server;
How to include more.
제15 항에 있어서,
상기 사용자 단말에 설치된 사용자 서비스 앱을 상기 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라에 대한 감시 카메라 식별 정보와 연관 짓는 단계;를
더 포함하는 방법.
According to claim 15,
Associating the user service app installed on the user terminal with surveillance camera identification information for a surveillance camera installed at a location providing the service provided by the user service app;
How to include more.
제17 항에 있어서,
상기 사용자 단말에 설치된 사용자 서비스 관리 앱을 통해 상기 감시 카메라가 설치된 장소와 연관되는 사용자 서비스 앱을 상기 클라우드 서버에 등록하는 단계;를 더 포함하고,
상기 사용자 서비스 관리 앱은,
상기 클라우드 서버로부터 특정 설치 장소에 설치된 감시 카메라 식별 정보 및 사용자 식별 정보를 수신하면, 상기 식별된 사용자의 사용자 단말에 설치된 사용자 서비스 앱 중에서 상기 특정 설치 장소에 설치된 감시 카메라 식별 정보와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지를 출력하고,
상기 사용자 서비스 앱의 실행 여부를 확인하는 통지에 대한 사용자의 선택에 따라 상기 사용자 서비스 앱을 실행하는
것을 특징으로 하는 방법.
According to claim 17,
Registering a user service app associated with a location where the surveillance camera is installed on the cloud server through a user service management app installed on the user terminal, further comprising:
The user service management app is,
When receiving surveillance camera identification information and user identification information installed at a specific installation location from the cloud server, the user service app associated with the surveillance camera identification information installed at the specific installation location is selected from among the user service apps installed on the user terminal of the identified user. Prints a notification to confirm execution,
Running the user service app according to the user's selection in response to a notification confirming whether the user service app is running.
A method characterized by:
제15 항에 있어서, 상기 사용자 서비스 앱은,
상기 감시 카메라가 설치된 장소에서 제공되는 할인 쿠폰을 제공하는 사용자 앱, 상기 감시 카메라가 설치된 장소에서 제공되는 리워드를 적립하는 사용자 앱, 또는 상기 감시 카메라가 설치된 장소에서 제공되는 서비스의 사용과 관련된 사용자 앱인
것을 특징으로 하는 방법.
The method of claim 15, wherein the user service app,
A user app that provides discount coupons provided at a location where the surveillance camera is installed, a user app that accumulates rewards provided at a location where the surveillance camera is installed, or a user app related to the use of services provided at a location where the surveillance camera is installed.
A method characterized by:
제15 항에 있어서, 상기 사용자 식별 정보는,
사용자의 얼굴 영상, 사용자의 차량 번호, 및 사용자가 부착하고 있는 인식표를 포함하는
것을 특징으로 하는 방법.
The method of claim 15, wherein the user identification information is:
Contains the user's face image, the user's vehicle license plate number, and the identification tag attached to the user.
A method characterized by:
KR1020220046281A 2022-04-14 2022-04-14 User service app execution by cloud surveillance camera system KR20230147360A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220046281A KR20230147360A (en) 2022-04-14 2022-04-14 User service app execution by cloud surveillance camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220046281A KR20230147360A (en) 2022-04-14 2022-04-14 User service app execution by cloud surveillance camera system

Publications (1)

Publication Number Publication Date
KR20230147360A true KR20230147360A (en) 2023-10-23

Family

ID=88508494

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220046281A KR20230147360A (en) 2022-04-14 2022-04-14 User service app execution by cloud surveillance camera system

Country Status (1)

Country Link
KR (1) KR20230147360A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117579788A (en) * 2024-01-15 2024-02-20 深圳市喂车科技有限公司 Oil discharge monitoring method, system and storage medium for AI-based gas station

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117579788A (en) * 2024-01-15 2024-02-20 深圳市喂车科技有限公司 Oil discharge monitoring method, system and storage medium for AI-based gas station

Similar Documents

Publication Publication Date Title
US20200265239A1 (en) Method and apparatus for processing video stream
US9560323B2 (en) Method and system for metadata extraction from master-slave cameras tracking system
US11106903B1 (en) Object detection in image data
US20190258866A1 (en) Human presence detection in edge devices
US11232327B2 (en) Smart video surveillance system using a neural network engine
KR102333143B1 (en) System for providing people counting service
KR20210155655A (en) Method and apparatus for identifying object representing abnormal temperatures
CN114663871A (en) Image recognition method, training method, device, system and storage medium
US11423262B2 (en) Automatically filtering out objects based on user preferences
KR20230147360A (en) User service app execution by cloud surveillance camera system
Tran et al. Towards real-time secured IP camera via state machine architecture
EP4332910A1 (en) Behavior detection method, electronic device, and computer readable storage medium
US20230386185A1 (en) Statistical model-based false detection removal algorithm from images
Rathour et al. KlugOculus: A Vision‐Based Intelligent Architecture for Security System
US20230215128A1 (en) Real-time occlusion removal using synthetic pixel generation
US20230111876A1 (en) System and method for animal disease management
KR20230123226A (en) Noise Reduction of Surveillance Camera Image Using Object Detection Based on Artificial Intelligence
Zhao Deep Learning in Video Anomaly Detection and Its Applications
CN113518217A (en) Object recognition method, device, server and medium
KAMAROZAMAN et al. ENHANCING CAMPUS SECURITY AND VEHICLE MANAGEMENT WITH REAL-TIME MOBILE LICENSE PLATE READER APP UTILIZING A LIGHTWEIGHT INTEGRATION MODEL
US20240184860A1 (en) Methods and arrangements for providing impact imagery
Huu et al. Proposing Smart System for Detecting and Monitoring Vehicle Using Multiobject Multicamera Tracking
US20220239861A1 (en) Video management system and video management method
Asy’ari et al. Histogram of Oriented Gradients (HOG) and Haar Cascade with Convolutional Neural Network (CNN) Performance Comparison in the Application of Edge Home Security System
Foo Smart security camera using machine learning