KR20230147360A - User service app execution by cloud surveillance camera system - Google Patents
User service app execution by cloud surveillance camera system Download PDFInfo
- Publication number
- KR20230147360A KR20230147360A KR1020220046281A KR20220046281A KR20230147360A KR 20230147360 A KR20230147360 A KR 20230147360A KR 1020220046281 A KR1020220046281 A KR 1020220046281A KR 20220046281 A KR20220046281 A KR 20220046281A KR 20230147360 A KR20230147360 A KR 20230147360A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- surveillance camera
- identification information
- app
- location
- Prior art date
Links
- 238000000034 method Methods 0.000 claims description 43
- 238000009434 installation Methods 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 abstract description 8
- 238000013473 artificial intelligence Methods 0.000 description 44
- 238000012545 processing Methods 0.000 description 33
- 238000004891 communication Methods 0.000 description 21
- 238000005516 engineering process Methods 0.000 description 16
- 238000003062 neural network model Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 238000009825 accumulation Methods 0.000 description 6
- 238000013136 deep learning model Methods 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/222—Secondary servers, e.g. proxy server, cable television Head-end
- H04N21/2223—Secondary servers, e.g. proxy server, cable television Head-end being a public access point, e.g. for downloading to or uploading from clients
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25808—Management of client data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4784—Supplemental services, e.g. displaying phone caller identification, shopping application receiving rewards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8166—Monomedia components thereof involving executable data, e.g. software
- H04N21/8173—End-user applications, e.g. Web browser, game
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
본 명세서는 클라우드에 연결된 복수의 감시 카메라를 포함하는 시스템 및 이를 이용한 사용자 서비스 앱의 실행에 관한 것이다.This specification relates to a system including a plurality of surveillance cameras connected to the cloud and the execution of a user service app using the same.
최근의 감시 카메라는 감시 영역을 촬영한 영상의 저장뿐만 아니라 감시 영역에서 촬영된 영상에서 사람의 얼굴을 인식하거나, 이벤트의 발생을 감지하는 등 인공지능을 접목한 지능형 감시 카메라 시스템으로 발전하고 있어서 상점, 쇼핑몰, 주유소, 공공기관 등 다양한 장소에서 널리 사용되고 있다.Recently, surveillance cameras are developing into intelligent surveillance camera systems that incorporate artificial intelligence, such as not only storing images captured in the surveillance area, but also recognizing people's faces in images captured in the surveillance area or detecting the occurrence of events. , It is widely used in various places such as shopping malls, gas stations, and public institutions.
한편, 전술한 감시 카메라 시스템이 설치된 다양한 장소 중 특히, 상점, 쇼핑몰, 주유소 등의 장소에서는 그 장소에서 제공되는 서비스 또는 상품과 관련하여 할인 쿠폰, 리워드 적립 등의 사용자 서비스가 제공되고 있으며, 이러한 사용자 서비스를 제공받기 위하여, 사용자는 자신의 휴대용 단말에 서비스 제공 애플리케이션(이하 앱이라 한다.)을 설치한 뒤, 필요 시 마다 앱을 실행하여 사용자 서비스를 제공받고 있다.Meanwhile, among various places where the above-mentioned surveillance camera system is installed, especially places such as stores, shopping malls, and gas stations, user services such as discount coupons and reward accumulation are provided in relation to services or products provided at those places, and these users In order to receive a service, the user installs a service provision application (hereinafter referred to as an app) on his or her portable terminal and then runs the app whenever necessary to receive the user service.
위 기재된 내용은 오직 본 발명의 기술적 사상들에 대한 배경 기술의 이해를 돕기 위한 것이며, 따라서 그것은 본 발명의 기술 분야의 당업자에게 알려진 선행 기술에 해당하는 내용으로 이해될 수 없다.The content described above is only intended to help understand the background technology of the technical ideas of the present invention, and therefore, it cannot be understood as content corresponding to prior art known to those skilled in the art of the present invention.
그러나, 전술한 사용자 서비스의 경우, 사용자가 특정 매장을 방문할 때마다 해당 매장과 관련된 사용자 서비스를 제공받기 위해서는 사용자 서비스 앱을 별도로 실행해야 하기 때문에 사용자의 불편을 초래하는 문제점이 있다.However, in the case of the above-described user service, there is a problem that causes inconvenience to the user because each time the user visits a specific store, the user service app must be separately launched in order to receive the user service related to the store.
한편, 지능형 감시 카메라의 객체 인식 기술을 활용하여 특정 장소를 방문하는 사람에게 다양한 서비스를 자동으로 제공하는 기술에 대한 필요가 있다.Meanwhile, there is a need for technology that automatically provides various services to people visiting a specific location by utilizing the object recognition technology of intelligent surveillance cameras.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below.
본 명세서는 클라우드 감시 카메라 시스템을 제시한다. 상기 클라우드 감시 카메라 시스템은 감시 영역을 촬영하여 사용자 식별 정보를 획득하고, 상기 사용자 식별 정보 및 감시 카메라 식별 정보를 클라우드 서버로 전송하는 감시 카메라; 및 상기 사용자 식별 정보에 기초하여 상기 감시 카메라에 촬영된 사용자를 식별하고, 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지(notification)가 상기 식별된 사용자의 사용자 단말에 출력되도록 상기 통지를 상기 사용자 단말에 전송하는 클라우드 서버;를 포함할 수 있다.This specification presents a cloud surveillance camera system. The cloud surveillance camera system includes a surveillance camera that captures a surveillance area to obtain user identification information and transmits the user identification information and surveillance camera identification information to a cloud server; and identifying the user captured by the surveillance camera based on the user identification information, and outputting a notification to the user terminal of the identified user to determine whether a user service app associated with the location where the surveillance camera is installed is running. It may include a cloud server that transmits the notification to the user terminal as much as possible.
상기 클라우드 감시 카메라 시스템 및 그 밖의 실시예는 다음과 같은 특징을 포함할 수 있다.The cloud surveillance camera system and other embodiments may include the following features.
실시 예에 따라, 상기 감시 카메라는, 상기 감시 영역에 대한 촬영 영상 데이터를 분석하여 상기 사용자 식별 정보를 획득할 수 있다.Depending on the embodiment, the surveillance camera may obtain the user identification information by analyzing captured image data for the surveillance area.
실시 예에 따라, 또한, 상기 사용자 식별 정보는 사용자의 얼굴 영상, 사용자의 차량 번호, 및 사용자에게 부착되어 있는 사용자 식별 표식을 포함하고, 상기 감시 카메라는 상기 감시 영역에 대한 촬영 영상 데이터로부터 상기 사용자의 얼굴 영상, 상기 사용자의 차량 번호, 및 상기 사용자에게 부착되어 있는 사용자 식별 표식을 추출할 수 있다.Depending on the embodiment, the user identification information includes the user's face image, the user's vehicle license plate number, and a user identification mark attached to the user, and the surveillance camera detects the user from captured image data for the surveillance area. The face image, the user's vehicle number, and the user identification mark attached to the user can be extracted.
실시 예에 따라, 또한, 상기 클라우드 서버는, 상기 사용자 단말로부터 상기 사용자 식별 정보를 수신하여 사용자를 등록할 수 있다.Depending on the embodiment, the cloud server may register the user by receiving the user identification information from the user terminal.
실시 예에 따라, 또한, 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱은, 상기 감시 카메라가 설치된 장소에서 제공되는 서비스 쿠폰을 제공하는 사용자 앱, 상기 감시 카메라가 설치된 장소에서 제공되는 리워드를 적립하는 사용자 앱, 또는 상기 감시 카메라가 설치된 장소에서 제공되는 서비스의 사용과 관련된 사용자 앱 중에 어느 하나일 수 있다.Depending on the embodiment, the user service app associated with the location where the surveillance camera is installed may include a user app that provides service coupons provided at the location where the surveillance camera is installed, and a user app that accumulates rewards provided at the location where the surveillance camera is installed. It may be either a user app or a user app related to the use of a service provided at a location where the surveillance camera is installed.
실시 예에 따라, 또한, 상기 사용자 서비스 앱은, 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지에 대한 선택 입력에 따라 실행될 수 있다.Depending on the embodiment, the user service app may be executed according to a selection input for a notification confirming whether or not the user service app associated with the location where the surveillance camera is installed is executed.
실시 예에 따라, 또한, 상기 클라우드 서버는, 상기 사용자 단말에 설치된 사용자 서비스 앱을 상기 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라에 대한 감시 카메라 식별 정보와 연관 짓고, 특정 감시 카메라 식별 정보를 가진 감시 카메라가 사용자 식별 정보를 전송해오면, 상기 특정 감시 카메라 식별 정보와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지를 출력하도록 상기 식별된 사용자의 사용자 단말로 제어 메시지를 전송할 수 있다.Depending on the embodiment, the cloud server also associates the user service app installed on the user terminal with surveillance camera identification information for a surveillance camera installed at a location providing the service provided by the user service app, and specifies the surveillance camera When a surveillance camera with identification information transmits user identification information, a control message can be sent to the user terminal of the identified user to output a notification confirming whether the user service app associated with the specific surveillance camera identification information is running. .
한편, 본 명세서는 다른 클라우드 감시 카메라 시스템을 제시한다. 상기 클라우드 감시 카메라 시스템은 감시 영역을 촬영하여 사용자 식별 정보를 획득하고, 상기 사용자 식별 정보 및 감시 카메라 식별 정보를 클라우드 서버로 전송하는 감시 카메라; 및 상기 사용자 식별 정보에 기초하여 상기 감시 카메라에 촬영된 사용자를 식별하고, 상기 식별된 사용자의 사용자 단말에 설치된 사용자 앱 중 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱을 실행시키도록 상기 사용자 단말에 설치된 사용자 서비스 관리 앱에 대한 작동 명령을 상기 사용자 단말로 전송하는 클라우드 서버;를 포함할 수 있다.Meanwhile, this specification presents another cloud surveillance camera system. The cloud surveillance camera system includes a surveillance camera that captures a surveillance area to obtain user identification information and transmits the user identification information and surveillance camera identification information to a cloud server; And identifying the user captured by the surveillance camera based on the user identification information, and executing a user service app associated with the location where the surveillance camera is installed among the user apps installed on the user terminal of the identified user. It may include a cloud server that transmits an operation command for the installed user service management app to the user terminal.
상기 클라우드 감시 카메라 시스템 및 그 밖의 실시예는 다음과 같은 특징을 포함할 수 있다.The cloud surveillance camera system and other embodiments may include the following features.
실시 예에 따라, 상기 감시 카메라는, 상기 감시 영역에 대한 촬영 영상 데이터를 분석하여 상기 사용자 식별 정보를 획득할 수 있다.Depending on the embodiment, the surveillance camera may obtain the user identification information by analyzing captured image data for the surveillance area.
실시 예에 따라, 또한, 상기 사용자 식별 정보는 사용자의 얼굴 영상, 사용자의 차량 번호, 및 사용자에게 부착되어 있는 사용자 식별 표식을 포함하고, 상기 감시 카메라는 상기 감시 영역에 대한 촬영 영상 데이터로부터 상기 사용자의 얼굴 영상, 상기 사용자의 차량 번호, 및 상기 사용자에게 부착되어 있는 사용자 식별 표식을 추출할 수 있다.Depending on the embodiment, the user identification information includes the user's face image, the user's vehicle license plate number, and a user identification mark attached to the user, and the surveillance camera detects the user from captured image data for the surveillance area. The face image, the user's vehicle number, and the user identification mark attached to the user can be extracted.
실시 예에 따라, 또한, 상기 클라우드 서버는, 상기 사용자 단말로부터 상기 사용자 식별 정보를 수신한 뒤, 상기 사용자 식별 정보에 대응되는 사용자를 등록하고, 상기 등록된 사용자 정보에 상기 사용자 서비스 앱을 연관 지어 저장할 수 있다.Depending on the embodiment, the cloud server receives the user identification information from the user terminal, registers a user corresponding to the user identification information, and associates the user service app with the registered user information. You can save it.
실시 예에 따라, 또한, 상기 사용자 서비스 관리 앱은, 상기 사용자 식별 정보의 등록 전에 상기 사용자 단말에 전송되어 설치되고, 상기 사용자 식별 정보를 상기 클라우드 서버로 전송하고, 상기 사용자 단말에 출력되는 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지에 대한 선택 입력에 따라 미리 등록되어 있는 사용자 서비스 앱을 실행할 수 있다.According to the embodiment, the user service management app is transmitted and installed on the user terminal before registration of the user identification information, transmits the user identification information to the cloud server, and outputs the monitoring to the user terminal. A pre-registered user service app can be executed by selecting a notification to check whether or not the user service app associated with the location where the camera is installed is selected.
실시 예에 따라, 또한, 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱은, 상기 감시 카메라가 설치된 장소에서 제공되는 서비스 쿠폰을 제공하는 사용자 앱, 상기 감시 카메라가 설치된 장소에서 제공되는 리워드를 적립하는 사용자 앱, 또는 상기 감시 카메라가 설치된 장소에서 제공되는 서비스의 사용과 관련된 사용자 앱일 수 있다.Depending on the embodiment, the user service app associated with the location where the surveillance camera is installed may include a user app that provides service coupons provided at the location where the surveillance camera is installed, and a user app that accumulates rewards provided at the location where the surveillance camera is installed. It may be a user app, or a user app related to the use of services provided at a location where the surveillance camera is installed.
실시 예에 따라, 또한, 상기 클라우드 서버는, 상기 사용자 단말에 설치된 사용자 서비스 앱을 상기 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라에 대한 감시 카메라 식별 정보와 연관 짓고, 특정 감시 카메라 식별 정보를 가진 감시 카메라가 사용자 식별 정보를 전송해오면, 상기 식별된 사용자의 사용자 단말에 설치된 사용자 서비스 앱 중에서 상기 특정 감시 카메라 식별 정보와 연관된 사용자 서비스 앱을 실행하도록 상기 사용자 단말로 상기 사용자 서비스 관리 앱에 대한 제어 메시지를 전송할 수 있다.Depending on the embodiment, the cloud server also associates the user service app installed on the user terminal with surveillance camera identification information for a surveillance camera installed at a location providing the service provided by the user service app, and specifies the surveillance camera When a surveillance camera with identification information transmits user identification information, the user service is managed by the user terminal to execute a user service app associated with the specific surveillance camera identification information among the user service apps installed on the user terminal of the identified user. You can send control messages to the app.
한편, 본 명세서는 감시 카메라 및 클라우드 서버를 포함하는 클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱 실행 방법을 제시한다. 상기 사용자 서비스 앱 실행 방법은, 상기 감시 카메라가 감시 영역을 촬영하여 사용자 식별 정보를 획득하는 단계; 상기 감시 카메라가 상기 사용자 식별 정보 및 감시 카메라 식별 정보를 상기 클라우드 서버로 전송하는 단계; 상기 클라우드 서버가 상기 사용자 식별 정보에 기초하여 사용자를 식별하고, 상기 사용자 식별 결과 및 상기 감시 카메라 식별 정보에 기초하여 상기 식별된 사용자가 입장하는 장소를 특정하는 단계; 및 상기 클라우드 서버가 상기 특정된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지를 상기 식별된 사용자의 사용자 단말로 전송하는 단계;를 포함할 수 있다.Meanwhile, this specification presents a method of executing a user service app by a cloud surveillance camera system including a surveillance camera and a cloud server. The method of executing the user service app includes obtaining user identification information by photographing a surveillance area by the surveillance camera; The surveillance camera transmitting the user identification information and surveillance camera identification information to the cloud server; The cloud server identifying a user based on the user identification information, and specifying a place where the identified user enters based on the user identification result and the surveillance camera identification information; and transmitting, by the cloud server, a notification confirming whether the user service app associated with the specified location is running to the user terminal of the identified user.
상기 감시 카메라 및 클라우드 서버를 포함하는 클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱 실행 방법 및 그 밖의 실시예는 다음과 같은 특징을 포함할 수 있다.The method of executing a user service app by a cloud surveillance camera system including the surveillance camera and a cloud server and other embodiments may include the following features.
실시 예에 따라, 상기 사용자 서비스 앱 실행 방법은, 상기 사용자 식별 정보를 수신하여 사용자를 상기 클라우드 서버에 등록하는 단계; 및 상기 감시 카메라 식별 정보, 상기 감시 카메라 식별 정보에 대응되는 감시 카메라의 설치 장소 정보 및 상기 설치 장소에서 제공되는 사용자 서비스와 연관된 사용자 서비스 앱을 상기 클라우드 서버에 등록하는 단계;를 더 포함할 수 있다.According to an embodiment, the method of executing the user service app includes receiving the user identification information and registering the user with the cloud server; And registering the surveillance camera identification information, the installation location information of the surveillance camera corresponding to the surveillance camera identification information, and the user service app associated with the user service provided at the installation location to the cloud server. It may further include; .
실시 예에 따라, 또한, 상기 사용자 서비스 앱 실행 방법은, 상기 사용자 단말에 설치된 사용자 서비스 앱을 상기 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라에 대한 감시 카메라 식별 정보와 연관 짓는 단계;를 더 포함할 수 있다.According to an embodiment, the method of executing the user service app includes the step of associating the user service app installed on the user terminal with surveillance camera identification information for a surveillance camera installed at a location providing the service provided by the user service app. It may further include ;.
실시 예에 따라, 또한, 상기 사용자 서비스 앱 실행 방법은, 상기 사용자 단말에 설치된 사용자 서비스 관리 앱을 통해 상기 감시 카메라가 설치된 장소와 연관되는 사용자 서비스 앱을 상기 클라우드 서버에 등록하는 단계;를 더 포함하고, 상기 사용자 서비스 관리 앱은, 상기 클라우드 서버로부터 특정 설치 장소에 설치된 감시 카메라 식별 정보 및 사용자 식별 정보를 수신하면, 상기 식별된 사용자의 사용자 단말에 설치된 사용자 서비스 앱 중에서 상기 특정 설치 장소에 설치된 감시 카메라 식별 정보와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지를 출력하고, 상기 사용자 서비스 앱의 실행 여부를 확인하는 통지에 대한 사용자의 선택에 따라 상기 사용자 서비스 앱을 실행할 수 있다.According to an embodiment, the user service app execution method further includes registering a user service app associated with a location where the surveillance camera is installed to the cloud server through a user service management app installed on the user terminal. And, when the user service management app receives the surveillance camera identification information and user identification information installed at a specific installation location from the cloud server, the user service management app installs the surveillance camera at the specific installation location among the user service apps installed on the user terminal of the identified user. A notification confirming whether the user service app associated with the camera identification information is executed is output, and the user service app can be executed according to the user's selection of the notification confirming whether the user service app is executed.
실시 예에 따라, 또한, 상기 사용자 서비스 앱은, 상기 감시 카메라가 설치된 장소에서 제공되는 할인 쿠폰을 제공하는 사용자 앱, 상기 감시 카메라가 설치된 장소에서 제공되는 리워드를 적립하는 사용자 앱, 또는 상기 감시 카메라가 설치된 장소에서 제공되는 서비스의 사용과 관련된 사용자 앱일 수 있다.Depending on the embodiment, the user service app may be a user app that provides a discount coupon provided at a location where the surveillance camera is installed, a user app that accumulates rewards provided at a location where the surveillance camera is installed, or the surveillance camera. It may be a user app related to the use of services provided in a location where is installed.
실시 예에 따라, 또한, 상기 사용자 식별 정보는, 사용자의 얼굴 영상, 사용자의 차량 번호, 및 사용자가 부착하고 있는 인식표를 포함할 수 있다.Depending on the embodiment, the user identification information may include the user's face image, the user's vehicle license plate number, and an identification tag attached to the user.
본 명세서에 개시된 실시 예들에 의하면, 감시 카메라가 설치된 특정 장소에 사용자가 방문을 하면, 감시 카메라가 상기 사용자를 인식한 뒤, 상기 특정 장소에서 제공되는 사용자 서비스와 연관된 사용자 서비스 앱을 자동으로 실행시켜 줌으로서 사용자 서비스를 용이하게 받을 수 있도록 해주는 효과가 있다.According to embodiments disclosed herein, when a user visits a specific location where a surveillance camera is installed, the surveillance camera recognizes the user and automatically runs a user service app associated with the user service provided at the specific location. Zoom has the effect of making it easier for users to receive services.
한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Meanwhile, the effects that can be obtained from the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 발명을 실시하기 위한 구체적인 내용과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 실시 예에 따른 클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱의 실행 방법에 대한 개념도이다.
도 2는 실시 예에 따른 감시 카메라의 개략적인 블록도이다.
도 3은 실시 예에 따른 클라우드 서버의 개략적인 블록도이다.
도 4는 일 실시예에 따른 감시 카메라 및 클라우드 서버에서 객체 인식에 적용되는 AI 프로세싱부를 설명하기 위한 도면이다.
도 5는 일 실시 예에 따른 클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱 실행 방법을 나타내는 순서도이다.
도 6은 다른 실시 예에 따른 클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱 실행 방법을 나타내는 순서도이다.The following drawings attached to this specification illustrate preferred embodiments of the present invention, and serve to further understand the technical idea of the present invention along with specific details for carrying out the invention. Therefore, the present invention is described in such drawings. It should not be interpreted as limited to the specific details.
1 is a conceptual diagram of a method of executing a user service app by a cloud surveillance camera system according to an embodiment.
Figure 2 is a schematic block diagram of a surveillance camera according to an embodiment.
Figure 3 is a schematic block diagram of a cloud server according to an embodiment.
Figure 4 is a diagram for explaining an AI processing unit applied to object recognition in a surveillance camera and a cloud server according to an embodiment.
Figure 5 is a flowchart showing a method of executing a user service app by a cloud surveillance camera system according to an embodiment.
Figure 6 is a flowchart showing a method of executing a user service app by a cloud surveillance camera system according to another embodiment.
본 명세서에 개시된 기술은 감시 카메라에 적용될 수 있다. 그러나 본 명세서에 개시된 기술은 이에 한정되지 않고, 상기 기술의 기술적 사상이 적용될 수 있는 모든 장치 및 방법에도 적용될 수 있다.The technology disclosed in this specification can be applied to surveillance cameras. However, the technology disclosed in this specification is not limited to this, and can be applied to all devices and methods to which the technical idea of the technology can be applied.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 명세서에 개시된 기술의 사상을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 명세서에 개시된 기술의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 명세서에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥 상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in this specification are only used to describe specific embodiments and are not intended to limit the spirit of the technology disclosed in this specification. In addition, the technical terms used in this specification, unless specifically defined in a different way in this specification, should be interpreted as meanings generally understood by those skilled in the art in the field to which the technology disclosed in this specification belongs. It should not be interpreted in a very comprehensive sense or in an excessively reduced sense. In addition, if the technical term used in this specification is an incorrect technical term that does not accurately express the idea of the technology disclosed in this specification, it is a technical term that can be correctly understood by a person with ordinary knowledge in the field to which the technology disclosed in this specification belongs. It should be understood and replaced with . Additionally, general terms used in this specification should be interpreted as defined in the dictionary or according to the context, and should not be interpreted in an excessively reduced sense.
본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.Terms containing ordinal numbers, such as first, second, etc., used in this specification may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component without departing from the scope of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numerals regardless of the reference numerals, and duplicate descriptions thereof will be omitted.
또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 기술의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 그 기술의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.Additionally, when describing the technology disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the technology disclosed in this specification, the detailed description will be omitted. In addition, it should be noted that the attached drawings are only intended to facilitate easy understanding of the spirit of the technology disclosed in this specification, and should not be construed as limiting the spirit of the technology by the attached drawings.
본 발명의 일 실시예에 따른 영상 또는 이미지는 특별한 한정이 없는 한 정지영상 및 동영상을 모두 포함한다.Videos or images according to an embodiment of the present invention include both still images and moving images, unless otherwise specified.
이하에서는 첨부의 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.
도 1은 실시 예에 따른 클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱의 실행 방법에 대한 개념도이다.1 is a conceptual diagram of a method of executing a user service app by a cloud surveillance camera system according to an embodiment.
도 1을 참조하면, 본 명세서의 일 실시예에 따른 클라우드 감시 카메라 시스템(1000)은 여러 장소에 설치되어 있는 복수의 감시 카메라(100) 및 클라우드 서버(200)를 포함할 수 있다.Referring to FIG. 1, a cloud
복수의 감시 카메라(100)는 슈퍼 마켓(410), 주유소(420), 쇼핑몰(430), 주차장(440) 등 여러 장소의 고정된 위치에 배치되는 영상 촬영용 전자 장치일 수 있다. 복수의 감시 카메라(100)는 각각 감시하는 영역을 동영상이나 정지영상으로 촬영할 수 있다.The plurality of
감시 카메라(100)는 유선 또는 무선으로 인터넷에 연결하여 사용하는 네트워크 카메라일 수 있다. 감시 카메라(100) 각각은 팬(pan), 틸트(tilt), 및 줌(zoom) 기능을 갖는 PTZ 카메라일 수 있다. 감시 카메라(100)는 렌즈 및 이미지 센서를 포함하는 카메라 일 수 있다. 렌즈는 1매 이상의 렌즈로 구성되는 렌즈군일 수 있다. 이미지 센서는 렌즈에 의하여 입력된 영상을 전기적 신호로 변환할 수 있다.The
감시 카메라(100)는 촬영 대상 공간, 즉 감시 영역에 대한 RGB로 구성된 영상, 적외선 영상 또는 거리 정보를 포함하는 거리 영상 등을 제공할 수 있다. 감시 카메라(100)는 감시하는 영역에서 발생하는 소리를 녹음하는 기능을 가질 수 있다. 감시 카메라(100)는 감시하는 영역에서 움직임 또는 소리 등 변화가 발생할 경우, 이에 대한 알림을 발생시키거나 동영상을 녹화 또는 정지영상 촬영을 수행하는 기능을 가질 수 있다.The
클라우드 서버(200)는 감시 카메라(100)를 통하여 촬영된 영상 자체 및/또는 해당 영상을 편집하여 얻어지는 영상을 수신하여 정해진 목적에 맞게 처리하는 장치일 수 있다.The
클라우드 서버(200)는 감시 카메라(100)와 네트워크를 통해 연결되어, 영상 데이터, 영상 데이터의 처리 결과 및 각종 제어 데이터를 송수신할 수 있다.The
각각의 감시 카메라(100)는 영상 데이터뿐만 아니라 슈퍼 마켓, 주유소, 쇼핑몰, 주차장 등과 같은 자신이 설치된 장소에 대한 정보를 포함한 감시 카메라 식별 정보를 클라우드 서버(200)로 전송하여 클라우드 서버(200)에 자신을 등록함으로써, 클라우드 서버(200)로 하여금 수신되는 영상 데이터가 어느 감시 카메라에서 촬영된 영상 데이터인지 구분할 수 있도록 할 수 있다.Each
클라우드 서버(200)와 감시 카메라(100) 간의 유무선 통신 경로인 통신망은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트 워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 명세서의 범위가 이에 한정되는 것은 아니다.The communication network, which is a wired or wireless communication path between the
한편, 클라우드 서버(200)는 영상 분석 목적에 적합한 다양한 학습 모델을 저장하고 있을 수 있다. 클라우드 서버(200)는 감시 카메라(100)에서 수신된 영상 데이터에서 사람의 얼굴 또는 자동차 번호 등의 객체를 식별할 수 있는 인공지능 기반의 학습 모델을 저장하고 있을 수 있다.Meanwhile, the
클라우드 감시 카메라 시스템(1000) 또는 그 일부 구성은 DVR(Digital Video Recorder), CMS(Central Management System), NVR(Network Video Recorder), VMS(Video Management System) 등의 영상 보안 솔루션과 연결되어 영상 데이터를 전달하거나 이들 영상 보안 솔루션의 일부 구성으로 포함될 수도 있다.The cloud
사용자(30)는 먼저 슈퍼 마켓, 주유소, 쇼핑몰, 주차장 등의 다양한 장소에서 제공되는 사용자 서비스에 대한 사용자 서비스 앱을 앱 마켓 또는 클라우드 서버(200)로부터 다운로드 받아 사용자 단말(300)에 설치한다.The
사용자(30)는 사용자 단말(300)을 통해 자신의 얼굴 영상, 차량 번호, QR코드 같은 자신에게 부착된 식별 표식 등을 자신을 식별할 수 있는 사용자 식별 정보로서 클라우드 서버(200)에 전송하여 클라우드 서버(200)에 등록할 수 있다. 사용자 식별 정보는 전술한 사용자 서비스 앱을 통해서 클라우드 서버(200)로 전송될 수도 있다. 클라우드 서버(200)는 사용자 단말(300)에 설치된 사용자 서비스 앱을 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라(100)에 대한 감시 카메라 식별 정보와 연관 지어 저장한다.The
감시 카메라(100)는 각각의 감시 영역을 촬영하고, 촬영된 영상에서 사람이나 자동차 등의 객체가 촬영되면, 사람의 얼굴 또는 자동차의 번호 등 객체를 식별할 수 있는 정보를 추출한다. 예를 들어, 감시 카메라(100)들 중에서 주유소(420)에 설치된 감시 카메라가 특정 사용자(30)가 탑승하고 있는 자동차를 촬영하면, 촬영된 영상에서 특정 사용자(30)에 대한 사용자 식별 정보로서 자동차 번호를 추출하여 클라우드 서버(200)로 전송한다. 이 때, 사용자 식별 정보로서 자동차 번호뿐만 아니라, 감시 카메라 식별 정보도 함께 클라우드 서버(200)로 전송된다.The
클라우드 서버(200)는 감시 카메라로부터 수신된 사용자 식별 정보에 기초하여 감시 카메라에 의해 촬영된 사용자가 누구인지 식별할 수 있다. 클라우드 서버(200)는 사용자 식별 정보를 사용자 데이터베이스와 비교하여 감시 카메라에 의해 촬영된 사용자가 누구인지 식별할 수 있고, 사용자 식별 결과 및 감시 카메라 식별 정보에 기초하여 식별된 사용자가 감시 카메라가 설치된 장소에 입장하는 지의 여부를 판단할 수 있다. 예를 들어, 클라우드 서버(200)는 감시 카메라로부터 사용자 식별 정보를 수신하면, 해당 사용자 식별 정보에 대응되는 사용자(30)의 사용자 단말(300)에 감시 카메라가 설치된 장소에서 사용될 수 있는 사용자 서비스 앱을 실행하기 위해 통지를 사용자 단말에 출력하고, 사용자의 선택 입력에 따라 해당 사용자 서비스 앱을 실행할 수 있다. 도면 부호 350은 클라우드 서버(200)에서의 사용자 인식 후 사용자 단말(300)에서의 출력의 예를 도시한다. 클라우드 서버(200)는 식별된 사용자에 대한 영상이 주유소(420)에 설치된 감시 카메라로부터 수신된 것이므로, 사용자(30)가 주유를 하기 위해 주유소(420)에 방문한 것으로 판단하고, 주유소의 결제 내역에 따른 리워드를 적립할 수 있도록 리워드 적립용 바코드를 사용자 단말(300)에 출력할 지를 확인하는 통지(notification: 310)를 사용자 단말(300)로 전송한다. 이어서, 사용자(30)가 바코드 출력에 대한 통지(310)를 터치하면, 사용자 단말(300)은 리워드 적립용 바코드(311)를 사용자 단말(300)에 출력한다. 따라서, 사용자(30)는 리워드 적립을 위해 별도로 앱을 실행할 필요 없이 자신의 단말(300)에 자동으로 출력된 통지(310)를 터치함으로써 간편하게 사용자 서비스로서 구매에 대한 리워드 적립을 제공받을 수 있다.The
이 외, 클라우드 서버(200)는 사용자가 슈퍼 마켓(410)에 입장한 것으로 판단되면, 사용자의 단말에 슈퍼 마켓(410)에서 제공되는 할인 쿠폰을 출력할 수 있고, 사용자가 쇼핑몰(430)에 입장한 것으로 판단되면, 사용자의 단말에 쇼핑몰(300)에서 제공되는 프로모션 쿠폰을 출력할 수 있고, 사용자가 주차장(440)에 입장한 것으로 판단되면, 사용자의 단말에 빈 주차공간을 안내하는 주차 안내 앱을 실행할 수도 있다. 본 명세서에서는 4가지 경우로 예를 들어 설명하였지만, 특정 장소에서 고객에게 제공되는 서비스와 관련된 어떠한 사용자 서비스 앱이라도 클라우드 서버(200)에 미리 등록하여 상기 특정 장소에 사용자가 방문하면 해당 장소에서 제공되는 서비스와 관련된 사용자 서비스 앱을 자동으로 실행되도록 할 수 있다.In addition, when the
다른 실시 예에 따라, 사용자 단말(300)에는 사용자가 방문하는 장소마다 제공되는 사용자 서비스를 제공받기 위한 사용자 서비스 앱들이 본 시스템과 관계없이 미리 설치되어 있을 수 있다. 이 경우에는 사용자가 사용자 서비스 관리 앱을 앱 마켓 또는 클라우드 서버(200)로부터 다운로드하여 사용자 단말(300)에 설치할 수 있다. 사용자 서비스 관리 앱은 전술한 사용자 서비스 앱들 중에서 특정 장소에서 제공되는 서비스와 관련된 사용자 서비스 앱을 실행시킬 수 있다. 사용자 서비스 관리 앱은 사용자 식별 정보 및 사용자 단말에 설치되어 있는 사용자 서비스 앱의 목록을 클라우드 서버(200)로 전송할 수 있다. 클라우드 서버(200)는 수신된 사용자 서비스 앱의 목록에서 각 사용자 서비스 앱을 해당 서비스를 제공하는 장소에 설치된 감시 카메라(100)의 식별 정보와 연관지어 데이터 베이스에 저장할 수 있다.According to another embodiment, user service apps for receiving user services provided at each place the user visits may be pre-installed on the
이 경우, 감시 카메라(100)가 감시 영역을 촬영하여 사용자 식별 정보를 획득한 뒤, 이를 감시 카메라 식별 정보와 함께 클라우드 서버(200)로 전송하면, 클라우드 서버(200)는 수신된 사용자 식별 정보에 기초하여 감시 카메라(100)에 촬영된 사용자를 식별하고, 식별된 사용자의 사용자 단말(300)에 설치된 사용자 앱 중 사용자를 식별한 감시 카메라(100)가 설치된 장소와 연관된 사용자 서비스 앱을 실행시키도록 식별된 사용자의 사용자 단말(100)에 설치된 사용자 서비스 관리 앱에 대한 작동 명령을 식별된 사용자의 사용자 단말(100)로 전송한다. 사용자 서비스 관리 앱은 통지에 실행이 지시된 사용자 서비스 앱에 대한 실행 여부를 메시지를 사용자 단말(300)에 출력하고, 사용자가 서비스 앱의 실행을 승인할 경우, 해당 사용자 서비스 앱을 실행하여 사용자가 서비스를 받을 수 있도록 할 수 있다.In this case, when the
도 2는 실시 예에 따른 감시 카메라의 개략적인 블록도이다.Figure 2 is a schematic block diagram of a surveillance camera according to an embodiment.
도 2를 참조하면, 감시 카메라(100)는 이미지 센서(110), 인코더(120), 메모리(130), 프로세서(140), AI 프로세싱부(150), 및 통신부(160)를 포함할 수 있다.Referring to FIG. 2, the
이미지 센서(110)는 감시 영역을 촬영하여 영상을 획득하는 기능을 수행하는 것으로서, 예컨대, 이미지 센서는 CCD(Charge-Coupled Device) 또는 CMOS(Complementary Metal Oxide Semiconductor)와 같이 광학 신호를 전기적 신호(이하 영상으로 설명함)로 변환할 수 있는 반도체 소자 등으로 구현될 수 있다.The
인코더(120)는 이미지 센서(110)를 통해 획득한 영상을 디지털 신호로 부호화하는 동작을 수행하며, 이는 예컨대, H.264, H.265, MPEG(Moving Picture Experts Group), M-JPEG(Motion Joint Photographic Experts Group) 표준 등을 따를 수 있다.The
메모리(130)는 영상 데이터, 음성 데이터, 스틸 이미지, 메타데이터 등을 저장할 수 있다. 메타데이터는 감시 영역에서 촬영된 객체 감지 정보(움직임, 소리, 지정 지역 침입 등), 객체 식별 정보(사람, 차, 얼굴, 모자, 의상 등), 및 감지된 위치 정보(좌표, 크기 등)을 포함하는 데이터일 수 있다. 또한, 스틸 이미지는 메타데이터와 함께 생성되어 메모리(130)에 저장되는 것으로서, 영상 분석 정보들 중 특정 분석 영역에 대한 이미지 정보를 캡처하여 생성될 수 있다. 일 예로, 스틸 이미지는 JPEG 이미지 파일로 구현될 수 있다. 일 예로, 스틸 이미지는 특정 영역 및 특정 기간 동안 감지된 감시 영역의 영상 데이터들 중 식별 가능한 객체로 판단된 영상 데이터의 특정영역을 크롭핑(cropping)하여 생성될 수 있으며, 이는 메타데이터와 함께 실시간으로 전송될 수 있다.The
프로세서(140)는 감시 카메라(100)를 구성하는 모든 구성 요소들을 제어하여 영상 촬영에서부터 객체 식별 정보의 추출 및 영상 데이터의 전송까지의 모든 기능을 제어할 수 있다.The
AI 프로세싱부(150)는 인공지능 영상 처리를 위한 것으로서, 본 명세서의 일 실시예에 따라 감시 카메라를 통해 촬영된 영상에서 얼굴 영상, 차량 번호판, 객체에게 부착되어 있는 객체 식별 표식 등의 객체를 추출하여 객체에 대한 식별 정보를 획득할 수 있다. 상기 AI 프로세싱부(150)는 시스템 전반에 걸쳐 제어하는 프로세서(140)와 하나의 모듈로 구현되거나 독립된 모듈로 구현될 수 있다. 본 명세서의 실시예들은 객체에 대한 식별 정보의 탐지 및 추출에 있어서 YOLO(You Only Lock Once) 알고리즘이 적용될 수 있다. YOLO는 객체 감지 속도가 빠르기 때문에 실시간 동영상을 처리하는 감시 카메라에 적당한 AI 알고리즘이다. YOLO 알고리즘은 다른 객체 기반 알고리즘들(Faster R-CNN, R_FCN, FPN-FRCN 등)과 달리 한 장의 입력 영상을 리사이즈(Resize) 후 단일 신경망을 단 한 번 통과시킨 결과로 각 객체의 위치를 인디케이팅하는 바운딩 박스(Bounding Box)와 탐지된 객체가 무엇인지 객체 분류 확률을 출력한다. 최종적으로 Non-max suppression을 통해 하나의 객체를 한번 인식(detection)한다. 한편, 본 명세서에 개시되는 객체 인식 알고리즘은 전술한 YOLO에 한정되지 않고 다양한 딥러닝 알고리즘으로 구현될 수 있음을 밝혀 둔다.The
통신부(160)는 촬영된 영상 데이터 및 획득된 객체 식별 정보를 네트워크를 통해 클라우드 서버(200)로 전송할 수 있다. 또한, 통신부(160)는 영상 데이터, 음성 데이터, 스틸 이미지, 및/또는 메타데이터를 DVR, CMS, NVR, VMS 등의 영상 보안 솔루션 또는 디스플레이 장치에 전송한다. 일 실시예에 따른 통신부(160)는 영상 데이터, 음성 데이터, 스틸 이미지, 및/또는 메타데이터를 영상 보안 솔루션에 실시간으로 전송할 수 있다. 통신부(160)는 유무선 LAN(Local Area Network), 와이파이(Wi-Fi), 지그비(ZigBee), 블루투스(Bluetooth), 근거리 통신(Near Field Communication) 중 적어도 하나의 통신 기능을 수행할 수 있다.The
도 3은 실시 예에 따른 클라우드 서버의 개략적인 블록도이다.Figure 3 is a schematic block diagram of a cloud server according to an embodiment.
도 3을 참조하면, 클라우드 서버(200)는 통신부(210), 디코더(220), 메모리(230), 프로세서(240), AI 프로세싱부(250), 및 데이터 베이스(260)를 포함할 수 있다.Referring to FIG. 3, the
통신부(210)는 영상 데이터, 음성 데이터, 스틸 이미지, 및/또는 메타데이터를 감시 카메라(100)로부터 수신하고, 수신된 데이터를 DVR, CMS, NVR, VMS 등의 영상 보안 솔루션 또는 디스플레이 장치에 전송할 수 있다. 일 실시예에 따른 통신부(210)는 영상 데이터, 음성 데이터, 스틸 이미지, 및/또는 메타데이터를 영상 보안 솔루션에 실시간으로 전송할 수 있다. 통신부(210)는 유무선 LAN(Local Area Network), 와이파이(Wi-Fi), 지그비(ZigBee), 블루투스(Bluetooth), 근거리 통신(Near Field Communication) 중 적어도 하나의 통신 기능으로 감시 카메라(100)와의 통신을 수행할 수 있다.The
디코더(220)는 감시 카메라(100)의 통신부(160)를 통해 수신한 영상을 영상 신호로 복호화하는 동작을 수행하며, 이는 예컨대, H.264, H.265, MPEG(Moving Picture Experts Group), M-JPEG(Motion Joint Photographic Experts Group) 표준 등을 따를 수 있다.The
메모리(230)는 영상 데이터, 음성 데이터, 스틸 이미지, 메타데이터 등을 저장할 수 있다. 스틸 이미지는 메타데이터와 함께 생성되어 메모리(230)에 저장되는 것으로서, 영상 분석 정보들 중 특정 분석 영역에 대한 이미지 정보를 캡처하여 생성될 수 있다. 일 예로, 스틸 이미지는 JPEG 이미지 파일로 구현될 수 있다. 일 예로, 스틸 이미지는 특정 영역 및 특정 기간 동안 감지된 감시 영역의 영상 데이터들 중 식별 가능한 객체로 판단된 영상 데이터의 특정영역을 크롭핑(cropping)하여 생성될 수 있으며, 이는 메타데이터와 함께 실시간으로 저장될 수 있다.The
프로세서(240)는 클라우드 서버(200)를 구성하는 모든 구성 요소들을 제어하며, 영상 데이터의 처리, 감시 카메라(100)의 식별 정보에 기초한 설치 장소 판단, 객체 식별 정보의 처리 및 객체 인식 등과 관련된 기능을 처리할 수 있다.The
AI 프로세싱부(250)는 인공지능 영상 처리를 위한 것으로서, 본 명세서의 일 실시예에 따라 감시 카메라(100)를 통해 획득된 객체 식별 정보에서 객체를 인식하여 감시 영역에서 촬영된 사람이 누구인지, 또는 자동차의 번호가 무엇인지를 판단할 수 있다. 상기 AI 프로세싱부(250)는 시스템 전반에 걸쳐 제어하는 프로세서(240)와 하나의 모듈로 구현되거나 독립된 모듈로 구현될 수 있다. 클라우드 서버(200)에서의 객체 인식을 위한 실시예들은 객체에 대한 식별 정보의 탐지 및 추출에 있어서 YOLO(You Only Lock Once) 알고리즘 같은 객체 인식 알고리즘이 적용될 수 있다.The
데이터 베이스(260)는 사용자 DB(261), 사용자 서비스 앱 DB(262) 및 감시 카메라 DB(263)를 포함하여 구성될 수 있다.The
사용자 DB(261)는 클라우드 감시 카메라 시스템(1000)에 의한 사용자 서비스 앱의 자동 실행 서비스를 제공받고자 하는 사용자들이 제공한 자신에 대한 사용자 식별 정보들의 데이터 베이스이다. 사용자 식별 정보는 사용자의 얼굴 영상, 사용자의 차량 번호, 및 사용자에게 부착되어 있는 사용자 식별 표식 등을 포함할 수 있으며, 이들 사용자 식별 정보는 사용자 단말(300)로부터 수신된 후, 대응되는 사용자에 매칭되어 사용자 정보로서 클라우드 서버(200)에 등록된다.The
사용자 서비스 앱 DB(262)는 감시 카메라(100)가 설치된 장소 별로 제공되는 사용자 서비스와 연관된 사용자 서비스 앱과 사용자 정보를 매칭한 데이터 베이스로서, 등록된 사용자 별로 사용자 단말(300)에서 실행 가능한 사용자 서비스 앱들의 정보가 목록화된 데이터 베이스일 수 있다.The user
감시 카메라 DB(263)는 클라우드 감시 카메라 시스템(1000)에 연결된 감시 카메라(100)에 대한 감시 카메라 식별 정보와 상기 감시 카메라 식별 정보에 대응되는 감시 카메라가 설치된 장소 정보가 매칭된 감시 카메라 설치 장소 정보에 대한 데이터 베이스로서, 특정 감시 카메라 식별 정보에 기초하여 수신된 영상 데이터가 어느 장소에서 촬영된 것인 지를 알 수 있도록 만들어진 데이터 베이스일 수 있다.The
클라우드 서버(200)는 사용자 단말(300)로부터 사용자 식별 정보 및 사용자 서비스 앱 정보를 수신하면, 사용자 식별 정보에 해당하는 사용자의 사용자 단말(300)에 설치된 사용자 서비스 앱을 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라(100)에 대한 감시 카메라 식별 정보와 연관 지어 저장한다.When the
따라서, 클라우드 서버(200)는 특정 감시 카메라에서 수신된 사용자 식별 정보와 사용자 DB(261)의 사용자 정보 데이터에 기초하여 상기 특정 감시 카메라에서 촬영된 사람이 누구인지를 식별할 수 있으며, 상기 특정 감시 카메라로부터 수신한 감시 카메라 식별 정보와 감시 카메라 DB(263)의 감시 카메라 설치 장소 정보에 기초하여 상기 식별된 사용자에 대한 영상이 어느 장소에서 촬영된 것인지, 즉 사용자가 입장한 장소를 특정할 수 있고, 사용자 서비스 앱 DB(262)의 사용자 서비스 앱 목록 정보에 기초하여 상기 식별된 사용자의 단말에서 사용자가 입장한 장소와 연관된 사용자 서비스 앱을 판단한 뒤, 이를 실행하도록 제어 명령을 사용자 단말로 전송할 수 있다.Therefore, the
도 4는 일 실시예에 따른 감시 카메라 및 클라우드 서버에서 객체 인식에 적용되는 AI 프로세싱부를 설명하기 위한 도면이다.Figure 4 is a diagram for explaining an AI processing unit applied to object recognition in a surveillance camera and a cloud server according to an embodiment.
도 4를 살펴보면, AI 프로세싱부(500)는 AI 프로세싱을 수행할 수 있는 AI 모듈을 포함하는 전자 기기 등을 포함할 수 있다. 또한, AI 프로세싱부(500)는 감시 카메라(100) 및 클라우드 서버(200)의 적어도 일부의 구성으로 포함되어 AI 프로세싱 중 적어도 일부를 함께 수행하도록 구비될 수도 있다. AI 프로세싱은 감시 카메라(100)의 프로세서(140) 및 클라우드 서버(200)의 프로세서(240)와 관련된 모든 동작들을 포함할 수 있다. 예를 들어, 감시 카메라(100) 및 클라우드 서버(200)는 획득된 영상 신호를 AI 프로세싱 하여 처리/판단, 제어 신호 생성 동작을 수행할 수 있다.Looking at FIG. 4, the
AI 프로세싱부(500)는 AI 프로세싱 결과를 직접 이용하는 클라이언트 디바이스이거나, AI 프로세싱 결과를 다른 기기에 제공하는 클라우드 환경의 디바이스일 수도 있다. AI 프로세싱부(500)는 신경망을 학습할 수 있는 컴퓨팅 장치로서, 하나의 집적 회로로 구현된 칩, 서버, 데스크탑 PC, 노트북 PC, 태블릿 PC 등과 같은 다양한 전자 장치로 구현될 수 있다. The
AI 프로세싱부(500)는 AI 프로세서(21), 메모리(25) 및/또는 통신부(27)를 포함할 수 있다.The
AI 프로세서(21)는 메모리(25)에 저장된 프로그램을 이용하여 신경망을 학습할 수 있다. 특히, AI 프로세서(21)는 감시 카메라의 관련 데이터를 인식하기 위한 신경망을 학습할 수 있다. 여기서, 감시 카메라의 관련 데이터를 인식하기 위한 신경망은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하는, 가중치를 갖는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 모드들은 뉴런이 시냅스(synapse)를 통해 신호를 주고 받는 뉴런의 시냅틱 활동을 모의하도록 각각 연결 관계에 따라 데이터를 주고 받을 수 있다. 여기서 신경망은 신경망 모델에서 발전한 딥러닝 모델을 포함할 수 있다. 딥러닝 모델에서 복수의 네트워크 노드들은 서로 다른 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다. 신경망 모델의 예는 심층 신경망(DNN, deep neural networks), 합성곱 신경망(CNN, convolutional neural networks), 순환 신경망(RNN, Recurrent Networks), 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, deep belief networks), 심층 Q-네트워크(Deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용될 수 있다.The
한편, 전술한 바와 같은 기능을 수행하는 프로세서는 범용 프로세서(예를 들어, CPU)일 수 있으나, 인공지능 학습을 위한 AI 전용 프로세서(예를 들어, GPU)일 수 있다.Meanwhile, the processor that performs the above-described functions may be a general-purpose processor (e.g., CPU), or may be an AI-specific processor (e.g., GPU) for artificial intelligence learning.
메모리(25)는 AI 프로세싱부(500)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(25)는 비 휘발성 메모리, 휘발성 메모리, 플래시 메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SDD) 등으로 구현할 수 있다. 메모리(25)는 AI 프로세서(21)에 의해 액세스되며, AI 프로세서(21)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 또한, 메모리(25)는 본 발명의 일 실시예에 따른 데이터 분류/인식을 위한 학습 알고리즘을 통해 생성된 신경망 모델(예를 들어, 딥 러닝 모델(26))을 저장할 수 있다.The
한편, AI 프로세서(21)는 데이터 분류/인식을 위한 신경망을 학습하는 데이터 학습부(22)를 포함할 수 있다. 데이터 학습부(22)는 데이터 분류/인식을 판단하기 위하여 어떤 학습 데이터를 이용할지, 학습 데이터를 이용하여 데이터를 어떻게 분류하고 인식할지에 관한 기준을 학습할 수 있다. 데이터 학습부(22)는 학습에 이용될 학습 데이터를 획득하고, 획득된 학습데이터를 딥러닝 모델에 적용함으로써, 딥러닝 모델을 학습할 수 있다.Meanwhile, the
데이터 학습부(22)는 적어도 하나의 하드웨어 칩 형태로 제작되어 AI 프로세싱부(500)에 탑재될 수 있다. 예를 들어, 데이터 학습부(22)는 인공지능(AI)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 범용 프로세서(CPU) 또는 그래픽 전용 프로세서(GPU)의 일부로 제작되어 AI 프로세싱부(500)에 탑재될 수도 있다. 또한, 데이터 학습부(22)는 소프트웨어 모듈로 구현될 수 있다. 소프트웨어 모듈(또는 인스트럭션(instruction)을 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록 매체(non-transitory computer readable media)에 저장될 수 있다. 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 애플리케이션에 의해 제공될 수 있다.The
데이터 학습부(22)는 학습 데이터 획득부(23) 및 모델 학습부(24)를 포함할 수 있다.The
학습 데이터 획득부(23)는 데이터를 분류하고 인식하기 위한 신경망 모델에 필요한 학습 데이터를 획득할 수 있다.The learning data acquisition unit 23 may acquire learning data required for a neural network model for classifying and recognizing data.
모델 학습부(24)는 획득된 학습 데이터를 이용하여, 신경망 모델이 소정의 데이터를 어떻게 분류할지에 관한 판단 기준을 가지도록 학습할 수 있다. 이 때 모델 학습부(24)는 학습 데이터 중 적어도 일부를 판단 기준으로 이용하는 지도 학습(supervised learning)을 통하여, 신경망 모델을 학습시킬 수 있다. 또는 모델 학습부(24)는 지도 없이 학습 데이터를 이용하여 스스로 학습함으로써, 판단 기준을 발견하는 비지도 학습(unsupervised learning)을 통해 신경망 모델을 학습시킬 수 있다. 또한, 모델 학습부(24)는 학습에 따른 상황 판단의 결과가 올바른지에 대한 피드백을 이용하여 강화 학습(reinforcement learning)을 통하여, 신경망 모델을 학습시킬 수 있다. 또한, 모델 학습부(24)는 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient decent)을 포함하는 학습 알고리즘을 이용하여 신경망 모델을 학습시킬 수 있다.The
신경망 모델이 학습되면, 모델 학습부(24)는 학습된 신경망 모델을 메모리에 저장할 수 있다. 모델 학습부(24)는 학습된 신경망 모델을 AI 프로세싱부(500)와 유선 또는 무선 네트워크로 연결된 서버의 메모리에 저장할 수도 있다.When the neural network model is learned, the
데이터 학습부(22)는 인식 모델의 분석 결과를 향상시키거나, 인식 모델의 생성에 필요한 리소스 또는 시간을 절약하기 위해 학습 데이터 전처리부(미도시) 및 학습 데이터 선택부(미도시)를 더 포함할 수도 있다.The
학습 데이터 전처리부는 획득된 데이터가 상황 판단을 위한 학습에 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 예를 들어, 학습 데이터 전처리부는, 모델 학습부(24)가 이미지 인식을 위한 학습을 위하여 획득된 학습 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다.The learning data preprocessor may preprocess the acquired data so that the acquired data can be used for learning to determine the situation. For example, the learning data preprocessor may process the acquired data into a preset format so that the
또한, 학습 데이터 선택부는, 학습 데이터 획득부(23)에서 획득된 학습 데이터 또는 전처리부에서 전처리된 학습 데이터 중 학습에 필요한 데이터를 선택할 수 있다. 선택된 학습 데이터는 모델 학습부(24)에 제공될 수 있다.Additionally, the learning data selection unit may select data required for learning from among the learning data acquired by the learning data acquisition unit 23 or the learning data pre-processed by the pre-processing unit. The selected learning data may be provided to the
또한, 데이터 학습부(22)는 신경망 모델의 분석 결과를 향상시키기 위하여 모델 평가부(미도시)를 더 포함할 수도 있다.Additionally, the
모델 평가부는, 신경망 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 분석 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(22)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 인식 모델을 평가하기 위한 기 정의된 데이터일 수 있다. 일 예로, 모델 평가부는 평가 데이터에 대한 학습된 인식 모델의 분석 결과 중, 분석 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정되 임계치를 초과하는 경우, 소정 기준을 만족하지 못한 것으로 평가할 수 있다.The model evaluation unit inputs evaluation data into the neural network model, and when the analysis result output from the evaluation data does not satisfy a predetermined standard, the
통신부(27)는 AI 프로세서(21)에 의한 AI 프로세싱 결과를 외부 전자 기기로 전송할 수 있다. 예를 들어, 외부 전자 기기는 다른 감시카메라, DVR, CMS, NVR, VMS 등의 영상 보안 솔루션 또는 디스플레이 장치 등을 포함할 수 있다.The
한편, 도시된 AI 프로세싱부(500)는 AI 프로세서(21)와 메모리(25), 통신부(27) 등으로 기능적으로 구분하여 설명하였지만, 전술한 구성요소들이 하나의 모듈로 통합되어 AI 모듈로 호칭될 수도 있음을 밝혀 둔다.Meanwhile, the illustrated
이하에서는 첨부의 도 1 내지 도 6을 참조하여, 클라우드 감시 카메라 시스템(1000)에 의한 사용자 서비스 앱 실행 방법의 다양한 실시 예를 설명한다.Hereinafter, various embodiments of a method of executing a user service app by the cloud
실시 예 1: 사용자 서비스 전용 앱 구동Example 1: Running a user service-only app
도 5는 일 실시 예에 따른 클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱 실행 방법을 나타내는 순서도이다.Figure 5 is a flowchart showing a method of executing a user service app by a cloud surveillance camera system according to an embodiment.
도 2, 3 및 5를 참조하면, 먼저, 감시 카메라(100)가 자신에 대한 감시 카메라 식별 정보와 감시 카메라 식별 정보에 대응되는 감시 카메라의 설치 장소 정보를 클라우드 서버(200)에 전송하고(S501), 클라우드 서버(200)는 수신된 감시 카메라 식별 정보에 대응되는 감시 카메라(100)와 감시 카메라(100)가 설치된 장소를 감시 카메라 DB(263)에 저장하여 감시 카메라(100)를 등록한다(S503).Referring to FIGS. 2, 3, and 5, first, the
한편, 사용자는 사용자 단말(300)에 감시 카메라(100)의 설치 장소에서 제공되는 사용자 서비스와 연관된 사용자 서비스 앱을 설치한 뒤(S505), 사용자 식별 정보와 설치된 사용자 서비스 앱 정보를 클라우드 서버(200)에 전송한다(S507).Meanwhile, the user installs the user service app associated with the user service provided at the installation location of the
클라우드 서버(200)는 수신된 사용자 식별 정보에 대응되는 사용자를 등록하고, 사용자 정보에 해당 사용자 단말(300)에 설치된 사용자 서비스 앱을 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라(100)에 대한 감시 카메라 식별 정보와 연관 지어 저장한다(S509). 여기에서, 사용자 서비스 앱은 감시 카메라가 설치된 장소에서 제공되는 할인 쿠폰을 제공하는 사용자 앱, 감시 카메라가 설치된 장소에서 제공되는 리워드를 적립하는 사용자 앱, 또는 상기 감시 카메라가 설치된 장소에서 제공되는 서비스의 사용과 관련된 사용자 앱일 수 있다.The
다음으로, 감시 카메라(100)가 감시 영역을 촬영하여 사용자 식별 정보를 획득한 뒤(S511), 획득된 사용자 식별 정보와 감시 카메라 식별 정보를 클라우드 서버(200)로 전송한다(S513).Next, the
클라우드 서버(200)는 수신된 사용자 식별 정보에 기초하여 사용자를 식별하고, 사용자 식별 결과 및 감시 카메라 식별 정보에 기초하여 식별된 사용자가 입장하는 장소를 특정한다(S515).The
마지막으로, 클라우드 서버(200)가 상기 특정된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지를 상기 식별된 사용자의 사용자 단말(300)로 전송한다(S517).Finally, the
이 후, 사용자 단말(300)은 사용자가 상기 통지에 대해서 사용자 서비스 앱을 실행할 것을 선택하면 상기 특정된 장소와 연관된 사용자 서비스 앱을 실행하여 상기 특정된 장소에서 제공되는 할인 쿠폰 출력 또는 리워드 적립 바코드 출력 등의 사용자 서비스를 제공한다(S519).Afterwards, when the user selects to run the user service app in response to the notification, the
실시 예 2: 사용자 서비스 관리 앱을 이용한 사용자 서비스 앱 구동Example 2: Running a user service app using a user service management app
도 6은 다른 실시 예에 따른 클라우드 감시 카메라 시스템에 의한 사용자 서비스 앱 실행 방법을 나타내는 순서도이다.Figure 6 is a flowchart showing a method of executing a user service app by a cloud surveillance camera system according to another embodiment.
도 2, 3 및 6을 참조하면, 먼저, 감시 카메라(100)가 자신에 대한 감시 카메라 식별 정보와 감시 카메라 식별 정보에 대응되는 감시 카메라의 설치 장소 정보를 클라우드 서버(200)에 전송하고(S601), 클라우드 서버(200)는 수신된 감시 카메라 식별 정보에 대응되는 감시 카메라(100)와 감시 카메라(100)가 설치된 장소를 감시 카메라 DB(263)에 저장하여 감시 카메라(100)를 등록한다(S603).Referring to FIGS. 2, 3, and 6, first, the
한편, 사용자는 사용자 단말(300)에 감시 카메라(100)의 설치 장소에서 제공되는 사용자 서비스와 연관된 사용자 서비스 앱들을 실행시킬 수 있는 사용자 서비스 관리 앱을 설치하고, 사용자 서비스 관리 앱에 감시 카메라(100)의 설치 장소에서 제공되는 사용자 서비스와 연관된 사용자 서비스 앱들을 등록한다(S605).Meanwhile, the user installs a user service management app that can run user service apps related to the user service provided at the installation location of the
사용자 단말(300)이 사용자 식별 정보 및 설치된 사용자 서비스 앱에 대한 정보를 클라우드 서버(200)에 전송하면(S607), 클라우드 서버(200)는 수신된 사용자 식별 정보에 대응되는 사용자를 등록하고, 사용자 정보에 해당 사용자 단말에서 실행될 수 있는 사용자 서비스 앱을 매칭하여 등록한다(S609). 여기에서, 사용자 서비스 앱은 감시 카메라가 설치된 장소에서 제공되는 할인 쿠폰을 제공하는 사용자 앱, 감시 카메라가 설치된 장소에서 제공되는 리워드를 적립하는 사용자 앱, 또는 상기 감시 카메라가 설치된 장소에서 제공되는 서비스의 사용과 관련된 사용자 앱일 수 있다.When the
다음으로, 감시 카메라(100)가 감시 영역을 촬영하여 사용자 식별 정보를 획득한 뒤(S611), 획득된 사용자 식별 정보와 감시 카메라 식별 정보를 클라우드 서버(200)로 전송한다(S613).Next, the
클라우드 서버(200)는 수신된 사용자 식별 정보에 기초하여 사용자를 식별하고, 사용자 식별 결과 및 감시 카메라 식별 정보에 기초하여 식별된 사용자가 입장하는 장소, 즉 감시 카메라가 사용자를 촬영한 장소를 특정한다(S615).The
클라우드 서버(200)가 상기 특정된 장소 정보 및 상기 특정된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지를 상기 식별된 사용자의 사용자 단말(300)로 전송한다(S617).The
이 후, 사용자 단말(300)의 사용자 서비스 관리 앱은 기 등록된 사용자 서비스 앱들 중에서 사용자가 입장한 것으로 특정된 장소와 연관된 사용자 서비스 앱을 실행할 지 여부를 확인하는 통지를 사용자 단말(300)에 출력한다(S619).Afterwards, the user service management app of the
마지막으로, 사용자 단말(300)은 사용자가 상기 통지에 대해서 사용자 서비스 앱을 실행할 것을 선택하면 상기 특정된 장소와 연관된 사용자 서비스 앱을 실행하여 상기 특정된 장소에서 제공되는 할인 쿠폰 출력 또는 리워드 적립 바코드 출력 등의 사용자 서비스를 제공한다(S621).Finally, when the user selects to run the user service app in response to the notification, the
상술한 설명에서, 단계들, 과정들 또는 동작들은 본 발명의 구현예에 따라서, 추가적인 단계, 과정 또는 동작으로 더 분할되거나, 더 적은 단계, 과정 또는 동작으로 조합될 수 있다. 또한, 일부 단계, 과정 또는 동작은 필요에 따라 생략될 수도 있고, 단계 또는 동작 간의 순서가 전환될 수도 있다. 또한, 전술한 파노라마 감시 영상의 생성 방법이 포함하는 각 단계 또는 동작은 컴퓨터프로그램으로 구현되어 컴퓨터로 읽을 수 있는 기록매체에 저장될 수 있으며, 컴퓨터 장치에 의해 각 단계, 과정 또는 동작이 실행될 수도 있다.In the above description, steps, processes or operations may be further divided into additional steps, processes or operations, or may be combined into fewer steps, processes or operations, depending on the implementation of the invention. Additionally, some steps, processes, or operations may be omitted, or the order between steps or operations may be switched, as needed. In addition, each step or operation included in the method for generating the panoramic surveillance image described above may be implemented as a computer program and stored in a computer-readable recording medium, and each step, process, or operation may be executed by a computer device. .
본 명세서에서 사용된 용어 "부"는(예를 들면, 제어부 등), 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "부"는, 예를 들어, 유닛(unit), 로직(logic), 논리블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "부"는, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "부"는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "부"는 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들어, "부"는, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(Application-Specific Integrated Circuit) 칩, FPGAs(Field-Programmable Gate Arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.The term “unit” (e.g., control unit, etc.) used herein may mean, for example, a unit including one or a combination of two or more of hardware, software, or firmware. “Part” may be used interchangeably with terms such as unit, logic, logical block, component, or circuit, for example. A “part” may be the minimum unit of an integrated part or a part thereof. “Part” may be the minimum unit or part of one or more functions. The “part” may be implemented mechanically or electronically. For example, a “part” may be an Application-Specific Integrated Circuit (ASIC) chip, Field-Programmable Gate Arrays (FPGAs), or programmable-logic device, known or to be developed in the future, that performs certain operations. It can contain at least one.
다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터로 읽을 수 있는 저장매체/컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(read only memory), RAM(random access memory), 또는 플래시 메모리 등) 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.At least a portion of the device (e.g., modules or functions thereof) or method (e.g., operations) according to various embodiments may be stored in a computer-readable storage media, e.g., in the form of a program module. It can be implemented with instructions stored in . When the instruction is executed by a processor, the one or more processors may perform the function corresponding to the instruction. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Computer-readable storage media/computer-readable recording media include hard disks, floppy disks, magnetic media (e.g. magnetic tape), and optical media (e.g. CD-ROM (compact disc read only memory, digital versatile disc (DVD), magneto-optical media (e.g., floptical disk), hardware devices (e.g., read only memory (ROM), random disk (RAM)) access memory, or flash memory, etc.), and may also include those implemented in the form of a carrier wave (e.g., transmission via the Internet). In addition, program instructions include machine language such as that created by a compiler. In addition to code, it may include high-level language code that can be executed by a computer using an interpreter, etc. The above-described hardware device may be configured to operate as one or more software modules to perform the operations of various embodiments, and vice versa. Same thing.
다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술된 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.A module or program module according to various embodiments may include at least one of the above-described components, some of them may be omitted, or may further include other additional components. Operations performed by modules, program modules, or other components according to various embodiments may be executed sequentially, in parallel, iteratively, or in a heuristic manner. Additionally, some operations may be executed in a different order, omitted, or other operations may be added.
본 명세서에 사용된 용어 "하나"는 하나 또는 하나 이상으로 정의된다. 또한, 청구 범위에서 "적어도 하나" 및 "하나 이상"과 같은 도입 문구를 사용하는 것은, 동일한 청구항에 "적어도 하나" 및 "하나 이상"과 같은 도입 문구 및 "하나" 같은 불명료한 문구가 포함되어 있는 경우라 할지라도, 불명료한 문구 "하나"에 의한 다른 청구항 요소의 도입이 그러한 요소를 하나만을 포함하는 발명에 대해 그렇게 도입된 청구항 요소를 포함하는 임의의 특정 청구항을 제한한다는 것을 의미하는 것으로 해석되어서는 안된다.As used herein, the term “one” is defined as one or more than one. Additionally, the use of introductory phrases such as “at least one” and “one or more” in a claim may mean that the same claim contains introductory phrases such as “at least one” and “one or more” and ambiguous phrases such as “an.” The introduction of another claim element by the ambiguous phrase "a", if any, shall be construed to mean that any particular claim containing the claim element so introduced is limited to an invention containing only one such element. It shouldn't be.
본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다.In this document, expressions such as “A or B” or “at least one of A and/or B” may include all possible combinations of the items listed together.
달리 명시하지 않는 한, "제1" 및 "제2"와 같은 용어는 그러한 용어가 설명하는 요소들을 임의로 구별하는 데 사용된다. 따라서, 이들 용어는 그러한 요소들의 시간적 또는 다른 우선 순위를 나타내도록 반드시 의도된 것은 아니며, 특정 수단이 서로 다른 청구항들에 열거되어 있다는 단순한 사실만으로 이러한 수단들의 조합이 유리하게 사용될 수 없다는 것을 나타내는 것은 아니다. 따라서, 이들 용어는 그러한 요소의 시간적 또는 다른 우선 순위를 나타내도록 반드시 의도되지는 않는다. 특정 조치가 서로 다른 주장에 인용되었다는 단순한 사실만으로 이러한 조치의 조합이 유용하게 사용될 수 없다는 것을 나타내지는 않는다.Unless otherwise specified, terms such as “first” and “second” are used to optionally distinguish between the elements described by such terms. Accordingly, these terms are not necessarily intended to indicate temporal or other priority of such elements, and the mere fact that particular means are recited in different claims does not indicate that a combination of such means cannot be advantageously used. . Accordingly, these terms are not necessarily intended to indicate temporal or other priority of such elements. The mere fact that a particular measure is cited in different claims does not indicate that a combination of these measures cannot be used usefully.
"X일 수 있다"는 문구는 조건 X가 충족될 수 있음을 나타낸다. 이 문구는 또한 조건 X가 충족되지 않을 수도 있음을 나타낸다. 예를 들어, 특정 구성 요소를 포함하는 시스템에 대한 참조는 시스템이 특정 구성 요소를 포함하지 않는 시나리오도 포함해야 한다. 예를 들어, 특정 동작을 포함하는 방법에 대한 참조는 해당 방법이 특정 구성 요소를 포함하지 않는 시나리오도 포함해야 한다. 그러나 또 다른 예를 들면, 특정 동작을 수행하도록 구성된 시스템에 대한 참조는 시스템이 특정 작업을 수행하도록 구성되지 않은 시나리오도 포함해야 한다.The phrase “may be X” indicates that condition X may be met. This phrase also indicates that condition X may not be met. For example, a reference to a system containing a specific component should also include scenarios in which the system does not contain the specific component. For example, a reference to a method that includes a specific behavior should also include scenarios in which the method does not include that specific component. However, as another example, a reference to a system configured to perform a specific action should also include scenarios in which the system is not configured to perform a specific task.
용어 "포함하는", "갖는", "구성된", "이루어진" 및 "본질적으로 이루어진"은 상호 교환적으로 사용된다. 예를 들어, 임의의 방법은 적어도 도면 및/또는 명세서에 포함된 동작을 포함할 수 있으며, 도면 및/또는 명세서에 포함된 동작만을 포함할 수 있다. 또는, "포함하는"이라는 단어는 청구항에 나열된 요소들 또는 동작들의 존재를 배제하지 않는다.The terms “comprising,” “having,” “consisting of,” “consisting of,” and “consisting essentially of” are used interchangeably. For example, any method may include at least the operations included in the drawings and/or the specification, or may include only the operations included in the drawings and/or the specification. Alternatively, the word “comprising” does not exclude the presence of elements or acts listed in a claim.
본 명세서에 설명된 바와 같은 연결들은 예를 들어 중간 장치를 통해 각각의 노드, 유닛 또는 장치로부터 또는 각각의 노드, 유닛 또는 장치로 신호를 전송하기에 적합한 임의의 유형의 연결일 수 있다. 따라서, 묵시적으로 또는 달리 언급되지 않는 한, 연결은 예를 들어 직접 연결 또는 간접 연결일 수 있다. 연결은 단일 연결, 다수의 연결, 단방향 연결 또는 양방향 연결이라는 것을 참조하여 설명되거나 묘사될 수 있다. 그러나, 서로 다른 실시 예들은 연결의 구현을 변화시킬 수 있다. 예를 들어 양방향 연결이 아닌 별도의 단방향 연결을 사용할 수 있으며 그 반대의 경우도 가능할 수 있다. 또한, 다수의 연결은 복수의 신호를 순차적으로 또는 시간 다중화 방식으로 전송하는 단일 연결로 대체될 수 있다. 마찬가지로, 복수의 신호를 전송하는 단일 연결은 이러한 신호의 서브 세트를 전송하는 다양한 연결로 분리될 수 있다. 따라서 신호를 전송하기 위한 많은 옵션들이 존재한다.Connections as described herein may be any type of connection suitable for transmitting signals to or from each node, unit or device, for example via an intermediate device. Accordingly, unless implied or otherwise stated, a connection may be, for example, a direct connection or an indirect connection. A connection may be described or depicted with reference to being a single connection, multiple connections, one-way connection, or two-way connection. However, different embodiments may vary the implementation of the connection. For example, you could use a separate one-way connection rather than a two-way connection, or vice versa. Additionally, multiple connections can be replaced with a single connection that transmits multiple signals sequentially or in a time-multiplexed manner. Likewise, a single connection carrying multiple signals may be split into various connections carrying subsets of those signals. Therefore, many options exist for transmitting signals.
이상에서 본 명세서의 기술에 대한 바람직한 실시 예가 첨부된 도면들을 참조하여 설명되었다. 여기서, 본 명세서 및 청구 범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다. 본 발명의 범위는 본 명세서에 개시된 실시 예들로 한정되지 아니하고, 본 발명은 본 발명의 사상 및 특허청구범위에 기재된 범주 내에서 다양한 형태로 수정, 변경, 또는 개선될 수 있다.In the above, preferred embodiments of the technology of this specification have been described with reference to the attached drawings. Here, the terms or words used in this specification and claims should not be construed as limited to their usual or dictionary meanings, but should be construed as meanings and concepts consistent with the technical idea of the present invention. The scope of the present invention is not limited to the embodiments disclosed in this specification, and the present invention may be modified, changed, or improved in various forms within the scope described in the spirit and claims of the present invention.
Claims (20)
상기 사용자 식별 정보에 기초하여 상기 감시 카메라에 촬영된 사용자를 식별하고, 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지(notification)가 상기 식별된 사용자의 사용자 단말에 출력되도록 상기 통지를 상기 사용자 단말에 전송하는 클라우드 서버;를 포함하는
클라우드 감시 카메라 시스템.A surveillance camera that captures user identification information by photographing the surveillance area and transmits the user identification information and surveillance camera identification information to a cloud server; and
Identify the user captured by the surveillance camera based on the user identification information, and output a notification to the user terminal of the identified user to determine whether a user service app associated with the location where the surveillance camera is installed is executed. A cloud server transmitting the notification to the user terminal; including
Cloud surveillance camera system.
상기 감시 영역에 대한 촬영 영상 데이터를 분석하여 상기 사용자 식별 정보를 획득하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.The method of claim 1, wherein the surveillance camera,
Obtaining the user identification information by analyzing captured video data for the surveillance area
A cloud surveillance camera system characterized in that.
상기 사용자 식별 정보는 사용자의 얼굴 영상, 사용자의 차량 번호, 및 사용자에게 부착되어 있는 사용자 식별 표식을 포함하고,
상기 감시 카메라는 상기 감시 영역에 대한 촬영 영상 데이터로부터 상기 사용자의 얼굴 영상, 상기 사용자의 차량 번호, 및 상기 사용자에게 부착되어 있는 사용자 식별 표식을 추출하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.According to clause 2,
The user identification information includes the user's face image, the user's vehicle license plate number, and a user identification mark attached to the user,
The surveillance camera extracts the user's face image, the user's vehicle number, and the user identification mark attached to the user from the captured image data for the surveillance area.
A cloud surveillance camera system characterized in that.
상기 사용자 단말로부터 상기 사용자 식별 정보를 수신하여 사용자를 등록하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.The method of claim 1, wherein the cloud server:
Registering a user by receiving the user identification information from the user terminal
A cloud surveillance camera system characterized in that.
상기 감시 카메라가 설치된 장소에서 제공되는 서비스 쿠폰을 제공하는 사용자 앱, 상기 감시 카메라가 설치된 장소에서 제공되는 리워드를 적립하는 사용자 앱, 또는 상기 감시 카메라가 설치된 장소에서 제공되는 서비스의 사용과 관련된 사용자 앱 중에 어느 하나인
것을 특징으로 하는 클라우드 감시 카메라 시스템.The user service app of claim 1, where the surveillance camera is installed,
A user app that provides coupons for services provided at a location where the surveillance camera is installed, a user app that accumulates rewards provided at a location where the surveillance camera is installed, or a user app related to the use of services provided at a location where the surveillance camera is installed. which one of
A cloud surveillance camera system characterized in that.
상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지에 대한 선택 입력에 따라 실행되는
것을 특징으로 하는 클라우드 감시 카메라 시스템.The method of claim 5, wherein the user service app,
Executed according to the selection input for the notification confirming whether or not the user service app associated with the location where the surveillance camera is installed is running.
A cloud surveillance camera system characterized in that.
상기 사용자 단말에 설치된 사용자 서비스 앱을 상기 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라에 대한 감시 카메라 식별 정보와 연관 짓고,
특정 감시 카메라 식별 정보를 가진 감시 카메라가 사용자 식별 정보를 전송해오면, 상기 특정 감시 카메라 식별 정보와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지를 출력하도록 상기 식별된 사용자의 사용자 단말로 제어 메시지를 전송하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.The method of claim 6, wherein the cloud server:
Associating the user service app installed on the user terminal with surveillance camera identification information for a surveillance camera installed in a location providing the service provided by the user service app,
When a surveillance camera with specific surveillance camera identification information transmits user identification information, a control message is sent to the user terminal of the identified user to output a notification confirming whether the user service app associated with the specific surveillance camera identification information is running. transmitting
A cloud surveillance camera system characterized in that.
상기 사용자 식별 정보에 기초하여 상기 감시 카메라에 촬영된 사용자를 식별하고, 상기 식별된 사용자의 사용자 단말에 설치된 사용자 앱 중 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱을 실행시키도록 상기 사용자 단말에 설치된 사용자 서비스 관리 앱에 대한 작동 명령을 상기 사용자 단말로 전송하는 클라우드 서버;를 포함하는
클라우드 감시 카메라 시스템.A surveillance camera that captures user identification information by photographing the surveillance area and transmits the user identification information and surveillance camera identification information to a cloud server; and
Based on the user identification information, the user captured by the surveillance camera is identified, and among the user apps installed on the user terminal of the identified user, a user service app associated with the location where the surveillance camera is installed is installed on the user terminal. A cloud server that transmits an operation command for the user service management app to the user terminal; including
Cloud surveillance camera system.
상기 감시 영역에 대한 촬영 영상 데이터를 분석하여 상기 사용자 식별 정보를 획득하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.The method of claim 8, wherein the surveillance camera,
Obtaining the user identification information by analyzing captured video data for the surveillance area
A cloud surveillance camera system characterized in that.
상기 사용자 식별 정보는 사용자의 얼굴 영상, 사용자의 차량 번호, 및 사용자에게 부착되어 있는 사용자 식별 표식을 포함하고,
상기 감시 카메라는 상기 감시 영역에 대한 촬영 영상 데이터로부터 상기 사용자의 얼굴 영상, 상기 사용자의 차량 번호, 및 상기 사용자에게 부착되어 있는 사용자 식별 표식을 추출하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.According to clause 9,
The user identification information includes the user's face image, the user's vehicle license plate number, and a user identification mark attached to the user,
The surveillance camera extracts the user's face image, the user's vehicle number, and the user identification mark attached to the user from the captured image data for the surveillance area.
A cloud surveillance camera system characterized in that.
상기 사용자 단말로부터 상기 사용자 식별 정보를 수신한 뒤, 상기 사용자 식별 정보에 대응되는 사용자를 등록하고,
상기 등록된 사용자 정보에 상기 사용자 서비스 앱을 연관 지어 저장하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.The method of claim 8, wherein the cloud server:
After receiving the user identification information from the user terminal, registering a user corresponding to the user identification information,
Stores the user service app in association with the registered user information.
A cloud surveillance camera system characterized in that.
상기 사용자 식별 정보의 등록 전에 상기 사용자 단말에 전송되어 설치되고,
상기 사용자 식별 정보를 상기 클라우드 서버로 전송하고,
상기 사용자 단말에 출력되는 상기 감시 카메라가 설치된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지에 대한 선택 입력에 따라 미리 등록되어 있는 사용자 서비스 앱을 실행하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.The method of claim 11, wherein the user service management app,
is transmitted and installed on the user terminal before registration of the user identification information,
transmitting the user identification information to the cloud server,
Executing a pre-registered user service app according to a selection input for a notification output to the user terminal to check whether or not the user service app associated with the location where the surveillance camera is installed is executed.
A cloud surveillance camera system characterized in that.
상기 감시 카메라가 설치된 장소에서 제공되는 서비스 쿠폰을 제공하는 사용자 앱, 상기 감시 카메라가 설치된 장소에서 제공되는 리워드를 적립하는 사용자 앱, 또는 상기 감시 카메라가 설치된 장소에서 제공되는 서비스의 사용과 관련된 사용자 앱인
것을 특징으로 하는 클라우드 감시 카메라 시스템.The method of claim 12, wherein the user service app associated with the location where the surveillance camera is installed,
A user app that provides coupons for services provided at a location where the surveillance camera is installed, a user app that accumulates rewards provided at a location where the surveillance camera is installed, or a user app related to the use of services provided at a location where the surveillance camera is installed.
A cloud surveillance camera system characterized in that.
상기 사용자 단말에 설치된 사용자 서비스 앱을 상기 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라에 대한 감시 카메라 식별 정보와 연관 짓고,
특정 감시 카메라 식별 정보를 가진 감시 카메라가 사용자 식별 정보를 전송해오면, 상기 식별된 사용자의 사용자 단말에 설치된 사용자 서비스 앱 중에서 상기 특정 감시 카메라 식별 정보와 연관된 사용자 서비스 앱을 실행하도록 상기 사용자 단말로 상기 사용자 서비스 관리 앱에 대한 제어 메시지를 전송하는
것을 특징으로 하는 클라우드 감시 카메라 시스템.The method of claim 8, wherein the cloud server:
Associating the user service app installed on the user terminal with surveillance camera identification information for a surveillance camera installed in a location providing the service provided by the user service app,
When a surveillance camera with specific surveillance camera identification information transmits user identification information, the user terminal is instructed to execute a user service app associated with the specific surveillance camera identification information among the user service apps installed on the user terminal of the identified user. Sending control messages to user service management apps
A cloud surveillance camera system characterized in that.
상기 감시 카메라가 감시 영역을 촬영하여 사용자 식별 정보를 획득하는 단계;
상기 감시 카메라가 상기 사용자 식별 정보 및 감시 카메라 식별 정보를 상기 클라우드 서버로 전송하는 단계;
상기 클라우드 서버가 상기 사용자 식별 정보에 기초하여 사용자를 식별하고, 상기 사용자 식별 결과 및 상기 감시 카메라 식별 정보에 기초하여 상기 식별된 사용자가 입장하는 장소를 특정하는 단계; 및
상기 클라우드 서버가 상기 특정된 장소와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지를 상기 식별된 사용자의 사용자 단말로 전송하는 단계;를
포함하는 방법.In a method of executing a user service app by a cloud surveillance camera system including a surveillance camera and a cloud server,
Obtaining user identification information by having the surveillance camera capture a surveillance area;
The surveillance camera transmitting the user identification information and surveillance camera identification information to the cloud server;
The cloud server identifying a user based on the user identification information, and specifying a place where the identified user enters based on the user identification result and the surveillance camera identification information; and
Transmitting, by the cloud server, a notification confirming whether a user service app associated with the specified location is running to the user terminal of the identified user;
How to include it.
상기 사용자 식별 정보를 수신하여 사용자를 상기 클라우드 서버에 등록하는 단계; 및
상기 감시 카메라 식별 정보, 상기 감시 카메라 식별 정보에 대응되는 감시 카메라의 설치 장소 정보 및 상기 설치 장소에서 제공되는 사용자 서비스와 연관된 사용자 서비스 앱을 상기 클라우드 서버에 등록하는 단계;를
더 포함하는 방법.According to claim 15,
receiving the user identification information and registering the user with the cloud server; and
Registering the surveillance camera identification information, installation location information of the surveillance camera corresponding to the surveillance camera identification information, and a user service app associated with a user service provided at the installation location to the cloud server;
How to include more.
상기 사용자 단말에 설치된 사용자 서비스 앱을 상기 사용자 서비스 앱이 제공하는 서비스를 제공하는 장소에 설치된 감시 카메라에 대한 감시 카메라 식별 정보와 연관 짓는 단계;를
더 포함하는 방법.According to claim 15,
Associating the user service app installed on the user terminal with surveillance camera identification information for a surveillance camera installed at a location providing the service provided by the user service app;
How to include more.
상기 사용자 단말에 설치된 사용자 서비스 관리 앱을 통해 상기 감시 카메라가 설치된 장소와 연관되는 사용자 서비스 앱을 상기 클라우드 서버에 등록하는 단계;를 더 포함하고,
상기 사용자 서비스 관리 앱은,
상기 클라우드 서버로부터 특정 설치 장소에 설치된 감시 카메라 식별 정보 및 사용자 식별 정보를 수신하면, 상기 식별된 사용자의 사용자 단말에 설치된 사용자 서비스 앱 중에서 상기 특정 설치 장소에 설치된 감시 카메라 식별 정보와 연관된 사용자 서비스 앱의 실행 여부를 확인하는 통지를 출력하고,
상기 사용자 서비스 앱의 실행 여부를 확인하는 통지에 대한 사용자의 선택에 따라 상기 사용자 서비스 앱을 실행하는
것을 특징으로 하는 방법.According to claim 17,
Registering a user service app associated with a location where the surveillance camera is installed on the cloud server through a user service management app installed on the user terminal, further comprising:
The user service management app is,
When receiving surveillance camera identification information and user identification information installed at a specific installation location from the cloud server, the user service app associated with the surveillance camera identification information installed at the specific installation location is selected from among the user service apps installed on the user terminal of the identified user. Prints a notification to confirm execution,
Running the user service app according to the user's selection in response to a notification confirming whether the user service app is running.
A method characterized by:
상기 감시 카메라가 설치된 장소에서 제공되는 할인 쿠폰을 제공하는 사용자 앱, 상기 감시 카메라가 설치된 장소에서 제공되는 리워드를 적립하는 사용자 앱, 또는 상기 감시 카메라가 설치된 장소에서 제공되는 서비스의 사용과 관련된 사용자 앱인
것을 특징으로 하는 방법.The method of claim 15, wherein the user service app,
A user app that provides discount coupons provided at a location where the surveillance camera is installed, a user app that accumulates rewards provided at a location where the surveillance camera is installed, or a user app related to the use of services provided at a location where the surveillance camera is installed.
A method characterized by:
사용자의 얼굴 영상, 사용자의 차량 번호, 및 사용자가 부착하고 있는 인식표를 포함하는
것을 특징으로 하는 방법.The method of claim 15, wherein the user identification information is:
Contains the user's face image, the user's vehicle license plate number, and the identification tag attached to the user.
A method characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220046281A KR20230147360A (en) | 2022-04-14 | 2022-04-14 | User service app execution by cloud surveillance camera system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220046281A KR20230147360A (en) | 2022-04-14 | 2022-04-14 | User service app execution by cloud surveillance camera system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230147360A true KR20230147360A (en) | 2023-10-23 |
Family
ID=88508494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220046281A KR20230147360A (en) | 2022-04-14 | 2022-04-14 | User service app execution by cloud surveillance camera system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230147360A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117579788A (en) * | 2024-01-15 | 2024-02-20 | 深圳市喂车科技有限公司 | Oil discharge monitoring method, system and storage medium for AI-based gas station |
-
2022
- 2022-04-14 KR KR1020220046281A patent/KR20230147360A/en unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117579788A (en) * | 2024-01-15 | 2024-02-20 | 深圳市喂车科技有限公司 | Oil discharge monitoring method, system and storage medium for AI-based gas station |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200265239A1 (en) | Method and apparatus for processing video stream | |
US9560323B2 (en) | Method and system for metadata extraction from master-slave cameras tracking system | |
US11106903B1 (en) | Object detection in image data | |
US20190258866A1 (en) | Human presence detection in edge devices | |
US11232327B2 (en) | Smart video surveillance system using a neural network engine | |
KR102333143B1 (en) | System for providing people counting service | |
KR20210155655A (en) | Method and apparatus for identifying object representing abnormal temperatures | |
CN114663871A (en) | Image recognition method, training method, device, system and storage medium | |
US11423262B2 (en) | Automatically filtering out objects based on user preferences | |
KR20230147360A (en) | User service app execution by cloud surveillance camera system | |
Tran et al. | Towards real-time secured IP camera via state machine architecture | |
EP4332910A1 (en) | Behavior detection method, electronic device, and computer readable storage medium | |
US20230386185A1 (en) | Statistical model-based false detection removal algorithm from images | |
Rathour et al. | KlugOculus: A Vision‐Based Intelligent Architecture for Security System | |
US20230215128A1 (en) | Real-time occlusion removal using synthetic pixel generation | |
US20230111876A1 (en) | System and method for animal disease management | |
KR20230123226A (en) | Noise Reduction of Surveillance Camera Image Using Object Detection Based on Artificial Intelligence | |
Zhao | Deep Learning in Video Anomaly Detection and Its Applications | |
CN113518217A (en) | Object recognition method, device, server and medium | |
KAMAROZAMAN et al. | ENHANCING CAMPUS SECURITY AND VEHICLE MANAGEMENT WITH REAL-TIME MOBILE LICENSE PLATE READER APP UTILIZING A LIGHTWEIGHT INTEGRATION MODEL | |
US20240184860A1 (en) | Methods and arrangements for providing impact imagery | |
Huu et al. | Proposing Smart System for Detecting and Monitoring Vehicle Using Multiobject Multicamera Tracking | |
US20220239861A1 (en) | Video management system and video management method | |
Asy’ari et al. | Histogram of Oriented Gradients (HOG) and Haar Cascade with Convolutional Neural Network (CNN) Performance Comparison in the Application of Edge Home Security System | |
Foo | Smart security camera using machine learning |