[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20210147680A - 밀집 통제를 위한 영상 감시 장치 - Google Patents

밀집 통제를 위한 영상 감시 장치 Download PDF

Info

Publication number
KR20210147680A
KR20210147680A KR1020200065272A KR20200065272A KR20210147680A KR 20210147680 A KR20210147680 A KR 20210147680A KR 1020200065272 A KR1020200065272 A KR 1020200065272A KR 20200065272 A KR20200065272 A KR 20200065272A KR 20210147680 A KR20210147680 A KR 20210147680A
Authority
KR
South Korea
Prior art keywords
distance
people
camera
coordinates
face
Prior art date
Application number
KR1020200065272A
Other languages
English (en)
Other versions
KR102374357B1 (ko
Inventor
임종빈
박동욱
이병윤
Original Assignee
주식회사 아이티엑스에이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이티엑스에이아이 filed Critical 주식회사 아이티엑스에이아이
Priority to KR1020200065272A priority Critical patent/KR102374357B1/ko
Priority to US17/326,369 priority patent/US20210374431A1/en
Publication of KR20210147680A publication Critical patent/KR20210147680A/ko
Application granted granted Critical
Publication of KR102374357B1 publication Critical patent/KR102374357B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

지능적인 영상 인식을 통해 자동화된 감시를 수행하는 영상 감시 기술이 개시된다. 카메라에서 촬영된 영상에서 두 사람 간의 거리가 측정된다. 측정된 거리가 기준치 이하이면 근접 이벤트근접 이벤트가 발생한다. 일 실시예에서, 촬영된 영상에서 두 사람의 발(foot)을 검출하고 카메라 파라메터들을 이용하여 그 발들이 놓여진 지면의 위치들간의 거리로부터 두 사람 간의 거리가 산출될 수 있다. 또 다른 실시예에서, 촬영된 영상에서 두 사람의 머리들(heads)을 검출하고 평균적인 키 높이 평면 상의 그 머리의 위치들 간의 거리로부터 두 사람 간의 거리가 산출될 수 있다.

Description

밀집 통제를 위한 영상 감시 장치{Video Surveillance Apparatus for Congestion Control}
영상 기술, 특히 지능적인 영상 인식을 통해 자동화된 감시를 수행하는 영상 감시 기술이 개시된다.
전염병이 확산되면서 사회적 거리(social distance)라는 개념이 생기고 개인간 거리 유지가 중요한 이슈가 되고 있다. 전염병으로 인해 건물이 폐쇄될 경우 입주자들의 사업과 생업에 막대한 영향을 미치므로 다중이 출입하는 공간을 관리하는 관리자들은 자신이 관리하는 공간 내의 출입자들에 대해 이러한 사회적 거리의 유지에 많은 관심을 가지게 되었다.
제안된 발명은 공간 내 출입하는 출입자들간의 사회적 거리 유지를 관리하는 자동화된 기술을 제공하는 것을 목적으로 한다. .
제안된 발명의 일 양상에 따르면, 카메라에서 촬영된 영상에서 두 사람 간의 거리가 측정된다. 측정된 거리가 기준치 이하이면 근접 이벤트가 발생한다.
또 다른 양상에 따르면, 카메라에서 촬영된 영상에서 두 사람의 발(foot)을 검출하고 카메라 파라메터들을 이용하여 그 발들이 놓여진 지면의 위치들간의 거리로부터 두 사람 간의 거리가 산출될 수 있다.
또 다른 양상에 따르면, 카메라에서 촬영된 영상에서 두 사람의 머리들(heads)을 검출하고 카메라 파라메터들을 이용하여 평균적인 키 높이 평면 상의 그 머리의 위치들 간의 거리로부터 두 사람 간의 거리가 산출될 수 있다.
또 다른 양상에 따르면, 직하로 설치된 광각 카메라의 경우 입력된 영상에서 화면 중앙을 중심으로 소정 크기의 원 내부에서 사람 머리들을 검출하고, 검출된 사람 머리 간의 픽셀 수를 거리로 환산하여 두 사람 간의 거리를 산출할 수 있다.
또 다른 양상에 따르면, 두 사람 간의 거리 뿐 아니라 두 사람 간의 근접 유지 시간을 고려하여 결정된 기준치에 따라 근접 이벤트가 발생할 수 있다.
또 다른 양상에 따르면, 두 사람 간의 거리 뿐 아니라 두 사람의 마스크 착용 여부를 고려하여 결정된 기준치에 따라 근접 이벤트가 발생할 수 있다.
또 다른 양상에 따르면, 두 사람 간의 거리 뿐 아니라 두 사람의 얼굴이 대면 방향인지 여부를 고려하여 결정된 기준치에 따라 근접 이벤트가 발생할 수 있다.
사람들간의 거리가 카메라 영상으로부터 자동적으로 산출되어 근접 이벤트로 발생하므로 관리자들은 근접 이벤트에 응답하여 통제할 수 있다. 또한 근접 이벤트가 발생한 순간의 영상을 근접 이벤트 영상으로 저장하고 확인함으로써 만일의 경우에 정밀한 역학적인 조사를 가능하게 한다.
도 1은 일 실시예에 따른 밀집 통제를 위한 영상 감시 장치의 구성을 도시한 블록도이다.
도 2는 이미지 좌표계와 지면 좌표계의 관계를 설명하는 도면이다.
도 3은 또 다른 실시예에 따른 밀집 통제를 위한 영상 감시 장치의 구성을 도시한 블록도이다.
도 4는 일 실시예에 따른 밀집 통제를 위한 영상 감시 방법의 구성을 도시한 흐름도이다.
도 5는 일 실시예에 따른 발 사이 거리 산출 단계 및 머리 사이 거리 산출 단계의 세부 구성을 도시한 흐름도이다.
도 6은 또 다른 실시예에 따른 밀집 통제를 위한 영상 감시 방법의 구성을 도시한 흐름도이다.
전술한, 그리고 추가적인 양상들은 첨부된 도면을 참조하여 설명하는 실시예들을 통해 구체화된다. 각 실시예들의 구성 요소들은 다른 언급이나 상호간에 모순이 없는 한 실시예 내에서 또는 타 실시예의 구성 요소들과 다양한 조합이 가능한 것으로 이해된다. 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 명세서 및 청구범위에 사용된 용어는 기재 내용 혹은 제안된 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
도 1은 일 실시예에 따른 밀집 통제를 위한 영상 감시 장치의 구성을 도시한 블록도이다. 도시된 예에서, 영상 감시 장치는 공간, 예를 들면 매장, 사무실, 공공 건물, 나아가 실외의 통제된 공간에 설치된다. 영상 감시 장치는 셋탑, 컴퓨터 혹은 모니터 일체형 감시 장치 등의 형태를 가질 수 있다. 영상 감시 장치는 마이크로프로세서에서 실행되는 컴퓨터 프로그램 명령어들로 구현될 수 있다. 도면에서 영상 감시 장치에 포함된 각각의 블록들은 해당 기능을 수행하는 컴퓨터 프로그램 명령어 세트로 구현될 수 있다.
제안된 발명의 일 양상에 따르면, 카메라에서 촬영된 영상에서 두 사람 간의 거리가 측정된다. 이러한 양상에 따른 일 실시예에 따른 밀집 통제를 위한 영상 감시 장치는 사람간 거리 산출부(100)와, 근접 이벤트 발생부(300)를 포함한다. 사람간 거리 산출부(100)는 카메라(710)에서 촬영된 영상에서 두 사람 간의 거리 값인 사람간 거리 값을 산출한다. 예를 들면 촬영된 영상에서 두 사람이 식별되고, 두 사람의 얼굴 혹은 몸통 등의 신체 부위의 중심 좌표들이 검출될 수 있다. 카메라 파라메터들이 주어지면 절대적인 거리에 부합하는 절대 좌표 정보가 구해질 수 있다. 추가적으로, 지면이 평면이 아니라 곡면을 포함한 경우, 화면 상에 존재하는 길이가 알려진 마크 이미지를 이용하여 좀 더 정확하게 산출할 수 있다.
근접 이벤트 발생부(300)는 산출된 사람간 거리가 기준치 이하이면 근접 이벤트를 송출한다. 예를 들면 이러한 기준치는 사회적 거리두기(social distancing) 기준인 6 피트가 될 수 있다. 근접 이벤트 발생부(300)가 생성한 근접 이벤트 신호는 예를 들면 통신부(500)를 통해 네트워크에 연결된 관제 시스템으로 전송될 수 있다. 또 다른 예로 근접 이벤트는 방송 시스템으로 전송되어 경고 방송을 송출할 수 있다. 얼굴 인식 시스템과 연동하면 빈번하게 근접 이벤트를 발생시킨 사람에게 모바일 망을 통해 모바일 단말로 경고 메시지를 송출할 수 있다.
또 다른 양상에 따르면, 카메라(710)에서 촬영된 영상에서 두 사람의 발(foot)을 검출하고 카메라 파라메터들을 이용하여 그 발들이 놓여진 지면의 위치들간의 거리로부터 두 사람 간의 거리가 산출될 수 있다. 이러한 양상에 따라 도시된 실시예에 따른 사람간 거리 산출부(100)는 발 사이 거리 산출부(130)를 포함할 수 있다. 발 사이 거리 산출부(130)는 카메라(710)에서 촬영된 영상에서 두 사람의 발(foot)을 검출하고 그 이미지 좌표계의 좌표들로부터 사람간 거리 값을 산출한다. 이미지 좌표계는 카메라(710)에서 촬영한 이미지를 평면으로 보았을 때 그 평면 상에서 설정한 좌표축 상의 좌표이다. 발의 좌표는 예를 들면 발의 앞쪽 끝 혹은 발의 중심점과 같이 쉽게 검출될 수 있는 위치 중 하나로 정해진다.
추가적인 양상에 따라, 발 사이 거리 산출부(130)는 발 검출부(131)와, 지면 좌표 변환부(133)와, 제1 사람간 거리 산출부(135)를 포함할 수 있다. 발 검출부(131)는 카메라(710)에서 촬영된 영상에서 두 사람의 발을 검출하고 그 이미지 좌표계의 좌표들인 한 쌍의 제1 위치 좌표를 구한다. 다른 방법보다 두 사람의 이격 거리를 지면 상의 그 두 사람의 위치로부터 구하는 방법이 더 정확하고 효율적이다. 지면 상의 위치를 구하기 위해 보통 지면에 붙어 있는 발을 검출하는 것이 유리할 뿐 아니라 카메라(710) 영상에서 발을 검출하는 것은 기존 보안 영상 분석(surveillance video analytic)에서 알려진 기술로 상당히 신뢰성 있게 처리되고 있으므로 유리한 점이 있다. 검출된 발 영역의 중심점을 구하고 이미지 좌표계에서 그 좌표를 구할 수 있다.
지면 좌표 변환부(133)는 카메라 파라메터들을 이용하여 한 쌍의 제1 위치 좌표를 지면 좌표계의 한 쌍의 제2 위치 좌표로 변환한다.
도 2는 이미지 좌표계와 지면 좌표계의 관계를 설명하는 도면이다. 도면에서 I는 이미지 평면(image plane)이고, G는 지면 평면(ground plane)이며, C는 카메라 중심(camera center)이다. OW는 세계 좌표 시스템의 원점(origin of the world coordinate system)이다.
카메라 영상 보정(Image calibration) 과정을 통해 내부 파라미터(Intrinsic parameter)와 외부 파라미터(Extrinsic parameter)를 구할 수 있다. 내부 파라미터는 렌즈 왜곡(Distortion) 등에 의해 기인하는 카메라의 구조적인 오차 등 카메라 내부적인 정보를 말한다. 외부 파라미터는 실제 설치된 카메라가 세계 좌표계의 원점으로부터 얼마만큼 이동해 있고, 얼마만큼 회전해 있는지에 대한 정보를 말한다.
이러한 카메라 파라메터들은 행렬(Matrix)과 벡터(Vector)를 통해 표현할 수 있다. 실제 세계의 원점은 임의적으로 설정할 수 있다. 실제 세계의 3차원 좌표는 동차 좌표계(Homogeneous coordinate)를 이용하여 2차원 이미지 평면의 좌표로 표현할 수 있다. 실제 세계의 3차원 좌표의 Z축 값을 0이라 가정하면, XY 좌표를 가지는 2차원 평면이 되고, 이 2차원 평면은 카메라에 의해 촬영된 2차원 영상일 수 있다. 2차원 영상에서 특징점을 찾아 다른 각도에서 보는 것처럼 변경하는 호모그래피(Homography)기술이 알려져 있다. 본 출원의 발명자 중의 한 사람이 발명자인 특허제1,489,468호는 이러한 호모그래피 기반의 카메라 영상 보정 기술을 제안하고 있으며, 이 명세서에 이러한 배경 기술이 잘 설명되어 있다.
다중이 밀집된 상태가 아니라면 검출된 사람들의 발이 모두 검출 가능하다. 제안된 발명의 일 양상에 따르면, 이미지 평면과 지면 평면 간에 호모그래피를 적용하여 이미지의 좌표를 지면 평면에서의 좌표로 변환한 후 그 지면 평면에서의 좌표를 이용하여 사람들간의 거리가 산출된다.
도 2에서 지면 평면 상에 위치하는 사람이 길이 l의 선분 X-X'로 표현될 때 이미지 평면 상에서는 축소된 길이를 가진 선분 Z-Z'로 표시된다. xc-yc-zc 좌표계는 이미지 좌표계이고 xw-yw-zw는 지면 좌표계이다. 호모그래피는 이미지 평면인 xc-yc 이미지 평면과 xw-yw는 지면 평면 간에 적용된다. 카메라 파라메터들은 틸트(tilt) θ,롤(roll) ρ, 카메라 높이(camera height) h 이며, 내부 파라메터는 초점 길이(focal length) f로 표시되었다. 도시된 바와 같이 두 평면 상의 호모그래피 행렬 HI는 카메라 파라메터들로부터 다음과 같이 구해질 수 있다.
Figure pat00001
이미지 좌표
Figure pat00002
의 지면 좌표
Figure pat00003
는 다음과 같이 계산된다.
Figure pat00004
여기서
Figure pat00005
이고,
Figure pat00006
,
Figure pat00007
Figure pat00008
의 j번째 열을 의미한다.
제1 사람간 거리 산출부(135)는 한 쌍의 제2 위치 좌표간의 거리를 산출하여 사람간 거리 값으로 출력한다. 이미지 상의 두 좌표(관측된 사람의 발의 좌표)
Figure pat00009
,
Figure pat00010
의 지면 좌표
Figure pat00011
,
Figure pat00012
가 위와 같이 구해지면, 이로부터, 두 사람간의 거리 d는 다음과 같이 구할 수 있다.
Figure pat00013
또 다른 양상에 따르면, 카메라에서 촬영된 영상에서 두 사람의 머리들(heads)을 검출하고 카메라 파라메터들을 이용하여 평균적인 키 높이 평면 상의 그 머리의 위치들 간의 거리로부터 두 사람 간의 거리가 산출될 수 있다. 이러한 양상에 따른 영상 감시 장치에 있어서, 사람간 거리 산출부(100)는 머리 사이 거리 산출부(150)를 포함할 수 있다. 머리 사이 거리 산출부(150)는 카메라에서 촬영된 영상에서 두 사람의 머리(head)를 검출하고 그 이미지 좌표계의 좌표들로부터 사람간 거리 값을 산출한다. 머리의 좌표는 예를 들면 머리의 위쪽 끝 혹은 머리의 중심점과 같이 쉽게 검출될 수 있는 위치 중 하나로 정해진다.
추가적인 양상에 따라, 머리 사이 거리 산출부(130)는 머리 검출부(151)와, 머리 평면 좌표 변환부(153)와, 제2 사람간 거리 산출부(155)를 포함할 수 있다. 머리 검출부(151)는 카메라에서 촬영된 영상에서 두 사람의 발을 검출하고 그 이미지 좌표계의 좌표들인 한 쌍의 제3 위치 좌표를 구한다. 최근의 얼굴 인식 기술의 발전으로 인해 머리를 검출하는 것이 상당히 신뢰성 있게 처리되고 있다. 검출된 머리 영역의 중심점을 구하고 이미지 좌표계에서 그 좌표를 구할 수 있다.
머리 평면 좌표 변환부(153)는 카메라 파라메터들을 이용하여 한 쌍의 제3 위치 좌표를 사람들의 평균 키에 해당하는 머리 평면 좌표계의 한 쌍의 제4 위치 좌표로 변환한다. 전술한 바와 같이, 이미지 평면 상의 좌표를 머리 평면 상의 좌표로 변환하는 기술은 호모그래피 기술을 이용하여 처리될 수 있다.
추가적인 양상에 따르면, 도 1에 도시된 실시예에서 발 검출부(131)는 거리를 측정하고자 하는 두 사람의 영역을 검출한 후 그 두 사람의 발들을 검출하는데 실패하면 머리 사이 거리 산출부(150)를 호출한다. 이에 따라 발 사이 거리 산출이 실패하면 머리 사이 거리 산출이 적용될 수 있다.
추가적인 양상에 따라, 사람간 거리 산출부(100)는 직하 카메라 사람간 거리 산출부(170)를 더 포함할 수 있다. 직하 카메라 사람간 거리 산출부(170)는 직하로 설치된 광각 카메라(730)로부터 입력된 영상에서 화면 중앙을 중심으로 소정 크기의 원 내부에서 사람 머리들을 검출하고, 검출된 사람 머리 간의 픽셀 수를 거리로 환산하여 사람간 거리를 산출한다. 화면 중앙을 중심으로 소정 크기의 원 내부에서는 왜곡이 거의 없는 영상이 획득된다. 이 원의 반경은 카메라 렌즈의 왜곡율과 카메라 소프트웨어에 따라 달라질 수 있다. 머리 영역의 중심점 간의 픽셀 수가 실제 거리에 비례한다. 따라서 카메라 설치 높이에 따라 달라지는 비율값을 곱하여 거리를 계산할 수 있다.
도 3은 또 다른 실시예에 따른 밀집 통제를 위한 영상 감시 장치의 구성을 도시한 블록도이다. 일 양상에 따르면, 영상 감시 장치는 근접 시간 측정부(210)를 더 포함할 수 있다. 근접 시간 측정부(210)는 근접 이벤트가 발생하면 두 사람간의 해당 거리에서 근접 유지 시간을 측정하여 출력한다. 근접 유지 시간은 사람간 거리 산출부(100)에서 출력한 두 사람간의 거리 값이 일정치 이상 변하지 않는 동안 측정한 시간 값이 될 수 있다. 대화 중에 두 사람 간의 거리 값이 변경되면, 근접 시간 측정부(210)는 해당 거리 이내로 계속 유지된 시간을 각 거리별로 측정한다. 예를 들어 2m의 거리를 유지하다 1.5m로 다가선 경우 2m에서 측정한 시간은 1.5m 거리에서도 계속 측정되고 1.5m 거리 측정은 새롭게 시작된다.
이 경우 근접 이벤트 발생부(300)는 사람간 거리 산출부(100)에서 출력한 두 사람간의 거리 값과 근접 시간 측정부(210)에서 출력된 근접 유지 시간을 입력 받아, 근접 유지 시간별 거리 기준치에 따라 근접 이벤트를 송출한다. 근접 유지 시간별 거리 기준치는 예를 들면 1분 이내 2m, 3분 이내 2.5m, 5분 이내 3m 등으로 사전에 설정될 수 있다. 예를 들어 위 기준에 따라 2m 거리에서 30초간 유지하다 1.5m 거리로 30초를 더 지속할 경우 2m 거리 이내로 1분간 유지되어 근접 이벤트가 송출된다. 근접 이벤트 정보는 거리 및 유지시간 내역을 포함할 수 있다.
또 다른 양상에 따르면, 영상 감시 장치는 마스크 검출부(230)를 더 포함할 수있다. 마스크 검출부(230)는 근접 이벤트가 발생하면 두 사람이 마스크를 착용하였는지 검출한다. 일 실시예에서 마스크 검출부(230)는 근접 이벤트가 발생하면 사람간 거리 산출부(100)에서 출력된 두 사람의 좌표값으로부터 영상에서 두 사람을 특정하고 그 얼굴 영역을 추출한 후 얼굴 영상을 분석하여 마스크 착용 여부를 판단할 수 있다.
이 경우 근접 이벤트 발생부(300)는 사람간 거리 산출부(100)에서 출력한 두 사람간의 거리 값과 마스크검출부(230)에서 출력된 착용 여부 정보를 입력 받아, 마스크 착용 여부에 따른 거리 기준치에 따라 근접 이벤트를 송출한다. 마스크 착용 여부에 따른 거리 기준치는 예를 들면 두 사람 모두 마스크 착용시 1m, 두 사람 중 한 사람만 마스크 착용시 2m, 두 사람 모두 마스크 착용하지 않은 경우 2.5m 등으로 사전에 설정될 수 있다.
또 다른 양상에 따르면, 영상 감시 장치는 대면 검출부(250)를 더 포함할 수 있다. 대면 검출부(250)는 근접 이벤트가 발생하면 두 사람의 얼굴이 대면 방향인지 검출한다. 일 실시예에서 대면 검출부(250)는 근접 이벤트가 발생하면 사람간 거리 산출부(100)에서 출력된 두 사람의 좌표값으로부터 영상에서 두 사람을 특정하고 그 얼굴 영역을 추출한 후 얼굴 영상을 분석하여 두 사람의 얼굴이 향한 얼굴 방향 벡터들을 추출하고, 그 두 벡터의 차이 벡터가 일정 범위 이내에이면 대면하고 있는 것으로 판단할 수 있다.
이 경우 근접 이벤트 발생부(300)는 사람간 거리 산출부(100)에서 출력한 두 사람간의 거리 값과 대면 검출부(250)에서 출력된 대면 여부 정보를 입력 받아, 대면 여부에 따른 거리 기준치에 따라 근접 이벤트를 송출한다. 대면 여부에 따른 거리 기준치는 예를 들면 두 사람이 대면하고 있을 경우 2m, 그렇지 않을 경우 2.5m, 등으로 사전에 설정될 수 있다.
도 3에 도시된 실시예에서, 근접 이벤트 발생부(300)는 사람간 거리 산출부(100)에서 출력한 두 사람간의 거리 값과, 근접 시간 측정부(210)에서 출력된 근접 유지 시간과, 마스크 검출부(230)에서 출력된 착용 여부 정보와, 대면 검출부(250)에서 출력된 대면 여부 정보를 입력 받아 그 조합에 따라 설정된 기준치에 따라 근접 이벤트를 송출한다. 여기서 기준치는 근접 시간의 범위와, 마스크 착용 여부, 그리고 대면 여부의 조합 별로 사전에 설정될 수 있다.
도 4는 일 실시예에 따른 밀집 통제를 위한 영상 감시 방법의 구성을 도시한 흐름도이다. 일 실시예에 따른 밀집 통제를 위한 영상 감시 방법은 사람간 거리 산출 단계(S100)와, 근접 이벤트 발생 단계(S300)를 포함한다. 먼저 카메라로부터 촬영된 영상 프레임이 획득된다(단계 S210). 카메라에서 촬영된 영상은 반드시 매 프레임마다 분석될 필요는 없으며, 사람의 움직이는 속도를 고려하여 매 5초에 한 프레임과 같이 적절한 비율로 샘플링할 수 있다. 사람간 거리 산출 단계(S100)에서 감시 장치는 카메라(710)에서 촬영된 영상에서 두 사람 간의 거리 값인 사람간 거리 값을 산출한다. 근접 이벤트 발생 단계(S300)에서 감시 장치는 산출된 사람간 거리가 기준치 이하이면 근접 이벤트를 송출한다. 이들에 대해서는 도 1에서 사람간 거리 산출부(100) 및 근접 이벤트 발생부(300)에 대해 설명한 바와 유사하다.
사람간 거리 산출 단계(S100)에서 감시 장치는 발 사이 거리 산출 단계(S130)를 포함할 수 있다. 발 사이 거리 산출 단계(S130)에서 감시 장치는 카메라(710)에서 촬영된 영상에서 두 사람의 발(foot)을 검출하고 그 이미지 좌표계의 좌표들로부터 사람간 거리 값을 산출한다.
또 다른 양상에 따르면 사람간 거리 산출 단계(S100)는 머리 사이 거리 산출 단계(S150)를 포함할 수 있다. 머리 사이 거리 산출 단계(S150)에서 감시 장치는 카메라에서 촬영된 영상에서 두 사람의 머리(head)를 검출하고 그 이미지 좌표계의 좌표들로부터 사람간 거리 값을 산출한다. 일 양상에 따라 발 사이 거리 산출 단계(S130)에서 발 사이 거리 산출에 실패하면 머리 사이 거리 산출 단계(S150)가 실행될 수 있다. 그러나 두 가지 방법이 동시에 실행되고 그 중 하나를 선택하거나 평균하는 등 종합하여 결정할 수도 있다.
이후에 사람간 거리 산출 단계(S100)에서 산출한 사람간 거리 값을 기준치와 비교한다(단계 S310). 사람간 거리 값이 기준치 이하이면 근접 이벤트가 송출된다(단계 S300). 사람간 거리 값이 기준치 이상이면, 영상 프레임 내의 모든 사람에 대해 사람간 거리 산출 단계(S100) 내지 근접 이벤트 송출 단계(S300)가 완료되었는지 체크한다(단계 S310). 영상 프레임 내 모든 사람에 대해 완료되지 않았으면 다음 두 사람을 선택하여 사람간 거리 산출 단계(S100)로 돌아간다. 영상 프레임 내 모든 사람에 대해 완료되었으면 다음 영상 프레임을 획득하여 처리하기 위해 영상 프레임 획득 단계(S210)로 돌아간다.
도 5는 일 실시예에 따른 발 사이 거리 산출 단계 및 머리 사이 거리 산출 단계의 세부 구성을 도시한 흐름도이다. 추가적인 양상에 따라, 발 사이 거리 산출 단계(S130)는 발 검출 단계(S131)와, 지면 좌표 변환 단계(S133)와, 제1 사람간 거리 산출 단계(S135)를 포함할 수 있다. 발 검출 단계(S131)에서 감시 장치는 카메라(710)에서 촬영된 영상에서 두 사람의 발을 검출하고 그 이미지 좌표계의 좌표들인 한 쌍의 제1 위치 좌표를 구한다. 이후에 발 검출 단계(S131)에서 발 검출이 성공했는지 체크한다(S132). 성공이라면 지면 좌표 변환 단계(S133)가 진행된다. 실패인 경우 머리 사이 거리 산출 단계(S150)가 진행된다. 지면 좌표 변환 단계(S133)에서 감시 장치는 카메라 파라메터들을 이용하여 한 쌍의 제1 위치 좌표를 지면 좌표계의 한 쌍의 제2 위치 좌표로 변환한다. 제1 사람간 거리 산출 단계(S135)에서 감시 장치는 한 쌍의 제2 위치 좌표간의 거리를 산출하여 사람간 거리 값으로 출력한다. 이들 동작에 대해서는 도 1을 참조하여 설명한 바 있으므로 상세한 설명은 생략한다.
추가적인 양상에 따라, 머리 사이 거리 산출 단계(S130)는 머리 검출 단계(S151)와, 머리 평면 좌표 변환 단계(S153)와, 제2 사람간 거리 산출 단계(S155)를 포함할 수 있다. 머리 검출 단계(S151)에서 감시 장치는 카메라에서 촬영된 영상에서 두 사람의 발을 검출하고 그 이미지 좌표계의 좌표들인 한 쌍의 제3 위치 좌표를 구한다. 머리 평면 좌표 변환 단계(S153) 에서 감시 장치는 카메라 파라메터들을 이용하여 한 쌍의 제3 위치 좌표를 사람들의 평균 키에 해당하는 머리 평면 좌표계의 한 쌍의 제4 위치 좌표로 변환한다. 추가적인 양상에 따르면, 발 검출 단계(S131)에서 감시 장치는 거리를 측정하고자 하는 두 사람의 영역을 검출한 후 그 두 사람의 발들을 검출하는데 실패하면 머리 사이 거리 산출 단계(S150)를 호출한다. 이에 따라 발 사이 거리 산출이 실패하면 머리 사이 거리 산출이 적용될 수 있다.
추가적인 양상에 따라, 사람간 거리 산출 단계(S100)는 직하 카메라 사람간 거리 산출 단계(S170)를 더 포함할 수 있다. 직하 카메라 사람간 거리 산출 단계(S170)에서 감시 장치는 직하로 설치된 광각 카메라(730)로부터 입력된 영상에서 화면 중앙을 중심으로 소정 크기의 원 내부에서 사람 머리들을 검출하고, 검출된 사람 머리 간의 픽셀 수를 거리로 환산하여 사람간 거리를 산출한다. 이들 동작에 대해서는 도 1을 참조하여 설명한 바 있으므로 상세한 설명은 생략한다.
도 6은 또 다른 실시예에 따른 밀집 통제를 위한 영상 감시 방법의 구성을 도시한 흐름도이다. 일 양상에 따르면, 영상 감시 방법은 근접 시간 측정 단계(S510)를 더 포함할 수 있다. 근접 시간 측정 단계(S510)에서 영상 감시 방법은 근접 이벤트가 발생하면 두 사람 간의 해당 거리에서 근접 유지 시간을 측정하여 출력한다. 이 경우 근접 이벤트 송출 단계(S300)에서 영상 감시 장치는 사람간 거리 산출 단계(S100)에서 출력한 두 사람간의 거리 값과 근접 시간 측정 단계(S510)에서 출력된 근접 유지 시간을 입력 받아, 근접 유지 시간별 거리 기준치에 따라 근접 이벤트를 송출한다.
또 다른 양상에 따르면, 영상 감시 방법은 마스크 검출 단계(S530)를 더 포함할 수있다. 마스크 검출 단계(S530)에서 영상 감시 장치는 근접 이벤트가 발생하면 두 사람이 마스크를 착용하였는지 검출한다. 이 경우 근접 이벤트 발생 단계(S300)에서 영상 감시 장치는 사람간 거리 산출 단계(S100)에서 출력한 두 사람간의 거리 값과 마스크검출 단계(S530)에서 출력된 착용 여부 정보를 입력 받아, 마스크 착용 여부에 따른 거리 기준치에 따라 근접 이벤트를 송출한다.
또 다른 양상에 따르면, 영상 감시 방법은 대면 검출 단계(S550)를 더 포함할 수있다. 대면 검출 단계(S550)에서 영상 감시 장치는 근접 이벤트가 발생하면 두 사람의 얼굴이 대면 방향인지 검출한다. 이 경우 근접 이벤트 발생 단계(S300)에서 영상 감시 장치는 사람간 거리 산출 단계(S100)에서 출력한 두 사람간의 거리 값과 대면 검출 단계(S550)에서 출력된 대면 여부 정보를 입력 받아, 대면 여부에 따른 거리 기준치에 따라 근접 이벤트를 송출한다.
도 6에 도시된 실시예에서, 근접 이벤트 발생 단계(S300)에서 영상 감시 장치는 사람간 거리 산출 단계(S100)에서 출력한 두 사람간의 거리 값과, 근접 시간 측정 단계(S510)에서 출력된 근접 유지 시간과, 마스크 검출 단계(S530)에서 출력된 착용 여부 정보와, 대면 검출 단계(S550)에서 출력된 대면 여부 정보를 입력 받아 그 조합에 따라 설정된 기준치에 따라 근접 이벤트를 송출할 수 있다. 여기서 기준치는 근접 시간의 범위와, 마스크 착용 여부, 그리고 대면 여부의 조합 별로 사전에 설정될 수 있다.
이상에서 본 발명을 첨부된 도면을 참조하는 실시예들을 통해 설명하였지만 이에 한정되는 것은 아니며, 이들로부터 당업자라면 자명하게 도출할 수 있는 다양한 변형예들을 포괄하도록 해석되어야 한다. 특허청구범위는 이러한 변형예들을 포괄하도록 의도되었다.
100 : 사람간 거리 산출부 130 : 발 사이 거리 산출부
131 : 발 검출부 133 : 지면 좌표 변환부
135 : 제1 사람간 거리 산출부
150 : 머리 사이 거리 산출부 151 : 머리 검출부
153 : 머리 평면 좌표 변환부 155 : 제2 사람간 거리 산출부
170 : 직하 카메라 사람간 거리 산출부
210 : 근접 시간 측정부 230 : 마스크 검출부
250 : 대면 검출부
300 : 근접 이벤트 발생부
500 : 통신부 710 : 카메라
730 : 광각 카메라

Claims (19)

  1. 카메라와;
    카메라에서 촬영된 영상에서 두 사람 간의 거리 값인 사람간 거리 값을 산출하는 사람간 거리 산출부와;
    산출된 사람간 거리가 기준치 이하이면 근접 이벤트를 송출하는 근접 이벤트 발생부;
    를 포함하는 영상 감시 장치.
  2. 청구항 1에 있어서, 사람간 거리 산출부가 :
    카메라에서 촬영된 영상에서 두 사람의 발(foot)을 검출하고 그 이미지 좌표계의 좌표들로부터 사람간 거리 값을 산출하는 발 사이 거리 산출부;
    를 포함하는 영상 감시 장치.
  3. 청구항 2에 있어서, 발 사이 거리 산출부가 :
    카메라에서 촬영된 영상에서 두 사람의 발을 검출하고 그 이미지 좌표계의 좌표들인 한 쌍의 제1 위치 좌표를 구하는 발 검출부(foot detecting part)와;
    카메라 파라메터들을 이용하여 한 쌍의 제1 위치 좌표를 지면 좌표계의 한 쌍의 제2 위치 좌표로 변환하는 지면 좌표 변환부와;
    한 쌍의 제2 위치 좌표간의 거리를 산출하여 사람간 거리 값으로 출력하는 제1 사람간 거리 산출부;
    를 포함하는 영상 감시 장치.
  4. 청구항 1에 있어서, 사람간 거리 산출부가 :
    카메라에서 촬영된 영상에서 두 사람의 머리(head)를 검출하고 그 이미지 좌표계의 좌표들로부터 사람간 거리 값을 산출하는 머리 사이 거리 산출부;
    를 포함하는 영상 감시 장치.
  5. 청구항 4에 있어서, 머리 사이 거리 산출부가 :
    카메라에서 촬영된 영상에서 두 사람의 머리를 검출하고 그 이미지 좌표계의 좌표들인 한 쌍의 제3 위치 좌표를 구하는 머리 검출부(head detecting part)와;
    카메라 파라메터들을 이용하여 한 쌍의 제3 위치 좌표를 사람들의 평균 키에 해당하는 머리 평면 좌표계의 한 쌍의 제4 위치 좌표로 변환하는 머리 평면 좌표 변환부와;
    한 쌍의 제4 위치 좌표간의 거리를 산출하여 사람간 거리 값으로 출력하는 제2 사람간 거리 산출부;
    를 포함하는 영상 감시 장치.
  6. 청구항 2에 있어서, 사람간 거리 산출부가 :
    발 사이 거리 산출부가 카메라에서 촬영된 영상에서 두 사람의 발을 검출하는데 실패한 경우 두 사람의 머리(head)를 검출하고 그 이미지 좌표계의 좌표들로부터 사람간 거리 값을 산출하는 머리 사이 거리 산출부;
    를 더 포함하는 영상 감시 장치.
  7. 청구항 2에 있어서, 사람간 거리 산출부가 :
    직하로 설치된 광각 카메라로부터 입력된 영상에서 화면 중앙을 중심으로 소정 크기의 원 내부에서 사람 머리들을 검출하고, 검출된 사람 머리 간의 픽셀 수를 거리로 환산하는 직하 카메라 사람간 거리 산출부;
    를 포함하는 영상 감시 장치.
  8. 청구항 1에 있어서, 영상 감시 장치가 :
    근접 이벤트가 발생하면 두 사람간의 해당 거리에서 근접 유지 시간을 측정하여 출력하는 근접 시간 측정부;를 더 포함하고,
    상기 근접 이벤트 발생부는 사람간 거리 산출부에서 출력한 두 사람간의 거리 값과 근접 시간 측정부에서 출력된 근접 유지 시간을 입력 받아, 근접 유지 시간별 거리 기준치에 따라 근접 이벤트를 송출하는 영상 감시 장치.
  9. 청구항 1에 있어서, 영상 감시 장치가 :
    근접 이벤트가 발생하면 두 사람이 마스크를 착용하였는지 검출하는 마스크검출부;를 더 포함하고,
    상기 근접 이벤트 발생부는 사람간 거리 산출부에서 출력한 두 사람간의 거리 값과 마스크검출부에서 출력된 착용 여부 정보를 입력 받아, 마스크 착용 여부에 따른 거리 기준치에 따라 근접 이벤트를 송출하는 영상 감시 장치.
  10. 청구항 1에 있어서, 영상 감시 장치가 :
    근접 이벤트가 발생하면 두 사람의 얼굴이 대면 방향인지 검출하는 대면 검출부;를 더 포함하고,
    상기 근접 이벤트 발생부는 사람간 거리 산출부에서 출력한 두 사람간의 거리 값과 대면 검출부에서 출력된 대면 여부 정보를 입력 받아, 대면 여부에 따른 거리 기준치에 따라 근접 이벤트를 송출하는 영상 감시 장치.
  11. 적어도 하나의 카메라에 연결된 영상 감시 장치에서 실행 가능한 영상 감시 방법에 있어서,
    카메라에서 촬영된 영상에서 두 사람 간의 거리 값인 사람간 거리 값을 산출하는 사람간 거리 산출 단계와;
    산출된 사람간 거리가 기준치 이하이면 근접 이벤트를 송출하는 근접 이벤트 발생 단계;
    를 포함하는 영상 감시 방법.
  12. 청구항 11에 있어서, 사람간 거리 산출 단계가 :
    카메라에서 촬영된 영상에서 두 사람의 발(foot)을 검출하고 그 이미지 좌표계의 좌표들로부터 사람간 거리 값을 산출하는 발 사이 거리 산출부;
    를 포함하는 영상 감시 방법.
  13. 청구항 12에 있어서, 발 사이 거리 산출 단계가 :
    카메라에서 촬영된 영상에서 두 사람의 발을 검출하고 그 이미지 좌표계의 좌표들인 한 쌍의 제1 위치 좌표를 구하는 발 검출 단계(foot detecting step)와;
    카메라 파라메터들을 이용하여 한 쌍의 제1 위치 좌표를 지면 좌표계의 한 쌍의 제2 위치 좌표로 변환하는 지면 좌표 변환 단계와;
    한 쌍의 제2 위치 좌표간의 거리를 산출하여 사람간 거리 값으로 출력하는 제1 사람간 거리 산출 단계;
    를 포함하는 영상 감시 방법.
  14. 청구항 11에 있어서, 사람간 거리 산출 단계가 :
    카메라에서 촬영된 영상에서 두 사람의 머리(head)를 검출하고 그 이미지 좌표계의 좌표들로부터 사람간 거리 값을 산출하는 머리 사이 거리 산출 단계;
    를 포함하는 영상 감시 방법.
  15. 청구항 14에 있어서, 머리 사이 거리 산출 단계가 :
    카메라에서 촬영된 영상에서 두 사람의 머리를 검출하고 그 이미지 좌표계의 좌표들인 한 쌍의 제3 위치 좌표를 구하는 머리 검출 단계(head detecting step)와;
    카메라 파라메터들을 이용하여 한 쌍의 제3 위치 좌표를 사람들의 평균 키에 해당하는 머리 평면 좌표계의 한 쌍의 제4 위치 좌표로 변환하는 머리 평면 좌표 변환 단계와;
    한 쌍의 제4 위치 좌표간의 거리를 산출하여 사람간 거리 값으로 출력하는 제2 사람간 거리 산출 단계;
    를 포함하는 영상 감시 방법.
  16. 청구항 12에 있어서, 사람간 거리 산출 단계가 :
    발 사이 거리 산출 단계에서 카메라에서 촬영된 영상에서 두 사람의 발을 검출하는데 실패한 경우 두 사람의 머리(head)를 검출하고 그 이미지 좌표계의 좌표들로부터 사람간 거리 값을 산출하는 머리 사이 거리 산출 단계;
    를 더 포함하는 영상 감시 방법.
  17. 청구항 11에 있어서, 상기 방법이 :
    근접 이벤트가 발생하면 두 사람간의 해당 거리에서 근접 유지 시간을 측정하여 출력하는 근접 시간 측정 단계;를 더 포함하고,
    상기 근접 이벤트 발생 단계는 사람간 거리 산출 단계에서 출력한 두 사람간의 거리 값과 근접 시간 측정 단계에서 출력된 근접 유지 시간을 입력 받아, 근접 유지 시간별 거리 기준치에 따라 근접 이벤트를 송출하는 영상 감시 방법.
  18. 청구항 11에 있어서, 영상 감시 방법이 :
    근접 이벤트가 발생하면 두 사람이 마스크를 착용하였는지 검출하는 마스크검출 단계;를 더 포함하고,
    상기 근접 이벤트 발생 단계는 사람간 거리 산출 단계에서 출력한 두 사람간의 거리 값과 마스크검출 단계에서 출력된 착용 여부 정보를 입력 받아, 마스크 착용 여부에 따른 거리 기준치에 따라 근접 이벤트를 송출하는 영상 감시 방법.
  19. 청구항 11에 있어서, 영상 감시 방법이 :
    근접 이벤트가 발생하면 두 사람의 얼굴이 대면 방향인지 검출하는 대면 검출 단계;를 더 포함하고,
    상기 근접 이벤트 발생 단계는 사람간 거리 산출 단계에서 출력한 두 사람간의 거리 값과 대면 검출 단계에서 출력된 대면 여부 정보를 입력 받아, 대면 여부에 따른 거리 기준치에 따라 근접 이벤트를 송출하는 영상 감시 방법.
KR1020200065272A 2020-05-29 2020-05-29 밀집 통제를 위한 영상 감시 장치 KR102374357B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200065272A KR102374357B1 (ko) 2020-05-29 2020-05-29 밀집 통제를 위한 영상 감시 장치
US17/326,369 US20210374431A1 (en) 2020-05-29 2021-05-21 Video surveillance apparatus for congestion control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200065272A KR102374357B1 (ko) 2020-05-29 2020-05-29 밀집 통제를 위한 영상 감시 장치

Publications (2)

Publication Number Publication Date
KR20210147680A true KR20210147680A (ko) 2021-12-07
KR102374357B1 KR102374357B1 (ko) 2022-03-15

Family

ID=78705003

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200065272A KR102374357B1 (ko) 2020-05-29 2020-05-29 밀집 통제를 위한 영상 감시 장치

Country Status (2)

Country Link
US (1) US20210374431A1 (ko)
KR (1) KR102374357B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4319631A1 (en) * 2021-04-08 2024-02-14 Universal City Studios LLC Guest measurement systems and methods
CN114758457B (zh) * 2022-04-19 2024-02-02 南京奥拓电子科技有限公司 一种加钞间违规操作智能监测方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3910626B2 (ja) * 2003-10-21 2007-04-25 松下電器産業株式会社 監視装置
KR20150114589A (ko) * 2014-04-01 2015-10-13 주식회사 유비벨록스모바일 피사체 재구성을 위한 장치 및 방법
KR20150118010A (ko) * 2014-04-11 2015-10-21 렉스젠(주) 객체 관리 시스템 및 그 방법
JP2017199525A (ja) * 2016-04-26 2017-11-02 パナソニックIpマネジメント株式会社 照明装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3910626B2 (ja) * 2003-10-21 2007-04-25 松下電器産業株式会社 監視装置
KR20150114589A (ko) * 2014-04-01 2015-10-13 주식회사 유비벨록스모바일 피사체 재구성을 위한 장치 및 방법
KR20150118010A (ko) * 2014-04-11 2015-10-21 렉스젠(주) 객체 관리 시스템 및 그 방법
JP2017199525A (ja) * 2016-04-26 2017-11-02 パナソニックIpマネジメント株式会社 照明装置

Also Published As

Publication number Publication date
US20210374431A1 (en) 2021-12-02
KR102374357B1 (ko) 2022-03-15

Similar Documents

Publication Publication Date Title
US7825948B2 (en) 3D video conferencing
US10638115B2 (en) Calibration device
KR102111935B1 (ko) 표시 제어장치, 표시 제어방법 및 프로그램
JP6562437B1 (ja) 監視装置、及び、監視方法
KR102315525B1 (ko) 감시 시스템 및 그 동작 방법
KR102374357B1 (ko) 밀집 통제를 위한 영상 감시 장치
KR20120104711A (ko) 감시구역 상의 객체의 경로를 추적할 수 있는 스테레오 카메라 장치, 그를 이용한 감시시스템 및 방법
JP2020112438A (ja) 海面計測システム、海面計測方法および海面計測プログラム
JP5525495B2 (ja) 映像監視装置、映像監視方法およびプログラム
KR20140110484A (ko) 영상정보를 이용한 위험 행동 검지방법
CN108259827A (zh) 一种实现安防的方法、装置、ar设备及系统
JPWO2017187694A1 (ja) 注目領域画像生成装置
CN107295308A (zh) 一种基于机房人脸识别及告警的监控装置
WO2021242621A1 (en) Free flow fever screening
JP2014164374A (ja) 情報表示システム、情報端末、サーバ装置、情報端末の制御方法、サーバ装置の制御方法、及びプログラム
CN109754419B (zh) 位置推测系统
US20190080179A1 (en) Monitoring system and terminal device
KR102546045B1 (ko) 라이다(LiDAR)를 이용한 인체 감시장치
KR101670247B1 (ko) Cctv 실시간 영상의 원클릭 선택을 이용한 객체 확대 이동 시스템 및 그 방법
WO2017115587A1 (ja) 情報処理装置、制御方法、及びプログラム
CN113284106A (zh) 距离检测方法及装置
KR20210001438A (ko) 영상에서의 얼굴 인덱싱 방법 및 장치
KR20150050224A (ko) 비정상 배회 탐지 장치 및 방법
KR102695725B1 (ko) 영상 감시 기반 침입자 관제 시스템 및 방법
US20240340522A1 (en) Image processing method

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant