KR20140121345A - Surveillance Camera Unit And Method of Operating The Same - Google Patents
Surveillance Camera Unit And Method of Operating The Same Download PDFInfo
- Publication number
- KR20140121345A KR20140121345A KR20140036436A KR20140036436A KR20140121345A KR 20140121345 A KR20140121345 A KR 20140121345A KR 20140036436 A KR20140036436 A KR 20140036436A KR 20140036436 A KR20140036436 A KR 20140036436A KR 20140121345 A KR20140121345 A KR 20140121345A
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- angle
- subject
- sensor
- tilt angle
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6815—Motion detection by distinguishing pan or tilt from motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
본 발명은 감시시스템에 관한 것으로서, 특히, 두 대의 감시카메라를 이용하여 감시대상영역 전체와 감시대상영역 중 특정 영역을 동시에 감시할 수 있는, 감시카메라 유닛 및 그 구동방법에 관한 것이다.
The present invention relates to a surveillance system, and more particularly, to a surveillance camera unit and a method of driving the surveillance camera unit capable of simultaneously monitoring a whole of a surveillance target area and a specific surveillance target area using two surveillance cameras.
복잡해지는 사회 속에서 날로 증가하는 범죄, 그리고 일상적인 인간의 행위에 대한 기록, 확인을 위한 가장 효과적인 도구로서 감시카메라가 사용되고 있다.Surveillance cameras are being used as the most effective tool for recording everyday crime and everyday human behavior in an increasingly complex society.
감시카메라로 인한 사생활 침해 등과 같은 부정적인 측면이 있으나, 감시카메라의 필요성 및 중요성은 증가되고 있으며, 이에 따라, 감시카메라의 수요는 비약적으로 증가되고 있다. There is a negative aspect such as a surveillance camera infringement, but the necessity and importance of a surveillance camera is increasing, and thus the demand of a surveillance camera is dramatically increasing.
감시카메라를 이용한 다양한 감시방법을 설명하면 다음과 같다.Various surveillance methods using surveillance cameras will be described as follows.
첫째, 일반적으로, 고정된 관찰지역을 감시하기 위해, 고정형 감시카메라가 설치되어 운영되고 있다. 그러나, 고정형 감시카메라는 특정 지역만을 감시할 수 있기 때문에, 동일한 공간 내에서도 감시가 이루어지지 않는 사각지대가 발생될 수 있다.First, in general, a fixed surveillance camera is installed and operated to monitor a fixed observation area. However, since fixed-type surveillance cameras can monitor only a specific area, blind spots that can not be monitored even within the same space can be generated.
둘째, 고정형 감시카메라의 문제점을 해결하기 위해, 수평회전(패닝) 및 수직회전(틸팅)이 가능하고, 촬영각도의 가변이 가능할 뿐만 아니라, 줌 기능이 복합되어 있는 PTZ 카메라도 널리 이용되고 있다. 그러나, PTZ 카메라 역시 한정된 지역만을 감시대상으로 하고 있다.Second, to solve the problem of the fixed type surveillance camera, a PTZ camera in which a horizontal rotation (panning) and a vertical rotation (tilting) are possible, a photographing angle is variable, and a zoom function is combined are widely used. However, the PTZ camera is limited to the limited area.
즉, 상기한 바와 같은 고정형 감시카메라 및 PTZ 카메라는 국부적인 부분을 감시하고 있다. That is, the fixed-type surveillance camera and the PTZ camera as described above monitor a local part.
또한, 상기 고정형 감시카메라 및 상기 PTZ카메라는 근본적인 감시각이 좁기 때문에(좌우 90, 상하 60도가 보통), 범죄자가 상기 고정형 감시카메라 및 상기 PTZ 카메라가 지향하는 방향과 각도를 파악하고 있으면, 범죄자는 상기 방향과 각도를 벗어난 지역을 이용하거나 유회하여 범죄를 일으킬 수도 있다. 따라서, 상기 고정형 감시카메라 및 상기 PTZ카메라는 감시기능을 완벽하게 수행하지 못하고 있다. In addition, since the fixed surveillance camera and the PTZ camera have a narrow monitoring angle (left and right 90 °, and 60 ° normal), if the criminal grasps the direction and angle of the fixed surveillance camera and the PTZ camera, It is possible to use an area outside the above direction and angle, or it may cause crime by deliberation. Accordingly, the fixed surveillance camera and the PTZ camera do not perform monitoring functions perfectly.
셋째, 상기한 바와 같은 문제들을 해결하기 위하여, 어안렌즈를 사용하는 방식의 카메라(이하, 간단히 '파노라마 카메라'라 함)가 있다. 상기 파노라마 카메라는 상기 어안렌즈의 특성에 의해 넓은 지역을 감시할 수 있다. 그러나, 상기 파노라마 카메라는 모든 방위각의 무한 거리를 감시하는 특성을 가지고 있기 때문에, 중심부의 일부 근거리를 제외하고는, 피사체의 명확한 화상을 촬영하는 것이 불가능하다. 즉, 상기 파노라마 카메라(대한민국 특허 663483)의 영상은 원형의 이미지로 보일 뿐 아니라, 왜곡되어 표시된다. Third, in order to solve the above problems, there is a camera using a fish-eye lens (hereinafter, simply referred to as a panoramic camera). The panoramic camera can monitor a wide area by the characteristics of the fish-eye lens. However, since the panoramic camera has the characteristic of monitoring the infinite distance of all the azimuth angles, it is impossible to capture a clear image of the subject, except for a part near the center. That is, the image of the panoramic camera (Korean Patent 663483) is displayed not only as a circular image but also distorted.
따라서, 이를 해결하기 위한 기술(특허 공개 1020090078463)도 제안되고 있다. 그러나, 상기 파노라마 카메라의 해상도의 한계는 여전히 해결되지 못하고 있으며, 따라서, 상기 파노라마 카메라는 여전히 감시기능으로서의 한계를 가지고 있다. Therefore, a technique for solving this problem (Patent Publication No. 1020090078463) has also been proposed. However, the resolution limit of the panoramic camera is still not solved, and therefore, the panoramic camera still has a limitation as a monitoring function.
또한, 상기 파노라마 카메라는, 상기 어안렌즈의 특성상, 줌(ZOOM) 기능을 실행하기 어렵다. 따라서, 상기 파노라마 카메라는, 전체적인 감시는 가능하나 세부적인 감시는 불가능하다는 문제점을 가지고 있다. In addition, the panorama camera is difficult to perform a zoom function due to the characteristics of the fish-eye lens. Therefore, the panoramic camera has a problem that it is possible to perform overall monitoring but not to perform detailed monitoring.
넷째, 상기 파노라마 카메라의 문제를 해결하기 위하여, 다수의 카메라를 이용하여 넓은 지역을 감시하고, 상기 다수의 카메라의 영상을 상기 PTZ 카메라와 연계하여 감시기능을 수행하는 기술(대한민국 공개특허 1020110136907)이 제안되고 있다.Fourth, in order to solve the problem of the panoramic camera, a technique of monitoring a large area using a plurality of cameras and performing surveillance by linking the images of the plurality of cameras with the PTZ camera (Korean Patent Laid-Open Publication No. 1020110136907) Has been proposed.
그러나, 여러 대의 감시카메라가 이용되고 있기 때문에, 효율적인 측면에서 큰 의미가 없고, 설치비용이 비싸며, PTZ 카메라가 집중감시해야하는 방향을 찾는데 어렵다는 한계를 가지고 있다. However, since a plurality of surveillance cameras are used, there is no meaning in terms of efficiency, installation cost is high, and it is difficult to find a direction to be intensively monitored by a PTZ camera.
다섯째, 상기 파노라마 카메라를 이용한 무인감시 방법 및 장치(특허등록번호 10-2011-201310000)가 개발되고 있다. 그러나, 상기 기술은 어안렌즈에서 촬영된 원형의 영상부를 다수의 지역으로 나누어, 감시대상 지역을 PZT카메라가 찾아가도록 하는 복잡한 방법을 이용하고 있다. Fifth, an unmanned monitoring method and apparatus using the panoramic camera (Patent Registration No. 10-2011-201310000) are being developed. However, the above technique uses a complicated method of dividing a circular image portion captured by a fish-eye lens into a plurality of regions, and allowing the PZT camera to search the monitored region.
따라서, 설치하는 지역이나 위치에 따라서, 광역감시기능을 갖는 광역카메라(파노라마 카메라)와 종속 카메라(PTZ카메라)의 위치좌표가 변하면, 감시 기능을 실행하기 위해 복잡한 설정과정이 이루어져야 한다. 이로 인해, 광역 카메라(파노라마 카메라)와 종속 카메라(PTZ카메라)로 구성된 종래의 감시카메라 유니트는, 설치 및 이용이 어렵다는 문제점을 가지고 있다.
Therefore, if the location coordinates of a wide area camera (panorama camera) and a subordinate camera (PTZ camera) with wide area monitoring function change depending on the area or location to be installed, a complicated setting process must be performed in order to execute the monitoring function. Therefore, the conventional surveillance camera unit composed of the wide-area camera (panoramic camera) and the subordinate camera (PTZ camera) has a problem that it is difficult to install and use.
본 발명은 상술한 문제점을 해결하기 위한 것으로서, 광역 카메라를 이용하여 감시대상영역 전체를 감시하며, 상기 감시대상영역 중 상기 광역감시 카메라에 의해 지정된 특정 영역을 종속 카메라가 정밀하게 감시할 수 있는, 감시카메라 유닛 및 그 구동방법을 제공하는 것을 기술적 과제로 한다.
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a surveillance camera capable of monitoring a whole surveillance target area using a wide- A surveillance camera unit and a driving method thereof are provided.
상술한 기술적 과제를 달성하기 위한 본 발명에 따른 감시카메라 유닛은, 어안렌즈로 구성되어, 감시대상영역 전체를 감시하는 광역카메라; PTZ(Pen-Tilt Zoom) 카메라로 구성되어, 상기 감시대상영역의 특정위치를 세부적으로 감시하는 종속카메라; 상기 종속카메라의 패닝각과 틸트각을 변경시키는 구동부; 및 상기 광역카메라로부터 수신된 피사체의 위치정보를 이용하여 산출된 상기 종속카메라의 패닝각과 틸트각에 대응되는 제어신호를, 상기 구동부로 전송하는 제어부를 포함하며, 상기 제어부는, 상기 광역카메라 및 상기 구동부와 통신을 수행하기 위한 인터페이스; 상기 광역카메라에 촬영된 상기 피사체의 위치정보에 따른 상기 패닝각과 상기 틸트각 간의 맵핑정보를 저장하고 있는 저장기; 상기 광역카메라로부터 수신된 촬영정보를 이용하여 상기 피사체의 위치정보를 분석하기 위한 감지기; 및 상기 감지기로부터 수신된 상기 위치정보와 상기 맵핑정보를 이용하여 상기 종속카메라의 패닝각과 틸트각을 산출한 후, 상기 제어신호를 생성하여 상기 구동부로 전송하는 제어기를 포함한다.According to an aspect of the present invention, there is provided a surveillance camera unit comprising: a wide-area camera configured to include a fish-eye lens and to monitor an entire surveillance target area; A subordinate camera configured by a PTZ (Pen-Tilt Zoom) camera to closely monitor a specific position of the monitored area; A driver for changing a panning angle and a tilt angle of the slave camera; And a control unit for transmitting to the driving unit a control signal corresponding to a panning angle and a tilt angle of the slave camera calculated using the position information of the subject received from the wide area camera, An interface for performing communication with the driving unit; A storage for storing mapping information between the panning angle and the tilt angle according to positional information of the subject photographed by the wide area camera; A sensor for analyzing the position information of the subject using the photographing information received from the wide area camera; And a controller for calculating a panning angle and a tilt angle of the slave camera using the positional information and the mapping information received from the sensor, and transmitting the generated control signal to the driving unit.
상술한 기술적 과제를 달성하기 위한 본 발명에 따른 감시카메라 유닛 구동방법은, 어안렌즈로 구성되어, 감시대상영역 전체를 감시하는 광역카메라와, PTZ(Pen-Tilt Zoom) 카메라로 구성되어, 상기 감시대상영역의 특정위치를 세부적으로 감시하는 종속카메라와, 상기 종속카메라의 패닝각과 틸트각을 변경시키는 구동부, 및 상기 광역카메라로부터 수신된 피사체의 위치정보를 이용하여 산출된 상기 종속카메라의 패닝각과 틸트각에 대응되는 제어신호를, 상기 구동부로 전송하는 제어부를 포함하는 감시카메라 유닛이, 피사체에 대한 영상을 수신하는 단계; 상기 제어부가, 상기 광역카메라에 촬영된 상기 피사체의 위치정보에 따른 상기 패닝각과 상기 틸트각 간의 맵핑정보와, 상기 광역카메라로부터 수신된 피사체의 위치정보를 이용하여, 상기 종속카메라의 패닝각과 틸트각을 산출하는 단계; 상기 제어부가, 상기 패닝각과 상기 틸트각에 대응되는 제어신호를 생성하여 상기 구동부로 전송하는 단계; 상기 구동부가 상기 제어신호에 따라 상기 종속카메라의 패닝각과 틸팅각을 변경시키는 단계; 및 상기 패닝각 및 상기 틸팅각이 변경된 상기 종속카메라가 상기 피사체를 정밀하게 감시하는 단계를 포함한다.
According to another aspect of the present invention, there is provided a method for driving a surveillance camera unit, the surveillance camera unit including a fish-eye lens, the surveillance camera unit including a wide-area camera for monitoring the entire surveillance target area and a PTZ (Pen- A slave camera having a panning angle and a tilt angle of the slave camera calculated by using the position information of the subject received from the wide area camera; A surveillance camera unit including a control unit for transmitting a control signal corresponding to each angle to the driving unit, the method comprising: receiving an image of a subject; Wherein the controller is configured to calculate a tilt angle and a tilt angle of the slave camera based on mapping information between the panning angle and the tilt angle according to positional information of the subject photographed by the wide area camera and positional information of the subject received from the wide- ; Generating a control signal corresponding to the panning angle and the tilt angle and transmitting the generated control signal to the driving unit; Changing a panning angle and a tilting angle of the slave camera according to the control signal; And the slave camera having the panning angle and the tilting angle changed precisely monitors the subject.
본 발명에 따른 감시카메라 유닛은, 설치가 간편하며, 적은 비용으로도 효과적으로 감시기능을 수행할 수 있다.
The surveillance camera unit according to the present invention is easy to install and can effectively perform a surveillance function with a small cost.
도 1은 본 발명에 따른 감시카메라 유닛의 구성을 나타낸 예시도.
도 2는 본 발명에 따른 감시카메라 유닛에 적용되는 제어부의 일실시예 구성도.
도 3은 본 발명에 따른 감시카메라 유닛에 적용되는 광역카메라의 어안렌즈를 통하여 피사체의 광정보가 입사하고, 입사된 광정보가 제어부를 구성하는 감지기의 각 화소에 촬상되는 것을 나타낸 예시도.
도 4는 본 발명에 따른 감시카메라 유닛에 적용되는 종속카메라의 패닝각을 제어하는 방법을 설명하기 위한 예시도.
도 5는 본 발명에 따른 감시카메라 유닛에 적용되는 종속카메라의 틸트각을 제어하는 방법을 설명하기 위한 예시도.BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is an exemplary view showing a configuration of a surveillance camera unit according to the present invention; Fig.
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a surveillance camera unit.
FIG. 3 is an exemplary view showing that light information of a subject enters through a fisheye lens of a wide-angle camera applied to a surveillance camera unit according to the present invention, and the incident light information is picked up by each pixel of the sensor constituting the control unit.
4 is an exemplary view for explaining a method of controlling a panning angle of a slave camera applied to a surveillance camera unit according to the present invention;
5 is a view for explaining a method of controlling a tilt angle of a slave camera applied to a surveillance camera unit according to the present invention;
이하, 첨부된 도면을 참조하여 본 발명의 실시 예에 대해 상세히 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 감시카메라 유닛의 구성을 나타낸 예시도이고, 도 2는 본 발명에 따른 감시카메라 유닛에 적용되는 제어부의 일실시예 구성도이며, 도 3은 본 발명에 따른 감시카메라 유닛에 적용되는 광역카메라의 어안렌즈를 통하여 피사체의 광정보가 입사하고, 입사된 광정보가 제어부를 구성하는 감지기의 각 화소에 촬상되는 것을 나타낸 예시도이다. 도 4는 본 발명에 따른 감시카메라 유닛에 적용되는 종속카메라의 패닝각을 제어하는 방법을 설명하기 위한 예시도이며, 도 5는 본 발명에 따른 감시카메라 유닛에 적용되는 종속카메라의 틸트각을 제어하는 방법을 설명하기 위한 예시도이다. FIG. 1 is a diagram illustrating the configuration of a surveillance camera unit according to the present invention. FIG. 2 is a block diagram of a control unit applied to a surveillance camera unit according to the present invention. The optical information of the subject enters through a fisheye lens of a wide-angle camera applied to the sensor, and the incident optical information is picked up by each pixel of the sensor constituting the control unit. FIG. 4 is a view for explaining a method of controlling a panning angle of a slave camera applied to a surveillance camera unit according to the present invention, and FIG. 5 is a view for explaining a method of controlling a tilt angle of a slave camera applied to a surveillance camera unit according to the present invention And FIG.
본 발명에 따른 감시카메라 유닛은, 도 1에 도시된 바와 같이, 감시대상영역 전체를 감시하는 광역카메라(100), 상기 감시대상영역 중 특정영역을 세부적으로 감시하는 종속카메라(200), 상기 종속카메라의 패닝각과 틸트각을 변경시키는 구동부(400) 및 상기 광역카메라(100)로부터 수신된 피사체의 위치정보를 이용하여 산출된 상기 종속카메라의 패닝각과 틸트각에 대응되는 제어신호를 상기 구동부로 전송하기 위한 제어부(300)를 포함한다.
1, the surveillance camera unit according to the present invention includes a wide-
우선, 상기 광역카메라(100)는 감시대상영역 전체를 감시하는 기능을 수행한다. 상기 광역카메라(100)는 예를 들어, 어안렌즈가 장착되어 있는 파노라마 카메라가 적용될 수 있다.
First, the
다음, 상기 종속카메라(200)는 상기 감시대상영역 중 특정영역을 세부적으로 감시하는 기능을 수행한다.Next, the
상기 종속카메라(200)는 예를 들어, PTZ(Pen-Tilt Zoom) 카메라가 적용될 수 있다.
For example, a PTZ (Pen-Tilt Zoom) camera may be applied to the
다음, 상기 구동부(400)는 상기 제어부(300)로부터 전송되어온 제어신호를 이용하여 상기 종속카메라의 패닝각과 틸트각을 변경시키는 기능을 수행한다.Next, the
상기 패닝각(P)이란, 도 4에 도시된 바와 같이, 상기 종속카메라(200)와 피사체(500)가 동일 평면상에 있다고 가정할 때, 기준점(0도)으로부터, 상기 종속카메라(200)와 상기 피사체(500) 사이의 직선이 이루는 각도(P)를 말한다. 즉, 상기 피사체(500)와 상기 종속카메라(200)는, 0도 내지 360도의 각도 중 어느 하나의 패닝각(P)을 가진 상태로 배치되어 있다. 4, from the reference point (0 degree) to the
상기 구동부(400)는 상기 패닝각(P)에 따라, 상기 종속카메라(200)를 수평면 상에서 회전시킨다. The
상기 틸트각(T)이란, 도 5에 도시된 바와 같이, 상기 종속카메라(200)와 지면이 수직하게 만나는 직선과, 상기 종속카메라와 상기 피사체(500)가 이루는 직선간의 각도를 말한다. 5, the tilt angle T refers to an angle between a straight line where the ground surface of the
상기 틸트각(T)은 상기 피사체(500)와 상기 종속카메라(200) 사이의 거리에 따라 변경된다. 예를 들어, 상기 피사체(500)가, 도 5의 (A)와 같이, 상기 종속카메라(200)의 수직 하단에 배치되어 있는 경우, 상기 틸트각(T)은 0도가 된다. 상기 피사체(500)가, 상기 종속카메라(200)로부터 멀어질수록, 상기 틸트각(T)은 점점 커지며, 상기 피사체(500)가 상기 종속카메라(200)로부터 상당히 멀리 떨어져 있는 경우, 상기 틸트각(T)은 90도에 가까워진다. The tilt angle T is changed according to the distance between the
즉, 상기 틸트각(T)은 0도 이상, 90도보다는 작은 각도 중 어느 하나의 각도를 형성한다.
That is, the tilt angle T forms an angle of 0 degrees or more and a smaller angle than 90 degrees.
마지막으로, 상기 제어부(300)는 상기 광역카메라(100)로부터 수신된 상기 피사체(500)의 위치정보를 이용하여, 상기 종속카메라(200)의 패닝각과 틸트각을 산출한 후, 상기 패닝각과 틸트각에 대응되는 제어신호를 생성한다.Finally, the
상기 구동부(400)가, 상기 제어신호에 따라, 상기 종속카메라(200)의 패닝각과 틸트각을 변경시킴으로써, 상기 종속카메라(200)는 상기 피사체(500) 방향으로 회전된다. 또한, 상기 종속카메라(200)가 상기 피사체(500) 방향으로 회전됨에 따라 상기 종속카메라(200)가 상기 피사체(500)를 정밀하게 감시할 수 있다. The
상기 제어부(300)는 도 2에 도시된 바와 같이, 상기 광역카메라(100)와 상기 구동부(400)와 통신을 수행하기 위한 인터페이스(310), 상기 광역카메라(100)에 촬영된 상기 피사체(500)의 위치정보에 따른 상기 패닝각과 상기 틸트각의 맵핑(Mapping)정보를 저장하고 있는 저장기(330), 상기 광역카메라(100)로부터 수신된 촬영정보를 이용하여 상기 피사체(500)의 위치정보를 분석하기 위한 감지기(340) 및 상기 감지기(340)로부터 수신된 상기 위치정보와 상기 맵핑정보를 이용하여 상기 종속카메라(200)의 패닝각과 틸트각을 산출한 후, 상기 패닝각과 상기 틸트각에 따라 상기 구동부(400)를 제어할 제어신호를 생성하여, 상기 제어신호를 상기 구동부로 전송하는 제어기(320)를 포함한다.
2, the
상기한 바와 같은 본 발명은, 감시대상영역의 전체 영역을 감시할 수 있는 어안렌즈가 달린 광역카메라(파노라마 카메라)(100)와, 감시대상영역 중 특정 영역을 정밀하게 감시할 수 있는 종속카메라(PTZ(Pen-Tilt Zoom))(200)로 구성된 감시카메라 유니 및 그 구동방법에 관한 것이다. The present invention as described above includes a wide-area camera (panoramic camera) 100 having a fisheye lens for monitoring the entire area of the monitored area, and a slave camera capable of precisely monitoring a specific area of the monitored area PTZ (Pen-Tilt Zoom)) 200 and a driving method thereof.
즉, 본 발명은 현장에서의 설치가 표준화될 수 있고, 그 표준화된 설치 방법에 의해서 상기 광역카메라(어안렌즈가 부착된 카메라)(100)와 상기 종속카메라(PTZ)(200)의 설치가 기구적으로 일체화될 수 있고, 프로그램의 연계에 의하여 상기 종속카메라(200)의 패닝각(P) 및 틸트각(T)이 변경될 수 있으며, 상기 패닝각(P) 및 틸트각(T)의 변경과 상기 종속카메라(200)의 줌인(ZOOM-IN) 기능을 이용하여하여 상기 감시대상영역의 특정 영역을 정밀하게 감시할 수 있는, 감시카메라 유닛 및 그 구동방법에 관한 것이다. That is, according to the present invention, installation on the field can be standardized, and the installation of the wide-area camera (camera with fish-eye lens) 100 and the slave camera (PTZ) The panning angle P and the tilt angle T of the
본 발명에 따른 감시카메라 유닛은, 도 1에 도시된 바와 같이, 광역의 촬영이 가능한 어안렌즈가 달린 광역카메라(100) 및 이와 연계된 종속카메라(200)가 하나의 유닛으로 제작된다. 즉, 본 발명에 따른 감시카메라 유닛은, 광역감시와 특정 영역의 줌에 의한 정밀감시가 가능하도록, 어안렌즈가 부착된 광역카메라(100)와 종속카메라(200)가 단일 유닛에 기구적으로 연결되어 있다. As shown in FIG. 1, the surveillance camera unit according to the present invention includes a wide-
본 발명에 따른 감시카메라 유닛은, 어안렌즈의 기능을 갖는 상기 광역카메라(100)에 의해서, 상기 광역카메라(100)의 수평 방향의 하향면의 전영역을 촬영할 수 있다. 이 경우, 화소수가 한정되어 있는 상기 광역카메라(100)의 해상도로는, 피사체(500)의 정확한 형상을 확인하는데 한계가 있다. The surveillance camera unit according to the present invention can photograph the entire area of the downward surface in the horizontal direction of the wide-
부연하여 설명하면, 상기 광역카메라(100)는, 센서의 중심부, 즉, 화면의 중심부에서 촬영되는 피사체(도 3 및 도 5의 (A), (B))에 대하여는, 상기 피사체와 상기 광역카메라(100)의 거리가 멀지 않기 때문에, 대체적으로 명확한 화상을 제공해준다. 그러나, 화상의 중심으로부터 떨어진 화소에서 촬상되는 피사체(도 3 및 도 5의 (C))의 화상은, 상기 피사체(500)와 상기 광역카메라(100)와의 거리가 멀기 때문에, 명확하지 않다.3 and 5 (A) and 5 (B)) taken at the center of the sensor, that is, at the center of the screen, the wide- Since the distance of the
이 문제점을 해결하기 위하여, 본 발명은 상기 종속카메라(200)가 특정 영역의 피사체를 명확하게 촬영하는 기능을 수행한다. In order to solve this problem, the present invention performs the function of clearly capturing a subject of a specific area by the
즉, 본 발명은 광역카메라(100)를 이용하여 1차적으로 피사체(500)의 위치를 확인한 후, 2차적으로 상기 피사체(500)의 위치를 종속카메라(200)를 이용하여 세밀하게 감시할 수 있다. 이때, 상기 종속카메라(200)가 상기 피사체(500)의 위치를 향할 수 있도록, 상기 제어부(300)는 상기 종속카메라(200)의 패닝각(P) 및 틸트각(T)을 산출하며, 상기 패닝각(P) 및 틸트각(T)에 대응하는 제어신호를 생성한다. 상기 구동부(400)는 상기 제어신호에 따라 상기 종속카메라(200)의 패닝각(P) 및 틸트각(T)을 변경시킨다.
That is, in the present invention, the position of the subject 500 is firstly checked using the wide-
이하에서는, 상기 감시카메라 유닛의 구동방법이 상세히 설명된다.Hereinafter, a method of driving the surveillance camera unit will be described in detail.
우선, 상기 저장기(330)에는 상기 광역카메라(100)에 촬영된 상기 피사체(500)의 위치정보에 따른 상기 패닝각과 상기 틸트각의 맵핑정보가 저장된다.The panning angle and the tilt angle mapping information according to the position information of the subject 500 photographed by the wide-
즉, 상기 광역카메라(100)에서 촬영된 피사체(500)의 각각의 위치정보에 대응되는 패닝각과 상기 틸트각의 맵핑정보가 상기 저장기(330)에 저장된다.That is, the panning angle and the tilt angle mapping information corresponding to the respective position information of the subject 500 photographed by the wide-
여기서, 상기 맵핑정보는, 모든 특정 좌표와 모든 특정 패닝각 또는 모든 특정 틸트각이 일대일로 맵핑되어 있을 수 있다. 그러나, 이 경우, 맵핑정보가 방대해 질 수 있다. 따라서, 상기 맵핑정보는, 기준이 되는 몇 개의 특정 좌표와 이에 대응되는 특정 패닝각 또는 특정 틸트각에 대한 정보와 함께, 이들 정보로 부터 모든 특정 좌표에 대한 패닝각 및 틸트각을 산출할 수 있는 간단한 계산식을 포함할 수 있다. Here, the mapping information may have all the specific coordinates and all the specific panning angles or all the specific tilt angles mapped on a one-to-one basis. However, in this case, the mapping information can be enormous. Accordingly, the mapping information may include information on a certain specific coordinates as a reference, information on a specific panning angle or a specific tilt angle corresponding thereto, and information on the panning angle and tilt angle for all specific coordinates from the information You can include simple calculations.
예를 들어, (B) 및 (C)영역에 있는 피사체의 위치정보들과, 상기 위치정보들 각각에 대응되는 패닝각 및 틸트각에 대한 정보들이 상기 매핍정보에 저장되어 있고, 상기 (B)와 (C) 사이의 간격과, 상기 간격에서의 상기 패닝각 및 틸트각의 변경정보가 상기 매핍정보에 저장되어 있다면, 상기 제어부는, 상기 (B) 및 (C)영역 사이에 있는 피사체들에 대한 패닝각 및 틸트각을 산출할 수 있다.
For example, the position information of the subject in the areas (B) and (C), and the information about the panning angle and the tilt angle corresponding to the position information are stored in the detail information, And the tilt angle change information in the interval are stored in the picture information, the control unit may determine whether or not the objects between the areas (B) and (C) The panning angle and the tilt angle can be calculated.
다음, 상기 감시카메라 유닛을 구매한 사용자 또는 판매자(이하, 간단히 '사용자'라 함), 상기 감시대상영역의 특정 위치에 상기 광역카메라(100)와 상기 종속카메라(200)를 장착한다.Next, a user or a seller who purchases the surveillance camera unit (hereinafter, simply referred to as a 'user') mounts the
상기 감시카메라 유닛을 설치한 사용자는, 상기 광역카메라(100)와 상기 종속카메라(200)의 패닝각(P)을 설정한다.The user installing the surveillance camera unit sets the panning angle P of the
즉, 상기 종속카메라(200)의 패닝각(P)을 정확하게 제어하기 위해, 상기 광역카메라(100)의 기준좌표(0도)와 상기 종속카메라(200)의 기준좌표(0도)를 일치시킨다. That is, to precisely control the panning angle P of the
이러한 설정은, 상기 광역카메라(100) 및 상기 종속카메라(200)에 설정되어 있는 센서 또는 입출력장치를 이용하여 수행될 수 있다.This setting can be performed using the
상기 방법 이외에도, 사용자는 다양한 방법을 이용하여 상기 광역카메라(100)와 상기 종속카메라(200)의 기준좌표를 동일하게 설정할 수 있다. In addition to the above method, the user can set the reference coordinates of the
예를 들어, 상기 사용자는, 상기 종속카메라(200)가 향하고 있는 현재의 패닝각(P) 또는 상기 패닝각에 대응되는 방향의 좌표(이하, 간단히 '설정 패닝각'이라 함)를, 상기 저장기(330)에 저장할 수 있다. 이 경우, 상기 제어부(300)는 상기설정 패닝각을 기준으로 하여, 상기 위치정보에 따라 산출된 상기 패닝각에 따라 상기 구동부(400)를 구동시킬 수 있다. For example, the user can input the current panning angle P or the coordinates of the direction corresponding to the panning angle (hereinafter, simply referred to as 'setting panning angle') that the
또한, 상기 감시카메라 유닛을 설치한 사용자는, 상기 광역카메라(100)와 상기 종속카메라(200)의 틸트각(T)을 설정한다.Further, the user installing the surveillance camera unit sets the tilt angle (T) between the
즉, 상기 패닝각(P)과 마찬가지로, 상기 사용자는 상기 종속카메라(200)의 현재의 틸트각(T)에 대한 정보(이하, 간단히 '설정 틸트각'이라 함)를 상기 저장기(330)에 저장할 수 있다. 이 경우, 상기 제어부(300)는 상기 설정 틸트각을 기준으로 하여, 상기 위치정보에 따라 산출된 상기 틸트각에 따라 상기 구동부(400)를 구동시킬 수 있다.
That is, similar to the panning angle P, the user can input information (hereinafter, simply referred to as 'set tilt angle') of the current tilt angle T of the
다음, 상기 제어부(300)는 상기 감시대상영역을 감시하면서, 상기 감시대상영역에 위치하는 피사체를 촬영하여, 상기 피사체(500)의 패닝각(P)을 산출한다.Next, while monitoring the monitored area, the
이 경우, 상기 제어부(300)는 별도의 모션감지센서에 의해 피사체가 감지된 경우, 상기 피사체의 패닝각(P)을 산출하는 기능을 수행할 수도 있으며, 상기 감지기(340)로부터 감지된 영상의 변화를 이용하여, 상기 피사체의 패닝각(P)을 산출할 수도 있다. 그러나, 상기 제어부(300)는 상기 틸트각(T)을 먼저 산출한 후 상기 패닝각(P)을 산출할 수도 있다.In this case, the
도 3의 (a)는 상기 광역카메라(100)의 어안렌즈를 통하여, 상기 피사체(500)의 광정보가 입사하는 상태를 나타낸 것으로서, (A)는 상기 광역카메라(100)의 수직 하단에 있는 피사체의 광정보가 입사하는 상태를 나타내고 있으며, (B)와 (C)는 상기 광역카메라(100)의 수직 하단으로부터 일정 각도(틸트각) 이격되어 있는 피사체들로부터 입사되는 광정보를 나타내고 있다. 3A shows a state in which optical information of the subject 500 is incident through a fisheye lens of the wide-
여기서, (C)에 대응되는 피사체(500)는, (B)에 대응되는 피사체(500)보다, 상기 광역카메라(100)의 수직 하단으로부터 더 멀리 이격되어 있다. 따라서, (C)에 대응되는 피사체(500)와 상기 광역카메라(100) 또는 상기 종속카메라(200)가 이루는 틸트각(T)은, (B)에 대응되는 피사체(500)와 상기 광역카메라(100) 또는 상기 종속카메라(200)가 이루는 틸트각(T)보다 크다.Here, the subject 500 corresponding to (C) is farther away from the vertical lower end of the wide-
도 3의 (b)는 상기 광역카메라(100)의 어안렌즈를 통하여, 입사된 광정보가 상기 감지기(340)의 화소에 촬상되는 상태를 나타낸 것이다. 도 3의 (b)에 도시된 바와 같이, 상기 광역카메라(100)에서 얻어지는 화상은 원형을 이루고 있다.3B shows a state in which the incident light information is picked up by the pixels of the
한편, 상기 종속카메라(200)의 패닝각(P)은, 도 4에 도시된 바와 같이, 상기 광역카메라(100)로부터 촬상된 상기 피사체(500)가 상기 감지기(센서)(330)의 기준점(0도)으로부터 얼마만큼의 각도로 이격되어 있는지를 판단하는 것에 의해 산출될 수 있다. 4, the panning angle P of the
예를 들어, 도 4에 도시된 바와 같이, 상기 감지기(센서)(340)의 6시 방향을 기준점(0도)으로 한 경우, 상기 광역카메라(200)로부터 촬영된 피사체(500)가 8시 방향에서 감지되었다면, 상기 피사체(500)는 상기 6시 방향으로부터의 상기 피사체(500)가 이루는 각도에 해당되는 패닝각(P)을 갖는다.4, when the 6 o'clock direction of the detector (sensor) 340 is set as a reference point (0 degree), the subject 500 photographed from the
즉, 상기 제어기(320)는 상기한 바와 같은 정보들을 이용하여, 상기 피사체(500)의 패닝각(P)을 산출한다. 부연하여 설명하면, 상기 패닝각(P)의 계산은 상기 감지기(340)를 구성하는 센서의 각 화소들 중 중심에 위치한 화소로부터 상기 피사체(500)의 XY좌표에 의하여 쉽게 계산된다.That is, the
이 경우, 상기 제어부(300)는, 상기 감지기(340)를 통해, 상기 피사체(500)가 이동되는 것을 감지하여, 피사체(500)가 있음을 확인한 후, 상기한 바와 같이 패닝각(P)을 계산할 수 있다. In this case, the
따라서, 상기 감지기(340) 및 상기 제어기(320)는 상기 피사체(500) 자체를 감지하는 기능을 수행할 수도 있다. 이를 위해, 상기 감지기(330)에는 모션감지센서가 더 포함될 수도 있다.
Accordingly, the
다음, 상기 제어부(300)는 상기 감시대상영역을 감시하면서, 상기 감시대상영역에 위치하는 피사체를 촬영하여, 상기 피사체(500)의 틸트각(T)을 산출한다.Next, while monitoring the monitored area, the
즉, 상기 제어기(320)는, 도 5에 도시된 바와 같이, 상기 감지기(340)를 구성하는 센서의 각 화소들 중, 중심에 위치한 화소로부터, 상기 센서에 표시된 상기 피사체(500)의 거리를 이용하여, 상기 피사체(500)의 틸트각(T)을 산출한다.That is, as shown in FIG. 5, the
이 경우, 상기 피사체(500)가 상기 센서의 상기 중심점으로부터 멀어질수록, 상기 피사체와 상기 광역카메라(100)의 거리는 상대적으로 점점더 멀어진다. 즉, 상기 중심점으로부터 2 x S 만큼 이격되어 있는 피사체는, 상기 중심점으로부터 S만큼 이격되어 있는 피사체보다, 2배 이상 상기 중심점으로부터 더 멀리 이격되어 있다. 이러한 맵핑정보는 상기한 바와 같이, 상기 저장기(330)에 저장되어 있다. In this case, the farther the subject 500 is from the center point of the sensor, the more distant the distance between the subject and the wide-
즉, 상기 패닝각을 산출한 상기 제어부(300)는, 상기 광역카메라(100)와 상기 종속카메라(200)와 상기 피사체(500)의 위치정보 및 상기 맵핑정보를 이용하여 상기 틸트각(T)을 산출한다. 상기 틸트각(T)을 얻기 위하여는 먼저 상기 광역카메라(100)로 입사되는 상기 피사체(500)의 광의 입사각을 알아야 한다. The
한편, 상기 틸트각(T)의 계산을 위해서는 일반적으로 복잡한 계산식이 이용되어야 하나, 본 발명에서는, 상기한 설명 및 도 5에 도시된 바와 같은 방법을 이용하여, 상기 틸트각(T)을 간단히 산출하고 있다. In order to calculate the tilt angle T, a complex calculation formula is generally used. In the present invention, the tilt angle T is simply calculated using the above description and the method shown in FIG. .
도 5에는 각 픽셀의 정보를 실제 정보입력 방법에 의하여 입력하는 간단한 입력방식을 보여주고 있다. 즉, 본 발명에서는, 도 5에 도시된 바와 같이, 상기 광역카메라(100)로부터 촬영된 피사체의 위치와 상기 피사체의 거리를 맵핑시켜, 상기 저장기(330에 저장하고 있다. 따라서, 상기 감지기(340)의 중심점으로부터 상기 피사체의 거리만 산출되면, 상기 광역카메라(100)로부터 상기 피사체까지의 실제 거리가 판단된다. 상기 제어부(300)는 상기 실제 거리를 이용하여 상기 종속카메라의 상기 틸트각(T)을 산출할 수 있다.5 shows a simple input method of inputting information of each pixel by an actual information input method. 5, the position of the subject photographed by the wide-
상기 방법은, 도 5에 도시된 바와 같이, 상기 광역카메라(100)를 구성하는 어안렌즈와 같은 형태의 원형의 좌표표지 판을 이용하는 것으로서, 각 원의 원호상에 있는 픽셀은 같은 틸트각을 갖는다는 점을 이용하고 있다. 여기서, 상기 원형의 좌표표시 판의 각 영역은 상기 감지기(340)의 각 화소들에 대응된다.As shown in Fig. 5, the method uses a circular coordinate mark plate of the same type as that of a fish-eye lens constituting the wide-
즉, 종래에는, 복잡한 계산식을 이용하여 상기 틸트각을 산출하였다. 이 경우, 상기 광역카메라(100)의 어안렌즈로 들어오는 피사체로부터의 반사광의 입사각은, 렌즈의 설계와 광학계의 설계에 의해서 변하기 때문에 광학계 전체의 광로를 계산해야하는 어려운 공식이 된다. 이 방법에 의해서 얻어진 입사광과 센서의 화소와의 관계는 렌즈의 설계공차가 발생하여 실제의 센서의 화소와 일치시키기가 어려운 면이 있다. 또한, 제품을 생산시에 렌즈와 센서와의 조립과정에서 조립 오차가 발생하기 때문에 최종적인 제품의 생산을 위하여는 품질관리 시스템이 있어야한다.That is, in the past, the tilt angle was calculated using a complex calculation formula. In this case, since the angle of incidence of the reflected light from the subject coming into the fish-eye lens of the wide-
상기한 바와 같은 종래의 문제를 해결하기 하기 위해, 본 발명에서는, 도 5에 도시된 In order to solve the above-described conventional problems, in the present invention, 좌표각Coordinate angle 입력표와Input table and , 본 발명에서 응용되는 입사각과 좌표를 완성 후, 각각의 제품의 최종생산시에 화소의 각 원호가 , After completing the incidence angle and the coordinates used in the present invention, it is possible that each arc of the pixel 촬상되는Captured 원호를 따라서, 그 입사각 정보를 입력하면 되는 아주 간단한 방법을 이용하고 있다. A very simple method of inputting the incident angle information along an arc is used.
즉, 최종 입사각 확정을 위하여, That is, in order to determine the final incidence angle, 좌표각Coordinate angle 입력표는The input table 각각의 원호에 대하여, 센서와 각각의 원호와 중심각으로부터의 입사각이 이미 계산되어 있기 때문에, 최종의 생산시에는 For each arc, since the angles of incidence from the sensor, each arc and the central angle have already been calculated, 촬상된Captured 각각의 원호에 해당하는 입사각을 입력하고, 그 픽셀로부터 원래의 계산한 것과 벗어나는 것에 대하여 상하, 좌우의 수정만을 입력하면, 입사각의 계산이 완료된다. Inputting the angle of incidence corresponding to each arc and inputting only the up and down and left and right modifications to the deviation from the original calculation from the pixel, the calculation of the angle of incidence is completed.
이 계산된 입사각과 상기 광역카메라(100) 또는 상기 종속카메라(200) 사이의 거리를 계산하여 The calculated incidence angle and the distance between the
이 경우, 상기 광역카메라(100)가 지상으로부터 10미터 이내에 설치되어 있고, 상기 광역카메라(100)와 상기 종속카메라(200) 사이의 거리가 50센티미터 이내인 경우는, 상기 광역카메라(100)의 광입사각의 정보를 그대로 상기 종속카메라(200)의 좌표정보로 사용해도, 상기 틸트각(T)의 오차는 크게 발생되지 않는다. In this case, if the
즉, 도 1에서, X1은 상기 피사체(500)와 상기 광역카메라(100) 간의 거리이고, X2는 상기 광역카메라(100)와 지면과의 거리이고, X3은 상기 광역카메라(100)와 상기 피사체(500)와의 거리이고, X4는 상기 종속카메라(200)와 상기 피사체(500)와의 거리이며, X5는 상기 광역카메라(100)와 상기 종속카메라(200) 사이의 간격이다.1, X1 is the distance between the subject 500 and the
이 경우, 상기 광역카메라(100)와 상기 종속카메라(200) 사이의 간격이 50센티미터 이내인 경우, 상기 광역카메라(100)와 상기 피사체(500)와의 거리, 틸트각 및 패닝각은, 상기 종속카메라(200)와 상기 피사체(500)와의 거리, 틸트각 및 패닝각으로 이용될 수 있다.In this case, when the distance between the
그러나, 보다 정밀한 감시를 위해서는, 상기 광역카메라(100)와 상기 피사체(500) 사이에서 산출된 거리, 틸트각 및 패닝각을, 상기 광역카메라(100)와 상기 종속카메라(200) 사이의 간격(X5)을 이용하여 보정할 수도 있다.
However, in order to monitor more precisely, the distance, the tilt angle and the panning angle calculated between the
다음, 상기 제어부(300)는 상기 과정들을 통해 산출된 상기 패닝각(P)과 상기 틸트각(T)을 이용하여, 상기 구동부를 제어할 제어신호를 산출하여 상기 구동부(400)로 전송한다. Next, the
즉, 상기 제어부(300)는 상기 구동부(400)가 상기 패닝각(P) 및 상기 틸트각(T) 만큼 상기 종속카메라(200)를 회전시킬 수 있도록, 상기 패닝각(P) 및 상기 틸트각(T)에 대응되는 제어신호를 생성하여, 상기 제어신호를 상기 구동부(400)로 전송한다.
That is, the
다음, 상기 구동부(400)는 상기 제어신호를 이용하여, 상기 종속카메라(200)의 패닝각(P) 및 틸트각(T)을 변경시킨다.
Next, the driving
마지막으로, 상기 종속카메라(200)는 상기 구동부(400)에 의해 패닝각(P) 및 틸트각(T)이 변경된 상태에서, 줌인 기능 등을 사용하여, 상기 피사체를 정밀하게 감시할 수 있다.
Lastly, the
본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.
100 : 광역카메라 200 : 종속카메라
300 : 제어부 400 : 구동부100: Wide area camera 200: Dependent camera
300: control unit 400:
Claims (6)
PTZ(Pen-Tilt Zoom) 카메라로 구성되어, 상기 감시대상영역의 특정위치를 세부적으로 감시하는 종속카메라;
상기 종속카메라의 패닝각과 틸트각을 변경시키는 구동부; 및
상기 광역카메라로부터 수신된 피사체의 위치정보를 이용하여 산출된 상기 종속카메라의 패닝각과 틸트각에 대응되는 제어신호를, 상기 구동부로 전송하는 제어부를 포함하며,
상기 제어부는,
상기 광역카메라 및 상기 구동부와 통신을 수행하기 위한 인터페이스;
상기 광역카메라에 촬영된 상기 피사체의 위치정보에 따른 상기 패닝각과 상기 틸트각 간의 맵핑정보를 저장하고 있는 저장기;
상기 광역카메라로부터 수신된 촬영정보를 이용하여 상기 피사체의 위치정보를 분석하기 위한 감지기; 및
상기 감지기로부터 수신된 상기 위치정보와 상기 맵핑정보를 이용하여 상기 종속카메라의 패닝각과 틸트각을 산출한 후, 상기 제어신호를 생성하여 상기 구동부로 전송하는 제어기를 포함하는 감시카메라 유닛.A wide-angle camera composed of a fisheye lens for monitoring the entire surveillance target area;
A subordinate camera configured by a PTZ (Pen-Tilt Zoom) camera to closely monitor a specific position of the monitored area;
A driver for changing a panning angle and a tilt angle of the slave camera; And
And a control unit for transmitting a control signal corresponding to a panning angle and a tilt angle of the slave camera calculated using the position information of the subject received from the wide area camera to the driving unit,
Wherein,
An interface for performing communication with the wide area camera and the driving unit;
A storage for storing mapping information between the panning angle and the tilt angle according to positional information of the subject photographed by the wide area camera;
A sensor for analyzing the position information of the subject using the photographing information received from the wide area camera; And
And a controller for calculating the panning angle and the tilt angle of the slave camera using the position information and the mapping information received from the sensor, and generating the control signal and transmitting the control signal to the driving unit.
상기 제어부는,
상기 감지기를 구성하는 센서의 각 화소들 중, 중심에 위치한 화소로부터, 상기 센서에 표시된 상기 피사체가 검출된 XY좌표를 이용하여, 상기 패닝각을 산출하는 것을 특징으로 하는 감시카메라 유닛. The method according to claim 1,
Wherein,
Wherein the panning angle calculating unit calculates the panning angle using the XY coordinates at which the subject displayed on the sensor is detected from pixels located at the center among the pixels of the sensor constituting the sensor.
상기 제어부는,
상기 감지기를 구성하는 센서의 각 화소들 중, 중심에 위치한 화소로부터, 상기 센서에 표시된 상기 피사체 사이의 거리를 이용하여, 상기 피사체의 틸트각을 산출하는 것을 특징으로 하는 감시카메라 유닛.The method according to claim 1,
Wherein,
Wherein the tilt angle of the subject is calculated using a distance between the pixels located at the center among the pixels of the sensor constituting the sensor and the subject displayed on the sensor.
상기 제어부가, 상기 광역카메라에 촬영된 상기 피사체의 위치정보에 따른 상기 패닝각과 상기 틸트각 간의 맵핑정보와, 상기 광역카메라로부터 수신된 피사체의 위치정보를 이용하여, 상기 종속카메라의 패닝각과 틸트각을 산출하는 단계;
상기 제어부가, 상기 패닝각과 상기 틸트각에 대응되는 제어신호를 생성하여 상기 구동부로 전송하는 단계;
상기 구동부가 상기 제어신호에 따라 상기 종속카메라의 패닝각과 틸팅각을 변경시키는 단계; 및
상기 패닝각 및 상기 틸팅각이 변경된 상기 종속카메라가 상기 피사체를 정밀하게 감시하는 단계를 포함하는 감시카메라 유닛 구동방법.A slave camera configured by a fisheye lens and configured to monitor a specific position of the monitored area in detail, the slave camera being composed of a wide-area camera that monitors the entire monitored area and a PTZ (Pen-Tilt Zoom) And a control unit for transmitting a control signal corresponding to a panning angle and a tilt angle of the slave camera calculated using the position information of the subject received from the wide area camera to the driving unit, The unit receiving an image of a subject;
Wherein the controller is configured to calculate a tilt angle and a tilt angle of the slave camera based on mapping information between the panning angle and the tilt angle according to positional information of the subject photographed by the wide area camera and positional information of the subject received from the wide- ;
Generating a control signal corresponding to the panning angle and the tilt angle and transmitting the generated control signal to the driving unit;
Changing a panning angle and a tilting angle of the slave camera according to the control signal; And
And the sub camera having the panning angle and the tilting angle changed precisely monitors the subject.
상기 제어부는,
상기 감지기를 구성하는 센서의 각 화소들 중, 중심에 위치한 화소로부터, 상기 센서에 표시된 상기 피사체가 검출된 XY좌표를 이용하여, 상기 패닝각을 산출하는 것을 특징으로 하는 감시카메라 유닛 구동방법. 5. The method of claim 4,
Wherein,
Wherein the panning angle calculating unit calculates the panning angle using the XY coordinates at which the subject displayed on the sensor is detected from the pixel located at the center among the pixels of the sensor constituting the sensor.
상기 제어부는,
상기 감지기를 구성하는 센서의 각 화소들 중, 중심에 위치한 화소로부터, 상기 센서에 표시된 상기 피사체 사이의 거리를 이용하여, 상기 피사체의 틸트각을 산출하는 것을 특징으로 하는 감시카메라 유닛 구동방법.
5. The method of claim 4,
Wherein,
Wherein a tilt angle of the subject is calculated using a distance between the pixels located at the center among the pixels of the sensor constituting the sensor and the subject displayed on the sensor.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130036642 | 2013-04-04 | ||
KR1020130036642 | 2013-04-04 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140121345A true KR20140121345A (en) | 2014-10-15 |
KR101452342B1 KR101452342B1 (en) | 2014-10-23 |
Family
ID=51992940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140036436A KR101452342B1 (en) | 2013-04-04 | 2014-03-28 | Surveillance Camera Unit And Method of Operating The Same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101452342B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160072617A (en) * | 2014-12-15 | 2016-06-23 | 한화테크윈 주식회사 | Surveillance camera and control method thereof |
KR20180105483A (en) * | 2017-03-15 | 2018-09-28 | 한국전자통신연구원 | Video surveillance network system and video surveillance method thereof |
KR20200137744A (en) * | 2019-05-31 | 2020-12-09 | 주식회사 아이디스 | Monitoring System and Method for Controlling PTZ using Fisheye Camera thereof |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101619838B1 (en) * | 2015-12-09 | 2016-05-13 | 공간정보기술 주식회사 | System for tracking movement of subject using multi stereo camera |
KR101908005B1 (en) | 2016-12-08 | 2018-10-15 | (주)케이아이오티 | Intelligent camera system and managing method thereof |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100663483B1 (en) * | 2005-08-09 | 2007-01-02 | 삼성전자주식회사 | Apparatus and method of unmanned surveillance using an omni-directional camera |
KR20080015994A (en) * | 2006-08-17 | 2008-02-21 | 엘지전자 주식회사 | Method for macro photographing of monitoring camera |
KR101060905B1 (en) * | 2009-09-08 | 2011-08-30 | 삼성전기주식회사 | Surveillance camera system |
KR101228341B1 (en) * | 2011-04-19 | 2013-01-31 | 삼성테크윈 주식회사 | Visual survailance system and method based on cooperation between cameras |
-
2014
- 2014-03-28 KR KR1020140036436A patent/KR101452342B1/en active IP Right Grant
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160072617A (en) * | 2014-12-15 | 2016-06-23 | 한화테크윈 주식회사 | Surveillance camera and control method thereof |
KR20180105483A (en) * | 2017-03-15 | 2018-09-28 | 한국전자통신연구원 | Video surveillance network system and video surveillance method thereof |
KR20200137744A (en) * | 2019-05-31 | 2020-12-09 | 주식회사 아이디스 | Monitoring System and Method for Controlling PTZ using Fisheye Camera thereof |
US11153495B2 (en) | 2019-05-31 | 2021-10-19 | Idis Co., Ltd. | Method of controlling pan-tilt-zoom camera by using fisheye camera and monitoring system |
Also Published As
Publication number | Publication date |
---|---|
KR101452342B1 (en) | 2014-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8488001B2 (en) | Semi-automatic relative calibration method for master slave camera control | |
CN102148965B (en) | Video monitoring system for multi-target tracking close-up shooting | |
KR101452342B1 (en) | Surveillance Camera Unit And Method of Operating The Same | |
CN112399033B (en) | Camera assembly and monitoring camera | |
JP2006352851A (en) | Method and device for acquiring image of scene using composite camera | |
KR101096157B1 (en) | watching apparatus using dual camera | |
KR101204870B1 (en) | Surveillance camera system and method for controlling thereof | |
JP2009077092A (en) | Multi-camera system | |
KR101778744B1 (en) | Monitoring system through synthesis of multiple camera inputs | |
EP3745718B1 (en) | Method of controlling pan-tilt-zoom camera by using fisheye camera and monitoring system | |
CN111263134A (en) | Positionable panoramic three-dimensional imaging system and positioning method | |
JP2011109630A (en) | Universal head for camera apparatus | |
JP2022105568A (en) | System and method for displaying 3d tour comparison | |
CN111818270B (en) | Automatic control method and system for multi-camera shooting | |
KR101916093B1 (en) | Method for tracking object | |
KR101821159B1 (en) | System for tracking moving path of objects using multi-camera | |
US20110063466A1 (en) | Image capturing system, image capturing device, information processing device, and image capturing method | |
KR20110121426A (en) | System for observation moving objects | |
JP2002101408A (en) | Supervisory camera system | |
KR102482341B1 (en) | Automatic Coordinates correction system of Vehicle control area | |
KR101341632B1 (en) | Optical axis error compensation system of the zoom camera, the method of the same | |
JP2004320175A (en) | Monitoring camera system | |
JP2005175852A (en) | Photographing apparatus and method of controlling photographing apparatus | |
KR101996907B1 (en) | Apparatus for tracking object | |
KR102598630B1 (en) | Object tracking pan-tilt apparatus based on ultra-wide camera and its operation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20181025 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20191014 Year of fee payment: 6 |