KR20150017687A - 모니터링 카메라에 대한 위치와 배향을 선택하는 방법 및 시스템 - Google Patents
모니터링 카메라에 대한 위치와 배향을 선택하는 방법 및 시스템 Download PDFInfo
- Publication number
- KR20150017687A KR20150017687A KR1020140101899A KR20140101899A KR20150017687A KR 20150017687 A KR20150017687 A KR 20150017687A KR 1020140101899 A KR1020140101899 A KR 1020140101899A KR 20140101899 A KR20140101899 A KR 20140101899A KR 20150017687 A KR20150017687 A KR 20150017687A
- Authority
- KR
- South Korea
- Prior art keywords
- monitoring
- area
- orientation
- camera
- monitoring cameras
- Prior art date
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 187
- 238000000034 method Methods 0.000 title claims abstract description 59
- 239000002245 particle Substances 0.000 claims description 86
- 238000004422 calculation algorithm Methods 0.000 claims description 29
- 238000005457 optimization Methods 0.000 claims description 22
- 230000008859 change Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 39
- 108090000623 proteins and genes Proteins 0.000 description 22
- 239000013598 vector Substances 0.000 description 16
- 238000011156 evaluation Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000013459 approach Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241000251468 Actinopterygii Species 0.000 description 2
- 241000257303 Hymenoptera Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241000238631 Hexapoda Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 1
- 241000256856 Vespidae Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000002567 autonomic effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 244000144992 flock Species 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003997 social interaction Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19639—Details of the system layout
- G08B13/19641—Multiple cameras having overlapping views on a single scene
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19639—Details of the system layout
- G08B13/19645—Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/13—Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19639—Details of the system layout
- G08B13/19652—Systems using zones in a single scene defined for different treatment, e.g. outer zone gives pre-alarm, inner zone gives alarm
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Evolutionary Computation (AREA)
- Closed-Circuit Television Systems (AREA)
- Architecture (AREA)
- Software Systems (AREA)
- Studio Devices (AREA)
- Alarm Systems (AREA)
Abstract
본 발명은 영역을 모니터링하기 위한 카메라 배치의 분야, 특히, 모니터링 영역을 포함하는 영역에서 도움이되는 카메라 배치의 분야에 관한 것이다. 본 발명은, 많은 경우들에서, 모니터링 영역을 모니터링하는 것은 영역(106)의 모니터링을 용이하도록 요구된 입사 화각(110)으로 수행될 필요가 있는 인식에 기초한다. 본 발명은 하나의 영역(106)에서 하나 이상의 모니터링 카메라들(102)에 대한 위치 및 배향을 선택하는 방법들, 시스템들 및 컴퓨터-판독가능한 기록 매체들을 제공하고, 상기 영역은 적어도 모니터링 영역(108)을 포함한다.
Description
본 발명은 영역을 모니터링하기 위한 카메라 배치의 분야, 특히, 모니터링 영역을 포함하는 영역에서의 도움이되는 카메라 배치의 분야에 관한 것이다.
영역을 비디오 모니터링하는 것은, 수년간, 예를 들어, 감시 산업에 의해 많이 사용되어지고 있다. 상기 영역을 모니터링하기 위해 영역에 하나 이상의 비디오 카메라들을 설치할 때, 상기 영역의 구성, 예를 들어, 기둥 또는 벽 같은 영역 내의 장애물들을 고려하는 카메라들의 최적의 설치는 달성되기 힘들 수 있다. 많은 경우들에서, 숙련된 사람은 모니터링 시스템을 설치하기 위해 자신의 전문적인 지식을 사용할 필요가 있다.
US 2012/0307067(첸 등)은 자동적인 카메라 배치를 위한 시스템 및 방법에 관한 것이다. 본 문서에 개시된 방법은 상기 영역을, 예를 들어, 감시 영역, 비-감시 영역, 블랭크 영역 그리고/또는 장애물로 나누는 것을 포함한다. 상기 방법은, 또한, 예를 들어, 카메라들의 수, 상기 카메라들의 위치 또는 배향 그리고/또는 상기 카메라들의 모델을 선택하고 변경하는 것을 포함하고, 이후, 카메라들의 수, 상기 카메라들의 위치 또는 배향 그리고/또는 상기 카메라들의 모델을 선택하기 위한 적합도 함수를 이용한다. US 2012/0307067에 개시된 방법은 카메라 설치를 선택할 때 도움을 줄 수 있지만, 비디오 모니터링 시스템을 설치할 때 추가적인 피처들 및 제약들이 고려될 필요가 있다.
상기의 관점에서, 본 발명의 목적은 영역 내의 하나 이상의 모니터링 카메라들에 대한 위치 및 배향을 선택하기 위해 개선된 방법, 시스템 및 컴퓨터-판독가능한 기록 매체를 제공하는 것이고, 상기 영역은 적어도 모니터링 영역을 포함한다. 일반적으로, 상기 목적은 첨부된 독립 청구항들에 의해 달성된다.
제1 양상에 따라, 본 발명은 영역 내의 하나 이상의 모니터링 카메라들에 대한 위치 및 배향을 선택하는 방법에 의해 실현되고, 상기 영역은 적어도 모니터링 영역을 포함하고, 상기 방법은, 상기 영역에 관련한 데이터를 프로세서에 의해 수신하는 단계와; 상기 데이터를 사용하여 가상 영역을 상기 프로세서 의해 모델링하는 단계와; 적합도 함수(fitness function)의 반복들을 상기 프로세서에 의해 평가하는 단계 - 상기 적합도 함수는 상기 하나 이상의 모니터링 카메라들에 대한 시뮬레이트된 커버리지 영역을 계산하고 상기 모니터링 영역에 대한 시뮬레이트된 입사 화각(simulated view angle of incidence)을 계산하기 위해 상기 가상 영역 내의 상기 하나 이상의 모니터링 카메라들의 위치 및 배향을 포함하고 - 와; 그리고 상기 적합도 함수에 대한 적합한 솔루션을 상기 프로세서에 의해 선택하는 단계를 포함하고, 상기 적합한 솔루션은 상기 하나 이상의 모니터링 카메라들의 위치 및 배향을 포함하고, 상기 선택하는 단계는 상기 하나 이상의 모니터링 카메라들에 대한 상기 계산된 시뮬레이트된 커버리지 영역, 상기 모니터링 영역에 대한 상기 계산된 시뮬레이트된 입사 화각, 및 상기 모니터링 영역에 대한 요구된 입사 화각에 기초한다.
용어 "적합도 함수(fitness function)"는, 본 명세서의 맥락에서, 현재의 솔루션이 얼마나 적합한 지(즉, 적합한 솔루션인지)에 대한 척도를 계산하는 함수로 이해되어야 한다.
용어 "배향(orientation)"은, 본 명세서의 맥락에서, 카메라의 팬(pan) 및 틸트 각도의 조합 또는 카메라의 팬 각도 또는 틸트 각도 자체로 이해되어야 한다. 팬은 카메라가 수평면에서 회전되는 각도이고, 틸트는 카메라가 수직면에서 회전하는 각도로 이해되어야 한다.
용어 "모니터링 영역(monitoring area)"은, 본 명세서의 맥락에서, 적어도 하나의 카메라에 의해 모니터링될 필요가 있는 영역의 하위 영역(또는 일부 경우들에서는 전체 영역)으로 이해되어야 한다. 그와 같은 영역의 예는 박물관에서의 유명한 그림, 뱅크 밸브의 입구 또는 조립 라인의 제품 안전 평가 영역일 수 있다. 모니터링 영역은 하나의 연속적인 영역 또는 여러 개의 분리된 영역들을 포함할 수 있다.
용어 "입사 화각(view angle of incidence)"는, 본 명세서의 맥락에서, 영역 또는 상기 영역 내의 물체 또는 상기 영역 내의 일부가 카메라에 의해 모니터링되고 있는 각도로 이해되어야 한다. 상기 각도는 1차원, 2차원 또는 3차원으로 표시될 수 있다. 요구된 입사 화각은 각들의 범위, 최대 각 또는 최소 각을 특정할 수 있다.
용어 "가상 영역(virtual area)"은, 본 명세서의 맥락에서, 상기 영역의 임의의 가장 적합한 컴퓨터 상의 표현으로 이해되어야 한다. 다각형 표현이 가장 일반적이지만, 예를 들어, 상기 영역에서 표면들을 나타내는 등위면(isosurface)들을 사용함으로써 벡터 표현들이 동일하게 가능하다. 또 다른 실시예들에 따라, 레벨 세트들과 같은 분할된 포인트 기반 표현들이 이용된다.
용어 "커버리지 영역(coverage area)"은, 본 명세서의 맥락에서, 상기 위치에 배치된 적어도 하나의 카메라가 모니터링하고 있는 영역으로 이해되어야 한다.
본 발명은, 많은 경우들에서, 모니터링 영역을 모니터링하는 것은 영역의 모니터링을 용이하게 하기 위해 요구된 입사 화각으로 수행될 필요가 있다는 인식에 기초한다. 예를 들어, 출입구를 통해 영역으로 들어가는 사람들을 모니터링할 때, 상기 카메라는 예를 들어 상기 영역에 들어서는 사람의 얼굴 인식을 용이하게 하도록 평균적인 사람의 키에서 출입구 위치쪽으로 향하도록 배향된다. 조립 라인을 모니터링할 때, 카메라는 제품의 대부분들이 보일 수 있는 각도에서 제품이 모니터링되도록 카메라가 유리하게 위치된다.
일 실시예에 따르면, 상기 가상 영역 내의 상기 하나 이상의 모니터링 카메라들 중 적어도 하나의 위치 및 배향 중 적어도 하나는 각 반복에서 변경되고, 상기 적합도 함수의 반복들은, 상기 적합한 솔루션이 상기 모니터링 영역을 완전히 커버하는 시뮬레이트된 커버리지 영역을 포함할 때까지 평가되고, 상기 적합한 솔루션은 상기 모니터링 영역에 대한 요구된 입사 화각을 충족시킨다.
이러한 실시예는 모니터링 영역의 모니터링을 또한 용이하게 하는바, 전체 모니터링 영역이 모니터링될 것이기 때문이다. 물론, 모니터링 카메라들이 전체 모니터링 영역을 모니터할 수 없는 경우들이 존재할 수 있다. 그러한 경우들에서, 최대 수의 반복들이 설정될 수 있다. 상기 적합도 함수가 최대 수의 반복들에 도달할 때, 최적의 솔루션, 예를 들어, 시뮬레이트되는 커버리지 영역이 거의 모니터링 영역을 커버하고 있지만, 요구된 입사 화각이 달성되는 솔루션이 선택된다. 적합한 솔루션이 상기 모니터링 영역을 완전히 커버하는 시뮬레이트된 커버리지 영역, 및 모니터링 영역에 대한 요구된 입사 화각을 포함한다고 알려질지라도, 적합도 함수의 반복들은 진행될 수 있음을 알아야한다.
추가의 실시예에서, 상기 적합한 솔루션을 선택하는 단계는 상기 모니터링 영역을 모니터링하는 상기 하나 이상의 모니터링 카메라들 중 적어도 하나에 의해 캡쳐되는 이미지에 대해 요구되는 해상도에 또한 기초한다. 이것은 또한 모니터링 영역의 모니터링을 용이하게 할 수 있는바, 고해상도 이미지가 낮은 해상도 이미지보다 세부사항을 더 포함하기 때문이다.
실시예들에 따르면, 상기 영역은 블랭크 영역을 또한 포함하고, 상기 적합한 솔루션을 선택하는 단계는 모니터링되고 있는 상기 블랭크 영역의 퍼센티지에 또한 기초한다.
용어 "블랭크 영역(blank area)"은, 본 명세서의 맥락에서, 모니터링이 요구되지 않거나(즉, 모니터링 영역이 아니거나) 금지된 영역의 일부로 이해되어야 한다.
상기 영역이, 모니터링이 가장 중요할 수 있는 모니터링 영역들을 포함할지라도, 상기 영역의 다른 부분들을 모니터링하는 것이 유리할 수 있다. 모니터링되고 있는 블랭크 영역의 퍼센티지에 또한 기초하여 적합한 솔루션을 선택함으로써, 방법은, 요구된 입사 화각으로 전체 모니터링 영역을 모니터링하는 요건이 충족되는 복수의 솔루션들 사이에서 선택할 수 있다. 그러한 경우들에서, 선택된 적합한 솔루션은, 블랭크 영역의 가장 큰 영역이 모니터링되고 있는 것일 수 있다.
영역은 또한 비-모니터링 영역을 또한 포함할 수 있다. 이러한 실시예에 따르면, 적합한 솔루션을 선택하는 단계는, 또한, 비-모니터링 영역이 상기 적어도 하나 이상의 모니터링 카메라들에 의해 모니터링되지 않는 것에 기초할 수 있다.
용어 "비-모니터링 영역(non-monitoring)"은, 본 명세서의 맥락에서, 모니터링되지 말아야할 영역으로 이해되어야 한다. 예로서, 그와 같은 영역은 종업원의 작업 공간, 또는 욕실 또는 화장실의 일부들과 같은 더 사적인 영역들을 포함할 수 있다.
이 실시예의 이점은, 상기 영역의 일부가 모니터링되지 않아야하는 영역을 상기 방법이 처리할 수 있다는 점이다.
일부 실시예들에 따르면, 적합도 함수는 다수의 모니터링 카메라들을 포함하고, 적합한 솔루션도 또한 상기 다수의 모니터링 카메라들을 포함한다. 경제적 또는 다른 이유들로 인해, 다소의 카메라들이 상기 영역을 모니터링할 수 있습니다.
일부 실시예들에 따르면, 상기 가상 영역 내의 상기 다수의 모니터링 카메라들 중 적어도 하나 및 상기 가상 영역 내의 상기 하나 이상의 모니터링 카메라들 중 적어도 하나의 위치와 배향은 각 반복에서 변경된다. 이것은 상기 적합도 함수를 더 플렉시블하게 할 수 있는바, 이는 상기 복수의 카메라들이 변경될 수 있으며, 이에 의해서 요건들에 따라 적합한 솔루션을 발견할 가능성을 증가시킬 수 있기 때문이다.
일부 실시예들에 따르면, 상기 적어도 하나의 모니터링 카메라들의 각각은 카메라 피처들을 포함하고, 상기 카메라 피처들은 시야 및 줌 레벨 중 적어도 하나를 포함하고, 상기 적합한 솔루션은 상기 적어도 하나의 모니터렁 카메라들의 카메라 피처들을 포함한다. 이 경우에서, 상기 가상 영역 내의 상기 적어도 하나의 모니터링 카메라의 카메라 피처들 중 적어도 하나 및 상기 가상 영역 내의 상기 하나 이상의 모니터링 카메라들 중 적어도 하나의 위치 및 배향은 각 반복에서 변경될 수 있다. 예를 들어 경제적 이유로 인해, 더 작은 시야를 갖고 줌(zoom)할 수 없는 저렴한 카메라가 모니터링을 위해 사용될 필요가 있다. 줌의 레벨이 예를 들어 카메라의 시야뿐 아니라 카메라에 의해 캡쳐된 이미지의 해상도에도 영향을 미칠 수 있다. 모니터링 카메라들의 카메라 피처들을 변경시킬 수 있음으로써, 즉, 카메라 모델 또는 카메라의 줌 레벨을 변경시킴으로써, 적합도 함수를 반복할 때, 더 유연한 방법이 발성된다.
일부 실시예들에서, 상기 적합도 함수는 또한 적어도 2개의 모니터링 카메라들을 포함하고 그리고 상기 적합한 솔루션을 선택하는 단계는 또한 상기 적어도 두 개의 모니터링 카메라들의 각각에 대해 상기 모니터링 영역에 대해 요구되는 입사 화각에 기초한다. 영역이 예를 들어 2개의 방향들로부터 모니터링되는 모니터링 시스템의 요건이 존재할 수 있다. 예를 들어, 축구장에서 골 에어리어를 모니터링할 때, 서로 다른 각도들로부터 상기 골 에어리어를 모니터링하는 2개의 카메라들은 공이 완전히 골 에어리어 내에 있는지 또는 아닌지, 즉, 삼각 기법들을 사용함으로써 완전히 명확하게 할 필요가 있다. 모니터링 영역은 하나 보다 많은 개별 모니터링 영역을 포함할 수 있고, 이 경우에서 상기 적어도 2개의 모니터링 카메라들 각각은 동일한 개별 모니터링 영역을 모니터링할 필요가 없음을 알 수 있다. 따라서, 서로 다른 요구된 관측 각도들은 서로 다른 모니터링 영역들에 존재할 수 있다.
일부 실시예들에 따르면, 상기 시뮬레이트된 커버리지 영역은 능동 에지 알고리즘을 사용하여 계산된다. 공통의 대안은 가상 영역을 그리드로 분할함으로써 가상 영역의 샘플링된 표현을 사용하고, 그리드 내의 각각의 셀에 대해, 그리드가 커버되는지 또는 커버되지 않는지를 계산하는 것이다. 능동 에지 알고리즘를 사용하는 이점은 연속적인 커버리지 영역이 달성되고, 그 결과 더 정확한 시뮬레이트된 커버리지 영역을 얻을 수 있다는 점이다. 추가적인 이점은, 상기 알고리즘의 시간 복잡도가 0(n), 즉, 선형 시간 알고리즘이라는 점이다. 이것은 적합도 함수가 느린 알고리즘이 사용되는 것보다 빠르게 수행될 수 있는 것을 의미한다.
일부 실시예들에 따르면, 각 반복에서의 변경은 입자군 최적화(particle swarm optimization: PSO) 알고리즘에 의해 수행된다. 이것은 하나보다 많은 카메라를 사용할 때 유리한 알고리즘인바, 이는 특정 카메라에 대한 각 변경이 국부적으로 최적인 것으로 알려진 솔루션 및 전체적으로 최적인 것으로 알려진 솔루션, 즉, 모든 카메라들을 고려하는 것 둘 다에 의해 영향을 받는다.
적합도 함수에 대한 입력 데이터를 고려하여, 적합도 함수에 대한 솔루션(즉, 적합한 솔루션)을 최적화하는 임의의 적합한 최적화 알고리즘이 사용될 수 있음을 알 수 있다. 적합한 최적화 알고리즘의 다른 예들은 진화 알고리즘들과 같은 탐색 경험적 최적화 접근법들일 수 있다. 또 다른 예들은 경사법이거나 동적인 프로그래밍 또는 정수형 선형 계획(integer linear programming)일 수 있다.
제2 양상에서, 본 발명은 프로세싱 능력들을 갖는 디바이스 상에서 실행될 때 제1 양상에 따라 상기 방법을 구현하는 프로그램을 기록한 컴퓨터 판독가능한 기록 매체를 제공한다.
제3 양상에서, 본 발명은 영역 내의 하나 이상의 모니터링 카메라들에 대한 위치 및 배향을 선택하는 시스템을 제공하고, 상기 영역은 적어도 모니터링 영역 및 비-모니터링 영역을 포함하고, 상기 시스템은, 상기 영역에 관련한 데이터를 수신하고; 상기 데이터를 사용하여 가상 영역을 모델링하고; 적합한 솔루션을 계산하기 위해 적합도 함수의 반복들을 평가하고 - 상기 적합도 함수는 상기 하나 이상의 모니터링 카메라들에 대한 시뮬레이트된 커버리지 영역을 계산하고 상기 모니터링 영역에 대한 시뮬레이트된 입사 화각을 계산하기 위해 상기 가상 영역 내의 상기 하나 이상의 모니터링 카메라들의 위치 및 배향을 포함하고 - ; 그리고 상기 적합도 함수에 대한 적합한 솔루션을 선택하도록 된 하나 이상의 컴퓨터 프로세서들을 포함하고, 상기 적합한 솔루션은 상기 하나 이상의 모니터링 카메라들의 위치 및 배향을 포함하고, 상기 선택은 상기 하나 이상의 모니터링 카메라들에 대한 상기 계산된 시뮬레이트된 커버리지 영역, 상기 모니터링 영역에 대한 상기 계산된 시뮬레이트된 입사 화각, 및 상기 모니터링 영역에 대한 요구된 입사 화각에 기초한다.
상기 제2 및 제3 양상은 일반적으로 제1 양상과 동일한 피처들 및 이점들을 가질 수 있다.
일반적으로 청구범위들에서 사용된 모든 용어들은, 여기에서 명시적으로 다르게 정의되지 않으면, 본 기술 분야의 일반적인 의미에 따라 해석될 것이다. "하나의/상기 [요소, 디바이스, 컴포넌트, 수단, 단계 등]"에 대한 모든 참조들은, 명시적으로 다르게 언급되지 않으면, 상기 요소, 디바이스, 컴포넌트, 수단, 단계 등의 적어도 하나의 경우를 언급하도록 해석될 것이다. 여기에서 개시된 임의의 방법의 단계들은, 여기에서 명시적으로 언급되지 않으면 개시된 정확한 순서로 수행될 필요가 없다.
본 발명의 상기에서 개시된 그리고 다른 양상들은 본 발명의 실시예들을 나타내는 첨부된 도면들을 참조하여 더 상세하게 기술될 것이다.
도 1a-c는 실시예들에 따른 모니터링 카메라에 대한 위치 및 배향을 선택하는 방법을 도시한다.
도 2a-d는 실시예들에 따른 모니터링 카메라에 대한 위치 및 배향을 선택하는 방법을 도시한다.
도 3a-d는 실시예들에 따른 모니터링 카메라에 대한 위치 및 배향을 선택하는 방법을 도시한다.
도 4a-c는 실시예들에 따른 2개의 모니터링 카메라들에 대한 위치 및 배향을 선택하는 방법을 도시한다.
도 5는 영역 내의 하나 이상의 모니터링 카메라들에 대한 위치 및 배향을 선택하는 방법의 흐름도를 도시한다.
도 6은 광학 카메라의 파라미터들을 나타낸다.
도 7은 광학 카메라의 커버리지 영역의 예를 도시한다.
도 8a-d는 실시예들에 따른 2개의 모니터링 카메라들에 대한 위치 및 배향을 선택하는 방법을 도시한다.
도 9는 PSO 입자 인코딩을 나타낸다
도 10은 모니터링 영역을 모니터링하는 카메라에 대한 요구된 입사 화각을 나타낸다.
도 1a-c는 실시예들에 따른 모니터링 카메라에 대한 위치 및 배향을 선택하는 방법을 도시한다.
도 2a-d는 실시예들에 따른 모니터링 카메라에 대한 위치 및 배향을 선택하는 방법을 도시한다.
도 3a-d는 실시예들에 따른 모니터링 카메라에 대한 위치 및 배향을 선택하는 방법을 도시한다.
도 4a-c는 실시예들에 따른 2개의 모니터링 카메라들에 대한 위치 및 배향을 선택하는 방법을 도시한다.
도 5는 영역 내의 하나 이상의 모니터링 카메라들에 대한 위치 및 배향을 선택하는 방법의 흐름도를 도시한다.
도 6은 광학 카메라의 파라미터들을 나타낸다.
도 7은 광학 카메라의 커버리지 영역의 예를 도시한다.
도 8a-d는 실시예들에 따른 2개의 모니터링 카메라들에 대한 위치 및 배향을 선택하는 방법을 도시한다.
도 9는 PSO 입자 인코딩을 나타낸다
도 10은 모니터링 영역을 모니터링하는 카메라에 대한 요구된 입사 화각을 나타낸다.
본 발명의 실시예들은, 본 발명의 특정 실시예들이 도시되는 첨부된 도면들을 참조하여 이후에서 더욱 상세하게 기술될 것이다. 하지만, 본 발명은 많은 다른 형태들로 실시될 수 있고, 여기에서 설명된 실시예들로 제한되도록 해석되지 않아야 한다; 오히려, 이러한 실시예들은, 본 발명이 철저하고 완전해지도록 예로서 제공되며, 통상의 기술자에게 본 발명의 범위 전체를 전달할 것이다. 더욱이, 동일한 번호들은 계속 동일한 요소들을 언급한다.
예시와 명확함을 위해 도 1-8의 각각은 3차원 장면의 2차원 표시 또는 2D 투영을 나타낸다.
도 6은 광학 카메라(102)의 파라미터들을 예로서 도시한다. 카메라(102)의 시야(field of view: FoV)(602)는 카메라의 렌즈를 통해 볼 수 있고, 각도로 측정되는 장면의 일부(볼륨, 예를 들어, 원뿔)를 나타내는 고유 파라미터이다. FoV는 실제로 카메라에 의해 모니터링될 수 있는 영역을 나타낸다.
카메라에 의해 제공되는 이미지에서 선명함을 나타내는 가장 가까운 물체와 가장 먼 물체간 거리는 심도(depth of field; DoF)로 언급된다. 이것은, FoV 콘(602)(도 6의 단면도에서 도시됨)의 최인접 깊이(ND)라고도 불리는 최인접 에지(610)와 최외각 깊이(FD)라고도 불리는 최외각 에지(612)에 의해 도 6에서 도시된다.
카메라의 공간 해상도(SR)는 이미지 상의 물체의 전체 화소수와 물체의 크기 사이의 비율이다. 특정 공간 해상도 요건은 물체와 카메라 사이의 거리에서 발생한다. 카메라의 공간 해상도는 FD로 변환될 수 있다. 더 높은 SR 요건은 더 짧은 FD를 갖는 카메라에서 발생할 수 있다.
각 카메라는 파라미터들의 세트에 의해 정의되고, 이용가능한 많은 타입들의 카메라들이 존재한다. 각각의 서로 다른 카메라는 서로 다른 렌즈 타입, 요소 타입 등을 가진다. 통상적으로, 3가지 타입들의 카메라들은 고정된 관점 카메라, 팬-틸트-줌(PTZ) 카메라, 전방향 카메라이다. 고정된 관점 카메라는, 일단 장소에 정착되면, 고정된 위치, 배향(614) 및 초점 거리를 갖는다. 고정된 관점 카메라는, 고정된 초점 거리 때문에, 즉, 줌할 수 없기 때문에 작은 DoF 및 FoV을 가질 수 있다. PTZ 카메라는 회전될 수 있고, 조정가능한 초점 거리(줌)을 갖는다. 그 결과, PTZ 카메라는 고정된 관점 카메라보다 더 큰 DoF 및 FoV를 가질 수 있다. 전방향 카메라는 2π FoV를 갖는다. PTZ 카메라에 대해, 회전할 수 있는 능력으로 인해, 회전되는 각도의 이등분선(614)이 PTZ 카메라의 배향이다. 전방향 카메라의 경우에서, 배향은 문제가 되지 않는바, 이는 카메라가 2π FoV를 갖기 때문이다.
이러한 서술에서, 커버리지 영역은 카메라가 모니터링할 수 있고 장애물들에 의해 가려지지 않는 영역이다. 이것은 도 7의 예를 통해 도시된다. 도 7에서, 장애물(706)은 카메라(102)의 FoV의 부분들을 차단한다. 그 결과, 전체 FoV가 모니터링을 위해 사용될 수 없다. 이 예에서, 영역(702)은 모니터링된다. 즉, 영역(702)은 카메라(202)의 커버리지 영역이다. 하지만, 장애물(706)에 의해 가려지는 영역(704)는 모니터링되지 않은 채로 남는다.
도 1a-c는 모니터링 카메라(102)에 대한 위치 및 방향을 선택하는 방법으로서, 도 5에서 부분적으로 서술된 방법을 일 예로서 나타낸다. 도 1a는 모니터링될 영역(106)을 도시한다. 상기 영역은 모니터링 영역(108), 예를 들어, 문(door)을 포함한다.
상기 영역(106)과 관련되는 데이터는 프로세서에 의해 수신되고(S502) 가상 영역으로 모델링된다(S504). 도 2a-d, 3a-d, 4a-c 및 8a-c와 관련하여 서술된 예들과 마찬가지로 이러한 예에서, 도면들은 하나 이상의 모니터링 카메라들에 대한 위치 및 방향을 선택하는(S508) 적합도 함수의 반복들을 나타낸다. 적합도 함수의 각각의 반복에서, 가상 영역 내의 하나 이상의 모니터링 카메라들 중 적어도 하나의 위치 및 방향 중 적어도 하나는 변경된다. 영역(106) 내에서 실제로 발생되는 것으로 도면들과 관련된 반복들이 서술되지만, 당업자는 이것이 예시 및 명확성의 용이함을 위한 것임을 이해할 수 있다.
도 1a에서 도시된 것처럼, 카메라의 전체 FoV(104)가 영역, 특히, 모니터링 영역(108)을 모니터링하기 위해 이용될 수 없는데, 이는 상기 모니터링 영역(108)에 가까운 벽이 카메라(102)의 FoV(104)의 부분들을 차단하기 때문이다. 결과적으로, 가상 영역 내의 카메라(102)의 시뮬레이트된 커버 영역은 모니터링 영역(108)을 커버하지 못한다. 따라서, 프로세서에 의해 수행되는 상기 적합도 함수의 이러한 반복에 대한 평가(S506)는, 상기 적합도 함수의 새로운 반복이 발생될 필요가 있는 것을 초래할 수 있다. 도 1b에서, 카메라(102)의 위치 및 방향 모두가 변경되었다. 이러한 새로운 위치 및 방향을 가지면, 카메라(102)의 FoV(104)가 모니터링 영역(108)을 모니터하는 것을 그 어느 것도 방해하고 있지 않다. 즉, 모니터링 영역(108)은 카메라 커버 영역 내에 존재한다. 하지만, 모니터링 영역(108)에 대한 시뮬레이트된 입사 화각(simulated view angle of incidence)(112)은 입사 화각의 요구된 범위(110) 내에 존재하지 않는다. 따라서, 상기 적합도 함수의 이러한 반복의, 프로세서에 의해 수행된 평가(S506)는, 상기 적합도 함수의 새로운 반복이 발생될 필요가 있는 것을 초래할 수 있다. 도 1c에서, 카메라(102)의 위치 및 방향 모두가 한번 더 변경되었다. 이제, 카메라(102)는 모니터링 영역(108) 앞에 실질적으로 위치되고, 모니터링 영역(108)으로 향하게 된다. 모니터링 영역(108)에 대한 시뮬레이트된 입사 화각(112)은 이제 입사 화각의 요구된 범위(110) 내에 존재한다. 더욱이, 상기 시뮬레이트된 커버 영역은 모니터링 영역(108)을 완전히 커버하고 있다. 따라서, 상기 프로세서는 상기 적합도 함수에 대한 적합한 솔루션으로서 카메라(102)의 이러한 위치 및 방향을 선택할 수 있다(S508).
도 2a-d는 모니터링 카메라(102)에 대한 위치 및 방향을 선택하는 방법으로서, 도 5에서 부분적으로 서술된 방법을 일 예로서 나타낸다. 도 2a는 모니터링될 영역(106)을 도시한다. 상기 영역은 모니터링 영역(108)과 블랭크 영역(202)을 포함한다. 도 2a-b는 도 1a-b와 관련하여 이미 서술된 것과 동일한 것을 나타낸다. 즉, 2개의 반복들이 수행되고 상기 반복들의 평가(S506)가 추가의 반복들이 요구되는 것을 초래한다. 도 2c에서, 모니터링 영역(108)에 대한 시뮬레이트된 입사 화각(112)은 이제 입사 화각의 요구된 범위(110) 내에 존재한다. 더욱이, 상기 시뮬레이트된 커버 영역은 모니터링 영역(108)을 완전히 커버하고 있다. 하지만, 상기 모니터링 영역이 블랭크 영역(202)을 포함하기 때문에, 블랭크 영역(202)의 더 큰 부분이 이미 발견된 적합한 솔루션에서 얼마나 큰 부분이 모니터링되는지와 비교하여, 모니터링될 수 있는 적합한 솔루션이 존재하는지를 알아보기 위하여, 상기 프로세서는 적합도 함수의 반복들을 계속해서 평가(S506)하도록 구성될 수 있다. 도 2d에 볼 수 있는 것처럼, 카메라(102)를 영역(106)의 하부 오른쪽으로 이동시키고, 카메라들(102) 각각을 약간 오른쪽으로 향하게 함으로써, 블랭크 영역(202)의 더 큰 부분은 도 2c에서 모니터링된 블랭크 영역(202)의 부분과 비교되어 모니터링된다. 결과적으로, 프로세서는 적합한 솔루션으로서 도 2d에서 도시된 반복에서 카메라의 위치 및 방향을 선택할 수 있다(S508).
도 3a-d는 모니터링 카메라(102)에 대한 위치 및 방향을 선택하는 방법으로서, 도 5에서 부분적으로 서술된 방법을 일 예로서 나타낸다. 도 3a는 모니터링될 영역(106)을 도시한다. 상기 영역은 모니터링 영역(108), 예를 들어, 문 및 비-모니터링 영역(302)을 포함한다. 비-모니터링 영역(302)은, 예를 들어, 문(108)을 지키는 고용인의 근무 영역이 될 수 있다. 도 3a-b는 도 1a-b와 관련하여 이미 서술된 것과 동일한 것을 나타낸다. 즉, 2개의 반복들이 수행되고 상기 반복들의 평가(S506)가 추가의 반복들이 요구되는 것을 초래한다. 더욱이, 도 3b는, 카메라(102)의 커버 영역이 프로세서에서 구현되는 평가 프로세스의 일부 실시예들에서 허용될 수 없는 비-모니터링 영역(302)을 커버하는 것을 도시한다. 일부 실시예에 따르면, 비-모니터링 영역의 어떤 부분도 카메라(102)에 의해 모니터링되는 것이 허용되지 않는다. 다른 실시예들에서, 상기 비-모니터링 영역은 특정 입사 화각을 구비한 상기 카메라에 의해 모니터링될 수 있다. 예를 들어, 비-모니터링 영역이 하나의 PC를 포함하면, 상기 PC 뒤의 비-모니터링 영역을 모니터링하는 것이 허용될 수 있다. 즉, 상기 PC의 스크린은 모니터링되지 않는다. 도 3a-d와 관련하여 서술된 실시예에서, 비-모니터링 영역의 어떤 부분도 모니터링되는 것이 허용되지 않는다. 도 3c에서 볼 수 있는 것처럼, 카메라(102)의 위치 및 방향이 한번 더 변경되었다. 이제, 모니터링 영역(108)에 대한 시뮬레이트된 입사 화각(112)이 입사 화각의 요구된 범위(110) 내에 존재하도록 카메라(102)가 위치된다. 더욱이, 시뮬레이트된 커버 영역은 모니터링 영역(108)을 완전히 커버한다. 하지만, 비-모니터링 영역(302)은 카메라(102)의 커버 영역에 의해 여전히 커버된다. 결과적으로, 상기 반복들의 평가(S506)가 추가의 반복들이 요구되는 것을 초래한다. 도 3d에서, 카메라(102)의 위치 및 방향은, 카메라(102)가 모니터링 영역(108)과 비-모니터링 영역(302) 사이에 위치되도록 변경되었다. 카메라(102)는, 모니터링 영역(108)에 대한 시뮬레이트된 입사 화각(112)이 입사 화각의 요구된 범위(110) 내에 존재하고, 상기 시뮬레이트된 커버 영역이 모니터링 영역(108)을 완전히 커버하도록 모니터링 영역쪽으로 방향을 갖는다. 이제, 비-모니터링 영역(302)은 카메라(102)의 커버 영역 완전히 바깥에 존재한다. 결과적으로, 프로세서는 적합한 솔루션으로서 도 3d에서 도시된 반복에서 카메라의 위치 및 방향을 선택할 수 있다(S508).
도 4a-c는 2개의 모니터링 카메라들(102, 408)에 대한 위치 및 방향을 선택하는 방법으로서, 도 5에서 부분적으로 서술된 방법을 일 예로서 나타낸다. 영역(106)은 2개의 방향들로부터 모니터링되어야 하는 모니터링 영역(402)을 포함한다. 즉, 2개의 요구된 입사 화각(404, 406)을 갖는다. 즉, 적합한 솔루션의 선택(S508)은 2개의 모니터링 카메라들(102, 408) 각각에 대해 모니터링 영역(402)에 대한 요구된 입사 화각(404, 406)에 기초한다. 도 4a는, 모니터링 영역(402)에 대한 시뮬레이트된 입사 화각(112, 412)이 2개의 카메라들(102, 408) 중 일부에 대해 요구된 입사 화각(404, 406) 내에 존재하지 않는 것을 나타낸다. 도 4b에 도시된 다음 반복에서, 좌측 카메라(102)는, 모니터링 영역(402)에 대한 시뮬레이트된 입사 화각(112)이 입사 화각(406)의 요구된 범위 중 하나 내에 존재하고 시뮬레이트된 커버 영역이 모니터링 영역(108)을 완전히 커버하도록 위치되고 방향을 갖는다. 하지만, 우측 카메라(408)는 여전히 요건들을 따르지 않는 시뮬레이트된 입사 화각(412)을 갖는다. 결과적으로, 상기 반복들의 평가(S506)가 추가의 반복들이 요구되는 것을 초래한다. 도 4c에 도시된 다음 반복에서, 좌측 카메라(102)의 위치 및 방향은, 우측 카메라(408)가 도 4b에서 도시된 이전의 반복과 서로 상이하게 비교되어 이동하고 방향을 갖는 동안 유지된다. 이제, 2개의 입사 화각(404, 406)의 요건이 충족된다. 결과적으로, 프로세서는 적합한 솔루션으로서 도 4c에서 도시된 반복에서 2개의 카메라들(102, 408)의 위치 및 방향을 선택할 수 있다(S508).
일부 경우들에서, 일정한 점 또는 영역이 적어도 3개의 서로 상이한 각도들로부터, 즉, 적어도 3개의 서로 상이한 요구된 입사 화각을 가지고 모니터링될 필요가 있다. 당업자는, 상기 서술이 이러한 경우들을 다루기 위해 용이하게 적용되고 본 명세서에서 더 상세하게 기술되지 않음을 이해한다.
일부 실시예에 따르면, 상기 위치 및/또는 방향은 단지 상기 적합도 함수의 각각의 반복에서 변경될 수 없다. 상기에서 서술된 것처럼, 각 카메라는 뷰 및 줌 기능의 필드와 같은 카메라 피처들을 가질 수 있다. 줌 기능이 카메라에 대해 존재하는 경우에서, 줌 레벨은 피처로서 존재한다. 이러한 피처들의 설정들은 상기 적합도 함수를 반복하는 동안 변경될 수 있다. 예를 들어, 모니터링 영역을 모니터하는 모니터링 카메라에 의해 캡쳐되는 이미지의 해상도(resolution)는 충분하지 않을 수 있다. 이러한 경우에서, 줌 레벨은 요구된 해상도가 달성되도록 변경될 수 있다. 이것은 도 8a-d에서 나타난다. 도 8a-b는 도 1a-b와 관련하여 이미 서술된 것과 동일한 것을 나타낸다. 즉, 2개의 반복들이 수행되고 상기 반복들의 평가(S506)가 추가의 반복들이 요구되는 것을 초래한다. 도 8c에서, 모니터링 영역(108)에 대한 시뮬레이트된 입사 화각(112)이 입사 화각(110)의 요구된 범위 내에 존재한다. 더욱이, 상기 시뮬레이트된 커버리지 영역은 모니터링 영역(108)을 완전히 커버한다. 하지만, 모니터링 카메라(102)에 의해 캡쳐되는 이미지의 대한 해상도는 상기 요건들에 따르지 않는다. 따라서, 추가적인 반복이 요구될 수 있다. 도 8d에서, 카메라(102)의 FD는 모니터링 영역(108)의 요구된 해상도가 달성되도록 감소된다. 결과적으로, 프로세서는 적합한 솔루션으로서 도 8d에서 도시된 반복에서 카메라(102)의 위치 및 방향 그리고 줌 레벨을 선택할 수 있다(S508).
상기에서 서술된 시뮬레이트된 커버 영역은 능동 에지 알고리즘(active edge algorithm)을 사용하여 계산될 수 있다. 상기 능동 에지 알고리즘은 Automated camera layout to satisfy task - specific and floor plan - specific coverage requirements(Erdem at al ., 2006, Computer Vision and Image Understanding , 103(3): 156-169)에서 상세하게 서술되고 본 명세서에서는 더 논의되지 않을 것이다.
반복 접근은, 입자군 최적화(particle swarm optimization: PSO) 알고리즘을 사용하여 구현될 수 있다. 집단 지능(swarm intelligence: SI) 기반 최적화 기법들은 지난 10년간 크게 대중화되었다. 사회적 곤충들(예를 들어, 새들의 무리들 또는 물고기 무리들과 같은 동물 사회들과 마찬가지로 개미들, 벌들 및 말벌들)의 군집 행위로부터 영감을 받아, SI 훈련들은 이러한 집단들의 그와 같은 행동을 모방함으로써 지능형 시스템을 설계하도록 시도한다. 이러한 군집들이 단일 개체는 복잡하지 않지만, 복잡한 업무들은 분산되고 자기 조직화되는 방식으로 개개의 구성원들 사이의 협동과 상호작용의 영향하에서 달성될 수 있다.
과학 및 산업계에서, 최적화 문제들은 상당히 중요하다. 조합 최적화(CO)라고 알려진 최적화 문제들의 중요한 클래스는 (순회 세일즈맨 문제, 차량 경로, 최소 신장 트리 등과 같은) 한정된 객체들의 세트로부터 최적의 객체를 발견하는 것을 다룬다. CO 문제들을 해소하기 위해 개발된 알고리즘들은 완전한 알고리즘 또는 근사 알고리즘으로서 분류될 수 있다. 완전한 알고리즘들은 CO 문제의 매 경우(every instance)를 발견하는 것을 보장하고 최적의 솔루션을 발견하기 위해 매 경우를 평가한다. NP 하드 문제들에 대하여, 어떤 다항식 시간 알고리즘도 존재하지 않을지라도, 이것은 우리로 하여금 근사 방법들을 사용하도록 이끈다. 근사 방법들에서, 최적의 솔루션을 발견에 대한 보장은 상당히 감소된 시간에서 충분히 양호한 솔루션들을 얻기 위해 희생된다. 근사법들의 사용은, 근사법들이 고전적인 기울기 기반 접근들보다 구현되는 것이 용이하고, (특히, 목적 함수가 내재적으로 주어지거나 미분불가능할 때) 기울기 정보를 요구하지 않는다. 입자군 최적화는 NP 하드 CO 문제들에 대한 근사한 솔루션들을 발견하기 위한 가장 적합한 SI 기법들 중 하나이고, 추가로 논의될 이러한 연구의 초점이다.
케네디와 알버트는(Particle swarm optimization. In Neural Networks, 1995. Proceedings., IEEE International Conference on, volume 4, pages 1942-1948 vol.4.) 연속적인 비선형 함수들에 대한 새로운 최적의 방법으로 처음으로 입자군 최적화 알고리즘을 도입했고, 이러한 연속적인 비선형 함수들은 2개의 주요한 컴포넌트 방법론들: 일반적으로 인공 생명 그리고 특히 새때, 물고기때 및 군집 이론에서 기원들을 갖는다. PSO 개념은, 먹이를 찾을 때 간략화된 사회 시스템의 시뮬레이션을 의해 비롯되었다. 각각의 새를 입자라고 가정하면, 개별 입자들은 현재 속도, 그들 자신의 이전 경험 및 지금까지 알려진 그룹의 최적의 이전 경험에 기초하여 하나의 위치로 이동한다. POS는, 가능성들의 공간이 크다고 가정하면, 집단이 사회적 상호작용의 가장 기본적인 형태를 통해 문제들을 해결하는 다변수의 솔루션들, 패턴들을 발견할 수 있는 적응적 문화 모델을 따른다. PSO의 기반을 이루는 단순한 사회적인식 이론은 다음과 같은 3개의 원리들: 평가(자극들을 평가하기 위한 경향으로, 학습은 유기체가 이끌리거나 멀어지는 환경의 피처들을 평가하거나 구별할 수 없으면 발생할 수 없다), 비교(개체들은 일정한 기준들로 자신들과 이웃들 비교하고 다른 것들보다 우월한 것들을 모방하고 따른다), 및 모방(행동을 맹목적으로 모방하기보다는 목적을 인식하고 적합할 때에만 상기 행동을 실행하는 것을 실질적으로 의미하는 다른 개체들의 관점을 갖는 것)에 기초한다. 케네디 및 알버트에 의해 원래 제안된 것처럼, PSO는 각각이 잠재적인 솔루션을 나타내는 입자들의 군집에 관한 것이고, 최적의 솔루션들을 찾아서 문제 공간들을 반복적으로 돌아다닌다. 유전적 알고리즘(GA)처럼, 시스템은 랜덤 솔루션(입자들)의 집단으로 초기화된다. 하지만, GA와 달리, 각 입자는 또한 문제 공간에서 탐색을 통해 상기 입자를 인도하는 랜덤 속도로 할당된다. 최적화는 개개의 최적 위치(p최적) 및 군집의 전역적인(global) 최적 위치(g최적) 쪽으로 각 입자의 (가속하는) 속도를 변경함으로써 발생한다. 입자 군집 구현들은 일반적으로 전역적인 최적(g최적) 및 국부적인(local) 최적(l최적) PSO들로 알려진 2개의 사회성 측정 원리들 중 하나를 따른다. 이러한 2개의 타입들은 다음의 섹션들에서 간략하게 논의된다.
전역적인 최적 PSO에서, 각 입자는 개념적으로 매 다른 입자에 접속되고, 각 입자의 이웃은 전체 군집이라고 언급될 수 있다. 이러한 토폴리지를 사용하는 효과는 각 입자가 최적으로 수행되는 전체 군집 집단 중 임의의 구성원에 영향을 받는 것이다.
국부적인 최적 PSO에서, 이웃은 (개체 자체를 포함하는) 각 개체에 대해 생성되고, 그리고 개체의 k 최근접 이웃이다. 이러한 토폴로지의 단순한 예는, 입자 i가 입자들 i-1, i, i+1 중 최적의 입자에 의해 영향을 받을 수 있는 k=2(링 토폴로지)이다. 즉, 각 입자는 상기 환경의 국부적인 지식에 기초하여 영향을 받는다.
개체와 공동체의 성공의 방향으로 개개인의 성향을 조정하기 원하기에, p최적 및 g최적의 존재는 갱신 속도 등식에서 필요하다. 사회학적 관점으로부터, p최적은 자전적인 기억 및 "단순한 노스텔지어(simple nostalgia)"라도 불리는 것과 관련된 속도 조정을 닮고, 이 "단순한 노스텔지어"는 개체가 과거에 이미 경험한 최적의 장소로 되돌아가는 것을 추구하는 것이다. 대안으로, g최적은 알려진 지식 또는 개체가 모방하는 것을 추구하는 그룹의 규범과 유사하다. 문헌적으로, 그룹의 규범은 또한 "사회적 지식(social knowledge)"으로 언급된다. 속도 갱신은 다음의 수식을 사용하여 발생된다:
각 반복에서, 입자의 속도를 갱신한 후, 각 입자는 문제 공간 내의 이전의 위치에 기초하여 자신의 위치 및 다음의 수식을 사용하여 새롭게 갱신된 속도를 조정한다.
여기서,
여기에서 PSO의 전역적인 버전을 구현하기 위한 알고리즘이 서술된다:
1: 랜덤 속도들을 갖는 입자들의 집단 및 상기 문제 공간에서의 d 치수상의 위치들을 개시한다.
2: 최대변경이 도달되거나 충분히 양호한 적합도가 달성되는 동안 실행한다.
3: 각 입자에 대한 적합도 함수를 평가한다.
4: 입자의 적합도와 입자의 p최적을 비교한다. 현재값이 p최적보다 더 양호하면, d-차원 공간에서 현재 입자에 p최적을 설정한다.
5: 적합도 평가와 집단의 전체 이전의 최적을 비교한다. 현재 값이 g최적보다 더 양호하면, 현재 입자에 g최적을 설정한다.,
6: 수식 (1) 및 수식 (2)에 따라 상기 입자의 속도 및 위치를 변경시킨다.
7: 잠시 종료한다.
8: g최적 입자는 최적화 프로세스를 통해 달성된 충분히 양호한 적합도이다.
군집에서의 입자들의 수는 입자의 초기 다양성을 정의한다. 많은 수의 입자들이 문제 공간의 더 많은 섹션들을 커버하는 것을 돕는 반면에, 계산상의 복잡도를 증가시키고 랜덤 서치에 대한 PSO를 열화시킨다. 경험적인 학습들은, 10 내지 30개의 입자들 사이의 초기 집단을 갖는 작은 군집이 양호한 솔루션들을 찾기에 충분하다는 것을 보여준다. 하지만, 상기 군집의 크기는 문제 의존적이고 탐색 공간의 거칠기 또는 평탄함은 실제로 군집에서의 입자들의 수를 정의한다.
이웃의 크기는 얼마나 많은 입자들이 서로 상호작용하는지를 정의한다. 많은 이웃을 갖는 PSO들은 빠르게 수렴하지만, 작은 크기를 갖는 이웃들은 국부적으로 최적화될 가능성이 작다. 문헌에 따라, 작은 이웃 크기로 시작하고 상기 이웃의 둘레를 반복적으로 증가시킴으로써, 빠른 수렴을 갖는 초기의 높은 다양성이 명확해지는 접근이 제안된다.
수식 (1)에서, 가속도 계수 및 는 입자의 속도 벡터의 노스텔지어 및 사회적 컴포넌트들의 영향을 제어한다. 일반적으로, 및 의 값들은 경험적으로 발견되고, 및 에 대한 낮은 값들은 매끄러운 입자 이동을 야기하는 반면에, 높은 값들은 다른 입자들 쪽으로 더 빠른 가속 및 갑작스러운 이동을 야기한다. 상기 탐색이 속도 등식의 컴포넌트들 주변의 모든 영역들을 덮도록 및 모두를 2.0으로 설정하는 것은 타당하다. 또한, 많은 연구들에서, 1.49445의 값은 수축 인자(constriction factor)를 사용하여 수렴을 확실하게 하도록 사용된다.
PSO와 관련되는 하나의 문제는 높은 수렴 속도이다. 높은 수렴 속도는 최적화 프로세스의 속도를 높이지만, 문제 공간의 많은 영역들이 검토되지 못하게 하는 철저하지 못한 탐색을 초래할 수 있다. 최적화 알고리즘이 문제 공간을 잘 탐색하는 방법을 정의하는 2개의 특성들이 존재한다: 이것들은 탐색 및 개발이라고 언급된다. 더 양호한 최적 상태를 찾기 위해, 문제 공간의 서로 다른 영역들을 찾는 능력은 탐색이라고 언급되고, 후보 솔루션을 개선하기 위해 유망 지역에 초점을 맞추는 능력은 개발이라고 언급된다. 양호한 최적화 알고리즘을 제공하기 위해, 이러한 2개의 목표들 사이의 잘 정의된 균형이 존재해야한다. 이러한 균형의 밸런스를 유지하는 것을 돕는 PSO의 서로 다른 변화들은 아래에서 제공된다.
각 입자는 입자의 속도 벡터를 사용하여 문제 공간을 통해 이동한다. PSO 알고리즘은, 상기 입자가 문제 공간의 매 차원으로 이동할 수 있는 방식으로 속도를 조정한다. 이전에 논의된 속도 식(수식 1)은, 진동이 더 넓어질수록 탐색하려는 경향을 갖는다. 상기 속도를 줄이기 위해 일반적으로 사용되는 한가지 방법은 개체 i에 대한 각 치수 d를 초과하는 것을 막는 것이다.
속도 클램핑을 제거하는 것을 돕는 것과 함께 상기 군집의 탐색 및 개발을 가능하게 하는 매커니즘으로서 관성 중량을 사용한 PSO 버전이 사용되었다. 관성 중량, 은, 얼마나 많은 이전의 이동 방향의 기억이 g최적 PSO에 대해 속도 갱신 수식 (1)을 (수식 4)로 변경시키는 입자의 새로운 속도를 제어하는지를 제어한다.
는 입자의 속도를 시간에 대해 감속하도록 할 것이다. 에 대해 더 큰 값들은 상기 입자들이 문제 공간을 더 용이하게 탐색하는 것과 솔루션에 대한 다양성을 개선하는 것을 돕지만, 에 대해 더 작은 값들은 상기 알고리즘이 더 상세하게 국부적인 이웃들을 탐색하는 것을 돕는다. 하지만, 너무 작은 값들은 군집 탐색 능력을 무력하게 한다.
관성 중량의 유사한 접근은 탐색-개발 균형을 결정하고, 상기 관성 중량을 를 배제하고, 그리고 속도 클램핑을 제거하기 위해 사용되었다. 이러한 접근에서, 속도들은 상수 이고, 는 수축 계수로서 언급된다. 치수 j에 대한 입자 i의 속도 갱신 수식 (1)은:
여기서,
상수 를 만족시킴으로써, 상기 군집은 안정점으로의 수렴되도록 보장된다. 파라미터 k는 탐색 또는 개발하기 위한 군집의 능력을 제어한다. 0에 근접한 k의 값들에 대해, 군집은 더 빠르게 수렴하지만, 1에 근접한 k는 더 높은 탐색 정도를 구비하여 더 느리게 수렴한다. 일반적으로, k는 최적화동안 상수로서 고려되지만, 하지만 일부 탐색자들은 초기의 높은 탐색을 제공하기 위해 초기 탐색 위상들에서 하나에 인접한 값을 구비한 k를 사용했고, 이후 위상들에서 더 국부적인 개발을 제공하기 위해 0에 근접하도록 값을 감소시켰다.
상기에서 논의된 것처럼, 입자 군집 최적화에서, 일반적으로 각 입자는 당면 문제에 대한 잠재적인 솔루션을 나타낸다. 이러한 솔루션들은, 최적의 성능에 대한 그들 자신의 지식 및 위상학적으로 가까운 다른 입자들의 이용가능한 이웃하는 지식을 이용함으로써 자신들을 개선시키는 시도를 한다. 서로 다른 제한들에 관련하여 폐다각형에서 카메라들의 최적의 배치를 발견하기 위해, 식별되어야할 가장 중요한 것은 서로 다른 입자들에 대한 솔루션을 나타내는 것이다. 이후에, 유효한 솔루션의 경계 기준이 정의되어야 한다.
카메라들의 배열을 나타내기 고정된 길이 입자를 사용한다. 따라서, 특정 레이아웃에서 n 카메라들을 배열하기 위해, 상기 군집의 각 입자는 n 개의 유전자들로 구성되어야 하고, 각 유전자는 카메라의 모델 정보와 함께 카메라들 중 하나의 방향 및 위치를 포함한다. 입자 인코딩은 도 9에서 도시된다. 각 유전자는 특정 모델의 고유한 파라미터들에 관한 추가 정보를 포함하는 카메라 모델과 관련된다. 이러한 파라미터들은 카메라 콘, 가시성 및 각 카메라의 부분적인 커버 영역의 계산에서 또한 사용될 것이다.
PSO 알고리즘의 초기 위상에서, NC개의 입자들이 생성되고 무작위적으로 초기화된다. 불필요한 계산 비용을 방지하기 위해, 실행가능한 (유효한) 솔루션들 만을 생성한다. 그러한 솔루션(들)의 유효성을 확인하기 위해, 먼저 내부 다각형(홀들)을 배제한 주요한 외부 다각형 내에 카메라들을 배치시키기 위해 초기화 프로세스를 강제한다. 이러한 방식으로, 어떠한 카메라도 낭비되지 않는다. 컴퓨터 그래픽들에서, 이러한 프로세스는 히트-테스팅(Hit-testing)이라 언급된다. 히트-테스팅에 대해, 단순하고 효율적인 알고리즘이 (y 좌표를 고정시키고 x 좌표를 증가시키는) 준-무한 수평선이 테스트 포인트로부터 방출되는 단순하고 효율적인 알고리즘들이 사용되었고, 얼마나 많은 에지들이 상기 수평선을 횡단하는지를 세고, 각 횡단에서 상기 선 내부와 외부 사이를 변경시킴으로써, 상기 포인트가 상기 다각형 내부에 있는지 또는 없는지가 결정된다. 이러한 단계들 어떻게 수행되는지에 대한 개요가 아래에서 도시된다.
히트
테스팅
홀들을 구비한 다각형들에 대해, 상기의 절차는, 포인트가 폐다각형 내부에 정확하게 존재하고 상기 홀들 중 하나에 배치되지 않게 될 것을 확실하게 하도록 모든 다각형 홀들에 대해 사용되어야 한다. 요약하면, 각 입자의 유전자는 아래의 수식 (7)에서 언급된 제약들에 따라 초기화된다. 카메라 모델들은 사용자 요건들에 관련된 유전자들에 순차적으로 할당된다. 경사각은 (는 카메라의 수직 FoV)로 제한되는데, 이는 실제적인 상황들에서 수평선 주변으로 너무 많이 기울어지지 않고, 그 결과 경사각을 제한하여 계산상의 비용을 절감하도록 한다. 명백히, 팬 각도는 임의의 각도로 설정될 수 있고, 이는 장면의 모든 각도들을 시도하기 원할 수 있기 때문이다.
입자 초기화는 장면 상에서 이동하는 입자의 초기 경향을 결정하는 랜덤한 속도 벡터를 각 입자에 할당함으로써 완성될 것이다. 속도 벡터들을 초기화할 수 있도록, 먼저 각 속도의 상한 제한 및 하한 제한을 설정할 필요가 있다. 경험적인 관측들에 기초하여 다음의 제한들을 사용한다.
여기서 및 는 각각 x, y, 팬의 속도 벡터들 및 유전자의 각도를 나타낸다. 그리고는 다각형의 꼭지점들의 최대 및 최소 (x,y) 좌표들을 발견함으로써 간단하게 계산될 수 있는 외부 다각형 주변의 구속 상자(bounding box)(최소 구속 상자)를 나타낸다. 최종적으로, 입자들의 유전자들의 가속 벡터들은 다음의 수식들을 사용하여 계산될 수 있다.
갱신하는 입자의 속도들에서 주요 사상은 각 입자가 어떻게 더 양호한 입자로부터 학습할 수 있는가에 있다. 본 발명의 방법에서, 학습 프로세스는 더 양호하게 수행하는 입자들에 유사하게 되도록 상기 입자를 개선시킴으로써 일어나고, 유사한 유전자들(동일한 타입의 카메라들을 갖는 유전자들)을 계속해서 함께 수렴시킴으로써 학습 프로세스를 행한다. 이것은 각 유전자의 속도가 더 양호하게 수행하는 유전자 쪽으로 강요되는 것을 의미한다. 이러한 두개의 유전자들 사이의 틈을 채우기 위해 각 치수(위치, 팬 및 경사)에서의 속도들을 달성하기 위해 학습 프로세스를 행한다.
여기서,
p최적은 지금까지 상기 유전자의 최적의 수행이다(개체 최적);
l최적은 지금까지 이웃의 최적으로 수행하는 입자의 유전자이다(국부적으로 최적);
상기에서 언급된 것처럼, 새로운 속도들을 계산한 후, 넓은 진동 효과를 방지하기 위해 정의된 경계값들을 갖는 속도들을 클램핑하는 것이 요구된다. 수식 (8)에서 변수들을 사용하여, 다음과 같은 제한된 속도들을 갖는다.
각 카메라에 대한 커버리지는 특정 장면에서의 점에 대한 가시성 다각형 및 카메라 FoV 콘의 기하학적 교차 지점을 산출함으로써 계산된다. 발생된 다각형은, 어떤 점들이 요구된 다각형 평면도에서의 특정 카메라의 일정한 자세 및 배향을 통해 보여질 수 있는 지에 대한 정보를 제공할 수 있다. 또한, 각 카메라에 대한 가시성의 시야 영역을 계산할 필요가 있다. 결합되어 교차된 다각형들의 이러한 계산된 영역은 최적화 목적을 위해 이후에 사용될 수 있다. 다각형의 영역을 계산하기 위해, 각 라인의 세그먼트와 x-축 사이에 존재하는 영역들을 간단하게 합산할 수 있다.
각 입자에 대한 적합도 함수는 각 Rol에서 커버된 영역 및 상기 평면도의 전체 영역에 기초하여 계산된다. 서로 다른 Rol 타입들은 입자의 적합도에 서로 다르게 기여한다. 따라서, 카메라들의 각 순열에 대한 커버리지 및 Rol들을 계산할 필요가 있다. 예를 들어, 3대의 카메라들 및 2개의 Rol들을 갖는다면, 상기 입자의 전체적인 적합도를 평가하기 위해 커버리지 계산의 3 x 2 순열을 수행할 필요가 있다. 문제 정의가 일부 Rol들의 커버리지를 최대화하는 것과 다른 Rol들의 최소화하는 것을 필요로하기에, 전체 커버리지는 모든 리턴된 계산된 적합도 값들을 합산함으로써 계산된다. 서로 다른 Rol들에 대한 커버리지를 계산할 때 고려되어야만 하는 한가지 중요한 양상은 겹치는 시야들의 효과를 폐기하도록 모든 커버된 영역들을 함께 결합할 필요가 있는 것이다. 이것은 각 Rol에 기여하는 모든 커버리지 형상들을 결합하고 최종적으로 Rol의 특정 제약들을 적용함으로써 행해진다. Rol의 특정 적합도 값을 계산한 후, 전체 적합도는 이러한 값들의 평균과 상기 장면의 전체 영역을 곱하고 처리되지 않은 전체 커버리지를 상기 곱한 것에 더함으로써 계산된다. 이러한 절차는 다음의 알고리즘에서 서술된다.
적합도 갱신:
이러한 방식으로, Rol 커버리지를 최대화하는 것이 최우선순위이고, 전체 커버리지를 최대화하는 것이 두번째 우선순위이다.
단순한 모니터링 영역들에 대해, 즉, (도 1-3에서는 서술되지만 도 4에서는 표시되지 않은) 상기 모니터링 영역을 모니터링하는 하나보다 많은 카메라에 대한 입사 화각이 필요치 않는 영역들에 대해, 만족되어야할 가장 중요한 요건은 적어도 하나의 카메라에 의해 충족되어야 할 해상도 임계치이다. 그렇게 하도록, 요구된 해상도 임계치를 구비한 가시 영역을 발견하기 위해 각 유전자(카메라)의 FoV 콘을 재계산해야하고, 이후 이전의 섹션에서 서술된 일반적인 콘 계산은 기하학적 가시성을 발견하기 위해 사용될 것이다. 최종적으로, 기하학적 영역은 계산되어 적합도 값으로 부가될 것이다.
(도 3에서 도시되지 않은) 비 모니터링 영역들은 어떤 카메라에도 보여지지 않는다. 따라서, 비 모니터링 영역들에 대한 적합도의 계산은, 최종적으로 계산된 영역이 적합도 값으로부터 빼져야하는 것을 제외하곤 단순한 모니터링 영역들과 같다. 이것은 상기 적합도 함수에 대한 패널티 값으로 작용하고, 그런 이유로 상기 입자들이 이러한 영역들을 커버하는 카메라 배열들을 피하도록 강제한다.
(도 4에서 서술된 것처럼) 하나보다 많은 입사 화각을 구비한 모니터링 영역들에 대해, 중요한 것은 각 카메라가 자신을 통해 상기 영역을 보는 각도이다. 이러한 종류의 영역들에 대한 적합도 값을 계산하기 위해, 카메라들(도 10에서 벡터 R)과 영역의 법선 벡터(도 10에서 벡터 N) 사이의 각이 요구된 입사 화각이하인 카메라들만이 적합도 계산에 기여해야 한다.
이 각도는 다음과 같이 벡터들 R 및 N의 내적(dot product)을 사용하여 계산될 수 있다.
여기서,
N은 Rol의 중심을 통과하고 Rol 라인에 수직인 법선 벡터이다.
속도들이 갱신된 이후에, 입자들은 실제로 이동해야 한다. 입자 이동은 상기 유전자의 다음 위치, 팬 및 경사 각도들에 영향을 미치는 입자 이동에 관련된 속도에 관련한 각 유전자를 이동시킴으로써 수행된다. 고려할 한가지 양상은, 상기 입자의 이러한 움직임이 경계를 넘어서는 움직임으로 이어지지 않아야 한다. 그것이 발생한 경우에는, 움직임을 조정할 필요가 있다. 그것에 대해, 2가지 주요 방법들로 속도 벡터를 갱신하는데, 첫 번째로는 그 값을 (x 또는 y 방향 또는 둘 모두의 방향으로) 둘로 나누는 것; 두 번째로는 상술된 교정 방법이 성공적이지 않으면, 유효한 움직임을 생성하기 위해 (x 또는 y 방향 또는 둘 모두에서) 속도 벡터를 반영한다. 두 가지 경우들에서, 속도의 이러한 변화는 영구적이지 않고, 유전자가 유효하지 않은 움직임으로부터 벗어날 수 있도록 단 한번만 영향을 미칠 것이다. 틸트 및 팬 각도들에 대해, 그러한 제한들은 적용하지 않는다.
2개의 입자들이 상당히 가깝게 배치되었다면, 2개의 입자들은 동일한 지역에 존재하는 것으로 고려된다. 근접 배치를 2개의 서로 다른 입자들의 각각의 유사한 유전자 사이의 물리적 거리로서 특정하고, 이를 통해 각 대응하는 유전자 사이의 물리적 거리는 특정 범위보다 작아야 하는 것을 의미한다. 이러한 범위는 일정 단계(본 경우는 20)만큼 나눠진 외부 다각형의 구속 상자의 직경으로 정의된다. 근접 측정에서 팬 각도 및 경사 각도를 포함하지 않는바, 이는 넓은 범위의 배향 선택들을 갖지만 여전히 상당하게 유사한 배열을 갖는 한 세트의 유전자들로부터 구성된 국부적인 최적으로부터 이득을 얻을 수 있는 지역을 형성하기 위해 유전자들을 물리적으로 가깝게 두지만 팬 각고 및 경사 각도 면에서는 변할 수 있기를 바라기 때문이다.
이러한 지역의 선택은 아래처럼 도시된다:
지역 선택
하나의 입자의 클러스터를 생성함으로써 시작하고 상당히 가까운 입자들을 하나의 입자의 클러스터들에 부가함으로써 지속된다. 이러한 과정은 군집에서의 모든 비군집 입자들에 대해 반복될 것이다.
당업자는 본 발명이 어떤 수단에 의해서도 상술된 실시예들을 제한하지 않는 것으로 인식한다. 반대로, 많은 수정들 및 변형들은 첨부된 청구 범위 내에서 가능할 것이다. 예를 들어, 카메라 피처들은, 적합도 함수의 반복에서 변경될 수 있는 더 많은 피처들, 예를 들어, 카메라의 센서 크기를 포함할 수 있다. 센서의 크기는 카메라의 시야를 결정하고 또한 카메라의 해상도에 영향을 미치는 파라미터들 중 하나이다. 또한, 적합도 함수를 반복하는 동안, 임의의 수의 상술된 변경가능한 피처들(예를 들어, 위치, 배향, 카메라들의 수, 카메라의 줌 레벨 등)이 모니터링 카메라들에 대한 각 반복에서 변경될 수 있다. 상술된 것은 가능한 변경 기법들의 일부를 단지 예시화한 것이다.
Claims (12)
- 영역(106) 내의 하나 이상의 모니터링 카메라들(102, 408)에 대한 위치 및 배향을 선택하는 방법에 있어서,
상기 영역은 적어도 모니터링 영역(108, 402) 및 비-모니터링 영역(302)을 포함하고, 상기 방법은,
상기 영역(106)에 관련한 데이터를 프로세서에 의해 수신하는 단계(S502)와;
상기 데이터를 사용하여 가상 영역을 상기 프로세서 의해 모델링하는 단계(S504)와;
적합도 함수(fitness function)의 반복들(iterations)을 상기 프로세서에 의해 평가하는 단계(S506) - 상기 적합도 함수는 상기 하나 이상의 모니터링 카메라들(102, 408)에 대한 시뮬레이트된 커버리지 영역을 계산하고 상기 모니터링 영역(108, 402)에 대한 시뮬레이트된 입사 화각(simulated view angle of incidence)(112, 412)을 계산하기 위해 상기 가상 영역 내의 상기 하나 이상의 모니터링 카메라들(102, 408)의 위치 및 배향을 포함하고 - 와; 그리고
상기 적합도 함수에 대한 적합한(fitted) 솔루션을 상기 프로세서에 의해 선택하는 단계(S508)를 포함하고,
상기 적합한 솔루션은 상기 하나 이상의 모니터링 카메라들(102, 408)의 위치 및 배향을 포함하고, 상기 선택하는 단계는 상기 하나 이상의 모니터링 카메라들(102, 408)에 대한 상기 계산된 시뮬레이트된 커버리지 영역(602, 702), 상기 모니터링 영역(108, 402)에 대한 상기 계산된 시뮬레이트된 입사 화각(112, 412), 및 상기 모니터링 영역(108, 402)에 대한 요구된 입사 화각에 기초하고,
상기 가상 영역 내의 상기 하나 이상의 모니터링 카메라들(102, 408) 중 적어도 하나의 위치 및 배향 중 적어도 하나는 각 반복에서 변경되고, 상기 적합도 함수의 반복들은, 상기 적합한 솔루션이 상기 모니터링 영역(108, 402)을 완전히 커버하고 상기 비-모니터링 영역(302)을 커버하지 않는 시뮬레이트된 커버리지 영역(602, 702)을 포함할 때까지 평가되고, 상기 적합한 솔루션은 상기 모니터링 영역(108, 402)에 대한 요구된 입사 화각(110, 404, 406)을 충족시키는 것을 특징으로 하는 모니터링 카메라들에 대한 위치 및 배향을 선택하는 방법. - 제1항에 있어서,
상기 적합한 솔루션을 선택하는 단계(S508)는 상기 모니터링 영역(108, 402)을 모니터링하는 상기 하나 이상의 모니터링 카메라들(102, 408) 중 적어도 하나에 의해 캡쳐되는 이미지에 대해 요구되는 해상도에 또한 기초하는 것을 특징으로 하는 모니터링 카메라들에 대한 위치 및 배향을 선택하는 방법. - 제1항에 있어서,
상기 영역(106)은 블랭크 영역(202)을 또한 포함하고, 상기 적합한 솔루션을 선택하는 단계(S508)는 모니터링되고 있는 상기 블랭크 영역(202)의 퍼센티지에 또한 기초하는 것을 특징으로 하는 모니터링 카메라들에 대한 위치 및 배향을 선택하는 방법. - 제1항에 있어서,
상기 적합도 함수는 다수의 모니터링 카메라들(102, 408)을 포함하고, 상기 적합한 솔루션도 또한 상기 다수의 모니터링 카메라들(103, 408)을 포함하는 것을 특징으로 하는 모니터링 카메라들에 대한 위치 및 배향을 선택하는 방법. - 제4항에 있어서,
상기 가상 영역 내의 상기 다수의 모니터링 카메라들(102, 408) 중 적어도 하나 및 상기 가상 영역 내의 상기 하나 이상의 모니터링 카메라들(102, 408) 중 적어도 하나의 위치와 배향은, 각 반복에서 변경되는 것을 특징으로 하는 모니터링 카메라들에 대한 위치 및 배향을 선택하는 방법. - 제1항에 있어서,
상기 적어도 하나의 모니터링 카메라들(102, 408)의 각각은 카메라 피처(camera feature)들을 포함하고, 상기 카메라 피처들은 시야(field of view) 및 줌 레벨 중 적어도 하나를 포함하고, 상기 적합한 솔루션은 상기 적어도 하나의 모니터링 카메라들(102, 408)의 카메라 피처들을 포함하는 것을 특징으로 하는 모니터링 카메라들에 대한 위치 및 배향을 선택하는 방법. - 제6항에 있어서,
상기 가상 영역 내의 상기 적어도 하나의 모니터링 카메라(102, 408)의 카메라 피처들 중 적어도 하나 및 상기 가상 영역 내의 상기 하나 이상의 모니터링 카메라들(102, 408) 중 적어도 하나의 위치 및 배향은, 각 반복에서 변경되는 것을 특징으로 하는 모니터링 카메라들에 대한 위치 및 배향을 선택하는 방법. - 제1항에 있어서,
상기 적합도 함수는 또한 적어도 2개의 모니터링 카메라들(102, 408)을 포함하고 그리고 상기 적합한 솔루션을 선택하는 단계(S508)는 또한 상기 적어도 두 개의 모니터링 카메라들(102, 408) 각각에 대하여 상기 모니터링 영역(402)에 대해 요구되는 입사 화각(404, 406)에 기초하는 것을 특징으로 하는 모니터링 카메라들에 대한 위치 및 배향을 선택하는 방법. - 제1항에 있어서,
상기 시뮬레이트된 커버리지 영역은 능동 에지 알고리즘을 사용하여 계산되는 것을 특징으로 하는 모니터링 카메라들에 대한 위치 및 배향을 선택하는 방법. - 제1항에 있어서,
각 반복에서의 상기 변경은 입자군 최적화(particle swarm optimization: PSO) 알고리즘에 의해 수행되는 것을 특징으로 하는 모니터링 카메라들에 대한 위치 및 배향을 선택하는 방법. - 프로세싱 능력들을 갖는 디바이스 상에서 실행될 때 제1항에 따라 상기 방법을 구현하는 프로그램을 기록한 컴퓨터 판독가능한 기록 매체.
- 영역(106) 내의 하나 이상의 모니터링 카메라들(102, 408)에 대한 위치 및 배향을 선택하는 시스템에 있어서,
상기 영역은 적어도 모니터링 영역(108, 402) 및 비-모니터링 영역(302)을 포함하고, 상기 시스템은,
상기 영역(106)에 관련한 데이터를 수신하고(S502);
상기 데이터를 사용하여 가상 영역을 모델링하고(S504);
적합한 솔루션을 계산하기 위해 적합도 함수의 반복들을 평가하고(S506) - 상기 적합도 함수는 상기 하나 이상의 모니터링 카메라들(102, 408)에 대한 시뮬레이트된 커버리지 영역을 계산하고 상기 모니터링 영역(108, 402)에 대한 시뮬레이트된 입사 화각(112, 412)을 계산하기 위해 상기 가상 영역 내의 상기 하나 이상의 모니터링 카메라들(102, 408)의 위치 및 배향을 포함하고 - ; 그리고
상기 적합도 함수에 대한 적합한 솔루션을 선택(S508)하도록 된 하나 이상의 컴퓨터 프로세서들을 포함하고,
상기 적합한 솔루션은 상기 하나 이상의 모니터링 카메라들(102, 408)의 위치 및 배향을 포함하고, 상기 선택은 상기 하나 이상의 모니터링 카메라들(102, 408)에 대한 상기 계산된 시뮬레이트된 커버리지 영역(602, 702), 상기 모니터링 영역(108, 402)에 대한 상기 계산된 시뮬레이트된 입사 화각(112, 412), 및 상기 모니터링 영역(108, 402)에 대한 요구된 입사 화각(110, 404, 406)에 기초하고,
상기 가상 영역 내의 상기 하나 이상의 모니터링 카메라들(102, 408) 중 적어도 하나의 위치 및 배향 중 적어도 하나는 각 반복에서 변경되고, 상기 적합도 함수의 반복들은, 상기 적합한 솔루션이 상기 모니터링 영역(108, 402)을 완전히 커버하고 상기 비-모니터링 영역(302)을 커버하지 않는 시뮬레이트된 커버리지 영역(602, 702)을 포함할 때까지 평가되고, 상기 적합한 솔루션은 상기 모니터링 영역(108, 402)에 대해 요구되는 입사 화각(110, 404, 406)을 충족시키는 것을 특징으로 하는 모니터링 카메라들에 대한 위치 및 배향을 선택하는 시스템.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP13179569.2A EP2835792B1 (en) | 2013-08-07 | 2013-08-07 | Method and system for selecting position and orientation for a monitoring camera |
EP13179569.2 | 2013-08-07 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150017687A true KR20150017687A (ko) | 2015-02-17 |
KR101710149B1 KR101710149B1 (ko) | 2017-02-24 |
Family
ID=48948291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140101899A KR101710149B1 (ko) | 2013-08-07 | 2014-08-07 | 모니터링 카메라에 대한 위치와 배향을 선택하는 방법 및 시스템 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9536019B2 (ko) |
EP (1) | EP2835792B1 (ko) |
JP (1) | JP6109791B2 (ko) |
KR (1) | KR101710149B1 (ko) |
CN (1) | CN104349134B (ko) |
TW (1) | TWI624181B (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024129708A1 (en) * | 2022-12-13 | 2024-06-20 | Schlumberger Technology Corporation | Quantification of sensor coverage using synthetic modeling and uses of the quantification |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2835792B1 (en) * | 2013-08-07 | 2016-10-05 | Axis AB | Method and system for selecting position and orientation for a monitoring camera |
CN103630072B (zh) * | 2013-10-25 | 2016-01-13 | 大连理工大学 | 双目视觉测量系统中摄像机的布局优化方法 |
KR101701974B1 (ko) * | 2015-11-10 | 2017-02-03 | 주식회사 슈어컴 | 감시 카메라의 los 시뮬레이션 장치 및 방법 |
CN108259817B (zh) * | 2016-12-28 | 2021-03-19 | 南宁富桂精密工业有限公司 | 图片拍摄系统及方法 |
CN106789312A (zh) * | 2016-12-30 | 2017-05-31 | 南京理工大学 | 一种基于云计算的安全资源优化分配方法 |
CN107356975B (zh) * | 2017-07-12 | 2019-08-13 | 电子科技大学 | 基于粒子群优化算法的水下二维空间主动电场定位方法 |
TWI636428B (zh) * | 2017-12-29 | 2018-09-21 | 晶睿通訊股份有限公司 | 影像分析方法、攝影機及其攝影系統 |
CN108174162B (zh) * | 2018-01-05 | 2019-12-31 | 河南大学 | 一种基于签到poi的城市视频监控空间优化方法 |
CN108989796A (zh) | 2018-08-09 | 2018-12-11 | 浙江大华技术股份有限公司 | 一种图像采集设备选择方法及装置 |
CN109308547B (zh) * | 2018-09-01 | 2020-09-15 | 中国人民解放军61646部队 | 一种面阵凝视型光学遥感卫星区域覆盖路径优化方法 |
TWI681166B (zh) * | 2018-12-05 | 2020-01-01 | 晶睿通訊股份有限公司 | 資訊量測方法及資訊量測系統 |
CN111242271A (zh) * | 2020-01-13 | 2020-06-05 | 北京工业大学 | 一种基于改进惯性权重粒子群算法的装配序列规划方法 |
CN111405253B (zh) * | 2020-04-16 | 2022-04-26 | 国网湖南省电力有限公司 | 户外变电站一次设备监视摄像头选点布置方法、系统及介质 |
US12053875B2 (en) * | 2021-01-07 | 2024-08-06 | Ford Global Technologies, Llc | Method and system for determining sensor placement for a workspace based on robot pose scenarios |
CN115529437A (zh) * | 2021-06-25 | 2022-12-27 | 青岛海信智慧生活科技股份有限公司 | 一种监控设备布置信息确定方法、装置、设备及介质 |
CN113489952B (zh) * | 2021-06-30 | 2022-03-22 | 电子科技大学 | 一种面向室内三维场景的视频监控设施布设方法 |
DE102021207641A1 (de) | 2021-07-16 | 2023-01-19 | Robert Bosch Gesellschaft mit beschränkter Haftung | Überwachungsvorrichtung mit einer Mehrzahl an Kameras, Verfahren und Computerprogramm zur Überwachung |
CN113674356B (zh) * | 2021-07-20 | 2024-08-02 | 浙江大华技术股份有限公司 | 相机筛选方法及相关装置 |
CN113645632B (zh) * | 2021-07-26 | 2023-11-07 | 长江大学 | 基于人工免疫优化和可视多边形算法的5g基站布局方法 |
US20230370579A1 (en) * | 2022-05-12 | 2023-11-16 | AiFi Corp | Methods of visual camera planning |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120307067A1 (en) * | 2011-06-01 | 2012-12-06 | Honeywell International Inc. | System and method for automatic camera placement |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5123085A (en) * | 1990-03-19 | 1992-06-16 | Sun Microsystems, Inc. | Method and apparatus for rendering anti-aliased polygons |
AU3249600A (en) * | 1999-03-18 | 2000-10-04 | Showbites, Inc. | Method for optimization of video coverage |
US20030058342A1 (en) | 2001-09-27 | 2003-03-27 | Koninklijke Philips Electronics N.V. | Optimal multi-camera setup for computer-based visual surveillance |
WO2003030550A1 (en) * | 2001-09-27 | 2003-04-10 | Koninklijke Philips Electronics N.V. | Optimal multi-camera setup for computer-based visual surveillance |
US7558762B2 (en) * | 2004-08-14 | 2009-07-07 | Hrl Laboratories, Llc | Multi-view cognitive swarm for object recognition and 3D tracking |
JP3915805B2 (ja) * | 2004-08-31 | 2007-05-16 | 住友電気工業株式会社 | 駐車場におけるカメラ設置条件の自動決定方法及び装置 |
US20080291278A1 (en) * | 2005-04-05 | 2008-11-27 | Objectvideo, Inc. | Wide-area site-based video surveillance system |
US8184157B2 (en) * | 2005-12-16 | 2012-05-22 | Siemens Corporation | Generalized multi-sensor planning and systems |
KR101187909B1 (ko) * | 2007-10-04 | 2012-10-05 | 삼성테크윈 주식회사 | 감시 카메라 시스템 |
US8345101B2 (en) | 2008-10-31 | 2013-01-01 | International Business Machines Corporation | Automatically calibrating regions of interest for video surveillance |
JP5190970B2 (ja) * | 2009-10-13 | 2013-04-24 | 国立大学法人 鹿児島大学 | 監視カメラ配置位置評価装置 |
JP5269002B2 (ja) * | 2010-06-28 | 2013-08-21 | 株式会社日立製作所 | カメラ配置決定支援装置 |
US9269245B2 (en) * | 2010-08-10 | 2016-02-23 | Lg Electronics Inc. | Region of interest based video synopsis |
US8514283B2 (en) * | 2010-09-20 | 2013-08-20 | Ajou University Industry Cooperation Foundation | Automatic vision sensor placement apparatus and method |
US8830230B2 (en) | 2011-01-31 | 2014-09-09 | Honeywell International Inc. | Sensor placement and analysis using a virtual environment |
EP2600316A1 (en) * | 2011-11-29 | 2013-06-05 | Inria Institut National de Recherche en Informatique et en Automatique | Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation |
EP2835792B1 (en) * | 2013-08-07 | 2016-10-05 | Axis AB | Method and system for selecting position and orientation for a monitoring camera |
US20160188756A1 (en) * | 2014-12-30 | 2016-06-30 | Invent.ly LLC | Deployment Strategy For Sensors Using Linked-Guard-Covers |
-
2013
- 2013-08-07 EP EP13179569.2A patent/EP2835792B1/en active Active
-
2014
- 2014-06-30 TW TW103122572A patent/TWI624181B/zh active
- 2014-07-21 CN CN201410347759.7A patent/CN104349134B/zh active Active
- 2014-07-28 JP JP2014152478A patent/JP6109791B2/ja active Active
- 2014-08-04 US US14/450,443 patent/US9536019B2/en active Active
- 2014-08-07 KR KR1020140101899A patent/KR101710149B1/ko active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120307067A1 (en) * | 2011-06-01 | 2012-12-06 | Honeywell International Inc. | System and method for automatic camera placement |
Non-Patent Citations (1)
Title |
---|
부분 외곽선 정보를 이용한 이동물체의 추적 알고리즘(2001.2.6일 공개) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024129708A1 (en) * | 2022-12-13 | 2024-06-20 | Schlumberger Technology Corporation | Quantification of sensor coverage using synthetic modeling and uses of the quantification |
Also Published As
Publication number | Publication date |
---|---|
EP2835792A1 (en) | 2015-02-11 |
US9536019B2 (en) | 2017-01-03 |
CN104349134B (zh) | 2018-08-17 |
TWI624181B (zh) | 2018-05-11 |
CN104349134A (zh) | 2015-02-11 |
KR101710149B1 (ko) | 2017-02-24 |
US20150046129A1 (en) | 2015-02-12 |
EP2835792B1 (en) | 2016-10-05 |
JP6109791B2 (ja) | 2017-04-05 |
TW201511568A (zh) | 2015-03-16 |
JP2015035806A (ja) | 2015-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101710149B1 (ko) | 모니터링 카메라에 대한 위치와 배향을 선택하는 방법 및 시스템 | |
JP6907325B2 (ja) | 内部空間の3dグリッド表現からの2d間取り図の抽出 | |
Morsly et al. | Particle swarm optimization inspired probability algorithm for optimal camera network placement | |
JP5153302B2 (ja) | 監視システムの性能を測定するためのコンピュータ実施される方法 | |
Yildiz et al. | Optimal camera placement for providing angular coverage in wireless video sensor networks | |
CN109564690A (zh) | 使用多向相机评估封闭空间的尺寸 | |
CN104867142B (zh) | 基于三维场景的导航方法 | |
Tang et al. | A joint global and local path planning optimization for UAV task scheduling towards crowd air monitoring | |
Liu et al. | Optimal camera planning under versatile user constraints in multi-camera image processing systems | |
KR102387797B1 (ko) | 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치 | |
Kaushik et al. | A grey wolf optimization based algorithm for optimum camera placement | |
Chrysostomou et al. | A bio-inspired multi-camera system for dynamic crowd analysis | |
Kirik et al. | The shortest time and/or the shortest path strategies in a CA FF pedestrian dynamics model | |
Hönig et al. | Dynamic multi-target coverage with robotic cameras | |
Lee et al. | DQN-based coverage maximization for mobile video camera networks | |
Khan et al. | Aerial camera network for observing moving targets | |
Hanay et al. | Distributed sensor deployment using potential fields | |
KR20220084805A (ko) | 모바일 비디오 카메라 네트워크를 위한 커버리지 최대화 방법 | |
Garg et al. | Real-Time Serviceable Path Planning using UAVs for Waterborne Vehicle Navigation during Floods | |
Mukundan et al. | Crowd simulation: Extended oriented bounding boxes for geometry and motion representation | |
CN113298847B (zh) | 基于视场感知的共识自主性追捕与逃逸方法和装置 | |
Morsly et al. | On the best interceptor placement for an optimally deployed visual sensor network | |
JP7291013B2 (ja) | カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム | |
CN115379386B (zh) | 基于狼群算法的无人机集群电磁频谱监测方法及装置 | |
Johansson et al. | Knowledge-based probability maps for covert pathfinding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |