[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101726475B1 - 카메라 계획 및 포지셔닝을 위한 통합 방법 - Google Patents

카메라 계획 및 포지셔닝을 위한 통합 방법 Download PDF

Info

Publication number
KR101726475B1
KR101726475B1 KR1020137016309A KR20137016309A KR101726475B1 KR 101726475 B1 KR101726475 B1 KR 101726475B1 KR 1020137016309 A KR1020137016309 A KR 1020137016309A KR 20137016309 A KR20137016309 A KR 20137016309A KR 101726475 B1 KR101726475 B1 KR 101726475B1
Authority
KR
South Korea
Prior art keywords
camera
surveillance camera
actual
image
screen
Prior art date
Application number
KR1020137016309A
Other languages
English (en)
Other versions
KR20130107334A (ko
Inventor
지안루카 폴레사
빈센조 지오다노
Original Assignee
알까뗄 루슨트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알까뗄 루슨트 filed Critical 알까뗄 루슨트
Publication of KR20130107334A publication Critical patent/KR20130107334A/ko
Application granted granted Critical
Publication of KR101726475B1 publication Critical patent/KR101726475B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명은 사전 결정된 영역을 모니터링하기 위해 카메라의 위치를 캘리브레이팅하기 위한 방법, 관련 시스템 및 관련 디바이스에 관한 것이다. 카메라는 통신 링크를 통해 원격 서버에 결합되고, 원격 서버는 카메라의 환경 내에 모니터링될 사전 결정된 영역에 대응하는 매체를 수신하는 것이 가능하다. 이 매체는 카메라에 의해 레코딩되어 통신 링크를 통해 원격 서버에 포워딩된다. 이 방법은 원격 서버가 사전 결정된 영역에 대응하는 매체를 카메라 포지셔닝 디바이스를 향해 포워딩하는 단계를 포함하고, 여기서 매체는 사전 결정된 영역에 복수의 실제 기준 마커를 포함한다. 카메라의 이미지-프레이밍에 대한, 복수의 실제 기준 마커 중 각각의 실제 기준 마커의 실제 위치가 포워딩된 매체 내에서 인식된다. 이어서, 카메라 위치 캘리브레이션 지령이 카메라의 이미지-프레이밍에 대한, 복수의 스크린 마커 중 각각의 스크린 마커의 사전 정의된 위치 - 사전 정의된 스크린 마커는 모니터링될 사전 결정된 영역을 정의함 - 와 카메라 포지셔닝 디바이스에 의해 결정된 바와 같은 카메라의 이미지-프레이밍에 대한, 복수의 실제 기준 마커 중 각각의 대응 실제 기준 마커의 실제 위치 사이의 차이에 기초하여 결정된다.

Description

카메라 계획 및 포지셔닝을 위한 통합 방법{AN INTEGRATED METHOD FOR CAMERA PLANNING AND POSITIONING}
본 발명은 청구항 1의 전제부에 따른 카메라의 위치를 캘리브레이팅하기 위한 방법, 청구항 3의 전제부에 따른 카메라의 위치를 캘리브레이팅하기 위한 시스템에 관한 것이다.
이러한 카메라의 위치를 캘리브레이팅하기 위한 방법은 이러한 방법이 카메라의 주위/환경 내의 사전 결정된 영역을 모니터링하기 위한 카메라의 위치의 캘리브레이팅에 관한 것인 기술 분야에 잘 알려져 있다. 이러한 카메라는 통상적으로 통신 링크를 통해 복수의 이러한 카메라를 관리하기 위해 원격 서버에 결합된다. 원격 서버는 카메라의 상기 주위/환경 내에서 모니터링될 사전 결정된 영역에 대응하는 매체를 수신하는 것이 가능하고, 여기서 이 매체는 카메라에 의해 레코딩되어 이후에 통신 링크를 통해 원격 서버에 포워딩된다. 원격 서버에서 수신된 매체는 원격 서버의 사이트에서, 상이한 영역을 각각 모니터링하는 복수의 다른 카메라의 매체와 함께 표시되고 검사될 수 있다.
"모니터링 계획", "설치 및 위탁" 및 "운영" 단계가 상이한 엔티티, 툴 및 프로세스에 의해 실행될 때, 데이터 불일치 및 비효율성을 생성하는 상당한 위험이 존재한다. 더욱이, 카메라 설치가 활동의 유형에 따라 상이한 엔지니어에 의해 수행될 때 부가의 비효율성이 발생되는데, 통상의 경우에 케이블 설치 엔지니어는 원하는 위치까지 케이블을 끌어당기고 케이블(통상적으로 이더넷을 지원함)을 종료시키고, 설치 엔지니어는 정의된 지지체 상에 카메라를 설치하고 마지막으로 구성 엔지니어는 카메라, 네트워크 접속을 구성할 필요가 있고 정확한 방향으로 카메라를 포지셔닝하고, 영역 모니터링 계획에서 결정된 바와 같이 모니터링될 사전 결정된 영역을 완전히 커버하는 사전 결정된 뷰를 갖게 하기 위해 카메라를 고정한다.
이 설치 및 캘리브레이션 작업은 하나의 프로파일로 조합될 수 있고, 이와 같이 함으로써 고도로 숙련된 엔지니어를 파견할 필요가 있고 따라서 전체 구현 비용이 증가할 수 있다.
더욱이, 노동 집약적 접근법과는 별개로, 이 설치 접근법은 매우 에러 경향이 있다. 일반적으로 각각의 카메라가 모니터링될 전체 영역의 사전 정의된 부분을 모니터링하는 이러한 영역 모니터링 계획에서 다수의 카메라가 모니터링될 전체 영역을 모니터링하기 위해 구성되지만, 모니터링되도록 의도된 사전 결정된 영역이 항상 카메라에 의해 커버되는 것은 아니다. 따라서, 카메라에 의해 커버되지 않는 모니터링될 전체 영역의 부분 및/또는 모든 카메라에 의해 모니터링된 영역에 중첩이 존재한다. 대안적으로, 심지어 잘못된 카메라가 어드레스된다.
본 발명의 목적은 상기 공지된 유형이지만 카메라의 위치의 캘리브레이팅이 더 효율적이고 에러 경향이 적은 방식으로 수행되는 방법, 시스템 및 관련 디바이스를 제공하는 것이다.
본 발명에 따르면, 이 목적은 청구항 1에 설명된 바와 같은 방법, 청구항 3에 설명된 바와 같은 시스템, 청구항 5에 설명된 바와 같은 관련 카메라 포지셔닝 디바이스, 청구항 7에 설명된 바와 같은 관련 원격 서버 및 청구항 10에 설명된 바와 같은 관련 카메라 포지셔닝 애플리케이션에 의해 성취된다.
실제로, 카메라(CAM)에 의해 레코딩된 매체를 먼저 원격 서버로부터 카메라 포지셔닝 디바이스(CPD)를 향해 포워딩함으로써 - 여기서 이 매체는 모니터링될 사전 결정된 영역에 대응하고, 이 매체는 모니터링될 사전 결정된 영역 내에 위치되고 모니터링될 환경을 레코딩함으로써 매체 내에 포함되는 복수의 실제 기준 마커를 포함함 -, 이어서 포워딩된 매체 내에서, 상기 카메라의 이미지-프레이밍에 대한, 복수의 실제 기준 마커 중 각각의 실제 기준 마커의 실제 위치를 인식함으로써, 그리고 이어서 상기 카메라의 이미지-프레이밍에 대한, 복수의 사전 정의된 스크린 마커 중 각각의 사전 정의된 스크린 마커의 위치 - 여기서 사전 정의된 스크린 마커는 모니터링될 사전 결정된 영역을 정의함 - 와 카메라 포지셔닝 디바이스에 의해 결정된 바와 같은 상기 카메라의 이미지-프레이밍에 대한, 상기 복수의 실제 기준 마커 중 각각의 대응 실제 기준 마커의 상기 실제 위치 사이의 차이에 기초하여 카메라 위치 캘리브레이션 지령을 결정함으로써 성취된다.
생성된 카메라 위치 캘리브레이션 지령은 기술자가 정확한 방식으로 카메라를 포지셔닝하는 것을 돕도록 의도되고, 여기서 기술자는 반복 방식으로 생성된 지령을 사용하여 복수의 실제 마커 및 복수의 스크린 마커의 대응 스크린 마커와 각각의 실제 마커를 최종적으로 일치시키기 위해 각각의 실제 마커와 대응 스크린 마커 사이의 차이를 감소시켜야 한다.
생성된 지령은 카메라가 실제로 모니터링될 사전 정의된 영역을 커버하도록 카메라를 정확하게 포지셔닝하기 위해, 기술자가 렌즈의 콤파스각, 기울기 및 줌 중 적어도 하나를 구성하는 것을 요구한다.
이러한 매체는 개별 이미지 또는 비디오를 포함할 수 있다.
카메라의 이미지-프레임에 대한 이러한 실제 위치는 레코딩된 매체 내의 포인트의 위치이고, 여기서 이 위치는 카메라의 이미지 프레이밍, 예를 들어 카메라의 이미지 프레이밍의 코너에 대한 x, y 위치에 기초하여 결정된다.
본 발명에 있어서, 적어도 하나의 기준 마커는 모니터링될 영역 내의 사전 결정된 위치에 위치된다. 모니터링될 이 영역은 카메라에 의해 레코딩되기 때문에, 각각의 기준 마커는 레코딩된 바와 같은 매체 내에 실제 기준 마커로서 포함된다. 이러한 실제 기준 마커의 위치는 카메라의 이미지 프레이밍에 대한 특정 위치에서 매체 내의 기준 마커의 위치이다.
본 발명의 다른 특정 실시예가 청구항 2 및 청구항 4 및 청구항 6에 설명된다.
유리하게는, 카메라의 고유 식별자와 지리학적 위치 식별자의 결합을 구성하는 것은 카메라를 고유하게 식별하는데 사용될 수 있어, 카메라에서 레코딩되어 조작자에 의해 모니터링된 매체에서 위치가 알려지지 않거나 잘못 식별되는 상황을 방지한다. 이러한 결합은 저장 디바이스 내에 유지될 수 있다.
이러한 고유의 카메라 식별자는 MAC 어드레스와 같은 통신 어드레스 또는 카메라의 시리얼 번호와 같은 임의의 다른 고유 식별자 또는 이더넷 링크를 통해 액세스 가능하고 카메라 상에 부착된 라벨 상에 또한 보고된 카메라 상에 미리 설치된 다른 고유 코드일 수 있고, 바코드 리더 또는 심지어 RFID로 판독 가능한 라벨이 구성될 수 있다.
지리학적 위치 식별자는 카메라의 GPS 위치 또는 카메라 포지셔닝 디바이스가 접속되는 등인 모바일 통신 네트워크의 로컬화 수단에 의해 결정된 위치일 수 있다.
초기에 MAC 어드레스 또는 IP 어드레스와 같은 카메라 통신 어드레스를 지리학적 위치 식별자와 결합함으로써, 카메라에 의해 제공된 매체를 모니터링할 때 카메라 및 그 위치가 고유하게 식별될 수 있고, 더욱이 임의의 카메라가 설치 또는 임의의 유지 보수 활동의 경우에 이 결합을 사용하여 고유하게 어드레스될 수 있다.
카메라 계획 및 포지셔닝을 위한 본 발명의 통합된 방법의 추가의 특정 실시예는 첨부된 청구범위에 설명되어 있다.
청구범위에 사용된 용어 '포함하는'은 그 다음에 열거된 수단에 한정되는 것으로서 해석되어서는 안된다는 것이 주지된다. 따라서, 표현 '수단 A 및 B를 포함하는 디바이스'의 범주는 구성 요소 A 및 B만으로 구성되는 디바이스에 한정되어서는 안된다. 이는 본 발명과 관련하여, 단지 디바이스의 관련 구성 요소는 A 및 B라는 것을 의미한다.
유사하게, 청구범위에 또한 사용된 용어 '결합된'은 단지 직접적인 접속에 한정되는 것으로서 해석되어서는 안된다. 따라서, 표현 '디바이스 B에 결합된 디바이스 A'의 범주는 디바이스 A의 출력이 디바이스 B의 입력에 직접 접속된 디바이스 또는 시스템에 한정되어서는 안된다. 이는 다른 디바이스 또는 수단을 포함하는 경로일 수 있는 경로가 A의 출력과 B의 입력 사이에 존재한다는 것을 의미한다.
본 발명의 상기 및 다른 목적 및 특징은 더 명백해질 것이고 본 발명 자체는 첨부 도면과 관련하여 취한 이하의 실시예의 설명을 참조하여 가장 양호하게 이해될 수 있을 것이다.
도 1은 카메라(CAM) 및 원격 서버(RS) 및 카메라 포지셔닝 디바이스(CPD)를 포함하는 사전 결정된 영역을 모니터링하기 위한 카메라(CAM)의 위치를 캘리브레이팅하기 위한 시스템을 도시하는 도면.
도 2는 도 1에 제시된 바와 같은 카메라 포지셔닝 디바이스(CPD)의 기능 표현 및 원격 서버(RS)의 기능 표현을 포함하는 카메라(CAM)의 위치를 캘리브레이팅하기 위한 시스템의 기능적 표현을 도시하는 도면.
이하의 단락에서, 도 1 및 도 2를 참조하여, 시스템의 구현예가 설명된다. 제 2 단락에서, 설명된 요소들 사이의 모든 접속이 정의된다.
이어서, 도 2에 제시된 바와 같은 설명된 시스템의 모든 관련 기능적 수단이 설명되고 모든 상호 접속의 설명으로 이어진다. 이어지는 단락에서, 통신 시스템의 실제 실행이 설명된다.
사전 결정된 영역을 모니터링하기 위한 카메라(CAM)의 위치를 캘리브레이팅하기 위한 시스템의 제 1 본질적인 요소는 예를 들어 카메라에 의해 레코딩된 매체가 원격 위치에서 조작자에 의해 관찰되는 특정 도시 내의 영역을 모니터링하기 위한 감시 카메라인 카메라(CAM)이다. 조작자는 게다가 또한 도시의 다른 관련 부분을 모니터링하는 복수의 다른 감시 카메라에 의해 레코딩된 매체를 모니터링할 수도 있다.
이러한 감시 카메라는 벽 기둥 상에 장착될 수 있고 또는 다른 방식으로 모니터링될 사전 결정된 영역을 감독하는 것이 가능하다.
이러한 영역을 모니터링하기 위한 이러한 시스템은 일반적으로 복수의 감시 카메라를 포함하지만, 명료화 및 간단화를 위해 단지 하나의 이러한 감시 카메라(CAM)만이 이 실시예에서 설명된다.
제 2 관련 요소는 카메라(CAM)의 환경 내에서 모니터링될 사전 결정된 영역에 대응하는 매체를 수신하도록 구성된 원격 서버(RS)이고, 여기서 이 매체는 카메라(CAM)에 의해 레코딩되어 통신 링크를 통해 원격 서버(RS)에 포워딩된다.
더욱이, 기술자가 이러한 카메라를 설치하고 적절하게 포지셔닝하는 것을 보조하기 위한 카메라 포지셔닝 디바이스(CPD)가 존재한다. 이러한 카메라 포지셔닝 디바이스는 스크린 및 스피커를 갖거나 카메라 포지셔닝 디바이스(CPD)의 사용자에게 카메라 포지셔닝 지령을 제시하는 스마트폰일 수 있다. 카메라 포지셔닝 디바이스(CPD)는 디바이스의 GPS 위치를 결정하기 위한 센서를 추가로 포함할 수 있다.
카메라 포지셔닝 디바이스(CPD)는 모든 측정이 카메라 포지셔닝 디바이스(CPD)로 행해져서 이들 측정이 카메라(CAM)에 대해 동일한 이러한 방식으로 연관된다. 카메라 포지셔닝 디바이스(CPD)는 예를 들어 몰드로 카메라 상에 장착될 수 있다.
카메라(CAM) 및 카메라 포지셔닝 디바이스(CPD)의 모두는 통신 링크(CN1)를 통해 원격 서버(RS)에 결합된다. 카메라와 원격 서버 사이의 결합은 카메라가 MAC 어드레스 및 IP 어드레스에 의해 식별되는 인터넷 접속일 수 있다. 카메라 포지셔닝 디바이스와 원격 서버(RS) 사이의 결합은 UMTS 또는 임의의 다른 모바일 데이터 네트워크(CN2)와 같은 모바일 데이터 접속에 의해 지원될 수 있다.
카메라 포지셔닝 디바이스(CPD)는 이들 사전 정의된 스크린 마커가 모니터링될 사전 결정된 영역을 정의하는 복수의 스크린 마커 중 각각의 스크린 마커의 상기 카메라의 이미지-프레이밍에 대한 사전 정의된 위치를 얻도록 구성된 통신부(CP)를 포함한다. 통신부(CP)는 카메라에 의해 레코딩되어 원격 서버(RS)에 의해 포워딩된 매체를 수신하도록 또한 구성된다. 카메라 포지셔닝 디바이스(CPD)는 게다가 포워딩된 매체 내에서 복수의 실제 기준 마커 중 각각의 실제 기준 마커의 카메라의 이미지-프레이밍에 대한 실제 위치를 결정하도록 구성된 이미지 분석부(IAP)를 포함한다. 카메라 포지셔닝 디바이스(CPD)는 복수의 스크린 마커 중 각각의 스크린 마커의 상기 카메라의 이미지-프레이밍에 대한 사전 정의된 위치 - 상기 사전 정의된 스크린 마커는 모니터링될 상기 사전 결정된 영역을 정의함 - 와 복수의 실제 기준 마커 중 각각의 대응하는 실제 기준 마커의 상기 카메라의 이미지-프레이밍에 대한 실제 위치(카메라 포지셔닝 디바이스에 의해 결정된 바와 같은) 사이의 차이에 기초하여 카메라 위치 캘리브레이션 지령을 결정하는 것이 가능한 프로세싱부(PP)를 추가로 포함한다. 더욱이, 카메라 포지셔닝 디바이스(CPD), 즉 스마트폰은 카메라 포지셔닝 디바이스(CPD)의 사용자, 즉 카메라를 포지셔닝하는 기술자에 카메라 위치 캘리브레이션/조정 지령을 제시하는 것이 가능한 지령 제시부(IPP)를 포함한다.
이러한 지령 지시부(IPP)는 그림, 기록된 지령 또는 이들의 조합을 사용하여 스크린 상에 지령을 표시하는 것이 가능할 수 있다. 대안적으로, 지령 제시부(IPP)는 단독으로 또는 스마트폰의 스크린에 제시된 지령에 추가하여 음성 지령을 사용자에게 제공하기 위한 스마트폰의 스피커일 수 있다.
카메라 포지셔닝 디바이스(CPD), 즉 스마트폰의 통신부(CP)는 또한 적어도 카메라(CAM)의 위치 식별자를 원격 서버에 제공하도록 구성된다.
위치 식별자는 스마트폰(CPD)의 모바일 통신 네트워크에 기초하여 결정된 카메라의 위치 또는 GPS 위치일 수 있다.
원격 서버(RS)는 먼저 카메라(CAM)에 의해 레코딩된 매체를 수신하는 것이 가능한 매체 수신부(MRP)를 포함하고, 카메라에 의해 레코딩되어 원격 서버(RS)에서 수신된 매체를 카메라 포지셔닝 디바이스(CPD)를 향해 포워딩하는 것이 가능한 통신부(RCP)를 추가로 포함한다. 통신부(RCP)는 또한 카메라 포지셔닝 디바이스(CPD), 즉 스마트폰 및 데이터 저장 디바이스(DB) 내에 카메라(CAM)를 위해 저장된 사전 정의된 카메라 위치 파라미터를 관리하도록 구성된 관리부(MP)와 통신하도록 구성된다. 데이터 저장 디바이스는 원격 서버(RS)의 내부 또는 외부에 있을 수 있다.
원격 서버(RS)는 카메라(CAM)에 전용된 데이터 저장 디바이스(DB)의 엔트리의 상기 카메라(CAM)를 위한 복수의 스크린 마커 중 각각의 스크린 마커의 상기 카메라의 이미지-프레이밍에 대한 사전 정의된 위치의 카메라(CAM)를 위한 유지를 관리하도록 구성된 관리부(MP)를 추가로 포함한다.
원격 서버(RS)는 또한 카메라(CAM)에 전용된 데이터 저장 디바이스(DB)의 엔트리의 사전 정의된 카메라 위치 파라미터와 함께, 카메라 포지셔닝 디바이스로부터 얻어진 카메라의 지리학적 위치 식별자를 갖는 카메라 통신 어드레스를 저장하도록 구성된다.
통신부(CP)는 동시에 카메라 포지셔닝 디바이스(CPD)의 입출력 단자인 입출력 단자를 갖는다. 통신부(CP)는 또한 이어서 지령 제시부(IPP)에 결합되는 프로세싱부(PP)에 결합된다. 이미지 분석부(IAP)가 또한 제 1 출력으로 프로세싱부의 입력에, 그리고 입력으로 통신부의 출력에 결합된다.
원격 서버(RS)의 통신부(RCP)는 동시에 원격 서버(RS)의 입출력 단자인 입출력 단자를 갖는다. 통신부(RCP)는 또한 이어서 원격 서버(RS)의 내부 또는 외부에 있을 수 있는 데이터 저장 디바이스(DB)에 결합되는 관리부(MP)에 결합된다.
매체 수신부(MRP)는 또한 동시에 카메라 포지셔닝 디바이스(CPD)의 입력 단자인 입력 단자를 갖고, 매체 수신부(MRP)는 또한 출력으로 통신부(CP)의 입력에 결합된다.
본 발명의 실행을 설명하기 위해, 감시 카메라는 특정 위치에 설치될 필요가 있는 것으로 가정된다. 초기 계획 단계에서, 카메라의 위치, 그 비디오 빔(방향 또는 콤파스, 기울기, 줌 정보) 및 카메라를 효율적으로 구성하고 캘리브레이팅하는데 요구되는 데이터를 롤아웃하는 속성 및 능력을 정의하는 도시 맵 내에 모니터링될 영역, 랜드마크 또는 개인 도메인이 정의된다. 이는 통상적으로 예를 들어 복수의 카메라가 모니터링될 전체 영역을 커버하도록 계획되는 도시 맵과 같은 모니터링될 전체 영역에 대해 행해진다. 각각의 카메라에 대해, 카메라의 귀속 위치, 그 비디오 빔(방향 또는 범위, 기울기, 줌 정보) 및 각각의 카메라를 효율적으로 구성하고 캘리브레이팅하는데 요구되는 데이터를 롤아웃하는 속성 및 능력이 계획 단계 중에 정의된다.
이후에, 카메라는 카메라에서 커버리지 계획 사전 정의된 영역이 실제로 커버되는 이러한 방식으로 사전 정의된 위치에 배치될 필요가 있다.
카메라를 원격 서버에 접속하기 위한 케이블링은 미리 이용 가능한 것으로 가정된다. 이 카메라를 설치하기 위한 위치에서 기술자는 카메라를 모니터링될 사전 정의된 영역에 지향하는 계획된 위치에 장착한다.
특정 순간에, 데이터 저장 디바이스(DB)는 카메라의 계획 데이터, 즉 예를 들어 도시와 같은 전체 영역의 커버리지가 각각의 카메라가 전체 도시의 사전 정의된 영역을 모니터링하는 복수의 카메라를 구성함으로써 계획되는 계획 단계에서 정의된 바와 같은 카메라의 위치 및 방향을 정의하는 각각의 카메라를 위한 데이터로 파퓰레이팅된다. 각각의 카메라에 대해, 카메라의 귀속 위치, 그 비디오 빔(방향 또는 콤파스, 기울기, 줌 정보)이 정의되어 데이터 저장 디바이스(DB)에 저장된다. 이 데이터의 저장은 원격 서버의 관리부(MP)를 경유하여 수행된다.
의도된 카메라는 먼저 이하의 방식으로 접속되고 구성된다. 첫째로, 카메라가 IP 네트워크를 통해 원격 서버에 접속될 때, DHCP 모듈이라 또한 칭하는 동적 호스트 구성 프로토콜 모듈은 카메라의 존재를 검출하고, MAC 어드레스를 질의하고, 카메라의 MAC 어드레스(카메라의 고유 식별자임)의 검출시에, 원격 서버는 DHCP 모듈에 의해 IP 어드레스라 또한 칭하는 인터넷 프로토콜 어드레스를 할당하고, 카메라 모델, 제조업자, 장착된 광학 기기, 카메라의 기술적 파라미터, 카메라 상에 설치된 버전 소프트웨어 등과 같은 다른 정보에 대해 카메라에 질의하고, 이 카메라를 위한 전용 엔트리에 데이터 저장 디바이스(DB) 내의 MAC 어드레스와 IP 사이의 링크와 함께 이 정보를 저장할 것이다. 카메라는 이어서 원격 서버에 접속되고 원격 서버에 알려진다.
이후에, 조작자는 카메라에 지시된 MAC 어드레스를(바코드 및/또는 문자 숫자식 문자 및/또는 RFID를 사용하여) 스캔하고 또는 지시된 MAC 어드레스를 수동으로 입력하는데, 여기서 MAC 어드레스는 스마트폰을 사용하는 카메라의 고유 식별이다. 스마트폰은 MAC 어드레스인 카메라의 신분, 실제 GPS 위치를 서버에 송신할 것이다. 유리하게는 카메라의 고유 식별자와 GPS 위치인 위치 식별자의 이 결합은 카메라를 고유하게 식별하는데 사용될 수 있어, 카메라에 의해 레코딩되고 조작자에 의해 모니터링된 매체가 알려지지 않거나 잘못 식별되는 상황을 방지한다.
이 실시예에서, MAC 어드레스는 이더넷 링크를 통해 액세스 가능하고 카메라 상에 부착된 라벨 상에 또한 보고된 MAC 어드레스, 카메라의 시리얼 번호 또는 카메라 상에 미리 설치된 다른 고유 코드와 같은 임의의 다른 고유 식별자로 설명되었지만, 바코드 리더 또는 심지어 RFID로 판독 가능한 라벨이 구성될 수 있다.
이제, 서버는 완전한 정보를 구축할 수 있다. 카메라는 설치되고, 네트워크에 링크되고, 모든 카메라 데이터가 데이터 저장 디바이스(DB) 상에 저장된다.
카메라가 원격 서버(RS)에서 등록될 때, 원격 서버(RS)는 매체 수신부(MRP)에 의해 카메라(CAM)에 의해 레코딩된 매체를 수신한다. 이 레코딩된 매체는 이어서 원격 서버(RS)의 통신부(RCP)에 의해 카메라 포지셔닝 디바이스(CPD)를 향해 포워딩된다. 포워딩된 매체는 카메라 포지셔닝 디바이스(CPD)의 스크린에 제시된다. 이 방식으로, 기술자는 초기에 모니터링될 영역에서 카메라를 대략적으로 포지셔닝하고 지향하는데 있어서 지원된다.
이후에, 기술자는 계획 단계에서 이전에 마킹되었던 각각의 관심 포인트에 대한 적외선 램프인 실제 기준 마커를 할당하기 위해 제 1 데이터의 세트(맵 상의 위치)를 사용할 것이다. 그의 데이터는 데이터 저장 디바이스(DB)로부터 검색된다. 2개의 실제 기준 마커가 맵 상에 계획되고 이후에 계획된 스폿에서 모니터링될 영역 내에 배치되는 것으로 가정된다. 양 실제 기준 마커는 또한 레코딩되고 이어서 카메라에 의해 레코딩된 매체 내에 포함된다.
기술자는 모니터링될 전체 영역을 커버하기 위해 정확한 방향으로 카메라를 포지셔닝하기 시작하고, 포워딩된 매체 내에서 복수의 실제 기준 마커 중 각각의 실제 기준 마커의 카메라의 이미지-프레이밍에 대한 실제 위치를 다루는 애플리케이션을 여기서 구성한다. 이 인식은 이미지 인식을 사용하여 구성된다. 이 방식으로, 양 실제 기준 마커의 스크린 상의 실제 위치가 결정된다.
게다가, 통신부(CP)는 각각의 스크린 마커, 이 실시예에서 2개의 스크린 마커에 대해 카메라의 이미지-프레이밍에 대한 사전 정의된 위치를 검색하고, 여기서 사전 정의된 스크린 마커는 모니터링될 상기 사전 결정된 영역을 정의한다.
프로세싱부(PP)는 이후에 2개의 스크린 마커의 각각의 사전 정의된 위치 - 이들 사전 정의된 스크린 마커는 모니터링될 사전 정의된 영역을 정의함 - 와 2개의 실제 기준 마커 중 실제 기준 마커에 각각 대응하는 실제 위치(카메라 포지셔닝 디바이스에 의해 결정된 바와 같은) 사이의 차이를 결정함으로써 카메라 위치 캘리브레이션 지령을 결정한다.
대응 파라미터의 각각 사이의 차이에 기초하여, 기술자를 위한 지령이 생성되어 후속 동작을 기술자에게 지시한다. 이들 후속 동작은 콤파스각의 변경, 카메라의 기울기의 변경, 주밍의 적응, 초점 조정 중 하나 이상일 수 있다.
그 후에 이 프로세스는 스마트폰(CPD)의 스크린 상의 각각의 이들 사전 정의된 스크린 마커가 대응 실제 기준 마커 파라미터와 실질적으로 일치할 때까지 반복된다. 따라서, 포지셔닝은 스크린 상의 양 타겟(즉, 적외선 램프)이 일치할 때까지 조정되는 배향, 기울기 및 주밍을 캘리브레이팅함으로써 행해진다. 초점은 카메라 실시간 뷰 상에 수행된 스마트 이미지 인식에 의해 마지막에 조정된다.
본 발명이 카메라 포지셔닝 디바이스가 모니터링될 사전 정의된 영역에 대해 데이터를 얻기 위해 서버와 협동하는 클라이언트-서버로서 설명되었지만, 대안적으로 이 데이터는 데이터가 USB, 블루투스 또는 와이파이와 같은 단거리 통신을 통해 얻어지는 자립형 디바이스로서 그 자신에 카메라를 포지셔닝하는 것이 가능하도록 카메라 포지셔닝 디바이스 내에 직접 로딩될 수 있거나 심지어 수동으로 입력된다는 것이 주지된다. 레코딩된 매체는 여전히 다른 단거리 유선 또는 무선 인터페이스를 통해 직접 카메라 포지셔닝 디바이스에 포워딩된다.
결론은 본 발명의 실시예가 기능적 블록의 견지에서 전술되었다는 것이다. 상기에 제공된 이들 블록의 기능적 설명으로부터, 이들 블록의 실시예가 어떻게 공지된 전자 부품과 함께 제조될 수 있는지가 전자 디바이스를 설계하는 분야의 숙련자들에게 명백할 것이다. 따라서, 기능적 블록의 내용의 상세한 아키텍처는 제공되지 않는다.
본 발명의 원리가 특정 장치와 관련하여 전술되었지만, 이 설명은 첨부된 청구범위에 정의된 바와 같은 본 발명의 범주의 한정으로서가 아니라 단지 예로서 이루어진 것이라는 것이 이해되어야 한다.

Claims (10)

  1. 레코딩된 매체가 원격 조작자에 의해 관찰되도록 특정 도시 내의 사전 결정된 영역을 모니터링하기 위해 감시 카메라(CAM)의 위치를 캘리브레이팅하기 위한 방법으로서,
    상기 감시 카메라(CAM)는 통신 링크를 통해 원격 서버(RS)에 결합되고, 상기 원격 서버(RS)는 상기 감시 카메라(CAM)에 의해 레코딩되어 상기 통신 링크를 통해 상기 원격 서버(RS)에 포워딩되는 상기 감시 카메라(CAM)의 환경 내에 모니터링될 상기 사전 결정된 영역에 대응하는 매체를 수신하며,
    상기 방법은,
    a. 상기 원격 서버가 상기 사전 결정된 영역에 대응하는 상기 매체를 카메라 포지셔닝 디바이스(CPD)를 향해 포워딩하는 단계 - 상기 매체는 상기 사전 결정된 영역 내에 복수의 실제 기준 마커를 포함함 - 와,
    b. 상기 포워딩된 매체 내에서, 상기 감시 카메라의 이미지-프레이밍에 대한, 상기 복수의 실제 기준 마커 중 각각의 실제 기준 마커의 실제 위치를 인식하는 단계와,
    c. 상기 감시 카메라의 이미지-프레이밍에 대한, 복수의 스크린 마커 중 각각의 스크린 마커의 사전 정의된 위치 - 상기 사전 정의된 스크린 마커는 모니터링될 상기 사전 결정된 영역을 정의함 - 와 상기 감시 카메라의 이미지-프레이밍에 대한, 상기 복수의 실제 기준 마커 중 각각의 대응 실제 기준 마커의 상기 실제 위치 사이의 차이에 기초하여 카메라 위치 캘리브레이션 지령을 결정하는 단계를 포함하는
    감시 카메라의 위치를 캘리브레이팅하기 위한 방법.
  2. 제 1 항에 있어서,
    상기 방법은 상기 감시 카메라의 지리학적 위치 식별자와 고유의 카메라 식별자를 결합하는 단계를 더 포함하는
    감시 카메라의 위치를 캘리브레이팅하기 위한 방법.
  3. 레코딩된 매체가 원격 조작자에 의해 관찰되도록 특정 도시 내의 사전 결정된 영역을 모니터링하기 위해 감시 카메라(CAM)의 위치를 캘리브레이팅하기 위한 시스템으로서,
    상기 시스템은 상기 감시 카메라(CAM) 및 원격 서버(RS)를 포함하고, 상기 감시 카메라(CAM)는 통신 링크를 통해 상기 원격 서버(RS)에 결합되고, 상기 원격 서버(RS)는 상기 감시 카메라(CAM)에 의해 레코딩되어 상기 통신 링크를 통해 상기 원격 서버(RS)에 포워딩되는 상기 감시 카메라(CAM)의 환경 내에 모니터링될 상기 사전 결정된 영역에 대응하는 매체를 수신하며,
    상기 원격 서버(RS)는 상기 사전 결정된 영역에 대응하는 상기 매체를 카메라 포지셔닝 디바이스(CPD)를 향해 포워딩하도록 또한 구성되고, 상기 매체는 상기 사전 결정된 영역 내에 복수의 실제 기준 마커를 포함하고,
    상기 시스템은
    a. 상기 포워딩된 매체 내에서, 상기 감시 카메라의 이미지-프레이밍에 대한, 상기 복수의 실제 기준 마커 중 각각의 실제 기준 마커의 실제 위치를 인식하도록 구성된 이미지 분석부(IAP)와,
    c. 상기 감시 카메라의 이미지-프레이밍에 대한, 복수의 스크린 마커 중 각각의 스크린 마커의 사전 정의된 위치 - 상기 사전 정의된 스크린 마커는 모니터링될 상기 사전 결정된 영역을 정의함 - 와, 상기 카메라 포지셔닝 디바이스에 의해 결정된 바와 같은, 상기 감시 카메라의 이미지-프레이밍에 대한, 상기 복수의 실제 기준 마커 중 각각의 대응 실제 기준 마커의 상기 실제 위치 사이의 차이에 기초하여 카메라 위치 캘리브레이션 지령을 결정하도록 구성된 프로세싱부(PP)를 더 포함하는
    감시 카메라의 위치를 캘리브레이팅하기 위한 시스템.
  4. 제 3 항에 있어서,
    상기 시스템은 상기 감시 카메라의 지리학적 위치 식별자와 고유의 카메라 식별자를 결합하도록 구성된 로컬화부(LP)를 더 포함하는
    감시 카메라의 위치를 캘리브레이팅하기 위한 시스템.
  5. 제 3 항에 따른 시스템에 사용을 위한 카메라 포지셔닝 디바이스(CPD)에 있어서,
    a. 상기 감시 카메라의 이미지-프레이밍에 대한, 복수의 스크린 마커 중 각각의 스크린 마커의 사전 정의된 위치를 얻도록 구성된 통신부(CP) - 상기 사전 정의된 스크린 마커는 모니터링될 상기 사전 결정된 영역을 정의함 - 와,
    b. 상기 포워딩된 매체 내에서, 상기 감시 카메라의 이미지-프레이밍에 대한, 상기 복수의 실제 기준 마커 중 각각의 실제 기준 마커의 실제 위치를 결정하도록 구성된 이미지 분석부(IAP)와,
    c. 상기 감시 카메라의 이미지-프레이밍에 대한, 복수의 스크린 마커 중 각각의 스크린 마커의 사전 정의된 위치 - 상기 사전 정의된 스크린 마커는 모니터링될 상기 사전 결정된 영역을 정의함 - 와, 상기 카메라 포지셔닝 디바이스에 의해 결정된 바와 같은, 상기 감시 카메라의 이미지-프레이밍에 대한, 상기 복수의 실제 기준 마커 중 각각의 대응 실제 기준 마커의 상기 실제 위치 사이의 차이에 기초하여 카메라 위치 캘리브레이션 지령을 결정하도록 구성된 프로세싱부(PP)와,
    d. 상기 카메라 포지셔닝 디바이스(CPD)의 사용자에 상기 카메라 위치 캘리브레이션/조정 지령을 제시하도록 구성된 지령 제시부(IPP)를 포함하는
    카메라 포지셔닝 디바이스.
  6. 제 5 항에 있어서,
    상기 통신부(CP)는 적어도 상기 감시 카메라(CAM)의 지리학적 위치 식별자를 상기 원격 서버에 제공하도록 또한 구성되는
    카메라 포지셔닝 디바이스.
  7. 제 3 항에 따른 시스템에 사용하기 위한 원격 서버(RS)에 있어서,
    상기 원격 서버(RS)는 상기 카메라 포지셔닝 디바이스(CPD)를 향해 수신된 상기 매체를 포워딩하도록 구성된 통신부(RCP)를 포함하는
    원격 서버.
  8. 제 7 항에 있어서,
    상기 감시 카메라(CAM)에 대해, 데이터 저장 디바이스(DB)의 상기 감시 카메라(CAM)의 엔트리 내에 상기 감시 카메라(CAM)의 이미지-프레이밍에 대한, 상기 감시 카메라(CAM)를 위한 복수의 스크린 마커 중 각각의 스크린 마커의 상기 사전 정의된 위치의 유지를 관리하도록 구성된 관리부(MP)를 더 포함하는
    원격 서버.
  9. 제 8 항에 있어서,
    상기 관리부(MP)는 상기 데이터 저장 디바이스(DB)의 상기 감시 카메라(CAM)를 위한 상기 엔트리 내의 상기 사전 정의된 카메라 위치 파라미터와 함께 상기 감시 카메라의 지리학적 위치 식별자와 고유의 카메라 식별자를 저장하도록 또한 구성되는
    원격 서버.
  10. 제 3 항에 따른 시스템에 사용하기 위한 카메라 포지셔닝 애플리케이션을 저장하는 컴퓨터 판독가능 저장매체에 있어서,
    상기 카메라 포지셔닝 애플리케이션은
    a. 상기 감시 카메라의 이미지-프레이밍에 대한, 복수의 스크린 마커 중 각각의 스크린 마커의 사전 정의된 위치를 얻도록 구성된 통신부(CP) - 상기 사전 정의된 스크린 마커는 모니터링될 상기 사전 결정된 영역을 정의함 - 와,
    b. 상기 포워딩된 매체 내에서, 상기 감시 카메라의 이미지-프레이밍에 대한, 상기 복수의 실제 기준 마커 중 각각의 실제 기준 마커의 실제 위치를 결정하도록 구성된 이미지 분석부(IAP)와,
    c. 상기 감시 카메라의 이미지-프레이밍에 대한, 복수의 스크린 마커 중 각각의 스크린 마커의 사전 정의된 위치 - 상기 사전 정의된 스크린 마커는 모니터링될 상기 사전 결정된 영역을 정의함 - 와, 상기 카메라 포지셔닝 디바이스에 의해 결정된 바와 같은, 상기 감시 카메라의 이미지-프레이밍에 대한, 상기 복수의 실제 기준 마커 중 각각의 대응 실제 기준 마커의 상기 실제 위치 사이의 차이에 기초하여 카메라 위치 캘리브레이션 지령을 결정하도록 구성된 프로세싱부(PP)를 포함하는
    컴퓨터 판독가능 저장매체.
KR1020137016309A 2010-12-23 2011-12-21 카메라 계획 및 포지셔닝을 위한 통합 방법 KR101726475B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP10306498A EP2469467A1 (en) 2010-12-23 2010-12-23 An integrated method for camera planning and positioning
EP10306498.6 2010-12-23
PCT/EP2011/073612 WO2012085100A1 (en) 2010-12-23 2011-12-21 An integrated method for camera planning and positioning

Publications (2)

Publication Number Publication Date
KR20130107334A KR20130107334A (ko) 2013-10-01
KR101726475B1 true KR101726475B1 (ko) 2017-04-12

Family

ID=43983763

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137016309A KR101726475B1 (ko) 2010-12-23 2011-12-21 카메라 계획 및 포지셔닝을 위한 통합 방법

Country Status (6)

Country Link
US (1) US20130271604A1 (ko)
EP (1) EP2469467A1 (ko)
JP (1) JP5806331B2 (ko)
KR (1) KR101726475B1 (ko)
CN (1) CN103270533B (ko)
WO (1) WO2012085100A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9083863B2 (en) * 2012-04-20 2015-07-14 Hewlett-Packard Development Company, L.P. Alignment system for a digital image capture device
WO2016018327A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Camera alignment based on an image captured by the camera that contains a reference marker
EP3096290B1 (en) 2015-05-19 2018-07-18 Axis AB Method and system for determining camera pose
CN110232716A (zh) * 2019-05-31 2019-09-13 深圳市道通智能航空技术有限公司 一种相机标定方法、装置和电子设备
GB2611030B (en) * 2021-09-17 2024-04-03 Marss Ventures Ltd Method of estimating an orientation adjustment and surveillance apparatus
JP2023078640A (ja) * 2021-11-26 2023-06-07 トヨタ自動車株式会社 車両撮影システムおよび車両撮影方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009294109A (ja) * 2008-06-05 2009-12-17 Fujitsu Ltd キャリブレーション装置
JP2010063052A (ja) * 2008-09-08 2010-03-18 Sony Corp 撮影装置および方法、並びにプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01273113A (ja) * 1988-04-25 1989-11-01 Mazda Motor Corp 移動車の画像処理装置
CZ41994A3 (en) * 1993-03-05 1994-11-16 Elta Electronics Ind Ltd Motion detection system
JP3287117B2 (ja) * 1994-07-05 2002-05-27 株式会社日立製作所 撮像装置を用いた車両用の環境認識装置
JPH09282570A (ja) * 1996-04-16 1997-10-31 Atsumi Electron Corp Ltd 監視カメラ
JP2002092592A (ja) * 2000-09-12 2002-03-29 Toko Electric Corp 自動巡視システムおよび自動巡視方法
JP2004312098A (ja) * 2003-04-02 2004-11-04 Sanyo Electric Co Ltd 監視カメラ装置
US7688381B2 (en) * 2003-04-08 2010-03-30 Vanbree Ken System for accurately repositioning imaging devices
JP4196841B2 (ja) * 2004-01-30 2008-12-17 株式会社豊田自動織機 映像位置関係補正装置、該映像位置関係補正装置を備えた操舵支援装置、及び映像位置関係補正方法
JP2005286498A (ja) * 2004-03-29 2005-10-13 Victor Co Of Japan Ltd 撮像装置のセットアップ方法
CN100566406C (zh) * 2005-02-15 2009-12-02 松下电器产业株式会社 周边监视装置和周边监视方法
US20070116458A1 (en) * 2005-11-18 2007-05-24 Mccormack Kenneth Methods and systems for operating a pan tilt zoom camera
JP4747065B2 (ja) * 2006-09-29 2011-08-10 富士通株式会社 画像生成装置、画像生成方法および画像生成プログラム
JP4942185B2 (ja) * 2007-04-06 2012-05-30 キヤノン株式会社 撮像装置及び雲台制御方法並びにプログラム及び記憶媒体
IL182799A (en) * 2007-04-26 2014-11-30 Nir Avrahami Method for estimating the ptz camera's pose
JP2009146259A (ja) * 2007-12-17 2009-07-02 Toshiba Corp 車両ナンバー撮影システム、車両ナンバー撮影方法
JP5198151B2 (ja) * 2008-05-30 2013-05-15 株式会社日立製作所 映像検索装置及び映像検索方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009294109A (ja) * 2008-06-05 2009-12-17 Fujitsu Ltd キャリブレーション装置
JP2010063052A (ja) * 2008-09-08 2010-03-18 Sony Corp 撮影装置および方法、並びにプログラム

Also Published As

Publication number Publication date
JP5806331B2 (ja) 2015-11-10
CN103270533A (zh) 2013-08-28
EP2469467A1 (en) 2012-06-27
WO2012085100A1 (en) 2012-06-28
CN103270533B (zh) 2017-04-19
KR20130107334A (ko) 2013-10-01
US20130271604A1 (en) 2013-10-17
JP2014506048A (ja) 2014-03-06

Similar Documents

Publication Publication Date Title
KR101726475B1 (ko) 카메라 계획 및 포지셔닝을 위한 통합 방법
US11783553B2 (en) Systems and methods for facilitating creation of a map of a real-world, process control environment
US10650223B2 (en) Techniques for built environment representations
US10171802B2 (en) Calibration method and calibration device
CN103398717B (zh) 全景地图数据库采集系统及基于视觉的定位、导航方法
JP6293274B2 (ja) サーバアクセス方法及びサーバアクセス装置
JP2019067383A (ja) プロセス制御環境の3dマッピング
US20220044016A1 (en) Quick Activation Techniques for Industrial Augmented Reality Applications
WO2017043363A1 (ja) 建設資材管理システムおよび建設資材管理方法
RU2713637C2 (ru) Формирователь плана освещения
US20220357641A1 (en) System and method for image projection mapping
JP6249990B2 (ja) カメラ計画および位置決めのための統合された方法
US20140104419A1 (en) Structure measuring unit for tracking, measuring and marking edges and corners of adjacent surfaces
CN108965791B (zh) 一种通过机器人ar摄像头与物联网设备交互方法及系统
WO2018138877A1 (ja) 管理装置及び管理方法
CN101677323A (zh) 一种基于移动网络的自动定位方法及系统
CN113450414A (zh) 一种摄像机标定方法、设备、系统及存储介质
CN113411547A (zh) 一种云台的位置校正方法及装置
KR102708424B1 (ko) 지형별 기준점에 따른 파트별 수치지도 갱신시스템
US20240097787A1 (en) Free-space optical communication control system, free-space optical communication control apparatus, and free-space optical communication control method
WO2023170747A1 (ja) 測位装置、測位システム、測位方法及び非一時的なコンピュータ可読媒体
CN114111800A (zh) 一种建筑路径导航系统
WO2024170090A1 (en) Method and apparatus for finding a hvac field device
TW202125454A (zh) 巡邏勤務系統與巡邏勤務驗證方法
JP2023168743A (ja) 撮影システム、ビデオサーバシステム

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
E801 Decision on dismissal of amendment
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2015101003967; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20150713

Effective date: 20170214

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
GRNT Written decision to grant