[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR100894923B1 - 화상 처리 장치, 방법 및 기록 매체와 촬상 장치 - Google Patents

화상 처리 장치, 방법 및 기록 매체와 촬상 장치 Download PDF

Info

Publication number
KR100894923B1
KR100894923B1 KR1020037002804A KR20037002804A KR100894923B1 KR 100894923 B1 KR100894923 B1 KR 100894923B1 KR 1020037002804 A KR1020037002804 A KR 1020037002804A KR 20037002804 A KR20037002804 A KR 20037002804A KR 100894923 B1 KR100894923 B1 KR 100894923B1
Authority
KR
South Korea
Prior art keywords
pixel
background
interest
pixel data
frame
Prior art date
Application number
KR1020037002804A
Other languages
English (en)
Other versions
KR20040014951A (ko
Inventor
데쯔지로 곤도
다까히로 나가노
준이찌 이시바시
다까시 사와오
나오끼 후지와라
세이지 와다
도루 미야께
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20040014951A publication Critical patent/KR20040014951A/ko
Application granted granted Critical
Publication of KR100894923B1 publication Critical patent/KR100894923B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Circuits (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 배경 화상의 영역, 이동하는 물체 화상의 영역, 및 혼합이 발생한 화상의 영역을 특정할 수 있도록 한다. 혼합비 산출부(103)는, 화상 데이터의 주목 프레임의 주목 화소에 대응하는, 주변 프레임의 화소 데이터를, 배경 오브젝트에 상당하는 배경 화소 데이터로서 추출함과 함께, 주목 프레임에 존재하는 주목 화소의 주목 화소 데이터를 추출하여, 주목 화소 데이터 및 배경 화소 데이터의 관계를 나타내는, 복수의 관계식을 생성하고, 관계식에 기초하여, 오브젝트의 혼합 상태를 나타내는 혼합비를 검출한다. 영역 특정부(104)는 검출된 혼합비를 관계식에 대입함으로써 예측 오차를 연산하여, 주목 화소가 속하는 영역이, 커버드 백그라운드 영역인지, 언커버드 백그라운드 영역인지, 전경 영역인지, 또는 배경 영역인지를 특정한다. 본 발명은 화상 처리 장치에 적용할 수 있다.
Figure R1020037002804
혼합비, 혼합 영역, 움직임 불선명, 커버드 백그라운드 영역, 언커버드 백그라운드 영역, 화소 데이터

Description

화상 처리 장치, 방법 및 기록 매체와 촬상 장치{IMAGE PROCESSING APPARATUS AND METHOD, AND IMAGE PICKUP APPARATUS}
본 발명은 화상 처리 장치 및 방법, 및 촬상 장치에 관한 것으로, 특히, 센서에 의해 검출한 신호와 현실 세계의 차이를 고려한 화상 처리 장치 및 방법, 및 촬상 장치에 관한 것이다.
현실 세계에서의 사상(事象)을 센서로 검출하여, 화상 센서가 출력하는 샘플링 데이터를 처리하는 기술이 널리 이용되고 있다.
예를 들면, 정지하고 있는 소정의 배경 앞에서 이동하는 물체를 비디오 카메라로 촬상하여 얻어지는 화상에는, 물체의 이동 속도가 비교적 빠른 경우, 움직임 불선명이 생기게 된다.
그러나, 정지하고 있는 배경 앞에서 물체가 이동할 때, 이동하는 물체 화상 자신의 혼합에 의한 움직임 불선명뿐만 아니라, 배경 화상과 이동하는 물체 화상의 혼합이 생긴다. 종래에는 배경 화상과 이동하는 물체 화상의 혼합 상태에 대응하는 처리는 생각되고 있지 않았다.
<발명의 개시>
본 발명은 이러한 상황을 감안하여 이루어진 것으로, 배경 화상의 영역, 이 동하는 물체 화상의 영역, 및 혼합이 발생한 화상의 영역을 특정할 수 있도록 하는 것을 목적으로 한다.
본 발명의 화상 처리 장치는, 화상 데이터의 주목 프레임의 주목 화소에 대응하는, 주목 프레임 주변의 주변 프레임의 화소 데이터를, 화상 데이터의 복수의 오브젝트 중 배경이 되는 배경 오브젝트에 상당하는 배경 화소 데이터로서 추출함과 함께, 주목 프레임에 존재하는 주목 화소의 주목 화소 데이터를 추출하여, 주목 화소에 대하여, 주목 화소 데이터 및 배경 화소 데이터의 관계를 나타내는, 복수의 관계식을 생성하는 관계식 생성 수단과, 관계식에 기초하여, 주목 화소에 대응하여, 현실 세계에서 복수인 오브젝트의 혼합 상태를 나타내는 혼합비를 검출하는 혼합비 검출 수단과, 혼합비 검출 수단에 의해 검출된 혼합비를 관계식에 대입함으로써 예측 오차를 연산하는 예측 오차 연산 수단과, 예측 오차를 기초로, 주목 화소가 속하는 영역이, 복수의 오브젝트가 혼합되어 이루어지는 혼합 영역으로서, 복수의 오브젝트 중 전경이 되는 전경 오브젝트의 움직임 방향의 선단측에 형성되는 커버드 백그라운드 영역인지, 또는, 혼합 영역으로서, 전경 오브젝트의 움직임 방향의 후단측에 형성되는 언커버드 백그라운드 영역인지를 특정하는 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 수단과, 주목 화소가 속하는 영역이, 전경 오브젝트를 구성하는 전경 오브젝트 성분 만으로 이루어지는 전경 영역인지, 또는, 배경 오브젝트를 구성하는 배경 오브젝트 성분 만으로 이루어지는 배경 영역인지를 특정하는 전경 영역-배경 영역 특정 수단을 포함하는 것을 특징으로 한다.
혼합비 검출 수단은 관계식에 기초하여, 주목 화소에 대응하여, 주목 화소에 포함되는 전경 오브젝트 성분을 검출함과 함께, 혼합비를 검출하고, 예측 오차 연산 수단은, 혼합비 검출 수단에 의해 검출된 혼합비 및 주목 화소에 포함되는 전경 오브젝트 성분을 관계식에 대입함으로써 예측 오차를 연산하도록 할 수 있다.
관계식 생성 수단은, 주목 화소에 대응하는, 주변 프레임의 화소 데이터를, 배경 오브젝트에 상당하는 배경 화소 데이터로서 추출함과 함께, 주목 화소의 주목 화소 데이터, 및 주목 프레임 내의 주목 화소의 근방에 위치하는, 근방 화소의 근방 화소 데이터를 추출하여, 주목 화소에 대하여, 주목 화소 데이터 및 근방 화소 데이터, 및 주목 화소 데이터 또는 근방 화소 데이터에 대응하는 배경 화소 데이터의 관계를 나타내는, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 수단은, 주목 화소 데이터 및 근방 화소 데이터에 포함되는, 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 혼합 영역에서 혼합비의 변화가 혼합 영역의 화소의 위치에 대하여 직선적이다라고 하는 제2 근사에 기초하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 수단은, 주목 화소 데이터 및 근방 화소 데이터에 포함되는, 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 혼합 영역에서 혼합비의 변화가 혼합 영역의 화소의 위치에 대하여 평면적이다라고 하는 제2 근사에 기초하여, 복수의 관계식을 생성하도록 할 수 있다.
혼합비 검출 수단은 복수의 관계식을 최소 제곱법으로 푸는 것에 의해 혼합비를 검출하도록 할 수 있다.
관계식 생성 수단은, 주목 화소가 커버드 백그라운드 영역에 속한다고 한 경 우, 주목 프레임의 이전 프레임의 화소 데이터를 배경 화소 데이터로서 추출하고, 주목 화소가 언커버드 백그라운드 영역에 속한다고 한 경우, 주목 프레임의 다음 프레임의 화소 데이터를 배경 화소 데이터로서 추출하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 수단은, 주목 화소에 대응하여, 전경 오브젝트의 움직임을 기초로, 주목 프레임 및 주변 프레임으로부터, 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 혼합 화소 데이터에의 개개에 대응하여, 배경 오브젝트의 움직임을 기초로, 혼합 화소 데이터가 추출된 프레임과는 다른 프레임으로부터, 배경 오브젝트에 상당하는 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 수단은, 혼합 화소 데이터에 대응하는 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 주목 프레임 및 주변 프레임으로부터 추출된 혼합 화소 데이터가 일정하다고 하는 제2 근사에 기초하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 수단은, 주목 화소에 대응하여, 전경 오브젝트의 움직임을 기초로, 주목 프레임 및 주변 프레임으로부터, 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 혼합 화소 데이터의 개개에 대응하여, 배경 오브젝트의 움직임을 기초로, 혼합 화소 데이터가 추출된 프레임의 이전 프레임으로부터, 배경 오브젝트에 상당하는 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하고, 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 수단은, 예측 오 차가 소정의 임계값 이상인 영역을 언커버드 백그라운드 영역으로 특정하도록 할 수 있다.
관계식 생성 수단은, 주목 화소에 대응하여, 전경 오브젝트의 움직임을 기초로, 주목 프레임 및 주변 프레임으로부터, 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 혼합 화소 데이터의 개개에 대응하여, 배경 오브젝트의 움직임을 기초로, 혼합 화소 데이터가 추출된 프레임의 다음 프레임으로부터, 배경 오브젝트에 상당하는 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하고, 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 수단은, 예측 오차가 소정의 임계값 이상인 영역을 커버드 백그라운드 영역으로 특정하도록 할 수 있다.
본 발명의 화상 처리 방법은, 화상 데이터의 주목 프레임의 주목 화소에 대응하는, 주목 프레임 주변의 주변 프레임의 화소 데이터를, 화상 데이터의 복수의 오브젝트 중 배경이 되는 배경 오브젝트에 상당하는 배경 화소 데이터로서 추출함과 함께, 주목 프레임에 존재하는 주목 화소의 주목 화소 데이터를 추출하여, 주목 화소에 대하여, 주목 화소 데이터 및 배경 화소 데이터의 관계를 나타내는, 복수의 관계식을 생성하는 관계식 생성 단계와, 관계식에 기초하여, 주목 화소에 대응하여, 현실 세계에서 복수인 오브젝트의 혼합 상태를 나타내는 혼합비를 검출하는 혼합비 검출 단계와, 혼합비 검출 단계의 처리에 의해 검출된 혼합비를 관계식에 대입함으로써 예측 오차를 연산하는 예측 오차 연산 단계와, 예측 오차를 기초로, 주목 화소가 속하는 영역이, 복수의 오브젝트가 혼합되어 이루어지는 혼합 영역으로 서, 복수의 오브젝트 중 전경이 되는 전경 오브젝트의 움직임 방향의 선단측에 형성되는 커버드 백그라운드 영역인지, 또는, 혼합 영역으로서, 전경 오브젝트의 움직임 방향의 후단측에 형성되는 언커버드 백그라운드 영역인지를 특정하는 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 단계와, 주목 화소가 속하는 영역이, 전경 오브젝트를 구성하는 전경 오브젝트 성분 만으로 이루어지는 전경 영역인지, 또는, 배경 오브젝트를 구성하는 배경 오브젝트 성분 만으로 이루어지는 배경 영역인지를 특정하는 전경 영역-배경 영역 특정 단계를 포함하는 것을 특징으로 한다.
혼합비 검출 단계는, 관계식에 기초하여, 주목 화소에 대응하여, 주목 화소에 포함되는 전경 오브젝트 성분을 검출함과 함께, 혼합비를 검출하고, 예측 오차 연산 단계는, 혼합비 검출 단계의 처리에 의해 검출된 혼합비 및 주목 화소에 포함되는 전경 오브젝트 성분을 관계식에 대입함으로써 예측 오차를 연산하도록 할 수 있다.
관계식 생성 단계는, 주목 화소에 대응하는, 주변 프레임의 화소 데이터를, 배경 오브젝트에 상당하는 배경 화소 데이터로서 추출함과 함께, 주목 화소의 주목 화소 데이터, 및 주목 프레임 내의 주목 화소의 근방에 위치하는, 근방 화소의 근방 화소 데이터를 추출하여, 주목 화소에 대하여, 주목 화소 데이터 및 근방 화소 데이터, 및 주목 화소 데이터 또는 근방 화소 데이터에 대응하는 배경 화소 데이터의 관계를 나타내는, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 단계는, 주목 화소 데이터 및 근방 화소 데이터에 포함되는, 전 경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 혼합 영역에서 혼합비의 변화가 혼합 영역의 화소의 위치에 대하여 직선적이다라고 하는 제2 근사에 기초하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 단계는, 주목 화소 데이터 및 근방 화소 데이터에 포함되는, 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 혼합 영역에서 혼합비의 변화가 혼합 영역의 화소의 위치에 대하여 평면적이다라고 하는 제2 근사에 기초하여, 복수의 관계식을 생성하도록 할 수 있다.
혼합비 검출 단계는 복수의 관계식을 최소 제곱법으로 푸는 것에 의해 혼합비를 검출하도록 할 수 있다.
관계식 생성 단계는, 주목 화소가 커버드 백그라운드 영역에 속한다고 한 경우, 주목 프레임의 이전 프레임의 화소 데이터를 배경 화소 데이터로서 추출하고, 주목 화소가 언커버드 백그라운드 영역에 속한다고 한 경우, 주목 프레임의 다음 프레임의 화소 데이터를 배경 화소 데이터로서 추출하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 단계는, 주목 화소에 대응하여, 전경 오브젝트의 움직임을 기초로, 주목 프레임 및 주변 프레임으로부터, 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 혼합 화소 데이터에의 개개에 대응하여, 배경 오브젝트의 움직임을 기초로, 혼합 화소 데이터가 추출된 프레임과는 다른 프레임으로부터, 배경 오브젝트에 상당하는 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 단계는, 혼합 화소 데이터에 대응하는 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 주목 프레임 및 주변 프레임으로부터 추출된 혼합 화소 데이터가 일정하다고 하는 제2 근사에 기초하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 단계는, 주목 화소에 대응하여, 전경 오브젝트의 움직임을 기초로, 주목 프레임 및 주변 프레임으로부터, 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 혼합 화소 데이터의 개개에 대응하여, 배경 오브젝트의 움직임을 기초로, 혼합 화소 데이터가 추출된 프레임의 이전 프레임으로부터, 배경 오브젝트에 상당하는 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하고, 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 단계는, 예측 오차가 소정의 임계값 이상인 영역을 언커버드 백그라운드 영역으로 특정하도록 할 수 있다.
관계식 생성 단계는, 주목 화소에 대응하여, 전경 오브젝트의 움직임을 기초로, 주목 프레임 및 주변 프레임으로부터, 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 혼합 화소 데이터의 개개에 대응하여, 배경 오브젝트의 움직임을 기초로, 혼합 화소 데이터가 추출된 프레임의 다음 프레임으로부터, 배경 오브젝트에 상당하는 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하고, 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 단계는, 예측 오차가 소정의 임계값 이상인 영역을 커버드 백그라운드 영역으로 특정하도록 할 수 있다.
본 발명의 기록 매체의 프로그램은, 화상 데이터의 주목 프레임의 주목 화소에 대응하는, 주목 프레임 주변의 주변 프레임의 화소 데이터를, 화상 데이터의 복수의 오브젝트 중 배경이 되는 배경 오브젝트에 상당하는 배경 화소 데이터로서 추출함과 함께, 주목 프레임에 존재하는 주목 화소의 주목 화소 데이터를 추출하여, 주목 화소에 대하여, 주목 화소 데이터 및 배경 화소 데이터의 관계를 나타내는, 복수의 관계식을 생성하는 관계식 생성 단계와, 관계식에 기초하여, 주목 화소에 대응하여, 현실 세계에서 복수인 오브젝트의 혼합 상태를 나타내는 혼합비를 검출하는 혼합비 검출 단계와, 혼합비 검출 단계의 처리에 의해 검출된 혼합비를 관계식에 대입함으로써 예측 오차를 연산하는 예측 오차 연산 단계와, 예측 오차를 기초로, 주목 화소가 속하는 영역이, 복수의 오브젝트가 혼합되어 이루어지는 혼합 영역으로서, 복수의 오브젝트 중 전경이 되는 전경 오브젝트의 움직임 방향의 선단측에 형성되는 커버드 백그라운드 영역인지, 또는, 혼합 영역으로서, 전경 오브젝트의 움직임 방향의 후단측에 형성되는 언커버드 백그라운드 영역인지를 특정하는 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 단계와, 주목 화소가 속하는 영역이, 전경 오브젝트를 구성하는 전경 오브젝트 성분 만으로 이루어지는 전경 영역인지, 또는, 배경 오브젝트를 구성하는 배경 오브젝트 성분 만으로 이루어지는 배경 영역인지를 특정하는 전경 영역-배경 영역 특정 단계를 포함하는 것을 특징으로 한다.
혼합비 검출 단계는, 관계식에 기초하여, 주목 화소에 대응하여, 주목 화소에 포함되는 전경 오브젝트 성분을 검출함과 함께, 혼합비를 검출하고, 예측 오차 연산 단계는, 혼합비 검출 단계의 처리에 의해 검출된 혼합비 및 주목 화소에 포함되는 전경 오브젝트 성분을 관계식에 대입함으로써 예측 오차를 연산하도록 할 수 있다.
관계식 생성 단계는, 주목 화소에 대응하는, 주변 프레임의 화소 데이터를, 배경 오브젝트에 상당하는 배경 화소 데이터로서 추출함과 함께, 주목 화소의 주목 화소 데이터, 및 주목 프레임 내의 주목 화소의 근방에 위치하는, 근방 화소의 근방 화소 데이터를 추출하여, 주목 화소에 대하여, 주목 화소 데이터 및 근방 화소 데이터, 및 주목 화소 데이터 또는 근방 화소 데이터에 대응하는 배경 화소 데이터의 관계를 나타내는, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 단계는, 주목 화소 데이터 및 근방 화소 데이터에 포함되는, 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 혼합 영역에서 혼합비의 변화가 혼합 영역의 화소의 위치에 대하여 직선적이다라고 하는 제2 근사에 기초하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 단계는, 주. 눈 화소 데이터 및 근방 화소 데이터에 포함되는, 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 혼합 영역에서 혼합비의 변화가 혼합 영역의 화소의 위치에 대하여 평면적이다라고 하는 제2 근사에 기초하여, 복수의 관계식을 생성하도록 할 수 있다.
혼합비 검출 단계는 복수의 관계식을 최소 제곱법으로 푸는 것에 의해, 혼합비를 검출하도록 할 수 있다.
관계식 생성 단계는, 주목 화소가 커버드 백그라운드 영역에 속한다고 한 경 우, 주목 프레임의 이전 프레임의 화소 데이터를 배경 화소 데이터로서 추출하고, 주목 화소가 언커버드 백그라운드 영역에 속한다고 한 경우, 주목 프레임의 다음 프레임의 화소 데이터를 배경 화소 데이터로서 추출하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 단계는, 주목 화소에 대응하여, 전경 오브젝트의 움직임을 기초로, 주목 프레임 및 주변 프레임으로부터, 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 혼합 화소 데이터에의 개개에 대응하여, 배경 오브젝트의 움직임을 기초로, 혼합 화소 데이터가 추출된 프레임과는 다른 프레임으로부터, 배경 오브젝트에 상당하는 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 단계는, 혼합 화소 데이터에 대응하는 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 주목 프레임 및 주변 프레임으로부터 추출된 혼합 화소 데이터가 일정하다고 하는 제2 근사에 기초하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 단계는, 주목 화소에 대응하여, 전경 오브젝트의 움직임을 기초로, 주목 프레임 및 주변 프레임으로부터, 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 혼합 화소 데이터의 개개에 대응하여, 배경 오브젝트의 움직임을 기초로, 혼합 화소 데이터가 추출된 프레임의 이전 프레임으로부터, 배경 오브젝트에 상당하는 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하고, 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 단계는, 예측 오 차가 소정의 임계값 이상인 영역을 언커버드 백그라운드 영역으로 특정하도록 할 수 있다.
관계식 생성 단계는, 주목 화소에 대응하여, 전경 오브젝트의 움직임을 기초로, 주목 프레임 및 주변 프레임으로부터, 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 혼합 화소 데이터의 개개에 대응하여, 배경 오브젝트의 움직임을 기초로, 혼합 화소 데이터가 추출된 프레임의 다음 프레임으로부터, 배경 오브젝트에 상당하는 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하고, 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 단계는, 예측 오차가 소정의 임계값 이상인 영역을 커버드 백그라운드 영역으로 특정하도록 할 수 있다.
본 발명의 프로그램은, 컴퓨터에, 화상 데이터의 주목 프레임의 주목 화소에 대응하는, 주목 프레임 주변의 주변 프레임의 화소 데이터를, 화상 데이터의 복수의 오브젝트 중 배경이 되는 배경 오브젝트에 상당하는 배경 화소 데이터로서 추출함과 함께, 주목 프레임에 존재하는 주목 화소의 주목 화소 데이터를 추출하여, 주목 화소에 대하여, 주목 화소 데이터 및 배경 화소 데이터의 관계를 나타내는, 복수의 관계식을 생성하는 관계식 생성 단계와, 관계식에 기초하여, 주목 화소에 대응하여, 현실 세계에서 복수인 오브젝트의 혼합 상태를 나타내는 혼합비를 검출하는 혼합비 검출 단계와, 혼합비 검출 단계의 처리에 의해 검출된 혼합비를 관계식에 대입함으로써 예측 오차를 연산하는 예측 오차 연산 단계와, 예측 오차를 기초로, 주목 화소가 속하는 영역이, 복수의 오브젝트가 혼합되어 이루어지는 혼합 영 역으로서, 복수의 오브젝트 중 전경이 되는 전경 오브젝트의 움직임 방향의 선단측에 형성되는 커버드 백그라운드 영역인지, 또는, 혼합 영역으로서, 전경 오브젝트의 움직임 방향의 후단측에 형성되는 언커버드 백그라운드 영역인지를 특정하는 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 단계와, 주목 화소가 속하는 영역이, 전경 오브젝트를 구성하는 전경 오브젝트 성분 만으로 이루어지는 전경 영역인지, 또는, 배경 오브젝트를 구성하는 배경 오브젝트 성분 만으로 이루어지는 배경 영역인지를 특정하는 전경 영역-배경 영역 특정 단계를 실행시키는 것을 특징으로 한다.
혼합비 검출 단계는, 관계식에 기초하여, 주목 화소에 대응하여, 주목 화소에 포함되는 전경 오브젝트 성분을 검출함과 함께, 혼합비를 검출하고, 예측 오차 연산 단계는, 혼합비 검출 단계의 처리에 의해 검출된 혼합비 및 주목 화소에 포함되는 전경 오브젝트 성분을 관계식에 대입함으로써 예측 오차를 연산하도록 할 수 있다.
관계식 생성 단계는, 주목 화소에 대응하는, 주변 프레임의 화소 데이터를, 배경 오브젝트에 상당하는 배경 화소 데이터로서 추출함과 함께, 주목 화소의 주목 화소 데이터, 및 주목 프레임 내의 주목 화소의 근방에 위치하는, 근방 화소의 근방 화소 데이터를 추출하여, 주목 화소에 대하여, 주목 화소 데이터 및 근방 화소 데이터, 및 주목 화소 데이터 또는 근방 화소 데이터에 대응하는 배경 화소 데이터의 관계를 나타내는, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 단계는, 주목 화소 데이터 및 근방 화소 데이터에 포함되는, 전 경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 혼합 영역에서 혼합비의 변화가 혼합 영역의 화소의 위치에 대하여 직선적이다라고 하는 제2 근사에 기초하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 단계는, 주목 화소 데이터 및 근방 화소 데이터에 포함되는, 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 혼합 영역에서 혼합비의 변화가 혼합 영역의 화소의 위치에 대하여 평면적이다라고 하는 제2 근사에 기초하여, 복수의 관계식을 생성하도록 할 수 있다.
혼합비 검출 단계는 복수의 관계식을 최소 제곱법으로 푸는 것에 의해, 혼합비를 검출하도록 할 수 있다.
관계식 생성 단계는, 주목 화소가 커버드 백그라운드 영역에 속한다고 한 경우, 주목 프레임의 이전 프레임의 화소 데이터를 배경 화소 데이터로서 추출하고, 주목 화소가 언커버드 백그라운드 영역에 속한다고 한 경우, 주목 프레임의 다음 프레임의 화소 데이터를 배경 화소 데이터로서 추출하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 단계는, 주목 화소에 대응하여, 전경 오브젝트의 움직임을 기초로, 주목 프레임 및 주변 프레임으로부터, 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 혼합 화소 데이터에의 개개에 대응하여, 배경 오브젝트의 움직임을 기초로, 혼합 화소 데이터가 추출된 프레임과는 다른 프레임으로부터, 배경 오브젝트에 상당하는 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 단계는, 혼합 화소 데이터에 대응하는 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 주목 프레임 및 주변 프레임으로부터 추출된 혼합 화소 데이터가 일정하다고 하는 제2 근사에 기초하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 단계는, 주목 화소에 대응하여, 전경 오브젝트의 움직임을 기초로, 주목 프레임 및 주변 프레임으로부터, 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 혼합 화소 데이터의 개개에 대응하여, 배경 오브젝트의 움직임을 기초로, 혼합 화소 데이터가 추출된 프레임의 이전 프레임으로부터, 배경 오브젝트에 상당하는 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하고, 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 단계는, 예측 오차가 소정의 임계값 이상인 영역을 언커버드 백그라운드 영역으로 특정하도록 할 수 있다.
관계식 생성 단계는, 주목 화소에 대응하여, 전경 오브젝트의 움직임을 기초로, 주목 프레임 및 주변 프레임으로부터, 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 혼합 화소 데이터의 개개에 대응하여, 배경 오브젝트의 움직임을 기초로, 혼합 화소 데이터가 추출된 프레임의 다음 프레임으로부터, 배경 오브젝트에 상당하는 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하고, 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 단계는, 예측 오차가 소정의 임계값 이상인 영역을 커버드 백그라운드 영역으로 특정하도록 할 수 있다.
본 발명의 촬상 장치는, 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 촬상된 피사체 화상을, 소정 수의 화소 데이터로 이루어지는 화상 데이터로서 출력하는 촬상 수단과, 화상 데이터의 주목 프레임의 주목 화소에 대응하는, 주목 프레임 주변의 주변 프레임의 화소 데이터를, 화상 데이터의 복수의 오브젝트 중 배경이 되는 배경 오브젝트에 상당하는 배경 화소 데이터로서 추출함과 함께, 주목 프레임에 존재하는 주목 화소의 주목 화소 데이터를 추출하여, 주목 화소에 대하여, 주목 화소 데이터 및 배경 화소 데이터의 관계를 나타내는, 복수의 관계식을 생성하는 관계식 생성 수단과, 관계식에 기초하여, 주목 화소에 대응하여, 현실 세계에서 복수인 오브젝트의 혼합 상태를 나타내는 혼합비를 검출하는 혼합비 검출 수단과, 혼합비 검출 수단에 의해 검출된 혼합비를 관계식에 대입함으로써 예측 오차를 연산하는 예측 오차 연산 수단과, 예측 오차를 기초로, 주목 화소가 속하는 영역이, 복수의 오브젝트가 혼합되어 이루어지는 혼합 영역으로서, 복수의 오브젝트 중 전경이 되는 전경 오브젝트의 움직임 방향의 선단측에 형성되는 커버드 백그라운드 영역인지, 또는, 혼합 영역으로서, 전경 오브젝트의 움직임 방향의 후단측에 형성되는 언커버드 백그라운드 영역인지를 특정하는 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 수단과, 주목 화소가 속하는 영역이, 전경 오브젝트를 구성하는 전경 오브젝트 성분 만으로 이루어지는 전경 영역인지, 또는, 배경 오브젝트를 구성하는 배경 오브젝트 성분 만으로 이루어지는 배경 영역인지를 특정하는 전경 영역-배경 영역 특정 수단을 포함하는 것을 특징으로 한다.
혼합비 검출 수단은, 관계식에 기초하여, 주목 화소에 대응하여, 주목 화소 에 포함되는 전경 오브젝트 성분을 검출함과 함께, 혼합비를 검출하고, 예측 오차 연산 수단은, 혼합비 검출 수단에 의해 검출된 혼합비 및 주목 화소에 포함되는 전경 오브젝트 성분을 관계식에 대입함으로써 예측 오차를 연산하도록 할 수 있다.
관계식 생성 수단은, 주목 화소에 대응하는, 주변 프레임의 화소 데이터를, 배경 오브젝트에 상당하는 배경 화소 데이터로서 추출함과 함께, 주목 화소의 주목 화소 데이터, 및 주목 프레임 내의 주목 화소의 근방에 위치하는, 근방 화소의 근방 화소 데이터를 추출하여, 주목 화소에 대하여, 주목 화소 데이터 및 근방 화소 데이터, 및 주목 화소 데이터 또는 근방 화소 데이터에 대응하는 배경 화소 데이터의 관계를 나타내는, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 수단은, 주목 화소 데이터 및 근방 화소 데이터에 포함되는, 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 혼합 영역에서 혼합비의 변화가 혼합 영역의 화소의 위치에 대하여 직선적이다라고 하는 제2 근사에 기초하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 수단은, 주목 화소 데이터 및 근방 화소 데이터에 포함되는, 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 혼합 영역에서 혼합비의 변화가 혼합 영역의 화소의 위치에 대하여 평면적이다라고 하는 제2 근사에 기초하여, 복수의 관계식을 생성하도록 할 수 있다.
혼합비 검출 수단은 복수의 관계식을 최소 제곱법으로 푸는 것에 의해, 혼합비를 검출하도록 할 수 있다.
관계식 생성 수단은, 주목 화소가 커버드 백그라운드 영역에 속한다고 한 경 우, 주목 프레임의 이전 프레임의 화소 데이터를 배경 화소 데이터로서 추출하고, 주목 화소가 언커버드 백그라운드 영역에 속한다고 한 경우, 주목 프레임의 다음 프레임의 화소 데이터를 배경 화소 데이터로서 추출하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 수단은, 주목 화소에 대응하여, 전경 오브젝트의 움직임을 기초로, 주목 프레임 및 주변 프레임으로부터, 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 혼합 화소 데이터에의 개개에 대응하여, 배경 오브젝트의 움직임을 기초로, 혼합 화소 데이터가 추출된 프레임과는 다른 프레임으로부터, 배경 오브젝트에 상당하는 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 수단은, 혼합 화소 데이터에 대응하는 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 주목 프레임 및 주변 프레임으로부터 추출된 혼합 화소 데이터가 일정하다고 하는 제2 근사에 기초하여, 복수의 관계식을 생성하도록 할 수 있다.
관계식 생성 수단은, 주목 화소에 대응하여, 전경 오브젝트의 움직임을 기초로, 주목 프레임 및 주변 프레임으로부터, 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 혼합 화소 데이터의 개개에 대응하여, 배경 오브젝트의 움직임을 기초로, 혼합 화소 데이터가 추출된 프레임의 이전 프레임으로부터, 배경 오브젝트에 상당하는 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하고, 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 수단은, 예측 오 차가 소정의 임계값 이상인 영역을 언커버드 백그라운드 영역으로 특정하도록 할 수 있다.
관계식 생성 수단은, 주목 화소에 대응하여, 전경 오브젝트의 움직임을 기초로, 주목 프레임 및 주변 프레임으로부터, 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 혼합 화소 데이터의 개개에 대응하여, 배경 오브젝트의 움직임을 기초로, 혼합 화소 데이터가 추출된 프레임의 다음 프레임으로부터, 배경 오브젝트에 상당하는 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하고, 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 수단은, 예측 오차가 소정의 임계값 이상인 영역을 커버드 백그라운드 영역으로 특정하도록 할 수 있다.
화상 데이터의 주목 프레임의 주목 화소에 대응하는, 주목 프레임 주변의 주변 프레임의 화소 데이터를, 화상 데이터의 복수의 오브젝트 중 배경이 되는 배경 오브젝트에 상당하는 배경 화소 데이터로서 추출함과 함께, 주목 프레임에 존재하는 주목 화소의 주목 화소 데이터를 추출하여, 주목 화소에 대하여, 주목 화소 데이터 및 배경 화소 데이터의 관계를 나타내는, 복수의 관계식이 생성되고, 관계식에 기초하여, 주목 화소에 대응하여, 현실 세계에서 복수인 오브젝트의 혼합 상태를 나타내는 혼합비가 검출되고, 검출된 혼합비를 관계식에 대입함으로써 예측 오차가 연산되고, 예측 오차를 기초로, 주목 화소가 속하는 영역이, 복수의 오브젝트가 혼합되어 이루어지는 혼합 영역으로서, 복수의 오브젝트 중 전경이 되는 전경 오브젝트의 움직임 방향의 선단측에 형성되는 커버드 백그라운드 영역인지, 또는, 혼합 영역으로서, 전경 오브젝트의 움직임 방향의 후단측에 형성되는 언커버드 백그라운드 영역인지가 특정되고, 주목 화소가 속하는 영역이, 전경 오브젝트를 구성하는 전경 오브젝트 성분 만으로 이루어지는 전경 영역인지, 또는, 배경 오브젝트를 구성하는 배경 오브젝트 성분 만으로 이루어지는 배경 영역인지가 특정된다.
이에 의해서, 배경 화상의 영역, 이동하는 물체 화상의 영역, 및 혼합이 발생한 화상의 영역을 특정할 수 있다.
도 1은 본 발명에 따른 화상 처리 장치의 일 실시 형태를 도시하는 도면.
도 2는 화상 처리 장치를 도시하는 블록도.
도 3은 센서에 의한 촬상을 설명하는 도면.
도 4는 화소의 배치를 설명하는 도면.
도 5는 검출 소자의 동작을 설명하는 도면.
도 6A는 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 설명하는 도면.
도 6B는 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상의 모델을 설명하는 도면.
도 7은 배경 영역, 전경 영역, 혼합 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 설명하는 도면.
도 8은 정지하고 있는 전경에 대응하는 오브젝트 및 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상에 있어서의, 인접하여 1열로 배열되어 있는 화소 의 화소값을 시간 방향으로 전개한 모델도.
도 9는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 10은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 11은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 12는 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출한 예를 도시하는 도면.
도 13은 화소와 화소값을 시간 방향으로 전개한 모델과의 대응을 도시하는 도면.
도 14는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 15는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 16은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 17은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 18은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분 할한 모델도.
도 19는 움직임 불선명의 양의 조정 처리를 설명하는 흐름도.
도 20은 혼합비 산출부(103)의 구성을 도시하는 블록도.
도 21은 이상적인 혼합비 α의 예를 도시하는 도면.
도 22는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 23은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 24는 화소의 선택을 설명하는 도면.
도 25는 화소의 선택을 설명하는 도면.
도 26은 추정 혼합비 처리부(201)의 구성을 도시하는 블록도.
도 27은 추정 혼합비의 산출 처리를 설명하는 흐름도.
도 28은 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 산출 처리를 설명하는 흐름도.
도 29는 혼합비 산출부(103)의 다른 구성을 도시하는 블록도.
도 30은 혼합비 α를 근사시키는 직선을 설명하는 도면.
도 31은 혼합비 α를 근사시키는 평면을 설명하는 도면.
도 32는 혼합비 α를 산출할 때의 복수의 프레임의 화소의 대응을 설명하는 도면.
도 33은 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처 리를 설명하는 흐름도.
도 34는 혼합비 산출부(103)의 또 다른 구성을 도시하는 블록도.
도 35는 영역 특정부(104)의 구성을 도시하는 블록도.
도 36은 언커버드 백그라운드 영역 판정부(303)의 판정의 처리를 설명하는 도면.
도 37은 언커버드 백그라운드 영역 판정부(303)의 판정의 처리를 설명하는 도면.
도 38은 입력 화상의 예를 도시하는 도면.
도 39는 영역 판정 결과의 예를 도시하는 도면.
도 40은 영역 판정 결과의 예를 도시하는 도면.
도 41은 입력 화상의 예를 도시하는 도면.
도 42는 영역 판정 결과의 예를 도시하는 도면.
도 43은 영역 판정 결과의 예를 도시하는 도면.
도 44는 영역 특정부(104)의 다른 구성을 도시하는 블록도.
도 45는 영역 특정부(104)의 또 다른 구성을 도시하는 블록도.
도 46은 영역 특정부(104)의 또 다른 구성을 도시하는 블록도.
도 47은 영역 특정한 처리를 설명하는 흐름도.
도 48은 커버드 백그라운드 영역 특정의 처리를 설명하는 흐름도.
도 49는 언커버드 백그라운드 영역 특정의 처리를 설명하는 흐름도.
도 50은 전경 배경 분리부(105)의 구성 일례를 도시하는 블록도.
도 51A는 입력 화상, 전경 성분 화상, 및 배경 성분 화상을 도시하는 도면.
도 51B는 입력 화상, 전경 성분 화상, 및 배경 성분 화상을 도시하는 도면.
도 52는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 53은 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 54는 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 55는 분리부(601)의 구성 일례를 도시하는 블록도.
도 56A는 분리된 전경 성분 화상의 예를 도시하는 도면.
도 56B는 분리된 배경 성분 화상의 예를 도시하는 도면.
도 57은 전경과 배경의 분리 처리를 설명하는 흐름도.
도 58은 움직임 불선명 조정부(106)의 구성 일례를 도시하는 블록도.
도 59는 처리 단위를 설명하는 도면.
도 60은 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 61은 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 62는 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 63은 전경 성분 화상의 화소값을 시간 방향으로 전개하여, 셔터 시간에 대응하는 기간을 분할한 모델도.
도 64는 움직임 불선명 조정부(106)의 다른 구성을 도시하는 도면.
도 65는 움직임 불선명 조정부(106)에 의한 전경 성분 화상에 포함되는 움직임 불선명의 양의 조정 처리를 설명하는 흐름도.
도 66은 움직임 불선명 조정부(106)의 구성의 다른 일례를 도시하는 블록도.
도 67은 화소값과 전경 성분의 것과의 대응을 지정하는 모델 예를 도시하는 도면.
도 68은 전경 성분의 산출을 설명하는 도면.
도 69는 전경 성분의 산출을 설명하는 도면.
도 70은 전경의 움직임 불선명의 제거 처리를 설명하는 흐름도.
도 1은 본 발명에 따른 화상 처리 장치의 일 실시예의 구성을 도시하는 도면이다. CPU(Central processing Unit)(21)는 ROM(Read Only Memory)(22), 또는 기억부(28)에 기억되어 있는 프로그램에 따라서 각종 처리를 실행한다. RAM(Random Access Memory)(23)에는 CPU(21)가 실행하는 프로그램이나 데이터 등이 적절하게 기억된다. 이들 CPU(21), ROM(22), 및 RAM(23)은 버스(24)에 의해 서로 접속되어 있다.
CPU(21)에는 또한 버스(24)를 통해 입출력 인터페이스(25)가 접속되어 있다. 입출력 인터페이스(25)에는 키보드, 마우스, 마이크로폰 등으로 이루어지는 입력부(26), 디스플레이, 스피커 등으로 이루어지는 출력부(27)가 접속되어 있다. CPU(21)는 입력부(26)로부터 입력되는 명령에 대응하여 각종 처리를 실행한다. 그리고, CPU(21)는 처리의 결과 얻어진 화상이나 음성 등을 출력부(27)로 출력한다.
입출력 인터페이스(25)에 접속되어 있는 기억부(28)는, 예를 들면 하드디스크 등으로 구성되고, CPU(21)가 실행하는 프로그램이나 각종 데이터를 기억한다. 통신부(29)는 인터넷, 그 밖의 네트워크를 통해 외부의 장치와 통신한다. 이 예의 경우, 통신부(29)는 센서의 출력을 취득하는 취득부로서 기능한다.
또한, 통신부(29)를 통해 프로그램을 취득하여 기억부(28)에 기억시켜도 된다.
입출력 인터페이스(25)에 접속되어 있는 드라이브(30)는, 자기 디스크(51), 광 디스크(52), 광 자기 디스크(53), 혹은 반도체 메모리(54) 등이 장착되었을 때, 이들을 구동하여, 거기에 기록되어 있는 프로그램이나 데이터 등을 취득한다. 취득된 프로그램이나 데이터는 필요에 따라서 기억부(28)에 전송되어 기억된다.
도 2는 화상 처리 장치를 도시하는 블록도이다.
또, 화상 처리 장치의 각 기능을 하드웨어로 실현하거나, 소프트웨어로 실현하거나 하는 것은 상관없다. 즉, 본 명세서의 각 블록도는 하드웨어의 블록도라고 생각해도 되고, 소프트웨어에 의한 기능 블록도라고 생각해도 된다.
본 명세서에서는 촬상의 대상이 되는, 현실 세계에서의 오브젝트에 대응하는 화상을, 화상 오브젝트라고 칭한다.
화상 처리 장치에 공급된 입력 화상은, 오브젝트 추출부(101), 혼합비 산출 부(103), 영역 특정부(104), 및 전경 배경 분리부(105)에 공급된다.
오브젝트 추출부(101)는 입력 화상에 포함되는 전경 오브젝트에 대응하는 화상 오브젝트를 대략적으로 추출하여, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다. 오브젝트 추출부(101)는 예를 들면, 입력 화상에 포함되는 전경 오브젝트에 대응하는 화상 오브젝트의 윤곽을 검출함으로써, 전경 오브젝트에 대응하는 화상 오브젝트를 대략적으로 추출한다.
오브젝트 추출부(101)는 입력 화상에 포함되는 배경 오브젝트에 대응하는 화상 오브젝트를 대략적으로 추출하여, 추출한 화상 오브젝트를 움직임 검출부(102)에 공급한다. 오브젝트 추출부(101)는 예를 들면, 입력 화상과, 추출된 전경 오브젝트에 대응하는 화상 오브젝트와의 차로부터, 배경 오브젝트에 대응하는 화상 오브젝트를 대략적으로 추출한다.
또한 예를 들면, 오브젝트 추출부(101)는, 내부에 설치되어 있는 배경 메모리에 기억되어 있는 배경 화상과, 입력 화상과의 차로부터, 전경 오브젝트에 대응하는 화상 오브젝트, 및 배경 오브젝트에 대응하는 화상 오브젝트를 대략적으로 추출하도록 해도 된다.
움직임 검출부(102)는 예를 들면, 블록 매칭법, 경사법, 위상 상관법, 및 펠 리커시브 등의 방법에 의해, 대략적으로 추출된 전경 오브젝트에 대응하는 화상 오브젝트의 움직임 벡터를 산출하고, 산출한 움직임 벡터 및 움직임 벡터의 위치 정보(움직임 벡터에 대응하는 화소의 위치를 특정하는 정보)를 혼합비 산출부(103), 및 움직임 불선명 조정부(106)에 공급한다.
움직임 검출부(102)가 출력하는 움직임 벡터에는, 움직임량 v에 대응하는 정보가 포함되어 있다.
또한 예를 들면, 움직임 검출부(102)는, 화상 오브젝트에 화소를 특정하는 화소 위치 정보와 함께, 화상 오브젝트마다의 움직임 벡터를 움직임 불선명 조정부(106)에 출력하도록 해도 된다.
움직임량 v는 움직이고 있는 오브젝트에 대응하는 화상의 위치 변화를 화소 간격을 단위로 하여 나타내는 값이다. 예를 들면, 전경에 대응하는 오브젝트의 화상이, 어떤 프레임을 기준으로 하여 다음 프레임에서 4화소 떨어진 위치에 표시되도록 이동하고 있을 때, 전경에 대응하는 오브젝트의 화상의 움직임량 v는 4가 된다.
또, 오브젝트 추출부(101) 및 움직임 검출부(102)는, 움직이고 있는 오브젝트에 대응한 움직임 불선명량의 조정을 행하는 경우에 필요하다.
혼합비 산출부(103)는, 입력 화상, 및 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보를 기초로, 화소가 혼합 영역의 하나인 커버드 백그라운드 영역에 속하다고 가정했을 때, 추정되는 혼합비(이하, 혼합비 α라 칭함)인 추정 혼합비 및 이것에 대응하는 혼합비 관계 정보를 생성함과 함께, 화소가 혼합 영역의 다른 하나인 언커버드 백그라운드 영역에 속하다고 가정할 때, 추정되는 혼합비인 추정 혼합비 및 이것에 대응하는 혼합비 관계 정보를 생성하고, 생성한 2개의 추정 혼합비 및 이들에 대응하는 혼합비 관계 정보를 영역 특정부(104)에 공급한다.
혼합비 α는 후술하는 수학식 3에 나타낸 바와 같이, 화소값에 있어서의, 배경 오브젝트에 대응하는 화상 성분(이하, 배경 성분이라고도 함)의 비율을 나타내는 값이다.
커버드 백그라운드 영역 및 언커버드 백그라운드 영역의 상세에 대해서는, 후술한다.
영역 특정부(104)는, 입력 화상, 및 혼합비 산출부(103)로부터 공급된 2개의 추정 혼합비 및 이들에 대응하는 혼합비 관계 정보를 기초로, 입력된 화상의 화소의 각각을, 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나로 특정하여, 화소마다 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나에 속하는 가를 도시하는 정보(이하, 영역 정보라고 칭함)를 전경 배경 분리부(105) 및 움직임 불선명 조정부(106)에 공급한다.
영역 특정부(104)는, 생성한 영역 정보, 및 혼합비 산출부(103)로부터 공급된 2개의 추정 혼합비 및 이들에 대응하는 혼합비 관계 정보를 기초로, 혼합비 α를 생성하고, 생성한 혼합비 α를 전경 배경 분리부(105)에 공급한다.
전경 배경 분리부(105)는, 영역 특정부(104)로부터 공급된 영역 정보 및 혼합비 α를 기초로, 전경의 오브젝트에 대응하는 화상의 성분(이하, 전경의 성분이라고 칭함)만으로 이루어지는 전경 성분 화상과, 배경의 성분 만으로 이루어지는 배경 성분 화상과 입력 화상을 분리하여, 전경 성분 화상을 움직임 불선명 조정부(106) 및 선택부(107)에 공급한다. 또, 분리된 전경 성분 화상을 최종적인 출력으로 하는 것도 생각된다. 종래의 혼합 영역을 고려하지 않고 전경과 배경만을 특정하여, 분리하고 있는 방식에 비교하여 정확한 전경과 배경을 얻을 수 있다.
움직임 불선명 조정부(106)는 움직임 벡터로부터 알 수 있는 움직임량 v 및 영역 정보에 기초하여, 전경 성분 화상에 포함되는 1 이상의 화소를 나타내는 처리 단위를 결정한다. 처리 단위는 움직임 불선명량의 조정 처리 대상이 되는 1군의 화소를 지정하는 데이터이다.
움직임 불선명 조정부(106)는 화상 처리 장치에 입력된 움직임 불선명 조정량, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보, 및 처리 단위에 기초하여, 전경 성분 화상에 포함되는 움직임 불선명을 제거하거나, 움직임 불선명량을 감소시키거나, 또는 움직임 불선명량을 증가시키는 등 전경 성분 화상에 포함되는 움직임 불선명량을 조정하여, 움직임 불선명량을 조정한 전경 성분 화상을 선택부(107)에 출력한다. 움직임 벡터와 그 위치 정보는 사용하지 않는 경우도 있다.
여기서, 움직임 불선명이란, 촬상의 대상이 되는, 현실 세계에서의 오브젝트의 움직임과, 센서의 촬상의 특성에 의해 생기는, 움직이고 있는 오브젝트에 대응하는 화상에 포함되어 있는 왜곡을 말한다.
선택부(107)는 예를 들면 사용자의 선택에 대응한 선택 신호에 기초하여, 전경 배경 분리부(105)로부터 공급된 전경 성분 화상, 및 움직임 불선명 조정부(106)로부터 공급된 움직임 불선명량이 조정된 전경 성분 화상 중 어느 한쪽을 선택하여, 선택한 전경 성분 화상을 출력한다.
다음에, 도 3 내지 도 18을 참조하여 화상 처리 장치에 공급되는 입력 화상 에 대하여 설명한다.
도 3은 센서에 의한 촬상을 설명하는 도면이다. 센서는 예를 들면, 고체 촬상 소자인 CCD(Charge-Coupled Device) 에리어 센서를 구비한 CCD 비디오 카메라 등으로 구성된다. 현실 세계에서의, 전경에 대응하는 오브젝트(111)는, 현실 세계에서의, 배경에 대응하는 오브젝트(112)와, 센서 사이를, 예를 들면 도면 중의 좌측에서 우측으로 수평으로 이동한다.
센서는 전경에 대응하는 오브젝트(111)를 배경에 대응하는 오브젝트(112)와 함께 촬상한다. 센서는 촬상한 화상을 1프레임 단위로 출력한다. 예를 들면, 센서는 1초 사이에 30 프레임으로 이루어지는 화상을 출력한다. 센서의 노광 시간은 1/30초로 할 수 있다. 노광 시간은 센서가 입력된 광의 전하로의 변환을 개시하고 나서, 입력된 광의 전하로의 변환을 종료하기까지의 기간이다. 이하, 노광 시간을 셔터 시간이라고도 한다.
도 4는 화소의 배치를 설명하는 도면이다. 도 4에 있어서, A 내지 I는 개개의 화소를 나타낸다. 화소는 화상에 대응하는 평면 상에 배치되어 있다. 하나의 화소에 대응하는 하나의 검출 소자는 센서 상에 배치되어 있다. 센서가 화상을 촬상할 때, 하나의 검출 소자는 화상을 구성하는 하나의 화소에 대응하는 화소값을 출력한다. 예를 들면, 검출 소자의 X방향의 위치는 화상 상의 가로 방향의 위치에 대응하고, 검출 소자의 Y방향의 위치는 화상 상의 세로 방향의 위치에 대응한다.
도 5에 도시한 바와 같이, 예를 들면, CCD인 검출 소자는 셔터 시간에 대응하는 기간, 입력된 광을 전하로 변환하여, 변환된 전하를 축적한다. 전하량은 입 력된 광의 세기와, 광이 입력되어 있는 시간에 거의 비례한다. 검출 소자는 셔터 시간에 대응하는 기간에 있어서, 입력된 광으로부터 변환된 전하를 이미 축적되어 있는 전하에 부가해 간다. 즉, 검출 소자는 셔터 시간에 대응하는 기간, 입력되는 광을 적분하여, 적분된 광에 대응하는 량의 전하를 축적한다. 검출 소자는 시간에 대하여 적분 효과가 있다고도 할 수 있다.
검출 소자에 축적된 전하는 도시하지 않은 회로에 의해 전압값으로 변환되고, 전압값은 다시 디지털 데이터 등의 화소값으로 변환되어 출력된다. 따라서, 센서로부터 출력되는 개개의 화소값은, 전경 또는 배경에 대응하는 오브젝트의 공간적으로 확대를 갖는 어떤 부분을 셔터 시간에 대하여 적분한 결과인, 1차원의 공간에 사영된 값을 갖는다.
화상 처리 장치는 이러한 센서의 축적 동작에 의해, 출력 신호에 매립되어 버린 유의 정보, 예를 들면, 혼합비 α를 추출한다. 화상 처리 장치는 전경의 화상 오브젝트 자신이 혼합됨으로써 생기는 왜곡량, 예를 들면 움직임 불선명량 등을 조정한다. 또한, 화상 처리 장치는 전경의 화상 오브젝트와 배경 화상 오브젝트가 혼합됨으로써 생기는 왜곡량을 조정한다.
도 6A는, 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 설명하는 도면이다. 도 6B는, 움직이고 있는 전경에 대응하는 오브젝트와, 정지하고 있는 배경에 대응하는 오브젝트를 촬상하여 얻어지는 화상의 모델을 설명하는 도면이다.
도 6A는 움직임을 수반하는 전경에 대응하는 오브젝트와, 정지하고 있는 배 경에 대응하는 오브젝트를 촬상하여 얻어지는 화상을 나타내고 있다. 도 6A에 나타내는 예에 있어서, 전경에 대응하는 오브젝트는 화면에 대하여 수평으로 좌측에서 우측으로 움직이고 있다.
도 6B는 도 6A에 나타내는 화상의 1라인에 대응하는 화소값을 시간 방향으로 전개한 모델도이다. 도 6B의 가로 방향은 도 6A의 공간 방향 X에 대응하고 있다.
배경 영역의 화소는 배경 성분, 즉 배경 오브젝트에 대응하는 화상의 성분 만으로 그 화소값이 구성되어 있다. 전경 영역의 화소는 전경 성분, 즉 전경 오브젝트에 대응하는 화상의 성분 만으로 그 화소값이 구성되어 있다.
혼합 영역의 화소는 배경 성분 및 전경 성분으로 그 화소값이 구성되어 있다. 혼합 영역은 배경 성분 및 전경 성분으로 그 화소값이 구성되어 있기 때문에, 왜곡 영역이라고도 할 수 있다. 혼합 영역은 또한, 커버드 백그라운드 영역 및 언커버드 백그라운드 영역으로 분류된다.
커버드 백그라운드 영역은 전경 영역에 대하여 전경 오브젝트의 진행 방향 전단부에 대응하는 위치의 혼합 영역으로, 시간의 경과에 대응하여 배경 성분이 전경에 덮여 가려지는 영역을 말한다.
이에 대하여, 언커버드 백그라운드 영역은 전경 영역에 대하여 전경 오브젝트의 진행 방향 후단부에 대응하는 위치의 혼합 영역으로, 시간의 경과에 대응하여 배경 성분이 나타나는 영역을 말한다.
이와 같이, 전경 영역, 배경 영역, 또는 커버드 백그라운드 영역 혹은 언커버드 백그라운드 영역을 포함하는 화상이, 혼합비 산출부(103), 영역 특정부(104), 및 전경 배경 분리부(105)에 입력 화상으로서 입력된다.
도 7은 이상과 같은, 배경 영역, 전경 영역, 혼합 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역을 설명하는 도면이다. 도 6A에 나타내는 화상에 대응하는 경우, 배경 영역은 정지 부분이고, 전경 영역은 움직임 부분이고, 혼합 영역의 커버드 백그라운드 영역은 배경으로부터 전경으로 변화하는 부분이고, 혼합 영역의 언커버드 백그라운드 영역은 전경으로부터 배경으로 변화하는 부분이다.
도 8은 정지하고 있는 전경에 대응하는 오브젝트 및 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상에서의, 인접하여 1열로 배열되어 있는 화소의 화소값을 시간 방향으로 전개한 모델도이다. 예를 들면, 인접하여 1열로 배열되어 있는 화소로서, 화면의 1라인 상에 배열되어 있는 화소를 선택할 수 있다.
도 8에 나타내는 F01 내지 F04의 화소값은 정지하고 있는 전경 오브젝트에 대응하는 화소의 화소값이다. 도 8에 나타내는 B01 내지 B04의 화소값은 정지하고 있는 배경 오브젝트에 대응하는 화소의 화소값이다.
도 8에 있어서의 세로 방향은, 시간에 대응하여, 도면의 위에서 아래로 향하여 시간이 경과한다. 도 8의 구형의 상변의 위치는, 센서가 입력된 광의 전하로의 변환을 개시하는 시각에 대응하고, 도 8의 구형의 하변의 위치는, 센서가 입력된 광의 전하로의 변환을 종료하는 시각에 대응한다. 즉, 도 8의 구형의 상변으로부터 하변까지의 거리는, 셔터 시간에 대응한다.
이하에 있어서, 셔터 시간과 프레임 간격이 동일한 경우를 예로 설명한다.
도 8에서의 가로 방향은 도 6A에서 설명한 공간 방향 X에 대응한다. 보다 구체적으로는, 도 8에 나타내는 예에 있어서, 도 8 중의 "F01"이라고 기재된 직사각형의 좌변으로부터 "B04"라고 기재된 직사각형의 우변까지의 거리는 화소 피치의 8배, 즉 연속하고 있는 8개의 화소 간격에 대응한다.
전경 오브젝트 및 배경 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에 있어서 센서에 입력되는 광은 변화하지 않는다.
여기서, 셔터 시간에 대응하는 기간을 두 개 이상의 동일한 길이의 기간으로 분할한다. 예를 들면, 가상 분할수를 4로 하면, 도 8에 나타내는 모델도는 도 9에 나타내는 모델로서 나타낼 수 있다. 가상 분할수는 전경에 대응하는 오브젝트의 셔터 시간 내에서의 움직임량 v 등에 대응하여 설정된다. 예를 들면, 4인 움직임량 v에 대응하여, 가상 분할수는 4가 되고, 셔터 시간에 대응하는 기간은 4개로 분할된다.
도면 중의 가장 윗 행은 셔터가 개방되어 처음 분할된 기간에 대응한다. 도면 중 위에서 2번째 행은 셔터가 개방되어 2번째 분할된 기간에 대응한다. 도면 중 위에서 3번째 행은 셔터가 개방되어 3번째 분할된 기간에 대응한다. 도면 중 위에서 4번째 행은 셔터가 개방되어 4번째의 분할된 기간에 대응한다.
이하, 움직임량 v에 대응하여 분할된 셔터 시간을 셔터 시간 /v라고도 부른다.
전경에 대응하는 오브젝트가 정지하고 있을 때, 센서에 입력되는 광은 변화하지 않기 때문에, 전경 성분 F01/v는, 화소값 F01을 가상 분할수로 나눈 값과 동 일하다. 마찬가지로, 전경에 대응하는 오브젝트가 정지하고 있을 때, 전경 성분 F02/v는 화소값 F02를 가상 분할수로 나눈 값과 동일하고, 전경 성분 F03/v는 화소값 F03을 가상 분할수로 나눈 값과 동일하고, 전경 성분 F04/v는 화소값 F04를 가상 분할수로 나눈 값과 동일하다.
배경에 대응하는 오브젝트가 정지하고 있을 때, 센서에 입력되는 광은 변화하지 않기 때문에, 배경 성분 B01/v는 화소값 B01을 가상 분할수로 나눈 값과 동일하다. 마찬가지로, 배경에 대응하는 오브젝트가 정지하고 있을 때, 배경 성분 B02/v는 화소값 B02를 가상 분할수로 나눈 값과 동일하고, B03/v는 화소값 B03을 가상 분할수로 나눈 값과 동일하고, B04/v는 화소값 B04를 가상 분할수로 나눈 값과 동일하다.
즉, 전경에 대응하는 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에 있어서, 센서에 입력되는 전경 오브젝트에 대응하는 광이 변화하지 않기 때문에, 셔터가 개방되어 처음의, 셔터 시간 /v에 대응하는 전경 성분 F01/v와, 셔터가 개방되어 2번째의, 셔터 시간 /v에 대응하는 전경 성분 F01/v와, 셔터가 개방되어 3번째의, 셔터 시간 /v에 대응하는 전경 성분 F01/v와, 셔터가 개방되어 4번째의, 셔터 시간 /v에 대응하는 전경 성분 F01/v는, 동일한 값이 된다. F02/v 내지 F04/v도 F01/v와 마찬가지의 관계를 갖는다.
배경에 대응하는 오브젝트가 정지하고 있는 경우, 셔터 시간에 대응하는 기간에 있어서, 센서에 입력되는 배경 오브젝트에 대응하는 광은 변화하지 않기 때문에, 셔터가 개방되어 처음의, 셔터 시간 /v에 대응하는 배경 성분 B01/v와, 셔터가 개방되어 2번째의, 셔터 시간 /v에 대응하는 배경 성분 B01/v와, 셔터가 개방되어 3번째의, 셔터 시간 /v에 대응하는 배경 성분 B01/v와, 셔터가 개방되어 4번째의, 셔터 시간 /v에 대응하는 배경 성분 B01/v는, 동일한 값이 된다. B02/v 내지 B04/v도 마찬가지의 관계를 갖는다.
다음에, 전경에 대응하는 오브젝트가 이동하고, 배경에 대응하는 오브젝트가 정지하고 있는 경우에 대해 설명한다.
도 10은 전경에 대응하는 오브젝트가 도면 중의 우측을 향하여 이동하는 경우의, 커버드 백그라운드 영역을 포함하는, 1라인 상의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 10에 있어서, 전경의 움직임량 v는 4이다. 1프레임은 짧은 시간이기 때문에, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동하고 있다고 가정할 수 있다. 도 10에 있어서, 전경에 대응하는 오브젝트의 화상은, 어떤 프레임을 기준으로 하여 다음 프레임에서 4화소분 우측에 표시되도록 이동한다.
도 10에 있어서, 가장 좌측 화소 내지 좌측에서 4번째 화소는 전경 영역에 속한다. 도 10에 있어서, 좌측에서 5번째 내지 좌측에서 7번째 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다. 도 10에 있어서, 가장 우측 화소는 배경 영역에 속한다.
전경에 대응하는 오브젝트가 시간의 경과와 함께 배경에 대응하는 오브젝트를 덮어 숨기듯이 이동하고 있기 때문에, 커버드 백그라운드 영역에 속하는 화소의 화소값에 포함되는 성분은, 셔터 시간에 대응하는 기간의 어느 시점에서, 배경 성 분에서 전경 성분으로 바뀐다.
예를 들면, 도 10 중에 굵은 선 테두리를 한 화소값 M은 수학식 1로 표현된다.
Figure 112003006664212-pct00001
예를 들면, 좌측에서 5번째 화소는 1개의 셔터 시간 /v에 대응하는 배경 성분을 포함하고, 3개의 셔터 시간 /v에 대응하는 전경 성분을 포함하기 때문에, 좌측에서 5번째 화소의 혼합비 α는 1/4이다. 좌측에서 6번째 화소는 2개의 셔터 시간 /v에 대응하는 배경 성분을 포함하고, 2개의 셔터 시간 /v에 대응하는 전경 성분을 포함하기 때문에, 좌측에서 6번째 화소의 혼합비 α는 1/2이다. 좌측에서 7번째 화소는 3개의 셔터 시간 /v에 대응하는 배경 성분을 포함하고, 1개의 셔터 시간 /v에 대응하는 전경 성분을 포함하기 때문에, 좌측에서 7번째 화소의 혼합비 α는 3/4이다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 10에서의 좌측에서 4번째 화소의, 셔터가 개방되어 처음의, 셔터 시간 /v의 전경 성분 F07/v는, 도 10에서의 좌측에서 5번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v에 대응하는 전경 성분과 동일하다. 마찬가지로, 전경 성분 F07/v는, 도 10에서의 좌측에서 6번째 화소의, 셔터가 개방되어 3번째의 셔터 시간 /v에 대응하 는 전경 성분과, 도 10에서의 좌측에서 7번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v에 대응하는 전경 성분과 각각 동일하다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 10에서의 좌측에서 3번째 화소의, 셔터가 개방되어 처음의 셔터 시간 /v의 전경 성분 F06/v는, 도 10에서의 좌측에서 4번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v에 대응하는 전경 성분과 동일하다. 마찬가지로, 전경 성분 F06/v는, 도 10에서의 좌측에서 5번째 화소의, 셔터가 개방되어 3번째의 셔터 시간 /v에 대응하는 전경 성분과, 도 10에서의 좌측에서 6번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v에 대응하는 전경 성분과, 각각 동일하다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 10에서의 좌측에서 2번째 화소의, 셔터가 개방되어 처음의 셔터 시간 /v의 전경 성분 F05/v는, 도 10에서의 좌측에서 3번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v 에 대응하는 전경 성분과 동일하다. 마찬가지로, 전경 성분 F05/v는, 도 10에서의 좌측에서 4번째 화소의, 셔터가 개방하여 3번째의 셔터 시간 /v에 대응하는 전경 성분과, 도 10 중의 좌측에서 5번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v에 대응하는 전경 성분과 각각 동일하다.
전경에 대응하는 오브젝트가 강체이고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 등속으로 이동한다고 가정할 수 있기 때문에, 예를 들면, 도 10에서의 가장 좌측 화소의, 셔터가 개방되어 처음의 셔터 시간 /v의 전경 성분 F04/v는, 도 10에서의 좌측에서 2번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v에 대응하는 전경 성분과 동일하다. 마찬가지로, 전경 성분 F04/v 는, 도 10에서의 좌측에서 3번째 화소의, 셔터가 개방되어 3번째의 셔터 시간 /v에 대응하는 전경 성분과, 도 10에서의 좌측에서 4번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v에 대응하는 전경 성분과, 각각 동일하다.
움직이고 있는 오브젝트에 대응하는 전경의 영역은 이와 같이 움직임 불선명을 포함하기 때문에, 왜곡 영역이라고도 말할 수 있다.
도 11은 전경이 도면 중의 우측을 향하여 이동하는 경우의, 언커버드 백그라운드 영역을 포함하는, 하나의 라인 상의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 11에 있어서, 전경의 움직임량 v는 4이다. 1프레임은 짧은 시간이기 때문에, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동하고 있다고 가정할 수 있다. 도 11에 있어서, 전경에 대응하는 오브젝트의 화상은 어떤 프레임을 기준으로 하여 다음 프레임에서 4화소분 우측으로 이동한다.
도 11에 있어서, 가장 좌측 화소 내지 좌측에서 4번째 화소는 배경 영역에 속한다. 도 11에 있어서, 좌측에서 5번째 내지 좌측에서 7번째 화소는 언커버드 백그라운드인 혼합 영역에 속한다. 도 11에 있어서, 가장 우측 화소는 전경 영역에 속한다.
배경에 대응하는 오브젝트를 덮고 있는 전경에 대응하는 오브젝트가 시간의 경과와 함께 배경에 대응하는 오브젝트의 앞으로부터 제거되도록 이동하고 있기 때 문에, 언커버드 백그라운드 영역에 속하는 화소의 화소값에 포함되는 성분은, 셔터 시간에 대응하는 기간의 어느 시점에서, 전경 성분에서 배경 성분으로 바뀐다.
예를 들면, 도 11 중에 굵은 선 테두리를 한 화소값 M'는 수학식 2으로 표현된다.
Figure 112003006664212-pct00002
예를 들면, 좌측에서 5번째 화소는 3개의 셔터 시간 /v에 대응하는 배경 성분을 포함하고, 1개의 셔터 시간 /v에 대응하는 전경 성분을 포함하기 때문에, 좌측에서 5번째 화소의 혼합비 α는 3/4이다. 좌측에서 6번째 화소는 2개의 셔터 시간 /v에 대응하는 배경 성분을 포함하고, 2개의 셔터 시간 /v에 대응하는 전경 성분을 포함하기 때문에, 좌측에서 6번째 화소의 혼합비 α는 1/2이다. 좌측에서 7번째 화소는 1개의 셔터 시간 /v에 대응하는 배경 성분을 포함하고, 3개의 셔터 시간 /v에 대응하는 전경 성분을 포함하기 때문에, 좌측에서 7번째 화소의 혼합비 α는 1/4이다.
수학식 1 및 수학식 2를 보다 일반화하면, 화소값 M은 수학식 3으로 표현된다.
Figure 112003006664212-pct00003
여기서, α는 혼합비이다. B는 배경의 화소값이고, Fi/v는 전경 성분이다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 움직인다고 가정할 수 있고, 또한 움직임량 v가 4이기 때문에, 예를 들면, 도 11에서의 좌측에서 5번째 화소의, 셔터가 개방되어 처음의, 셔터 시간 /v의 전경 성분 F01/v는, 도 11에서의 좌측에서 6번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v에 대응하는 전경 성분과 동일하다. 마찬가지로, F01/v는, 도 11에서의 좌측에서 7번째 화소의, 셔터가 개방되어 3번째의 셔터 시간 /v에 대응하는 전경 성분과, 도 11에서의 좌측에서 8번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v에 대응하는 전경 성분과, 각각 동일하다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 움직인다고 가정할 수 있고, 또한 가상 분할수가 4이기 때문에, 예를 들면, 도 11에서의 좌측에서 6번째 화소의, 셔터가 개방되어 처음의, 셔터 시간 /v의 전경 성분 F02/v는, 도 11에서의 좌측에서 7번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v에 대응하는 전경 성분과 동일하다. 마찬가지로, 전경 성분 F02/v는, 도 11에서의 좌측에서 8번째 화소의, 셔터가 개방되어 3번째의 셔터 시간 /v에 대응하는 전경 성분과 동일하다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 움직인다고 가정할 수 있고, 또한 움직임량 v가 4이기 때문에, 예를 들면, 도 11에서의 좌측에서 7번째 화소의, 셔터가 개방되어 처음의, 셔터 시간 /v의 전경 성분 F03/v는, 도 11에서의 좌측에서 8번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v에 대응하는 전경 성분과 동일하다.
도 9 내지 도 11의 설명에 있어서, 가상 분할수는 4인 것으로 설명하였지만, 가상 분할수는 움직임량 v에 대응한다. 움직임량 v는 일반적으로 전경에 대응하는 오브젝트의 이동 속도에 대응한다. 예를 들면, 전경에 대응하는 오브젝트가 어떤 프레임을 기준으로 하여 다음 프레임에서 4화소분 우측에 표시되도록 이동하고 있을 때, 움직임량 v는 4가 된다. 움직임량 v에 대응하여 가상 분할수는 4가 된다. 마찬가지로, 예를 들면, 전경에 대응하는 오브젝트가 어떤 프레임을 기준으로 하여 다음 프레임에서 6 화소분 좌측에 표시되도록 이동하고 있을 때, 움직임량 v는 6이 되고, 가상 분할수는 6이 된다.
도 12 및 도 13에, 이상에서 설명한, 전경 영역, 배경 영역, 커버드 백그라운드 영역 혹은 언커버드 백그라운드 영역으로 이루어지는 혼합 영역과, 분할된 셔터 시간에 대응하는 전경 성분 및 배경 성분과의 관계를 나타낸다.
도 12는 정지하고 있는 배경의 앞을 이동하고 있는 오브젝트에 대응하는 전경을 포함하는 화상으로부터, 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출한 예를 나타낸다. 도 12에 나타내는 예에 있어서, A로 나타내는 전경에 대응하는 오브젝트는, 화면에 대하여 수평으로 이동하고 있다.
프레임 #n+1은 프레임 #n의 다음 프레임이고, 프레임 #n+2는 프레임 #n+1의 다음 프레임이다.
프레임 #n 내지 프레임 #n+2 중 어느 하나로부터 추출한, 전경 영역, 배경 영역, 및 혼합 영역의 화소를 추출하고, 움직임량 v를 4로 하여, 추출된 화소의 화소값을 시간 방향으로 전개한 모델을 도 13에 나타낸다.
전경 영역의 화소값은 전경에 대응하는 오브젝트가 이동하기 때문에, 셔터 시간 /v의 기간에 대응하는, 4개의 다른 전경 성분으로 구성된다. 예를 들면, 도 13에 나타내는 전경 영역의 화소 중 가장 좌측에 위치하는 화소는, F01/v, F02/v, F03/v, 및 F04/v로 구성된다. 즉, 전경 영역의 화소는 움직임 불선명을 포함하고 있다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 셔터 시간에 대응하는 기간에 있어서, 센서에 입력되는 배경에 대응하는 광은 변화하지 않는다. 이 경우, 배경 영역의 화소값은 움직임 불선명을 포함하지 않는다.
커버드 백그라운드 영역 혹은 언커버드 백그라운드 영역으로 이루어지는 혼합 영역에 속하는 화소의 화소값은, 전경 성분과 배경 성분으로 구성된다.
다음에, 오브젝트에 대응하는 화상이 움직이고 있을 때, 복수의 프레임에 있어서의, 인접하여 1열로 배열되어 있는 화소로서, 프레임 상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델에 대하여 설명한다. 예를 들면, 오브젝트에 대응하는 화상이 화면에 대하여 수평으로 움직이고 있을 때, 인접하여 1열로 배열되어 있는 화소로서, 화면의 1라인 상에 배열되어 있는 화소를 선택할 수 있다.
도 14는 정지하고 있는 배경에 대응하는 오브젝트를 촬상한 화상의 3개의 프레임의, 인접하여 1열로 배열되어 있는 화소로서, 프레임 상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 프레임 #n은 프레임 #n-1의 다음 프레임이고, 프레임 #n+1은 프레임 #n의 다음 프레임이다. 다른 프레임도 마찬가지로 칭한다.
도 14에 나타내는 B01 내지 B12의 화소값은 정지하고 있는 배경 오브젝트에 대응하는 화소의 화소값이다. 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 프레임 #n-1 내지 프레임 n+1에 있어서, 대응하는 화소의 화소값은 변화하지 않는다. 예를 들면, 프레임 #n-1에서의 B05의 화소값을 갖는 화소의 위치에 대응하는, 프레임 #n에서의 화소, 및 프레임 #n+1에서의 화소는, 각각 B05의 화소값을 갖는다.
도 15는 정지하고 있는 배경에 대응하는 오브젝트와 함께 도면 중의 우측으로 이동하는 전경에 대응하는 오브젝트를 촬상한 화상의 3개의 프레임의, 인접하여 1열로 배열되어 있는 화소로서, 프레임 상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 15에 나타내는 모델은 커버드 백그라운드 영역을 포함한다.
도 15에 있어서, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 이동하기 때문에, 전경의 움직임량 v는 4이고, 가상 분할수는 4이다.
예를 들면, 도 15 중의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방되어 처음의 셔터 시간 /v의 전경 성분은 F12/v가 되고, 도 15에서의 좌측에서 2번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v의 전경 성분도 F12/v가 된다. 도 15에서의 좌측에서 3번째 화소의, 셔터가 개방되어 3번째의 셔터 시간 /v의 전경 성분, 및 도 15에서의 좌측에서 4번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v의 전경 성분은 F12/v가 된다.
도 15에서의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v의 전경 성분은 F11/v가 되고, 도 15에서의 좌측에서 2번째 화소의, 셔터가 개방되어 3번째의 셔터 시간 /v의 전경 성분도 F11/v가 된다. 도 15에서의 좌측에서 3번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v의 전경 성분은 F11/v로 된다.
도 15에서의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방되어 3번째의 셔터 시간 /v의 전경 성분은 F10/v가 되고, 도 15에서의 좌측에서 2번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v의 전경 성분도 F10/v가 된다. 도 15에서의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v의 전경 성분은 F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 15에서의 프레임 #n-1의 좌측에서 2번째 화소의, 셔터가 개방되어 처음의 셔터 시간 /v의 배경 성분은 B01/v가 된다. 도 15에서의 프레임 #n-1의 좌측에서 3번째 화소의, 셔터가 개방되어 처음 및 2번째의 셔터 시간 /v의 배경 성분은 B02/v가 된다. 도 15에서의 프레임 #n-1의 좌측에서 4번째 화소의, 셔터가 개방되어 처음 내지 3번째의 셔터 시간 /v의 배경 성분은 B03/v가 된다.
도 15에서의 프레임 #n-1에 있어서, 가장 좌측 화소는 전경 영역에 속하고, 좌측에서 2번째 내지 4번째 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다.
도 15에서의 프레임 #n-1의 좌측에서 5번째 화소 내지 12번째 화소는 배경 영역에 속하고, 그 화소값은 각각 B04 내지 B11이 된다.
도 15에서의 프레임 #n의 좌측에서 1번째 화소 내지 5번째 화소는 전경 영역에 속한다. 프레임 #n의 전경 영역에서의 셔터 시간 /v의 전경 성분은 F05/v 내지 F12/v 중 어느 하나이다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 이동하기 때문에, 도 15에서의 프레임 #n의 좌측에서 5번째 화소의, 셔터가 개방되어 처음의 셔터 시간 /v의 전경 성분은 F12/v가 되고, 도 15에서의 좌측에서 6번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v의 전경 성분도 F12/v가 된다. 도 15에서의 좌측에서 7번째 화소의, 셔터가 개방되어 3번째의 셔터 시간 /v의 전경 성분, 및 도 15에서의 좌측에서 8번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v의 전경 성분은 F12/v가 된다.
도 15에서의 프레임 #n의 좌측에서 5번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v의 전경 성분은 F11/v가 되고, 도 15에서의 좌측에서 6번째 화소의, 셔터가 개방되어 3번째의 셔터 시간 /v의 전경 성분도 F11/v가 된다. 도 15에서의 좌측에서 7번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v의 전경 성분은 F11/v가 된다.
도 15에서의 프레임 #n의 좌측에서 5번째 화소의, 셔터가 개방되어 3번째의 셔터 시간 /v의 전경 성분은 F10/v가 되고, 도 15에서의 좌측에서 6번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v의 전경 성분도 F10/v가 된다. 도 15에서의 프레임 #n의 좌측에서 5번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v의 전 경 성분은 F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 15에서의 프레임 #n의 좌측에서 6번째 화소의, 셔터가 개방되어 처음의 셔터 시간 /v의 배경 성분은 B05/v가 된다. 도 15에서의 프레임 #n의 좌측에서 7번째 화소의, 셔터가 개방되어 처음 및 2번째의 셔터 시간 /v의 배경 성분은 B06/v가 된다. 도 15에서의 프레임 #n의 좌측에서 8번째 화소의, 셔터가 개방되어 처음 내지 3번째의, 셔터 시간 /v의 배경 성분은 B07/v가 된다.
도 15에서의 프레임 #n에서, 좌측에서 6번째 내지 8번째 화소는 커버드 백그라운드 영역인 혼합 영역에 속한다.
도 15에서의 프레임 #n의 좌측에서 9번째 화소 내지 12번째 화소는 배경 영역에 속하고, 화소값은 각각 B08 내지 B11이 된다.
도 15에서의 프레임 #n+1의 좌측에서 1번째 화소 내지 9번째 화소는 전경 영역에 속한다. 프레임 #n+1의 전경 영역에서의, 셔터 시간 /v의 전경 성분은 F01/v 내지 F12/v 중 어느 하나이다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 이동하기 때문에, 도 15에서의 프레임 #n+1의 좌측에서 9번째 화소의, 셔터가 개방되어 처음의 셔터 시간 /v의 전경 성분은 F12/v가 되고, 도 15에서의 좌측에서 10번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v의 전경 성분도 F12/v가 된다. 도 15에서의 좌측에서 11번째 화소의, 셔터가 개방되어 3번째의 셔터 시간 /v의 전경 성분, 및 도 15 에서의 좌측에서 12번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v의 전경 성분은 F12/v가 된다.
도 15에서의 프레임 #n+1의 좌측에서 9번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v의 기간의 전경 성분은 F11/v가 되고, 도 15에서의 좌측에서 10번째 화소의, 셔터가 개방되어 3번째의 셔터 시간 /v의 전경 성분도 F11/v가 된다. 도 15에서의 좌측에서 11번째 화소의, 셔터가 개방되어 4번째의, 셔터 시간 /v의 전경 성분은 F11/v가 된다.
도 15에서의 프레임 #n+1의 좌측에서 9번째 화소의, 셔터가 개방되어 3번째의, 셔터 시간 /v의 전경 성분은 F10/v가 되고, 도 15에서의 좌측에서 10번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v의 전경 성분도 F10/v가 된다. 도 15에서의 프레임 #n+1의 좌측에서 9번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v의 전경 성분은 F09/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 15 중의 프레임 #n+1의 좌측에서 10번째 화소의, 셔터가 개방되어 처음의 셔터 시간 /v의 배경 성분은 B09/v가 된다. 도 15에서의 프레임 #n+1의 좌측에서 11번째 화소의, 셔터가 개방되어 처음 및 2번째의 셔터 시간 /v의 배경 성분은 B10/v가 된다. 도 15에서의 프레임 #n+1의 좌측에서 12번째 화소의, 셔터가 개방되어 처음 내지 3번째의, 셔터 시간 /v의 배경 성분은 B11/v가 된다.
도 15에서의 프레임 #n+1에서, 좌측에서 10번째 내지 12번째 화소는 커버드 백그라운드 영역인 혼합 영역에 대응한다.
도 16은 도 15에 나타내는 화소값으로부터 전경 성분을 추출한 화상의 모델도이다.
도 17은 정지하고 있는 배경과 함께 도면 중의 우측으로 이동하는 오브젝트에 대응하는 전경을 촬상한 화상의 3개의 프레임의, 인접하여 1열로 배열되어 있는 화소로서, 프레임 상에서 동일한 위치의 화소의 화소값을 시간 방향으로 전개한 모델도이다. 도 17에 있어서, 언커버드 백그라운드 영역이 포함되어 있다.
도 17에 있어서, 전경에 대응하는 오브젝트는 강체이고, 또한 등속으로 이동하고 있다고 가정할 수 있다. 전경에 대응하는 오브젝트가 다음 프레임에서 4화소분 우측에 표시되도록 이동하고 있기 때문에, 움직임량 v는 4이다.
예를 들면, 도 17에서의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방되어 처음의, 셔터 시간 /v의 전경 성분은 F13/v가 되고, 도 17에서의 좌측에서 2번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v의 전경 성분도 F13/v가 된다. 도 17에서의 좌측에서 3번째 화소의, 셔터가 개방되어 3번째의 셔터 시간 /v의 전경 성분, 및 도 17에서의 좌측에서 4번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v의 전경 성분은 F13/v가 된다.
도 17에서의 프레임 #n-1의 좌측에서 2번째 화소의, 셔터가 개방되어 처음의 셔터 시간 /v의 전경 성분은 F14/v가 되고, 도 17에서의 좌측에서 3번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v의 전경 성분도 F14/v가 된다. 도 17에서의 좌측에서 3번째 화소의, 셔터가 개방되어 개방되어 처음의, 셔터 시간 /v의 전경 성분은 F15/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 17에서의 프레임 #n-1의 가장 좌측 화소의, 셔터가 개방되어 2번째 내지 4번째의, 셔터 시간 /v의 배경 성분은 B25/v가 된다. 도 17에서의 프레임 #n-1의 좌측에서 2번째 화소의, 셔터가 개방되어 3번째 및 4번째의, 셔터 시간 /v의 배경 성분은 B26/v가 된다. 도 17에서의 프레임 #n-1의 좌측에서 3번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v의 배경 성분은 B27/v가 된다.
도 17에서의 프레임 #n-1에 있어서, 가장 좌측 화소 내지 3번째 화소는, 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 17에서의 프레임 #n-1의 좌측에서 4번째 화소 내지 12번째 화소는 전경 영역에 속한다. 프레임의 전경 성분은 F13/v 내지 F24/v 중 어느 하나이다.
도 17에서의 프레임 #n의 가장 좌측 화소 내지 좌측에서 4번째 화소는 배경 영역에 속하고, 화소값은 각각 B25 내지 B28이 된다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 이동하기 때문에, 도 17에서의 프레임 #n의 좌측에서 5번째 화소의, 셔터가 개방되어 처음의 셔터 시간 /v의 전경 성분은 F13/v가 되고, 도 17에서의 좌측에서 6번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v의 전경 성분도 F13/v가 된다. 도 17에서의 좌측에서 7번째 화소의, 셔터가 개방되어 3번째의 셔터 시간 /v의 전경 성분, 및 도 17에서의 좌측에서 8번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v의 전경 성분은 F13/v가 된다.
도 17에서의 프레임 #n의 좌측에서 6번째 화소의, 셔터가 개방되어 처음의 셔터 시간 /v의 전경 성분은 F14/v가 되고, 도 17에서의 좌측에서 7번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v의 전경 성분도 F14/v가 된다. 도 17에서의 좌측에서 8번째 화소의, 셔터가 개방되어 처음의 셔터 시간 /v의 전경 성분은 F15/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 17에서의 프레임 #n의 좌측에서 5번째 화소의, 셔터가 개방되어 2번째 내지 4번째의 셔터 시간 /v의 배경 성분은 B29/v가 된다. 도 17에서의 프레임 #n의 좌측에서 6번째 화소의, 셔터가 개방되어 3번째 및 4번째의 셔터 시간 /v의 배경 성분은 B30/v가 된다. 도 17에서의 프레임 #n의 좌측에서 7번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v의 배경 성분은 B31/v가 된다.
도 17에서의 프레임 #n에 있어서, 좌측에서 5번째 화소 내지 7번째 화소는 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 17에서의 프레임 #n의 좌측에서 8번째 화소 내지 12번째 화소는 전경 영역에 속한다. 프레임 #n의 전경 영역에서의, 셔터 시간 /v의 기간에 대응하는 값은 F13/v 내지 F20/v 중 어느 하나이다.
도 17에서의 프레임 #n+1의 가장 좌측 화소 내지 좌측에서 8번째 화소는 배경 영역에 속하고, 화소값은 각각 B25 내지 B32가 된다.
전경에 대응하는 오브젝트가 강체이고, 등속으로 이동한다고 가정할 수 있고, 전경의 화상이 다음 프레임에서 4화소 우측에 표시되도록 이동하기 때문에, 도 17에서의 프레임 #n+1의 좌측에서 9번째 화소의, 셔터가 개방되어 처음의 셔터 시간 /v의 전경 성분은 F13/v가 되고, 도 17에서의 좌측에서 10번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v의 전경 성분도 F13/v가 된다. 도 17에서의 좌측에서 11번째 화소의, 셔터가 개방되어 3번째의 셔터 시간 /v의 전경 성분, 및 도 17에서의 좌측에서 12번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v의 전경 성분은 F13/v가 된다.
도 17에서의 프레임 #n+1의 좌측에서 10번째 화소의, 셔터가 개방되어 처음의 셔터 시간 /v의 전경 성분은 F14/v가 되고, 도 17에서의 좌측에서 11번째 화소의, 셔터가 개방되어 2번째의 셔터 시간 /v의 전경 성분도 F14/v가 된다. 도 17에서의 좌측에서 12번째 화소의, 셔터가 개방되어 처음의 셔터 시간 /v의 전경 성분은 F15/v가 된다.
배경에 대응하는 오브젝트가 정지하고 있기 때문에, 도 17에서의 프레임 #n+1의 좌측에서 9번째 화소의, 셔터가 개방되어 2번째 내지 4번째의, 셔터 시간 /v의 배경 성분은 B33/v가 된다. 도 17에서의 프레임 #n+1의 좌측에서 10번째 화소의, 셔터가 개방되어 3번째 및 4번째의 셔터 시간 /v의 배경 성분은 B34/v가 된다. 도 17에서의 프레임 #n+1의 좌측에서 11번째 화소의, 셔터가 개방되어 4번째의 셔터 시간 /v의 배경 성분은 B35/v가 된다.
도 17에서의 프레임 #n+1에서, 좌측에서 9번째 화소 내지 11번째 화소는 언커버드 백그라운드 영역인 혼합 영역에 속한다.
도 17에서의 프레임 #n+1의 좌측에서 12번째 화소는 전경 영역에 속한다. 프레임 #n+1의 전경 영역에서의, 셔터 시간 /v의 전경 성분은 F13/v 내지 F16/v 중 어느 하나이다.
도 18은 도 17에 나타내는 화소값으로부터 전경 성분을 추출한 화상의 모델도이다.
도 2로 되돌아가, 혼합비 산출부(103)는, 입력 화상, 및 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보를 기초로, 화소가 커버드 백그라운드 영역에 속한다고 가정했을 때의, 추정 혼합비 및 이것에 대응하는 혼합비 관계 정보를 생성함과 함께, 화소가 언커버드 백그라운드 영역에 속한다고 가정했을 때의, 추정되는 혼합비인 추정 혼합비 및 이것에 대응하는 혼합비 관계 정보를 생성한다. 혼합비 산출부(103)는, 생성한 2개의 추정 혼합비 및 이들에 대응하는 혼합비 관계 정보를 영역 특정부(104)에 공급한다.
영역 특정부(104)는, 입력 화상, 및 혼합비 산출부(103)로부터 공급된 2개의 추정 혼합비 및 이들에 대응하는 혼합비 관계 정보를 기초로, 입력된 화상의 화소의 각각을, 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나로 특정하여, 화소마다 전경 영역, 배경 영역, 또는 혼합 영역 중 어느 하나에 속하는 가를 나타내는 영역 정보를 전경 배경 분리부(105), 및 움직임 불선명 조정부(106)에 공급한다.
전경 배경 분리부(105)는 복수의 프레임 화소값, 영역 정보 및 혼합비 α에 기초하여, 전경 성분 만으로 이루어지는 전경 성분 화상을 추출하여 움직임 불선명 조정부(106)에 공급한다.
움직임 불선명 조정부(106)는 전경 배경 분리부(105)로부터 공급된 전경 성 분 화상, 움직임 검출부(102)로부터 공급된 움직임 벡터, 및 영역 특정부(104)로부터 공급된 영역 정보에 기초하여, 전경 성분 화상에 포함되는 움직임 불선명량을 조정하고, 움직임 불선명량을 조정한 전경 성분 화상을 출력한다.
도 19의 흐름도를 참조하여, 화상 처리 장치에 의한 움직임 불선명의 양의 조정의 처리를 설명한다. 단계 S11에 있어서, 혼합비 산출부(103)는, 입력 화상, 및 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보를 기초로, 화소가 커버드 백그라운드 영역에 속한다고 가정했을 때, 추정되는 혼합비인 추정 혼합비 및 이것에 대응하는 혼합비 관계 정보를 산출함과 함께, 화소가 언커버드 백그라운드 영역에 속한다고 가정했을 때, 추정되는 혼합비인 추정 혼합비 및 이것에 대응하는 혼합비 관계 정보를 산출한다. 혼합비 산출부(103)는, 산출한 2개의 추정 혼합비 및 이들에 대응하는 혼합비 관계 정보를 영역 특정부(104)에 공급한다. 혼합비 산출의 처리의 상세는 후술한다.
단계 S12에 있어서, 영역 특정부(104)는, 입력 화상, 및 혼합비 산출부(103)로부터 공급된 2개의 추정 혼합비 및 이들에 대응하는 혼합비 관계 정보를 기초로, 입력 화상의 화소마다, 화소가, 전경 영역, 배경 영역, 커버드 백그라운드 영역, 또는 언커버드 백그라운드 영역 중 어느 하나에 속하는 가를 도시하는 영역 정보를 생성하는 영역 특정의 처리를 실행한다. 영역 특정의 처리의 상세는, 후술한다. 영역 특정부(104)는, 생성한 영역 정보, 및 혼합비 산출부(103)로부터 공급된 2개의 추정 혼합비 및 이들에 대응하는 혼합비 관계 정보를 기초로, 혼합비 α를 생성하고, 생성한 혼합비 α를 전경 배경 분리부(105)에 공급한다.
단계 S13에 있어서, 전경 배경 분리부(105)는 영역 정보 및 혼합비 α에 기초하여 입력 화상으로부터 전경 성분을 추출하여, 전경 성분 화상으로서 움직임 불선명 조정부(106)에 공급한다.
단계 S14에 있어서, 움직임 불선명 조정부(106)는 움직임 벡터 및 영역 정보에 기초하여, 움직임 방향으로 나란히 배열되는 연속한 화소로서, 언커버드 백그라운드 영역, 전경 영역, 및 커버드 백그라운드 영역 중 어느 하나에 속하는 것의 화상 상의 위치를 나타내는 처리 단위를 생성하고, 처리 단위에 대응하는 전경 성분에 포함되는 움직임 불선명량을 조정한다. 움직임 불선명량의 조정 처리에 대한 상세한 내용에 대해서는 후술한다.
단계 S15에 있어서, 화상 처리 장치는 화면 전체에 대하여 처리를 종료하였는지 여부를 판정하여, 화면 전체에 대하여 처리를 종료하지 않았다고 판정된 경우, 단계 S14로 진행하여, 처리 단위에 대응하는 전경 성분을 대상으로 한 움직임 불선명량의 조정 처리를 반복한다.
단계 S15에 있어서, 화면 전체에 대하여 처리를 종료하였다고 판정된 경우, 처리는 종료한다.
이와 같이, 화상 처리 장치는 전경과 배경을 분리하여 전경에 포함되는 움직임 불선명량을 조정할 수 있다. 즉, 화상 처리 장치는 전경 화소의 화소값인 샘플 데이터에 포함되는 움직임 불선명량을 조정할 수 있다.
이하, 혼합비 산출부(103), 영역 특정부(104), 전경 배경 분리부(105), 및 움직임 불선명 조정부(106)의 각 구성에 대하여 설명한다.
도 20은, 혼합비 산출부(103)의 구성을 도시하는 블록도이다. 추정 혼합비 처리부(201)는, 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보, 및 입력 화상을 기초로, 커버드 백그라운드 영역의 모델에 대응하는 연산에 의해, 화소마다 추정 혼합비를 산출하고, 추정 혼합비의 산출에 따라 산출되는 혼합비 관계 정보와 같이, 추정 혼합비를 출력한다. 추정 혼합비 처리부(201)가 출력하는 혼합비 관계 정보는, 예를 들면, 전경의 성분의 합등으로 이루어진다.
추정 혼합비 처리부(202)는, 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보, 및 입력 화상을 기초로, 언커버드 백그라운드 영역의 모델에 대응하는 연산에 의해, 화소마다 추정 혼합비를 산출하여, 추정 혼합비의 산출에 따라 산출되는 혼합비 관계 정보와 같이, 추정 혼합비를 출력한다. 추정 혼합비 처리부(202)가 출력하는 혼합비 관계 정보는, 예를 들면, 전경의 성분의 합 등으로 이루어진다.
전경에 대응하는 오브젝트가 셔터 시간 내에 등속으로 움직이고 있다고 가정할 수 있기 때문에, 혼합 영역에 속하는 화소의 혼합비 α는 이하의 성질을 갖는다. 즉, 혼합비 α는 화소의 위치의 변화에 대응하여 직선적으로 변화한다. 화소의 위치 변화를 1차원으로 하면, 혼합비 α의 변화는 직선으로 표현할 수 있고, 화소의 위치 변화를 2차원으로 하면, 혼합비 α의 변화는, 평면으로 표현할 수 있다.
또, 1 프레임의 기간은 짧기 때문에, 전경에 대응하는 오브젝트가 강체이고, 등속으로 이동하고 있다고 하는 가정이 성립된다.
이 경우, 혼합비 α의 기울기는 전경의 셔터 시간 내에서의 움직임량 v의 역 비가 된다.
이상적인 혼합비 α의 예를 도 21에 도시한다. 이상적인 혼합비 α의 혼합 영역에서의 기울기 l은 움직임량 v의 역수로서 나타낼 수 있다.
도 21에 도시한 바와 같이, 이상적인 혼합비 α는, 배경 영역에서 1의 값을 지니고, 전경 영역에서 0의 값을 지니고, 혼합 영역에서 0을 초과하고 1 미만인 값을 갖는다.
도 22의 예에 있어서, 프레임 #n의 좌측에서 7번째의 화소의 화소값 C06은, 프레임 #n-1의 좌측에서 7번째의 화소의 화소값 P06을 이용하여, 수학식 4으로 나타낼 수 있다.
Figure 112003006664212-pct00004
수학식 4에 있어서, 화소값 C06을 혼합 영역의 화소의 화소값 M으로, 화소값 P06을 배경 영역의 화소의 화소값 B로 표현한다. 즉, 혼합 영역의 화소의 화소값 M 및 배경 영역의 화소의 화소값 B는, 각각 수학식 5 및 수학식 6과 같이 표현할 수 있다.
Figure 112003006664212-pct00005
Figure 112003006664212-pct00006
수학식 4 중 2/v는 혼합비 α에 대응한다. 움직임량 v가 4이기 때문에, 프레임 #n의 좌측에서 7번째의 화소의 혼합비 α는 0.5가 된다.
이상과 같이, 주목하고 있는 프레임 #n의 화소값 C를 혼합 영역의 화소값으로 추정하고, 프레임 #n의 앞의 프레임 #n-1의 화소값 P를 배경 영역의 화소값으로 추정함으로써, 혼합비 α를 나타내는 수학식 3은, 수학식 7과 같이 다시 쓰여진다.
Figure 112003006664212-pct00007
수학식 7의 f는 주목하고 있는 화소에 포함되는 전경 성분의 합 ΣiFi/v이다. 수학식 7에 포함되는 변수는 혼합비 α및 전경 성분의 합 f의 2개이다.
마찬가지로, 언커버드 백그라운드 영역에서의, 움직임량 v가 4이고, 시간 방향의 가상 분할수가 4인, 화소값을 시간 방향으로 전개한 모델을 도 23에 도시한다.
언커버드 백그라운드 영역에 있어서, 상술한 커버드 백그라운드 영역에서의 표현과 마찬가지로, 주목하고 있는 프레임 #n의 화소값 C를 혼합 영역의 화소값으로 추정하고, 프레임 #n의 후의 프레임 #n+1의 화소값 N을 배경 영역의 화소값으로 추정함으로써, 혼합비 α를 나타내는 수학식 3은 수학식 8과 같이 표현할 수 있다.
Figure 112003006664212-pct00008
또, 배경 오브젝트가 정지하고 있는 것으로 설명하였지만, 배경 오브젝트가 움직이고 있는 경우에도, 배경의 움직임량 v에 대응시킨 위치의 화소의 화소값을 이용함으로써, 수학식 4 내지 수학식 8을 적용할 수 있다. 예를 들면, 도 22에 있어서, 배경에 대응하는 오브젝트의 움직임량 v가 2이고, 가상 분할수가 2일 때, 배경에 대응하는 오브젝트가 도면 중의 우측으로 움직이고 있을 때, 수학식 6에 있어서의 배경 영역의 화소의 화소값 B는 화소값 P04가 된다.
수학식 7 및 수학식 8은 각각 2개의 변수를 포함하기 때문에, 그대로는 혼합비 α를 구할 수 없다.
그래서, 전경의 오브젝트의 움직임량 v에 합쳐서, 혼합 영역에 속하는 화소와, 대응하는 배경 영역에 속하는 화소의 세트에 대하여 식을 세워, 혼합비 α를 구한다.
움직임량 v로서, 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보가 이용된다.
추정 혼합비 처리부(201)에 의한, 커버드 백그라운드 영역에 대응하는 모델을 기초로 한, 움직임량 v를 사용한 추정 혼합비의 산출에 대하여 설명한다.
커버드 백그라운드 영역에 대응하는 도 22에 도시하는 예에 있어서, 프레임 #n-1의 P02에 대하여, 수학식 9가 성립하고, 프레임 #n의 C06에 대하여, 수학식 10이 성립한다.
Figure 112003006664212-pct00009
Figure 112003006664212-pct00010
수학식 9 및 수학식 10에 있어서, 혼합비 α에 대응하는 값은 2/v이며, 동일하다. 수학식 9 및 수학식 10에 있어서, 전경 성분의 합에 대응하는 값은
Figure 112003006664212-pct00011
이며, 동일하다.
즉, 프레임 #n-1의 P02 및 프레임 #n의 C06의 혼합비 α 및 전경 성분의 합은 동일하고, 프레임 #n의 C06은 전경 오브젝트의 움직임에 의해, 프레임 #n-1의 P02에 대응하고 있다고 할 수 있다.
복수 프레임에 걸쳐서, 전경에 대응하는 오브젝트가 등속으로 움직인다고 하는 가정과, 전경 성분이 일정하다고 하는 가정을 가지고 들어감으로써, 이와 같이, 전경 오브젝트의 움직임량 v에 대응하여, 혼합비 α 및 전경 성분의 합이 동일한 혼합 영역에 속하는 화소와, 대응하는 배경 영역에 속하는 화소와의 복수의 조를 선택할 수 있다. 예를 들면, 혼합 영역에 속하는 화소와, 대응하는 배경 영역에 속하는 화소와의 복수의 조를 5개의 조로 할 수 있다.
예를 들면, 도 24에 도시한 바와 같이, 전경 오브젝트의 움직임량 v에 대응하여, 프레임 #n-3 내지 프레임 #n+2로부터, 혼합 영역에 속하는 화소 Mt1 내지 Mt5와, 대응하는 배경 영역에 속하는 화소 Bt1 내지 Bt5를 선택할 수 있다. 도 24에 있어서, 백색 동그라미는 배경 영역에 속한다고 간주하는 화소를 나타내고, 흑색 동그라미는 혼합 영역에 속한다고 간주하는 화소를 나타낸다.
화소 Mt1 내지 Mt5 및 화소 Bt1 내지 Bt5에 대하여, 수학식 11 내지 수학식 15가 성립한다.
Figure 112003006664212-pct00012
Figure 112003006664212-pct00013
Figure 112003006664212-pct00014
Figure 112003006664212-pct00015
Figure 112003006664212-pct00016
수학식 11 내지 수학식 15의 f는 전경 성분의 합 ΣiFi/v이다.
수학식 11 내지 수학식 15의 5개의 식은, 공통되는 변수인 혼합비 α 및 전경 성분의 합 f를 포함하기 때문에, 수학식 11 내지 수학식 15에 최소 제곱법을 적 용하여, 혼합비 α 및 전경 성분의 합 f를 구할 수 있다.
예를 들면, 추정 혼합비 처리부(201)는, 혼합비 α 및 전경 성분의 합 f를 산출하기 위한 정규 방정식을 미리 기억하고, 기억하고 있는 정규 방정식에 혼합 영역에 속하는 화소값, 및 대응하는 배경 영역에 속하는 화소값을 설정하고, 행렬 해법에 의해 혼합비 α 및 전경 성분의 합 f를 산출한다.
또, 배경이 움직이고 있을 때, 도 25에 예를 나타내는 바와 같이, 추정 혼합비 처리부(201)는, 배경의 움직임량 v'에 대응시켜, 정규 방정식에 혼합 영역에 속하는 화소값, 및 대응하는 배경 영역에 속하는 화소값을 설정하고, 행렬 해법에 의해 혼합비 α 및 전경 성분의 합 f를 산출한다. 도 25에 있어서, 백색 동그라미는 배경 영역에 속한다고 간주하는 화소를 나타내고, 흑색 동그라미는 혼합 영역에 속한다고 간주하는 화소를 나타낸다.
이와 같이 추정 혼합비 처리부(201)는 커버드 백그라운드 영역에 대응하는 모델을 기초로, 움직임량 v를 사용하여 추정 혼합비를 산출한다.
추정 혼합비 처리부(202)는 마찬가지로, 언커버드 백그라운드 영역에 대응하는 모델을 기초로, 움직임량 v를 사용하여 추정 혼합비를 산출한다. 언커버드 백그라운드 영역에 대응하는 모델에 있어서, 대응하는 배경 영역에 속하는 화소는, 주목하고 있는 화소의 프레임의 뒤의 프레임으로부터 선택된다.
도 26은 커버드 백그라운드 영역에 대응하는 모델을 기초로, 움직임량 v를 사용하여 추정 혼합비를 산출하는 추정 혼합비 처리부(201)의 구성을 도시하는 블록도이다.
정규 방정식 가산부(221)는, 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보를 기초로, 미리 기억하고 있는 정규 방정식에, 입력 화상의 M개의 프레임의 화상에 포함되는, 혼합 영역에 속하는 화소값, 및 대응하는 배경 영역에 속하는 화소값을 설정한다. 정규 방정식 가산부(221)는, 혼합 영역에 속하는 화소값, 및 대응하는 배경 영역에 속하는 화소값이 설정된 정규 방정식을, 연산부(222)에 공급한다.
연산부(222)는 정규 방정식 가산부(221)로부터 공급된, 화소값이 설정된 정규 방정식을, 소인법(Gauss-Jordan의 소거법) 등의 행렬 해법을 적용하여 풀어, 추정 혼합비를 산출하고, 산출한 추정 혼합비를 출력한다. 연산부(222)는 추정 혼합비의 산출에 수반하여, 구해진 전경 성분의 합을 혼합비 관계 정보로서 출력한다.
이와 같이, 추정 혼합비 처리부(201)는 커버드 백그라운드 영역에 대응하는 모델을 기초로, 움직임량 v를 사용하여 추정 혼합비를 산출한다. 추정 혼합비 처리부(201)는 혼합비 관계 정보로서 전경 성분의 합을 출력한다.
추정 혼합비 처리부(202)는, 추정 혼합비 처리부(201)와 마찬가지의 구성을 갖기 때문에, 그 설명은 생략한다.
이와 같이, 혼합비 산출부(103)는 입력 화상, 및 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보를 기초로, 화소가 커버드 백그라운드 영역에 속한다고 가정했을 때의, 추정 혼합비 및 이것에 대응하는 혼합비 관계 정보를 생성함과 함께, 화소가 언커버드 백그라운드 영역에 속한다고 가정했을 때의, 추정되는 혼합비인 추정 혼합비 및 이것에 대응하는 혼합비 관계 정보를 생성할 수 있다.
도 27의 흐름도를 참조하여, 혼합비 산출부(103)의 추정 혼합비의 산출 처리를 설명한다. 단계 S201에 있어서, 추정 혼합비 처리부(201)는, 입력 화상, 및 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보를 기초로, 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 실행한다. 혼합비 추정의 처리의 상세는 도 28의 흐름도를 참조하여 후술한다.
단계 S202에 있어서, 추정 혼합비 처리부(202)는 입력 화상, 및 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보를 기초로, 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비의 추정 처리를 실행한다.
단계 S203에 있어서, 혼합비 산출부(103)는 프레임 전체에 대하여 혼합비를 추정하였는지 여부를 판정하여, 프레임 전체에 대하여 혼합비를 추정하지 않았다고 판정된 경우, 단계 S201로 되돌아가, 다음 화소에 대하여 혼합비를 추정하는 처리를 실행한다.
단계 S203에 있어서, 프레임 전체에 대하여 혼합비를 추정하였다고 판정된 경우, 처리는 종료한다.
이와 같이, 혼합비 산출부(103)는 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보, 및 입력 화상을 기초로, 각 화소에 대응하는 추정 혼합비를 산출할 수 있다.
다음에, 도 27의 단계 S201에 대응하는, 추정 혼합비 처리부(201)가 실행하는, 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 산출 처리를 도 28의 흐름도를 참조하여 설명한다.
단계 S221에 있어서, 정규 방정식 가산부(221)는, 움직임 검출부(102)로부터 공급된 움직임 벡터 및 그 위치 정보를 읽어들여 움직임량 v를 취득한다.
단계 S222에 있어서, 정규 방정식 가산부(221)는 움직임량 v를 기초로, 입력된 M개의 프레임의 화상으로부터 화소를 선택하여, 미리 기억하고 있는 정규 방정식에 선택한 화소의 화소값을 설정한다.
단계 S223에 있어서, 정규 방정식 가산부(221)는, 대상이 되는 화소에 대하여 화소값의 설정을 종료하였는지 여부를 판정하여, 대상이 되는 화소에 대하여 화소값의 설정을 종료하지 않았다고 판정된 경우, 단계 S222로 되돌아가, 화소값의 설정 처리를 반복한다.
단계 S223에 있어서, 대상이 되는 화소에 대하여 화소값의 설정을 종료하였다고 판정된 경우, 단계 S224로 진행하여, 정규 방정식 가산부(221)는 화소값을 설정한 정규 방정식을 연산부(222)에 공급하고, 연산부(222)는 화소값이 설정된 정규 방정식에 소인법(Gauss-Jordan의 소거법) 등을 적용하여 정규 방정식을 풀어 추정 혼합비를 산출하고, 처리는 종료한다. 연산부(222)는 추정 혼합비의 산출에 수반하여, 구해진 각 화소에 대응하는 전경 성분의 합을 혼합비 관계 정보로서 출력한다.
이와 같이, 추정 혼합비 처리부(201)는, 추정 혼합비를 산출할 수 있다.
도 27의 단계 S202에 있어서의, 추정 혼합비 처리부(202)가 실행하는, 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정 처리는, 언커버드 백그라운드 영역의 모델에 대응하는 정규 방정식을 이용한, 도 28의 흐름도에 도시하는 처리와 마찬가지이기 때문에, 그 설명은 생략한다.
도 29는 혼합비 산출부(103)의 다른 구성을 도시하는 블록도이다. 도 29에 구성을 나타내는 혼합비 산출부(103)는 움직임 벡터를 사용하지 않는다.
추정 혼합비 처리부(241)는 입력 화상을 기초로, 커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 추정 혼합비의 산출에 수반하여 산출되는 혼합비 관계 정보와 함께, 추정 혼합비를 출력한다. 추정 혼합비 처리부(241)가 출력하는 혼합비 관계 정보는 예를 들면, 전경 성분의 합 및 혼합비의 기울기 등으로 이루어진다.
추정 혼합비 처리부(242)는 입력 화상을 기초로, 언커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 추정 혼합비의 산출에 수반하여 산출되는 혼합비 관계 정보와 함께 추정 혼합비를 출력한다. 추정 혼합비 처리부(242)가 출력하는 혼합비 관계 정보는, 예를 들면, 전경 성분의 합 및 혼합비의 기울기 등으로 이루어진다.
도 30 내지 도 32를 참조하여, 추정 혼합비 처리부(241)및 추정 혼합비 처리부(242)에 의한, 혼합비의 추정 처리를 설명한다.
도 22 및 도 23을 참조하여 설명한 바와 같이, 수학식 7 및 수학식 8은, 각각 2개의 변수를 포함하기 때문에, 그대로는 혼합비 α를 구할 수 없다.
그래서, 추정 혼합비 처리부(241) 또는 추정 혼합비 처리부(242)는, 셔터 시간 내에 있어서, 전경에 대응하는 오브젝트가 등속으로 움직임으로써, 화소의 위치 변화에 대응하여, 혼합비 α가 직선적으로 변화하는 성질을 이용하여, 공간 방향으 로, 혼합비 α와 전경 성분의 합 f를 근사시킨 식을 세운다. 혼합 영역에 속하는 화소의 화소값 및 배경 영역에 속하는 화소의 화소값의 조의 복수를 이용하여, 혼합비 α와 전경 성분의 합 f를 근사시킨 식을 푼다.
혼합비 α의 변화를 직선으로서 근사시키면, 혼합비 α는 수학식 16으로 나타난다.
Figure 112003006664212-pct00017
수학식 16에 있어서, i는, 주목하고 있는 화소의 위치를 0으로 한 공간 방향의 인덱스이다. l은 혼합비 α의 직선의 기울기이다. p는 혼합비 α의 직선의 절편임과 동시에, 주목하고 있는 화소의 혼합비 α이다. 수학식 16에 있어서, 인덱스 i는 기지이지만, 기울기 l 및 절편 p는 미지이다.
인덱스 i, 기울기 l, 및 절편 p의 관계를 도 30에 도시한다. 도 30에 있어서, ○은, 주목 화소를 나타내며, ●은, 근방 화소를 나타낸다.
혼합비 α를 수학식 16과 같이 근사시킴으로써, 복수의 화소에 대하여 복수의 서로 다른 혼합비 α는 2개의 변수로 표현된다. 도 30에 도시하는 예에 있어서, 5개의 화소에 대한 5개의 혼합비는 2개의 변수인 기울기 l 및 절편 p에 의해 표현된다.
도 31에 도시하는 평면에서 혼합비 α를 근사시키면, 화상의 수평 방향 및 수직 방향의 2개의 방향에 대응하는 움직임 v를 고려했을 때, 수학식 16을 평면에 확장하여, 혼합비 α는 수학식 17으로 나타난다. 도 30에 있어서, ○은 주목 화 소를 나타낸다.
Figure 112003006664212-pct00018
수학식 17에 있어서, j는 주목하고 있는 화소의 위치를 0으로 한 수평 방향의 인덱스이고, k는 수직 방향의 인덱스이다. m은 혼합비 α의 면의 수평 방향의 기울기이고, q는 혼합비 α의 면의 수직 방향의 기울기이다. p는 혼합비 α의 면의 절편이다.
예를 들면, 도 22에 도시하는 프레임 #n에 있어서, C05 내지 C07에 대하여, 각각 수학식 18 내지 수학식 20이 성립한다.
Figure 112003006664212-pct00019
Figure 112003006664212-pct00020
Figure 112003006664212-pct00021
전경 성분이 근방에서 일치하는, 즉 F01 내지 F03이 같다고 하고, F01 내지 F03을 Fc로 치환하면 수학식 21이 성립된다.
Figure 112003006664212-pct00022
수학식 21에 있어서, x는 공간 방향의 위치를 나타낸다.
α(x)를 수학식 17으로 치환하면, 수학식 21은 수학식 22으로서 표현할 수 있다.
Figure 112003006664212-pct00023
수학식 22에 있어서, (-m·Fc), (-q·Fc), 및 (l-p)·Fc는 수학식 23 내지 수학식 25에 나타낸 바와 같이 치환되어 있다.
Figure 112003006664212-pct00024
Figure 112003006664212-pct00025
Figure 112003006664212-pct00026
수학식 22에 있어서, j는 주목하고 있는 화소의 위치를 0으로 한 수평 방향의 인덱스이고, k는 수직 방향의 인덱스이다.
이와 같이, 전경에 대응하는 오브젝트가 셔터 시간 내에 있어서 등속으로 이동하고, 전경에 대응하는 성분이 근방에서 일정하다고 하는 가정이 성립하기 때문에, 전경 성분의 합은 수학식 22으로 근사된다.
또, 혼합비 α를 직선으로 근사시키는 경우, 전경 성분의 합은 수학식 26으로 나타낼 수 있다.
Figure 112003006664212-pct00027
수학식 16의 혼합비 α및 전경 성분의 합을 수학식 17 및 수학식 22 을 이용하여 치환하면, 화소값 M은 수학식 27으로 표시된다.
Figure 112003006664212-pct00028
수학식 27에 있어서, 미지의 변수는 혼합비 α의 면의 수평 방향의 기울기 m, 혼합비 α의 면의 수직 방향의 기울기 q, 혼합비 α의 면의 절편 p, s, t, 및 u의 6개이다.
주목하고 있는 화소 근방의 화소에 대응시켜, 수학식 27에 화소값 M 및 화소값 B를 설정하고, 화소값 M 및 화소값 B가 설정된 복수의 식에 대하여 최소 제곱법으로 푸는 것에 의해, 혼합비 α를 산출한다.
예를 들면, 주목하고 있는 화소의 수평 방향의 인덱스 j를 0으로 하고, 수직 방향의 인덱스 k를 0으로 하고, 주목하고 있는 화소의 근방의 3×3의 화소에 대하여, 수학식 27으로 나타내는 정규 방정식에 화소값 M 또는 화소값 B를 설정하면, 수학식 28 내지 수학식 36을 얻는다.
Figure 112003006664212-pct00029
Figure 112003006664212-pct00030
Figure 112003006664212-pct00031
Figure 112003006664212-pct00032
Figure 112003006664212-pct00033
Figure 112003006664212-pct00034
Figure 112003006664212-pct00035
Figure 112003006664212-pct00036
Figure 112003006664212-pct00037
주목하고 있는 화소의 수평 방향의 인덱스 j가 0이고, 수직 방향의 인덱스 k가 0이기 때문에, 주목하고 있는 화소의 혼합비 α는, 수학식 17으로부터, j=0 및 k=0일 때의 값, 즉, 절편 p와 같다.
따라서, 수학식 28 내지 수학식 36의 9개의 식을 기초로, 최소 제곱법에 의해, 수평 방향의 기울기 m, 수직 방향의 기울기 q, 절편 p, s, t, 및 u의 각각의 값을 산출하여, 절편 p를 혼합비 α로서 출력하면 된다.
다음에, 최소 제곱법을 적용하여 혼합비 α를 산출하는 보다 구체적인 수순을 설명한다.
인덱스 i 및 인덱스 k를 하나의 인덱스 x로 표현하면, 인덱스 i, 인덱스 k, 및 인덱스 x의 관계는 수학식 37으로 표현된다.
Figure 112003006664212-pct00038
수평 방향의 기울기 m, 수직 방향의 기울기 q, 절편 p, s, t, 및 u를 각각 변수 w0, w1, w2, w3, w4, 및 w5로 표현하고, jB, kB, B, j, k, 및 l을 각각 a0, a1, a2, a3, a4, 및 a5로 표현한다. 오차 ex를 고려하면, 수학식 28 내지 수학식 36은 수학식 38으로 다시 기입할 수 있다.
Figure 112003006664212-pct00039
수학식 38에 있어서, x는 0 내지 8의 정수 중 어느 하나의 값이다.
수학식 38으로부터 수학식 39을 유도할 수 있다.
Figure 112003006664212-pct00040
여기서, 최소 제곱법을 적용하기 위해서, 오차의 제곱합 E를 수학식 40으로 나타낸 바와 같이 정의한다.
Figure 112003006664212-pct00041
오차가 최소가 되기 위해서는, 오차의 제곱합 E에 대한, 변수 Wv의 편미분이 0이 되면 된다. 여기서, v는 0 내지 5의 정수 중 어느 하나의 값이다. 따라서, 수학식 41을 만족하도록 wy를 구한다.
Figure 112003006664212-pct00042
수학식 41에 수학식 39을 대입하면, 수학식 42을 얻는다.
Figure 112003006664212-pct00043
수학식 42의 v에 0 내지 5의 정수 중 어느 하나를 대입하여 얻어지는 6개의 식으로 이루어지는 정규 방정식에, 예를 들면, 소인법(Gauss-Jordan의 소거법) 등을 적용하여 wy를 산출한다. 상술한 바와 같이, w0은 수평 방향의 기울기 m이고, w1은 수직 방향의 기울기 q이고, w2는 절편 p이고, w3은 s이고, w4는 t이고, w5는 u이다.
이상과 같이, 화소값 M 및 화소값 B를 설정한 식에 최소 제곱법을 적용함으로써, 수평 방향의 기울기 m, 수직 방향의 기울기 q, 절편 p, s, t, 및 u를 구할 수 있다.
여기서, 절편 p가, 인덱스 i, k가 0의 점, 즉 중심 위치에서의 혼합비 α로 되어 있기 때문에, 이것을 출력한다.
수학식 28 내지 수학식 36에 대응하는 설명에 있어서, 혼합 영역에 포함되는 화소의 화소값을 M으로 하고, 배경 영역에 포함되는 화소의 화소값을 B로 하여 설명하였지만, 주목하고 있는 화소가, 커버드 백그라운드 영역에 포함되는 경우, 또는 언커버드 백그라운드 영역에 포함되는 경우의 각각에 대하여, 정규 방정식을 세울 필요가 있다.
예를 들면, 도 22에 도시하는, 프레임 #n의 커버드 백그라운드 영역에 포함되는 화소의 혼합비 α를 구하는 경우, 프레임 #n의 화소의 C04 내지 C08, 및 프레임 #n-1의 화소의 화소값 P04 내지 P08이, 정규 방정식으로 설정된다.
도 23에 도시하는, 프레임 #n의 언커버드 백그라운드 영역에 포함되는 화소의 혼합비 α를 구하는 경우, 프레임 #n의 화소의 C28 내지 C32, 및 프레임 #n+1의 화소의 화소값 N28 내지 N32가, 정규 방정식으로 설정된다.
또한, 예를 들면, 도 32에 도시하는, 커버드 백그라운드 영역에 포함되는 화소의 혼합비 α를 산출할 때, 이하의 수학식 43 내지 수학식 51이 세워진다. 도 32에 있어서, ●는 혼합 영역의 화소로 간주하는 화소를 나타낸다. 도 32에 있어서, ○는 배경으로 간주하는 화소를 나타낸다. 혼합비 α를 산출하는 화소의 화소값은 Mc5이다.
Figure 112003006664212-pct00044
Figure 112003006664212-pct00045
Figure 112003006664212-pct00046
Figure 112003006664212-pct00047
Figure 112003006664212-pct00048
Figure 112003006664212-pct00049
Figure 112003006664212-pct00050
Figure 112003006664212-pct00051
Figure 112003006664212-pct00052
프레임 #n의 커버드 백그라운드 영역에 포함되는 화소의 혼합비 α를 산출할 때, 수학식 43 내지 수학식 51에 있어서, 프레임 #n의 화소에 대응하는, 프레임 #n-1의 화소의 배경 영역의 화소의 화소값 Bc1 내지 Bc9가 사용된다.
도 32에 나타내는, 언커버드 백그라운드 영역에 포함되는 화소의 혼합비 α를 산출할 때, 이하의 수학식 52 내지 수학식 60이 세워진다. 혼합비 α를 산출하는 화소의 화소값은 Mu5이다.
Figure 112003006664212-pct00053
Figure 112003006664212-pct00054
Figure 112003006664212-pct00055
Figure 112003006664212-pct00056
Figure 112003006664212-pct00057
Figure 112003006664212-pct00058
Figure 112003006664212-pct00059
Figure 112003006664212-pct00060
Figure 112003006664212-pct00061
프레임 #n의 언커버드 백그라운드 영역에 포함되는 화소의 혼합비 α를 산출할 때, 수학식 52 내지 수학식 60에 있어서, 프레임 #n의 화소에 대응하는, 프레임 #n+1의 화소의 배경 영역의 화소의 화소값 Bu1 내지 Bu9가 사용된다.
혼합비 추정 처리부(241) 및 혼합비 추정 처리부(242)는, 혼합비 처리부(201)와 마찬가지의 구성을 갖기 때문에, 그 설명은 생략한다.
도 29에 구성을 나타내는 혼합비 산출부(103)에 의한 추정 혼합비의 산출 처리는, 도 27의 흐름도를 참조하여 설명한 처리와 마찬가지이기 때문에, 그 설명은 생략한다.
다음에, 추정 혼합비 처리부(241)가 실행하는, 도 27의 단계 S202에 대응하 는, 커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리를 도 33의 흐름도를 참조하여 설명한다.
단계 S241에 있어서, 추정 혼합비 처리부(241)는 입력된 화상에 포함되는 화소값을, 커버드 백그라운드 영역의 모델에 대응하는 정규 방정식으로 설정한다.
단계 S242에 있어서, 추정 혼합비 처리부(241)는 대상이 되는 화소에 대한 설정이 종료하였는지 여부를 판정하여, 대상이 되는 화소에 대한 설정이 종료하지 않았다고 판정된 경우, 단계 S241로 되돌아가, 정규 방정식에의 화소값의 설정 처리를 반복한다.
단계 S242에 있어서, 대상이 되는 화소에 대한 화소값의 설정이 종료하였다고 판정된 경우, 단계 S243으로 진행하여, 추정 혼합비 처리부(241)는, 화소값이 설정된 정규 방정식을 푸는 것에 의해 추정 혼합비를 연산하여, 구해진 추정 혼합비를 출력한다. 추정 혼합비 처리부(241)는 추정 혼합비의 산출에 수반하여, 구해진 전경 성분의 합 및 추정 혼합비의 기울기를 혼합비 관계 정보로서 출력한다.
이와 같이, 추정 혼합비 처리부(241)는 입력 화상을 기초로 추정 혼합비를 연산할 수 있다. 추정 혼합비 처리부(241)는 혼합비 관계 정보로서 전경 성분의 합 및 추정 혼합비의 기울기를 출력한다.
추정 혼합비 처리부(242)에 의한, 언커버드 백그라운드 영역에 대응하는 모델에 의한 혼합비 추정의 처리는, 언커버드 백그라운드 영역의 모델에 대응하는 정규 방정식을 이용한, 도 33의 흐름도에 도시하는 처리와 마찬가지이기 때문에, 그 설명은 생략한다.
도 34는 성분 신호로서 입력되는 입력 화상으로부터 혼합비를 추정하는, 혼합비 산출부(103)의 또 다른 구성을 도시하는 블록도이다.
본 명세서에 있어서, 컴포넌트란, 컴포넌트 신호에서의, 휘도 신호 및 색차 신호, 또는 RGB(Red-green-blue) 신호 등의 개별 신호를 말한다.
이하의 설명에 있어서, 컴포넌트 1는 휘도값 Y로 하고, 컴포넌트 2는 색차 U로 하고, 컴포넌트 3는 색차 V로 한 예를 기초로 설명한다.
추정 혼합비 처리부(241-1)는 입력 화상의 컴포넌트 1를 기초로, 커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 추정 혼합비의 산출에 수반하여 산출되는 혼합비 관계 정보와 함께, 추정 혼합비를 출력한다. 추정 혼합비 처리부(241-1)가 출력하는 혼합비 관계 정보는, 예를 들면, 전경 성분의 합 및 혼합비의 기울기 등으로 이루어진다.
추정 혼합비 처리부(242-1)는 입력 화상의 컴포넌트 1를 기초로, 언커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 추정 혼합비의 산출에 수반하여 산출되는 혼합비 관계 정보와 함께, 추정 혼합비를 출력한다. 추정 혼합비 처리부(242-1)가 출력하는 혼합비 관계 정보는, 예를 들면, 전경 성분의 합 및 혼합비의 기울기 등으로 이루어진다.
추정 혼합비 처리부(241-2)는 입력 화상의 컴포넌트 2를 기초로, 커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 추정 혼합비의 산출에 수반하여 산출되는 혼합비 관계 정보와 함께, 추정 혼합비를 출력한다.
추정 혼합비 처리부(242-2)는 입력 화상의 컴포넌트 2를 기초로, 언커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 추정 혼합비의 산출에 수반하여 산출되는 혼합비 관계 정보와 함께, 추정 혼합비를 출력한다.
추정 혼합비 처리부(241-3)는 입력 화상의 컴포넌트 3를 기초로, 커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 추정 혼합비의 산출에 수반하여 산출되는 혼합비 관계 정보와 함께, 추정 혼합비를 출력한다.
추정 혼합비 처리부(242-3)는 입력 화상의 컴포넌트 3를 기초로, 언커버드 백그라운드 영역의 모델에 대응하는 연산에 의해 화소마다 추정 혼합비를 산출하고, 추정 혼합비의 산출에 수반하여 산출되는 혼합비 관계 정보와 함께, 추정 혼합비를 출력한다.
이와 같이, 도 34에 구성을 나타내는 혼합비 산출부(103)는, 컴포넌트 신호로서 입력되는 입력 화상을 기초로, 각 컴포넌트마다, 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비를 연산할 수 있다. 혼합비 산출부(103)는, 각 컴포넌트마다의, 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비에 대응하는, 전경 성분의 합 및 추정 혼합비의 기울기로 이루어지는 혼합비 관계 정보를 출력한다.
또, 혼합비 산출부(103)는, 컴포넌트 신호로서 입력되는 입력 화상으로부터 혼합비를 추정할 때, 추정 혼합비 처리부(201) 및 추정 혼합비 처리부(202)에서 설명한 처리에 의해, 각 컴포넌트마다, 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비를 연산하여, 추정 혼합비와 함께, 대응하는 혼합비 관계 정보를 출력하도록 하여도 된다.
또한, 배경에 대응하는 오브젝트가 정지하고 있는 것으로 설명하였지만, 배경 영역에 대응하는 화상이 움직임을 포함하고 있더라도 상술한 혼합비를 구하는 처리를 적용할 수 있다. 예를 들면, 배경 영역에 대응하는 화상이 한결같이 움직이고 있을 때, 혼합비 산출부(103)는, 이 움직임에 대응하여 화상 전체를 시프트시켜, 배경에 대응하는 오브젝트가 정지하고 있는 경우와 마찬가지로 처리한다. 또한, 배경 영역에 대응하는 화상이 국소마다 다른 움직임을 포함하고 있을 때, 혼합비 산출부(103)는 혼합 영역에 속하는 화소에 대응하는 화소로서, 움직임에 대응한 화소를 선택하여, 상술의 처리를 실행한다.
다음에, 영역 특정부(104)에 대하여 설명한다.
도 35는 영역 특정부(104)의 구성을 도시하는 블록도이다. 예측 오차 연산부(301)는, 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비에 대응하는 혼합비 관계 정보를 기초로, 각 화소에 대응하는 오차값(추정 혼합비에 대응하는 예측 오차)을 산출하고, 산출한 오차값을 언커버드 백그라운드 영역 판정부(303)에 공급한다.
예를 들면, 혼합비 산출부(103)가, 수학식 11 내지 수학식 15에 최소 제곱법 을 적용하여 혼합비를 추정할 때, 예측 오차 연산부(301)는, 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비에 대응하는 전경 성분의 합인 혼합비 관계 정보를 기초로, 수학식 61에 대응하는 연산에 의해, 오차값 S인 최소 제곱 오차합을 산출한다.
Figure 112003006664212-pct00062
수학식 61에 있어서, α는 추정 혼합비를 나타내고, t는 혼합비의 산출에 이용된 프레임의 수를 나타낸다.
Figure 112003006664212-pct00063
는 혼합비 관계 정보인 전경 성분의 합을 나타낸다.
예측 오차 연산부(302)는, 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비에 대응하는 혼합비 관계 정보를 기초로, 각 화소에 대응하는 오차값을 산출하고, 산출한 오차값을 커버드 백그라운드 영역 판정부(304)에 공급한다.
또, 예측 오차 연산부(301) 및 예측 오차 연산부(302)는, 예를 들면, 5 화소×5 화소로 이루어지는 블록 등 복수의 화소로 이루어지는 블록마다, 각 화소에 대응하는 오차값을 산출하도록 하여도 된다.
또한, 예측 오차 연산부(301) 및 예측 오차 연산부(302)는, t를 미리 정해 놓아도 되고, 또는 t를 혼합비 관계 정보로서 혼합비 산출부(103)로부터 취득하도록 하여도 된다.
언커버드 백그라운드 영역 판정부(303)는 화소마다, 예측 오차 연산부(301)로부터 공급된 오차값이, 미리 기억하고 있는 임계값 Th 이상인지 여부를 판정하여, 오차값이 임계값 Th 이상이다라고 판정된 경우, 주목하고 있는 화소가 언커버드 백그라운드 영역에 속한다고 판정하고, 주목하고 있는 화소에 대응시켜 언커버드 백그라운드 영역을 나타내는 플래그를 설정한다. 언커버드 백그라운드 영역 판정부(303)는 화소마다 설정된, 언커버드 백그라운드 영역을 나타내는 플래그를 합성부(306)에 공급한다.
커버드 백그라운드 영역 판정부(304)는 화소마다, 예측 오차 연산부(302)로부터 공급된 오차값이, 미리 기억하고 있는 임계값 Th 이상인지 여부를 판정하여, 오차값이 임계값 Th 이상이다라고 판정된 경우, 주목하고 있는 화소가 커버드 백그라운드 영역에 속한다고 판정하고, 주목하고 있는 화소에 커버드 백그라운드 영역을 나타내는 플래그를 설정한다. 커버드 백그라운드 영역 판정부(304)는 화소마다 설정된, 커버드 백그라운드 영역을 나타내는 플래그를 합성부(306)에 공급한다.
전경 배경 영역 판정부(305)는 입력 화상을 기초로 전경 영역 및 배경 영역을 판정한다.
예를 들면, 전경 배경 영역 판정부(305)는, 주목하고 있는 프레임 #n의 주목하고 있는 주목 화소의 화소값과, 프레임 #n-1의 주목 화소에 대응하는 화소의 화소와의 차분을 기초로, 주목 화소에 대하여 움직임 판정한다. 전경 배경 영역 판정부(305)는, 주목하고 있는 프레임 #n의 주목하고 있는 주목 화소의 화소값과, 프레임 #n+1의 주목 화소에 대응하는 화소의 화소와의 차분을 기초로, 주목 화소에 대하여 움직임 판정한다.
전경 배경 영역 판정부(305)는, 주목 화소가, 프레임 #n-1로부터 프레임 #n 에 대하여 움직임으로 판정되고, 프레임 #n으로부터 프레임 #n+1에 대하여 움직임으로 판정되었을 때, 주목 화소를 전경 영역에 속한다고 판정한다.
예를 들면, 전경 배경 영역 판정부(305)는, 주목 화소가, 프레임 #n-1로부터 프레임 #n에 대하여 정지라고 판정되고, 프레임 #n으로부터 프레임 #n+1에 대하여 정지라고 판정되었을 때, 주목 화소를 배경 영역에 속한다고 판정한다.
전경 배경 영역 판정부(305)는 화소마다 설정된, 전경 영역을 나타내는 플래그, 및 배경 영역을 나타내는 플래그를 합성부(306)에 공급한다.
합성부(306)는, 언커버드 백그라운드 영역 판정부(303)로부터 공급된 언커버드 백그라운드 영역을 나타내는 플래그, 커버드 백그라운드 영역 판정부(304)로부터 공급된 커버드 백그라운드 영역을 나타내는 플래그, 및 전경 배경 영역 판정부(305)로부터 공급된 전경 영역을 나타내는 플래그, 및 배경 영역을 나타내는 플래그를 기초로, 화소마다, 언커버드 백그라운드 영역, 커버드 백그라운드 영역, 전경 영역, 및 배경 영역 중 어느 하나를 나타내는 영역 정보를 합성한다. 합성부(306)는 합성한 영역 정보를 혼합비 결정부(307)에 공급함과 함께, 영역 정보를 출력한다.
혼합비 결정부(307)는 합성부(306)로부터 공급된 영역 정보를 기초로 혼합비 α를 결정한다. 보다 구체적으로는, 혼합비 결정부(307)는, 대상이 되는 화소가 전경 영역에 속하는 경우, 0을 혼합비 α로 설정하고, 대상이 되는 화소가 배경 영 역에 속하는 경우, 1을 혼합비 α로 설정한다. 혼합비 결정부(307)는 대상이 되는 화소가 커버드 백그라운드 영역에 속하는 경우, 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비를 혼합비 α로 설정하고, 대상이 되는 화소가 언커버드 백그라운드 영역에 속하는 경우, 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비를 혼합비 α로 설정한다. 혼합비 결정부(307)는 영역 정보를 기초로 결정한 혼합비 α를 출력한다.
도 36 및 도 37을 참조하여, 언커버드 백그라운드 영역 판정부(303)의 판정 처리를 설명한다.
도 36에 도시한 바와 같이, 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 주목하고 있는 프레임 #n의 배경 영역에 속하는 주목 화소의 화소값은, 프레임 #n의 다음 프레임 #n+1의 주목 화소에 대응하는 화소의 화소값과 같다. 도 36에 있어서, W는 배경 영역을 나타낸다. 마찬가지로, 배경에 대응하는 오브젝트가 정지하고 있기 때문에, 주목 화소를 바탕으로 움직임 벡터에서 나타나는, 프레임 #n+1의 화소의 화소값은, 프레임 #n+2의 대응하는 화소의 화소값과 같다.
이에 의해, 배경 영역에 속하는 화소에 대응하는, 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비는, 거의 1로 되고, 전경 성분의 합은 거의 0이 된다.
따라서, 수학식 61에 대응하는 연산에 의해, 산출되는 오차값 S는 거의 0이 된다.
도 36에 있어서, X로 나타내는 전경 영역에 속하는 주목 화소에 있어서, 움 직임 보상하고 있기 때문에, 주목하고 있는 프레임 #n의 주목 화소의 화소값은, 주목 화소를 바탕으로 움직임 벡터에서 나타나는, 프레임 #n+1의 화소의 화소값과 같다. 또한, 전경 오브젝트에 대하여 공간 방향의 상관이 강하기 때문에, 전경 성분의 값은 거의 동일하다.
이에 따라, 엄밀한 의미에서는 물리적인 모델과의 대응은 성립하고 있지 않지만, 전경 영역에 속하는 주목 화소에 있어서, 최소 제곱법에 의해 산출된 추정 혼합비 및 전경 성분의 합의 최소 제곱 오차합은, 비교적 작은 값이 된다.
도 36에 있어서, Y로 나타내는 커버드 백그라운드 영역에 대하여, 최소 제곱법에 의해 산출된 추정 혼합비 및 전경 성분의 합의 최소 제곱 오차합은, 당연히 거의 0이 된다.
이에 대하여, 도 37에 도시한 바와 같이, 도면에서 Z로 나타내는 언커버드 백그라운드 영역에 속하는, 주목하고 있는 프레임 #n의 주목 화소의 화소값에 포함되는 전경 성분은, 프레임 #n의 다음 프레임 #n+1의 주목 화소에 대응하는 화소의 화소값에 포함되는 전경 성분과 서로 다르다. 마찬가지로, 주목 화소를 바탕으로 움직임 벡터에서 나타나는, 프레임 #n+1의 화소의 화소값에 포함되는 전경 성분은, 프레임 #n+2의 대응하는 화소의 화소값에 포함되는 전경 성분과 서로 다르다.
최소 제곱법에 의해, 추정 혼합비 및 전경 성분의 합을 미지의 변수로 하여 해를 산출했을 때, 식에 설정된 화소값에 포함되는 전경 성분의 합이 변화하고 있기 때문에, 전경 성분의 합은 산출할 수 없다.
따라서, 커버드 백그라운드 영역에 대응하는 모델을 기초로, 최소 제곱법에 의해 산출된 추정 혼합비 및 전경 성분의 합의 최소 제곱 오차합은, 주목 화소가 언커버드 백그라운드 영역에 속할 때, 큰 값이 된다.
이와 같이, 언커버드 백그라운드 영역 판정부(303)는, 언커버드 백그라운드 영역에 대응하는 모델을 기초로, 최소 제곱법에 의해 산출된 추정 혼합비 및 전경 성분의 합에 대한 오차값 S가 임계값 Th 이상인지 여부의 판정에 의해, 대응하는 화소가 언커버드 백그라운드 영역에 속하는지 여부를 판정할 수 있다.
마찬가지로, 커버드 백그라운드 영역 판정부(304)는, 커버드 백그라운드 영역에 대응하는 모델을 기초로, 최소 제곱법에 의해 산출된 추정 혼합비 및 전경 성분의 합에 대한 오차값 S가 임계값 Th 이상인지 여부의 판정에 의해, 대응하는 화소가 커버드 백그라운드 영역에 속하는지 여부를 판정할 수 있다.
도 38 내지 도 43은 입력 화상, 및 입력 화상에 대응하는 영역 특정부(104)에 의한 영역의 판정 결과 예를 도시하는 도면이다.
도 38은 입력 화상을 도시하는 도면이다. 도 38의 입력 화상에 있어서, 전경 오브젝트는 도면 중 좌측에서 우측으로 이동하고 있다.
도 39에 도시하는 화상은, 도 38에 도시하는 입력 화상에 대하여, 혼합비 산출부(103)에 의해 7프레임을 이용하여 산출된 추정 혼합비 및 전경 성분의 합을 기초로, 영역 특정부(104)가, 하나의 화소마다, 임계값 Th를 70으로서 판정한 결과를 도시하는 도면이다.
도 40에 도시하는 화상은, 도 38에 도시하는 입력 화상에 대하여, 혼합비 산출부(103)에 의해 3프레임을 이용하여 산출된 추정 혼합비 및 전경 성분의 합을 기 초로, 영역 특정부(104)가, 5 화소×5 화소로 이루어지는 블록마다, 블록에 대하여 혼합비가 일정하다고 가정하여, 블록에 대한 오차값 S의 합의 임계값 Th를 750으로 하고, 블록 내의 하나의 화소의 오차값 S의 임계값 Th를 10으로서 판정한 결과를 도시하는 도면이다.
도 41은 입력 화상을 도시하는 도면이다. 도 41의 입력 화상에 있어서, 전경 오브젝트는 도면 중의 좌측에서 우측으로 이동하고 있다.
도 42에 도시하는 화상은, 도 41에 도시하는 입력 화상에 대하여, 혼합비 산출부(103)에 의해, 7프레임을 이용하여 산출된 추정 혼합비 및 전경 성분의 합을 기초로, 영역 특정부(104)가, 하나의 화소마다, 임계값 Th를 70으로 판정한 결과를 도시하는 도면이다.
도 43에 도시하는 화상은, 도 41에 도시하는 입력 화상에 대하여, 혼합비 산출부(103)에 의해 3프레임을 이용하여 산출된 추정 혼합비 및 전경 성분의 합을 기초로, 영역 특정부(104)가, 5 화소×5 화소로 이루어지는 블록마다, 블록에 대하여 혼합비가 일정하다고 가정하여, 블록에 대한 오차값 S의 합의 임계값 Th를 750으로 하고, 블록 내의 하나의 화소의 오차값 S의 임계값 Th를 10으로 판정한 결과를 도시하는 도면이다.
도 39 내지 도 43에 있어서, 커버드 백그라운드 영역은 전경 영역에 대하여 전경 오브젝트의 진행 방향의 전단부에 위치하고, 언커버드 백그라운드 영역은 전경 영역에 대하여 전경 오브젝트의 진행 방향의 후단부에 위치한다.
도 38 내지 도 43에 도시한 바와 같이, 영역 특정부(104)는 거의 정확하게 영역을 판정할 수 있다.
다음에, 혼합비 산출부(103)가, 수학식 28 내지 수학식 36에 최소 제곱법을 적용하여 혼합비를 추정하여, 추정 혼합비와 함께, 추정 혼합비의 기울기를 나타내는 데이터를 혼합비 관계 정보로서 출력할 때의, 영역 특정부(104)의 처리에 대하여 설명한다.
주목 화소의 화소값 M은 수학식 27로부터, 수학식 62로 나타난다.
Figure 112003006664212-pct00064
수학식 62에 있어서, j는 주목하고 있는 화소의 위치를 0으로 한 수평 방향의 인덱스이고, k는 수직 방향의 인덱스이다. m은 혼합비 α의 면의 수평 방향의 기울기이고, q는 혼합비 α의 면의 수직 방향의 기울기이다. p는 혼합비 α의 면의 절편이다. s, t, 및 u는 수학식 23 내지 수학식 25에 나타낸 바와 같이, m, q, 및 p와 전경 성분의 관계를 나타내는 변수이다.
예측 오차 연산부(301)는, 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비에 대응하는, j, k, m, q, p, s, t, 및 u를 포함하는 혼합비 관계 정보를 기초로, 식(63)에 대응하는 연산에 의해, 오차값 S인 최소 제곱 오차합을 산출할 수 있다.
Figure 112003006664212-pct00065
예측 오차 연산부(302)는, 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비에 대응하는 혼합비 관계 정보를 기초로, 식(63)에 대응하는 연산에 의해, 각 화소에 대응하는 오차값을 산출하고, 산출한 오차값을 커버드 백그라운드 영역 판정부(304)에 공급한다.
언커버드 백그라운드 영역 판정부(303)는 화소마다, 예측 오차 연산부(301)로부터 공급된 오차값이, 미리 기억하고 있는 임계값 Th 이상인지 여부를 판정하여, 오차값이 임계값 Th 이상이다라고 판정된 경우, 주목하고 있는 화소가 언커버드 백그라운드 영역에 속한다고 판정하고, 주목하고 있는 화소에 대응시켜 언커버드 백그라운드 영역을 나타내는 플래그를 설정한다. 언커버드 백그라운드 영역 판정부(303)는 화소마다 설정된, 언커버드 백그라운드 영역을 나타내는 플래그를 합성부(306)에 공급한다.
커버드 백그라운드 영역 판정부(304)는 화소마다, 예측 오차 연산부(302)로부터 공급된 오차값이, 미리 기억하고 있는 임계값 Th 이상인지 여부를 판정하여, 오차값이 임계값 Th 이상이다라고 판정된 경우, 주목하고 있는 화소가 커버드 백그라운드 영역에 속한다고 판정하고, 주목하고 있는 화소에 커버드 백그라운드 영역을 나타내는 플래그를 설정한다. 커버드 백그라운드 영역 판정부(304)는 화소마다 설정된, 커버드 백그라운드 영역을 나타내는 플래그를 합성부(306)에 공급한다.
전경 배경 영역 판정부(305)는 입력 화상을 기초로 전경 영역 및 배경 영역을 판정하여, 화소마다 설정된, 전경 영역을 나타내는 플래그 및 배경 영역을 나타 내는 플래그를 합성부(306)에 공급한다.
합성부(306)는 언커버드 백그라운드 영역 판정부(303)로부터 공급된 언커버드 백그라운드 영역을 나타내는 플래그, 커버드 백그라운드 영역 판정부(304)로부터 공급된 커버드 백그라운드 영역을 나타내는 플래그, 및 전경 배경 영역 판정부(305)로부터 공급된 전경 영역을 나타내는 플래그, 및 배경 영역을 나타내는 플래그를 기초로, 화소마다, 언커버드 백그라운드 영역, 커버드 백그라운드 영역, 전경 영역, 및 배경 영역 중 어느 하나를 나타내는 영역 정보를 합성한다. 합성부(306)는 합성한 영역 정보를 혼합비 결정부(307)에 공급함과 함께, 영역 정보를 출력한다.
혼합비 결정부(307)는 합성부(306)로부터 공급된 영역 정보를 기초로 혼합비 α를 결정한다.
이와 같이, 영역 특정부(104)는, 혼합비 산출부(103)의 혼합비의 추정 방법에 대응하여, 추정 혼합비 및 혼합비 관계 정보를 기초로 영역 정보를 생성할 수 있다.
도 44는 컴포넌트 신호마다 추정된 혼합비 및 이들에 대응하는 혼합비 관계 정보, 및 컴포넌트 신호로서 입력되는 입력 화상을 기초로, 영역을 특정하는 영역 특정부(104)의 구성을 도시하는 블록도이다. 도 35에 도시하는 경우와 마찬가지 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
예측 오차 연산부(301-1)는, 입력 화상의 컴포넌트 1로부터 산출된, 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 커버드 백그라운드 영역 에 대응하는 모델에 의한 추정 혼합비에 대응하는 혼합비 관계 정보를 기초로, 각 화소에 대응하는 오차값을 산출하고, 산출한 오차값을 가산부(321)에 공급한다.
예측 오차 연산부(301-2)는, 입력 화상의 컴포넌트 2로부터 산출된, 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비에 대응하는 혼합비 관계 정보를 기초로, 각 화소에 대응하는 오차값을 산출하고, 산출한 오차값을 가산부(321)에 공급한다.
예측 오차 연산부(301-3)는, 입력 화상의 컴포넌트 3로부터 산출된, 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비에 대응하는 혼합비 관계 정보를 기초로, 각 화소에 대응하는 오차값을 산출하고, 산출한 오차값을 가산부(321)에 공급한다.
예측 오차 연산부(302-1)는, 입력 화상의 컴포넌트 1로부터 산출된, 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비에 대응하는 혼합비 관계 정보를 기초로, 각 화소에 대응하는 오차값을 산출하고, 산출한 오차값을 가산부(322)에 공급한다.
예측 오차 연산부(302-2)는, 입력 화상의 컴포넌트 2로부터 산출된, 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비에 대응하는 혼합비 관계 정보를 기초로, 각 화소에 대응하는 오차값을 산출하고, 산출한 오차값을 가산부(322)에 공급한다.
예측 오차 연산부(302-3)는, 입력 화상의 컴포넌트 3로부터 산출된, 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비에 대응하는 혼합비 관계 정보를 기초로, 각 화소에 대응하는 오차값을 산출하고, 산출한 오차값을 가산부(322)에 공급한다.
가산부(321)는 예측 오차 연산부(301-1)로부터 공급된 오차값, 예측 오차 연산부(301-2)로부터 공급된 오차값, 및 예측 오차 연산부(301-3)로부터 공급된 오차값을 가산하여, 가산한 오차값을 언커버드 백그라운드 영역 판정부(303)에 공급한다.
가산부(322)는 예측 오차 연산부(302-1)로부터 공급된 오차값, 예측 오차 연산부(302-2)로부터 공급된 오차값, 및 예측 오차 연산부(302-3)로부터 공급된 오차값을 가산하여, 가산한 오차값을 커버드 백그라운드 영역 판정부(304)에 공급한다.
가산부(323)는 입력 화상의 컴포넌트 1, 입력 화상의 컴포넌트 2, 및 입력 화상의 컴포넌트 3를 가산하여, 가산한 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3를 전경 배경 영역 판정부(305)에 공급한다.
언커버드 백그라운드 영역 판정부(303)는 화소마다, 가산부(321)로부터 공급된 오차값이, 미리 기억하고 있는 임계값 Th 이상인지 여부를 판정하여, 오차값이 임계값 Th 이상이다라고 판정된 경우, 주목하고 있는 화소가 언커버드 백그라운드 영역에 속한다고 판정하고, 주목하고 있는 화소에 대응시켜 언커버드 백그라운드 영역을 나타내는 플래그를 설정한다. 언커버드 백그라운드 영역 판정부(303)는 화소마다 설정된, 언커버드 백그라운드 영역을 나타내는 플래그를 합성부(306)에 공급한다.
커버드 백그라운드 영역 판정부(304)는 화소마다, 가산부(322)로부터 공급된 오차값이, 미리 기억하고 있는 임계값 Th 이상인지 여부를 판정하여, 오차값이 임계값 Th 이상이다라고 판정된 경우, 주목하고 있는 화소가 커버드 백그라운드 영역에 속한다고 판정하고, 주목하고 있는 화소에 커버드 백그라운드 영역을 나타내는 플래그를 설정한다. 커버드 백그라운드 영역 판정부(304)는 화소마다 설정된, 커버드 백그라운드 영역을 나타내는 플래그를 합성부(306)에 공급한다.
전경 배경 영역 판정부(305)는 가산된 컴포넌트 1, 컴포넌트 2, 및 컴포넌트 3를 기초로, 전경 영역 및 배경 영역을 판정하여, 화소마다 설정된, 전경 영역을 나타내는 플래그, 및 배경 영역을 나타내는 플래그를 합성부(306)에 공급한다.
합성부(306)는 언커버드 백그라운드 영역 판정부(303)로부터 공급된 언커버드 백그라운드 영역을 나타내는 플래그, 커버드 백그라운드 영역 판정부(304)로부터 공급된 커버드 백그라운드 영역을 나타내는 플래그, 및 전경 배경 영역 판정부(305)로부터 공급된 전경 영역을 나타내는 플래그, 및 배경 영역을 나타내는 플래그를 기초로, 화소마다, 언커버드 백그라운드 영역, 커버드 백그라운드 영역, 전경 영역, 및 배경 영역 중 어느 하나를 나타내는 영역 정보를 합성한다. 합성부(306)는 합성한 영역 정보를 혼합비 결정부(307)에 공급함과 함께, 영역 정보를 출력한다.
이와 같이, 도 44에 나타내는 영역 특정부(104)는, 컴포넌트 신호마다 추정된 혼합비 및 이들에 대응하는 혼합비 관계 정보, 및 컴포넌트 신호로서 입력되는 입력 화상을 기초로, 영역을 특정할 수 있다. 도 44에 구성을 나타내는 영역 특정부(104)는, 도 35에 구성을 나타내는 영역 특정부(104)에 비하여 보다 정확하게 영 역을 특정할 수 있다.
도 45는 컴포넌트 신호마다 추정된 혼합비 및 이들에 대응하는 혼합비 관계 정보, 및 컴포넌트 신호로서 입력되는 입력 화상을 기초로, 영역을 특정하는 영역 특정부(104)의 다른 구성을 도시하는 블록도이다.
도 44에 도시하는 경우와 마찬가지 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
예측 오차 연산부(301-1)는, 입력 화상의 컴포넌트 1로부터 산출된, 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비에 대응하는 혼합비 관계 정보를 기초로, 각 화소에 대응하는 오차값을 산출하고, 산출한 오차값을 언커버드 백그라운드 영역 판정부(303-1)에 공급한다.
예측 오차 연산부(301-2)는, 입력 화상의 컴포넌트 2로부터 산출된, 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비에 대응하는 혼합비 관계 정보를 기초로, 각 화소에 대응하는 오차값을 산출하고, 산출한 오차값을 언커버드 백그라운드 영역 판정부(303-2)에 공급한다.
예측 오차 연산부(301-3)는, 입력 화상의 컴포넌트 3로부터 산출된, 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비에 대응하는 혼합비 관계 정보를 기초로, 각 화소에 대응하는 오차값을 산출하고, 산출한 오차값을 언커버드 백그라운드 영역 판정부(303-3)에 공급한다.
예측 오차 연산부(302-1)는, 입력 화상의 컴포넌트 1로부터 산출된, 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비에 대응하는 혼합비 관계 정보를 기초로, 각 화소에 대응하는 오차값을 산출하고, 산출한 오차값을 커버드 백그라운드 영역 판정부(304-1)에 공급한다.
예측 오차 연산부(302-2)는, 입력 화상의 컴포넌트 2로부터 산출된, 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비에 대응하는 혼합비 관계 정보를 기초로, 각 화소에 대응하는 오차값을 산출하고, 산출한 오차값을 커버드 백그라운드 영역 판정부(304-2)에 공급한다.
예측 오차 연산부(302-3)는, 입력 화상의 컴포넌트 3로부터 산출된, 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비, 및 언커버드 백그라운드 영역에 대응하는 모델에 의한 추정 혼합비에 대응하는 혼합비 관계 정보를 기초로, 각 화소에 대응하는 오차값을 산출하고, 산출한 오차값을 커버드 백그라운드 영역 판정부(304-3)에 공급한다.
언커버드 백그라운드 영역 판정부(303-1)는 화소마다, 예측 오차 연산부(301-1)로부터 공급된 오차값이, 미리 기억하고 있는 임계값 Th 이상인지 여부를 판정하여, 오차값이 임계값 Th 이상이다라고 판정된 경우, 주목하고 있는 화소가 언커버드 백그라운드 영역에 속한다고 판정하고, 주목하고 있는 화소에 대응 시켜 언커버드 백그라운드 영역을 나타내는 플래그를 설정한다. 언커버드 백그라운드 영역 판정부(303-1)는 화소마다 설정된, 언커버드 백그라운드 영역을 나타내는 플래그를 논리합 연산부(341)에 공급한다.
언커버드 백그라운드 영역 판정부(303-2)는 화소마다, 예측 오차 연산부(301-2)로부터 공급된 오차값이, 미리 기억하고 있는 임계값 Th 이상인지 여부를 판정하여, 오차값이 임계값 Th 이상이다라고 판정된 경우, 주목하고 있는 화소가 언커버드 백그라운드 영역에 속한다고 판정하고, 주목하고 있는 화소에 대응시켜 언커버드 백그라운드 영역을 나타내는 플래그를 설정한다. 언커버드 백그라운드 영역 판정부(303-2)는 화소마다 설정된, 언커버드 백그라운드 영역을 나타내는 플래그를 논리합 연산부(341)에 공급한다.
언커버드 백그라운드 영역 판정부(303-3)는 화소마다, 예측 오차 연산부(301-3)로부터 공급된 오차값이, 미리 기억하고 있는 임계값 Th 이상인지 여부를 판정하여, 오차값이 임계값 Th 이상이다라고 판정된 경우, 주목하고 있는 화소가 언커버드 백그라운드 영역에 속한다고 판정하고, 주목하고 있는 화소에 대응시켜 언커버드 백그라운드 영역을 나타내는 플래그를 설정한다. 언커버드 백그라운드 영역 판정부(303-3)는 화소마다 설정된, 언커버드 백그라운드 영역을 나타내는 플래그를 논리합 연산부(341)에 공급한다.
커버드 백그라운드 영역 판정부(304-1)는 화소마다, 예측 오차 연산부(302-1)로부터 공급된 오차값이, 미리 기억하고 있는 임계값 Th 이상인지 여부를 판정하여, 오차값이 임계값 Th 이상이다라고 판정된 경우, 주목하고 있는 화소가 커버드 백그라운드 영역에 속한다고 판정하고, 주목하고 있는 화소에 대응시켜 커버드 백그라운드 영역을 나타내는 플래그를 설정한다. 커버드 백그라운드 영역 판정부(304-1)는 화소마다 설정된, 커버드 백그라운드 영역을 나타내는 플래그를 논리합 연산부(342)에 공급한다.
커버드 백그라운드 영역 판정부(304-2)는 화소마다, 예측 오차 연산부(302-2)로부터 공급된 오차값이, 미리 기억하고 있는 임계값 Th 이상인지 여부를 판정하여, 오차값이 임계값 Th 이상이다라고 판정된 경우, 주목하고 있는 화소가 커버드 백그라운드 영역에 속한다고 판정하고, 주목하고 있는 화소에 대응시켜 커버드 백그라운드 영역을 나타내는 플래그를 설정한다. 커버드 백그라운드 영역 판정부(304-2)는 화소마다 설정된, 커버드 백그라운드 영역을 나타내는 플래그를 논리합 연산부(342)에 공급한다.
커버드 백그라운드 영역 판정부(304-3)는 화소마다, 예측 오차 연산부(302-3)로부터 공급된 오차값이, 미리 기억하고 있는 임계값 Th 이상인지 여부를 판정하여, 오차값이 임계값 Th 이상이다라고 판정된 경우, 주목하고 있는 화소가 커버드 백그라운드 영역에 속한다고 판정하고, 주목하고 있는 화소에 대응시켜 커버드 백그라운드 영역을 나타내는 플래그를 설정한다. 커버드 백그라운드 영역 판정부(304-3)는 화소마다 설정된, 커버드 백그라운드 영역을 나타내는 플래그를 논리합 연산부(342)에 공급한다.
전경 배경 영역 판정부(305-1)는 컴포넌트 1를 기초로 전경 영역 및 배경 영역을 판정하여, 화소마다 설정된, 전경 영역을 나타내는 플래그, 및 배경 영역을 나타내는 플래그를 논리합 연산부(343)에 공급한다.
전경 배경 영역 판정부(305-2)는 컴포넌트 2를 기초로 전경 영역 및 배경 영역을 판정하여, 화소마다 설정된, 전경 영역을 나타내는 플래그, 및 배경 영역을 나타내는 플래그를 논리합 연산부(343)에 공급한다.
전경 배경 영역 판정부(305-3)는, 컴포넌트 3를 기초로 전경 영역 및 배경 영역을 판정하여, 화소마다 설정된, 전경 영역을 나타내는 플래그, 및 배경 영역을 나타내는 플래그를 논리합 연산부(343)에 공급한다.
논리합 연산부(341)는, 언커버드 백그라운드 영역 판정부(303-1)로부터 공급된 언커버드 백그라운드 영역을 나타내는 플래그, 언커버드 백그라운드 영역 판정부(303-2)로부터 공급된 언커버드 백그라운드 영역을 나타내는 플래그, 및 언커버드 백그라운드 영역 판정부(303-3)로부터 공급된 언커버드 백그라운드 영역을 나타내는 플래그를 기초로, 언커버드 백그라운드 영역 판정부(303-1)로부터 공급된 플래그가 나타내는 언커버드 백그라운드 영역, 언커버드 백그라운드 영역 판정부(303-2)로부터 공급된 플래그가 나타내는 언커버드 백그라운드 영역, 및 언커버드 백그라운드 영역 판정부(303-3)로부터 공급된 플래그가 나타내는 언커버드 백그라운드 영역의 논리합을 연산하여, 논리합에 의해 연산된 언커버드 백그라운드 영역을 나타내는 플래그를 생성한다. 논리합 연산부(341)는 생성한 언커버드 백그라운드 영역을 나타내는 플래그를 합성부(306)에 공급한다.
논리합 연산부(342)는, 커버드 백그라운드 영역 판정부(304-1)로부터 공급된 커버드 백그라운드 영역을 나타내는 플래그, 커버드 백그라운드 영역 판정부(304- 2)로부터 공급된 커버드 백그라운드 영역을 나타내는 플래그, 및 커버드 백그라운드 영역 판정부(304-3)로부터 공급된 커버드 백그라운드 영역을 나타내는 플래그를 기초로, 커버드 백그라운드 영역 판정부(304-1)로부터 공급된 플래그가 나타내는 커버드 백그라운드 영역, 커버드 백그라운드 영역 판정부(304-2)로부터 공급된 플래그가 나타내는 커버드 백그라운드 영역, 및 커버드 백그라운드 영역 판정부(304-3)로부터 공급된 플래그가 나타내는 커버드 백그라운드 영역의 논리합을 연산하여, 논리합에 의해 연산된 커버드 백그라운드 영역을 나타내는 플래그를 생성한다. 논리합 연산부(342)는 생성한 커버드 백그라운드 영역을 나타내는 플래그를 합성부(306)에 공급한다.
논리합 연산부(343)는, 전경 배경 영역 판정부(305-1)로부터 공급된 전경 영역을 나타내는 플래그, 전경 배경 영역 판정부(305-2)로부터 공급된 전경 영역을 나타내는 플래그, 및 전경 배경 영역 판정부(305-3)로부터 공급된 전경 영역을 나타내는 플래그를 기초로, 전경 배경 영역 판정부(305-1)로부터 공급된 플래그가 나타내는 전경 영역, 전경 배경 영역 판정부(305-2)로부터 공급된 플래그가 나타내는 전경 영역, 및 전경 배경 영역 판정부(305-3)로부터 공급된 플래그가 나타내는 전경 영역의 논리합을 연산하여, 논리합에 의해 연산된 전경 영역을 나타내는 플래그를 생성한다. 논리합 연산부(343)는 생성한 전경 영역을 나타내는 플래그를 합성부(306)에 공급한다.
논리합 연산부(343)는, 전경 배경 영역 판정부(305-1)로부터 공급된 배경 영역을 나타내는 플래그, 전경 배경 영역 판정부(305-2)로부터 공급된 배경 영역을 나타내는 플래그, 및 전경 배경 영역 판정부(305-3)로부터 공급된 배경 영역을 나타내는 플래그를 기초로, 전경 배경 영역 판정부(305-1)로부터 공급된 플래그가 나타내는 배경 영역, 전경 배경 영역 판정부(305-2)로부터 공급된 플래그가 나타내는 배경 영역, 및 전경 배경 영역 판정부(305-3)로부터 공급된 플래그가 나타내는 배경 영역의 논리합을 연산하여, 논리합에 의해 연산된 배경 영역을 나타내는 플래그를 생성한다. 논리합 연산부(343)는 생성한 배경 영역을 나타내는 플래그를 합성부(306)에 공급한다.
합성부(306)는, 논리합 연산부(341)로부터 공급된 언커버드 백그라운드 영역을 나타내는 플래그, 논리합 연산부(342)로부터 공급된 커버드 백그라운드 영역을 나타내는 플래그, 및 논리합 연산부(343)로부터 공급된 전경 영역을 나타내는 플래그, 및 배경 영역을 나타내는 플래그를 기초로, 화소마다, 언커버드 백그라운드 영역, 커버드 백그라운드 영역, 전경 영역, 및 배경 영역 중 어느 하나를 나타내는 영역 정보를 합성한다. 합성부(306)는 합성한 영역 정보를 출력한다.
도 45에 구성을 나타내는 영역 특정부(104)는, 전경 영역, 배경 영역, 커버드 백그라운드 영역, 및 언커버드 백그라운드 영역의 각 영역을 빠뜨리지 않고 특정한 영역 정보를 출력할 수 있다.
도 46은 컴포넌트 신호마다 추정된 혼합비 및 이들에 대응하는 혼합비 관계 정보, 및 컴포넌트 신호로서 입력되는 입력 화상을 기초로, 영역을 특정하는 영역 특정부(104)의 또 다른 구성을 도시하는 블록도이다.
도 45에 도시하는 경우와 마찬가지 부분에는 동일한 번호를 붙이고, 그 설명 은 생략한다.
논리곱 연산부(361)는, 언커버드 백그라운드 영역 판정부(303-1)로부터 공급된 언커버드 백그라운드 영역을 나타내는 플래그, 언커버드 백그라운드 영역 판정부(303-2)로부터 공급된 언커버드 백그라운드 영역을 나타내는 플래그, 및 언커버드 백그라운드 영역 판정부(303-3)로부터 공급된 언커버드 백그라운드 영역을 나타내는 플래그를 기초로, 언커버드 백그라운드 영역 판정부(303-1)로부터 공급된 플래그가 나타내는 언커버드 백그라운드 영역, 언커버드 백그라운드 영역 판정부(303-2)로부터 공급된 플래그가 나타내는 언커버드 백그라운드 영역, 및 언커버드 백그라운드 영역 판정부(303-3)로부터 공급된 플래그가 나타내는 언커버드 백그라운드 영역의 논리곱을 연산하여, 논리곱에 의해 연산된 언커버드 백그라운드 영역을 나타내는 플래그를 생성한다. 논리곱 연산부(361)는 생성한 언커버드 백그라운드 영역을 나타내는 플래그를 합성부(306)에 공급한다.
논리곱 연산부(362)는, 커버드 백그라운드 영역 판정부(304-1)로부터 공급된 커버드 백그라운드 영역을 나타내는 플래그, 커버드 백그라운드 영역 판정부(304-2)로부터 공급된 커버드 백그라운드 영역을 나타내는 플래그, 및 커버드 백그라운드 영역 판정부(304-3)로부터 공급된 커버드 백그라운드 영역을 나타내는 플래그를 기초로, 커버드 백그라운드 영역 판정부(304-1)로부터 공급된 플래그가 나타내는 커버드 백그라운드 영역, 커버드 백그라운드 영역 판정부(304-2)로부터 공급된 플래그가 나타내는 커버드 백그라운드 영역, 및 커버드 백그라운드 영역 판정부(304-3)로부터 공급된 플래그가 나타내는 커버드 백그라운드 영역의 논리곱을 연산하여, 논리곱에 의해 연산된 커버드 백그라운드 영역을 나타내는 플래그를 생성한다. 논리곱 연산부(362)는 생성한 커버드 백그라운드 영역을 나타내는 플래그를 합성부(306)에 공급한다.
논리곱 연산부(363)는, 전경 배경 영역 판정부(305-1)로부터 공급된 전경 영역을 나타내는 플래그, 전경 배경 영역 판정부(305-2)로부터 공급된 전경 영역을 나타내는 플래그, 및 전경 배경 영역 판정부(305-3)로부터 공급된 전경 영역을 나타내는 플래그를 기초로, 전경 배경 영역 판정부(305-1)로부터 공급된 플래그가 나타내는 전경 영역, 전경 배경 영역 판정부(305-2)로부터 공급된 플래그가 나타내는 전경 영역, 및 전경 배경 영역 판정부(305-3)로부터 공급된 플래그가 나타내는 전경 영역의 논리곱을 연산하여, 논리곱에 의해 연산된 전경 영역을 나타내는 플래그를 생성한다. 논리곱 연산부(363)는 생성한 전경 영역을 나타내는 플래그를 합성부(306)에 공급한다.
논리곱 연산부(363)는, 전경 배경 영역 판정부(305-1)로부터 공급된 배경 영역을 나타내는 플래그, 전경 배경 영역 판정부(305-2)로부터 공급된 배경 영역을 나타내는 플래그, 및 전경 배경 영역 판정부(305-3)로부터 공급된 배경 영역을 나타내는 플래그를 기초로, 전경 배경 영역 판정부(305-1)로부터 공급된 플래그가 나타내는 배경 영역, 전경 배경 영역 판정부(305-2)로부터 공급된 플래그가 나타내는 배경 영역, 및 전경 배경 영역 판정부(305-3)로부터 공급된 플래그가 나타내는 배경 영역의 논리곱을 연산하여, 논리곱에 의해 연산된 배경 영역을 나타내는 플래그를 생성한다. 논리곱 연산부(363)는 생성한 배경 영역을 나타내는 플래그를 합성 부(306)에 공급한다.
합성부(306)는, 논리곱 연산부(361)로부터 공급된 언커버드 백그라운드 영역을 나타내는 플래그, 논리곱 연산부(362)로부터 공급된 커버드 백그라운드 영역을 나타내는 플래그, 및 논리곱 연산부(363)로부터 공급된 전경 영역을 나타내는 플래그, 및 배경 영역을 나타내는 플래그를 기초로, 화소마다, 언커버드 백그라운드 영역, 커버드 백그라운드 영역, 전경 영역, 및 배경 영역 중 어느 하나를 나타내는 영역 정보를 합성한다. 합성부(306)는 합성한 영역 정보를 출력한다.
도 46에 구성을 나타내는 영역 특정부(104)는 에러가 보다 적은 영역 정보를 출력할 수 있다.
도 47의 흐름도를 참조하여, 영역 특정부(104)에 의한, 영역 특정한 처리를 설명한다. 단계 S301에 있어서, 영역 특정부(104)는 오차값을 기초로, 화소마다, 커버드 백그라운드 영역 특정의 처리를 실행한다. 커버드 백그라운드 영역 특정의 처리에 대한 상세는 후술한다.
단계 S302에 있어서, 영역 특정부(104)는 오차값을 기초로, 화소마다, 언커버드 백그라운드 영역 특정의 처리를 실행한다. 언커버드 백그라운드 영역 특정의 처리에 대한 상세는 후술한다.
단계 S303에 있어서, 전경 배경 영역 판정부(305)는 입력 화상을 기초로, 화소마다, 전경 영역 및 배경 영역을 특정하고, 처리는 종료한다.
도 48의 흐름도를 참조하여, 단계 S301에 대응하는, 커버드 백그라운드 영역 특정의 처리를 설명한다.
단계 S321에 있어서, 예측 오차 연산부(302)는 언커버드 백그라운드 영역에 대응하는 모델에 의한 오차값을 계산한다. 예측 오차 연산부(302)는 계산한 오차값을 커버드 백그라운드 영역 판정부(304)에 공급한다.
단계 S322에 있어서, 커버드 백그라운드 영역 판정부(304)는, 예측 오차 연산부(302)로부터 공급된 오차값이, 임계값 Th 이상인지 여부를 판정하여, 오차값이 임계값 Th 이상이다라고 판정된 경우, 단계 S323으로 진행하여, 오차값에 대응하는 화소에, 커버드 백그라운드 영역을 나타내는 플래그를 설정하고, 수속은 단계 S324로 진행한다.
단계 S322에 있어서, 오차값이 임계값 Th 이상이 아니다고 판정된 경우, 커버드 백그라운드 영역이 아니기 때문에, 단계 S323의 처리는 스킵되고, 수속은 단계 S324로 진행한다.
단계 S324에 있어서, 영역 특정부(104)는 화면 전체에 대하여 처리를 하였는지 여부를 판정하여, 화면 전체에 대하여 처리를 하지 않았다고 판정된 경우, 단계 S321로 되돌아가, 커버드 백그라운드 영역의 판정 처리를 반복한다.
단계 S324에 있어서, 화면 전체에 대하여 처리를 하였다고 판정된 경우, 단계 S325로 진행하여, 커버드 백그라운드 영역 판정부(304)는 커버드 백그라운드 영역을 나타내는 플래그를 출력하고, 처리는 종료한다.
도 49의 흐름도를 참조하여, 단계 S302에 대응하는, 언커버드 백그라운드 영역 특정의 처리를 설명한다.
단계 S341에 있어서, 예측 오차 연산부(301)는 커버드 백그라운드 영역에 대 응하는 모델에 의한 오차값을 계산한다. 예측 오차 연산부(301)는 계산한 오차값을 언커버드 백그라운드 영역 판정부(303)에 공급한다.
단계 S342에 있어서, 언커버드 백그라운드 영역 판정부(303)는, 예측 오차 연산부(301)로부터 공급된 오차값이, 임계값 Th 이상인지 여부를 판정하여, 오차값이 임계값 Th 이상이다라고 판정된 경우, 단계 S343으로 진행하여, 오차값에 대응하는 화소에, 언커버드 백그라운드 영역을 나타내는 플래그를 설정하고, 수속은 단계 S344로 진행한다.
단계 S342에 있어서, 오차값이 임계값 Th 이상이 아니다고 판정된 경우, 언커버드 백그라운드 영역이 아니기 때문에, 단계 S343의 처리는 스킵되고, 수속은 단계 S344로 진행한다.
단계 S344에 있어서, 영역 특정부(104)는, 화면 전체에 대하여 처리를 하였는지 여부를 판정하여, 화면 전체에 대하여 처리를 하지 않았다고 판정된 경우, 단계 S341로 되돌아가, 언커버드 백그라운드 영역의 판정의 처리를 반복한다.
단계 S344에 있어서, 화면 전체에 대하여 처리를 하였다고 판정된 경우, 단계 S345로 진행하여, 언커버드 백그라운드 영역 판정부(303)는, 언커버드 백그라운드 영역을 나타내는 플래그를 출력하고, 처리는 종료한다.
이상과 같이, 영역 특정부(104)는 추정 혼합비 및 추정 혼합비에 대응하는 혼합비 관계 정보를 기초로 오차값을 연산하고, 연산된 오차값을 기초로 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 특정할 수 있다.
영역 특정부(104)는 생성한 영역 정보를 기초로 혼합비 α를 결정하여, 결정 한 혼합비 α를 출력할 수 있다.
혼합비 α를 이용함으로써, 움직이고 있는 오브젝트에 대응하는 화상에 포함되는 움직임 불선명의 정보를 남긴 채로, 화소값에 포함되는 전경 성분과 배경 성분을 분리하는 것이 가능하게 된다.
도 44에 구성을 나타내는 영역 특정부(104)는 가산된 오차값을 기초로, 커버드 백그라운드 영역 또는 언커버드 백그라운드 영역을 특정하는 점을 제외하고, 도 47 내지 도 49의 흐름도를 참조하여 설명한 처리와 마찬가지 처리에 의해 영역을 특정하기 때문에, 그 처리의 상세한 설명은 생략한다.
도 45에 구성을 나타내는 영역 특정부(104)는, 각 컴포넌트마다 영역을 특정하여, 특정된 영역의 논리합에 의해 최종적인 영역을 구하는 점을 제외하고, 도 47 내지 도 49의 흐름도를 참조하여 설명한 처리와 마찬가지 처리에 의해 영역을 특정하기 때문에, 그 처리의 상세한 설명은 생략한다.
도 46에 구성을 나타내는 영역 특정부(104)는, 각 컴포넌트마다 영역을 특정하여, 특정된 영역의 논리곱에 의해 최종적인 영역을 구하는 점을 제외하고, 도 47 내지 도 49의 흐름도를 참조하여 설명한 처리와 마찬가지 처리에 의해 영역을 특정하기 때문에, 그 처리의 상세한 설명은 생략한다.
다음에, 전경 배경 분리부(105)에 대하여 설명한다. 도 50는 전경 배경 분리부(105)의 구성 일례를 도시하는 블록도이다. 전경 배경 분리부(105)에 공급된 입력 화상은 분리부(601), 스위치(602), 및 스위치(604)에 공급된다. 커버드 백그라운드 영역을 나타내는 정보, 및 언커버드 백그라운드 영역을 나타내는, 영역 특 정부(104)로부터 공급된 영역 정보는, 분리부(601)에 공급된다. 전경 영역을 나타내는 영역 정보는 스위치(602)에 공급된다. 배경 영역을 나타내는 영역 정보는 스위치(604)에 공급된다.
혼합비 산출부(103)로부터 공급된 혼합비 α는 분리부(601)에 공급된다.
분리부(601)는 커버드 백그라운드 영역을 나타내는 영역 정보, 언커버드 백그라운드 영역을 나타내는 영역 정보 및 혼합비 α에 기초하여, 입력 화상으로부터 전경 성분을 분리하여 분리한 전경 성분을 합성부(603)에 공급함과 함께, 입력 화상으로부터 배경 성분을 분리하여 분리한 배경 성분을 합성부(605)에 공급한다.
스위치(602)는 전경 영역을 나타내는 영역 정보에 기초하여, 전경에 대응하는 화소가 입력되었을 때 폐쇄되고, 입력 화상에 포함되는 전경에 대응하는 화소만을 합성부(603)에 공급한다.
스위치(604)는 배경 영역을 나타내는 영역 정보에 기초하여, 배경에 대응하는 화소가 입력되었을 때 폐쇄되고, 입력 화상에 포함되는 배경에 대응하는 화소만을 합성부(605)에 공급한다.
합성부(603)는 분리부(601)로부터 공급된 전경에 대응하는 성분, 스위치(602)로부터 공급된 전경에 대응하는 화소에 기초하여, 전경 성분 화상을 합성하여 합성한 전경 성분 화상을 출력한다. 전경 영역과 혼합 영역은 중복되지 않기 때문에, 합성부(603)는 예를 들면, 전경에 대응하는 성분과 전경에 대응하는 화소에 논리합의 연산을 적용하여 전경 성분 화상을 합성한다.
합성부(603)는 전경 성분 화상의 합성 처리의 처음에 실행되는 초기화 처리 에 있어서, 내장하고 있는 프레임 메모리에 모든 화소값이 0인 화상을 저장하고, 전경 성분 화상의 합성 처리에 있어서, 전경 성분 화상을 저장(덧씌우기)한다. 따라서, 합성부(603)가 출력하는 전경 성분 화상 중 배경 영역에 대응하는 화소에는, 화소값으로서 0이 저장되어 있다.
합성부(605)는 분리부(601)로부터 공급된 배경에 대응하는 성분, 스위치(604)로부터 공급된 배경에 대응하는 화소에 기초하여, 배경 성분 화상을 합성하고, 합성한 배경 성분 화상을 출력한다. 배경 영역과 혼합 영역은 중복되지 않기 때문에, 합성부(605)는 예를 들면, 배경에 대응하는 성분과, 배경에 대응하는 화소에 논리합의 연산을 적용하여, 배경 성분 화상을 합성한다.
합성부(605)는 배경 성분 화상의 합성 처리의 처음에 실행되는 초기화 처리에 있어서, 내장하고 있는 프레임 메모리에 모든 화소값이 0인 화상을 저장하고, 배경 성분 화상의 합성 처리에 있어서, 배경 성분 화상을 저장(덧씌우기)한다. 따라서, 합성부(605)가 출력하는 배경 성분 화상 중 전경 영역에 대응하는 화소에는, 화소값으로서 0이 저장되어 있다.
도 51A 전경 배경 분리부(105)에 입력되는 입력 화상, 및 전경 배경 분리부(105)로부터 출력되는 전경 성분 화상 및 배경 성분 화상을 도시하는 도면이다. 도 51B는 전경 배경 분리부(105)에 입력되는 입력 화상, 및 전경 배경 분리부(105)로부터 출력되는 전경 성분 화상 및 배경 성분 화상의 모델을 도시하는 도면이다.
도 51A는 표시되는 화상의 모식도이고, 도 51B는 도 51A에 대응하는 전경 영 역에 속하는 화소, 배경 영역에 속하는 화소, 및 혼합 영역에 속하는 화소를 포함하는 1라인의 화소를 시간 방향으로 전개한 모델도를 나타낸다.
도 51A및 도 51B에 도시한 바와 같이, 전경 배경 분리부(105)로부터 출력되는 배경 성분 화상은, 배경 영역에 속하는 화소, 및 혼합 영역의 화소에 포함되는 배경 성분으로 구성된다.
도 51A및 도 51B에 도시한 바와 같이, 전경 배경 분리부(105)로부터 출력되는 전경 성분 화상은, 전경 영역에 속하는 화소, 및 혼합 영역의 화소에 포함되는 전경 성분으로 구성된다.
혼합 영역의 화소의 화소값은, 전경 배경 분리부(105)에 의해 배경 성분과 전경 성분으로 분리된다. 분리된 배경 성분은 배경 영역에 속하는 화소와 함께, 배경 성분 화상을 구성한다. 분리된 전경 성분은 전경 영역에 속하는 화소와 함께, 전경 성분 화상을 구성한다.
이와 같이, 전경 성분 화상은 배경 영역에 대응하는 화소의 화소값이 0이 되고, 전경 영역에 대응하는 화소 및 혼합 영역에 대응하는 화소에 의미가 있는 화소값이 설정된다. 마찬가지로, 배경 성분 화상은, 전경 영역에 대응하는 화소의 화소값이 0이 되고, 배경 영역에 대응하는 화소 및 혼합 영역에 대응하는 화소에 의미가 있는 화소값이 설정된다.
다음에, 분리부(601)가 실행하는, 혼합 영역에 속하는 화소로부터 전경 성분 및 배경 성분을 분리하는 처리에 대하여 설명한다.
도 52은 도면 중의 좌측에서 우측으로 이동하는 오브젝트에 대응하는 전경을 포함하는, 2개의 프레임의 전경 성분 및 배경 성분을 나타내는 화상의 모델이다. 도 52에 나타내는 화상의 모델에 있어서, 전경의 움직임량 v는 4이고, 가상 분할수는 4로 되어 있다.
프레임 #n에 있어서, 가장 좌측의 화소 및 좌측에서 14번째 내지 18번째 화소는, 배경 성분 만으로 이루어지고, 배경 영역에 속한다. 프레임 #n에 있어서, 좌측에서 2번째 내지 4번째 화소는, 배경 성분 및 전경 성분을 포함하고, 언커버드 백그라운드 영역에 속한다. 프레임 #n에 있어서, 좌측에서 11번째 내지 13번째 화소는, 배경 성분 및 전경 성분을 포함하고, 커버드 백그라운드 영역에 속한다. 프레임 #n에 있어서, 좌측에서 5번째 내지 10번째 화소는 전경 성분 만으로 이루어지고, 전경 영역에 속한다.
프레임 #n+1에 있어서, 좌측에서 1번째 내지 5번째 화소, 및 좌측에서 18번째 화소는, 배경 성분 만으로 이루어지고, 배경 영역에 속한다. 프레임 #n+1에 있어서, 좌측에서 6번째 내지 8번째 화소는, 배경 성분 및 전경 성분을 포함하고, 언커버드 백그라운드 영역에 속한다. 프레임 #n+1에 있어서, 좌측에서 15번째 내지 17번째 화소는, 배경 성분 및 전경 성분을 포함하고, 커버드 백그라운드 영역에 속한다. 프레임 #n+1에 있어서, 좌측에서 9번째 내지 14번째 화소는, 전경 성분 만으로 이루어지고, 전경 영역에 속한다.
도 53는 커버드 백그라운드 영역에 속하는 화소로부터 전경 성분을 분리하는 처리를 설명하는 도면이다. 도 53에 있어서, α1 내지 α18은 프레임 #n에서의 화소 각각에 대응하는 혼합비이다. 도 53에 있어서, 좌측에서 15번째 내지 17번째 화소는, 커버드 백그라운드 영역에 속한다.
프레임 #n의 좌측에서 15번째 화소의 화소값 C15는 수학식 64으로 나타내진다.
Figure 112003006664212-pct00066
여기서, α15는 프레임 #n의 좌측에서 15번째 화소의 혼합비이다. P15는 프레임 #n-1의 좌측에서 15번째 화소의 화소값이다.
수학식 64을 기초로, 프레임 #n의 좌측에서 15번째 화소의 전경 성분의 합 f15는 수학식 65로 나타내진다.
Figure 112003006664212-pct00067
마찬가지로, 프레임 #n의 좌측에서 16번째 화소의 전경 성분의 합 f16은 수학식 66로 나타내지고, 프레임 #n의 좌측에서 17번째 화소의 전경 성분의 합 f17은 수학식 67으로 나타내진다.
Figure 112003006664212-pct00068
Figure 112003006664212-pct00069
이와 같이, 커버드 백그라운드 영역에 속하는 화소의 화소값 C에 포함되는 전경 성분 fc는 수학식 68에 의해 계산된다.
Figure 112003006664212-pct00070
P는 하나 앞의 프레임의, 대응하는 화소의 화소값이다.
도 54은 언커버드 백그라운드 영역에 속하는 화소로부터 전경 성분을 분리하는 처리를 설명하는 도면이다. 도 54에 있어서, α1 내지 α18은 프레임 #n에서의 화소 각각에 대응하는 혼합비이다. 도 54에 있어서, 좌측에서 2번째 내지 4번째 화소는 언커버드 백그라운드 영역에 속한다.
프레임 #n의 좌측에서 2번째 화소의 화소값 C02는 수학식 69로 나타내진다.
Figure 112003006664212-pct00071
여기서, α2는 프레임 #n의 좌측에서 2번째 화소의 혼합비이다. N02는 프레임 #n+1의 좌측에서 2번째 화소의 화소값이다.
수학식 69를 기초로, 프레임 #n의 좌측에서 2번째 화소의 전경 성분의 합 f02는 수학식 70으로 나타내진다.
Figure 112003006664212-pct00072
마찬가지로, 프레임 #n의 좌측에서 3번째 화소의 전경 성분의 합 f03은 수학식 71로 나타내지고, 프레임 #n의 좌측에서 4번째 화소의 전경 성분의 합 f04는 수학식 72로 나타내진다.
Figure 112003006664212-pct00073
Figure 112003006664212-pct00074
이와 같이, 언커버드 백그라운드 영역에 속하는 화소의 화소값 C에 포함되는 전경 성분 fu는 수학식 73로 계산된다.
Figure 112003006664212-pct00075
N은 하나 후의 프레임의, 대응하는 화소의 화소값이다.
이와 같이, 분리부(601)는, 영역 정보에 포함되는, 커버드 백그라운드 영역을 나타내는 정보, 및 언커버드 백그라운드 영역을 나타내는 정보, 및 화소마다의 혼합비 α에 기초하여, 혼합 영역에 속하는 화소로부터 전경 성분, 및 배경 성분을 분리할 수 있다.
도 55는 이상에서 설명한 처리를 실행하는 분리부(601)의 구성 일례를 도시하는 블록도이다. 분리부(601)에 입력된 화상은 프레임 메모리(621)에 공급되고, 혼합비 산출부(103)로부터 공급된 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 나타내는 영역 정보 및 혼합비 α는 분리 처리 블록(622)에 입력된다.
프레임 메모리(621)는 입력된 화상을 프레임 단위로 기억한다. 프레임 메모리(621)는 처리의 대상이 프레임 #n일 때, 프레임 #n의 하나 앞의 프레임인 프레임 #n-1, 프레임 #n, 및 프레임 #n의 하나 후의 프레임인 프레임 #n+1을 기억한다.
프레임 메모리(621)는 프레임 #n-1, 프레임 #n, 및 프레임 #n+1이 대응하는 화소를 분리 처리 블록(622)에 공급한다.
분리 처리 블록(622)은 커버드 백그라운드 영역 및 언커버드 백그라운드 영역을 나타내는 영역 정보 및 혼합비 α에 기초하여, 프레임 메모리(621)로부터 공급된 프레임 #n-1, 프레임 #n, 및 프레임 #n+1이 대응하는 화소의 화소값에 도 53 및 도 54을 참조하여 설명한 연산을 적용하고, 프레임 #n의 혼합 영역에 속하는 화소로부터 전경 성분 및 배경 성분을 분리하여, 프레임 메모리(623)에 공급한다.
분리 처리 블록(622)은 언커버드 영역 처리부(631), 커버드 영역 처리부(632), 합성부(633), 및 합성부(634)로 구성되어 있다.
언커버드 영역 처리부(631)의 승산기(641)는, 혼합비 α를, 프레임 메모리(621)로부터 공급된 프레임 #n+1의 화소의 화소값에 곱하여, 스위치(642)에 출력한다. 스위치(642)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소(프레임 #n+1의 화소에 대응함)가 언커버드 백그라운드 영역일 때 폐쇄되고, 승산기(641)로부터 공급된 혼합비 α를 곱한 화소값을 연산기(643) 및 합성부(634)에 공급한다. 스위치(642)로부터 출력되는 프레임 #n+1의 화소의 화소값에 혼합비 α를 곱한 값은, 프레임 #n이 대응하는 화소의 화소값의 배경 성분과 동일하다.
연산기(643)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소의 화소값으로부터, 스위치(642)로부터 공급된 배경 성분을 감산하여 전경 성분을 구한다. 연산기(643)는 언커버드 백그라운드 영역에 속하는, 프레임 #n의 화소의 전경 성분을 합성부(633)에 공급한다.
커버드 영역 처리부(632)의 승산기(651)는, 혼합비 α를, 프레임 메모리(621)로부터 공급된 프레임 #n-1의 화소의 화소값에 곱하여 스위치(652)에 출력한다. 스위치(652)는 프레임 메모리(621)로부터 공급된 프레임 #n의 화소(프레임 #n-1의 화소에 대응함)가 커버드 백그라운드 영역일 때 폐쇄되고, 승산기(651)로부터 공급된 혼합비 α를 곱한 화소값을 연산기(653) 및 합성부(634)에 공급한다. 스위치(652)로부터 출력되는 프레임 #n-1의 화소의 화소값에 혼합비 α를 곱한 값은, 프레임 #n이 대응하는 화소의 화소값의 배경 성분과 동일하다.
연산기(653)는, 프레임 메모리(621)로부터 공급된 프레임 #n의 화소의 화소값으로부터, 스위치(652)로부터 공급된 배경 성분을 감산하여 전경 성분을 구한다. 연산기(653)는 커버드 백그라운드 영역에 속하는, 프레임 #n의 화소의 전경 성분을 합성부(633)에 공급한다.
합성부(633)는, 프레임 #n의, 연산기(643)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소의 전경 성분, 및 연산기(653)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소의 전경 성분을 합성하여, 프레임 메모리(623)에 공급한다.
합성부(634)는, 프레임 #n의, 스위치(642)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소의 배경 성분, 및 스위치(652)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소의 배경 성분을 합성하여, 프레임 메모리(623)에 공급한다.
프레임 메모리(623)는, 분리 처리 블록(622)으로부터 공급된, 프레임 #n의 혼합 영역의 화소의 전경 성분과, 배경 성분을 각각에 기억한다.
프레임 메모리(623)는 기억하고 있는 프레임 #n의 혼합 영역의 화소의 전경 성분, 및 기억하고 있는 프레임 #n의 혼합 영역의 화소의 배경 성분을 출력한다.
특징량인 혼합비 α를 이용함으로써, 화소값에 포함되는 전경 성분과 배경 성분을 완전하게 분리하는 것이 가능하게 된다.
합성부(603)는, 분리부(601)로부터 출력된, 프레임 #n의 혼합 영역의 화소의 전경 성분과, 전경 영역에 속하는 화소를 합성하여 전경 성분 화상을 생성한다. 합성부(605)는, 분리부(601)로부터 출력된, 프레임 #n의 혼합 영역의 화소의 배경 성분과, 배경 영역에 속하는 화소를 합성하여 배경 성분 화상을 생성한다.
도 56A는 도 52의 프레임 #n에 대응하는 전경 성분 화상의 예를 나타낸다. 가장 좌측의 화소 및 좌측에서 14번째 화소는 전경과 배경이 분리되기 전에 있어 서, 배경 성분 만으로 이루어져 있었기 때문에, 화소값이 0이 된다.
좌측에서 2번째 내지 4번째 화소는 전경과 배경이 분리되기 전에 있어서, 언커버드 백그라운드 영역에 속하고, 배경 성분이 0이 되어, 전경 성분이 그대로 남겨져 있다. 좌측에서 11번째 내지 13번째 화소는 전경과 배경이 분리되기 전에 있어서, 커버드 백그라운드 영역에 속하고, 배경 성분이 0이 되어, 전경 성분이 그대로 남겨져 있다. 좌측에서 5번째 내지 10번째 화소는 전경 성분 만으로 이루어지기 때문에, 그대로 남겨진다.
도 56B는 도 52의 프레임 #n에 대응하는 배경 성분 화상의 예를 나타낸다. 가장 좌측의 화소, 및 좌측에서 14번째 화소는 전경과 배경이 분리되기 전에 있어서, 배경 성분 만으로 이루어져 있었기 때문에, 그대로 남겨진다.
좌측에서 2번째 내지 4번째 화소는 전경과 배경이 분리되기 전에 있어서, 언커버드 백그라운드 영역에 속하고, 전경 성분이 0이 되어, 배경 성분이 그대로 남겨져 있다. 좌측에서 11번째 내지 13번째 화소는 전경과 배경이 분리되기 전에 있어서, 커버드 백그라운드 영역에 속하고, 전경 성분이 0이 되어, 배경 성분이 그대로 남겨져 있다. 좌측에서 5번째 내지 10번째 화소는 전경과 배경이 분리되기 전에 있어서, 전경 성분 만으로 이루어져 있었기 때문에, 화소값이 0이 된다.
다음에, 도 57에 나타내는 흐름도를 참조하여, 전경 배경 분리부(105)에 의한 전경과 배경의 분리 처리를 설명한다. 단계 S601에 있어서, 분리부(601)의 프레임 메모리(621)는 입력 화상을 취득하고, 전경과 배경의 분리 대상이 되는 프레임 #n을, 그 앞의 프레임 #n-1 및 그 후의 프레임 #n+1과 함께 기억한다.
단계 S602에 있어서, 분리부(601)의 분리 처리 블록(622)은 혼합비 산출부(103)로부터 공급된 영역 정보를 취득한다. 단계 S603에 있어서, 분리부(601)의 분리 처리 블록(622)은 혼합비 산출부(103)로부터 공급된 혼합비 α를 취득한다.
단계 S604에 있어서, 언커버드 영역 처리부(631)는 영역 정보 및 혼합비 α에 기초하여, 프레임 메모리(621)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소의 화소값으로부터, 배경 성분을 추출한다.
단계 S605에 있어서, 언커버드 영역 처리부(631)는 영역 정보 및 혼합비 α에 기초하여, 프레임 메모리(621)로부터 공급된, 언커버드 백그라운드 영역에 속하는 화소의 화소값으로부터, 전경 성분을 추출한다.
단계 S606에 있어서, 커버드 영역 처리부(632)는, 영역 정보 및 혼합비 α에 기초하여, 프레임 메모리(621)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소의 화소값으로부터, 배경 성분을 추출한다.
단계 S607에 있어서, 커버드 영역 처리부(632)는 영역 정보 및 혼합비 α에 기초하여, 프레임 메모리(621)로부터 공급된, 커버드 백그라운드 영역에 속하는 화소의 화소값으로부터, 전경 성분을 추출한다.
단계 S608에 있어서, 합성부(633)는 단계 S605의 처리에서 추출된 언커버드 백그라운드 영역에 속하는 화소의 전경 성분과, 단계 S607의 처리에서 추출된 커버드 백그라운드 영역에 속하는 화소의 전경 성분을 합성한다. 합성된 전경 성분은 합성부(603)에 공급된다. 또한, 합성부(603)는 스위치(602)를 통해 공급된 전경 영역에 속하는 화소와 분리부(601)로부터 공급된 전경 성분을 합성하여, 전경 성분 화상을 생성한다.
단계 S609에 있어서, 합성부(634)는 단계 S604의 처리에서 추출된 언커버드 백그라운드 영역에 속하는 화소의 배경 성분과, 단계 S606의 처리에서 추출된 커버드 백그라운드 영역에 속하는 화소의 배경 성분을 합성한다. 합성된 배경 성분은 합성부(605)에 공급된다. 또한, 합성부(605)는 스위치(604)를 통해 공급된 배경 영역에 속하는 화소와 분리부(601)로부터 공급된 배경 성분을 합성하여, 배경 성분 화상을 생성한다.
단계 S610에 있어서, 합성부(603)는 전경 성분 화상을 출력한다. 단계 S611에서, 합성부(605)는 배경 성분 화상을 출력하고, 처리는 종료한다.
이와 같이, 전경 배경 분리부(105)는 영역 정보 및 혼합비 α에 기초하여, 입력 화상으로부터 전경 성분과 배경 성분을 분리하여, 전경 성분 만으로 이루어지는 전경 성분 화상, 및 배경 성분 만으로 이루어지는 배경 성분 화상을 출력할 수 있다.
다음에, 전경 성분 화상으로부터의 움직임 불선명량의 조정에 대하여 설명한다.
도 58은 움직임 불선명 조정부(106)의 구성의 일례를 도시하는 블록도이다. 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보는, 처리 단위 결정부(801), 모델화부(802), 및 연산부(805)에 공급된다. 영역 특정부(104)로부터 공급된 영역 정보는, 처리 단위 결정부(801)에 공급된다. 전경 배경 분리부(105)로 부터 공급된 전경 성분 화상은, 가산부(804)에 공급된다.
처리 단위 결정부(801)은, 움직임 벡터와 그 위치 정보, 및 영역 정보를 기초로, 처리 단위를 생성하고, 생성한 처리 단위를 모델화부(802) 및 가산부(804)에 공급한다.
처리 단위 결정부(801)가 생성하는 처리 단위는, 도 59에 A로 예를 나타낸 것처럼, 전경 성분 화상의 커버드 백그라운드 영역에 대응하는 화소로부터 시작하여, 언커버드 백그라운드 영역에 대응하는 화소까지의 움직임 방향에 나란히 연속하는 화소, 또는 언커버드 백그라운드 영역에 대응하는 화소로부터 시작하여, 커버드 백그라운드 영역에 대응하는 화소까지의 움직임 방향에 나란히 연속하는 화소를 도시한다. 처리 단위는, 예를 들면, 좌측위점(처리 단위로 지정되는 화소이고, 화상 상에서 가장 좌측 또는 가장 위에 위치하는 화소의 위치) 및 우측아래점의 2개의 데이터로 이루어진다.
모델화부(802)는, 움직임 벡터 및 입력된 처리 단위를 기초로, 모델화를 실행한다. 보다 구체적으로는, 예를 들면, 모델화부(802)는, 처리 단위에 포함되는 화소의 수, 화소값의 시간 방향의 가상 분할수, 및 화소 마다의 전경의 성분의 수에 대응하는 복수의 모델을 미리 기억해 놓고, 처리 단위, 및 화소값의 시간 방향의 가상 분할수를 기초로, 도 60에 도시한 바와 같은, 화소값과 전경의 성분과의 대응을 지정하는 모델을 선택한다.
예를 들면, 처리 단위에 대응하는 화소의 수가 12이고 셔터 시간 내의 움직임량 v가 5일 때에는, 모델화부(802)는, 가상 분할수를 5로 하고, 가장 좌측에 위 치하는 화소가 1개의 전경 성분을 포함하고, 좌측에서 2번째 화소가 2개의 전경 성분을 포함하고, 좌측에서 3번째 화소가 3개의 전경 성분을 포함하고, 좌측에서 4번째 화소가 4개의 전경 성분을 포함하고, 좌측에서 5번째 화소가 5개의 전경 성분을 포함하고, 좌측에서 6번째 화소가 5개의 전경 성분을 포함하고, 좌측에서 7번째 화소가 5개의 전경 성분을 포함하고, 좌측에서 8번째 화소가 5개의 전경 성분을 포함하고, 좌측에서 9번째 화소가 4개의 전경 성분을 포함하고, 좌측에서 10번째 화소가 3개의 전경 성분을 포함하고, 좌측에서 11번째 화소가 2개의 전경 성분을 포함하고, 좌측에서 12번째 화소가 1개의 전경 성분을 포함하여, 전체적으로 8개의 전경 성분으로 이루어지는 모델을 선택한다.
또, 모델화부(802)는, 사전에 기억하고 있는 모델로부터 선택하는 것이 아니라, 움직임 벡터, 및 처리 단위가 공급되었을 때, 움직임 벡터, 및 처리 단위를 기초로 모델을 생성하도록 해도 된다.
모델화부(802)는 선택한 모델을 방정식 생성부(803)에 공급한다.
방정식 생성부(803)는 모델화부(802)로부터 공급된 모델을 기초로 방정식을 생성한다. 도 60에 나타내는 전경 성분 화상의 모델을 참조하여, 전경 성분의 수가 8이고, 처리 단위에 대응하는 화소의 수가 12이고, 움직임량 v가 5이고, 가상 분할수가 5일 때의, 방정식 생성부(803)가 생성하는 방정식에 대하여 설명한다.
전경 성분 화상에 포함되는 셔터 시간 /v에 대응하는 전경 성분이 F01/v 내지 F08/v일 때, F01/v 내지 F08/v와 화소값 C01 내지 C12의 관계는, 수학식 74 내지 수학식 85로 나타내진다.
Figure 112003006664212-pct00076
Figure 112003006664212-pct00077
Figure 112003006664212-pct00078
Figure 112003006664212-pct00079
Figure 112003006664212-pct00080
Figure 112003006664212-pct00081
Figure 112003006664212-pct00082
Figure 112003006664212-pct00083
Figure 112003006664212-pct00084
Figure 112003006664212-pct00085
Figure 112003006664212-pct00086
Figure 112003006664212-pct00087
방정식 생성부(803)는 생성한 방정식을 변형하여 방정식을 생성한다. 방정식 생성부(803)가 생성하는 방정식을 수학식 86 내지 수학식 97에 나타낸다.
Figure 112003006664212-pct00088
Figure 112003006664212-pct00089
Figure 112003006664212-pct00090
Figure 112003006664212-pct00091
Figure 112003006664212-pct00092
Figure 112003006664212-pct00093
Figure 112003006664212-pct00094
Figure 112003006664212-pct00095
Figure 112003006664212-pct00096
Figure 112003006664212-pct00097
Figure 112003006664212-pct00098
Figure 112003006664212-pct00099
수학식 86 내지 수학식 97은 수학식 98로서 나타낼 수도 있다.
Figure 112003006664212-pct00100
수학식 98에 있어서, j는 화소의 위치를 나타낸다. 이 예에 있어서, j는 1 내지 12 중 어느 하나의 값을 갖는다. 또한, i는 전경값의 위치를 나타낸다. 이 예에 있어서, i는 1 내지 8 중 어느 하나의 값을 갖는다. aij는 i 및 j의 값에 대응하여 0 또는 1의 값을 갖는다.
오차를 고려하여 표현하면, 수학식 98는 수학식 99와 같이 나타낼 수 있다.
Figure 112003006664212-pct00101
수학식 99에 있어서, ej는 주목 화소 Cj에 포함되는 오차이다.
수학식 99는 수학식 100에 재기입할 수 있다.
Figure 112003006664212-pct00102
여기서, 최소 제곱법을 적용하기 위해서, 오차의 제곱합 E를 수학식 101에 나타낸 바와 같이 정의한다.
Figure 112003006664212-pct00103
오차가 최소로 되기 위해서는, 오차의 제곱합 E에 대한, 변수 Fk에 의한 편미분의 값이 0이 되면 된다. 수학식 102을 만족하도록 Fk을 구한다.
Figure 112003006664212-pct00104
수학식 102에 있어서, 움직임량 v는 고정값이기 때문에 수학식 103를 유도할 수 있다.
Figure 112003006664212-pct00105
수학식 103를 전개하여 이항하면 수학식 104을 얻는다.
Figure 112003006664212-pct00106
수학식 104의 k에 1 내지 8의 정수 중 어느 하나를 대입하여 얻어지는 8개의 식으로 전개한다. 얻어진 8개의 식을, 행렬에 의해 하나의 식에 의해 나타낼 수 있다. 이 식을 정규 방정식이라고 부른다.
이러한 최소 제곱법에 기초하는, 방정식 생성부(803)가 생성하는 정규 방정식의 예를 수학식 105에 나타낸다.
Figure 112003006664212-pct00107
수학식 105을 A·F=v·C로 나타내면, C, A, v가 기지이고, F는 미지이다. 또한, A, v는 모델화의 시점에서 기지이지만, C는 가산 동작에 있어서 화소값을 입력함으로써 기지가 된다.
최소 제곱법에 기초하는 정규 방정식에 의해 전경 성분을 산출함으로써, 화소값 C에 포함되어 있는 오차를 분산시킬 수 있다.
방정식 생성부(803)는 이와 같이 생성된 정규 방정식을 가산부(804)에 공급한다.
가산부(804)는 처리 단위 결정부(801)로부터 공급된 처리 단위에 기초하여, 전경 성분 화상에 포함되는 화소값 C를, 방정식 생성부(803)로부터 공급된 행렬식에 설정한다. 가산부(804)는 화소값 C를 설정한 행렬을 연산부(805)에 공급한다.
연산부(805)는 소인법(Gauss-Jordan의 소거법) 등의 해법에 기초하는 처리에 의해, 움직임 불선명이 제거된 전경 성분 Fi/v를 산출하여, 움직임 불선명이 제거된 전경의 화소값인, 0 내지 8의 정수 중 어느 하나의 i에 대응하는 Fi를 산출하고, 도 61에 예를 나타내는, 움직임 불선명이 제거된 화소값인 Fi로 이루어지는, 움직임 불선명이 제거된 전경 성분 화상을 움직임 불선명 부가부(806) 및 선택부(807)에 출력한다.
또, 도 61에 나타내는 움직임 불선명이 제거된 전경 성분 화상에 있어서, C03 내지 C10의 각각에 F01 내지 F08의 각각이 설정되어 있는 것은, 화면에 대한 전경 성분 화상의 위치를 변화시키지 않기 위한 것이며, 임의의 위치에 대응시킬 수 있다.
움직임 불선명 부가부(806)는, 움직임량 v와는 다른 값의 움직임 불선명 조정량 v', 예를 들면, 움직임량 v의 반값의 움직임 불선명 조정량 v'이나, 움직임량 v와 무관계한 값의 움직임 불선명 조정량 v'를 제공함으로써, 움직임 불선명량을 조정할 수 있다. 예를 들면, 도 62에 도시한 바와 같이, 움직임 불선명 부가부(806)는 움직임 불선명이 제거된 전경의 화소값 Fi를 움직임 불선명 조정량 v'에 의해 제거함으로써, 전경 성분 Fi/v'를 산출하고, 전경 성분 Fi/v'의 합을 산출하여, 움직임 불선명량이 조정된 화소값을 생성한다. 예를 들면, 움직임 불선명 조정량 v'이 3일 때, 화소값 C02는 (F01)/v'가 되고, 화소값 C03은 (F01+F02)/v'가 되고, 화소값 C04는 (F01+F02+F03)/v'가 되고, 화소값 C05는 (F02+F03+F04)/v'가 된다.
움직임 불선명 부가부(806)는 움직임 불선명량을 조정한 전경 성분 화상을 선택부(807)에 공급한다.
선택부(807)는, 예를 들면 사용자의 선택에 대응한 선택 신호에 기초하여, 연산부(805)로부터 공급된 움직임 불선명이 제거된 전경 성분 화상, 및 움직임 불선명 부가부(806)로부터 공급된 움직임 불선명량이 조정된 전경 성분 화상 중 어느 한쪽을 선택하여, 선택한 전경 성분 화상을 출력한다.
이와 같이, 움직임 불선명 조정부(106)는 선택 신호 및 움직임 불선명 조정량 v'를 기초로 움직임 불선명량을 조정할 수 있다.
또한, 예를 들면, 도 63에 도시한 바와 같이, 처리 단위에 대응하는 화소의 수가 8이고, 움직임량 v가 4일 때, 움직임 불선명 조정부(106)는, 수학식 106에 나 타내는 행렬의 식을 생성한다.
Figure 112003006664212-pct00108
움직임 불선명 조정부(106)는, 이와 같이 처리 단위의 길이에 대응한 수의 식을 세워, 움직임 불선명량이 조정된 화소값인 Fi를 산출한다. 마찬가지로, 예를 들면, 처리 단위에 포함되는 화소의 수가 100일 때, 100개의 화소에 대응하는 식을 생성하여 Fi를 산출한다.
도 64은 움직임 불선명 조정부(106)의 다른 구성 일례를 도시하는 도면이다. 도 58에 나타내는 경우와 마찬가지의 부분에는 동일한 번호를 붙이고, 그 설명은 생략한다.
선택부(821)는 선택 신호에 기초하여, 입력된 움직임 벡터와 그 위치 신호를 그대로 처리 단위 결정부(801) 및 모델화부(802)에 공급하거나, 또는 움직임 벡터의 크기를 움직임 불선명 조정량 v'로 치환하여, 그 크기가 움직임 불선명 조정량 v'로 치환된 움직임 벡터와 그 위치 신호를 처리 단위 결정부(801) 및 모델화부(802)에 공급한다.
이와 같이 함으로써, 도 64의 움직임 불선명 조정부(106)의 처리 단위 결정 부(801) 내지 연산부(805)는, 움직임량 v와 움직임 불선명 조정량 v'의 값에 대응하여 움직임 불선명량을 조정할 수 있다. 예를 들면, 움직임량 v가 5이고, 움직임 불선명 조정량 v'이 3일 때, 도 64의 움직임 불선명 조정부(106)의 처리 단위 결정부(801) 내지 연산부(805)는, 도 60에 나타내는 움직임량 v가 5인 전경 성분 화상에 대하여, 3인 움직임 불선명 조정량 v' 대응하는 도 62에 도시한 바와 같은 모델에 따라서, 연산을 실행하고, (움직임량 v)/(움직임 불선명 조정량 v')=5/3, 즉 거의 1.7의 움직임량 v에 따른 움직임 불선명을 포함하는 화상을 산출한다. 또, 이 경우, 산출되는 화상은 3인 움직임량 v에 대응한 움직임 불선명을 포함하는 것이 아니기 때문에, 움직임 불선명 부가부(806)의 결과와는 움직임량 v와 움직임 불선명 조정량 v'의 관계의 의미가 서로 다르다는 점에 주의할 필요가 있다.
이상과 같이, 움직임 불선명 조정부(106)는, 움직임량 v 및 처리 단위에 대응하여 식을 생성하고, 생성한 식에 전경 성분 화상의 화소값을 설정하여, 움직임 불선명량이 조정된 전경 성분 화상을 산출한다.
다음에, 도 65의 흐름도를 참조하여, 움직임 불선명 조정부(106)에 의한 전경 성분 화상에 포함되는 움직임 불선명량의 조정 처리를 설명한다.
단계 S801에 있어서, 움직임 불선명 조정부(106)의 처리 단위 결정부(801)는, 움직임 벡터 및 영역 정보에 기초하여 처리 단위를 생성하고, 생성한 처리 단위를 모델화부(802)에 공급한다.
단계 S802에 있어서, 움직임 불선명 조정부(106)의 모델화부(802)는, 움직임량 v 및 처리 단위에 대응하여 모델의 선택이나 생성을 행한다. 단계 S803에 있어 서, 방정식 생성부(803)는 선택된 모델을 기초로 정규 방정식을 작성한다.
단계 S804에 있어서, 가산부(804)는 작성된 정규 방정식에 전경 성분 화상의 화소값을 설정한다. 단계 S805에 있어서, 가산부(804)는, 처리 단위에 대응하는 모든 화소의 화소값을 설정하였는지 여부를 판정하여, 처리 단위에 대응하는 모든 화소의 화소값을 설정하지 않았다고 판정된 경우, 단계 S804로 되돌아가, 정규 방정식에의 화소값의 설정 처리를 반복한다.
단계 S805에 있어서, 처리 단위의 모든 화소의 화소값을 설정하였다고 판정된 경우, 단계 S806으로 진행하여, 연산부(805)는, 가산부(804)로부터 공급된 화소값이 설정된 정규 방정식을 기초로, 움직임 불선명량을 조정한 전경의 화소값을 산출하고, 처리는 종료한다.
이와 같이, 움직임 불선명 조정부(106)는 움직임 벡터 및 영역 정보에 기초하여, 움직임 불선명을 포함하는 전경 화상으로부터 움직임 불선명량을 조정할 수 있다.
즉, 샘플 데이터인 화소값에 포함되는 움직임 불선명량을 조정할 수 있다.
도 66는 움직임 불선명 조정부(106)의 구성의 다른 일례를 도시하는 블록도이다. 움직임 검출부(102)로부터 공급된 움직임 벡터와 그 위치 정보는 처리 단위 결정부(901) 및 보정부(905)에 공급되고, 혼합비 산출부(103)로부터 공급된 영역 정보는 처리 단위 결정부(901)에 공급된다. 전경 배경 분리부(105)로부터 공급된 전경 성분 화상은 연산부(904)에 공급된다.
처리 단위 결정부(901)는 처리 단위 결정부(901)는, 움직임 벡터와 그 위치 정보, 및 영역 정보를 기초로, 처리 단위를 생성하여, 움직임 벡터와 같이, 생성한 처리 단위를 모델화부(902)에 공급한다.
모델화부(902)는, 움직임 벡터 및 입력된 처리 단위를 기초로, 모델화를 실행한다. 보다 구체적으로는, 예를 들면, 모델화부(902)는, 처리 단위에 포함되는 화소의 수, 화소값의 시간 방향의 가상 분할수, 및 화소마다의 전경의 성분의 수에 대응하는 복수의 모델을 미리 기억해 놓고, 처리 단위, 및 화소값의 시간 방향의 가상 분할수를 기초로, 도 67에 도시한 바와 같은, 화소값과 전경의 성분과의 대응을 지정하는 모델을 선택한다.
예를 들면, 처리 단위에 대응하는 화소의 수가 12이고 움직임량 v가 5일 때 에 있어서는, 모델화부(902)는, 가상 분할수를 5로 하여, 가장 좌측으로 위치하는 화소가 1개의 전경의 성분을 포함하여, 좌측으로부터 2번째의 화소가 2개의 전경의 성분을 포함하며, 좌측으로부터 3번째의 화소가 3개의 전경의 성분을 포함하며, 좌측으로부터 4번째의 화소가 4개의 전경의 성분을 포함하며, 좌측으로부터 5번째의 화소가 5개의 전경의 성분을 포함하며, 좌측으로부터 6번째의 화소가 5개의 전경의 성분을 포함하고, 좌측으로부터 7번째의 화소가 5개의 전경의 성분을 포함하며, 좌측으로부터 8번째의 화소가 5개의 전경의 성분을 포함하며, 좌측으로부터 9번째의 화소가 4개의 전경의 성분을 포함하며, 좌측으로부터 10번째의 화소가 3개의 전경의 성분을 포함하며, 좌측으로부터 11번째의 화소가 2개의 전경의 성분을 포함하며, 좌측으로부터 12번째의 화소가 1개의 전경의 성분을 포함하여, 전체로서 8개의 전경의 성분으로 이루어지는 모델을 선택한다.
또, 모델화부(902)는, 미리 기억하여 있는 모델로부터 선택하는 것은 아니고, 움직임 벡터, 및 처리 단위가 공급된 때에, 움직임 벡터, 및 처리 단위를 기초로, 모델을 생성하도록 하여도 된다.
방정식 생성부(903)는 모델화부(902)로부터 공급된 모델을 기초로 방정식을 생성한다.
도 67 내지 도 69에 나타내는 전경 성분 화상의 모델을 참조하여, 전경 성분의 수가 8이고, 처리 단위에 대응하는 화소의 수가 12이고, 움직임량 v가 5일 때의, 방정식 생성부(903)가 생성하는 방정식의 예에 대하여 설명한다.
전경 성분 화상에 포함되는 셔터 시간 /v에 대응하는 전경 성분이 F01/v 내지 F08/v일 때, F01/v 내지 F08/v와 화소값 C01 내지 C12의 관계는, 상술한 바와 같이 수학식 74 내지 수학식 85로 나타내진다.
화소값 C12 및 C11에 주목하면, 화소값 C12는 수학식 107에 도시한 바와 같이, 전경 성분 F08/v만을 포함하고, 화소값 C11은 전경 성분 F08/v 및 전경 성분 F07/v의 곱의 합으로 이루어진다. 따라서, 전경 성분 F07/v는 수학식 108에 의해 구할 수 있다.
Figure 112003006664212-pct00109
Figure 112003006664212-pct00110
마찬가지로, 화소값 C10 내지 C01에 포함되는 전경 성분을 고려하면, 전경 성분 F06/v 내지 F01/v는 수학식 109 내지 수학식 114에 의해 구할 수 있다.
Figure 112003006664212-pct00111
Figure 112003006664212-pct00112
Figure 112003006664212-pct00113
Figure 112003006664212-pct00114
Figure 112003006664212-pct00115
Figure 112003006664212-pct00116
방정식 생성부(903)는 수학식 107 내지 수학식 114에 예를 나타내는, 화소값의 차에 의해 전경 성분을 산출하기 위한 방정식을 생성한다. 방정식 생성부(903)는 생성한 방정식을 연산부(904)에 공급한다.
연산부(904)는 방정식 생성부(903)로부터 공급된 방정식에 전경 성분 화상의 화소값을 설정하고, 화소값을 설정한 방정식을 기초로 전경 성분을 산출한다. 연 산부(904)는 예를 들면, 수학식 107 내지 수학식 114이 방정식 생성부(903)로부터 공급되었을 때, 수학식 107 내지 수학식 113에 화소값 C05 내지 C12를 설정한다.
연산부(904)는 화소값이 설정된 식에 기초하여 전경 성분을 산출한다. 예를 들면, 연산부(904)는 화소값 C05 내지 C12가 설정된 수학식 107 내지 수학식 114에 기초하는 연산에 의해, 도 68에 도시한 바와 같이, 전경 성분 F01/v 내지 F08/v를 산출한다. 연산부(904)는 전경 성분 F01/v 내지 F08/v를 보정부(905)에 공급한다.
보정부(905)는 연산부(904)로부터 공급된 전경 성분에, 처리 단위 결정부(901)로부터 공급된 움직임 벡터에 포함되는 움직임량 v를 곱하고, 움직임 불선명을 제거한 전경의 화소값을 산출한다. 예를 들면, 보정부(905)는 연산부(904)로부터 공급된 전경 성분 F01/v 내지 F08/v가 공급되었을 때, 전경 성분 F01/v 내지 F08/v의 각각에, 5인 움직임량 v를 곱함으로써, 도 69에 도시한 바와 같이, 움직임 불선명을 제거한 전경의 화소값 F01 내지 F08을 산출한다.
보정부(905)는 이상과 같이 산출된, 움직임 불선명을 제거한 전경의 화소값으로 이루어지는 전경 성분 화상을 움직임 불선명 부가부(906) 및 선택부(907)에 공급한다.
움직임 불선명 부가부(906)는 움직임량 v와는 다른 값의 움직임 불선명 조정량 v', 예를 들면, 움직임량 v의 반값의 움직임 불선명 조정량 v', 움직임량 v와 무관계한 값의 움직임 불선명 조정량 v'로, 움직임 불선명량을 조정할 수 있다. 예를 들면, 도 62에 도시한 바와 같이, 움직임 불선명 부가부(906)는 움직임 불선명이 제거된 전경의 화소값 Fi를 움직임 불선명 조정량 v'에 의해 제거함으로써, 전경 성분 Fi/v'를 산출하고, 전경 성분 Fi/v'의 합을 산출하여, 움직임 불선명량이 조정된 화소값을 생성한다. 예를 들면, 움직임 불선명 조정량 v'가 3일 때, 화소값 C02는 (F01)/v'가 되고, 화소값 C03은 (F01+F02)/v'가 되고, 화소값 C04는 (F01+F02+F03)/v'가 되고, 화소값 C05는 (F02+F03+F04)/v'가 된다.
움직임 불선명 부가부(906)는 움직임 불선명량을 조정한 전경 성분 화상을 선택부(907)에 공급한다.
선택부(907)는 예를 들면 사용자의 선택에 대응한 선택 신호에 기초하여, 보정부(905)로부터 공급된 움직임 불선명이 제거된 전경 성분 화상, 및 움직임 불선명 부가부(906)로부터 공급된 움직임 불선명량이 조정된 전경 성분 화상 중 어느 한쪽을 선택하여, 선택한 전경 성분 화상을 출력한다.
이와 같이, 움직임 불선명 조정부(106)는 선택 신호 및 움직임 불선명 조정량 v'에 기초하여 움직임 불선명량을 조정할 수 있다.
다음에, 도 66에 구성을 나타내는 움직임 불선명 조정부(106)에 의한 전경의 움직임 불선명량의 조정 처리를 도 70의 흐름도를 참조하여 설명한다.
단계 S901에 있어서, 움직임 불선명 조정부(106)의 처리 단위 결정부(901)는, 움직임 벡터 및 영역 정보에 기초하여 처리 단위를 생성하고, 생성한 처리 단위를 모델화부(902) 및 보정부(905)에 공급한다.
단계 S902에 있어서, 움직임 불선명 조정부(106)의 모델화부(902)는, 움직임량 v 및 처리 단위에 대응하여 모델의 선택이나 생성을 행한다. 단계 S903에 있어서, 방정식 생성부(903)는 선택 또는 생성된 모델에 기초하여, 전경 성분 화상의 화소값의 차에 의해 전경 성분을 산출하기 위한 방정식을 생성한다.
단계 S904에 있어서, 연산부(904)는 작성된 방정식에 전경 성분 화상의 화소값을 설정하고, 화소값이 설정된 방정식을 기초로, 화소값의 차분으로부터 전경 성분을 추출한다. 단계 S905에 있어서, 연산부(904)는 처리 단위에 대응하는 모든 전경 성분을 추출하였는지 여부를 판정하여, 처리 단위에 대응하는 모든 전경 성분을 추출하지 않았다고 판정된 경우, 단계 S904로 되돌아가, 전경 성분을 추출하는 처리를 반복한다.
단계 S905에 있어서, 처리 단위에 대응하는 모든 전경 성분을 추출하였다고 판정된 경우, 단계 S906으로 진행하고, 보정부(905)는 움직임량 v에 기초하여, 연산부(904)로부터 공급된 전경 성분 F01/v 내지 F08/v의 각각을 보정하여, 움직임 불선명을 제거한 전경의 화소값 F01 내지 F08을 산출한다.
단계 S907에 있어서, 움직임 불선명 부가부(906)는 움직임 불선명량을 조정한 전경의 화소값을 산출하고, 선택부(907)는 움직임 불선명이 제거된 화상 또는 움직임 불선명량이 조정된 화상 중 어느 하나를 선택하여 선택한 화상을 출력하고, 처리는 종료한다.
이와 같이, 도 66에 구성을 나타내는 움직임 불선명 조정부(106)는, 보다 간단한 연산으로, 보다 신속하게, 움직임 불선명을 포함하는 전경 화상으로부터 움직임 불선명을 조정할 수 있다.
위너 필터 등 종래의 움직임 불선명을 부분적으로 제거하는 방법이, 이상 상태에서는 효과가 인정되지만, 양자화되고, 노이즈를 포함한 실제 화상에 대하여 충 분한 효과가 얻어지지 않는 데 대하여, 도 66에 구성을 나타내는 움직임 불선명 조정부(106)에서도, 양자화되고, 노이즈를 포함한 실제 화상에 대하여도 충분한 효과가 인정되어, 좋은 정밀도의 움직임 불선명 제거가 가능해진다.
이상과 같이, 도 2에 구성을 도시하는 화상 처리 장치는, 입력 화상에 포함되는 움직임 불선명의 양을 조정할 수 있다.
또, 혼합비 α는 화소값에 포함되는 배경 성분의 비율로 하여 설명하였지만, 화소값에 포함되는 전경 성분의 비율로 하여도 된다.
또한, 전경이 되는 오브젝트의 움직임의 방향은 좌측에서 우측으로 하여 설명하였지만, 그 방향에 한정되지 않음은 물론이다.
이상에서는, 3차원 공간과 시간 축 정보를 갖는 현실 공간의 화상을 비디오 카메라를 이용하여 2차원 공간과 시간 축 정보를 갖는 시공간에의 사영을 행한 경우를 예로 하였지만, 본 발명은 이 예에 한하지 않고, 보다 많은 제1 차원의 제1 정보를, 보다 적은 제2 차원의 제2 정보에 사영한 경우에, 그 사영에 의해서 발생하는 왜곡을 보정하거나, 유의 정보를 추출하거나, 또는 보다 자연스럽게 화상을 합성하는 경우에 적응하는 것이 가능하다.
또, 센서는, CCD에 한하지 않고, 고체 촬상 소자로서, 예를 들면, BBD(Bucket Brigade Device), CID(Charge Injection Device), CPD(Charge Priming Device), 또는 CMOS(Complementary Mental Oxide Semiconductor) 센서라도 되고, 또한, 검출 소자가 매트릭스 형상으로 배치되어 있는 센서에 한하지 않고, 검출 소자가 1열로 배열되어 있는 센서라도 된다.
본 발명의 신호 처리를 행하는 프로그램을 기록한 기록 매체는, 도 1에 도시한 바와 같이, 컴퓨터와는 별도로, 사용자에게 프로그램을 제공하기 위해서 배포되는, 프로그램이 기록되어 있는 자기 디스크(51)(플로피(등록 상표) 디스크를 포함함), 광 디스크(52)(CD-ROM(Compact Disc-Read Only Memory), DVD(Digital Versatile Disc)를 포함함), 광 자기 디스크(53)(MD(Mini-Disc)(상표)를 포함함), 혹은 반도체 메모리(54) 등으로 이루어지는 패키지 미디어로 구성되는 것뿐만 아니라, 컴퓨터에 미리 조립된 상태에서 사용자에게 제공되는, 프로그램이 기록되어 있는 ROM(22)이나, 기억부(28)에 포함되는 하드디스크 등으로 구성된다.
또, 본 명세서에 있어서, 기록 매체에 기록되는 프로그램을 기술하는 단계는, 기재된 순서에 따라서 시계열적으로 행해지는 처리는 물론, 반드시 시계열적으로 처리되지 않더라도, 병렬적 혹은 개별로 실행되는 처리도 포함하는 것이다.
본 발명에 따르면, 배경 화상의 영역, 이동하는 물체의 화상의 영역, 및 혼합이 발생하는 화상의 영역을 특정하는 것이 가능하다.

Claims (55)

  1. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 취득된 소정 수의 화소 데이터로 이루어지는 화상 데이터를 처리하는 화상 처리 장치에 있어서,
    상기 화상 데이터의 주목 프레임의 주목 화소에 대응하는, 상기 주목 프레임 주변의 주변 프레임의 상기 화소 데이터를, 상기 화상 데이터의 복수의 오브젝트 중 배경이 되는 배경 오브젝트에 상당하는 배경 화소 데이터로서 추출함과 함께, 상기 주목 프레임에 존재하는 상기 주목 화소의 주목 화소 데이터를 추출하여, 상기 주목 화소에 대하여, 상기 주목 화소 및 상기 배경 화소의 혼합비와 관련된 기울기 및/또는 절편을 변수로서 포함하여 상기 주목 화소 데이터 및 상기 배경 화소 데이터의 관계를 나타내는, 복수의 관계식을 생성하는 관계식 생성 수단과,
    상기 관계식에 기초하여, 상기 주목 화소에 대응하여, 현실 세계에서 복수인 상기 오브젝트의 혼합 상태를 나타내는 혼합비를 검출하는 혼합비 검출 수단과,
    상기 혼합비 검출 수단에 의해 검출된 상기 혼합비를 상기 관계식에 대입함으로써 예측 오차를 연산하는 예측 오차 연산 수단과,
    상기 예측 오차를 기초로, 상기 주목 화소가 속하는 영역이, 상기 복수의 오브젝트가 혼합되어 이루어지는 혼합 영역으로서, 상기 복수의 오브젝트 중 전경이 되는 전경 오브젝트의 움직임 방향의 선단측에 형성되는 커버드 백그라운드 영역인지, 또는, 상기 혼합 영역으로서, 상기 전경 오브젝트의 움직임 방향의 후단측에 형성되는 언커버드 백그라운드 영역인지를 특정하는 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 수단과,
    상기 주목 화소가 속하는 영역이, 상기 전경 오브젝트를 구성하는 전경 오브젝트 성분 만으로 이루어지는 전경 영역인지, 또는, 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분 만으로 이루어지는 배경 영역인지를 특정하는 전경 영역-배경 영역 특정 수단
    을 포함하는 것을 특징으로 하는 화상 처리 장치.
  2. 제1항에 있어서,
    상기 혼합비 검출 수단은, 상기 관계식에 기초하여, 상기 주목 화소에 대응하여, 상기 주목 화소에 포함되는 상기 전경 오브젝트 성분을 검출함과 함께, 상기 혼합비를 검출하고,
    상기 예측 오차 연산 수단은, 상기 혼합비 검출 수단에 의해 검출된 상기 혼합비 및 상기 주목 화소에 포함되는 상기 전경 오브젝트 성분을 상기 관계식에 대입함으로써 상기 예측 오차를 연산하는 것을 특징으로 하는 화상 처리 장치.
  3. 제2항에 있어서,
    상기 관계식 생성 수단은, 상기 주목 화소에 대응하는, 상기 주변 프레임의 상기 화소 데이터를, 상기 배경 오브젝트에 상당하는 상기 배경 화소 데이터로서 추출함과 함께, 상기 주목 화소의 주목 화소 데이터, 및 상기 주목 프레임 내의 상기 주목 화소의 근방에 위치하는, 근방 화소의 근방 화소 데이터를 추출하여, 상기 주목 화소에 대하여, 상기 주목 화소 데이터 및 상기 근방 화소 데이터, 및 상기 주목 화소 데이터 또는 상기 근방 화소 데이터에 대응하는 상기 배경 화소 데이터의 관계를 나타내는, 상기 복수의 관계식을 생성하는 것을 특징으로 하는 화상 처리 장치.
  4. 제3항에 있어서,
    상기 관계식 생성 수단은, 상기 주목 화소 데이터 및 상기 근방 화소 데이터에 포함되는, 상기 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 상기 혼합 영역에서 상기 혼합비의 변화가 상기 혼합 영역의 화소의 위치에 대하여 직선적이다라고 하는 제2 근사에 기초하여, 상기 복수의 관계식을 생성하는 것을 특징으로 하는 화상 처리 장치.
  5. 제3항에 있어서,
    상기 관계식 생성 수단은, 상기 주목 화소 데이터 및 상기 근방 화소 데이터에 포함되는, 상기 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 상기 혼합 영역에서 상기 혼합비의 변화가 상기 혼합 영역의 화소의 위치에 대하여 평면적이다라고 하는 제2 근사에 기초하여, 상기 복수의 관계식을 생성하는 것을 특징으로 하는 화상 처리 장치.
  6. 제3항에 있어서,
    상기 혼합비 검출 수단은, 상기 복수의 관계식을 최소 제곱법으로 푸는 것에 의해, 상기 혼합비를 검출하는 것을 특징으로 하는 화상 처리 장치.
  7. 제3항에 있어서,
    상기 관계식 생성 수단은, 상기 주목 화소가 상기 커버드 백그라운드 영역에 속한다고 한 경우, 상기 주목 프레임의 이전 프레임의 상기 화소 데이터를 상기 배경 화소 데이터로서 추출하고, 상기 주목 화소가 상기 언커버드 백그라운드 영역에 속한다고 한 경우, 상기 주목 프레임의 다음 프레임의 상기 화소 데이터를, 상기 배경 화소 데이터로서 추출하여, 상기 복수의 관계식을 생성하는 것을 특징으로 하는 화상 처리 장치.
  8. 제2항에 있어서,
    상기 관계식 생성 수단은, 상기 주목 화소에 대응하여, 상기 전경 오브젝트의 움직임을 기초로, 상기 주목 프레임 및 상기 주변 프레임으로부터, 상기 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 상기 혼합 화소 데이터에의 개개에 대응하여, 상기 배경 오브젝트의 움직임을 기초로, 상기 혼합 화소 데이터가 추출된 프레임과는 다른 프레임으로부터, 상기 배경 오브젝트에 상당하는 상기 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하는 것을 특징으로 하는 화상 처리 장치.
  9. 제8항에 있어서,
    상기 관계식 생성 수단은, 상기 혼합 화소 데이터에 대응하는 상기 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 상기 주목 프레임 및 상기 주변 프레임으로부터 추출된 상기 혼합 화소 데이터가 일정하다고 하는 제2 근사에 기초하여, 복수의 관계식을 생성하는 것을 특징으로 하는 화상 처리 장치.
  10. 제8항에 있어서,
    상기 관계식 생성 수단은, 상기 주목 화소에 대응하여, 상기 전경 오브젝트의 움직임을 기초로, 상기 주목 프레임 및 상기 주변 프레임으로부터, 상기 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 상기 혼합 화소 데이터의 개개에 대응하여, 상기 배경 오브젝트의 움직임을 기초로, 상기 혼합 화소 데이터가 추출된 프레임의 이전 프레임으로부터, 상기 배경 오브젝트에 상당하는 상기 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하고,
    상기 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 수단은, 상기 예측 오차가 소정의 임계값 이상인 영역을 언커버드 백그라운드 영역으로 특정하는 것을 특징으로 하는 화상 처리 장치.
  11. 제8항에 있어서,
    상기 관계식 생성 수단은, 상기 주목 화소에 대응하여, 상기 전경 오브젝트의 움직임을 기초로, 상기 주목 프레임 및 상기 주변 프레임으로부터, 상기 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 상기 혼합 화소 데이터의 개개에 대응하여, 상기 배경 오브젝트의 움직임을 기초로, 상기 혼합 화소 데이터가 추출된 프레임의 다음 프레임으로부터, 상기 배경 오브젝트에 상당하는 상기 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하고,
    상기 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 수단은, 상기 예측 오차가 소정의 임계값 이상인 영역을 커버드 백그라운드 영역으로 특정하는 것을 특징으로 하는 화상 처리 장치.
  12. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 취득된 소정 수의 화소 데이터로 이루어지는 화상 데이터를 처리하는 화상 처리 방법에 있어서,
    상기 화상 데이터의 주목 프레임의 주목 화소에 대응하는, 상기 주목 프레임 주변의 주변 프레임의 상기 화소 데이터를, 상기 화상 데이터의 복수의 오브젝트 중 배경이 되는 배경 오브젝트에 상당하는 배경 화소 데이터로서 추출함과 함께, 상기 주목 프레임에 존재하는 상기 주목 화소의 주목 화소 데이터를 추출하여, 상기 주목 화소에 대하여, 상기 주목 화소 및 상기 배경 화소의 혼합비와 관련된 기울기 및/또는 절편을 변수로서 포함하여 상기 주목 화소 데이터 및 상기 배경 화소 데이터의 관계를 나타내는, 복수의 관계식을 생성하는 관계식 생성 단계와,
    상기 관계식에 기초하여, 상기 주목 화소에 대응하여, 현실 세계에서 복수인 상기 오브젝트의 혼합 상태를 나타내는 혼합비를 검출하는 혼합비 검출 단계와,
    상기 혼합비 검출 단계의 처리에 의해 검출된 상기 혼합비를 상기 관계식에 대입함으로써 예측 오차를 연산하는 예측 오차 연산 단계와,
    상기 예측 오차를 기초로, 상기 주목 화소가 속하는 영역이, 상기 복수의 오브젝트가 혼합되어 이루어지는 혼합 영역으로서, 상기 복수의 오브젝트 중 전경이 되는 전경 오브젝트의 움직임 방향의 선단측에 형성되는 커버드 백그라운드 영역인지, 또는, 상기 혼합 영역으로서, 상기 전경 오브젝트의 움직임 방향의 후단측에 형성되는 언커버드 백그라운드 영역인지를 특정하는 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 단계와,
    상기 주목 화소가 속하는 영역이, 상기 전경 오브젝트를 구성하는 전경 오브젝트 성분 만으로 이루어지는 전경 영역인지, 또는, 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분 만으로 이루어지는 배경 영역인지를 특정하는 전경 영역-배경 영역 특정 단계
    를 포함하는 것을 특징으로 하는 화상 처리 방법.
  13. 제12항에 있어서,
    상기 혼합비 검출 단계에 있어서, 상기 관계식에 기초하여, 상기 주목 화소에 대응하여, 상기 주목 화소에 포함되는 상기 전경 오브젝트 성분이 검출됨과 함께, 상기 혼합비가 검출되고,
    상기 예측 오차 연산 단계에 있어서, 상기 혼합비 검출 단계의 처리에 의해 검출된 상기 혼합비 및 상기 주목 화소에 포함되는 상기 전경 오브젝트 성분을 상기 관계식에 대입함으로써 상기 예측 오차가 연산되는 것을 특징으로 하는 화상 처 리 방법.
  14. 제13항에 있어서,
    상기 관계식 생성 단계에 있어서, 상기 주목 화소에 대응하는, 상기 주변 프레임의 상기 화소 데이터가, 상기 배경 오브젝트에 상당하는 상기 배경 화소 데이터로서 추출됨과 함께, 상기 주목 화소의 주목 화소 데이터, 및 상기 주목 프레임 내의 상기 주목 화소의 근방에 위치하는, 근방 화소의 근방 화소 데이터가 추출되어, 상기 주목 화소에 대하여, 상기 주목 화소 데이터 및 상기 근방 화소 데이터, 및 상기 주목 화소 데이터 또는 상기 근방 화소 데이터에 대응하는 상기 배경 화소 데이터의 관계를 나타내는, 상기 복수의 관계식이 생성되는 것을 특징으로 하는 화상 처리 방법.
  15. 제14항에 있어서,
    상기 관계식 생성 단계에 있어서, 상기 주목 화소 데이터 및 상기 근방 화소 데이터에 포함되는, 상기 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 상기 혼합 영역에서 상기 혼합비의 변화가 상기 혼합 영역의 화소의 위치에 대하여 직선적이다라고 하는 제2 근사에 기초하여, 상기 복수의 관계식이 생성되는 것을 특징으로 하는 화상 처리 방법.
  16. 제14항에 있어서,
    상기 관계식 생성 단계에 있어서, 상기 주목 화소 데이터 및 상기 근방 화소 데이터에 포함되는, 상기 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 상기 혼합 영역에서 상기 혼합비의 변화가 상기 혼합 영역의 화소의 위치에 대하여 평면적이다라고 하는 제2 근사에 기초하여, 상기 복수의 관계식이 생성되는 것을 특징으로 하는 화상 처리 방법.
  17. 제14항에 있어서,
    상기 혼합비 검출 단계에 있어서, 상기 복수의 관계식을 최소 제곱법으로 푸는 것에 의해, 상기 혼합비가 검출되는 것을 특징으로 하는 화상 처리 방법.
  18. 제14항에 있어서,
    상기 관계식 생성 단계에 있어서, 상기 주목 화소가 상기 커버드 백그라운드 영역에 속한다고 한 경우, 상기 주목 프레임의 이전 프레임의 상기 화소 데이터가 상기 배경 화소 데이터로서 추출되고, 상기 주목 화소가 상기 언커버드 백그라운드 영역에 속한다고 한 경우, 상기 주목 프레임의 다음 프레임의 상기 화소 데이터가 상기 배경 화소 데이터로서 추출되어, 상기 복수의 관계식이 생성되는 것을 특징으로 하는 화상 처리 방법.
  19. 제13항에 있어서,
    상기 관계식 생성 단계에 있어서, 상기 주목 화소에 대응하여, 상기 전경 오 브젝트의 움직임을 기초로, 상기 주목 프레임 및 상기 주변 프레임으로부터, 상기 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터가 추출됨과 함께, 상기 혼합 화소 데이터에의 개개에 대응하여, 상기 배경 오브젝트의 움직임을 기초로, 상기 혼합 화소 데이터가 추출된 프레임과는 다른 프레임으로부터, 상기 배경 오브젝트에 상당하는 상기 배경 화소 데이터가 추출되어, 복수의 관계식이 생성되는 것을 특징으로 하는 화상 처리 방법.
  20. 제19항에 있어서,
    상기 관계식 생성 단계에 있어서, 상기 혼합 화소 데이터에 대응하는 상기 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 상기 주목 프레임 및 상기 주변 프레임으로부터 추출된 상기 혼합 화소 데이터가 일정하다고 하는 제2 근사에 기초하여, 복수의 관계식이 생성되는 것을 특징으로 하는 화상 처리 방법.
  21. 제19항에 있어서,
    상기 관계식 생성 단계에 있어서, 상기 주목 화소에 대응하여, 상기 전경 오브젝트의 움직임을 기초로, 상기 주목 프레임 및 상기 주변 프레임으로부터, 상기 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터가 추출됨과 함께, 상기 혼합 화소 데이터의 개개에 대응하여, 상기 배경 오브젝트의 움직임을 기초로, 상기 혼합 화소 데이터가 추출된 프레임의 이전 프레임으로부터, 상기 배경 오브젝트에 상당하는 상기 배경 화소 데이터가 추출되어, 복수의 관계식이 생성되고,
    상기 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 단계에 있어서, 상기 예측 오차가 소정의 임계값 이상인 영역이 언커버드 백그라운드 영역으로 특정되는 것을 특징으로 하는 화상 처리 방법.
  22. 제19항에 있어서,
    상기 관계식 생성 단계에 있어서, 상기 주목 화소에 대응하여, 상기 전경 오브젝트의 움직임을 기초로, 상기 주목 프레임 및 상기 주변 프레임으로부터, 상기 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터가 추출됨과 함께, 상기 혼합 화소 데이터의 개개에 대응하여, 상기 배경 오브젝트의 움직임을 기초로, 상기 혼합 화소 데이터가 추출된 프레임의 다음 프레임으로부터, 상기 배경 오브젝트에 상당하는 상기 배경 화소 데이터가 추출되어, 복수의 관계식이 생성되고,
    상기 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 단계에 있어서, 상기 예측 오차가 소정의 임계값 이상인 영역이 커버드 백그라운드 영역으로 특정되는 것을 특징으로 하는 화상 처리 방법.
  23. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 취득된 소정 수의 화소 데이터로 이루어지는 화상 데이터를 처리하는 화상 처리용의 프로그램으로서,
    상기 화상 데이터의 주목 프레임의 주목 화소에 대응하는, 상기 주목 프레임 주변의 주변 프레임의 상기 화소 데이터를, 상기 화상 데이터의 복수의 오브젝트 중 배경이 되는 배경 오브젝트에 상당하는 배경 화소 데이터로서 추출함과 함께, 상기 주목 프레임에 존재하는 상기 주목 화소의 주목 화소 데이터를 추출하여, 상기 주목 화소에 대하여, 상기 주목 화소 및 상기 배경 화소의 혼합비와 관련된 기울기 및/또는 절편을 변수로서 포함하여 상기 주목 화소 데이터 및 상기 배경 화소 데이터의 관계를 나타내는, 복수의 관계식을 생성하는 관계식 생성 단계와,
    상기 관계식에 기초하여, 상기 주목 화소에 대응하여, 현실 세계에서 복수인 상기 오브젝트의 혼합 상태를 나타내는 혼합비를 검출하는 혼합비 검출 단계와,
    상기 혼합비 검출 단계의 처리에 의해 검출된 상기 혼합비를 상기 관계식에 대입함으로써 예측 오차를 연산하는 예측 오차 연산 단계와,
    상기 예측 오차를 기초로, 상기 주목 화소가 속하는 영역이, 상기 복수의 오브젝트가 혼합되어 이루어지는 혼합 영역으로서, 상기 복수의 오브젝트 중 전경이 되는 전경 오브젝트의 움직임 방향의 선단측에 형성되는 커버드 백그라운드 영역인지, 또는, 상기 혼합 영역으로서, 상기 전경 오브젝트의 움직임 방향의 후단측에 형성되는 언커버드 백그라운드 영역인지를 특정하는 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 단계와,
    상기 주목 화소가 속하는 영역이, 상기 전경 오브젝트를 구성하는 전경 오브젝트 성분 만으로 이루어지는 전경 영역인지, 또는, 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분 만으로 이루어지는 배경 영역인지를 특정하는 전경 영역-배경 영역 특정 단계
    를 포함하는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록되어 있는 기록 매체.
  24. 제23항에 있어서,
    상기 혼합비 검출 단계에 있어서, 상기 관계식에 기초하여, 상기 주목 화소에 대응하여, 상기 주목 화소에 포함되는 상기 전경 오브젝트 성분이 검출됨과 함께, 상기 혼합비가 검출되고,
    상기 예측 오차 연산 단계에 있어서, 상기 혼합비 검출 단계의 처리에 의해 검출된 상기 혼합비 및 상기 주목 화소에 포함되는 상기 전경 오브젝트 성분을 상기 관계식에 대입함으로써 상기 예측 오차가 연산되는 것을 특징으로 하는 기록 매체.
  25. 제24항에 있어서,
    상기 관계식 생성 단계에 있어서, 상기 주목 화소에 대응하는, 상기 주변 프레임의 상기 화소 데이터가, 상기 배경 오브젝트에 상당하는 상기 배경 화소 데이터로서 추출됨과 함께, 상기 주목 화소의 주목 화소 데이터, 및 상기 주목 프레임 내의 상기 주목 화소의 근방에 위치하는, 근방 화소의 근방 화소 데이터가 추출되어, 상기 주목 화소에 대하여, 상기 주목 화소 데이터 및 상기 근방 화소 데이터, 및 상기 주목 화소 데이터 또는 상기 근방 화소 데이터에 대응하는 상기 배경 화소 데이터의 관계를 나타내는, 상기 복수의 관계식이 생성되는 것을 특징으로 하는 기록 매체.
  26. 제25항에 있어서,
    상기 관계식 생성 단계에 있어서, 상기 주목 화소 데이터 및 상기 근방 화소 데이터에 포함되는, 상기 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 상기 혼합 영역에서 상기 혼합비의 변화가 상기 혼합 영역의 화소의 위치에 대하여 직선적이다라고 하는 제2 근사에 기초하여, 상기 복수의 관계식이 생성되는 것을 특징으로 하는 기록 매체.
  27. 제25항에 있어서,
    상기 관계식 생성 단계에 있어서, 상기 주목 화소 데이터 및 상기 근방 화소 데이터에 포함되는, 상기 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 상기 혼합 영역에서 상기 혼합비의 변화가 상기 혼합 영역의 화소의 위치에 대하여 평면적이다라고 하는 제2 근사에 기초하여, 상기 복수의 관계식이 생성되는 것을 특징으로 하는 기록 매체.
  28. 제25항에 있어서,
    상기 혼합비 검출 단계에 있어서, 상기 복수의 관계식을 최소 제곱법으로 푸는 것에 의해, 상기 혼합비가 검출되는 것을 특징으로 하는 기록 매체.
  29. 제25항에 있어서,
    상기 관계식 생성 단계에 있어서, 상기 주목 화소가 상기 커버드 백그라운드 영역에 속한다고 한 경우, 상기 주목 프레임의 이전 프레임의 상기 화소 데이터가 상기 배경 화소 데이터로서 추출되고, 상기 주목 화소가 상기 언커버드 백그라운드 영역에 속한다고 한 경우, 상기 주목 프레임의 다음 프레임의 상기 화소 데이터가 상기 배경 화소 데이터로서 추출되어, 상기 복수의 관계식이 생성되는 것을 특징으로 하는 기록 매체.
  30. 제24항에 있어서,
    상기 관계식 생성 단계에 있어서, 상기 주목 화소에 대응하여, 상기 전경 오브젝트의 움직임을 기초로, 상기 주목 프레임 및 상기 주변 프레임으로부터, 상기 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터가 추출됨과 함께, 상기 혼합 화소 데이터에의 개개에 대응하여, 상기 배경 오브젝트의 움직임을 기초로, 상기 혼합 화소 데이터가 추출된 프레임과는 다른 프레임으로부터, 상기 배경 오브젝트에 상당하는 상기 배경 화소 데이터가 추출되어, 복수의 관계식이 생성되는 것을 특징으로 하는 기록 매체.
  31. 제30항에 있어서,
    상기 관계식 생성 단계에 있어서, 상기 혼합 화소 데이터에 대응하는 상기 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 상기 주목 프레임 및 상기 주변 프레임으로부터 추출된 상기 혼합 화소 데이터가 일정하다고 하는 제2 근사에 기초하여, 복수의 관계식이 생성되는 것을 특징으로 하는 기록 매체.
  32. 제30항에 있어서,
    상기 관계식 생성 단계에 있어서, 상기 주목 화소에 대응하여, 상기 전경 오브젝트의 움직임을 기초로, 상기 주목 프레임 및 상기 주변 프레임으로부터, 상기 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터가 추출됨과 함께, 상기 혼합 화소 데이터의 개개에 대응하여, 상기 배경 오브젝트의 움직임을 기초로, 상기 혼합 화소 데이터가 추출된 프레임의 이전 프레임으로부터, 상기 배경 오브젝트에 상당하는 상기 배경 화소 데이터가 추출되어, 복수의 관계식이 생성되고,
    상기 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 단계에 있어서, 상기 예측 오차가 소정의 임계값 이상인 영역이 언커버드 백그라운드 영역으로 특정되는 것을 특징으로 하는 기록 매체.
  33. 제30항에 있어서,
    상기 관계식 생성 단계에 있어서, 상기 주목 화소에 대응하여, 상기 전경 오브젝트의 움직임을 기초로, 상기 주목 프레임 및 상기 주변 프레임으로부터, 상기 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터가 추출됨과 함께, 상기 혼합 화소 데이터의 개개에 대응하여, 상기 배경 오브젝트의 움직임을 기초로, 상기 혼합 화소 데이터가 추출된 프레임의 다음 프레임으로부터, 상기 배경 오브젝트에 상당하는 상기 배경 화소 데이터가 추출되어, 복수의 관계식이 생성되고,
    상기 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 단계에 있어 서, 상기 예측 오차가 소정의 임계값 이상인 영역이 커버드 백그라운드 영역으로 특정되는 것을 특징으로 하는 기록 매체.
  34. 삭제
  35. 삭제
  36. 삭제
  37. 삭제
  38. 삭제
  39. 삭제
  40. 삭제
  41. 삭제
  42. 삭제
  43. 삭제
  44. 삭제
  45. 시간 적분 효과를 갖는 소정 수의 화소를 갖는 촬상 소자에 의해서 촬상된 피사체 화상을, 소정 수의 화소 데이터로 이루어지는 화상 데이터로서 출력하는 촬상 수단과,
    상기 화상 데이터의 주목 프레임의 주목 화소에 대응하는, 상기 주목 프레임 주변의 주변 프레임의 상기 화소 데이터를, 상기 화상 데이터의 복수의 오브젝트 중 배경이 되는 배경 오브젝트에 상당하는 배경 화소 데이터로서 추출함과 함께, 상기 주목 프레임에 존재하는 상기 주목 화소의 주목 화소 데이터를 추출하여, 상기 주목 화소에 대하여, 상기 주목 화소 및 상기 배경 화소의 혼합비와 관련된 기울기 및/또는 절편을 변수로서 포함하여 상기 주목 화소 데이터 및 상기 배경 화소 데이터의 관계를 나타내는, 복수의 관계식을 생성하는 관계식 생성 수단과,
    상기 관계식에 기초하여, 상기 주목 화소에 대응하여, 현실 세계에서 복수인 상기 오브젝트의 혼합 상태를 나타내는 혼합비를 검출하는 혼합비 검출 수단과,
    상기 혼합비 검출 수단에 의해 검출된 상기 혼합비를 상기 관계식에 대입함으로써 예측 오차를 연산하는 예측 오차 연산 수단과,
    상기 예측 오차를 기초로, 상기 주목 화소가 속하는 영역이, 상기 복수의 오브젝트가 혼합되어 이루어지는 혼합 영역으로서, 상기 복수의 오브젝트 중 전경이 되는 전경 오브젝트의 움직임 방향의 선단측에 형성되는 커버드 백그라운드 영역인지, 또는, 상기 혼합 영역으로서, 상기 전경 오브젝트의 움직임 방향의 후단측에 형성되는 언커버드 백그라운드 영역인지를 특정하는 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 수단과,
    상기 주목 화소가 속하는 영역이, 상기 전경 오브젝트를 구성하는 전경 오브젝트 성분 만으로 이루어지는 전경 영역인지, 또는, 상기 배경 오브젝트를 구성하는 배경 오브젝트 성분 만으로 이루어지는 배경 영역인지를 특정하는 전경 영역-배경 영역 특정 수단
    을 포함하는 것을 특징으로 하는 촬상 장치.
  46. 제45항에 있어서,
    상기 혼합비 검출 수단은, 상기 관계식에 기초하여, 상기 주목 화소에 대응하여, 상기 주목 화소에 포함되는 상기 전경 오브젝트 성분을 검출함과 함께, 상기 혼합비를 검출하고,
    상기 예측 오차 연산 수단은, 상기 혼합비 검출 수단에 의해 검출된 상기 혼합비 및 상기 주목 화소에 포함되는 상기 전경 오브젝트 성분을 상기 관계식에 대입함으로써 상기 예측 오차를 연산하는 것을 특징으로 하는 촬상 장치.
  47. 제46항에 있어서,
    상기 관계식 생성 수단은, 상기 주목 화소에 대응하는, 상기 주변 프레임의 상기 화소 데이터를, 상기 배경 오브젝트에 상당하는 상기 배경 화소 데이터로서 추출함과 함께, 상기 주목 화소의 주목 화소 데이터, 및 상기 주목 프레임 내의 상기 주목 화소의 근방에 위치하는, 근방 화소의 근방 화소 데이터를 추출하여, 상기 주목 화소에 대하여, 상기 주목 화소 데이터 및 상기 근방 화소 데이터, 및 상기 주목 화소 데이터 또는 상기 근방 화소 데이터에 대응하는 상기 배경 화소 데이터의 관계를 나타내는, 상기 복수의 관계식을 생성하는 것을 특징으로 하는 촬상 장치.
  48. 제47항에 있어서,
    상기 관계식 생성 수단은, 상기 주목 화소 데이터 및 상기 근방 화소 데이터에 포함되는, 상기 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 상기 혼합 영역에서 상기 혼합비의 변화가 상기 혼합 영역의 화소의 위치에 대하여 직선적이다라고 하는 제2 근사에 기초하여, 상기 복수의 관계식을 생성하는 것을 특징으로 하는 촬상 장치.
  49. 제47항에 있어서,
    상기 관계식 생성 수단은, 상기 주목 화소 데이터 및 상기 근방 화소 데이터 에 포함되는, 상기 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 상기 혼합 영역에서 상기 혼합비의 변화가 상기 혼합 영역의 화소의 위치에 대하여 평면적이다라고 하는 제2 근사에 기초하여, 상기 복수의 관계식을 생성하는 것을 특징으로 하는 촬상 장치.
  50. 제47항에 있어서,
    상기 혼합비 검출 수단은, 상기 복수의 관계식을 최소 제곱법으로 푸는 것에 의해, 상기 혼합비를 검출하는 것을 특징으로 하는 촬상 장치.
  51. 제47항에 있어서,
    상기 관계식 생성 수단은, 상기 주목 화소가 상기 커버드 백그라운드 영역에 속한다고 한 경우, 상기 주목 프레임의 이전 프레임의 상기 화소 데이터를 상기 배경 화소 데이터로서 추출하고, 상기 주목 화소가 상기 언커버드 백그라운드 영역에 속한다고 한 경우, 상기 주목 프레임의 다음 프레임의 상기 화소 데이터를 상기 배경 화소 데이터로서 추출하여, 상기 복수의 관계식을 생성하는 것을 특징으로 하는 촬상 장치.
  52. 제46항에 있어서,
    상기 관계식 생성 수단은, 상기 주목 화소에 대응하여, 상기 전경 오브젝트의 움직임을 기초로, 상기 주목 프레임 및 상기 주변 프레임으로부터, 상기 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 상기 혼합 화소 데이터에의 개개에 대응하여, 상기 배경 오브젝트의 움직임을 기초로, 상기 혼합 화소 데이터가 추출된 프레임과는 다른 프레임으로부터, 상기 배경 오브젝트에 상당하는 상기 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하는 것을 특징으로 하는 촬상 장치.
  53. 제52항에 있어서,
    상기 관계식 생성 수단은, 상기 혼합 화소 데이터에 대응하는 상기 전경 오브젝트 성분이 동일하다고 하는 제1 근사, 및 상기 주목 프레임 및 상기 주변 프레임으로부터 추출된 상기 혼합 화소 데이터가 일정하다고 하는 제2 근사에 기초하여, 복수의 관계식을 생성하는 것을 특징으로 하는 촬상 장치.
  54. 제52항에 있어서,
    상기 관계식 생성 수단은, 상기 주목 화소에 대응하여, 상기 전경 오브젝트의 움직임을 기초로, 상기 주목 프레임 및 상기 주변 프레임으로부터, 상기 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 상기 혼합 화소 데이터의 개개에 대응하여, 상기 배경 오브젝트의 움직임을 기초로, 상기 혼합 화소 데이터가 추출된 프레임의 이전 프레임으로부터, 상기 배경 오브젝트에 상당하는 상기 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하고,
    상기 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 수단은, 상기 예측 오차가 소정의 임계값 이상인 영역을 언커버드 백그라운드 영역으로 특정하는 것을 특징으로 하는 촬상 장치.
  55. 제52항에 있어서,
    상기 관계식 생성 수단은, 상기 주목 화소에 대응하여, 상기 전경 오브젝트의 움직임을 기초로, 상기 주목 프레임 및 상기 주변 프레임으로부터, 상기 복수의 오브젝트가 혼합 상태에 있는 혼합 화소 데이터를 추출함과 함께, 상기 혼합 화소 데이터의 개개에 대응하여, 상기 배경 오브젝트의 움직임을 기초로, 상기 혼합 화소 데이터가 추출된 프레임의 다음 프레임으로부터, 상기 배경 오브젝트에 상당하는 상기 배경 화소 데이터를 추출하여, 복수의 관계식을 생성하고,
    상기 커버드 백그라운드 영역-언커버드 백그라운드 영역 특정 수단은, 상기 예측 오차가 소정의 임계값 이상인 영역을 커버드 백그라운드 영역으로 특정하는 것을 특징으로 하는 촬상 장치.
KR1020037002804A 2001-06-27 2002-06-26 화상 처리 장치, 방법 및 기록 매체와 촬상 장치 KR100894923B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2001-00194611 2001-06-27
JP2001194611A JP4840630B2 (ja) 2001-06-27 2001-06-27 画像処理装置および方法、記録媒体、並びにプログラム
PCT/JP2002/006385 WO2003003307A1 (fr) 2001-06-27 2002-06-26 Appareil et procede de traitement d'images, et appareil de capture d'images

Publications (2)

Publication Number Publication Date
KR20040014951A KR20040014951A (ko) 2004-02-18
KR100894923B1 true KR100894923B1 (ko) 2009-04-27

Family

ID=19032715

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020037002804A KR100894923B1 (ko) 2001-06-27 2002-06-26 화상 처리 장치, 방법 및 기록 매체와 촬상 장치

Country Status (8)

Country Link
US (1) US7181080B2 (ko)
EP (1) EP1400925A4 (ko)
JP (1) JP4840630B2 (ko)
KR (1) KR100894923B1 (ko)
CN (1) CN1313975C (ko)
CA (1) CA2420069C (ko)
MX (1) MXPA03001576A (ko)
WO (1) WO2003003307A1 (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4596220B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4192719B2 (ja) * 2003-08-22 2008-12-10 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN100423557C (zh) * 2004-02-13 2008-10-01 索尼株式会社 图像处理装置以及图像处理方法
WO2005079061A1 (ja) * 2004-02-13 2005-08-25 Sony Corporation 画像処理装置と画像処理方法およびプログラム
WO2005079062A1 (ja) * 2004-02-13 2005-08-25 Sony Corporation 画像処理装置と画像処理方法およびプログラム
US8150155B2 (en) 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
US8265392B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
US8265349B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
KR101225062B1 (ko) * 2006-03-10 2013-01-23 삼성전자주식회사 이미지 프레임의 선택적 출력 장치 및 방법
KR101299249B1 (ko) * 2008-08-29 2013-08-22 삼성테크윈 주식회사 디지털 촬영장치, 그 제어방법 및 제어방법을 실행시키기 위한 프로그램을 저장한 기록매체
CN101916449A (zh) * 2010-08-21 2010-12-15 上海交通大学 建立图像处理中基于运动信息的背景模型的方法
WO2016021147A1 (ja) 2014-08-04 2016-02-11 日本電気株式会社 画像から移動体の滞留を検出するための画像処理システム、画像処理方法及び記録媒体
CN113223043B (zh) * 2021-03-26 2024-07-19 西安闻泰信息技术有限公司 一种移动目标的检测方法、装置、设备及介质
CN113129227A (zh) * 2021-03-29 2021-07-16 影石创新科技股份有限公司 图像处理方法、装置、计算机设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07336688A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> アンカバー領域の検出方法
JPH10164436A (ja) 1996-12-04 1998-06-19 Sony Corp 輪郭抽出装置、輪郭抽出方法、キー信号生成装置及びキー信号生成方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6054999A (en) * 1988-03-22 2000-04-25 Strandberg; Oerjan Method and apparatus for computer supported animation
GB2231752B (en) * 1989-04-27 1993-08-04 Sony Corp Motion dependent video signal processing
JPH05153493A (ja) * 1991-11-27 1993-06-18 Matsushita Electric Ind Co Ltd 映像信号合成装置
JP3080487B2 (ja) * 1992-09-30 2000-08-28 富士通株式会社 多眼式立体映像の動き補償予測方法
US5812787A (en) * 1995-06-30 1998-09-22 Intel Corporation Video coding scheme with foreground/background separation
US6259827B1 (en) * 1996-03-21 2001-07-10 Cognex Corporation Machine vision methods for enhancing the contrast between an object and its background using multiple on-axis images
JP2952226B2 (ja) * 1997-02-14 1999-09-20 日本電信電話株式会社 動画像の予測符号化方法および復号方法、動画像予測符号化または復号プログラムを記録した記録媒体、および、動画像予測符号化データを記録した記録媒体
US5933151A (en) * 1997-03-26 1999-08-03 Lucent Technologies Inc. Simulated natural movement of a computer-generated synthesized talking head
JP2000030040A (ja) * 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体
US6404901B1 (en) * 1998-01-29 2002-06-11 Canon Kabushiki Kaisha Image information processing apparatus and its method
US6771834B1 (en) * 1999-07-02 2004-08-03 Intel Corporation Method for segmenting a digital image
JP4479098B2 (ja) * 2000-12-21 2010-06-09 ソニー株式会社 信号処理装置および方法、並びに記録媒体
JP4491965B2 (ja) * 1999-12-28 2010-06-30 ソニー株式会社 信号処理装置および方法、並びに記録媒体
JP4507045B2 (ja) * 2000-12-21 2010-07-21 ソニー株式会社 信号処理装置および方法、並びに記録媒体
JP4507044B2 (ja) * 2000-12-21 2010-07-21 ソニー株式会社 画像処理装置および方法、並びに記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07336688A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> アンカバー領域の検出方法
JPH10164436A (ja) 1996-12-04 1998-06-19 Sony Corp 輪郭抽出装置、輪郭抽出方法、キー信号生成装置及びキー信号生成方法

Also Published As

Publication number Publication date
CN1471694A (zh) 2004-01-28
EP1400925A4 (en) 2007-05-09
US20040028259A1 (en) 2004-02-12
EP1400925A1 (en) 2004-03-24
MXPA03001576A (es) 2003-06-04
CA2420069A1 (en) 2003-02-19
JP4840630B2 (ja) 2011-12-21
JP2003008991A (ja) 2003-01-10
KR20040014951A (ko) 2004-02-18
US7181080B2 (en) 2007-02-20
WO2003003307A1 (fr) 2003-01-09
CA2420069C (en) 2010-03-09
CN1313975C (zh) 2007-05-02

Similar Documents

Publication Publication Date Title
KR100864338B1 (ko) 화상 처리 장치 및 방법과 촬상 장치
KR100846261B1 (ko) 화상 처리 장치, 화상 처리 방법, 기록 매체 및 촬상 장치
KR100897965B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100918544B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100859382B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100924401B1 (ko) 화상 처리 장치, 화상 처리 방법, 화상 처리 프로그램을 기록한 기록 매체 및 촬상 장치
KR100843815B1 (ko) 화상 처리 장치 및 방법
JP4596220B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR100848427B1 (ko) 화상 처리 장치
KR100799011B1 (ko) 화상 처리 장치
KR100894923B1 (ko) 화상 처리 장치, 방법 및 기록 매체와 촬상 장치
KR100835443B1 (ko) 화상 처리 장치, 방법 및 그를 위한 기록 매체와 촬상 장치
KR100864336B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
KR100858761B1 (ko) 화상 처리 장치
JP2003006658A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596209B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP2003006656A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
KR100895744B1 (ko) 화상 처리 장치, 방법 및 기록 매체, 및 촬상 장치
JP4596225B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120409

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee