[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR100382439B1 - 레인지파인더 장치와 카메라 - Google Patents

레인지파인더 장치와 카메라 Download PDF

Info

Publication number
KR100382439B1
KR100382439B1 KR10-2000-7000845A KR20007000845A KR100382439B1 KR 100382439 B1 KR100382439 B1 KR 100382439B1 KR 20007000845 A KR20007000845 A KR 20007000845A KR 100382439 B1 KR100382439 B1 KR 100382439B1
Authority
KR
South Korea
Prior art keywords
light
subject
camera
image
distance
Prior art date
Application number
KR10-2000-7000845A
Other languages
English (en)
Other versions
KR20010040232A (ko
Inventor
우오모리켄야
아즈마타케오
모리무라아쯔시
Original Assignee
마쯔시다덴기산교 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마쯔시다덴기산교 가부시키가이샤 filed Critical 마쯔시다덴기산교 가부시키가이샤
Publication of KR20010040232A publication Critical patent/KR20010040232A/ko
Application granted granted Critical
Publication of KR100382439B1 publication Critical patent/KR100382439B1/ko

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/30Systems for automatic generation of focusing signals using parallactic triangle with a base line
    • G02B7/32Systems for automatic generation of focusing signals using parallactic triangle with a base line using active means, e.g. light emitter
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

광강도가 3차원 공간적으로 상이한 복사 패턴을 갖는 복수개의 투사광을 시분할적으로 광원으로부터 피사체에 조사하여 피사체로부터 투사된 광의 반사광을 카메라로 촬상하고, 촬상된 화상의 광강도를 이용하여 거리를 측정하는 레인지파인더 장치에 있어서, 광원의 중심과 렌즈의 중심을 포함하는 복수의 표면의 각각에 대해서, 광원으로부터 각각의 표면에 투사된 광의 각도와 광강도비의 관계를 미리 얻고, 실제 거리의 측정 시에, 카메라의 각 화소의 광강도를 측정하고, 이와 같은 측정된 광강도와 측정된 화소의 좌표 위치에 대응하는 소정의 표면 상의 각도와 광강도 사이의 관계에 의거하여, 측정된 소정 화소의 광강도에 대응하는 각도를 얻고, 이들의 측정된 광강도와 상기 얻은 각도와, 또한, 화상의 소정의 화소에 대한 2차원 좌표 위치 정보에 의거하여, 피사체까지의 거리를 계산하는 것을 특징으로 하는 레인지파인더이다.

Description

레인지파인더 장치와 카메라{RANGE FINDER AND CAMERA}
투사광과 관측 화상의 삼각 측량에 의거하여 3차원 형상 계측을 실행하는 레인지파인더 장치로서, 예를 들면, 도 40에 도시한 바와 같은 실시간으로 동작할 수 있는 레인지파인더 장치가 제안되고 있다.
도 40에서 (101A),(101B)는 다소 상이한 파장을 갖는 레이저 광원이고; (102)는 상이한 파장을 갖는 레이저 광원으로부터의 레이저광을 합성하기 위한 하프미러(half mirror)이고; (103)는 레이저 광원의 광강도를 제어하기 위한 광원 제어부이고; (104)는 레이저광을 주사하기 위한 회전 거울이고; (105)는 회전 거울을 제어하기 위한 회전 제어부이고; (106)은 피사체이고; (107)은 CCD위에 화상을 결상(結像)하기 위한 렌즈이고; (108A),(108B)는 레이저 광원으로부터 파장을 갖는 광을 분할하기 위한 광파장 분할 필터이고; (109A),(109B)는 단색 화상을 촬상(撮像)하기 위한 CCD이고; (109C)는 컬러 화상을 촬상하기 위한 CCD이고; (110A),(110B)는 단색 카메라에 대한 신호 처리부이고; (111)을 컬러 카메라에 대한 신호 처리부이고; (112)는 CCD(109A),(109B)에 의해 촬상된 레이저광의 광강도로부터 피사체의 거리와 형상을 계산하는 거리 계산부이고; (113)은 장치 전체의 동기를 조정하기 위한 제어부이다. 상기와 같이 구성된 거리계 장치의 동작에 대해 이하 설명한다.
레이저 광원(101A),(101B)는 다소 상이한 파장을 갖는 레이저광을 발광한다. 이 레이저광은 나중에 설명하는 회전 거울의 주사 방향에 수직인 광 단면을 갖는 직선광이고 회전 거울이 수평 방향으로 주사할 때 수직 방향으로 직선광이 된다.
도 41은 이들의 두 광원에 대한 파장 특성을 도시한다. 서로 유사한 파장을 갖는 두 광원을 사용하는 이유는 파장에 대한 피사체의 반사율의 의존성에 의해 광원이 영향을 거의 받지 않기 때문이다. 레이저 광원(101A),(101B)로부터 발광되는 레이저광은 하프미러(102)에 의해 합성되고, 회전 거울(104)에 의해 피사체(6)에 주사된다.
레이저광의 주사는 회전 제어부(105)가 1필드 주기마다 회전 거울(104)을 구동시킬 때 실행된다. 이때에, 두 광원의 광강도는 1필드 주기 내에서 도 42(a)에 도시된 바와 같이 변화한다. 레이저 광강도의 변화는 거울 각도의 구동에 동기화함으로써, 이들의 두 광의 강도는 CCD(109A),(109B)에 의해 감시되어 광강도비를 계산하고, 이에 의해 1회 주사 주기마다 시각을 측정할 수 있다. 광강도가, 예를 들면, 도 40에 도시된 바와 같이 Ia/Ib이면, 주사시각은 to로 측정되고, 그 측정치로부터 회전 거울(104)의 회전 각도(ø)를 알 수 있다.
이들의 두 레이저광의 강도비와 거울 각도(즉, 광원측에서 본 피사체의 각도)는 이 방식으로 이들 사이에 1대 1대응을 갖도록 함으로써, 나중에 설명하는 거리 계산부에서 두 광원으로부터의 광을 촬상한 광의 신호 레벨비로부터 삼각 측량의 원리에 따라서 피사체의 거리 또는 형상을 계산할 수 있다.
렌즈(107)는 CCD(109A),(109B),(109C)위에 피사체의 화상을 결상한다. 광파장 분리 필터(108A)는 광원(101A)의 파장을 갖는 광을 투과시키고, 다른 파장을 갖는 광을 반사한다. 광파장 분리 필터(108B)는 광원(101B)의 파장을 갖는 광을 투과시키고, 다른 파장을 갖는 광을 반사시킨다. 그 결과, 피사체로부터 반사된 광원(101A),(101B)의 광은 CCD(109A)(109B)에 의해 촬상되고, 다른 파장의 광은 컬러 화상으로서 CCD(109C)에 의해 촬상된다.
광원A신호 처리부(110A)와 광원B신호 처리부(110B)는 CCD(109A),(109B)로부터의 출력에 대하여 통상의 단색 카메라와 마찬가지의 신호 처리를 실행한다. 컬러 카메라 신호 처리부(111)는 통상의 컬러 카메라 신호 처리를 실행하여 CCD(109C)로부터 출력한다.
거리 계산부(112)는 각 광원의 파장마다 CCD(109A),(109B)에 의해 촬상되는 신호 레벨비, 베이스 길이 및 화소의 좌표값으로부터 각 화소에 대한 거리를 계산한다.
도 43(a)와 도 43(b)는 거리 계산을 그래프로 설명하기 위한 설명도이다. 도면에 있어서, (O)는 렌즈(107)의 중심이고; P는 피사체상의 점이고; Q는 회전 거울의 회전축의 위치이다. 또한, 간단히 설명하기 위해, CCD(109)의 위치를 피사체측에 반향하도록 도시한다. 또한, OQ(베이스 길이)의 길이를 L, XZ평면의 Q로부터 관측되는 P의 각을 θ, YZ정면의 O로부터 관측되는 P의 각을 ω자로 가정하면, P의 3차원 좌표는 그래프적인 관계로부터
Z=Dtanθtanø/(tanθ+tanø) …(1)
X=Z/tanθ
Y=Z/tanω
의 식에 의해 계산된다.
식(1)에서 ø는 상기 기술한 CCD(109A),(109B)에 의해 감시되는 레이저 광원(101A),(101B)의 광강도비에 의해 계산되고, θ와 ω는 화소의 좌표값으로부터 계산된다. 식(1)에 나타난 값 중에서, 이들의 모든 값이 계산되면, 형상이 결정되고, 또한 Z값만 결정되면, 거리 화상이 결정될 수 있다.
한편, 광원으로부터의 광이 피사체에 직접 조사될 수 없는 장소를 촬영하기 위하여, 광파이버를 사용하는 카메라가 공지되어 있다. 예를 들면, 신체의 내부를 검사할 때에 사용되는 내시경의 하나로서, 위 카메라(gastro camera)등이 있다. 위 카메라의 경우에는, 위의 내벽은 광파이버로부터의 광조사에 의해 통상적으로 조사되고, 내부벽에서 반사된 광은 다른 광파이버에 의해 수광되어서 외부 카메라부에 유도되고, 이것은 2차원적으로 처리되어 모니터상에 통상의 화상을 표시한다.
종래의 피사체 추출 방법으로서, 방송국에서 사용되는 "크로마키(chroma key)"로 칭하는 기술이 일반적으로 사용된다.
이 방법은 촬영을 위해 단색(파랑색)의 배경으로 구성된 스튜디오 셋트 앞에 피사체를 배치하고, 청색 부분은 그외의 다른 부분을 주목 피사체로 간주하는 배경으로 판정된다.
그러나, 상기 설명한 종래의 구성에서는, 변조 가능한 광원과 광원 스위핑(sweeping) 수단이 필수적이고, 따라서 기계 동작을 포함하므로, 장치의 신뢰성이 저하되며 장치가 고가로 되는 문제가 있었다.
또한, 레이저 소자는 통상적으로 변조하여 사용하지만, 레이저 소자의 출력과 파장은 온도에 좌우하여 변화하기 때문에, 안정된 측정을 실현하는 것이 어렵다고 하는 문제가 있다.
또한, 종래의 내시경 등의 경우에서와 같이, 광원으로부터의 광이 피사체에 직접 조사될 수 없는 장소를 촬상할 때에는, 광파이버를 사용하는 카메라에서는 화상이 2차원 데이터이기 때문에 돌기 영역이 존재하는지의 여부를 진찰하는 것이 어렵다고 하는 문제가 있었다.
본 발명은 피사체의 3차원 형상을 계측하기 위한 레인지파인더 장치에 관한 것이다.
도 1은 본 발명의 제 1실시예에 의한 레인지파인더 장치의 구성을 도시한 블록도
도 2(a)는 제 1실시예에 의한 레인지파인더 장치의 광원의 구성을 도시한 사시도,
도 2(b)는 제 1실시예에 의한 레인지파인더 장치의 광원의 구성을 도시한 평면도
도 3은 제 1실시예에 의한 광원의 광패턴을 도시하는 도면
도 4는 제 1실시예에 의한 광원의 광패턴과 복수의 광을 방사하는 경우의 광패턴을 도시한 도면
도 5는 제 1실시예에 의한 광강도비와 광원으로부터의 각도 ø사이의 관계를 도시한 도면
도 6은 제 1실시예에 의한 3차원위치 X, Y, Z를 도시한 계산 개념도
도 7은 본 발명의 제 2실시예에 의한 레인지파인더 장치의 구성을 도시한 블록도
도 8은 제 2실시예에 의한 거리 계산과 광강도 변환을 도시한 블록도
도 9는 제 2실시예에서 광강도의 X좌표의 변화를 도시한 도면
도 10(a)는 본 발명의 제 3실시예에 의한 레인지파인더 장치의 구성을 도시한 블록도
도 10(b)는 본 발명의 제 3실시예에 의한 레인지파인더 장치의 변형예의 구성을 도시한 블록도
도 11(a) 내지 도 11(c)는 제 3실시예에 의한 렌즈계의 배치를 설명하는 설명도
도 11(d)는 상기 실시예에 의한 투과율 변화 필터의 배치를 설명하는 설명도
도 12(a)는 제 3실시예에 의한 투과율 변화 필터를 설명하는 설명도
도 12(b)는 상기 실시예에 의한 투과율 변화 필터에 의거한 광강도 분포를 설명하는 설명도
도 13(a)와 도 13(b)는 본 발명의 제 4실시예에 의한 형상 계측용 카메라와 피사체 추출용 카메라를 도시하는 외관도
도 14는 본 발명의 제 4실시예에 의한 카메라 광원부의 구성을 도시하는 블록도
도 15는 본 발명의 제 4실시예에 의한 카메라 광원부의 원리를 도시하는 도면
도 16은 본 발명의 제 4실시예에 의한 카메라 광원부의 광강도를 도시하는 도면
도 17은 본 발명의 제 4실시예에 의한 카메라 광원부의 광강도 패턴을 도시하는 도면
도 18은 본 발명의 제 4실시예에 의한 카메라 광원부의 광강도 패턴을 도시하는 도면
도 19는 본 발명의 제 4실시예에 의한 카메라 광원부의 광강도비를 도시하는 도면
도 20(a)와 도 20(b)는 본 발명의 제 4실시예에 의한 카메라를 도시하는 블록도
도 21(a) 내지 도 21(d)는 본 발명의 제 4실시예에 의한 카메라(2)를 도시하는 블록도
도 22(a)와 도 22(b)는 본 발명의 제 4실시예에 의한 카메라(3)를 도시하는 외관도
도 23(a) 내지 도 23(c)는 본 발명의 제 4실시예에 의한 카메라(4)를 도시한 블록도
도 24(a) 내지 도 24(d)는 본 발명의 제 4실시예에 의한 카메라(2)의 광원부를 도시한 블록도
도 25는 본 발명의 제 5실시예에 의한 카메라의 표시 방법(1)을 도시한 도면
도 26은 본 발명의 제 5실시예에 의한 카메라의 표시 방법(2)을 도시한 도면
도 27은 본 발명의 제 5실시예에 의한 카메라를 표시하는 배면외관도
도 28은 본 발명의 제 5실시예에 의한 카메라를 표시하는 블록도
도 29는 본 발명의 제 5실시예에 의한 카메라의 화상 보정 동작(1)을 도시하는 도면
도 30은 본 발명의 제 5실시예에 의한 카메라의 화상 보정 동작을 도시하는 도면
도 31은 본 발명의 제 4실시예에 의한 카메라를 도시하는 다른 블록도
도 32는 본 발명의 제 4 및 제 5실시예에 의한 카메라의 폐색의 발생을 도시하는 도면
도 33은 본 발명의 제 4 및 제 5실시예에 의한 카메라의 폐색을 도시하는 도면
도 34는 본 발명의 제 4 및 제 5실시예에 의한 카메라의 폐색을 회피하는 방법을 도시하는 도면
도 35(a)와 도 35(b)는 본 발명의 제 4및 제 5실시예에 의한 카메라(1)의 폐색을 회피하기 위한 도면
도 36(a)와 도 36(b)는 본 발명의 제 4 및 제 5실시예에 의한 카메라(2)의 폐색을 회피하기 위한 외관도
도 37(a)와 도 37(b)는 본 발명의 제 4 및 제 5실시예에 의한 카메라의 외부광원부(1)를 도시하는 외관도
도 38(a)와 도 38(b)는 본 발명의 제 4 및 제 5실시예에 의한 카메라의 외부광원부(1)를 도시하는 외관도
도 39(a)와 도 39(b)는 본 발명의 제 4 및 제 5실시예에 의한 카메라의 외부광원부(3)를 도시하는 외관도
도 40은 종래의 레인지파인더 장치를 도시하는 블록도
도 41은 종래의 레인지파인더 장치의 광원의 파장 특성을 도시한 특성도
도 42(a)와 도 42(b)는 종래의 레인지파인더 장치의 광원의 강도 변조를 도시하는 특성도
도 43(a)와 도 43(b)는 레인지파인더 장치에서의 계측 원리를 도시하는 도면
(부호의 간단한 설명)
1: 카메라 1a: 적외선 카메라
2a: 광원 2b: 광원
3a: 적외선 투과 필터 3b: 적외선 투과 필터
4a: 수평 방향으로 투과율이 변화하는 DN필터
4b: 수평 방향으로 투과율이 변화하는 DN필터
5: 광원 제어부 6: 거리 계산부
7: 섬광 광원 8: 섬광 광원
9: 반사판 10: 반사판
11a: 필드 메모리a 11b: 필드 메모리b
12a: 광강도 변환부a 12b: 광강도 변환부b
13: 광강도비 계산부 14: 거리 계산부
101A, 101B: 레이저 광원 102: 하프미러(halfmirror)
103: 광원 제어부 104: 회전 거울
105: 회전 제어부 106: 피사체
107: 렌즈 108A, 108B: 광파장 분리 필터
109A, 109B: 촬상 소자 110A, 110B: 카메라 신호 처리부
111: 컬러 카메라의 신호 처리부 112: 거리 계산부
113: 제어부 201: 반도체 레이저
202: 제 1광파이버 203: 광분리기
204: 콜리메이터(collimator)렌즈 206: 카메라부
207: 제 2광파이버 501, 502: 하우징
503: 렌즈 504: 기록 매체
505: 제 1스트로브 506: 제 2스트로브
507: 파인더 508: 스트로브부
509: 카메라 본체 하우징 510: 접속부
511: 카메라 본체 512, 513: 광원부 하우징
514: 제 3스트로브 515: 제 4스트로브
516: 접속부 517: 광원부
518: 표시 패널 519: 터치패널
520: 피사체(전경) 521: 피사체(배경)
527: 오동작으로 인해 전경으로 판정된 부분
528: 세이딩플레이트 529: 스트로브 발광관A
530: 스트로브 발광관B 531: 액정배리어
532: 표시부 533: 촬상부
534: 광제어부 535: 거리 계산부
536: 컬러 화상 계산부 537: 제어부
538: 매체 기록·재생부 539: 해석부
540: 피사체(전경) 541: 피사체(배경)
542: 광원으로부터의 광이 차단된 부분
543: 광원부3 544: 광원부4
545: 카메라 장착 나사 546: 광원부 하우징(1)
547: 광원부 하우징(2) 548: 광원부 고정베이스
549: 광원부 고정 기구(스트로브슈걸이)
550: 화상 메모리 551: 수동 반사판(1)
552: 수동 반사판(2) 5100: 배경으로 판정된 부분
본 발명은 이와 같은 문제를 감안해서 이루어진 것으로서, 저렴한 가격으로 기계 동작을 필요로 하지 않는 안정된 레인지파인더 장치를 제공하는데 목적이 있다.
본 발명의 다른 목적은 광원으로부터의 광이 피사체에 직접 조사될 수 없는 장소에서 피사체의 거리를 계측할 수 있는 레인지파인더 장치를 제공하는 데 있다.
본 발명의 또 다른 목적은 구조가 단단하고 크기가 소형인 카메라를 제공하는 데 있다.
즉, 본 발명은 광도가 3차원공간적으로 상이한 복사 패턴을 갖는 복수의 투사광을 시분할적으로 광원으로부터 피사체에 조사하여 상기 피사체로부터 상기 투사광의 반사광을 카메라로 촬상하고, 촬상된 화상의 광강도를 사용하여 거리를 측정하는 레인지파인더 장치에 있어서, 상기 광원의 중심과 렌즈의 중심을 포함하는 복수의 표면의 각각에 대해서, 상기 광원으로부터 각각 표면에 투사된 광의 각도와 광강도 사이의 관계를 미리 얻고, 실제 거리 측정시에, 상기 카메라의 각 화소의 광강도를 측정하고, 이와 같이 측정된 광강도 및 상기 측정 화소의 좌표 위치에 대응하는 소정의 표면상의 상기 각도와 상기 광강도 사이의 관계에 의거하여, 이와 같은 측정된 소정 화소의 상기 광강도에 대응하는 상기 각을 얻고; 이들의 측정된 광강도와, 상기 얻은 각도와, 또한 화상의 상기 소정의 화소에 대한 2차원 좌표 위치 정보에 의거하여 상기 피사체까지의 거리를 계산하는 것을 특징으로 하는 레인지 파인더 장치를 제공하는 데 있다.
또한, 본 발명은, 광원과, 상기 광원으로부터 출사되는 광을 유도하기 위한 제 1광파이버와, 상기 제 1광파이버에 의해 유도되는 광을 복수의 경로로 분기하는 광분배 수단과; 상기 광분배 수단에 일단부가 접속되고, 타단의 개구부로부터 상기 분할된 광을 피사체에 조사하기 위한 복수의 제 2광파이버와; 상기 피사체의 화상데이터를 얻기 위해 상기 조사된 광의 반사광을 수광하기 위한 촬상 수단과; 상기 데이터에 의거하여 상기 피사체까지의 거리를 계산하기 위한 거리 계산 수단을 구비한 레인지파인더 장치에 있어서, 상기 복수의 제 2광파이버의 타단으로부터 피사체에 조사되는 광강도는 장소적으로 서로 다른 분포를 갖는 것을 특징으로 하는 레인지파인더 장치이다.
또한 본 발명은 특정의 복사 패턴을 갖는 투사광을 피사체에 조사하기 위한 발광 수단을 구비하고, 상기 발광 수단의 피사체 반사광을 촬상하고, 촬상된 화상의 광강도를 사용하여 깊이 화상(depth image)을 얻는, 형상 계측용 또는 피사체 추출용 카메라에 있어서, 상기 카메라는 상기 발광 수단과 촬상 렌즈사이의 거리가 가변되는 구조를 가지고, 또한 상기 발광 수단과 상기 촬상 렌즈사이의 간격을 사용중에 충분히 크게 취할 수 있는 것을 특징으로 하는 카메라이다.
도면을 참조하면서 본 발명의 실시예에 의한 레인지파인더 장치에 대해 이하 설명한다.
(제 1실시예)
도 1은 본 발명의 제 1실시예에 의한 레인지파인더를 도시하는 블록도이다. 도 1에서, (1)은 카메라이고; (2a),(2b)는 광원이고; (5)는 광원 제어부이고; (6)은 거리 계산부이다. 상기 설명한 구성의 동작에 대해 이하 설명한다.
광원 제어부(5)는 카메라(1)의 수직 동기 신호와 동기하여 각 필드 주기마다 광원(2a)과 광원(2b)를 교대로 발광시킨다. 광원(2a)과 광원(2b)으로서, 예를 들면, 도 2(a)에 도시된 바와 같이 크세논플레시램프(Xenon Flash Lamp) 등의 섬광원(7),(8)을 종방향으로 배치하고 후방의 수동 반사판의 방향을 좌우로 벌어지게 배치하여 사용한다. 도 2(b)는 도 2(a)의 평면도이다. 광원(2a)과 광원(2b)은 각각 A범위와 B범위내에서 광을 복사한다. 크세논램프는 소형의 발광부를 갖고 있으며, 위에서 볼 때 점광원으로 간주할 수 있는 발광부가 바람직하다. 또한, 광원(2a)과 광원(2b)은 종방향으로 배치되고, 광원 사이에 거리가 1㎝이고, 이들의 광원은 광이 하나의 점광원으로부터 실질적으로 발광하는 것처럼 보인다.
이러한 광원으로부터 복사되는 광패턴은 도 3에 도시된 바와 같이 된다. 이것은, 광이 임의의 스크린상에 투사될 때, 도면의 →방향으로 스크린 표면에서 밝기의 크기를 표시한다. 즉, 각각의 광원은 중심축에서 스크린 표면이 가장 밝고 주변부로 갈수록 점점 어두워지는 특성을 갖는다. 이와 같이 중심부가 밝고 주변부가 어두운 것은 반원통형의 수동 반사판(9),(10)이 섬광원(7),(8)의 배후에 위치하기 때문이다. 또한, 이들의 반원통형의 수동 반사판(9),(10)의 방향이 벗어나 있고, 각각의 투사광이 부분적으로 중첩되도록 방사된다.
도 4는 도 3의 H방향의 평면내에서 광원으로부터의 투사광의 각도와 광강도 사이의 관계를 도시한다. H방향은, 광원의 중심과 렌즈의 중심을 포함하는 복수의 면중에서, 임의의 면S와 상기 설명한 임시 스크린사이의 교차선의 방향이다. 이들의 광패턴의 α부분에서, 두개의 광원으로부터 피사체의 공간에 조사되는 광은 각 광원에서 관측할 때 한쪽은 우측이 밝고 다른쪽은 좌측이 밝게된다. 그러나, 이런 패턴은 높이 방향(Y방향)에 대해서도 다르게 된다.
도 5는 도 4의 α부분에서 XZ평면상에 투영되는 투사광과 X축사이에 이루는 각도ø와 2개의 투사광에 의한 피사체 조명의 광강도비 사이의 관계를 나타낸다. α부분에서, 광강도비와 각도ø사이의 관계는 1:1로 대응한다. 거리를 측정하기 위해서는, 2종류의 광패턴이 광원으로부터 소정의 거리만큼 떨어져 있고 수직으로 설치된 평면위에 교대로 투사되고, 카메라(1)에 의해 이 반사광을 촬상하여 얻은 결과로부터 각 Y좌표(CCD의 Y좌표에 대응)마다 도 5에 도시된 바와 같은 광강도비와 투사광의 각도 사이의 관계에 대한 데이터를 미리 얻을 수 있다. "각 Y좌표마다"는 광원 중심과 렌즈 중심을 포함하는 복수의 평면의 각각을 의미한다.
또한, 카메라(1)의 렌즈 중심과 광원 사이의 선분이 CCD촬상 표면의 X축에 대해 평행하도록 광원을 배치하면, 각 Y좌표마다 결정된 광강도비와 투사광의 각도 사이의 관계에 대한 데이터를 사용하여 거리를 정밀하게 계산할 수 있다. 광강도비를 이용하는 거리 계산 방법에 대하여 이하 설명한다.
도 1에서 점P를 주목점으로 설정할 때에, 카메라 1에 의해 촬상된 화상의 점P에 대해 2종류의 광패턴을 조사하는 경우 촬상 데이터로부터 얻는 명도비와 점P의 Y좌표값에 대응하는 도 5의 관계를 사용하여 광원으로부터 관측된 점P의 각도ø를 측정한다. 이에 대해서는, 도 5의 관계는 상기 설명한 Y좌표값에 따라 변화하는 특성을 갖는 것으로 가정하고, 또한 수평 방향의 광원으로부터의 각도ø와 광강도비 사이의 관계가 Y좌표마다 예비 측정에 의해 준비된 것으로 가정한다. 또한, 카메라로부터 관측되는 점P에 대한 각도θ는 화상의 위치(즉, 점P의 좌표값)와 카메라 매개변수(초점거리, 렌즈계의 광학 중심 위치)에 의해 결정된다. 따라서, 삼각 측량의 원리에 의해 카메라의 광학 중심 위치와 광원 위치 사이의 거리(베이스 길이) 및 두 각도로부터 거리를 계산한다.
카메라의 광학 중심을 원점으로 하고, 카메라의 광축 방향을 Z축으로 설정하고, 수평 방향을 X축으로 설정하고, 수직 방향을 Y축으로 설정하고, 광원으로부터 본 주목점의 방향과 X축에 의해 이루어진 각을 ø로하고, 카메라로부터 본 주목점의 방향과 X축에 의해 이루어진 각을 θ라하고, 광원의 위치를 (0, -D), 즉 베이스 길이를 D로 가정하면, 주목점P의 깊이값Z는,
Z=Dtanθtanø/(tanθ-tanø)
의 식에 의해 계산된다.
상기 설명한 본 실시예에 의하면, 거리는 광강도를 이용하는 레인지파인더에 의해 거리를 측정할 때에 광원이나 광학계에 의해 생성되는 광강도의 변화를 보정하여 측정함으로써, 전자적 동작에 의해 모든 것을 실현할 수 있는 고도의 정밀도를 갖는 안정된 레인지파인더를 실현할 수 있다.
이에 대해서는, 본 실시예에 의한 레인지파인더를 갖는 적외선 카메라의 전면에, 하프미러나 다이크로익 미러(dichroic mirror)와 컬러 카메라를 배치함으로써, 거리 화상뿐아니라 동일 시점을 갖는 컬러 화상을 얻을 수 있고, 이 기술은 본 발명에 포함되어 있다.
이에 대해서는, 본 발명에 의한 거리 계산부에서는, 거리Z만을 계산하여 거리 화상으로서 계산 결과를 출력하는 경우에 대해 설명하였으나, 도 6에 도시된 각도ω를 사용하는 공식(1),(2)로부터 모든 삼차원 좌표값 X, Y, Z을 계산하여 삼차원 좌표 데이터를 출력할 수 있고, 이 기술은 본 발명에 포함되어 있다.
X=Z/tanθ
Y=Z/tanω …(2)
이에 대해서, 본 실시예에서는, 광원(2a),(2b)이 동시에 발광하고, 도 4의 점선에 의해 나타난 바와 같이 중심의 밝기가 밝고 주변부가 어두운 통상의 섬광 램프를 사용하면, 통상의 2차원 화상을 촬상할 수 있다.
또한, 본 실시예에서는, 광원(2)의 전면에 적외선 통과필터를 삽입하고, 적외선 파장 영역에서 감도를 갖는 필터를 카메라(1)에 사용하면, 다른 카메라에 의한 촬상 화상이나 사용자를 방해하는 섬광의 발광을 방지할 수 있다. 또한, 화상이 적외선 카메라의 축방향과 일치하여 하프미러, 다이크로익 미러 등을 사용하는 통상의 컬러 카메라에 의해 촬상되면, 상기 화상에 대응하는 깊이 화상과 텍스쳐 화상을 동시에 촬상할 수 있다.
또한, 본 실시예에서는, 섬광이 수백 마이크로초 동안에 발광하기 때문에, 카메라(1)를 이와 같은 주기 동안에만 셔터 동작에 의해 노광되도록 설정하면, 거리 측정에 영향을 주는 배경광을 억제할 수 있고, 밝기가 어느 정도 되는 장소에서도 거리 화상을 촬상할 수 있다.
또한, 본 실시예에서는, 두 종류의 광패턴을 피사체에 조사하여 각각의 경우에 촬상 화상을 사용하여 각 화소마다 광강도비를 계산하였다. 또한, 광패턴이 방출되지 않을 때에도 화상을 촬상할 수 있으며 계산을 위해 모두 3종류의 화상(두종류의 광패턴과 한종류의 무광패턴)을 얻는 것이 가능하다. 이 경우에, 각 화소의 광강도비를 계산할 때, 광패턴을 조사하는 동안 각 광도값에서 임의의 광패턴이 존재하지 않을 때의 강도를 감산하여 얻은 차이값을 계산한다. 다음에, 이들의 차이값의 비를 계산하여 광강도비로 한다. 따라서, 밝은 장소에서 촬상을 하는 경우 후광에 의거한 거리 계산 오차를 억제할 수 있다.
(제 2실시예)
도 7은 본 발명의 제 2실시예에 의한 레인지파인더 장치를 도시하는 블록도이다. 도 7에서, (1a)는 적외선광에 감도를 갖는 카메라이고; (2a),(2b)는 광원이고; (3a),(3b)는 적외선 투과 필터이고; (4a),(4b)는 수평 방향으로 투과율이 변화하는 ND필터이고, (5)는 광원 제어부이고; (6)은 거리 계산부이다. 상기 설명한 구성의 동작에 대해 이하 설명한다.
광원 제어부(5)는 적외선 카메라(1a)의 수직 동기 신호에 동기하여 각 필드 주기마다 광원(2a),(2b)가 발광하도록 한다. 광원(2a),(2b)으로서, 섬광을 내고 점광원으로 간주할 수 있는 소형의 발광부를 갖는 크세논램프 등의 광원이 바람직하다. 또한, 광원(2a),(2b)은 수직 방향으로 배치한다.
각 광원의 전면에, 적외선 투과 필터(3a),(3b)와 ND필터(4a),(4b)를 배치한다. ND필터(4a),(4b)의 투과율은 수평 방향으로 변화한다. 도 2는 수평 방향의 광원으로부터의 각도와 ND필터(4a),(4b)의 투과율 사이의 관계를 도시한다.
이들의 ND필터 때문에, 두 개의 광원으로부터 피사체공간에 조사되는 광은 광원으로부터 관측할 때에 한 쪽은 우측이 밝게 되고 다른 쪽은 좌측이 밝게 된다. 그 결과, 상기 설명한 우측 또는 좌측이 밝은 광을 각 필드마다 피사체에 교대로 투사한다.
도 5는 상기 2개의 투사광의 광강도비와 광원으로부터 수평 방향에 대한 각도 사이의 관계를 표시한다. 광강도비를 이용하는 거리 계산 방법에 대해 이하 설명한다.
도 7에서 점P을 주목점으로 설정할 때, 광원으로부터 관측된 점P의 각도는 도 5의 관계를 사용하여 카메라(1a)에 의해 촬상된 화상의 점P에 관한 필드간의 휘도비로부터 측정한다. 또한, 카메라로부터 관측되는 점P에 대한 각도는 화상이 있는 위치(즉, 점P의 화소좌표값)와 카메라 매개변수(초점 길이, 렌즈계의 광학 중심 위치)에 의해 결정된다. 따라서, 광원 위치가 카메라의 광학 중심 위치 사이의 거리(베이스 길이)와 두 각으로부터 삼각 측량의 원리에 따라서 거리를 계산한다.
카메라의 광학 중심을 원점으로 가정하고, 카메라의 광축 방향을 Z축으로 설정하고, 수평 방향을 X축으로 설정하고, 수직 방향을 Y축으로 설정하고, 광원으로부터 본 주목점의 방향과 X축에 의해 이루어진 각도를 ø라 하고, 카메라에 의해 관측되는 주목점의 방향과 X축에 의해 이루어진 각도를 θ로 하고, 광원 위치를 (0, -D), 즉 베이스 길이를 D로 가정하면, 주목점P의 깊이 Z는
Z=Dtanθtanø/(tanθ-tanø)
의 식에 의해 계산된다.
거리 계산부(6)은 카메라(1a)의 영상 신호로부터 거리 화상을 계산한다. 계산 방법은 제 1실시예와 동일하여도 되지만, 이하 설명하는 바와 같이 더욱 정밀한 측정을 수행할 수 있는 다른 방법이 있다. 도 8은 거리 계산부(6)를 도시하는 블록도이다. 도 8에서, (11a),(11b)는 필드 메모리이고; (12a),(12b)는 광강도 보정 수단이고, (13)은 광강도비 계산 수단이고; (14)는 거리 변환 수단이다. 각 구성 요소의 동작에 대해 이하 설명한다.
카메라(1a)에 의해 촬상된 화상은 각 필드의 필드 메모리(11a),(1b)에 기록된다.
광강도 보정 수단(12a),(12b)은 필드 메모리에 기록된 광강도를 보정하기 위한 수단이다. 이와 같은 보정하는 이유에 대하여 이하 설명한다. 도 9는 점광원으로부터 고정된 길이Z를 갖는 화면상에 ND필터가 없는 상태에서 광을 조사하여 표면에서 반사되는 광을 촬상할 때, 촬상된 광강도와 화소 좌표값 사이의 관계를 도시한다. 설명을 간단하게 하기 위하여, 도 9는 수평 방향으로만 일차원적으로 도시하고 있으나, 마찬가지의 광강도가 또한 수직 방향으로 곡선 분포로 표시된다.
이 분포의 요인으로서, 카메라의 렌즈계에 의거하여 주변 감광과, 피사체면에 대한 광선의 입사각의 변화에 기인한 반사광의 강도 변화와, 이와 같은 요인중에서 광원으로부터의 각도에 기인한 광강도의 변화 등을 생각할 수 있다. 이들의 요인에 의해 초래되는 광강도의 변화는 광강도비의 관찰시에 오차가 되기 때문에, 즉 거리를 계측하는 동안에 오차가 되므로, 거리 계측의 정밀도를 향상시키기 위해서는 광강도를 변화시킬 필요가 있다. 이들 오차의 존재에 의해 도 5의 특성 곡선에서 단조 증가 곡선으로 되지 않는 부분이 발생될 수도 있다. 이와 같은 부분에서, 광강도와 상기 각도는 그사이에 1:1의 대응관계를 가지지 않고, 그 결과, 측정 결과는 악화된다. 또한, 이들의 오차가 없는 경우, Y축방향의 광강도(θ1)는 일정하게 되고, 또한 도 5의 하나의 변환 테이블을 필요로하는 이점이 있다. 제 1실시예에서는 Y좌표값의 개수만큼 변환 테이블이 필요하다.
광강도 변환 수단(12a),(12b)에서 계측 오차를 저감시키기 위해서는, ND필터가 없는 상태에서 기준 거리 만큼 공간적으로 분리된 화면위에 있는 화상의 광강도에 대한 2차원곡선 분포를 미리 측정하고, 광강도와 투사광의 각도 사이의 관계(도 5에 대응)를 얻을 때에 또한 피사체의 정확한 거리를 측정할 때에, 필드 메모리의 광강도는 미리 측정한 광강도의 곡선 분포에 따라서 보정되고 변환된다. 광강도의 분포 곡선을 고정값으로 보정하기 위한 계수(즉, 피크값 또는 임의의 값에 대응하여 각화소에서 촬상되는 광강도비)는 2차원의 LUT(look-up table)로서 유지되고, 필드 메모리에 있는 데이터에 각 화소마다의 보정 계수를 곱함으로써 보정과 변환을 행한다.
기준 거리는, 피사체를 배치하는 거리를 미리 아는 경우, 거리에 근접하는 값으로 설정되고, 이에 의해 거리를 측정할 때 정밀도를 향상시킬 수 있다.
상기 설명한 바와 같은 본 발명의 실시예에 의하면, 광강도를 사용하여 레인지파인더를 통해 거리를 측정할 때 광원이나 광학계에 의해 초래되는 광강도의 임의의 오차를 보정함으로써 거리를 측정하고, 이에 의해 전자적 동작에 의해 모든 것을 실현할 수 있는 고도의 정밀도를 갖는 안정된 레인지파인더 장치를 실현하는 것이 가능하다.
이 점에 대해서는, 본 실시예에 의한 레인지파인더를 갖는 적외선 카메라의 전면에, 하프미러와 다이크로익 미러 및 컬러 카메라를 배치함으로써 거리 화상 뿐 아니라 동일 시점을 갖는 컬러 화상을 얻을 수 있다.
이 점에 대해서는, 본 실시예에 의한 거리 계산부에서, 거리Z만을 계산하고 계산 결과가 거리 화상으로 출력되는 예에 대해 설명하였지만, 도 6에 도시되는 각도ω를 사용하여
Z=Dtanθtanø/(tanθ-tanø)
X=Z/tanθ
Y=Z/tanω
의 식으로부터 모든 3차원 좌표값 X, Y 및 Z을 계산하는 것이 가능하며 삼차원 좌표 데이터를 출력하는 것도 가능하다.
이 점에 대해서는, 본 실시예에 의한 거리 계산부에서 광강도를 보정할 때에, 피사체가 기준 거리로부터 공간을 두고 떨어진 경우, 촬상되는 화소의 위치는 이동하고, 즉 시차가 발생하고, 거리 측정의 정밀도가 저하된다. 이와 같은 경우에는, 기준 거리에 대한 복수의 광강도 보정량을 미리 준비하고, 우선, 특정한 기준 거리에 대해 보정하여 거리를 계산한 다음에 이전의 경우에 근접한 기준 거리에 대한 보정량을 사용하여 거리를 다시 계산함으로써 측정의 정밀도를 향상시킬 수 있다.
이 점에 대해서는, 본 발명에서는, 광원(2a),(2b)을 동시에 발광시키고, 도 4의 점선으로 표시된 바와 같이 중심은 밝고 주변부는 어두운 통상의 플래시 램프를 사용하면, 통상의 2차원 화상을 촬상할 수 있다.
또한, 본 실시예에서는, 하프미러, 다이크로익 미러 등을 사용하여, 적외선 필터와 동축으로 하고 통상의 컬러 카메라에 의해 화상이 촬상되면 화상에 대응하는 깊이 화상 및 텍스쳐 화상을 동시에 촬상할 수 있다.
또한, 본 실시예에서는, 섬광은 수백 마이크로초 동안 발광하므로, 카메라가 이 시간 주기 동안에만 셔터의 동작에 의해 노출되도록 설정하면, 배경광이 거리 측정에 영향을 미치는 것을 어느 정도 억제하여 어느정도 밝은 장소에서도 거리 화상을 촬상할 수 있다.
또한, 본 실시예에서는, 두 종류의 광패턴을 피사체에 조사하고, 각각의 경우에 촬상 화상을 사용하여 각 화소에 대한 광강도비를 계산한다. 그러나, 광패턴이 조사되지 않을 때 화상을 촬상하고 총 세 종류(두 종류의 광패턴과 한 종류의 무광패턴)의 화상을 얻을 수 있다.
이 경우에는, 각 화소에 대해 광강도비를 계산할 때, 광패턴을 조사하는 동안의 각 광강도값으로부터 광패턴이 없는 광강도를 감시하여 얻는 차이값을 계산한다. 다음에, 이들의 차이값의 비를 계산하여 광강도비로 한다. 따라서, 밝은 장소에서 화상을 촬상하는 경우에, 배경광에 의거한 어떤 거리 계산 오차도 억제시킬 수 있다.
또한, 본 실시예예서 피사체 위에 투사되는 광패턴에 대해서는, 수평 방향으로 투과율이 변하는 ND필터(4a),(4b)와 광원(2a),(2b)대신에 광투과 타입의 액정 표시 소자(통상의 액정 화상 투사기로 사용되는 소자) 및 단일의 광원을 사용하여도 된다. ND필터와 두 광원을 광투과형 액정 표시 소자의 광투과 패턴으로 전환하여 광원을 2회 발광시킴으로써, 또는 광원을 발광한 상태에서 광투과형 액정 표시 소자의 두 형태의 광패턴을 전환시킴으로써, 본 실시예의 경우에서와 같이 시분할적으로 피사체에 두 종류의 광패턴을 조사할 수 있다.
(제 3실시예)
도 10(a)는 본 발명에 의한 레인지파인더의 제 3실시예를 개략적으로 도시하는 사시도이다. 이 도면을 참조하면서 본 실시예의 구성에 대해 이하 설명한다.
도 10(a)에 도시된 바와 같이, 반도체 레이저(201)는 파장λ를 갖는 광을 발광하기 위한 광원 수단이다. 제 1광파이버(202)는 반도체 레이저(201)로부터 발광된 광을 광분배기(203)에 유도하는 수단이다. 또한, 콜리메이터 렌즈(204)는 제 1광파이버(203)와 반도체 레이저(201)사이에 배치되어 있다. 광분배기(203)는 제 1광파이버를 통해 유도되는 광을 두 방향으로 분기하는 광분배 수단이다. 또한, 광분배기(203)는 셔터 기구를 갖고 있으며, 분할된 광을 시분할적으로 제 2광파이버(a),(b)에 전송하는 수단이다. 제 2광파이버 a(205a)와 제 2광파이버 b(205b)는 한 쪽 단부가 광분배기(203)에 각각 접속되고 다른 쪽 단부의 개구부로부터 분할된 광을 피사체(예를 들면, 위의 내벽)에 조사하기 위한 광파이버다. 카메라부(206)는 피사체로부터의 반사광에 의해 수광 광파이버속(207)을 통해서 수광된 피사체의 화상 데이터를 얻기 위한 촬상 수단이다. 이에 대해서는, 수광 광파이버속(207)의 선단부근에, 렌즈가 배치되어 있다. CCD(209)는 수광 광파이버속으로부터 광을 수광하기 위해 카메라부(206)에 장착된 촬상 소자이다. 제 2광파이버(206)의 개구부(208a)로부터 조사되는 광은 본 실시예에서 설명하는 도 4에 도시된 바와 같은 광강도 분포를 도시한다. 제 2광파이버(205b)의 개구부(208b)로부터 조사되는 광도 마찬가지이다. 이들의 광은 광파이버의 개구부로부터 방사되는 광은 개구각에 의거하여 확산되기 때문에 수평 방향의 위치에 따라서 다른 광강도 분포를 갖는다. 따라서, 개구각을 조정함으로써, 광강도 분포의 형상을 변경할 수 있다. 이 점에 대해서는, 직경 방향으로 광파이버의 반사 계수를 소정값으로 설정함으로써 개구각을 어느 정도 조정할 수 있다.
이 점에 대해서는, 본 실시예에 의한 레인지파인더는 본 실시예에서 설명한 거리 계산부(6)와 동일한 기능을 갖고 또한 카메라부(206)로부터 화상 데이터에 의거하여 피사체까지의 거리를 계산하는 거리 계산 수단(도시되지 않음)을 갖고 있다. 또한, 제 1광파이버(202)와 제 2광파이버a((205a), 제 2광파이버b(205b) 모두에 대해서 또는 이들 중 어느 하나에 대해서 광파이버속(optical fiber bundle)을 사용하여도 됨은 물론이다.
상기 설명한 구성에 의해서, 본 실시예의 동작에 대하여 도 10(a)를 참조하여 설명한다.
본 실시예에 의한 레인지파인더는 위 카메라 등의 내시경으로 사용할 수 있다.
보다 상세하게는, 제 2광파이버a(205a), 제 2광파이버b(205b)의 선단과 수광 광파이버(207)의 선단을 환자의 위에 삽입한다.
제 2광파이버a, b의 개구부로부터, 도 4에 도시한 바와 같은 광강도 분포 특성을 갖는 광이 제 1실시예의 경우에서와 같이 시분할적으로 조사된다. 수광 광파이버(207)는 이들의 광에 의해 반사된 광을 수신한다. 또한, 카메라부(206)는 이들의 반사된 광으로부터 얻은 위의 내벽에 대한 화상 데이터를 거리 계산부에 전송한다. 거리 계산부는, 제 1실시예의 경우에서와 같이, 위의 내벽에 대한 3차원의 거리 데이터를 계산하여 출력한다. 출력된 데이터는 모니터(도시되지 않음)에 전송되어 3차원으로 표시된다. 따라서, 의사는 모니터를 보면서, 제 2광파이버의 선단을 이동시킴으로써 3차원으로 표시되는 환부의 화상을 볼 수 있다. 따라서, 의사는 종래보다 더욱 정밀하게 진찰할 수 있다.
이 점에 대해서는, 상기 설명한 실시예에서는, 광원으로서 단일의 반도체 레이저로 구성된 레인지파인더에 대해 설명하였으나, 본 발명은 이에 제한되지 않고, 예를 들면, 도 10(b)에 도시된 바와 같은 두 광원부로 구성된 레인지파인더를 사용하여도 된다. 보다 상세하게는, 이 경우에, 피사체측에 발광된 광을 각각 유도하기 위한 광파이버(205a),(205b)에 광원부로서 반도체 레이저(201a),(201b)를 설치하여 피사체를 조사한다. 또한, 콜리메이터 렌즈(204a),(204b)를 각각의 광파이버(205a),(205b)와 각각의 반도체 레이저(201a),(201b)사이에 배치한다. 이와 같이 구성함으로써 상기 설명한 것과 동일한 효과를 발휘한다.
또한, 상기 설명한 실시예에서는, 제 1광파이버(202)와 두 개의 제 2광파이버(205a),(205b)사이에 광분배기(203)을 배치하고 있는 구조에 대해 설명하고 있으나, 본 발명은 이에 제한되지 않고, 예를 들면, 광분배기(203)와 제 2광파이버(205a),(205b)대신에, 제 1광파이버로부터 유도된 광을 광파이버의 선단부에서 2방향으로 분할하여 피사체에 조사하기 위한 광분배 수단(도시되지 않음)을 배치하도록 구성하여도 된다. 이 경우에는, 제 2광파이버를 생략하여도 상기 설명한 바와 같은 효과를 발휘한다.
또한, 상기 설명한 실시예에서는, 도 11(a)에 도시된 바와 같이 광파이버(205a),(205b)의 전면에 아무 것도 설치하지 않는 구성에 대해 설명하였으나, 본 발명은 이에 제한되지 않고, 각 광파이버(208a),(208b)의 전면에 콜리메이터 렌즈(301)(도 11(b)를 참조)를 배치하거나, 또는 각 개구부(208a),(208b)의 전면에 원주형 렌즈(302) 또는 로드 렌즈(도 11(c)참조)를 배치하도록 구성하여도 된다. 이에 의해 위치적으로 일정하게 되어 있는 개구부로부터 조사되는 광의 강도를 보다 효과적으로 변하도록 할 수 있다. 이 점에 대해서는, 각 개구부(208a),(208b)의 전면으로부터 위치적으로 상이하지 않은 광강도를 갖는 광을 출력할 수 있고, 그 대신에, 개구부(208a),(208b)의 전면에, 광투과율이 위치적으로 다른, 투과율 변환 필터1(303a)와 필터2(303b)를 배치하는 것이 가능하다.
또한, 도 12(a),(b)를 참조하면서, 도 11(d)에 도시되는 필터의 특성에 대해서도 설명한다.
예를 들면, 도 12(a)에 도시된 투과율 변환 필터1(303a)를 통과한 광의 강도 분포를 도 12(b)의 참조 번호(401a)에 의해 표시된 것과 같은 광강도 분포가 되도록 설정한다. 이에 대해서, 투과율 변환 필터2(303b)를 통과한 광의 강도 분포를 도 12(b)의 참조 번호(401b)에 의해 표시된 것과 같은 광강도 분포가 되도록 설정한다. 도 12(b)는 도 4에 도시된 범위α에 대한 광강도 분포를 표시하는 도면이다. 본 발명은 이와 같은 투과율 변환 필터가 사용되는 경우에도 실행될 수 있다.
또한, 상기 설명한 실시예에서는, 피사체가 시분할적으로 광에 조사되도록 셔터 기구를 갖춘 광분배기의 경우에 대해 설명하였으나, 본 발명은 여기에 제한되지 않으며, 예를 들면, 광원으로부터의 광은 복수의 주파수를 포함하고, 또한 광분배기는 필터를 구비함으로써, 상이한 파장을 갖는 광을 개구부로부터 조사한다.
따라서, 이들의 두 종류의 파장을 분별하여 수광할 수 있는 수광 소자 및 필터를 카메라에 설치함으로써, 동시에 두 종류의 파장을 갖는 광을 피사체에 조사할 수 있다. 이에 의해 측정 시간을 단축할 수 있다.
도 10(b)에 도시된 구성에 있어서도, 반도체 레이저(201a),(201b)의 파장을 서로 다르게 하고, 이들의 두 종류의 파장을 구분하여 수광할 수 있는 필터 및 수광 소자를 카메라에 설치하면, 상기 설명한 바와 같은 방식으로 측정 시간을 단축시킬 수 있다.
또한, 상기 설명한 실시예에서는, 반도체 레이저를 광원으로 사용하였으나, 본 발명은 이에 제한되지 않고, 예를 들면, LEP, 램프 등을 사용하여도 된다.
다음에, 본 발명에 의한 상기 설명한 레인지파인더 장치를 한층 더 컴팩트하고 또한 단순한 구조로 하는 발명을 실행하여 얻는 본 발명에 의한 카메라에 대하여 설명한다.
보다 상세하게는, 상기 설명한 레인지파인더 장치에서는, 도 2에 도시된 바와 같이 광수동 반사기를 광원(2a),(2b)에 대해서 서로 벗어난 관계로 배치하였으므로, 광방사관의 전면에 수평 방향에 따라 광투과율이 변화하는 광투과 필터를 장착하여야 하고, 따라서 구조가 복잡해 진다고 말할 수 있다.
또한, 카메라 렌즈와 광원을 서로 수십㎝이상 이격시키지 않으면, 삼각 측정법을 사용하기 때문에 측정 정밀도는 불가능하고, 카메라 하우징내에 렌즈와 광원을 수납하려고 시도하는 경우 카메라는 상당히 크게 된다.
또한, 피사체까지의 거리를 알 수 없는 경우에는, 간단하게 계산하여 종래의 공지된 카메라에 의해 촬상된 피사체의 크기 및 면적을 측정할 수 없다는 단점이 있었다. 또한, 일단 촬상된 컬러 화상으로부터 피사체의 크기를 아는 것이 불가능하였다.
또한, 종래의 공지된 카메라에 의해 촬상된 화상으로부터 피사체를 추출하려고 할 때, 단색 배경을 갖는 환경을 미리 준비하여야 하고, 큰 규모의 준비가 필요하였다.
도면을 참조하면서, 이와 같은 불편함을 해결할 수 있는 본 발명의 실시예에 의한 형상 계측용 카메라 및 피사체 추출용 카메라에 대해 이하 설명한다.
(제 4실시예)
도 13(a) 및 도 13(b)는 본 발명의 제 4실시예에 의한 형상 계측용 카메라 및 피사체 추출용 카메라를 도시하는 블록도이다. 또한, 도 20은 상기 카메라를 도시하는 블록도이다.
도 13에서, (501),(502)는 카메라 하우징이고, (503)은 찰영 렌즈이고; (504)는 기록 매체이고; (505),(506)은 제 1 및 제 2스트로브로서 각각은 광원부를 형성하고; (507)은 파인더이다. 도 20에서는, (532)는 표시부이고; (533)은 촬상부이고; (534)는 광원 제어부이고; (535)는 거리 계산부이고; (536)은 컬러 화상 계산부이고; (538)은 매체 기록/재생부이고; (550)은 화상 메모리이다.
이 형상 계측용 카메라는 도 13(a)에 도시된 바와 같이 카메라부를 포함하는 하우징(501)과 발광부를 포함하는 하우징(502)이 각각 상이한 두께를 갖고 중첩하는 방식으로 서로 맞출 수 있는 구조로 되어 있고, 또한 사용자에 의해 하우징(501),(502)를 슬라이딩함으로써 도 13(a)의 상태 또는 도 13(b)의 상태가 선택될 수 있는 구조로 되어 있고, 휴대시에는, 소형의 상태가 도 13(a)의 상태와 같이 유지되는 반면에, 촬상시에는, 도 13(b)에 도시된 상태와 같이 하우징을 연장하여 사용한다. 이에 의해 사용시에는 광원부에 있는 스트로브(505),(506)와 렌즈(503)의 중심사이의 간격D를 크게 설정할 수 있다. 도 20(a)는 화상 메모리(550)를 사용하지 않는 단순한 타입을 도시하고, 도 20(b)는 고속으로 촬영하고 표시할 수 있는 화상 메모리를 갖춘 타입을 도시한다.
광원부의 스트로브(505),(506)는, 예를 들면, 도 2에 도시된 바와 같이 구성되고 중심 위치가 이동되는 구멍을 갖는 세이딩 플레이트(shading plate:차광판)(528)와 스트로브 발광관(530)으로 구성되어 있다. 도 15의 평면도에 도시된 바와 같이 발광관(530)의 선분으로부터 발광된 광은 세이딩 플레이트(528)에 의해 위치에 따라 단속된 광의 경로가 변경되면서 발광한다. 이때에, 세이딩 플레이트(528)의 구멍의 위치가 스트로브 발광관(530)으로부터 어긋남으로써, 강도가 직선ℓ상의 점A에서 점 B방향으로 점차적으로 증가되는 광이 발생된다. 이에 의해 도 16에서 도시된 바와 같이 2개의 스트로브 발광관으로부터 서로 반대 방향으로 광강도가 변화하는 광패턴이 발생한다. 다음에, 이와 같은 광을 사용하여 깊이를 계산하는 방법에 대하여 설명한다. 이점에 대해서는, 그 내용이 이미 설명한 깊이에 대한 계산 방법과 거의 같다.
이와 같이 얻은 광패턴은 광강도가 도 17에 도시된 바와 같이 변화하는 패턴이다. 도 18은 수평의 X방향으로 광강도의 이와 같은 변동을 1차적으로 도시한다. 이 광패턴의 α부분에서는, 두개의 광원으로부터 피사체 공간에 조사되는 광을 각 광원으로부터 관찰할 때에 한 쪽은 우측면이 밝고 다른 쪽은 좌측면이 밝게된다. 그러나, 이 패턴도 또한 높이 방향(Y방향)으로도 변화한다.
도 19는 도 18의 α부분에서 상기 설명한 두 개의 투사광에 의한 피사체 조명의 수평 방향과 광원 사이에 이루는 각도와 광강도비 사이의 관계를 도시한다. α부분에서는, 수평 방향과 광원 사이에 이루는 각도ø와 광강도비 사이의 관계는 1:1로 대응한다. 거리를 측정하기 위해서는, 미리 수직으로 설정되어 있는 평면위에 두 타입의 광패턴을 교대로 투사하고, 도 17에 도시한 바와 같이 반사된 광을 카메라(501)로 촬상하여 얻은 결과로부터 각Y좌표마다 수평 방향으로 광원으로부터의 광강도비와 위치에 대한 데이터를 미리 얻을 필요가 있다.
또한, 광원과 카메라(501)의 렌즈 중심사이의 선분이 촬상 표면의 X축에 대해 수평이 되도록 광원을 위치시키면, 각 Y좌표에 대해 결정된 광강도비와 광원으로부터의 수평 방향의 위치 사이의 관계에 대한 데이터를 사용하여 거리를 정밀하게 계산할 수 있다. 거리는 도 20(a)의 거리 계산부에 의해 계산된다. 광강도비를 사용하는 거리 계산 방법에 대해 이하 설명한다.
도 20(a)의 점P가 주목점으로 설정되는 경우에는, 사용자의 촬상 의도에 이거하여 화상 촬상부(533)에서 촬상된 화상 위치점P에 대해서 광원의 각각의 스트로브(505),(506)의 각각으로부터의 두 종류의 광패턴을 시분할적으로 광제어부(534)에 의해 투사될 때, 광원으로부터 관측되는 점P의 Y좌표값에 대응하는 도 19의 관계 및 촬상부(533)의 출력인 화상 데이터로부터 얻은 휘도비를 사용하여 점P의 각도ø를 계측할 수 있다.
이 점에 대해서, 도 19의 관계를 상기 설명한 바와 같은 Y좌표값에 따라서 다른 특성을 갖고, 또한 광원과 수평 방향 사이에 이루는 각도ø와 광강도비 사이의 관계를 각각의 좌표마다 미리 측정하여 준비되는 것으로 가정한다. 또한, 카메라로부터 관측되는 점P에 대한 각도θ는 화상의 위치(즉, 점P의 화소좌표값)와 카메라 매개변수(초점거리, 렌즈계의 광학 중심 위치)로부터 결정된다. 따라서, 삼각 측량의 원리에 따라서 광원 위치와 카메라의 광학 중심 위치 사이의 거리(베이스거리)와 상기 설명한 두각으로부터 거리를 계산한다.
카메라의 광학 중심을 원점으로 하고, 카메라의 광축 방향을 Z축으로 설정하고, 수평 방향을 X축으로 설정하고, 수직 방향을 Y축으로 설정하고, 광원으로부터 관측되는 주목점방향과 X축에 의해 이루어진 각을 ø로하고, 카메라로부터 관축되는 주목점 방향과 X축에 의해 이루어진 각을 θ로하고 광원 위치를 (0, -D)로, 즉 베이스 길이를 D로 가정하면, 주목점P의 깊이Z는
Z=Dtanθtanø/(tanθ-tanø)
의 식에 의해 계산된다.
이 계산에서 D(렌즈와 광원 사이의 거리)의 값이 작을 때에는, 측정된 깊이의 정밀도는 저하된다. D값을, 예를 들면, 약 3m정도의 거리까지는 피사체에 대해 20㎝ 내지 30㎝로 설정하면, 깊이는 측정 거리의 ±1%의 오차 범위 내에서 측정된다. P값이 20㎝ 내지 30㎝보다 더 작아짐에 따라서, 측정오차는 더욱 증가한다. 또한 주목점P의 X, Y좌표는
X=Z/tanθ
Y=Z/tanω
의 식에 의해 부여된다.
또한, 컬러 화상 계산부(536)는, 상기 설명한 두 종류의 광패턴을 조사할 때의 촬상 데이터를 가산 평균화함으로써 얻은 화상을 계산하고, 이것을 컬러 화상으로 한다. 이들의 두 종류의 광패턴은, 도 18에 도시한 바와 같이 밝기가 상호보완적으로 변화하는 특성을 가지고, 광패턴을 가산 평균화함으로써 일정한 밝기를 갖는 스트로브로 촬영하여 얻는 컬러 화상과 동일한 컬러 화상을 얻을 수 있다.
이와 같이 얻은 컬러 화상과 깊이 화상을 표시부(532)에 표시하고, 매체 기록/재생부(538)를 통해서 기록 매체(504)에 기록한다. 물론, 일단 기록된 컬러 화상과 깊이 화상은 매체 기록/재생부에 의해 판독 출력되고 표시부(532)에 표시할 수 있다.
화상 촬상부(533)의 화상데이터를 일단 도 20(b)에 도시된 화상 메모리(550)에 축적하면, 화상을 연속적으로 입력될 수 있다. 또한, 일단 기록 매체(504)에 기록된 복수의 화상을 화상 메모리(550)에 판독 출력되어 고속으로 재생되어 표시된다.
상기 설명한 본 실시예에 의하면, 광강도 변환 패턴에 대해서 직선 형태의 스트로브 발광관과 구멍을 갖는 세이딩 플레이트만을 사용하여 간단한 구조의 복수의 광패턴을 생성하고, 안정된 구조를 갖는 형상 계측용 카메라를 실현하는 것이 가능하다.
또한, 휴대시에는 소형으로 하고 촬영시에는 본체를 연장함으로써 광원부에 있는 스트로브(505),(506)와 렌즈(503)사이의 간격D를 크게 취할 수 있고, 깊이 화상을 고정밀도로 측정할 수 있는 형상 계측용 카메라를 실현하는 것이 가능하다.
(제 5실시예)
도 28은 본 발명의 제 5실시예에 의한 형상 계측용 카메라와 피사체 추출용 카메라를 도시하는 블록도이다. 도 28에서, (501),(502)는 카메라 하우징이고; (505),(506)은 제 1및 제 2스트로브로서, 각각 광원부를 형성하고 (518)은 표시 패널이고, (519)는 터치패널이고; (532)는 표시부이고; (533)은 화상촬상부이고, (535)는 거리 계산부이고; (536)은 컬러 화상부이고; (538)은 매체/기록재생부이고; (537)은 제어부이다. 상기 설명한 구조를 갖는 형상 계측용 카메라와 피사체 추출용 카메라의 동작에 대해 이하 설명한다.
도 27은 형상 측정용 카메라의 이면을 도시한다. 촬상되는 컬러 화상과 깊이 화상을 표시하기 위해 카메라 이면의 같은 위치에 표시부(518)와 터치패널(519)이 적층되어 있고, 사용자가 손가락이나 막대 모양의 물체를 사용하여 화상의 주목 위치(좌표)를 지정할 수 있는 구조로 되어 있다.
도 28은 표시와 거리 계측을 도시하는 블록도이다. 촬상된 거리 화상과 컬러 화상을 제어부(537)에 입력하고, 좌표를 지정하는 사용자의 주목 위치를 제어부(537)에 또한 입력한다. 제어부(537)는 촬상된 컬러 화상을 표시 패널(518)위에 표시하고, 터치패널(519)에 의해 입력된 복수의 주목 지정 좌표와 깊이 화상으로부터 실제 거리를 계산하여 표시 패널(518)에 표시한다.
도 25는 주목 위치 지정의 모양을 도시한다. 우선, 사용자에 의해 촬상된 책상에 대한 컬러 화상을 표시부(518)에 표시하는 것으로 가정한다. 사용자는 손가락이나 막대 모양의 물체를 사용하여 지정점 A(523)와 지정점 B(524)를 지정한다.
이들의 지정점이 지정되었을때, 형상 계측카메라는 점 A와 점 B 사이의 선분AB의 거리 Lab즉,
를 계산한다.
얻어진 깊이 화상의 각 좌표 위치의 실제 좌표A(Xa, Ya, Za) 및 B(Xb, Yb, Zb)의 값을 사용하여 표시 패널(518)상의 다른 위치에 표시한다.
이 예에서는, AB의 길이는 25㎝로 표시되어 있다. 이와 같은 방식으로, 사용자는 이것이 깊이 방향의 길이라 하더라도 이에 접촉함이 없이, 측정되어야 하는 피사체의 두점 사이의 거리를 측정할 수 있다.
또한, 원형피사체 및 비직선형상의 피사체의 크기도 마찬가지 방식으로 측정할 수 있다. 도 26은 원형 테이블이 촬영되는 경우를 도시한다. 예를 들면, 촬영되어 표시 패널(518)상에 표시되는 컬러 화상을 관측하면서, 사용자는 손가락이나 막대 모양의 물체를 사용하여 터치패널상의 점들을 접촉함으로써 측정되는 원의 원주부의 적절한 위치에 세 점 A(523), B(524), C(526)을 지정한다.
다음에, 형상 계측용 카메라는, 이들의 시점에 대한 공간 좌표값 A(Xa, Ya, Za), B(Xb, Yb, Zb)및 C(Xc, Yc, Zc)로부터, 이 세 점을 통과하는 원의 방정식을 결정한다. 이 방정식을 결정하는 방법은 다양하지만, 예를 들면, 선분 AB와 선분 BC에 대한 수직이등분선을 결정하고 이들의 교차점이 원의 중심G(Xg, Yg, Zg)가 된다고 가정한다. 다음에, 선분GA, 선분GB, 선분GC의 깊이의 평균값이 원의 반경이 될 수 있다.
이와 같이 얻어진 반경은 도 26에서 50㎝로 표시되어, 사용자에게 알려준다. 이와 같이 함으로써, 원과 같은 복잡한 형상의 크기도 물체를 접촉하지 않고 측정할 수 있다. 게다가 정삼각형이나 타원같은 형상을 정의하기 위한 수학적 표현을 갖는 임의의 형상에 대해서는, 크기는 사용자가 복수의 점을 지정함으로써 물체를 접촉하지 않고서도 깊이 화상으로부터 측정할 수 있다. 또한, 이 경우에는, 사용자는 터치패널을 사용하여 주목점에 대한 좌표를 입력하지만, 표시 패널(518)위에 좌우측, 상하로 움직이는 십자가 모양의 커서를 표시하여 주목점에 대한 좌표를 입력하기 위해 푸쉬버튼으로 커서의 위치를 움직여서 지정하는 것도 가능하다.
피사체의 크기 계산 결과치를 매체 기록/재생부(538)에 의해 기록 매체(504)에 기록하면, 사용자가 측정 결과를 기억할 필요는 없고, 측정 결과는 기록 매체(504)로부터 인출되어 측정 결과를 판독하고 기록할 수 있는 매체 기록/재생부(538)와 동일한 기능을 갖는 장비(개인용 컴퓨터)에 의해 편리하게 사용될 수 있다. 물론, 측정 결과를 촬상된 컬러 화상에 중첩시켜서 화상으로서 보존할 수 있다.
상기 예에서는, 피사체의 길이를 측정하였지만, 이에 의거하여 면적이나 체적을 결정하기 위한 복수의 길이를 측정하는 것도 가능하다.
또한, 촬상 데이터의 표시와 이용의 다른 예를 설명한다
도 27에 도시된 바와 같이, 카메라의 이면에는, 촬상된 컬러 화상과 깊이 화상을 표시하기 위해 카메라 이면의 같은 위치에 표시부(518)와 터치패널(519)이 적층되어 있고, 사용자가 손가락이나 막대 모양의 물체를 사용하여 화상에서 주목위치(좌표)를 지정할 수 있도록 구성한다. 이것을 사용함으로써, 사용자가 주목한 피사체만을 추출하여 얻는 화상을 얻을 수 있는 피사체 추출용 카메라를 실현하는 것이 가능하다.
도 28은 표시/추출 동작과 상기 설명한 형상 계측용 카메라와 기본적으로 동일한 구조를 갖는 피사체 추출용 카메라를 도시하는 블록도이다. 촬상된 거리 화상과 컬러 화상을 제어부(537)에 입력하고, 사용자의 주목 위치 지정 좌표를 또한 제어부(537)에 입력한다.
제어부(537)는 촬영된 컬러 화상을 표시 패널(518)에 표시하고 터치패널(519)에 의해 입력된 복수의 주목 지정 좌표로부터, 사용자가 의도한, 피사체와 깊이 화상만을 추출하여 표시 패널(518)에 표시하고 기록 매체(504)에 기록한다.
도 29를 참조하면서 상기 동작을 설명한다.
우선 사용자가 피사체(520)를 추출하기를 원하는 것으로 가정한다. 사용자는 터치패널(519)에 있는 피사체(520)부분을 지정한다. 제어부는 깊이 화상으로부터 이 좌표를 포함하는 부분의 깊이를 얻고 사용자가 의도하는 피사체로부터 연속적으로 연결되는 깊이를 갖는 부분을 판정하여 그 부분만을 표시하고, 그 부분이외의 다른 부분을 특정한 컬러로 채우고 표시 패널(518)상에 표시한다.
이와 같이 연결 부분에 대한 판단에 대해서는, 표시된 좌표를 출발점으로서, 깊이가 연속적으로 변화하는 한 영역이 좌우, 상하로 연장되고 또한 깊이의 단속 부분이 존재하면, 단속부에서 연장되지 않는 화상 처리를 실행한다.
사용자가 추출하고자 하는 피사체와 카메라 사이의 거리보다 다소 긴 거리, 즉 사용자가 추출하고자 하는 거리의 범위를 터치패널이나 푸쉬버튼을 사용하여 지정한다. 제어부(537)는 값에 의해 지정된 거리보다 가까운 값을 갖는 컬러 화상의 부분, 즉 지정된 범위내의 부분에만 포함되어 있는 컬러 화상을 표시하며, 다른 부분은 특정한 컬러로 채워진다. 따라서 다른 부분은 표시 패널(518)에 표시되고 기록 매체(504)에 기록된다.
이와 같은 방식에 의해, 카메라는 사용자가 추출하고자 하는 피사체만을 판단하여, 표시하고 기록할 수 있다. 이 경우에는, 화상처리에 따라서, 도 30에 도시된 바와 같이 배경 부분임에도 불구하고 오동작에 의해 전경으로 잘못 판단되는 부분이 발생할 가능성이 있다.
이 경우에는, 사용자가 오동작이 실행된 것처럼 보이는 부분(도 29)을 터치패널에서 지정하여 그 부분이 배경이 되도록 표시 결과를 수정하면, 피사체에 대해 고화질의 추출된 컬러 화상을 얻는 것이 가능하다. 물론, 이 경우에, 사용자는 오동작에 의해 배경으로 잘못 판단된 부분을 지정하여 이 부분이 전경이 되도록 수정 동작을 실행하여도 된다.
상기 설명한 깊이 화상에 대한 정보를 사용하여 거리에 따라서 컬러 화상을 추출함으로써, 사용자가 주목하는 피사체만을 추출하여 보존함으로써 화상을 쉽게 얻는 것이 가능하다.
또한, 도 28에서는, 화상 메모리를 제어부(537)내에 배치하고 재생, 동작되는 화상을 일단 화상 메모리에 기억시킴으로써, 화상에 대한 접근 속도를 한층 더 신속하게 하거나 복수의 화상을 고속으로 전환하여 표시와 조작을 행할 수 있다.
상기 설명한 본 실시예에 의하면, 피사체를 접촉함이 없이 피사체의 실제 크기를 측정하는 것이 가능하다. 또한, 사용자가 주목하는 피사체만을 깊이 정보에 의거하여 쉽게 추출하여 보전할 수 있는 형상 계측용 카메라와 피사체 추출용 카메라를 실현하는 것이 가능하다. 제 4실시예에서는, 형상 계측용 카메라의 하우징을 도 21에 도시한 바와 같이 구성하는 경우에도 마찬가지의 효과를 얻을 수 있다. 보다 상세하게는, 촬상부(533)를 포함하는 카메라부(509) 및 광원을 형성하는 제 1스트로브(505)와 제 2스트로브(506)를 포함하는 스트로브(508)를 사용자가 도 21(a)에 도시된 바와 같이 자유롭게 접고 도 21(b)에 도시된 바와 같이 자유롭게 연장할 수 있도록 하는 힌지 형상의 구조를 가진 접속부(510)에 의해 접속한다.
휴대 시에는 카메라의 하우징은 도 21(a)에 도시된 바와 같이 소형이고, 촬영 시에는 사용을 위해 도 21(b)에 도시된 바와 같이 연장되면 렌즈(503)와 광원에 있는 제 1 및 제 2스트로브(5050(506) 사이의 거리 D는 한층 길어지도록 할 수 있다.
또한, 렌즈와 제 1, 제 2스트로브(505),(506)가 도 21(c)에 도시된 바와 같이 수직으로 배치되도록 구조를 배치할 수도 있다. 이 경우에는, 깊이 화상 계산시에, 각도ø와 각도θ가 상기한 바의 수평 방향으로 변화하는 동안, 변화는 수직 방향으로만 실행되고 기타에 대해서는 마찬가지의 계산에 의해 깊이 화상을 계산할 수 있다. 수직 방향의 광강도의 변화를 초래하기 위해서는, 광원을 도 21(d)에 도시된 바와 같이 수직으로 놓인 발광관으로 구성하면 된다.
이 경우에는, 도 21에서 도시된 바와 같은 카메라를 포함하는 하우징(501)과 발광부를 포함하는 하우징(502)은, 서로 다른 두께를 갖고 도 23에 도시된 바와 같이 수직 방향으로 중첩되게 서로 맞춰질 수 있도록 배열하면 마찬가지의 효과를 얻을 수 있다. 이 때에, 광원부는 도 23(c)에 도시된 바와 같이 구성한다.
제 4실시예에서는, 형상 계측용 카메라의 하우징이 도 22에 도시된 바와 같이 구성되어도, 마찬가지의 효과를 얻을 수 있다. 보다 상세하게는, 광원부의 제 1 및 제 2스트로브(505),(506)를 포함하는 하우징(517)은 소형으로 만들고 힌지 구조를 사용하여 카메라 하우징(501)에 접속한다. 사용시에는, 하우징(517)은 사용자에 의해 회전하여 광원부에 있는 제 1및 제 2스트로브(505),(506)를 노출시킴으로써, 통상적으로 광원부에 있는 제 1 및 제 2스트로브(505),(506)가 노출되지 않는 동안에는 하우징을 작게 하여 어떤 부주의한 접촉에 기인한 손상을 방지하는 동시에 촬상시에는 스트로브와 렌즈 사이의 거리 D를 크게 할 수 있다. 제 4실시예에서, 광원을 도 2에 도시된 바와 같이 구성하여, 광원의 앞에 단일의 발광관(529)과 액정 배리어(531)가 도 24(a)에 도시된 바와 같이 위치하도록 구조를 배열하는 경우에도, 동일한 광패턴 생성 기능을 갖는 것이 가능하다.
이 경우에는, 발광관(529)이 각각의 상태에서 순차적으로 한 번에 일단 발광하도록 도 24(b)에 도시된 바와 같이 발광관(529)의 좌측 및 도 24(c)에 도시된 바와 같이 우측에 투광부를 순차적으로 배치하면, 도 18에 도시된 바와 같은 동일한 광패턴을, 도 2에 도시된 바와 같이 2개의 발광관을 사용하지 않고 단일의 발광관을 2번씩 순차적으로 발광시킴으로써 생성할 수 있다.
도 2에 도시된 바와 같이 광이 수직으로 다소 벗어난 위치에서 발광되는 발광 패턴 대신에 동일한 위치에서 광이 발광되는 것처럼 소수의 발광관에 의해 광을 발광시킬 수 있으므로, 깊이의 임의의 측정 오차를 줄일 수 있다. 이것은 도 20에서, 광패턴의 발광점Q의 위치가 본 실시예의 수직 방향에서 벗어나 있기 때문인 반면에, 이 경우에는, 상기 발광점의 위치가 동일하고, 따라서 상이한 수직 위치를 갖는 직선을 사용하여 깊이 계산에서 보다 오차가 거의 발생하지 않는다.
또한, 이 경우에는, 액정 배리어(531)의 전체 표면을 도 24(d)에 도시된 바와 같이 투광 상태로 위치시킴으로써 통상의 2차원 화상을 촬상하는 카메라의 스트로브로서 사용할 수 있다.
또한, 제 4실시예에 의하면, 형상 계측용 카메라와 피사체 추출용 카메라의 본체에서, 깊이 화상과 컬러 화상을 계산하여 기록하여 기록 매체에 기록한다. 도 31에서 도시된 바와 같이, 카메라의 본체에서는, 광원의 제 1 및 제 2스트로브(505),(506)에 동기하여 촬상된 화상 데이터를 매체 기록/재생부(538)에 의해 기록 매체(504)에 기록하고, 화상 데이터를 개인 컴퓨터 등에 의해 구성되는 해석 장치(39)에 의해 판독 출력하고 거리 계산부(535)와 거리 컬러 화상 계산부(536)에 의해 소망의 해석 결과를 얻는다. 따라서, 표시부(532)를 사용하여 피사체를 추출하거나 형상을 측정한다.
화상 데이터를 기록 매체(504)에 의하지 않고 해석 장치(539)로 할 수도 있다. 예를 들면, 현재의 데이터 통신 수단을 사용하여 카메라 본체와 해석 장치를 접속한다. 유선 통신에 있어서는, 병렬 데이터 인터페이스, 직렬 데이터 인터페이스 및 전화 회로가 사용될 수 있다. 무선 통신에서는, 광통신, 적외선 통신, 휴대전화망 통신 및 전파 통신이 사용될 수 있다. 또한 해석 결과가 기록 매체에 기록될 수 있다.
이 경우에는, 촬상부(533)는 동화상 촬영 비디오 카메라이고, 기록 매체(504)가 테이프 등의 기록 매체인 경우, 컬러 동화상을 촬영하기 위한 카메라로서 일반적으로 사용한다. 사용자가 필요할 때에만 푸쉬버튼을 눌러서 섬광을 발광시키고, 그 부분의 비디오 신호(프레임이나 필드)만을 식별하도록 하는 인덱스신호를 기록 매체에 미리 기록해 두면, 해석 장치(539)는 인덱스 신호를 갖는 부분에 대한 화상만을 추출하고 그 부분에 대한 컬러 화상과 깊이 화상만을 계산하여 출력한다.
또한, 제 4실시예에서는, 카메라 하우징(501)은 처음부터 광원부가 설치되어 있으나, 일반적인 컬러 화상 촬상 시에는 소형이고 쉽게 휴대할 수 있는 형상이고 깊이 화상 촬영 시에만 사용하기 위해 광원부를 장착되도록 광원부만을 이동가능하게 하는 방식을 사용하는 것을 생각할 수 있다.
도 37(a)는 사진용 외부 스트로브 장치와 같은 구조를 갖고 도 2와 도 24에 도시된 바와 같은 광원을 탑재하는 외부 광원을 도시한다.
카메라와 접속하는 접속부(549)를 통해서, 도 37(b)에 도시된 바와 같은 카메라 하우징(501)에 외부 광원을 접속하여 사용한다. 도 38은 도 35와 도 36에 도시된 바와 같이 피사체의 임의의 그림자를 제거하기 위한 광원의 예를 도시한다.
도 38(a)에서는, 광원을 접속부(549)의 양측에 대칭적으로 배치한다. 도 38(b)에는 카메라에 접속된 광원의 모습을 도시한다. 또한, 도 37과 도 38에서는, 필름 카메라용 스트로브슈걸이와 같은 구조를 사용하여 카메라 본체를 광원에 접속하고, 도 39(a)에 도시된 바와 같은 카메라용 삼각 장착 나사(tripod mounting screw)를 사용한 장착 방법도 또한 생각할 수 있다.
이와 같은 경우에는, 카메라 하우징(501)의 바닥부의 나사는 도 39(b)에 도시된 바와 같이 장착하기 위해 사용한다. 탈착 가능한 외부 광원 장치로서 광원을 분리하면, 카메라는 깊이 화상의 촬영 시에만 크게 되고, 통상의 카메라로서 사용할 때는, 카메라는 편리하게 소형, 경량이 될 수 있다.
또한, 제 5실시예에서는, 사용자는 도 31의 구성의 터치패널을 사용하여 좌표를 지정할 수 있으며, 또한 다른 수단을 사용하여도 된다. 예를 들면, 퍼스널컴류터를 사용할 때, 마우스나 키보드 등의 입력 장치를 사용할 수 있다. 게다가, 트랙볼, 스위치, 볼륨 등도 또한 사용할 수 있다.
또한, 제 4, 제 5실시예에서는, 두 개의 광원부의 제 1 및 제 2스트로브(505),(506)을 도 13, 도 21, 도 22 및 도 23에 도시된 바와 같이 촬상부(533)의 한 쪽에 배치하고, 이 경우에는, 피사체(540)와 배경(541)을 도 32에 도시된 바와 같이 배치하여 촬상하면, 도 33에 도시된 바와 같이 광원으로부터 광이 피사체(540)에 의해 차단되어 얻고자 하는 화상에 그림자를 발생한다.
이 부분은 광원으로부터의 광이 도달하지 않는 영역이며, 거리 화상으로서 임의의 정보를 얻을 수 없는 영역이다. 이 경우에는, 광원의 제 1 및 제 2스트로브(505),(506)와 동일한 구조를 갖는 광원(543),(544)을 도 34에 도시된 바와 같이 렌즈를 중심으로서 렌즈에 대향하는 측에 배치함으로써, 이 그림자의 영역을 제거할 수 있다. 이 방법에 대하여 이하 설명한다.
광원의 제 1스트로브(505)와 제 2스트로브(506)를 사용할 때, 영역β는 거리 화상으로서의 임의의 정보를 얻을 수 없는 부분이며, 광원(543)과 광원(544)을 사용하는 경우에는 영역α는 거리 화상으로서의 임의의 정보를 얻을 수 없는 부분이다. 상기 계산과 같은 방법에 의해, 광원의 제 1 및 제 2스트로브(505),(506)를 사용할 때의 거리 화상A와 컬러 화상A 및 광원(543)과 광원(544)이 사용될 때 거리 화상B와 컬러 화상B를 미리 각각 독립적으로 계산한다. 이 때에, 각 화상에 있어서, 영역β와 영역α의 부분은 미리 얻어진 화상데이터로부터 낮은 휘도를 갖는 부분이 된다고 판정된다.
다음에, 거리 화상A와 거리 화상B를 합성하여 임의의 그림자 영역과 관계 없는 거리 화상을 새롭게 생성한다. 이것은 거리 화상A, B중, 어느 하나가 낮은 휘도를 갖는 상기 설명한 부분으로서 판정되지 않는 영역이 존재하면, 그 값을 채용함으로써, 또는 양 쪽 모두가 그림자 영역이 아니면, 두 화상 데이터의 평균값을 사용함으로써 실현될 수 있다.
동일한 방법이 컬러 화상에 적용될 수 있으며, 그 컬러 화상A와 컬러 화상B중 적어도 하나가 그림자 부분 이외의 다른 부분에 대한 데이터를 갖는 경우, 임의의 그림자 영역과 관계 없는 새로운 칼라 화상을 합성하는 것이 가능하다.
상기 구성의 경우에는 광원을 렌즈의 좌·우측 또는 상하 측에 배치할 필요가 있다. 이 경우에는, 카메라 본체(511)의 좌우측에 광원부를 포함하는 하우징(512), (513)이 반대 방향으로 슬라이드하여 도 35에 도시된 바와 같이 연장하도록 하우징을 구성하면, 사용하는 휴대 시에는 소형의 크기로 하여, 35(a)에 도시된 상태로 휴대할 수 있고 사용하는 동안에는 도 35(b)에 도시된 바와 같이 연장시켜서 베이스 길이D를 크게 취하여 깊이 화상의 계측 정밀도가 저하되는 것을 방지할 수 있다.
또한, 카메라 하우징과 광원이 도 36에 도시된 바와 같이 접혀서 세단계가 되도록 배치하여도 마찬가지의 효과를 얻을 수 있다. 휴대 중에는, 도 36(a)에 도시된 바와 같이 접음으로써, 소형의 크기로 하여 휴대할 수 있고 사용 시에는, 렌즈와 광원 사이의 거리, 즉, 베이스 길이 D는 도 36(b)에 도시된 바와 같이 연장하여 크게 할 수 있다.
또한, 도 21(c)에 도시된 바와 같이 렌즈와 광원을 수직적으로 배치하기 위해서는, 도 35의 하우징(512)과 하우징(513)을 하우징(511)의 수직 측 위에 배치하여도 되고, 도 36에서, 하우징(512),(513)을 하우징(511)의 수직 측 상에 배치하여도 된다.
상기 설명으로 명백한 바와 같이, 본 발명의 레인지파인더 장치에 의하면 저렴한 가격에 전자적 동작에 의해 모든 것을 실현할 수 있고 어떤 기계적 동작도 포함하지 않고 고도로 신뢰할 수 있는 레인지바인더장치를 제공하는 것이 가능하다.
또한, 본 발명의 레인지파인더 장치에 의하면, 광원으로부터의 광이 2차원 패턴을 갖는 경우에도 뛰어난 정밀도로 거리를 계측할 수 있다.
또한, 본 발명의 레인지파인더 장치에 의하면, 광원으로부터의 광이 피사체 상으로 직접 조사되지 않는 곳에서 피사체의 거리를 계측할 수 있다.
게다가, 상기 설명한 본 발명의 카메라에 의하면, 간단한 구조와 높은 실용성을 갖는 광원부를 실현할 수 있다. 또한, 휴대시에는, 소형이지만, 카메라 렌즈와 광원 사이의 거리를 사용시에는 수 십 센티미터 이상 확보할 수 있기 때문에, 깊이 화상 계측 정밀도가 저하되지 않는 효과를 갖는다. 또한, 피사체의 길이와 크기를 접촉하지 않고 간단히 측정할 수 있으며, 피사체의 크기를 일단 촬상된 컬러 화상으로부터 알 수 있다. 또한, 촬상된 화상으로부터 주목하는 피사체를 간단히 추출할 수 있는 형상 계측용 카메라와 피사체 추출용 카메라를 제공하는 것이 가능하다.

Claims (36)

  1. 광강도가 3차원 공간적으로 서로 다른 복사 패턴을 갖는 복수의 투사광을 광원으로부터 시분할적으로 피사체에 조사하여 상기 투사광의 피사체로부터의 반사광을 카메라로 촬상하고, 촬상된 화상의 광강도를 이용하여 거리를 측정하는 레인지파인더 장치에 있어서,
    광원의 중심과 렌즈의 중심을 포함하는 복수의 표면 각각에 대해서, 각 표면내에 있어서의 상기 광원으로부터의 각 투사광의 각도와 광강도 사이의 관계를 미리 얻어두고,
    실제의 거리 측정시에는, 상기 카메라의 각 화소의 광강도를 측정하고, 그 측정된 광강도와, 상기 측정된 화소의 좌표 위치에 대응하는 소정의 표면에 있어서의 상기 각도와 광강도 사이의 관계에 의거하여, 그 측정된 소정의 화소의 광강도에 대응하는 상기 각도를 얻고,
    이들 측정된 광강도와, 얻어진 각도와, 또한 상기 소정의 화소의 화상상의 2차원 좌표 위치 정보에 의거하여, 상기 피사체까지의 거리를 계산하는 것을 특징으로 하는 레인지파인더 장치.
  2. 제 1 항에 있어서,
    상기 복수의 투사광은 2개이며, 그들의 투사 방향은 서로 위치적으로 일부 중첩된 상태로 서로 다른 방향으로 투사되고,
    상기 광원으로부터의 각 투사광의 각도와 광강도 사이의 관계는, 상기 광원으로부터의 각 투사광의 각도와, 그 각도에 있어서의 상기 2개의 투사광의 각 광강도의 비 사이의 관계인 것을 특징으로 하는 레인지파인더 장치.
  3. 제 2 항에 있어서,
    상기 투사광은 수동 반사판을 배후에 구비한 광원을 2개 배치함으로써 생성되는 것을 특징으로 하는 레인지파인더 장치.
  4. 제 1 항 또는 제 2 항에 있어서,
    상기 촬상된 화상의 광강도는, 상기 투사광이 존재하는 경우와 존재하지 않는 경우의 화상 광강도 사이의 차분값인 것을 특징으로 하는 레인지파인더 장치.
  5. 제 1 항 또는 제 2 항에 있어서,
    상기 복수의 투사광을 동시에 상기 피사체에 조사하고, 상기 투사광의 피사체로부터의 반사광을 상기 카메라로 촬상하고, 그 촬상된 화상을 통상의 화상으로 하는 것을 특징으로 하는 레인지파인더 장치.
  6. 제 1 항 또는 제 2 항에 있어서,
    상기 카메라는, 상기 투사광의 발광 기간보다 짧은 노출시간으로 설정됨으로써, 배경광의 영향을 억제하는 것을 특징으로 하는 레인지파인더 장치.
  7. 제 1 항 또는 제 2 항에 있어서,
    상기 렌즈와 상기 광원은 상기 렌즈와 상기 광원을 연결하는 직선이 촬상 소자 표면의 수평 축에 대하여 평행하게 되도록 배치된 것을 특징으로 하는 레인지파인더 장치.
  8. 제 2 항에 있어서,
    상기 복수의 투사광은, 투과율이 2차원적으로 서로 다른 광투과판을 전방에 구비한 광원에 의해 생성되는 것을 특징으로 하는 레인지파인더 장치.
  9. 제 2 항에 있어서,
    상기 복수의 투사광은, 광투과율 패턴을 전환 가능한 광학 소자와 광원을 이용하여 실현되는 것을 특징으로 하는 레인지파인더 장치.
  10. 제 3, 8, 9 항 중 어느 한 항에 있어서,
    상기 수동 반사판이나 광투과판이 없는 상태에서 상기 광원으로부터의 투사광의 광강도를 측정하여 보정량을 얻어두고,
    상기 광원으로부터의 각 투사광의 각도와 광강도 사이의 관계를 얻을 때, 상기 보정량에 의해 광강도를 수정하고, 또한 실제의 거리 측정시에도, 측정된 광강도를 상기 보정량에 의해 수정하는 것을 특징으로 하는 레인지파인더 장치.
  11. 광원과,
    상기 광원으로부터 출사되는 광을 유도하기 위한 제 1광파이버와,
    상기 제 1광파이버로부터 유도된 광을 복수의 경로로 분기하는 광분배 수단과,
    상기 광분배 수단에 일단부가 접속되고, 또한 타단부의 개구부로부터 상기 분기된 광을 피사체에 조사하기 위한 복수의 제 2광파이버와,
    상기 조사된 광의 반사광을 수광하여 상기 피사체의 화상 데이터를 얻기 위한 촬상 수단과,
    상기 화상 데이터에 의거하여 상기 피사체까지의 거리를 계산하기 위한 거리 계산 수단을 구비하되,
    상기 복수의 제 2광파이버의 타단부로부터 상기 피사체에 조사되는 광강도는 장소적으로 서로 다른 분포를 갖고 있는 것을 특징으로 하는 레인지파인더 장치.
  12. 광원과,
    상기 광원으로부터 출사되는 광을 유도하기 위한 제 1광파이버와,
    상기 제 1광파이버로부터 유도된 광을 복수의 경로로 분기하여 피사체에 조사하기 위한 광분배 수단과,
    상기 조사된 광의 반사광을 수광하여 상기 피사체의 화상 데이터를 얻기 위한 촬상 수단과,
    상기 화상 데이터에 의거하여 상기 피사체까지의 거리를 계산하기 위한 거리 계산 수단을 구비하되,
    상기 광분배 수단으로부터 상기 피사체에 조사되는 광강도는 임의의 경로에서 장소적으로 서로 다른 분포를 갖고 있는 것을 특징으로 하는 레인지파인더 장치.
  13. 복수의 광원과,
    상기 광원으로부터 출사되는 광을 개별적으로 피사체측에 유도하여 상기 피사체에 조사하기 위한 복수의 광파이버와,
    상기 출사된 광의 반사광을 수광하여 상기 피사체의 화상 데이터를 얻기 위한 촬상 수단과,
    상기 화상 데이터에 의거하여 상기 피사체까지의 거리를 계산하기 위한 거리 계산 수단을 구비하되,
    임의의 광파이버로부터 상기 피사체에 조사되는 광강도는 장소적으로 서로 다른 분포를 갖고 있는 것을 특징으로 하는 레인지파인더 장치.
  14. 제 11 항 또는 제 13 항에 있어서,
    상기 피사체에 광을 조사하는 상기 광파이버의 개구부 전면에 배치된 렌즈계를 구비한 것을 특징으로 하는 레인지파인더 장치.
  15. 제 11 항 또는 제 13 항에 있어서,
    장소적으로 서로 다른 분포를 갖는 상기 광강도를 얻기 위해, 상기 광을 조사하는 상기 광파이버의 개구부 전면에, 장소에 따라 광투과율이 서로 다른 광필터를 구비한 것을 특징으로 하는 레인지파인더 장치.
  16. 제 12 항에 있어서,
    상기 피사체에 광을 조사하는 상기 광분배 수단의 개구부 전면에 배치된 렌즈계를 구비한 것을 특징으로 하는 레인지파인더 장치.
  17. 제 12 항에 있어서,
    장소적으로 서로 다른 분포를 갖는 상기 광강도를 얻기 위해, 상기 광을 조사하는 상기 광분배 수단의 개구부 전면에, 장소에 따라 광투과율이 서로 다른 광필터를 구비한 것을 특징으로 하는 레인지파인더 장치.
  18. 제 14 항에 있어서,
    상기 렌즈계는 콜리메이터 렌즈, 원통형 렌즈 또는 막대형 렌즈인 것을 특징으로 하는 레인지파인더 장치.
  19. 특정의 복사 패턴을 갖는 투사광을 피사체에 조사하는 발광 수단을 가지며, 상기 발광 수단의 피사체 반사광을 촬상하고, 촬상된 화상의 광강도를 이용하여 깊이 화상(depth image)을 얻는, 형상 계측용 또는 피사체 추출용 카메라에 있어서,
    상기 카메라는 상기 발광 수단과 촬상 렌즈 사이의 거리가 가변 가능한 구조를 가지며, 사용시에 있어서는 상기 발광 수단과 상기 촬상 렌즈 사이의 간격을 충분히 크게 취할 수 있는 것을 특징으로 하는 카메라.
  20. 제 19 항에 있어서,
    상기 발광 수단과 상기 촬상 렌즈 사이의 거리가 가변 가능한 구조는, 상기 발광 수단과 상기 촬상 렌즈를 포함하는 본체가 상대적으로 슬라이드 가능한 구조에 의해 실현되며, 사용시에 있어서는 상기 발광 수단과 상기 본체를 서로 간격을 두고 떨어지도록 슬라이드시킴으로써, 상기 발광 수단과 상기 카메라 렌즈 사이의 간격을 충분히 크게 취할 수 있는 것을 특징으로 하는 카메라.
  21. 제 19 항에 있어서,
    상기 발광 수단과 상기 촬상 렌즈 사이의 거리가 가변 가능한 구조는, 상기 발광 수단과 상기 촬상 렌즈를 포함하는 본체가 서로 힌지 구조(hinge configuration)에 의해 연결됨으로써 실현되며, 사용시에 있어서는 상기 발광 수단과 상기 본체 사이의 힌지 구조를 개방함으로써, 상기 발광 수단과 상기 카메라 렌즈 사이의 간격을 충분히 크게 취할 수 있는 것을 특징으로 하는 카메라.
  22. 특정의 복사 패턴을 갖는 투사광을 피사체에 조사하는 발광 수단을 가지며, 상기 발광 수단의 피사체 반사광을 촬상하고, 촬상된 화상의 광강도를 이용하여 깊이 화상을 얻는, 형상 계측용 또는 피사체 추출용 카메라에 있어서,
    상기 발광 수단은, 배열된 복수의 직선상(直線狀) 광원의 각각의 앞에, 구멍을 갖고 있는 세이딩 플레이트(shading plate)가 배치된 구조를 가지고, 그들 세이딩 플레이트의 각각의 구멍은 서로 위치적으로 벗어나 있고, 상기 복수의 광원은 시분할적으로 발광하는 것을 특징으로 하는 카메라.
  23. 특정의 복사 패턴을 갖는 투사광을 피사체에 조사하는 발광 수단을 가지며, 상기 발광 수단의 피사체 반사광을 촬상하고, 촬상된 화상의 광강도를 이용하여 깊이 화상을 얻는, 형상 계측용 또는 피사체 추출용 카메라에 있어서,
    상기 발광 수단은 한 개의 광원의 앞에, 2차원적으로 광투과율이 서로 다른 광변조 소자가 배치되고, 그 광투과율의 2차원적 변화 분포가 전환 가능하고,
    상기 발광 수단은 상기 광투과율 분포의 전환에 응답하여 복수회 발광하는 것을 특징으로 하는 카메라.
  24. 피사체에 조사되는 광의 강도가, 장소적으로 서로 다른 분포를 갖는 특정의 복사 패턴을 갖는 투사광을 피사체에 조사하는 발광 수단을 가지며, 상기 발광 수단의 피사체 반사광을 촬상하고, 촬상된 화상의 광강도를 이용하여 깊이 화상을 얻는, 형상 계측용 또는 피사체 추출용 카메라에 있어서,
    터치패널이 부착된 평면디스플레이를 구비하되,
    상기 터치패널상에 상기 촬상 화상이 표시되어 있을 때 상기 터치패널에 대한 사용자의 터치 동작에 의해 피사체내의 복수의 점이 지정된 경우, 그 지정된 이들의 점 사이의 실제 길이를 상기 깊이 화상 데이터로부터 계산하기 위한 거리 계산부를 구비한 것을 특징으로 하는 카메라.
  25. 제 24 항에 있어서,
    상기 거리 계산부는, 사용자에 의해 지정된 상기 복수의 점으로부터 얻어진 상기 피사체의 각 부분에 대한 길이 정보로부터, 상기 피사체의 면적 또는 체적을 계산하는 것을 특징으로 하는 카메라.
  26. 피사체에 조사되는 광의 강도가, 장소적으로 서로 다른 분포를 갖는 특정의 복사 패턴을 갖는 투사광을 피사체에 조사하는 발광 수단을 가지며, 상기 발광 수단의 피사체 반사광을 촬상하고, 촬상된 화상의 광강도를 이용하여 깊이 화상을 얻는, 형상 계측용 또는 피사체 추출용 카메라에 있어서,
    터치패널이 부착된 평면 디스플레이를 구비하되,
    상기 터치패널 상에 상기 촬상 화상이 표시되어 있을 때, 상기 터치패널에 대한 사용자의 터치 동작에 의해 피사체내의 복수의 점이 지정된 경우, 사용자에 의해 지정된 상기 복수의 점을 통과하는 원의 지름, 반지름 및 원호의 길이를 상기 깊이 화상 데이터로부터 계산하기 위한 거리 계산부를 구비하는 것을 특징으로 하는 카메라.
  27. 특정의 복사 패턴을 갖는 투사광을 피사체에 조사하는 발광 수단을 가지며, 상기 발광 수단의 피사체 반사광을 촬상하고, 촬상된 화상의 광강도를 이용하여 깊이 화상을 얻는, 형상 계측용 또는 피사체 추출용 카메라에 있어서,
    상기 촬상된 깊이 화상을 이용하여, 사용자에 의해 지정된 거리 이내에 존재하는 피사체만 또는 사용자에 의해 지정된 거리 범위내에 존재하는 피사체만을 추출하는 피사체 추출 수단을 포함하는 것을 특징으로 하는 카메라.
  28. 제 27 항에 있어서,
    상기 추출 처리의 오동작에 의해 배경이나 전경으로 잘못 취해진 부분은, 사용자가 상기 터치패널을 접촉하여 지정함으로써, 잘못된 배경 또는 전경 추출 동작을 수정할 수 있는 것을 특징으로 하는 카메라.
  29. 제 24 항 내지 제 27 항 중 어느 한 항에 있어서,
    상기 터치패널이 부착된 평면 디스플레이를 손가락으로 조작하는 대신에 펜타입 포인팅 장치를 이용하여 사용자가 좌표를 입력하는 것을 특징으로 하는 카메라.
  30. 제 24 항 내지 제 27 항 중 어느 한 항에 있어서,
    상기 터치패널이 부착된 평면 디스플레이를 손가락으로 조작하는 대신에 화상상의 위치를 표시하는 커서가 통상의 평면 디스플레이상에 표시되고,
    사용자는 마우스나 푸쉬버튼을 조작하여 커서 위치를 이동시킴으로써 소망의 좌표를 입력하는 것을 특징으로 하는 카메라.
  31. 제 19, 22, 23, 24, 26, 27 항 중 어느 한 항에 있어서,
    상기 촬상된 화상의 광강도를 이용하여 깊이 화상을 얻기 위한 장치는, 통신수단에 의해, 촬상 렌즈를 포함하는 본체와 통신할 수 있는 것을 특징으로 하는 카메라.
  32. 제 31 항에 있어서,
    상기 발광 수단은 상기 촬상 렌즈를 포함하는 본체와 분리 가능하고, 통상의 비디오의 촬영시에는 상기 발광 수단을 제거하여 사용하고, 깊이 화상의 촬상시에는 상기 발광 수단을 장착하여 사용하는 것을 특징으로 하는 카메라.
  33. 특정의 복사 패턴을 갖는 투사광을 피사체에 조사하는 발광 수단을 가지며, 상기 발광 수단의 피사체 반사광을 촬상하고, 촬상된 화상의 광강도를 이용하여 깊이 화상을 얻는, 형상 계측용 또는 피사체 추출용 카메라에 있어서,
    상기 카메라는 상기 발광 수단이 발광하지 않는 동안에는 동화상을 촬상하여 기록 매체에 기록할 수 있는 비디오카메라를 겸하고,
    상기 발광 수단이 발광하는 때에는 촬상된 화상 데이터에 인덱스 신호가 부가되고, 상기 인덱스 신호가 부가된 특정의 화상만을 이용하여 깊이 화상을 계산하는 것을 특징으로 하는 카메라.
  34. 제 19, 22, 23, 24, 26, 27, 33 항 중 어느 한 항에 있어서,
    상기 카메라는 상기 깊이 화상 이외에 컬러 화상도 동시에 생성하여 상기 깊이 화상과 상기 컬러 화상을 모두 출력할 수 있는 것을 특징으로 하는 카메라.
  35. 제 27 항에 있어서,
    상기 피사체 추출 수단은 사용자에 의해 지정된 거리 이내에 존재하는 피사체만, 또는 사용자에 의해 지정된 거리 범위내에 존재하는 피사체만의 컬러 화상을 추출하는 것을 특징으로 하는 카메라.
  36. 특정의 복사 패턴을 갖는 투사광을 피사체에 조사하는 발광 수단을 가지며, 상기 발광 수단의 피사체 반사광을 촬상하고, 촬상된 화상의 광강도를 이용하여 피사체의 2차원 화상 및 그 2차원 화상에 대한 깊이 화상을 얻는, 형상 계측용 또는 피사체 추출용 카메라에 있어서,
    터치패널이 부착된 평면 디스플레이를 구비하되,
    상기 터치패널상에 상기 촬상 화상이 표시되어 있을 때, 상기 터치패널에 대한 사용자의 터치 동작에 의해, 피사체내의 복수의 점이 지정된 경우, 그 지정된 이들 점 사이의 실제의 길이를 상기 2차원 화상 및 깊이 화상의 데이터로부터 계측하는 거리 계산부를 갖는 카메라.
KR10-2000-7000845A 1998-05-25 1999-05-24 레인지파인더 장치와 카메라 KR100382439B1 (ko)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP1998-142682 1998-05-25
JP14268298 1998-05-25
JP1998-316112 1998-11-06
JP31611298 1998-11-06
JP1999-119435 1999-04-27
JP11943599 1999-04-27

Publications (2)

Publication Number Publication Date
KR20010040232A KR20010040232A (ko) 2001-05-15
KR100382439B1 true KR100382439B1 (ko) 2003-05-09

Family

ID=27313822

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2000-7000845A KR100382439B1 (ko) 1998-05-25 1999-05-24 레인지파인더 장치와 카메라

Country Status (6)

Country Link
US (5) US6587183B1 (ko)
EP (6) EP2306228A1 (ko)
JP (1) JP4332598B2 (ko)
KR (1) KR100382439B1 (ko)
DE (1) DE69943406D1 (ko)
WO (1) WO1999061948A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101013156B1 (ko) * 2008-10-10 2011-02-10 한국기계연구원 전동줌렌즈와 회전미러를 이용한 고속 광학관측 시스템
KR101032952B1 (ko) 2009-12-31 2011-05-09 주식회사 세바비드코어 감시 카메라 시스템의 좌표생성방법
CN105444729A (zh) * 2015-12-13 2016-03-30 重庆桑耐美光电科技有限公司 一种光学远距离测量的方法
KR101660481B1 (ko) 2016-01-29 2016-09-27 최봉석 압축링의 전후면 판별을 위한 비젼 검사방법 및 장치
KR101674298B1 (ko) 2015-04-30 2016-11-08 영남대학교 산학협력단 카메라 렌즈 초점거리 정보를 이용한 거리계산 방법

Families Citing this family (163)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6445884B1 (en) 1995-06-22 2002-09-03 3Dv Systems, Ltd. Camera with through-the-lens lighting
US7015951B1 (en) * 1998-05-08 2006-03-21 Sony Corporation Picture generating apparatus and picture generating method
US7053937B1 (en) * 1999-05-21 2006-05-30 Pentax Corporation Three-dimensional image capturing device and recording medium
EP1102211A3 (en) 1999-11-19 2006-09-13 Matsushita Electric Industrial Co., Ltd. Image processor, method of providing image processing services and order processing method
US8412377B2 (en) 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8788092B2 (en) 2000-01-24 2014-07-22 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US6975361B2 (en) * 2000-02-22 2005-12-13 Minolta Co., Ltd. Imaging system, two-dimensional photographing device and three-dimensional measuring device
US6956348B2 (en) 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
JP2001337166A (ja) * 2000-05-26 2001-12-07 Minolta Co Ltd 3次元入力方法および3次元入力装置
JP2004503188A (ja) * 2000-07-09 2004-01-29 スリーディーヴィー システムズ リミテッド スルー・ザ・レンズ・イルミネータを有するカメラ
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US7663333B2 (en) 2001-06-12 2010-02-16 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US6830334B2 (en) * 2001-07-30 2004-12-14 Bausch & Lomb Incorporated Anterior chamber diameter measurement system from limbal ring measurement
JP2003075137A (ja) * 2001-09-04 2003-03-12 Minolta Co Ltd 撮影システム並びにそれに用いられる撮像装置および3次元計測用補助ユニット
US20030063191A1 (en) * 2001-10-03 2003-04-03 Philips Electronics North America Corp. Method and system for detecting and selecting foreground objects
US20050110868A1 (en) * 2001-10-04 2005-05-26 Myers Kenneth J. System and method for inputting contours of a three-dimensional subject to a computer
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
US8386081B2 (en) 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
GB0223512D0 (en) * 2002-10-10 2002-11-13 Qinetiq Ltd Bistatic laser radar apparatus
JP2004212385A (ja) * 2002-12-19 2004-07-29 Olympus Corp 撮影装置とその撮影装置の撮影方法及び制御方法
JP4379056B2 (ja) * 2003-08-12 2009-12-09 富士ゼロックス株式会社 三次元画像撮像装置および方法
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
WO2005080914A1 (ja) * 2004-02-25 2005-09-01 The University Of Tokyo 形状測定装置及びその方法
US7154613B2 (en) * 2004-03-15 2006-12-26 Northrop Grumman Corporation Color coded light for automated shape measurement using photogrammetry
DE112005000738T5 (de) 2004-03-29 2007-04-26 Evolution Robotics, Inc., Pasadena Verfahren und Vorrichtung zur Positionsbestimmung unter Verwendung von reflektierten Lichtquellen
JP2008508572A (ja) 2004-06-24 2008-03-21 アイロボット コーポレーション 携帯ロボットのプログラミングおよび診断ツール
US20110028212A1 (en) 2004-07-01 2011-02-03 David Krien Computerized Imaging of Sporting Trophies and Method of Providing a Replica
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
US7525669B1 (en) * 2004-07-09 2009-04-28 Mohsen Abdollahi High-speed, scanning phase-shifting profilometry using 2D CMOS sensor
DE102004037296A1 (de) 2004-07-27 2006-03-23 Arnold & Richter Cine Technik Gmbh & Co Betriebs Kg Verfahren zum Fokussieren des Aufnahmeobjektivs einer Laufbild- oder Videokamera
US7564537B2 (en) * 2004-07-30 2009-07-21 Robert Bosch Gmbh Mobile measuring system, and an operating method for such a mobile measuring system
JP2006125862A (ja) * 2004-10-26 2006-05-18 Sharp Corp 光学式測距センサ、自走式掃除機およびエアコン
US7777761B2 (en) * 2005-02-11 2010-08-17 Deltasphere, Inc. Method and apparatus for specifying and displaying measurements within a 3D rangefinder data set
US7477359B2 (en) * 2005-02-11 2009-01-13 Deltasphere, Inc. Method and apparatus for making and displaying measurements based upon multiple 3D rangefinder data sets
US7974461B2 (en) * 2005-02-11 2011-07-05 Deltasphere, Inc. Method and apparatus for displaying a calculated geometric entity within one or more 3D rangefinder data sets
US7403268B2 (en) * 2005-02-11 2008-07-22 Deltasphere, Inc. Method and apparatus for determining the geometric correspondence between multiple 3D rangefinder data sets
US7477360B2 (en) * 2005-02-11 2009-01-13 Deltasphere, Inc. Method and apparatus for displaying a 2D image data set combined with a 3D rangefinder data set
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
US8392021B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
KR101240732B1 (ko) 2005-02-18 2013-03-07 아이로보트 코퍼레이션 습식 및 건식 청소를 위한 자동 표면 청소 로봇
CN2779424Y (zh) * 2005-03-24 2006-05-10 南京德朔实业有限公司 测距装置
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
DE102005014525B4 (de) * 2005-03-30 2009-04-16 Siemens Ag Vorrichtung zur Bestimmung von Raumkoordinaten von Objektoberflächen
US7375801B1 (en) * 2005-04-13 2008-05-20 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Video sensor with range measurement capability
US7473884B2 (en) * 2005-04-21 2009-01-06 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Orientation determination utilizing a cordless device
DE102005021654A1 (de) * 2005-05-06 2006-11-09 Laser 2000 Gmbh Verfahren und Anordnung zum Aufbringen einer sichtbaren Kennzeichnung auf transparente Substrate
JP4533824B2 (ja) * 2005-08-30 2010-09-01 株式会社日立製作所 画像入力装置及び校正方法
US7551771B2 (en) 2005-09-20 2009-06-23 Deltasphere, Inc. Methods, systems, and computer program products for acquiring three-dimensional range information
US9002511B1 (en) 2005-10-21 2015-04-07 Irobot Corporation Methods and systems for obstacle detection using structured light
ES2423296T3 (es) 2005-12-02 2013-09-19 Irobot Corporation Robot modular
EP2816434A3 (en) 2005-12-02 2015-01-28 iRobot Corporation Autonomous coverage robot
EP2120122B1 (en) 2005-12-02 2013-10-30 iRobot Corporation Coverage robot mobility
EP2544065B1 (en) 2005-12-02 2017-02-08 iRobot Corporation Robot system
ES2706727T3 (es) 2005-12-02 2019-04-01 Irobot Corp Sistema de robot
DE102006031757A1 (de) 2006-01-04 2007-08-02 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Verfahren zur automatischen Korrektur von Bildfehlern in Video-Assist-Bildern eines Video-Assist-Systems
WO2007079805A1 (de) * 2006-01-08 2007-07-19 Hermann Tropf Erstellung eines abstandsbildes
US7796119B2 (en) * 2006-04-03 2010-09-14 Avago Technologies General Ip (Singapore) Pte. Ltd. Position determination with reference
EP2548489B1 (en) 2006-05-19 2016-03-09 iRobot Corporation Removing debris from cleaning robots
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
WO2008037282A1 (en) * 2006-09-28 2008-04-03 B.E.A. S.A. Sensor for presence detection
US8496575B2 (en) * 2006-11-14 2013-07-30 Olympus Corporation Measuring endoscope apparatus, program and recording medium
CA2670214A1 (en) 2006-11-21 2008-05-29 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
US8090194B2 (en) 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
US20080231835A1 (en) * 2007-03-23 2008-09-25 Keigo Iizuka Divergence ratio distance mapping camera
US7745771B2 (en) * 2007-04-03 2010-06-29 Delphi Technologies, Inc. Synchronous imaging using segmented illumination
KR101279436B1 (ko) * 2007-04-03 2013-06-26 삼성전자주식회사 촬상 장치 및 촬상 방법
ES2571739T3 (es) 2007-05-09 2016-05-26 Irobot Corp Robot autónomo de cubrimiento compacto
KR100867595B1 (ko) * 2007-05-25 2008-11-10 엘지전자 주식회사 카메라의 와이드 다이나믹 레인지 제어방법
CN100462674C (zh) * 2007-06-22 2009-02-18 哈尔滨工业大学 光学系统中的光学轴与机械轴之间夹角的精确测量方法
JP5092613B2 (ja) * 2007-08-06 2012-12-05 日産自動車株式会社 距離計測方法および装置、ならびに距離計測装置を備えた車両
WO2009038797A2 (en) * 2007-09-20 2009-03-26 Evolution Robotics Robotic game systems and methods
JP5092076B2 (ja) * 2007-10-26 2012-12-05 オプテックス株式会社 レーザエリアセンサ
EP2065678B1 (en) * 2007-11-30 2016-02-10 Nissan Motor Co., Ltd. Distance measurement system and distance measurement method
JP4422206B2 (ja) * 2008-02-18 2010-02-24 パナソニック株式会社 測距装置および測距方法
EP2279452B1 (en) 2008-05-19 2015-09-30 Canon Kabushiki Kaisha Image pickup system and lens apparatus
EP2309223A4 (en) * 2008-07-09 2016-09-07 Nikon Corp MEASURING DEVICE
EP2159538A1 (de) 2008-08-28 2010-03-03 Omnitron AG Vorrichtung und Verfahren zur Orts- und/oder Formbestimmung eines Objekts
US8334893B2 (en) * 2008-11-07 2012-12-18 Honeywell International Inc. Method and apparatus for combining range information with an optical image
FR2939516B1 (fr) * 2008-12-05 2011-01-21 Thales Sa Telemetre
JP4951643B2 (ja) * 2009-03-19 2012-06-13 株式会社村上開明堂 車両用アウターミラー
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
CN102713779B (zh) 2009-11-06 2015-12-02 艾罗伯特公司 用于通过自主型机器人完全覆盖表面的方法和系统
TWI416385B (zh) * 2009-12-18 2013-11-21 Au Optronics Corp 三維互動立體顯示器之指示物位置判斷方法
US8427632B1 (en) * 2009-12-23 2013-04-23 Trimble Navigation Ltd. Image sensor with laser for range measurements
US9310806B2 (en) * 2010-01-06 2016-04-12 Irobot Corporation System for localization and obstacle detection using a common receiver
EP3192419B1 (en) 2010-02-16 2021-04-07 iRobot Corporation Vacuum brush
US8134717B2 (en) 2010-05-21 2012-03-13 LTS Scale Company Dimensional detection system and associated method
JP2011248041A (ja) * 2010-05-26 2011-12-08 Seiko Epson Corp 取り付け装置及び投写型表示装置
KR20120007734A (ko) * 2010-07-15 2012-01-25 삼성전기주식회사 거리 측정 모듈 및 이를 포함하는 디스플레이 장치, 디스플레이 장치의 거리 측정 방법
US8165351B2 (en) * 2010-07-19 2012-04-24 General Electric Company Method of structured light-based measurement
PT3340610T (pt) * 2010-09-20 2023-02-22 Fraunhofer Ges Forschung Processo para a distinção de segundo plano e primeiro plano de um cenário, bem como processo para a substituição de um segundo plano em imagens de um cenário
US9247238B2 (en) * 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
WO2012176285A1 (ja) 2011-06-21 2012-12-27 オリンパス株式会社 蛍光観察装置、蛍光観察システムおよび蛍光画像処理方法
US20130027548A1 (en) * 2011-07-28 2013-01-31 Apple Inc. Depth perception device and system
US9491441B2 (en) * 2011-08-30 2016-11-08 Microsoft Technology Licensing, Llc Method to extend laser depth map range
JP5926909B2 (ja) 2011-09-07 2016-05-25 オリンパス株式会社 蛍光観察装置
WO2013059720A1 (en) * 2011-10-20 2013-04-25 Jankauskis Valdas Apparatus and method for measuring room dimensions
EP2611169A1 (fr) * 2011-12-27 2013-07-03 Thomson Licensing Dispositif d'acquisition d'images stereoscopiques
US20130286196A1 (en) * 2011-12-28 2013-10-31 Faro Technologies, Inc. Laser line probe that produces a line of light having a substantially even intensity distribution
US9098147B2 (en) 2011-12-29 2015-08-04 Industrial Technology Research Institute Ranging apparatus, ranging method, and interactive display system
KR20130090438A (ko) * 2012-02-04 2013-08-14 엘지전자 주식회사 로봇 청소기
CN103292779B (zh) * 2012-02-28 2015-06-24 联想(北京)有限公司 一种测量距离的方法及图像获取设备
EP3566636B1 (en) * 2012-06-13 2024-02-21 Boston Scientific Scimed, Inc. Medical device visualization system
JP5989443B2 (ja) * 2012-07-31 2016-09-07 公立大学法人公立はこだて未来大学 半導体集積回路および物体距離計測装置
US8818723B2 (en) * 2012-08-27 2014-08-26 Massachusetts Institute Of Technology Localization and tracking system for mobile robots
JP6103179B2 (ja) * 2012-09-13 2017-03-29 株式会社リコー 距離測定装置
US9625994B2 (en) * 2012-10-01 2017-04-18 Microsoft Technology Licensing, Llc Multi-camera depth imaging
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
KR101941907B1 (ko) * 2013-01-03 2019-01-24 삼성전자주식회사 깊이 정보를 이용하는 내시경 및 깊이 정보를 이용하는 내시경에 의한 용종 검출 방법
CN108231094B (zh) * 2013-01-07 2021-07-27 阿森蒂亚影像有限公司 使用彼此区分的信号修正传感器的光学引导系统和方法
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
CN104036226B (zh) * 2013-03-04 2017-06-27 联想(北京)有限公司 一种目标物信息获取方法及电子设备
DE102013103251B4 (de) * 2013-03-28 2016-05-12 Data M Sheet Metal Solutions Gmbh Erhöhung der Messgenauigkeit bei einer Vermessung mit Lichtschnittsensoren durch gleichzeitige Kalibrierung und Vermeidung von Speckles
CN104755874B (zh) * 2013-04-01 2018-08-28 松下知识产权经营株式会社 具有多个光源的运动传感器装置
CN104395694B (zh) * 2013-04-26 2017-08-11 松下电器(美国)知识产权公司 具有多个光源的运动传感器装置
DE102013104904B4 (de) * 2013-05-13 2015-10-08 Mel-Lop Ag Vorrichtung zur Projektion einer Lichtlinie auf ein Objekt und optische Abstandssensoren mit derselben
CN104603574B (zh) * 2013-07-01 2017-10-13 松下电器(美国)知识产权公司 具有多个光源的运动传感器装置
US20150009290A1 (en) * 2013-07-05 2015-01-08 Peter MANKOWSKI Compact light module for structured-light 3d scanning
US9315192B1 (en) * 2013-09-30 2016-04-19 Google Inc. Methods and systems for pedestrian avoidance using LIDAR
TWI563842B (en) * 2013-10-25 2016-12-21 Lips Inc Sensing device and signal processing method thereof
TWI535288B (zh) * 2014-06-13 2016-05-21 立普思股份有限公司 深度攝影機系統
CN105323571B (zh) * 2014-06-17 2017-09-29 立普思股份有限公司 影像相位补正方法
KR102237828B1 (ko) 2014-08-22 2021-04-08 삼성전자주식회사 동작 인식 장치 및 이를 이용한 동작 인식 방법
US9417058B1 (en) 2014-10-24 2016-08-16 Matrox Electronic Systems Ltd. Detecting a position of a sheet of light in an image
US9881235B1 (en) * 2014-11-21 2018-01-30 Mahmoud Narimanzadeh System, apparatus, and method for determining physical dimensions in digital images
US10884488B2 (en) * 2014-11-24 2021-01-05 Samsung Electronics Co., Ltd Electronic device and method for controlling display
KR20160069806A (ko) * 2014-12-09 2016-06-17 한화테크윈 주식회사 거리 측정 장치 및 거리 측정 방법
US9955140B2 (en) * 2015-03-11 2018-04-24 Microsoft Technology Licensing, Llc Distinguishing foreground and background with inframed imaging
US10158840B2 (en) * 2015-06-19 2018-12-18 Amazon Technologies, Inc. Steganographic depth images
US10706572B2 (en) 2015-08-26 2020-07-07 Olympus Corporation System and method for depth estimation using multiple illumination sources
JP6505234B2 (ja) 2015-08-31 2019-04-24 富士フイルム株式会社 測距装置、測距用導出方法、及び測距用導出プログラム
CN105389845B (zh) * 2015-10-19 2017-03-22 北京旷视科技有限公司 三维重建的图像获取方法和系统、三维重建方法和系统
WO2017119118A1 (ja) * 2016-01-08 2017-07-13 オリンパス株式会社 標本形状測定方法及び標本形状測定装置
US9754374B1 (en) 2016-02-12 2017-09-05 Matrox Electronic Systems Ltd. Detection of a sheet of light based on second derivative
US10690495B2 (en) * 2016-03-14 2020-06-23 Canon Kabushiki Kaisha Ranging apparatus and moving object capable of high-accuracy ranging
US10212306B1 (en) 2016-03-23 2019-02-19 Amazon Technologies, Inc. Steganographic camera communication
CN109313267B (zh) * 2016-06-08 2023-05-02 新唐科技日本株式会社 测距系统及测距方法
US20180106612A1 (en) * 2016-10-19 2018-04-19 Superior Optics Company Range finding binoculars
GB2560505B (en) * 2017-03-08 2021-01-13 pitman James Moveable camera lenses for a mobile terminal
CN110431833A (zh) * 2017-03-08 2019-11-08 詹姆斯·皮特曼 移动终端
KR20180104970A (ko) 2017-03-14 2018-09-27 엘지전자 주식회사 단말기 및 그 제어 방법
EP3656118A4 (en) * 2017-07-18 2021-03-03 Hangzhou Taro Positioning Technology Co., Ltd. INTELLIGENT OBJECT TRACKING
US11364637B2 (en) 2017-07-18 2022-06-21 Hangzhou Taro Positioning Technology Co., Ltd. Intelligent object tracking
DE102017118767B4 (de) * 2017-08-17 2020-10-08 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts
US10746875B2 (en) * 2017-09-08 2020-08-18 Osram Opto Semiconductors Gmbh Sensor system and method to operate a sensor system
JP2019087008A (ja) 2017-11-07 2019-06-06 東芝テック株式会社 画像処理システム及び画像処理方法
FR3083600B1 (fr) * 2018-07-06 2020-09-18 Hexagon Metrology Sas Bras de mesure avec extremite multifonction
FR3083601B1 (fr) 2018-07-06 2020-09-18 Hexagon Metrology Sas Bras de mesure avec extremite multifonction
FR3083605B1 (fr) 2018-07-06 2020-09-18 Hexagon Metrology Sas Bras de mesure avec extremite multifonction
WO2020019131A1 (zh) * 2018-07-23 2020-01-30 太平洋未来科技(深圳)有限公司 光线信息的确定方法、装置及电子设备
US10896516B1 (en) * 2018-10-02 2021-01-19 Facebook Technologies, Llc Low-power depth sensing using dynamic illumination
US10901092B1 (en) * 2018-10-02 2021-01-26 Facebook Technologies, Llc Depth sensing using dynamic illumination with range extension
KR102668245B1 (ko) * 2018-10-29 2024-05-23 삼성전자주식회사 3차원 깊이 측정 장치 및 방법
JP7219056B2 (ja) * 2018-11-09 2023-02-07 株式会社キーエンス 変位測定装置
CN109444913A (zh) * 2018-12-28 2019-03-08 广州市合熠电子科技有限公司 一种数字智能型微型激光位移传感器及其测距方法
CN110530256A (zh) * 2019-09-30 2019-12-03 长春理工大学 一种基于四象限光电探测器的激光角度测量系统
DE102019130950B3 (de) * 2019-11-15 2021-03-25 Lufthansa Technik Aktiengesellschaft Boroskop mit Musterprojektion
US11509833B2 (en) * 2021-03-04 2022-11-22 Ford Global Technologies, Llc Illumination control for vehicle sensors
CN113252001A (zh) * 2021-05-25 2021-08-13 福建汇川物联网技术科技股份有限公司 一种桥梁沉降量的测量方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58121008A (ja) * 1982-01-14 1983-07-19 Olympus Optical Co Ltd 合焦検出装置及び合焦設定装置
JPH04136737U (ja) * 1991-06-07 1992-12-18 株式会社日立製作所 タツチパネルのワンタツチユニツト
JPH0554124A (ja) * 1991-08-21 1993-03-05 Iseki & Co Ltd 果実収穫ロボツト等の視覚装置

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2172098A (en) * 1937-03-23 1939-09-05 Zeiss Carl Fa Single station range finder with variable base
JPS5116020A (en) * 1974-07-30 1976-02-09 Minolta Camera Kk Jidoshotenkenshutsusochi
US4187011A (en) * 1975-08-27 1980-02-05 Solid Photography Inc. Arrangement for applying coded illuminated patterns to an object
US4226536A (en) * 1979-02-23 1980-10-07 Dreyfus Marc G Electro-optical contour measuring system
US4259589A (en) * 1979-07-20 1981-03-31 Solid Photography, Inc. Generation of contiguous data files of three-dimensional information
US4594001A (en) * 1981-07-07 1986-06-10 Robotic Vision Systems, Inc. Detection of three-dimensional information with a projected plane of light
US4538062A (en) 1981-11-19 1985-08-27 Olympus Optical Co., Ltd. Focusing detecting device with coaxial source and detector
JPS59218411A (ja) 1983-05-26 1984-12-08 Canon Inc 自動焦点検出装置
US4653104A (en) 1984-09-24 1987-03-24 Westinghouse Electric Corp. Optical three-dimensional digital data acquisition system
US5018803A (en) * 1985-02-04 1991-05-28 Robotic Vision Systems, Inc. Three-dimensional volumetric sensor
US4687326A (en) * 1985-11-12 1987-08-18 General Electric Company Integrated range and luminance camera
DE3642051A1 (de) * 1985-12-10 1987-06-11 Canon Kk Verfahren zur dreidimensionalen informationsverarbeitung und vorrichtung zum erhalten einer dreidimensionalen information ueber ein objekt
JPH0615968B2 (ja) * 1986-08-11 1994-03-02 伍良 松本 立体形状測定装置
US5085502A (en) * 1987-04-30 1992-02-04 Eastman Kodak Company Method and apparatus for digital morie profilometry calibrated for accurate conversion of phase information into distance measurements in a plurality of directions
JP2756680B2 (ja) 1987-12-30 1998-05-25 株式会社リコー 自動焦点カメラの測距装置
US4908648A (en) 1987-12-30 1990-03-13 Ricoh Company, Ltd. Distance measuring device for automatic focusing camera
US4939379A (en) * 1989-02-28 1990-07-03 Automation Research Technology, Inc. Contour measurement using time-based triangulation methods
JP2910102B2 (ja) 1989-11-24 1999-06-23 株式会社ニコン 焦点検出装置
DE59006727D1 (de) 1989-12-05 1994-09-08 Broken Hill Pty Co Ltd Verfahren und anordnung zur optoelektronischen vermessung von gegenständen.
JPH03214133A (ja) 1990-01-18 1991-09-19 Nikon Corp 焦点検出装置
US5082362A (en) * 1990-07-02 1992-01-21 General Electric Company Zoom lens for a variable depth range camera
JP2844890B2 (ja) 1990-09-28 1999-01-13 横河電機株式会社 ダストサンプラー
EP0449337A2 (en) * 1990-10-24 1991-10-02 Kaman Aerospace Corporation Range finding array camera
US5182614A (en) * 1991-01-31 1993-01-26 Fmc Corporation Two-dimensional profile detection system
US5162861A (en) * 1991-04-01 1992-11-10 Tamburino Louis A Laser imaging and ranging system using one camera
JPH0545124A (ja) 1991-08-09 1993-02-23 Kyocera Corp 寸法表示可能な電子スチルカメラシステム
US5469536A (en) * 1992-02-25 1995-11-21 Imageware Software, Inc. Image editing system including masking capability
US5428438A (en) * 1993-08-30 1995-06-27 Northrop Grumman Corporation Laser ranging and detection system employing a geometric coherent/incoherent beam separator
JP3164709B2 (ja) 1993-09-03 2001-05-08 花王株式会社 固体状柔軟仕上剤組成物
US5519209A (en) * 1994-06-15 1996-05-21 Alliedsignal Inc. High range resolution active imaging system using a high speed shutter and a light pulse having a sharp edge
GB2292605B (en) * 1994-08-24 1998-04-08 Guy Richard John Fowler Scanning arrangement and method
JPH08286100A (ja) 1995-04-17 1996-11-01 Canon Inc カメラの測距装置
US7202776B2 (en) * 1997-10-22 2007-04-10 Intelligent Technologies International, Inc. Method and system for detecting objects external to a vehicle
WO1997001111A2 (en) * 1995-06-22 1997-01-09 3Dv Systems Ltd. Improved optical ranging camera
JP3417222B2 (ja) * 1996-08-07 2003-06-16 松下電器産業株式会社 実時間レンジファインダ
US5930383A (en) * 1996-09-24 1999-07-27 Netzer; Yishay Depth sensing camera systems and methods
JPH10191020A (ja) * 1996-12-20 1998-07-21 Canon Inc 被写体画像切出し方法及び装置
JP3189870B2 (ja) * 1996-12-24 2001-07-16 シャープ株式会社 画像処理装置
US5838428A (en) * 1997-02-28 1998-11-17 United States Of America As Represented By The Secretary Of The Navy System and method for high resolution range imaging with split light source and pattern mask
US5999892A (en) * 1997-05-05 1999-12-07 Fan; Rodric C. Method for providing an instant distance measurement on a map
JP3236799B2 (ja) * 1997-07-08 2001-12-10 株式会社ニコン 焦点検出装置および交換レンズ
JPH11194018A (ja) 1998-01-06 1999-07-21 Nikon Corp 被写体情報測定装置
US6040910A (en) * 1998-05-20 2000-03-21 The Penn State Research Foundation Optical phase-shift triangulation technique (PST) for non-contact surface profiling
JP2000162533A (ja) * 1998-11-30 2000-06-16 Aisin Seiki Co Ltd 光走査装置
JP3875817B2 (ja) * 1999-09-27 2007-01-31 ペンタックス株式会社 測距装置の地図座標検出システム
JP2001141429A (ja) * 1999-11-18 2001-05-25 Japan Atom Energy Res Inst 基線長可動型表面形状測定装置
EP1126412B1 (en) * 2000-02-16 2013-01-30 FUJIFILM Corporation Image capturing apparatus and distance measuring method
JP4356050B2 (ja) * 2000-12-28 2009-11-04 株式会社トプコン 測量装置と電子的記憶媒体
US6480678B1 (en) * 2001-08-30 2002-11-12 Nec Engineering, Ltd. Light transmitting member driving device for a contour measuring apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58121008A (ja) * 1982-01-14 1983-07-19 Olympus Optical Co Ltd 合焦検出装置及び合焦設定装置
JPH04136737U (ja) * 1991-06-07 1992-12-18 株式会社日立製作所 タツチパネルのワンタツチユニツト
JPH0554124A (ja) * 1991-08-21 1993-03-05 Iseki & Co Ltd 果実収穫ロボツト等の視覚装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101013156B1 (ko) * 2008-10-10 2011-02-10 한국기계연구원 전동줌렌즈와 회전미러를 이용한 고속 광학관측 시스템
KR101032952B1 (ko) 2009-12-31 2011-05-09 주식회사 세바비드코어 감시 카메라 시스템의 좌표생성방법
KR101674298B1 (ko) 2015-04-30 2016-11-08 영남대학교 산학협력단 카메라 렌즈 초점거리 정보를 이용한 거리계산 방법
CN105444729A (zh) * 2015-12-13 2016-03-30 重庆桑耐美光电科技有限公司 一种光学远距离测量的方法
KR101660481B1 (ko) 2016-01-29 2016-09-27 최봉석 압축링의 전후면 판별을 위한 비젼 검사방법 및 장치

Also Published As

Publication number Publication date
WO1999061948A1 (fr) 1999-12-02
EP1006386A1 (en) 2000-06-07
EP2312363A1 (en) 2011-04-20
EP1006386B1 (en) 2011-05-04
US6734951B2 (en) 2004-05-11
EP2416198B1 (en) 2013-05-01
US20030193659A1 (en) 2003-10-16
JP4332598B2 (ja) 2009-09-16
US20030193658A1 (en) 2003-10-16
US6897946B2 (en) 2005-05-24
EP2416198A1 (en) 2012-02-08
KR20010040232A (ko) 2001-05-15
US20030193657A1 (en) 2003-10-16
EP2312363B1 (en) 2013-09-18
DE69943406D1 (de) 2011-06-16
EP2306229A1 (en) 2011-04-06
US6704099B2 (en) 2004-03-09
EP2416197A1 (en) 2012-02-08
US20040145722A1 (en) 2004-07-29
EP2306228A1 (en) 2011-04-06
EP1006386A4 (en) 2009-11-11
US6587183B1 (en) 2003-07-01
JP2008249717A (ja) 2008-10-16

Similar Documents

Publication Publication Date Title
KR100382439B1 (ko) 레인지파인더 장치와 카메라
JP4387377B2 (ja) カメラ
JP3415070B2 (ja) レンジファインダ装置
JP4115801B2 (ja) 3次元撮影装置
US6987531B2 (en) Imaging system, photographing device and three-dimensional measurement auxiliary unit used for the system
EP2630789A1 (en) System and method for imaging and image processing
JP2013022464A (ja) 内視鏡及び内視鏡システム
JP6948407B2 (ja) 表面トポロジおよび関連する色を決定するための装置および方法
JP4209284B2 (ja) カメラ
JP3522732B2 (ja) カメラ
JP3793741B2 (ja) レンジファインダ装置
EP1662803A1 (en) Camera, image processing apparatus, image data processing method, and program
JP6722522B2 (ja) 三次元測定装置及びその制御方法
CN115150545B (zh) 获取三维测量点的测量系统
JP4020911B2 (ja) 3次元撮影装置
KR20190055362A (ko) ToF 센서를 이용한 캡슐 내시경 장치, 상기 장치의 동작 방법 및 시스템
JP2009014494A (ja) 計測装置
JP2002277225A (ja) 光学的形状測定装置の照明装置
JP2023175404A (ja) 撮像装置、撮像装置の制御方法、及びプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120322

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20130318

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20160322

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20180321

Year of fee payment: 16

FPAY Annual fee payment

Payment date: 20190319

Year of fee payment: 17

EXPY Expiration of term