[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102637344B1 - 객체의 인식을 수행하는 방법 및 장치 - Google Patents

객체의 인식을 수행하는 방법 및 장치 Download PDF

Info

Publication number
KR102637344B1
KR102637344B1 KR1020220026583A KR20220026583A KR102637344B1 KR 102637344 B1 KR102637344 B1 KR 102637344B1 KR 1020220026583 A KR1020220026583 A KR 1020220026583A KR 20220026583 A KR20220026583 A KR 20220026583A KR 102637344 B1 KR102637344 B1 KR 102637344B1
Authority
KR
South Korea
Prior art keywords
image
motion
camera sensor
camera
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020220026583A
Other languages
English (en)
Other versions
KR20230129679A (ko
Inventor
곽영준
박성렬
유병인
이솔애
이한아
최지호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020220026583A priority Critical patent/KR102637344B1/ko
Priority to US17/958,564 priority patent/US12167116B2/en
Publication of KR20230129679A publication Critical patent/KR20230129679A/ko
Application granted granted Critical
Publication of KR102637344B1 publication Critical patent/KR102637344B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/689Motion occurring during a rolling shutter mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)

Abstract

일 실시예에 따른 전자 장치는, 장면(scene)에 대한 제1 이미지를 캡쳐(capture)하고, 롤링(rolling), 패닝(panning), 틸팅(tilting), 및 주밍(zooming) 중 적어도 하나의 카메라 모션(camera motion)를 수행 가능한, 카메라 센서를 가지고, 제1 이미지에 대한 객체(object)의 검출 결과에 기초하여 수행된 카메라 모션에 의해 조정된 카메라 센서를 이용하여 제2 이미지를 캡쳐하며, 캡쳐된 제2 이미지로부터 객체를 인식할 수 있다.

Description

객체의 인식을 수행하는 방법 및 장치{DEVICE AND METHOD TO PERFORM OBJECT RECOGNITION}
아래의 개시는 객체의 인식에 관한 것이다.
최근에 카메라를 이용하는 다양한 인식기술, 예를 들어 바코드, 2차원 코드, 컬러기반 코드, 명함 인식, 얼굴인식 등과 같은 애플리케이션들이 보급되고 있다. 일반적으로 인식할 객체의 종류에 따라 별도의 애플리케이션을 구동하거나, 동일 애플리케이션에서 특정 인식모듈의 종류를 선택하기 위해 터치스크린 인터페이스가 이용될 수 있다.
전자장치에서 명함, 바코드 혹은 QR(Quick Response) 코드를 인식하기 위한 애플리케이션은 이미지 센서를 통해 특정 명함, 바코드 및 QR코드에 대응하는 이미지를 획득한 후, 해당 이미지 내에서 바코드 및 QR코드를 추출하여 추출된 코드에 포함된 정보를 디스플레이할 수 있다.
일 실시예에 따른 전자 장치는, 장면(scene)에 대한 제1 이미지를 캡쳐(capture)하고, 롤링(rolling), 패닝(panning), 틸팅(tilting), 및 주밍(zooming) 중 적어도 하나의 카메라 모션(camera motion)를 수행 가능한, 카메라 센서; 및 상기 제1 이미지에 대한 객체(object)의 검출 결과에 기초하여 상기 롤링, 상기 패닝, 상기 틸팅, 및 상기 주밍 중 적어도 하나의 카메라 모션을 수행하고, 상기 카메라 모션에 의해 조정된 상기 카메라 센서를 이용하여 제2 이미지를 캡쳐하며, 상기 캡쳐된 제2 이미지로부터 상기 객체를 인식하는 프로세서를 포함할 수 있다.
상기 프로세서는, 상기 제1 이미지에서 검출된 상기 객체 가 상기 카메라 센서에 대해 비정렬(misalign)된 것에 기초하여 상기 롤링을 수행할 수 있다.
상기 프로세서는, 상기 제2 이미지 내에서 상기 객체를 나타내는 시각적 표현(visual representation)의 제1 기준선 및 타겟 영역의 제2 기준선이 정렬되도록, 상기 카메라 센서의 주축(principal axis) 에 대응하는 롤 축(roll axis)을 기준으로 회전하는 롤링 모션을 상기 카메라 센서에게 지시할 수 있다.
상기 프로세서는, 상기 제1 이미지에서 상기 객체를 나타내는 시각적 표현의 형태(shape)가 상기 객체에 대해 식별된 카테고리에 미리 결정된 기준 형태(reference shape)에 미스매칭(mismatch)하는 것에 기초하여 상기 패닝 및 상기 틸팅 중 적어도 하나를 수행할 수 있다.
상기 프로세서는, 상기 제2 이미지에서 상기 객체를 나타내는 시각적 표현의 형태가 사각형이고 사각형의 개별 내각(internal angle)이 기준 각도로 되도록, 상기 카메라 센서의 요우잉 축(yaw axis)을 기준으로 회전하는 패닝 모션 및 상기 카메라 센서의 피치 축(pitch axis)을 기준으로 회전하는 틸팅 모션 중 적어도 하나를 상기 카메라 센서에게 지시할 수 있다.
상기 프로세서는, 상기 제1 이미지에서 검출된 상기 객체의 물리적 위치까지의 거리 및 상기 객체의 크기 중 적어도 하나에 기초하여 상기 주밍을 수행할 수 있다.
상기 프로세서는, 상기 제2 이미지에서 상기 객체를 나타내는 시각적 표현이 차지하는 면적이 타겟 영역의 임계 비율을 초과하는 면적이 되도록, 상기 카메라 센서에게 줌인 모션을 지시할 수 있다.
상기 프로세서는, 상기 제2 이미지에서 상기 객체의 일부를 검출하고 다른 일부가 손실된 것에 기초하여, 상기 카메라 센서에게 줌아웃 모션을 지시할 수 있다.
전자 장치는 상기 카메라 센서의 시야각보다 넓은 시야각을 가지는 다른 카메라 센서를 더 포함하고, 상기 프로세서는, 상기 제2 이미지에서 상기 객체 중 일부분을 검출한 것에 기초하여, 상기 다른 카메라 센서를 이용하여 상기 제2 이미지를 캡쳐할 수 있다.
상기 프로세서는, 사용자의 입력에 기초하여 상기 제1 이미지로부터 인식할 객체의 카테고리를 문서 및 패턴 코드 중 하나로 선택할 수 있다.
일 실시예에 따른 전자 장치에 의해 수행되는 방법은, 롤링, 패닝, 틸팅, 및 주밍 중 적어도 하나의 카메라 모션을 수행 가능한 카메라 센서를 이용하여 장면에 대한 제1 이미지를 캡쳐하는 단계; 상기 제1 이미지에 대한 객체의 검출 결과에 기초하여 상기 롤링, 상기 패닝, 상기 틸팅, 및 상기 주밍 중 적어도 하나의 카메라 모션을 수행하는 단계; 및 상기 카메라 모션에 의해 조정된 상기 카메라 센서를 이용하여 캡쳐된 제2 이미지로부터 상기 객체를 인식하는 단계를 포함할 수 있다.
도 1은 일 실시예에 따른 전자 장치의 구성을 도시한 블록도이다.
도 2 및 도 3은 일 실시예에 따른 객체의 인식 방법을 도시한 흐름도이다.
도 4는 일 실시예에 따른 롤링 모션의 수행을 설명하는 도면이다.
도 5는 일 실시예에 따른 패닝 모션 및/또는 틸팅 모션의 수행을 설명하는 도면이다.
도 6은 일 실시예에 따른 주밍 모션의 수행을 설명하는 도면이다.
도 7은 일 실시예에 따른 광각 렌즈를 가지는 카메라를 활용하는 동작을 설명하는 도면이다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 일 실시예에 따른 전자 장치의 구성을 도시한 블록도이다.
일 실시예에 따른 전자 장치(100)는 카메라 센서(110), 프로세서(120), 및 메모리(130)를 포함할 수 있다. 전자 장치(100)는 카메라 센서(110)를 이용하여 캡쳐된 이미지로부터 객체를 인식할 수 있다. 전자 장치(100)는 스마트폰, 태블릿PC, 노트북 컴퓨터, 및 스마트워치를 포함하는 모바일 단말로 구현될 수 있으나, 이로 한정하는 것은 아니다. 전자 장치(100)는 데스크톱 PC 및 키오스크 단말을 포함하는 고정 단말(stationary terminal)로 구현될 수도 있다.
카메라 센서(110)는 장면(scene)에 대한 이미지(예: 제1 이미지)를 캡쳐(capture)할 수 있다. 카메라 센서(110)는, 롤링(rolling), 패닝(panning), 틸팅(tilting), 및 주밍(zooming) 중 적어도 하나의 카메라 모션(camera motion)를 수행 가능할 수 있다. 본 명세서에서 카메라 모션을 수행 가능한 카메라 센서(110)를 비고정 카메라 또는 무버블 카메라(movable camera)라고 나타낼 수 있다. 참고로, 패닝 모션(192), 틸팅 모션(193), 및 주밍 모션을 수행가능한 카메라를 팬틸트줌 (Pan-tilt-zoom; PTZ) 카메라라고 나타낼 수 있다. 다른 예를 들어, 카메라 센서(110)는 PTZ 모션 뿐만 아니라 롤링 모션(191)도 수행가능하게 구성될 수 있다.
예를 들어, 카메라 센서(110)는 롤링 모션(191), 패닝 모션(192), 틸팅 모션(193), 및 주밍 모션을 포함하는 카메라 모션을 수행가능한 기계구조(예: 액추에이터(actuator))를 자체적으로 포함할 수 있다. 다만, 이로 한정하는 것은 아니고, 카메라 센서(110)는 전술한 카메라 모션을 수행가능한 기계구조를 통해 전자 장치(100)의 다른 구성요소(예: 하우징)와 연결될 수도 있다. 카메라 센서(110)는 프로세서(120)의 명령에 응답하여 카메라 모션을 수행할 수 있다. 카메라 센서(110)는 카메라 모션의 수행을 통해 캡쳐되는 장면을 이동 및/또는 변경할 수 있다. 후술하겠으나, 카메라 센서(110)는 카메라 모션에 의해 객체를 주시(gaze) 및/또는 타겟팅하도록 작동할 수 있다.
카메라 모션은 카메라 센서(110)의 주축(principal axis)(예: 광축(optical axis)), 시야각(field of view, FOV), 및 장면(scene) 중 적어도 하나를 이동 및/또는 변화시키는 동작으로서, 카메라 무브먼트(camera movement)라고도 나타낼 수 있다. 참고로, 카메라 센서는 주축 및 시야각에 의해 결정되는 장면을 촬영함으로써 이미지를 캡쳐할 수 있다. 아래에서는 카메라 모션의 예시로서 롤링 모션(191), 패닝 모션(192), 틸팅 모션(193), 및 주밍 모션을 설명하며, 이미지에 포함되는 장면은 전술한 카메라 모션에 의해 변화할 수 있다.
롤링 모션(191)은 카메라 센서(110)의 롤 축(roll axis)(181)을 기준으로 회전하는 모션으로서, 예시적으로 롤 축(181)은 카메라 센서(110)의 주축(예: 광축)에 대응할 수 있다. 롤링 모션(191)이 적용된 카메라 센서(110)는, 기준점(예: 이미지의 중심점)을 기준으로 회전된, 장면을 포함하는 이미지를 캡쳐할 수 있다. 롤링 모션(191)은 더치 모션(dutch motion)이라고도 나타낼 수 있다. 롤링 모션(191)을 통한 객체 타겟팅은 하기 도 4에서 설명한다.
패닝 모션(192)은 카메라 센서(110)의 요우잉 축(yaw axis)(182)을 기준으로 회전하는 모션으로서, 요우잉 축(182)은 롤 축(181) 및 피치 축(183)에 수직할 수 있다. 예시적으로 도 1에서 요우잉 축(182)은 전자 장치(100)의 세로축에 평행하게 도시되었다. 패닝 모션(192)이 적용된 카메라 센서(110)의 주축은 요우잉 축(182)을 기준으로 시계 방향 또는 반시계 방향으로 회전되고, 카메라 센서(110)에 의해 캡쳐되는 장면도 변화할 수 있다. 객체와 카메라 센서(110) 간의 물리적 위치 관계가 고정된 동안, 패닝 모션(192)이 적용된 카메라 센서(110)는 이미지 내에서 수평하게 이격된 지점에서 객체를 캡쳐할 수 있다. 예를 들어, 패닝 모션(192)이 적용되기 전 카메라 센서(110)에 의해 캡쳐된 제1 이미지에서, 객체가 제1 지점에 위치될 수 있다. 요우잉 축(182)을 기준으로 시계 방향으로 회전하는 패닝 모션(192)을 수행한 카메라 센서(110)에 의해 캡쳐된 제2 이미지에서, 객체는 제1 지점으로부터 일측(예: 왼쪽)의 제2 지점에 위치될 수 있다. 다른 예를 들어, 요우잉 축(182)을 기준으로 반시계 방향으로 회전하는 패닝 모션(192)을 수행한 카메라 센서(110)에 의해 캡쳐된 제2 이미지에서는, 객체가 제1 지점으로부터 타측(예: 오른쪽)의 제2 지점에 위치될 수 있다. 패닝 모션(192)은 카메라 센서(110)의 좌우 회전으로도 해석될 수 있다. 참고로, 본 명세서에서 제1 이미지는 카메라 모션이 적용되기 전에 캡쳐된 이미지, 제2 이미지는 카메라 모션이 적용된 후에 캡쳐된 이미지를 주로 나타낼 수 있다.
틸팅 모션은 카메라의 피치 축(pitch axis)(183)을 기준으로 회전하는 모션으로서, 피치 축(183)은 롤 축(181) 및 요우잉 축(182)에 수직할 수 있다. 예시적으로 도 1에서 피치 축(183)은 전자 장치(100)의 가로 축에 평행하게 도시되었다. 틸팅 모션(193)이 적용된 카메라 센서(110)의 주축은 피치 축(183)을 기준으로 회전될 수 있다. 전술한 패닝 모션(192)과 유사하게, 틸팅 모션(193)이 적용되기 전 제1 이미지와 틸팅 모션(193)이 적용된 후 제2 이미지에서, 객체가 위치되는 지점은 틸팅 모션(193)의 회전 방향에 따라 달라질 수 있다. 예를 들어, 틸팅 모션(193)이 적용되기 전 카메라 센서(110)에 의해 캡쳐된 제1 이미지에서, 객체가 제1 지점에 위치될 수 있다. 피치 축(183)을 기준으로 제1 회전 방향(예: 아래를 바라보는 방향에서 위를 바라보는 방향으로 회전)으로 회전하는 틸팅 모션(193)을 수행한 카메라 센서(110)에 의해 캡쳐된 제2 이미지에서, 객체는 제1 지점으로부터 일측(예: 아래쪽)의 제2 지점에 위치될 수 있다. 다른 예를 들어, 피치 축(183)을 기준으로 제1 회전 방향과 반대되는 제2 회전 방향으로 회전하는 틸팅 모션(193)을 수행한 카메라 센서(110)에 의해 캡쳐된 제2 이미지에서는, 객체가 제1 지점으로부터 타측(예: 위쪽)의 제2 지점에 위치될 수 있다. 틸팅 모션(193)은 카메라 센서(110)의 상하 움직임 및/또는 상하 회전으로도 해석될 수 있다.
전술한 롤 축(181), 요우잉 축(182), 및 피치 축(183)은 설계 및 전자 장치(100)의 모드(예: 세로 모드 및 가로 모드)에 따라 달라질 수 있다.
주밍 모션은 카메라 센서(110)에 포함된 하나 이상의 렌즈를 포함하는 광학계(optical system)의 초점 길이(focal length)를 변경하는 모션을 나타낼 수 있다. 주밍 모션은 이미지 내에서 객체를 확대하는 줌인(zoom in) 모션 및 이미지 내에서 객체를 축소시키는 줌아웃(zoom out) 모션을 포함할 수 있다.
다만, 카메라 모션을 후술하는 바로 한정하는 것은 아니고, 설계에 따라 일축을 따라 평행하게 이동하는 모션(예: 페데스탈(pedestal), 돌리(dolly), 및 트럭(truck))을 포함할 수도 있다.
프로세서(120)는 제1 이미지에 대한 객체(object)의 검출 결과에 기초하여 롤링, 패닝, 틸팅, 및 주밍 중 적어도 하나의 카메라 모션을 수행할 수 있다. 프로세서(120)는 카메라 모션에 의해 조정된 카메라 센서(110)를 이용하여 제2 이미지를 캡쳐할 수 있다. 프로세서(120)는 캡쳐된 제2 이미지로부터 객체를 인식할 수 있다. 다만, 프로세서(120)의 동작을 이로 한정하는 것은 아니며, 프로세서(120)의 구체적인 동작은 하기 도 2 내지 도 7에서 설명한다.
객체는 인식의 대상이 되는 정보(information)를 표현하는 물체로서. 예를 들어, 객체는 패턴 코드 및 문서를 포함할 수 있다. 패턴 코드는 정보를 표현하는 패턴을 가지는 코드로서, 예를 들어, 바코드, QR(Quick Response) 코드의 형태로 시각적으로 2차원 도형으로 구현될 수 있다. 다만 이로 한정하는 것은 아니고, 패턴 코드는 3차원 이상의 도형으로 구현될 수도 있다. 문서는 정보를 나타내는 문자 및/또는 도형을 포함할 수 있다.
전자 장치(100)는 카메라 센서(110)를 이용하여 촬영된 제1 이미지 및/또는 제2 이미지에서 객체를 검출하고, 검출된 객체를 인식할 수 있다. 객체의 인식은 객체에 포함된 정보를 식별, 판독, 및 추출하는 동작을 포함할 수 있다. 패턴 코드 중 QR 코드는 사각 형태(square shape)의 검출, 검출된 사각 형태에 대응하는 영역 내에서 포지셔닝 마크(positioning mark)의 검출, 및 정보를 담은(contain) 개별 단위(individual cell)(예: 작은 흰색 사각형 요소 및 검은색 사각형 요소)의 조합의 식별에 기초하여 인식될 수 있다. 문서에 포함된 정보(예: 일련의 문자 및 숫자)는 OCR(optical character recognition)에 기초하여 인식될 수 있다. 다만, 문서에 대해서만 OCR에 기초하여 정보를 인식하는 것으로 한정하는 것은 아니다. 전자 장치는 문서 외에 문자 및/또는 숫자가 인쇄(print) 및/또는 드로잉(drawing)된 다양한 물체를 검출하고, 해당 물체에 대해 OCR을 수행할 수도 있다.
객체의 검출 결과는 객체의 검출과 관련된 정보로서, 이미지에서 검출된 객체의 형태, 검출 상태, 및 카테고리(object category) 중 적어도 하나를 포함할 수 있다. 예를 들어, 바코드, QR코드, 및 문서와 같은 객체의 형태는 사각형일 수 있다. 검출 상태는 객체의 완전한 형태(full shape)가 검출되었는지 또는 객체의 부분 형태(partial shape)만 검출되었는지 여부를 나타낼 수 있다. 객체의 카테고리는 객체가 바코드, QR코드, 및 문서 중 어느 종류의 물체인 지를 지시할 수 있다.
메모리(130)는 객체를 인식하는 방법을 수행하기 위한 명령어를 저장할 수 있다. 메모리(130)는 카메라 모션이 적용되기 전에 캡쳐된 제1 이미지 및 카메라 모션이 적용된 후에 캡쳐된 제2 이미지를 저장할 수 있다. 또한, 메모리(130)는 제1 이미지에 대한 객체의 검출 결과, 및 제2 이미지에 대한 객체의 인식 결과를 저장할 수 있다. 객체의 인식 결과는 정보를 담은 객체를 인식함으로써 획득되는 정보를 나타낼 수 있다. QR 코드에 담긴 정보는 셀의 조합으로부터 판독될 수 있다. 바코드에 담긴 정보는 여백, 내로우 바(narrow bar), 및 와이드 바(wide bar)의 조합으로부터 판독될 수 있다. 문서에 담긴 정보는 문서에 포함된 문자, 숫자, 및 도형에 대한 광학 인식에 기초하여 판독될 수 있다.
일 실시예에 따른 전자 장치(100)는, 수동 입력 없이, 객체 검출 결과(예: 객체의 형상 등)에 기초하여 카메라 센서(110)(예: PTZ 카메라)의 카메라 모션을 자동으로 수행함으로써 선명하고 왜곡이 감소된 형상으로 객체를 촬영한 이미지를 획득할 수 있다. 전자 장치(100)는 전술한 바와 같이 사용자의 의도(예: 원하는 카테고리의 객체를 인식하고자 하는 의도)를 정확하게 판별하고, 객체에 대한 신속한 스캔을 카메라 센서(110)의 PTZ 모션 및 롤링 모션(191)을 이용하여 제공할 수 있다. 다시 말해, 전자 장치(100)는 사용자에 의한 카메라 센서(110)와 객체 간의 위치 및/또는 거리 변경 없이도 정확한 객체 인식 결과를 제공할 수 있다. 따라서 전자 장치(100)는 객체 인식을 위해 사용자에게 요구되던 조작 스텝을 1단계로 최소화할 수 있다. 따라서 전자 장치(100)는 객체 인식에 있어서 사용자의 편의성을 최대화할 수 있다.
도 2 및 도 3은 일 실시예에 따른 객체의 인식 방법을 도시한 흐름도이다.
우선, 단계(210)에서 전자 장치(예: 도 1의 전자 장치(100))는 패닝, 틸팅, 주밍, 및 롤링 중 적어도 하나의 카메라 모션을 수행 가능한 카메라 센서를 이용하여 장면에 대한 제1 이미지를 캡쳐할 수 있다. 카메라 센서는 디폴트 모션 파라미터로 장면을 캡쳐할 수 있다. 디폴트 모션 파라미터는 카메라 센서의 주축 및 시야각을 디폴트 상태로 설정하기 위한 모션 파라미터로서, 디폴트 상태는 카메라 센서의 주축이 전자 장치의 기준축과 나란하게 정렬된 상태일 수 있다. 전자 장치의 기준축은 디스플레이 평면에 수직하는 축일 수 있다. 다시 말해, 디폴트 모션 파라미터가 셋팅된 카메라 센서는 전자 장치의 정면 방향(예: 디스플레이와 마주하는 방향)을 바라보고, 정면 방향에 대응하는 장면에 대한 제1 이미지를 캡쳐할 수 있다.
그리고 단계(220)에서 전자 장치는 제1 이미지에 대한 객체의 검출 결과에 기초하여 패닝, 틸팅, 주밍, 및 롤링 중 적어도 하나의 카메라 모션을 수행할 수 있다. 예를 들어, 단계(321)에서 전자 장치는 제1 이미지로부터 객체의 검출 결과를 획득할 수 있다. 전자 장치는 제1 이미지가 객체를 포함하는지 여부, 객체의 형태, 및 객체의 상태를 결정할 수 있다. 전자 장치는 객체의 검출 결과에 기초하여 수행할 카메라 모션을 결정할 수 있다. 예를 들어, 전자 장치는 검출된 객체의 형태, 상태, 이미지 내 크기, 및 객체까지의 거리에 기초하여 롤링 모션, 패닝 모션, 틸팅 모션, 및 주밍 모션 중 하나 또는 둘 이상의 조합(예: 카메라 모션 조합)을 선택할 수 있다. 전자 장치는 선택된 카메라 모션 또는 카메라 모션 조합에 대해 모션 파라미터를 객체의 검출 결과에 기초하여 결정할 수 있다. 모션 파라미터는 롤링 각도, 패닝 각도, 틸팅 각도, 및 줌 배율을 포함할 수 있다.
예를 들어, 단계(322)에서 전자 장치는 객체 검출 결과에 기초하여 롤링 모션을 수행할 수 있다. 전자 장치는 이미지에서 회전된 객체가 촬영된 경우 롤링 모션의 수행을 카메라 센서에게 지시할 수 있다. 롤링 모션의 수행은 하기 도 4에서 설명한다. 다른 예를 들어, 단계(323)에서 전자 장치는 패닝 모션 및/또는 틸팅 모션을 수행할 수 있다. 전자 장치는 기울어지거나 왜곡된 객체가 촬영된 경우 패닝 모션 및/또는 틸팅 모션을 카메라 센서에게 지시할 수 있다. 패닝 모션 및/또는 틸팅 모션의 수행은 하기 도 5에서 설명한다. 또 다른 예를 들어, 단계(324)에서 전자 장치는 전자 장치는 객체 인식의 스캐닝 거리를 벗어난 객체가 촬영된 경우 주밍 모션을 카메라 센서에게 지시할 수 있다. 스캐닝 거리는 전자 장치에서 객체를 인식 가능한 거리의 범위로서, 객체의 물리적 크기 별로 전자 장치로부터 객체까지의 스캐닝 거리가 다르게 설정될 수 있다. 스캐닝 거리는 스캐닝 거리 범위라고도 나타낼 수 있다. 스캐닝 거리는 하기 도 6에서 설명한다. 전술한 카메라 모션에 의해 카메라 센서의 주축이 객체의 중심부를 향하도록 이동되고, 카메라 센서의 시야각이 객체를 모두 포함하도록 정렬될 수 있다.
참고로, 전자 장치는 단계(321)에서 객체 검출 결과 제1 이미지로부터 객체 인식이 가능한 지 여부를 판단할 수 있다. 전자 장치는 제1 이미지에서 객체 인식이 가능한 것에 기초하여, 단계(340)에서 일반 촬영(예: 디폴트 모션 파라미터로 셋팅된 카메라 센서를 이용한 촬영)에 기초하여 캡쳐된 제1 이미지로부터 객체를 인식할 수 있다.
이어서 단계(230)에서 전자 장치는 카메라 모션에 의해 조정된 카메라 센서를 이용하여 캡쳐된 제2 이미지로부터 객체를 인식할 수 있다. 예를 들어, 단계(331)에서 전자 장치는 전술한 단계들(322, 323, 324)에 따른 카메라 모션이 적용된 카메라 센서를 이용하여 새로운 이미지(예: 제2 이미지)를 캡쳐할 수 있다. 카메라 모션에 의해 주축 및/또는 시야각이 변화하였으므로, 제1 이미지의 장면과 제2 이미지의 장면은 다를 수 있다. 제2 이미지에서 객체를 나타내는 시각적 표현(visual representation)은 제1 이미지에서 객체를 나타내는 시각적 표현보다 정렬된 위치, 크기, 및 형태를 가질 수 있다. 예를 들어, 전자 장치는 제1 이미지보다 장면의 중심에 객체가 위치되는 제2 이미지를 캡쳐할 수 있다. 단계(332)에서 전자 장치는 캡쳐된 제2 이미지에 기초하여 객체 인식을 수행할 수 있다. 예를 들어, 전자 장치는 제2 이미지에 포함된 객체에 담긴 정보를 바코드 인식, QR 코드 인식, 및 OCR 인식에 기초하여 추출할 수 있다. 전자 장치는 객체 인식을 실패하는 것에 기초하여, 단계(321)로 돌아가 다시 객체를 검출하고, 그 객체 검출 결과에 기초하여 새로운 카메라 모션을 수행할 수 있다.
일 실시예에 따른 전자 장치는 카메라 센서를 이용하여 바코드, QR 코드, 및 문서를 스캔 할 때, 전술한 카메라 모션을 통해 카메라 센서를 객체를 향해 정렬시킴으로써 짧은 단계로 정확한 스캔을 제공할 수 있다. 다시 말해, 전자 장치는 사용자에 의한 카메라의 수동 이동 없이, 텍스트 및/또는 패턴 코드를 가지는 객체를 향해 카메라 센서의 주축 및 시야각을 카메라 모션을 적용하여 정렬시킬 수 있다.
전술한 실시예에 따르면 전자 장치는 객체의 검출 결과에 기초하여 제1 이미지로부터 인식할 객체의 카테고리를 식별할 수 있다. 예를 들어, 전자 장치는 제1 이미지에서 미리 정의된 기준 형태(예: 사각형)를 검출하는 것에 기초하여 객체가 존재하는 것으로 결정할 수 있다. 전자 장치는 검출된 객체의 형태에 대응하는 영역(예: 사각 영역) 내에서 패턴 코드와 관련된 표시(예: QR 코드의 포지셔닝 마크)를 검출하는 것에 기초하여 객체의 카테고리를 패턴 코드로 식별할 수 있다. 다른 예를 들어, 전자 장치는 검출된 객체의 형태에 대응하는 영역 내에서 문자 및/또는 숫자를 검출하는 것에 기초하여 객체의 카테고리를 문서로 식별할 수 있다. 다만, 이로 한정하는 것은 아니고, 전자 장치는 사용자 입력에 기초하여 객체의 카테고리를 결정할 수도 있다. 전자 장치는 사용자의 입력에 기초하여 제1 이미지로부터 인식할 객체의 카테고리를 문서 및 패턴 코드 중 하나로 선택할 수 있다. 따라서, 전자 장치는 사용자 의도에 부합하는 카테고리를 자동 및/또는 수동 입력에 기초하여 선택하고, 선택된 카테고리에 대응하는 객체를 제1 이미지 및/또는 제2 이미지로부터 검출 및 인식할 수 있다.
도 4는 일 실시예에 따른 롤링 모션의 수행을 설명하는 도면이다.
단계(420)에서 전자 장치(예: 도 1의 전자 장치(100))는 객체(490)가 비정렬(misalign)인 지 여부를 판단할 수 있다. 전자 장치의 프로세서는, 제1 이미지에서 검출된 객체(490)가 카메라 센서에 대해 비정렬(misalign)된 것에 기초하여 롤링을 수행할 수 있다. 예를 들어, 전자 장치는 제2 이미지 내에서 객체(490)를 나타내는 시각적 표현(visual representation)의 제1 기준선(491) 및 타겟 영역(450)의 제2 기준선(451)이 정렬되도록, 카메라 센서의 주축(principal axis)에 대응하는 롤 축(roll axis)을 기준으로 회전하는 롤링 모션을 카메라 센서에게 지시할 수 있다. 객체(490)를 나타내는 시각적 표현은 전자 장치의 디스플레이에서 출력될 수 있다. 타겟 영역(450)은 인식을 위해 객체(490)가 위치되어야 하는 영역으로서, 디스플레이 내 일부 영역 또는 디스플레이 전체 영역일 수 있다. 도 4에서 타겟 영역(450)은 디스플레이의 일부 영역으로 도시되었다.
제1 기준선(491) 및 제2 기준선(451)은 시각적 표현 및 타겟 영역(450) 간의 정렬의 기준이 되는 선들을 나타낼 수 있다. 도 4에서 제1 기준선(491)은 시각적 표현의 형태(예: 사각형)에서 한 변(edge)에 대응하는 직선으로, 제2 기준선(451)은 타겟 영역(450)에서 한변에 대응하는 직선으로 도시되었으나, 이로 한정하는 것은 아니다. 전술한 예시에서 전자 장치는 제1 이미지에서 시각적 표현의 제1 기준선(491) 및 타겟 영역(450)의 제2 기준선(451) 간의 각도 차이가 제1 임계 각도를 초과하는 것에 기초하여 객체(490)가 카메라 센서에 대해 비정렬된 것으로 결정할 수 있다.
전자 장치는 검출 결과에 기초하여 모션 파라미터를 결정할 수 있다. 예를 들어, 전자 장치는 제1 이미지에서 시각적 표현의 제1 기준선(491) 및 타겟 영역(450)의 제2 기준선(451) 간의 각도 차이에 기초하여 모션 파라미터를 결정할 수 있다. 전자 장치는 제1 기준선(491) 및 제2 기준선(451) 간의 각도 차이에 기초하여 롤링 파라미터를 산출할 수 있다. 롤링 파라미터는 카메라 센서의 롤링 모션을 수행하는 레벨을 나타내는 파라미터로서, 예시적으로 롤링 각도를 포함할 수 있다. 롤링 각도는 디폴트 각도(예: 카메라 센서가 정면을 바라보는 각도)로부터 롤 축을 기준으로 카메라 센서를 회전시키는 각도를 나타낼 수 있다. 전자 장치는 제1 기준선(491) 및 제2 기준선(451) 간의 각도 차이가 제1 임계 각도 이하인 것에 기초하여 전술한 객체(490)의 시각적 표현이 타겟 영역(450)에 대해 정렬된 것으로 판단할 수 있다.
카메라 센서에 대해 객체(490)가 비정렬된 경우 객체(490)에 대한 인식률이 저하될 수 있다. 일 실시예에 따른 전자 장치는 전술한 롤링 모션을 통해 객체(490)에 대해 카메라 센서의 시야를 정렬시킨 후 획득된 제2 이미지를 이용하여 객체 인식을 수행함으로써 객체 인식의 정확도를 개선할 수 있다.
도 5는 일 실시예에 따른 패닝 모션 및/또는 틸팅 모션의 수행을 설명하는 도면이다.
단계(520)에서 전자 장치(예: 도 1의 전자 장치(100))는 객체(590) 형태가 기준 형태에 미스매칭하는 지 여부를 판단할 수 있다. 전자 장치의 프로세서는, 제1 이미지에서 객체(590)를 나타내는 시각적 표현의 형태(shape)가 객체(590)에 대해 식별된 카테고리에 미리 결정된 기준 형태(reference shape)에 미스매칭(mismatch)하는 것에 기초하여 패닝 및 틸팅 중 적어도 하나를 수행할 수 있다. 예를 들어, 전자 장치는 제2 이미지에서 객체(590)를 나타내는 시각적 표현의 형태가 사각형이고 사각형의 개별 내각(internal angle)이 기준 각도로 되도록, 카메라 센서의 요우잉 축(yaw axis)을 기준으로 회전하는 패닝 모션 및 카메라 센서의 피치 축(pitch axis)을 기준으로 회전하는 틸팅 모션 중 적어도 하나를 카메라 센서에게 지시할 수 있다.
전술한 예시에서 객체(590)가 QR 코드와 같은 패턴 코드 또는 문서인 경우 기준 형태는 사각형일 수 있다. 전자 장치는 객체(590)를 나타내는 시각적 표현의 내각들(580) 중 적어도 한 각도 및 기준 각도(예: 90도) 간의 각도 차이가 제2 임계 각도를 초과하는 것에 기초하여 객체(590)의 형태가 기준 형태에 미스매칭하는 것으로 결정할 수 있다.
전자 장치는 검출 결과에 기초하여 모션 파라미터를 결정할 수 있다. 예를 들어, 전자 장치는 제1 이미지에서 객체(590)의 시각적 표현의 각 내각 및 기준 각도 간의 각도 차이에 기초하여 모션 파라미터를 결정할 수 있다. 전자 장치는 내각이 및 기준 각도 간의 차이에 기초하여 틸팅 파라미터 및/또는 패닝 파라미터를 산출할 수 있다. 전자 장치는 4개의 내각들(580)의 각각과 기준 각도 간의 차이들의 합이 최소화되는 틸팅 파라미터 및/또는 패닝 파라미터를 계산할 수 있다. 틸팅 파라미터는 카메라 센서의 틸팅 모션을 수행하는 레벨을 나타내는 파라미터로서, 예시적으로 틸팅 각도를 포함할 수 있다. 틸팅 각도는 디폴트 각도로부터 피치 축을 기준으로 카메라 센서를 회전시키는 각도를 나타낼 수 있다. 패닝 각도는 디폴트 각도로부터 요우잉 축을 기준으로 카메라 센서를 회전시키는 각도를 나타낼 수 있다. 전자 장치는 4개의 내각들(580)의 각각과 기준 각도 간의 차이들의 합이 제2 임계 각도 이하인 것에 기초하여 객체(590)의 시각적 표현이 기준 형태에 매칭하는 것으로 판단할 수 있다.
도 6은 일 실시예에 따른 주밍 모션의 수행을 설명하는 도면이다.
단계(620)에서 전자 장치는 객체(690)까지의 거리(680)를 추정할 수 있다. 전자 장치는 객체(690)까지의 거리(680)에 기초하여 해당 객체(690)의 크기에 대응하는 스캐닝 거리를 벗어났는지 여부를 판별할 수 있다. 전자 장치는 카메라 센서의 줌 배율 및 검출된 객체(690)가 제1 이미지에서 차지하는 면적에 기초하여 전자 장치로부터 객체(690)까지의 거리(680)를 추정할 수 있다. 다른 예를 들어, 전자 장치는 거리 센서(예: ToF(time of flight) 센서, 적외선 센서, 라이다 센서, 레이더 센서, 및 초음파 센서)를 이용하여 객체(690)까지의 거리(680)를 측정할 수도 있다.
스캐닝 거리는 디폴트 줌 배율(default zoom magnification)으로 전자 장치에서 객체(690)를 인식 가능한 거리로서, 객체(690)의 물리적 크기 별로 전자 장치로부터 객체(690)까지의 스캐닝 거리가 다르게 설정될 수 있다. 디폴트 줌 배율은 예를 들어 1배 줌일 수 있다. 예를 들어, 2cm (centimeter) 크기의 QR 코드에 대한 디폴트 줌 배율에서 스캐닝 거리는 25 cm일 수 있다. 6cm 이상 15.8cm 이하의 크기의 QR 코드(예: 잡지 또는 카탈로그에 인쇄된 QR 코드)에 대한 디폴트 줌 배율에서의 스캐닝 거리는 45cm 이상 75cm이하일 수 있다. 다른 예를 들어, 16cm 이상 75cm이하의 QR 코드(예: 포스터 또는 창문에 배치된 QR코드)에 대한 디폴트 줌 배율에서의 스캐닝 거리는 1.2 m (meter) 이상 7.6m 이하일 수 있다. 또 다른 예를 들어, 48cm 이상 157cm이하의 QR코드에 대한 디폴트 줌 배율에서의 스캐닝 거리는 3.6m 이상 7.6m이하일 수 있다. 다만, 전술한 스캐닝 거리는 순전히 예시로서, 설계에 따라 달라질 수 있다. 또한, 줌 배율에 따라 스캐닝 거리는 달라질 수 있다. 또한, QR 코드가 전술한 객체(690)들에 배치되는 것으로 한정하는 것도 아니며, 디스플레이를 통해 출력되거나, 가게 창문에 부착되거나, 차량에 위치될 수도 있다.
전자 장치는 제1 이미지에서 검출된 객체(690)의 물리적 위치까지의 거리 및 객체(690)의 크기 중 적어도 하나에 기초하여 주밍을 수행할 수 있다. 전술한 바와 같이 객체(690)의 크기에 따라 전자 장치에 의해 인식 가능한 스캐닝 거리가 달라질 수 있다. 전자 장치는 객체(690)의 물리적 위치까지의 거리가 제1 이미지에서 검출된 객체(690)의 크기에 대응하는 스캐닝 거리 범위(691)를 벗어나는 지 판단할 수 있다. 전자 장치는 객체(690)까지의 거리(680)가 스캐닝 거리 범위(691)를 벗어나는 것에 기초하여 주밍 모션을 수행할 수 있다.
예를 들어, 전자 장치는 제2 이미지에서 객체(690)를 나타내는 시각적 표현이 차지하는 면적이 타겟 영역의 임계 비율을 초과하는 면적이 되도록, 카메라 센서에게 줌인 모션을 지시할 수 있다. 전자 장치는 제1 이미지에서 객체(690)를 나타내는 시각적 표현이 타겟 영역 내에서 임계 비율 이하의 면적을 차지하는 것에 기초하여, 줌인 모션을 수행함으로써 제2 이미지에서 객체(690)를 나타내는 시각적 표현의 크기를 증가시킬 수 있다. 따라서, 객체(690)를 나타내는 시각적 표현이 확대될 수 있다. 전자 장치는 객체(690)를 나타내는 시각적 표현의 면적이 타겟 영역 내 임계 비율에 대응하는 면적을 초과할 때까지 중인 모션을 계속할 수 있다. 전자 장치는 객체(690)를 나타내는 시각적 표현의 면적이 전술한 임계 비율에 대응하는 면적을 초과하는 것에 기초하여 줌인 모션을 종료할 수 있다. 제1 이미지에서는 객체(690)가 전자 장치로부터 너무 멀어서 작게 캡쳐된 것이므로, 전자 장치는 전술한 줌인을 통해 인식에 적합한 크기까지 객체(690)를 확대하여 촬영함으로써 제2 이미지를 획득할 수 있다.
다른 예를 들어, 전자 장치는 제2 이미지에서 객체(690)의 일부를 검출하고 다른 일부가 손실된 것에 기초하여, 카메라 센서에게 줌아웃 모션을 지시할 수 있다. 객체(690)가 전자 장치에 너무 인접한 경우, 타겟 영역 및/또는 제2 이미지에 객체(690)의 일부만 포함되고, 다른 일부(예: 나머지 부분)은 손실되거나 타겟 영역으로부터 벗어날 수 있다. 전자 장치는 전술함 줌아웃 모션을 카메라 센서에게 지시함으로써 객체(690)의 전체 형상이 캡쳐된 제2 이미지를 획득할 수 있다.
따라서, 객체(690)까지의 거리(680)가 디폴트 줌 배율에서의 스캐닝 거리 범위(691)를 벗어나더라도 객체(690) 및 전자 장치 간의 거리 변경이 불필요하므로, 전자 장치는 사용자에 의한 이동 없이도 주밍 모션을 통해 객체(690)를 인식에 적합한 크기로 캡쳐한 것에 기초하여 정확한 객체(690) 인식을 수행할 수 있다.
참고로, 전술한 예시에서는 객체(690)까지의 거리(680)에 기초하여 주밍 모션을 수행하는 것으로 설명하였으나, 이로 한정하는 것은 아니다. 전자 장치는 제1 이미지 내에서 검출된 객체(690)를 나타내는 시각적 표현의 면적에 기초하여 주밍 모션의 주밍 파라미터를 산출할 수도 있다. 예를 들어, 전자 장치는 제2 이미지에서 객체(690)를 나타내는 시각적 표현의 면적이 목표 면적 범위 내에 포함되는 주밍 파라미터(예: 줌 배율)를 산출할 수도 있다.
도 7은 일 실시예에 따른 광각 렌즈를 가지는 카메라를 활용하는 동작을 설명하는 도면이다.
일 실시예에 따른 전자 장치는 카메라 센서(예: 도 1의 카메라 센서(110))의 시야각보다 넓은 시야각을 가지는 다른 카메라 센서(예: 광각 카메라)를 더 포함할 수 있다.
단계(720)에서 전자 장치는 제1 이미지에서 객체(790)의 일부만 검출되었는지 여부를 판단할 수 있다. 예를 들어, 전자 장치는 캡쳐된 제1 이미지에서 타겟 영역(780)에 객체(790)의 일부분(791)이 포함되고, 다른 부분(792)(예: 나머지 부분)이 타겟 영역(780)을 벗어났는지 여부를 판단할 수 있다. 전자 장치는 제2 이미지에서 객체(790) 중 일부분(791)을 검출한 것에 기초하여, 다른 카메라 센서를 이용하여 제2 이미지를 캡쳐할 수 있다. 따라서 전자 장치는 객체(790)의 전체 형상이 타겟 영역(780) 내에 포함된 제2 이미지를 캡쳐할 수 있다. 전자 장치는 제2 이미지에 포함된 객체(790)를 검출 및 인식할 수 있다.
도 7에서는 전자 장치가 광각 카메라를 더 포함하는 예시를 설명하였으나, 이로 한정하는 것은 아니고, 전자 장치는 망원 카메라(telephoto camera)를 더 포함할 수도 있다. 도 6에서 전술한 스캐닝 거리보다 객체까지의 거리가 멀고, PTZ 카메라의 줌인 모션으로도 인식에 적합한 크기까지 확대가 불가능한 경우, 전자 장치는 망원 카메라를 이용하여 객체에 관한 제2 이미지를 캡쳐할 수도 있다.
참고로, 도 4 내지 도 7에서 카메라 모션들의 각각을 하나씩 수행하는 예시가 설명되었으나, 이로 한정하는 것은 아니다. 도 4 내지 도 7에서 전술한 카메라 모션들은 다른 카메라 모션과 함께 병렬적으로 수행되거나, 시계열적으로 수행될 수 있다. 예를 들어, 전자 장치는 롤링 모션, 패닝 모션, 틸팅 모션, 및 주밍 모션 중 하나 또는 둘 이상이 조합된 카메라 모션을 카메라 센서에게 지시할 수도 있다. 전자 장치는 카메라 센서의 주축이 객체를 타겟팅하도록 카메라 모션을 수행할 수 있다. 전자 장치는 객체의 전체 형상이 카메라 센서의 시야각 내에 들어오는 범위 내에서 객체의 사각 형상의 내각 및 기준 각도 간의 각도 오차 및 기준선들 간의 오차가 최소화되도록, 모션 파라미터를 결정할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 저장할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 전자 장치에 있어서,
    장면(scene)에 대한 제1 이미지를 캡쳐(capture)하고, 롤링(rolling), 패닝(panning), 틸팅(tilting), 및 주밍(zooming) 중 적어도 하나의 카메라 모션(camera motion)를 수행 가능한, 카메라 센서; 및
    상기 제1 이미지에 대한 객체(object)의 검출 결과에 기초하여 상기 롤링, 상기 패닝, 상기 틸팅, 및 상기 주밍 중 적어도 하나의 카메라 모션을 수행하고, 상기 카메라 모션에 의해 조정된 상기 카메라 센서를 이용하여 제2 이미지를 캡쳐하며, 상기 캡쳐된 제2 이미지로부터 상기 객체를 인식하는 프로세서
    를 포함하고,
    상기 프로세서는,
    상기 제1 이미지에 대한 상기 객체의 검출 결과 또는 사용자의 입력 중 적어도 하나에 기초하여 상기 객체의 카테고리를 문서 또는 패턴 코드 중 하나로 식별하는,
    전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 제1 이미지에서 검출된 상기 객체가 상기 카메라 센서에 대해 비정렬(misalign)된 것에 기초하여 상기 롤링을 수행하는,
    전자 장치.
  3. 제2항에 있어서,
    상기 프로세서는,
    상기 제2 이미지 내에서 상기 객체를 나타내는 시각적 표현(visual representation)의 제1 기준선 및 타겟 영역의 제2 기준선이 정렬되도록, 상기 카메라 센서의 주축(principal axis)에 대응하는 롤 축(roll axis)을 기준으로 회전하는 롤링 모션을 상기 카메라 센서에게 지시하는,
    전자 장치.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 제1 이미지에서 상기 객체를 나타내는 시각적 표현의 형태(shape)가 상기 객체에 대해 식별된 카테고리에 미리 결정된 기준 형태(reference shape)에 미스매칭(mismatch)하는 것에 기초하여 상기 패닝 및 상기 틸팅 중 적어도 하나를 수행하는,
    전자 장치.
  5. 제4항에 있어서,
    상기 프로세서는,
    상기 제2 이미지에서 상기 객체를 나타내는 시각적 표현의 형태가 사각형이고 사각형의 개별 내각(internal angle)이 기준 각도로 되도록, 상기 카메라 센서의 요우잉 축(yaw axis)을 기준으로 회전하는 패닝 모션 및 상기 카메라 센서의 피치 축(pitch axis)을 기준으로 회전하는 틸팅 모션 중 적어도 하나를 상기 카메라 센서에게 지시하는,
    전자 장치.
  6. 제1항에 있어서,
    상기 프로세서는,
    상기 제1 이미지에서 검출된 상기 객체의 물리적 위치까지의 거리 및 상기 객체의 크기 중 적어도 하나에 기초하여 상기 주밍을 수행하는,
    전자 장치.
  7. 제6항에 있어서,
    상기 프로세서는,
    상기 제2 이미지에서 상기 객체를 나타내는 시각적 표현이 차지하는 면적이 타겟 영역의 임계 비율을 초과하는 면적이 되도록, 상기 카메라 센서에게 줌인 모션을 지시하는,
    전자 장치.
  8. 제6항에 있어서,
    상기 프로세서는,
    상기 제2 이미지에서 상기 객체의 일부를 검출하고 다른 일부가 손실된 것에 기초하여, 상기 카메라 센서에게 줌아웃 모션을 지시하는,
    전자 장치.
  9. 제1항에 있어서,
    상기 카메라 센서의 시야각보다 넓은 시야각을 가지는 다른 카메라 센서
    를 더 포함하고,
    상기 프로세서는,
    상기 제2 이미지에서 상기 객체 중 일부분을 검출한 것에 기초하여, 상기 다른 카메라 센서를 이용하여 상기 제2 이미지를 캡쳐하는,
    전자 장치.
  10. 삭제
  11. 전자 장치에 의해 수행되는 방법에 있어서,
    롤링, 패닝, 틸팅, 및 주밍 중 적어도 하나의 카메라 모션을 수행 가능한 카메라 센서를 이용하여 장면에 대한 제1 이미지를 캡쳐하는 단계;
    상기 제1 이미지에 대한 객체의 검출 결과에 기초하여 상기 롤링, 상기 패닝, 상기 틸팅, 및 상기 주밍 중 적어도 하나의 카메라 모션을 수행하는 단계; 및
    상기 카메라 모션에 의해 조정된 상기 카메라 센서를 이용하여 캡쳐된 제2 이미지로부터 상기 객체를 인식하는 단계
    를 포함하고,
    상기 제1 이미지를 캡쳐하는 단계는,
    상기 제1 이미지에 대한 상기 객체의 검출 결과 또는 사용자의 입력 중 적어도 하나에 기초하여 상기 객체의 카테고리를 문서 또는 패턴 코드 중 하나로 식별하는 단계
    를 포함하는 방법.
  12. 제11항에 있어서,
    상기 카메라 모션을 수행하는 단계는,
    상기 제1 이미지에서 검출된 상기 객체가 상기 카메라 센서에 대해 비정렬(misalign)된 것에 기초하여 상기 롤링을 수행하는 단계
    를 포함하는 방법.
  13. 제12항에 있어서,
    상기 롤링을 수행하는 단계는,
    상기 제2 이미지 내에서 상기 객체를 나타내는 시각적 표현(visual representation)의 제1 기준선 및 타겟 영역의 제2 기준선이 정렬되도록, 상기 카메라 센서의 주축(principal axis)에 대응하는 롤 축(roll axis)을 기준으로 회전하는 롤링 모션을 상기 카메라 센서에게 지시하는 단계
    를 포함하는 방법.
  14. 제11항에 있어서,
    상기 카메라 모션을 수행하는 단계는,
    상기 제1 이미지에서 상기 객체를 나타내는 시각적 표현의 형태(shape)가 상기 객체에 대해 식별된 카테고리에 미리 결정된 기준 형태(reference shape)에 미스매칭(mismatch)하는 것에 기초하여 상기 패닝 및 상기 틸팅 중 적어도 하나를 수행하는 단계
    를 포함하는 방법.
  15. 제14항에 있어서,
    상기 패닝 및 상기 틸팅 중 적어도 하나를 수행하는 단계는,
    상기 제2 이미지에서 상기 객체를 나타내는 시각적 표현의 형태가 사각형이고 사각형의 개별 내각(internal angle)이 기준 각도로 되도록, 상기 카메라 센서의 요우잉 축(yaw axis)을 기준으로 회전하는 패닝 모션 및 상기 카메라 센서의 피치 축(pitch axis)을 기준으로 회전하는 틸팅 모션 중 적어도 하나를 상기 카메라 센서에게 지시하는 단계
    를 포함하는 방법.
  16. 제11항에 있어서,
    상기 카메라 모션을 수행하는 단계는,
    상기 제1 이미지에서 검출된 상기 객체의 물리적 위치까지의 거리 및 상기 객체의 크기 중 적어도 하나에 기초하여 상기 주밍을 수행하는 단계
    를 포함하는 방법.
  17. 제16항에 있어서,
    상기 주밍을 수행하는 단계는,
    상기 제2 이미지에서 상기 객체를 나타내는 시각적 표현이 차지하는 면적이 타겟 영역의 임계 비율을 초과하는 면적이 되도록, 상기 카메라 센서에게 줌인 모션을 지시하는 단계
    를 포함하는 방법.
  18. 제16항에 있어서,
    상기 주밍을 수행하는 단계는,
    상기 제2 이미지에서 상기 객체의 일부를 검출하고 다른 일부가 손실된 것에 기초하여, 상기 카메라 센서에게 줌아웃 모션을 지시하는 단계
    를 포함하는 방법.
  19. 제11항에 있어서,
    상기 객체를 인식하는 단계는,
    상기 제2 이미지에서 상기 객체 중 일부분을 검출한 것에 기초하여, 상기 카메라 센서의 시야각보다 넓은 시야각을 가지는 다른 카메라 센서를 이용하여 상기 제2 이미지를 캡쳐하는 단계
    를 포함하는 방법.
  20. 제11항 내지 제19항 중 어느 한 항의 방법을 수행하기 위한 명령어를 포함하는 하나 이상의 컴퓨터 프로그램을 저장한 컴퓨터 판독 가능 기록 매체.
KR1020220026583A 2022-03-02 2022-03-02 객체의 인식을 수행하는 방법 및 장치 Active KR102637344B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220026583A KR102637344B1 (ko) 2022-03-02 2022-03-02 객체의 인식을 수행하는 방법 및 장치
US17/958,564 US12167116B2 (en) 2022-03-02 2022-10-03 Device and method with object recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220026583A KR102637344B1 (ko) 2022-03-02 2022-03-02 객체의 인식을 수행하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20230129679A KR20230129679A (ko) 2023-09-11
KR102637344B1 true KR102637344B1 (ko) 2024-02-16

Family

ID=87850236

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220026583A Active KR102637344B1 (ko) 2022-03-02 2022-03-02 객체의 인식을 수행하는 방법 및 장치

Country Status (2)

Country Link
US (1) US12167116B2 (ko)
KR (1) KR102637344B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240365004A1 (en) * 2023-04-25 2024-10-31 Samsung Electronics Co., Ltd. System and method for determining when to zoom onto barcode or other optical code using imaging sensor of mobile device

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006033147A1 (de) 2006-07-18 2008-01-24 Robert Bosch Gmbh Überwachungskamera, Verfahren zur Kalibrierung der Überwachungskamera sowie Verwendung der Überwachungskamera
KR20130085316A (ko) * 2012-01-19 2013-07-29 한국전자통신연구원 원거리 사람 식별을 위한 다중 카메라 기반의 얼굴영상 획득 장치
KR20130122411A (ko) * 2012-04-30 2013-11-07 삼성전자주식회사 이미지 획득 장치 및 이미지 획득 장치의 동작 방법
US10192086B2 (en) 2012-10-04 2019-01-29 The Code Corporation Barcode-reading enhancement system for a computing device that comprises a camera and an illumination system
KR102232517B1 (ko) 2014-09-15 2021-03-26 삼성전자주식회사 이미지 촬영 방법 및 이미지 촬영 장치
WO2016068057A1 (ja) * 2014-10-31 2016-05-06 富士フイルム株式会社 撮像装置及び対象物認識方法
JP6436761B2 (ja) * 2014-12-24 2018-12-12 キヤノン株式会社 ズーム制御装置、撮像装置、ズーム制御装置の制御方法、及びズーム制御装置の制御プログラム
WO2016191938A1 (zh) 2015-05-29 2016-12-08 华为技术有限公司 通过触控板调节移动终端拍照焦距的方法和移动终端
KR102433623B1 (ko) 2015-12-29 2022-08-18 코어포토닉스 리미티드 자동 조정가능 텔레 시야(fov)를 갖는 듀얼-애퍼처 줌 디지털 카메라
US9990524B2 (en) 2016-06-16 2018-06-05 Hand Held Products, Inc. Eye gaze detection controlled indicia scanning system and method
KR102537210B1 (ko) * 2016-07-29 2023-05-26 삼성전자주식회사 동영상 컨텐츠 제공 방법 및 이를 지원하는 전자 장치
EP3495907A4 (en) * 2016-08-03 2019-10-23 SZ DJI Osmo Technology Co., Ltd. METHOD AND SYSTEM FOR SUPPORT CONTROL
US20190102519A1 (en) 2017-10-02 2019-04-04 Spectralink Corporation Targeting adapter for mobile scanning device
WO2019135163A2 (en) 2018-01-08 2019-07-11 Scandit Ag Mobile device case and techniques for multi-view imaging
US11836958B2 (en) * 2018-09-25 2023-12-05 Servicenow Canada Inc. Automatically detecting and isolating objects in images
JP2020092338A (ja) * 2018-12-06 2020-06-11 キヤノン株式会社 撮像制御装置およびその制御方法
WO2020133175A1 (en) * 2018-12-28 2020-07-02 Intel Corporation Tracking objects using sensor rotation
KR102033554B1 (ko) 2019-02-27 2019-10-17 주식회사 노리앤드 휴대 단말 케이스에 부착되는 바코드 스캔을 위한 보조 기구
US10922811B2 (en) * 2019-05-06 2021-02-16 Ford Global Technologies, Llc Object differentiation and identification
US11070712B2 (en) * 2019-08-30 2021-07-20 Puwell Technology Llc Method and system for control of a digital camera system
US11115599B2 (en) 2020-01-14 2021-09-07 International Business Machines Corporation Automatic correction of camera views
US11790521B2 (en) * 2020-04-10 2023-10-17 Hughes Network Systems, Llc System and method to use machine learning to ensure proper installation and/or repair by technicians
US11809998B2 (en) * 2020-05-20 2023-11-07 Qualcomm Incorporated Maintaining fixed sizes for target objects in frames
US11684549B2 (en) * 2020-08-28 2023-06-27 Omnicell, Inc. Cabinet with integrated pick-and-place mechanism

Also Published As

Publication number Publication date
US20230283876A1 (en) 2023-09-07
US12167116B2 (en) 2024-12-10
KR20230129679A (ko) 2023-09-11

Similar Documents

Publication Publication Date Title
CN111160172B (zh) 泊车位检测方法、装置、计算机设备和存储介质
KR102770499B1 (ko) 자동 조정가능 텔레 시야(fov)를 갖는 듀얼-애퍼처 줌 디지털 카메라
US9521284B2 (en) Interactive user interface for capturing a document in an image signal
KR101530255B1 (ko) 객체 자동 추적 장치가 구비된 cctv 시스템
EP3093822B1 (en) Displaying a target object imaged in a moving picture
WO2013112746A1 (en) Detecting and correcting skew in regions of text in natural images
KR102155895B1 (ko) 객체를 추적하여 영상을 수신하는 방법 및 장치
KR20150020065A (ko) 최적 문자 인식을 위한 모바일 문서 획득 지원
WO2020124517A1 (zh) 拍摄设备的控制方法、拍摄设备的控制装置及拍摄设备
WO2021168804A1 (zh) 图像处理方法、图像处理装置和图像处理系统
KR20170097266A (ko) 촬영 기능을 갖는 모바일 장치를 이용한 상황 재연 방법 및 시스템
KR102641287B1 (ko) 카메라 시스템의 센터 보정 방법 및 장치
KR102637344B1 (ko) 객체의 인식을 수행하는 방법 및 장치
CN114882483A (zh) 一种基于计算机视觉的图书盘点方法
US20230154148A1 (en) Image capturing apparatus capable of suppressing detection of subject not intended by user, control method for image capturing apparatus, and storage medium
JP2013126135A (ja) ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
US11617024B2 (en) Dual camera regions of interest display
JP6483661B2 (ja) 撮像制御装置、撮像制御方法およびプログラム
CN113744339B (zh) 生成全景图像的方法、装置、电子设备和存储介质
JP2008211534A (ja) 顔検知装置
JP2014071818A (ja) 二次元コード読取装置および二次元コード読取方法
CN106709942A (zh) 一种基于特征方位角的全景图像误匹配消除方法
CN112995503A (zh) 手势控制全景图像获取方法、装置、电子设备及存储介质
CN119169202B (zh) 基于可变焦单目摄像头的场景建模方法、设备及存储介质
US20250106513A1 (en) Control device and control method

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20220302

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20230717

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240123

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20240213

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20240214

End annual number: 3

Start annual number: 1

PG1601 Publication of registration