KR102257620B1 - 디스플레이 디바이스 및 그 제어 방법 - Google Patents
디스플레이 디바이스 및 그 제어 방법 Download PDFInfo
- Publication number
- KR102257620B1 KR102257620B1 KR1020140032803A KR20140032803A KR102257620B1 KR 102257620 B1 KR102257620 B1 KR 102257620B1 KR 1020140032803 A KR1020140032803 A KR 1020140032803A KR 20140032803 A KR20140032803 A KR 20140032803A KR 102257620 B1 KR102257620 B1 KR 102257620B1
- Authority
- KR
- South Korea
- Prior art keywords
- frame
- input
- refocusing
- video data
- detected
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 24
- 238000003860 storage Methods 0.000 claims abstract description 12
- 230000000007 visual effect Effects 0.000 claims abstract description 6
- 238000013341 scale-up Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 25
- 238000005516 engineering process Methods 0.000 description 16
- 230000000694 effects Effects 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000008719 thickening Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
- H04N5/772—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
디스플레이 디바이스에 있어서, 상기 디스플레이 디바이스에 대한 입력을 센싱하는 입력 센서 유닛; 리포커서블 프레임들을 포함하는 제 1 비디오 데이터를 저장하는 스토리지 유닛; 상기 제 1 비디오 데이터를 포함한 비주얼 인포메이션을 디스플레이하는 디스플레이 유닛; 및 상기 입력 센서 유닛, 상기 스토리지 유닛, 및 상기 디스플레이 유닛을 제어하는 프로세서; 를 포함하고, 상기 프로세서는, 상기 제 1 비디오 데이터의 제 1 프레임에 대한 제 1 입력 및 상기 제 1 비디오 데이터의 제 2 프레임에 대한 제 2 입력을 디텍트한 경우, 상기 디텍트한 제 1 입력의 위치를 기준으로 상기 제 1 프레임을 리포커스하고, 상기 디텍트한 제 2 입력의 위치를 기준으로 상기 제 2 프레임을 리포커스하고, 상기 제 1 프레임 및 상기 제 2 프레임이 리포커스된 제 1 비디오 데이터를 제 2 비디오 데이터로서 생성하는 상기 디스플레이 디바이스로서, 상기 제 2 입력은 상기 제 1 입력으로부터 연속된 또는 불연속된 터치 입력이고, 상기 제 2 프레임은 상기 제 1 프레임의 후순위로 재생되는 프레임인, 디스플레이 디바이스를 제공할 수 있다.
Description
본 명세서는 리포커서블 프레임들을 포함하는 비디오 데이터에 대한 리포커싱 방법 및 이를 위한 디스플레이 디바이스에 관한 것으로서, 보다 상세하게는 디스플레이 디바이스에 대한 유저 입력에 기초하여 비디오 데이터에 포함된 각 프레임을 리포커스함으로써 포커스가 편집된 비디오 데이터를 생성하는 디스플레이 디바이스 및 그 제어 방법에 관한 것이다.
최근 사진 기술의 발달로 이미 생성된 이미지에 대한 초점의 후보정(refocus)이 가능하게 되었는데, 이러한 기술을 라이트 필드(Light Field) 기술이라 한다. 이러한 라이트 필드 기술은 오브젝트로부터 반사된 모든 빛의 정보, 특히 빛의 방향 정보를 기록함으로써 이미 촬영된 이미지에 대한 초점의 후보정을 가능하게 하는 기술이다. 이러한 라이트 필드 기술은 이미지의 틸트 효과 및 심도 표현의 가공, 3D 이미지 생성, 이미지의 노이즈 제거, 이미지의 초점의 후보정 등 다양한 이미지 편집 기술에 응용될 수 있다.
또한, 라이트 필드 기술의 발전에 따라, 초점의 후보정이 가능한 비디오 데이터의 생성도 가능하다. 다만, 이러한 비디오 데이터의 경우 이미지 데이터와는 달리 시간에 따라 동적으로 변화하므로, 이러한 비디오 데이터의 특성에 적합한 리포커싱 방법을 필요로 하게 된다.
일 실시예에 따르면, 비디오 데이터에 포함된 각 프레임에 대한 리포커싱 입력을 디텍트하는 디스플레이 디바이스를 제공할 수 있다.
또한, 다른 일 실시예에 따르면, 리포커싱 입력의 길이에 따라 재생 순서(order)대로 프레임을 선택하여 제공하는 디스플레이 디바이스를 제공할 수 있다.
또한, 다른 일 실시예에 따르면, 각 프레임의 리포커싱 위치를 인디케이트하는 리포커싱 인디케이터를 제공하는 디스플레이 디바이스를 제공할 수 있다.
또한, 다른 일 실시예에 따르면, 다른 일 실시예에 따르면, 비디오 데이터의 재생 시퀀스에 대응하는 타임라인 인터페이스를 제공하고, 타임라인 인터페이스를 기준으로 리포커싱 입력을 디텍트하여 프레임을 리포커스하는 디스플레이 디바이스를 제공할 수 있다.
또한, 다른 일 실시예에 따르면, 다른 일 실시예에 따르면, 타임라인 인터페이스를 기준으로 리포커싱 입력을 스케일링하여 디텍트하는 디스플레이 디바이스를 제공할 수 있다.
상기와 같은 문제를 해결하고자, 일 실시예에 따르면, 디스플레이 디바이스에 있어서, 상기 디스플레이 디바이스에 대한 입력을 센싱하는 입력 센서 유닛; 리포커서블 프레임들을 포함하는 제 1 비디오 데이터를 저장하는 스토리지 유닛; 상기 제 1 비디오 데이터를 포함한 비주얼 인포메이션을 디스플레이하는 디스플레이 유닛; 및 상기 입력 센서 유닛, 상기 스토리지 유닛, 및 상기 디스플레이 유닛을 제어하는 프로세서; 를 포함하고, 상기 프로세서는, 상기 제 1 비디오 데이터의 제 1 프레임에 대한 제 1 입력 및 상기 제 1 비디오 데이터의 제 2 프레임에 대한 제 2 입력을 디텍트한 경우, 상기 디텍트한 제 1 입력의 위치를 기준으로 상기 제 1 프레임을 리포커스하고, 상기 디텍트한 제 2 입력의 위치를 기준으로 상기 제 2 프레임을 리포커스하고, 상기 제 1 프레임 및 상기 제 2 프레임이 리포커스된 제 1 비디오 데이터를 제 2 비디오 데이터로서 생성하는 상기 디스플레이 디바이스로서, 상기 제 2 입력은 상기 제 1 입력으로부터 연속된 또는 불연속된 터치 입력이고, 상기 제 2 프레임은 상기 제 1 프레임의 후순위로 재생되는 프레임인, 디스플레이 디바이스를 제공할 수 있다.
일 실시예에 따르면, 디스플레이 디바이스는 리포커싱 입력의 길이에 따라 재생 순서대로 프레임을 선택하여 제공하므로, 리포커싱 작업을 수행하고 있는 프레임에 대한 정보를 제공함과 동시에, 제공 중인 섬세한 리포커싱 작업이 가능하다는 효과가 있다.
또한, 다른 일 실시예에 따르면, 디스플레이 디바이스는 리포커싱 위치를 인디케이트하는 리포커싱 인디케이터를 제공하므로, 유저는 리포커싱 인디케이터를 통해 전체 프레임의 리포커싱 위치에 관한 정보를 쉽게 획득할 수 있다.
또한, 다른 일 실시예에 따르면, 디스플레이 디바이스는 타임라인 인터페이스를 기준으로 리포커싱 입력을 디텍트하므로, 유저는 타임라인 인터페이스를 기준으로 원하는 타이밍에 원하는 위치를 리포커싱 위치로 지정할 수 있다는 효과가 있다.
또한, 다른 일 실시예에 따르면, 디스플레이 디바이스는 타임라인 인터페이스를 기준으로 리포커싱 입력을 스케일링하므로, 타임라인 인터페이스의 각 지점과 대응되지 않는 리포커싱 입력을 디텍트함에 따라 발생하는 오동작을 방지할 수 있다.
보다 구체적인 발명의 효과에 대해서는 이하에서 상세히 후술하기로 한다.
도 1은 디바이스에 대한 입력에 기초하여 이미지를 리포커스하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 2는 일 실시예에 따른 디스플레이 디바이스를 나타낸 블록도이다.
도 3은 비디오 데이터의 재생 중, 리포커싱 입력을 디텍트하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 4는 비디오 데이터의 재생 중 슬라이딩 터치 입력을 리포커싱 입력으로서 디텍트하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 5는 슬라이딩 터치 입력의 길이에 대응하여 프레임을 선택하고, 선택한 프레임을 제공하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 6은 리포커싱 입력에 의해 리포커싱 위치가 지정되지 않은 프레임에 대하여 리포커싱 위치를 지정하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 7a는 리포커싱 인디케이터를 제공하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 7b는 복수개의 프레임에 대하여 동일한 지점이 리포커싱 위치로 지정된 경우, 리포커싱 인디케이터의 이미지 속성을 조절하여 디스플레이하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 8a는 타임라인 인터페이스를 제공하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 8b는 리포커싱 입력 및 타임라인 인터페이스를 이용하여 각 프레임을 리포커스하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 9는 슬라이딩 터치 입력을 타임라인 인터페이스를 기준으로 스케일링하여 디텍트하고, 디텍트한 슬라이딩 터치 입력을 기준으로 프레임을 리포커스하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 10은 리포커싱 입력으로서 멀티 터치 입력을 디텍트하여 프레임을 리포커스하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 11은 디스플레이 디바이스의 제어 방법에 관한 순서도를 도시한 도면이다.
도 2는 일 실시예에 따른 디스플레이 디바이스를 나타낸 블록도이다.
도 3은 비디오 데이터의 재생 중, 리포커싱 입력을 디텍트하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 4는 비디오 데이터의 재생 중 슬라이딩 터치 입력을 리포커싱 입력으로서 디텍트하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 5는 슬라이딩 터치 입력의 길이에 대응하여 프레임을 선택하고, 선택한 프레임을 제공하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 6은 리포커싱 입력에 의해 리포커싱 위치가 지정되지 않은 프레임에 대하여 리포커싱 위치를 지정하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 7a는 리포커싱 인디케이터를 제공하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 7b는 복수개의 프레임에 대하여 동일한 지점이 리포커싱 위치로 지정된 경우, 리포커싱 인디케이터의 이미지 속성을 조절하여 디스플레이하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 8a는 타임라인 인터페이스를 제공하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 8b는 리포커싱 입력 및 타임라인 인터페이스를 이용하여 각 프레임을 리포커스하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 9는 슬라이딩 터치 입력을 타임라인 인터페이스를 기준으로 스케일링하여 디텍트하고, 디텍트한 슬라이딩 터치 입력을 기준으로 프레임을 리포커스하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 10은 리포커싱 입력으로서 멀티 터치 입력을 디텍트하여 프레임을 리포커스하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 11은 디스플레이 디바이스의 제어 방법에 관한 순서도를 도시한 도면이다.
본 명세서에서 사용되는 용어는 본 명세서에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 실시예의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 아닌 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
더욱이, 이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 실시예를 상세하게 설명하지만, 실시예들에 의해 제한되거나 한정되는 것은 아니다. 이하에서는, 설명의 편의를 위해 디스플레이 디바이스를 ‘디바이스’라 약칭할 수 있다.
도 1은 디바이스에 대한 입력에 기초하여 이미지를 리포커스하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
디바이스는 리포커싱 기술(예를 들어, 라이트 필드(light field) 기술)을 이용하여 리포커서블 이미지(refocusable image)를 생성할 수 있다. 여기서 리포커싱 기술은 이미지의 초점의 후보정이 가능하도록 카메라 렌즈를 통해 들어오는 모든 빛에 관한 정보를 저장하여 이미지를 생성하는 기술을 나타낸다. 특히, 리포커싱 기술은 이미지 생성 시, 오브젝트로부터 반사된 모든 빛의 “방향 정보”를 기록하는 기술이다. 그 결과, 디바이스는 이미지를 생성한 후라도 빛의 방향 정보를 이용하여 아웃포커스된 지점의 빛을 보강함으로써 해당 지점을 리포커스할 수 있다.
보다 상세하게는, 디바이스는 리포커싱 기술에 사용되는 특수한 렌즈 및 센서 등을 포함한 카메라 유닛을 이용하여 리포커서블 이미지를 생성할 수 있다. 이때 생성된 이미지는 제 1 지점(1020)에 포커스가 맞춰진 이미지일 수 있다. 이때, 아웃포커스된 제 2 지점(1010)을 리포커스하기 위한 리포커싱 입력(1030)을 디텍트한 경우, 디바이스는 제 2 지점(1010)을 리포커스할 수 있다. 여기서 제 2 지점(1010)을 리포커스하기 위한 입력은 일 실시예로서, 제 2 지점(1010)을 터치하는 터치 입력(1030)일 수 있다. 디바이스는 이미지 생성 시 기록해두었던 빛의 방향 정보를 이용하여 제 2 지점(1010)에 초점이 맞춰지도록 이미지를 보정할 수 있다. 그 결과, 이미지 상의 포커싱 위치는 제 1 지점(1020)에서 제 2 지점(1010)으로 변경될 수 있다.
이하에서는 상술한 리포커서블 이미지를 프레임으로서 포함하고 있는 비디오 데이터를 리포커싱하는 디스플레이 디바이스에 관하여 설명하기로 한다. 따라서, 중복하여 설명하지 않아도 이하에서 후술하는 프레임 또는 비디오 데이터는 상술한 리포커싱 기술을 기반으로 생성된 리포커서블 비디오 데이터 또는 리포커서블 프레임을 나타낼 수 있다.
도 2는 일 실시예에 따른 디스플레이 디바이스를 나타낸 블록도이다. 본 도면을 참조하면, 디스플레이 디바이스는 입력 센서 유닛(2010), 디스플레이 유닛(2020), 스토리지 유닛(2030) 및 프로세서(2040)를 포함할 수 있다.
입력 센서 유닛(2010)은 디바이스에 장착된 적어도 하나의 센서를 사용하여 유저 입력 또는 디바이스가 인식하는 환경을 프로세서(2040)에 전달할 수 있다. 보다 상세하게는, 입력 센서 유닛(2010)은 디바이스에 장착된 적어도 하나의 센서를 사용하여 터치 입력을 센싱할 수 있다. 여기서 적어도 하나의 센싱 수단은 터치 센서, 지문 센서, 모션 센서, 근접 센서, 조도 센서 및 압력 센서 등 디바이스에 대한 터치 입력을 센싱하기 위한 다양한 터치 센싱 수단을 포함할 수 있다. 입력 센서 유닛(2010)은 상술한 다양한 센싱 수단을 통칭하는 것으로, 상술한 센서들은 별도의 엘리먼트로 디바이스에 포함되거나, 적어도 하나 이상의 엘리먼트로 통합되어 포함될 수 있다.
입력 센서 유닛(2010)은 유저의 슬라이딩 터치 입력, 멀티 터치 입력, 롱-프레스 터치 입력, 숏-프레스 터치 입력, 드래그 터치 입력, 호버링 입력 또는 플리킹 터치 입력 등 접촉 또는 비접촉의 다양한 터치 입력을 센싱할 수 있다. 나아가, 입력 센서 유닛(2010)은 터치 펜, 스타일러스 펜 등 다양한 터치 입력 도구에 의한 터치 입력 또한 센싱할 수 있다. 입력 센서 유닛(2010)은 다양한 터치 입력을 센싱한 결과를 프로세서(2040)에 전달할 수 있다.
디스플레이 유닛(2020)은 시각적 정보를 디스플레이할 수 있다. 보다 상세하게는, 디스플레이 유닛(2020)은 디스플레이 패널을 통해 다양한 시각적 정보를 디스플레이할 수 있다. 여기서 시각적 정보는 유저의 시각을 통해 인식 가능한 이미지, 그림, 사진, 텍스트, 동영상, 비디오, 어플리케이션 실행 화면 등을 나타낼 수 있다. 특히, 본 명세서에서 디스플레이 유닛(2020)은 리포커서블 프레임으로 구성된 비디오를 디스플레이할 수 있다. 이때 유저는 디스플레이된 비디오의 각 프레임을 직접 터치함으로써 각 프레임에 대한 리포커싱 작업을 수행할 수 있다. 보다 상세하게는, 유저는 비디오를 구성하고 있는 각 리포커서블 프레임에 대하여 리포커싱 위치를 터치 입력을 통해 지정함으로써, 각 프레임에 대한 리포커스 작업을 수행할 수 있다. 이에 관한 보다 상세한 설명은 이하에서 각 도면과 함께 상세히 후술하기로 한다.
스토리지 유닛(2030)은 비디오 데이터, 오디오 데이터, 이미지 데이터, 애플리케이션 데이터 등 다양한 디지털 데이터를 저장할 수 있다. 특히, 스토리지 유닛(2030)은 리포커서블 이미지 데이터 및 리포커서블 이미지를 프레임으로서 포함하는 비디오 데이터를 저장할 수 있다. 스토리지 유닛(2030)은 플래시 메모리, RAM(Random Access Memory), SSD(Solid State Drive) 등의 다양한 디지털 데이터 저장 공간을 나타낸다.
프로세서(2040)는 디바이스 내부의 데이터를 프로세싱하여 다양한 어플리케이션을 실행할 수 있다. 또한, 프로세서(2040)는 컨텐츠 제어 명령에 기초하여 디바이스에서 실행되는 컨텐츠를 제어할 수 있다. 또한, 프로세서(2040)는 상술한 디바이스의 각 유닛들을 제어하며, 유닛들 간의 데이터 송/수신을 제어할 수도 있다.
보다 상세하게는, 프로세서(2040)는 데이터 통신을 통해 수신된 비디오 데이터 또는 스토리지 유닛(2030)에 저장된 비디오 데이터를 디스플레이하도록 디스플레이 유닛(2020)을 제어할 수 있다. 또한, 프로세서(2040)는 입력 센서 유닛(2010)을 이용하여 유저 입력을 디텍트하고, 디텍트한 유저 입력에 대응하는 커맨드를 수행할 수 있다. 특히, 본 명세서에서 프로세서(2040)는 입력 센서 유닛(2010)을 이용하여 유저의 터치 입력을 디텍트하고, 디텍트한 터치 입력에 기초하여 리포커서블 프레임을 리포커스할 수 있다. 이에 관한 상세한 설명은 이하에서 각 도면과 함께 보다 상세히 후술하기로 한다. 한편, 여기서 리포커서블 프레임은 비디오 데이터를 구성하는 프레임으로서, 초점의 후보정이 가능한 프레임을 나타낼 수 있다.
나아가, 프로세서(2040)는 유저의 입력에 따라 리포커스된 프레임을 포함하는 별도의 비디오 데이터를 생성할 수 있다. 이때, 프로세서(2040)는 새로 생성한 비디오 데이터를 스토리지 유닛(2030)에 저장할 수 있다.
이하에서는, 디바이스에서 수행되는 각 단계나 동작이 입력(예를 들어, 터치 입력)의 센싱에 의해 시작되거나 진행되는 경우, 센싱된 입력에 따라 신호가 생성되어 수신되는 과정은 중복하여 설명하지 않아도 상술한 과정에 대한 설명이 포함된 것으로 한다. 또한, 입력에 따라 프로세서(2040)가 디바이스 또는 디바이스에 포함된 적어도 하나의 유닛을 제어한다고 표현할 수 있으며, 프로세서(2040)와 디바이스를 동일시하여 설명할 수 있다.
한편, 도 2에 도시된 디바이스는 일 실시예에 따른 블록도로서, 분리하여 표시한 블록들은 디바이스의 하드웨어적인 구성 요소들을 논리적으로 구별하여 도시한 것이다. 따라서, 상술한 디바이스의 구성 요소들은 디바이스의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 장착될 수 있다.
도 3은 비디오 데이터의 재생 중, 리포커싱 입력을 디텍트하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
디바이스는 비디오 데이터를 리포커스 하기 위한 리포커싱 입력을 디텍트할 수 있다. 특히, 본 명세서에서 디바이스는 비디오 데이터를 구성하는 각 리포커서블 프레임에 대한 리포커싱 입력을 디텍트하고, 디텍트한 리포커싱 입력에 따라 각 리포커서블 프레임을 리포커스함으로써 비디오 데이터를 리포커스할 수 있다.
예를 들어, 디바이스는 제 1 프레임(3010)에 대한 제 1 입력(3020) 및 제 2 프레임(3040)에 대한 제 2 입력(3030)을 디텍트할 수 있다. 여기서 제 1 프레임(3010) 및 제 2 프레임(3040)은 비디오 데이터를 구성하는 리포커서블 프레임을 나타낼 수 있다. 또한, 제 2 프레임(3040)은 제 1 프레임(3010)의 후순위로 나열되어 제 1 프레임(3010)의 후순위로 재생되는 프레임을 나타낼 수 있다. 또한, 제 1 입력(3020) 및 제 2 입력(3030)은 일 실시예로서 각 프레임에서 리포커스 할 위치를 터치하는 유저의 터치 입력을 나타낼 수 있다. 나아가, 제 1 입력(3020) 및 제 2 입력(3030)은 상호 연속되거나 불연속된 터치 입력일 수 있는데, 이에 관한 상세한 설명은 도 4 및 도 6과 관련하여 이하에서 후술하기로 한다. 제 1 입력(3020) 및 제 2 입력(3030)을 디텍트한 디바이스는 제 1 입력(3020)의 위치 및 제 2 입력(3030)의 위치를 기준으로 제 1 프레임(3010) 및 제 2 프레임(3040)을 리포커스할 수 있다. 보다 상세하게는, 디바이스는 디텍트한 제 1 입력(3020)의 위치를 기준으로 제 1 프레임(3010)을 리포커스하고, 디텍트한 제 2 입력(3030)의 위치를 기준으로 제 2 프레임(3040)을 리포커스할 수 있다. 또는, 디바이스는 제 1 프레임(3010)에서 제 1 입력(3020)이 디텍트된 위치를 리포커싱 위치로 지정하여 리포커스하고, 제 2 프레임(3040)에서 제 2 입력(3030)이 디텍트된 위치를 리포커싱 위치로 지정하여 리포커스할 수 있다.
이때, 디바이스는 다양한 방식으로 제 1 입력(3020) 및 제 2 입력(3030)을 디텍트하여 제 1 프레임(3010) 및 제 2 프레임(3040)을 리포커스할 수 있다.
일 실시예로서, 디바이스는 비디오 데이터의 재생 중 디텍트된 입력을 리포커싱 입력으로서 디텍트할 수 있다. 보다 상세하게는, 디바이스는 비디오 데이터의 재생 중, 제 1 프레임(3010)이 디스플레이된 시점에 디텍트한 입력을 제 1 입력(3020)으로서 디텍트할 수 있다. 또는, 디바이스는 비디오 데이터의 재생 중, 제 2 프레임(3040)이 디스플레이된 시점에 디텍트한 입력을 제 2 입력(3030)으로서 디텍트할 수 있다. 제 1 입력(3020) 및 제 2 입력(3030)을 디텍트하면, 디바이스는 제 1 입력(3020)이 디텍트된 위치를 기준으로 제 1 프레임(3010)을 리포커스하고, 제 2 입력(3030)이 디텍트된 위치를 기준으로 제 2 프레임(3040)을 리포커스할 수 있다. 즉, 디바이스는 비디오 데이터의 재생 중, 각 프레임이 디스플레이되는 시점에 디텍트한 입력을 디스플레이된 프레임에 대응하는 입력으로서 디텍트하고, 디텍트한 입력의 위치를 기준으로 해당 프레임을 리포커스할 수 있다. 이에 따라, 유저는 비디오 데이터를 재생시켜 디스플레이되는 프레임을 보면서 리포커스하고자 하는 위치를 직접 터치하여 보다 쉽게 비디오 데이터를 리포커스할 수 있다. 이때 제 1 입력(3020) 및 제 2 입력(3030)은 상호 연속된 터치 입력 또는 상호 불연속된 터치 입력일 수 있으며, 이에 관한 상세한 설명은 도 4와 관련하여 이하에서 후술하기로 한다.
이렇듯 디바이스는 비디오 데이터의 재생 중 디텍트된 입력을 제 1 입력(3020) 또는 제 2 입력(3030)으로서 디텍트할 수 있으나, 실시예에 따라 비디오 데이터가 재생되지 않은 상태에서 디텍트한 입력을 제 1 입력(3020) 또는 제 2 입력(3030)으로서 디텍트할 수 있는데, 이에 관한 상세한 설명은 도 5 및 도 8b와 관련하여 이하에서 후술하기로 한다.
상술한 바와 같이 디텍트된 리포커싱 입력에 따라 비디오 데이터에 대한 리포커싱을 완료한 경우, 디바이스는 리포커싱이 완료된 새로운 비디오 데이터를 생성할 수 있다. 예를 들어, 제 1 프레임(3010) 및 제 2 프레임(3040)을 포함하는 제 1 비디오 데이터가 존재하는 경우, 제 1 프레임(3010) 및 제 2 프레임(3040)이 리포커스된 제 1 비디오 데이터를 제 2 비디오 데이터로서 새롭게 생성할 수 있다. 또는 리포커싱을 완료한 경우, 디바이스는 비디오 데이터를 리포커싱이 완료된 비디오 데이터로 수정하여 저장할 수 있다.
도 4는 비디오 데이터의 재생 중 슬라이딩 터치 입력을 리포커싱 입력으로서 디텍트하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
본 명세서에서 디바이스는 상술한 바와 같이 제 1 프레임(4010)을 리포커스하기 위한 제 1 입력(4030) 및 제 2 프레임(4020)을 리포커스하기 위한 제 2 입력(4040)을 디텍트할 수 있다. 이때 제 1 입력(4030) 및 제 2 입력(4040)은 디바이스에 대한 다양한 터치 입력일 수 있다.
일 실시예로서, 제 1 입력(4030) 및 제 2 입력(4040)은 상호 연속된 터치 입력일 수 있다. 보다 상세하게는, 제 2 입력(4040)은 제 1 입력(4030)으로부터 릴리즈되지 않고 연속적으로 디텍트되는 터치 입력을 나타낼 수 있다. 따라서 제 1 입력(4030) 및 제 2 입력(4040)은 하나의 슬라이딩 터치 입력을 구성할 수 있다. 디바이스는 이러한 슬라이딩 터치 입력을 디텍트한 경우, 각 프레임이 디스플레이된 시점에서의 슬라이딩 터치 입력 위치를 기준으로 리포커싱을 수행할 수 있다.
예를 들어, 도면에 도시한 바와 같이, 비디오 데이터의 재생에 따라 제 1 프레임(4010) 내지 제 4 프레임이 재생 순서(order)대로 디스플레이되는 동안, 디바이스는 제 1 프레임(4010) 내지 제 4 프레임에 대응하는 하나의 연속된 슬라이딩 터치 입력을 디텍트할 수 있다. 이때, 디바이스는 각 프레임이 디스플레이되는 시점에 디텍트한 슬라이딩 터치 입력의 위치를 기준으로 각 프레임에 대한 리포커싱을 수행할 수 있다. 즉, 각 프레임이 디스플레이된 시점에 디텍트된 터치 입력의 위치를 기준으로 리포커싱을 수행할 수 있으며, 이에 관한 상세한 설명은 도 3과 관련하여 상술한 바에 상응한다.
다른 실시예로서, 본 도면에는 도시하지 않았으나, 제 1 입력(4030) 및 제 2 입력(4040)은 상호 불연속된 터치 입력일 수 있다. 따라서, 디바이스는 각 프레임의 디스플레이 시점에 디텍트되는 입력의 위치를 기준으로 리포커싱을 수행할 수 있으며, 이에 관한 상세한 설명은 도 3과 관련하여 상술한 바에 상응한다.
따라서, 유저는 비디오 데이터를 재생시킨 상태에서 리포커싱하려는 오브젝트를 터치한 뒤 오브젝트의 연속적인 이동을 따라가거나, 오브젝트의 불연속적인 이동에 대응하여 오브젝트를 불연속적으로 터치함으로써 리포커싱하려는 오브젝트에 대한 타겟-리포커싱을 수행할 수 있다. 유저는 프레임의 구성, 비디오 데이터의 촬영 내용, 목적, 효과, 리포커싱 의도 등을 고려하여 리포커싱 입력의 종류를 선택하고 디바이스에 입력함으로써 비디오 데이터를 리포커스할 수 있다.
도 5는 슬라이딩 터치 입력의 길이에 대응하여 프레임을 선택하고, 선택한 프레임을 제공하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
디바이스는 도 4와 관련하여 상술한 바와 같이, 비디오 데이터가 재생 중인 상태에서 리포커싱 입력(5010)을 디텍트할 수 있으나, 비디오 데이터가 재생 중이지 않은 상태에서도 리포커싱 입력(5010)을 디텍트할 수 있다. 이 경우, 디바이스는 비디오 데이터를 재생함으로써 각 프레임들을 유저에게 자동으로 제공하는 대신, 유저의 리포커싱 입력(5010)에 대응하는 프레임을 순차적으로 제공함으로써 유저가 직접 리포커싱할 프레임을 선택할 수 있도록 한다.
일 실시예로서, 디바이스는 리포커싱 입력(5010)으로서 슬라이딩 터치 입력(5010)을 디텍트할 수 있다. 이때, 디바이스는 슬라이딩 터치 입력(5010)의 “길이”에 대응하는 프레임(5020)을 선택하고, 선택한 프레임(5020)을 디스플레이할 수 있다. 보다 상세하게는, 디바이스는 슬라이딩 터치 입력(5010)이 길어짐에 따라 비디오 데이터에 포함된 각 프레임을 기설정된 순서(예를 들어, 비디오 데이터의 재생 순서)대로 선택하고, 선택한 각 프레임을 순차적으로 제공할 수 있다. 또는, 디바이스는 슬라이딩 터치 입력(5010)이 기설정된 길이만큼 길어짐에 따라 비디오 데이터에 포함된 각 프레임을 기설정된 순서대로 선택하여 제공할 수 있다. 예를 들어, 디바이스는 슬라이딩 터치 입력(5010)의 길이가 1cm 길어질 때마다, 제공 중인 프레임(5020)의 다음 재생 순서에 위치한 프레임을 선택하여 제공할 수 있다. 기설정된 길이 및 기설정된 순서는 제조사의 제조 방식, 디바이스의 설계, 디자인, 목적, 실행 중인 어플리케이션의 종류, 유저에 의해 다양한 값으로서 설정될 수 있으며, 상술한 실시예에 한정되지 않는다.
또한, 디바이스는 이러한 슬라이딩 터치 입력(5010)의 길이에 따라 각 프레임을 순차적으로 제공함과 동시에, 제공 중인 프레임(5020)에 대한 슬라이딩 터치 입력(5010)의 위치를 기준으로 리포커싱을 수행할 수 있다. 예를 들어, 디바이스는 슬라이딩 터치 입력(5010)의 길이가 1 cm인 경우, 이 길이에 대응하는 제 1 프레임(5020)을 제공할 수 있다. 이때, 디바이스는 제 1 프레임(5020)의 제공 시 디텍트한 슬라이딩 터치 입력(5010)의 위치를 기준으로 제 1 프레임(5020)을 리포커스할 수 있다. 만일, 제 1 프레임(5020)의 제공 시점에 디텍트한 슬라이딩 터치 입력(5010)의 위치가 제 1 지점인 경우, 디바이스는 제 1 지점을 기준으로 제 1 프레임(5020)을 리포커스할 수 있다.
이러한 리포커싱 방식은 비디오 데이터의 배경이 고정되어있거나, 유저가 리포커스하려는 오브젝트의 움직임이 느리거나 정적인 경우와 같이, 섬세한 리포커싱 작업을 수행하는 경우에 사용될 수 있다.
상술한 점을 고려해볼 때, 디바이스는 하나의 슬라이딩 터치 입력(5010)을 디텍트한 경우뿐 아니라, 복수개의 불연속 터치 입력을 디텍트한 경우에도 비디오 데이터에 포함된 각 프레임을 순차적으로 제공할 수 있다(미도시). 즉, 불연속 터치 입력이 디텍트된 횟수가 증가함에 따라, 디바이스는 기설정된 순서대로 각 프레임을 선택하여 제공할 수 있다. 이 경우에도, 디바이스는 프레임을 선택하기 위한 불연속 터치 입력의 위치를 디텍트하여, 해당 위치를 기준으로 선택된 프레임에 대한 리포커싱을 수행할 수 있다.
한편, 본 도면에는 도시하지 않았으나 추가적인 실시예로서, 디바이스는 슬라이딩 터치 입력(5010)의 확장 속도를 기준으로 비디오 데이터를 편집할 수 있다. 보다 상세하게는, 디바이스는 슬라이딩 터치 입력(5010) 길이의 확장 속도를 디텍트하고, 디텍트한 확장 속도가 스레스홀드 속도를 초과하는 경우에 특정 구간의 프레임을 삭제함으로써 비디오 데이터를 편집할 수 있다.
이때 슬라이딩 터치 입력(5010) 길이의 확장 속도는 기설정된 시간 동안 제공 및/또는 선택된 프레임 수를 이용하여 디텍트될 수 있다. 상술한 바와 같이, 본 명세서의 디바이스는 슬라이딩 터치 입력(5010)의 길이가 확장됨에 따라 비디오 데이터에 포함된 각 프레임을 순차적으로 선택 및/또는 제공할 수 있다. 따라서, 선택 및/또는 제공되는 프레임의 수가 늘어남은 슬라이딩 터치 입력(5010)의 길이가 확장됨을 의미하기 때문에, 기설정된 시간 동안 선택 및/또는 제공되는 프레임의 수가 늘어남은 슬라이딩 터치 입력(5010) 길이의 확장 속도가 빨라짐을 의미할 수 있다. 이러한 점을 고려해볼 때, 디바이스는 기설정된 시간 동안 선택 및/또는 제공되는 프레임의 수를 기준으로 슬라이딩 터치 입력(5010)의 확장 속도를 디텍트할 수 있다. 다만, 슬라이딩 터치 입력(5010)의 확장 속도는 상술한 실시예 외에도 다양한 실시예를 통해 디텍트될 수 있으며, 상술한 바에 한정되는 것은 아니다.
디바이스는 디텍트한 슬라이딩 터치 입력(5010)의 확장 속도가 스레스홀드 속도를 초과하는 경우, 기설정된 구간의 프레임을 삭제함으로써 비디오 데이터를 편집할 수 있다. 보다 상세하게는, 기설정된 시간 동안 선택 및/또는 제공된 프레임의 수가 스레스홀드 값을 초과하는 경우, 디바이스는 기설정된 시간 동안 선택 및/또는 제공된 프레임(들)을 제외한 비디오 데이터를 생성함으로써 비디오 데이터에 포함된 프레임의 수를 편집할 수 있다. 예를 들어, 스레스홀드 속도가 5 frames/s이고, 슬라이딩 터치 입력(5010)에 의해 1초 동안 7개의 프레임이 선택 및/또는 제공된 경우, 디바이스는 해당 7개의 프레임을 제외한 비디오 데이터를 생성할 수 있다.
따라서, 유저는 슬라이딩 터치 입력(5010)을 통해 비디오 데이터를 리포커싱하면서 비디오 데이터를 간단하게 편집할 수 있다. 보다 상세하게는, 유저는 슬라이드 터치를 입력(5010)하면서 리포커스하려는 프레임(5020)을 선택함과 동시에 선택한 프레임(5020)을 리포커스할 수 있으며, 나아가 슬라이딩 터치 입력(5010)의 속도를 조절함으로써 프레임의 삭제가 가능하다. 즉, 본 명세서의 디바이스는 리포커싱 입력(5010)을 통하여 프레임 선택 기능, 프레임 리포커싱 기능 및 비디오 데이터 편집 기능(예를 들어, 프레임 수의 편집)을 동시에 제공할 수 있다는 효과가 있다.
도 6은 리포커싱 입력에 의해 리포커싱 위치가 지정되지 않은 프레임에 대하여 리포커싱 위치를 지정하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다. 본 실시예에서 리포커싱 입력은 비디오 데이터가 재생 중인 상태에서 디텍트되는 불연속 터치 입력을 나타낼 수 있다.
상술한 바와 같이, 디바이스는 제 1 프레임(6010)에 대한 제 1 입력(6040) 및 제 2 프레임(6030)에 대한 제 2 입력(6050)을 디텍트할 수 있다. 이때, 제 2 프레임(6030)은 제 1 프레임(6010)의 후순위로 재생되는 프레임을 나타낼 수 있다. 따라서, 제 1 프레임(6010) 및 제 2 프레임(6030) 사이에는 적어도 하나의 다른 프레임이 존재하거나, 프레임이 존재하지 않을 수 있다. 이하에서는 제 1 프레임(6010) 및 제 2 프레임(6030) 사이에 제 3 프레임(6020)이 존재하는 비디오 데이터를 리포커싱하는 디바이스를 기준으로 설명하기로 한다. 여기서 제 1 프레임(6010) 및 제 2 프레임(6030)은 리포커싱 입력(6040, 6050)에 의해 리포커싱 위치가 지정된 프레임으로서 제 3 프레임(6020)의 선순위 혹은 후순위에 위치한 프레임을 나타낼 수 있다. 또한, 제 3 프레임(6020)은 제 1 프레임(6010) 및 제 2 프레임(6030) 사이에 존재하는 프레임으로서 단수 또는 복수의 프레임을 나타낼 수 있다. 이때, 제 3 프레임(6020)에 대한 리포커싱 입력은 제 3 입력이라 지칭할 수 있다.
디바이스는 비디오 데이터의 재생 중, 디스플레이된 각 프레임에 대한 불연속적 터치 입력을 디텍트하고, 디텍트한 터치 입력의 위치를 기준으로 리포커싱을 수행할 수 있다. 이에 관한 상세한 설명은 도 3과 관련하여 상술하였으므로, 자세한 설명한 생략하기로 한다. 이 경우, 유저의 불연속적 터치 입력에 의해 리포커싱 위치가 지정되지 않은 프레임(6020)이 존재할 수 있다. 불연속적 터치 입력은 두 터치 입력 사이에 일정한 시간 공백이 존재하는 터치 입력을 나타낸다. 이러한 시간 공백 동안에도 비디오 데이터는 계속 재생 중이기 때문에, 유저의 불연속적 터치 입력에 의해 리포커싱 위치가 지정되지 않은 프레임(6020)이 존재할 수 있다. 또는, 유저가 의도적으로 특정 프레임(6020)에 대하여 리포커싱 위치를 지정하지 않은 경우에도 리포커싱 위치가 지정되지 않은 프레임(6020)이 존재할 수 있다.
이 경우, 디바이스는 리포커싱 입력에 의해 리포커싱 위치가 지정된 프레임(6010, 6030)을 기준으로, 리포커싱 위치가 지정되지 않은 프레임(6020)의 리포커싱 위치를 지정할 수 있다. 예를 들어, 도면에 도시한 바와 같이, 제 1 프레임(6010)에 대한 제 1 입력(6040) 및 제 2 프레임(6030)에 대한 제 2 입력(6050)이 서로 다른 위치에서 디텍트되고, 제 3 프레임(6020)에 대한 제 3 입력은 디텍트되지 않은 경우, 디바이스는 제 1 입력(6040) 및 제 2 입력(6050)의 위치를 기준으로 제 3 프레임(6020)에 대한 리포커싱 위치(6060)를 결정할 수 있다. 이때, 제 1 입력(6040) 및 제 2 입력(6050)의 위치를 기준으로 제 3 프레임(6020)의 리포커싱 위치(6060)를 지정하는 디바이스의 동작은 다양한 실시예로서 구현될 수 있다.
일 실시예로서, 디바이스는 리포커싱이 완료된 비디오 데이터의 재생 시, 포커스가 특정 경로를 따라 이동하도록 제 3 프레임(6020)의 리포커싱 위치(6060)를 지정할 수 있다. 보다 상세하게는, 디바이스는 제 1 프레임(6010)의 리포커싱 위치로부터 제 2 프레임(6030)의 리포커싱 위치로 이어지는 경로를 따라 포커스가 이동하도록 제 3 프레임(6020)의 리포커싱 위치(6060)를 지정할 수 있다. 예를 들어, 도면에 도시한 바와 같이, 디바이스는 제 1 프레임(6010)의 리포커싱 위치로부터 제 2 프레임(6030)의 리포커싱 위치로 이어진 직선 경로를 따라 포커스가 이동하도록 제 3 프레임(6020)의 리포커싱 위치(6060)를 지정할 수 있다. 디바이스는 제 1 프레임(6010)의 리포커싱 위치로부터 제 2 프레임(6030)의 리포커싱 위치로 이어진 다양한 형태의 경로를 지정할 수 있으며, 상술한 바와 같이 직선 경로에 한정되는 것은 아니다.
다른 실시예로서, 만일, 제 1 프레임(6010) 및 제 2 프레임(6030)의 리포커싱 오브젝트가 동일하고, 제 3 프레임(6020)에 동일한 오브젝트가 포함되어 있는 경우, 디바이스는 제 3 프레임(6020)의 해당 오브젝트의 위치를 리포커싱 위치(6060)로 지정할 수 있다. 예를 들어, 도면에 도시한 바와 같이, 제 1 프레임(6010) 및 제 2 프레임(6030)의 리포커싱 오브젝트가 자동차이고 제 3 프레임(6020)에 해당 자동차가 포함되어 있는 경우, 디바이스는 제 3 프레임(6020)의 리포커싱 위치(6060)를 해당 자동차의 위치로 지정할 수 있다.
이외에도, 디바이스는 제 1 프레임(6010)의 리포커싱 위치 또는 제 2 프레임(6030)의 리포커싱 위치와 동일한 위치로 제 3 프레임(6020)의 리포커싱 위치를 지정하는 등 다양한 실시예를 통해 제 3 프레임(6020)의 리포커싱 위치를 지정할 수 있다.
도 7a는 리포커싱 인디케이터를 제공하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
디바이스는 리포커싱 위치를 인디케이트하기 위한 리포커싱 인디케이터(7010)를 제공할 수 있다. 디바이스는 리포커싱 위치를 인디케이트하는 리포커싱 인디케이터(7010)를 디스플레이함으로써 유저가 지정한 리포커싱 위치, 형태, 리포커싱 위치의 변화 등에 관한 정보를 유저에게 제공할 수 있다.
일 실시예로서, 디바이스는 비디오 데이터에 포함된 전체 프레임에 대한 리포커싱 위치를 나타내는 리포커싱 인디케이터(7010)를 제공할 수 있다. 보다 상세하게는, 디바이스는 리포커싱이 완료된 비디오 데이터에 포함된 전체 프레임의 리포커싱 위치를 나타내는 리포커싱 인디케이터(7010)를 제공할 수 있다.
만일, 전체 프레임에 대하여 리포커싱 위치가 연속적 터치 입력(7030)에 의해 지정된 경우, 디바이스는 리포커싱 위치의 이동 경로를 나타내는 방향성 이미지(예를 들어, 화살표)를 리포커싱 인디케이터(7010)로서 디스플레이할 수 있다. 예를 들어, 도면에 도시한 바와 같이, 유저가 전체 프레임에 대하여 하측 방향으로의 슬라이딩 터치 입력(7030)을 한 경우, 디바이스는 유저의 슬라이딩 터치 입력(7030)이 디텍트된 위치에 하측 방향으로의 이동 경로를 나타내는 화살표를 디스플레이할 수 있다. 이러한 리포커싱 인디케이터(7010)를 통해 유저는 전체 프레임에 대하여 리포커싱 위치가 어떠한 경로로 어떻게 변화되는지를 쉽게 알 수 있다는 효과가 있다.
반대로, 전체 프레임에 대하여 리포커싱 위치가 불연속적 터치 입력에 의해 지정된 경우, 디바이스는 리포커싱 위치에 다양한 이미지를 리포커싱 인디케이터(7010)로서 제공할 수 있다. 예를 들어, 제 1 프레임의 리포커싱 위치가 제 1 지점, 제 2 프레임의 리포커싱 위치가 제 2 지점이고, 제 1 입력 및 제 2 입력이 상호 불연속된 터치 입력일 수 있다. 이때, 디바이스는 제 1 지점 및 제 2 지점에 리포커싱 인디케이터(7010)로서 십자가 이미지를 각각 디스플레이할 수 있다. 디바이스는 리포커싱 인디케이터(7010)를 리포커싱 위치에 디스플레이함으로써 리포커싱 위치를 인디케이트하므로, 리포커싱 인디케이터(7010)로서 디스플레이되는 이미지는 다양한 실시예가 존재할 수 있다.
이러한 리포커싱 인디케이터(7010)는 리포커싱이 완료된 비디오 데이터가 재생되는 경우에 제공될 수 있다. 현재 디스플레이 중인 프레임의 리포커싱 위치를 가리키는 서브-인디케이터(7020)를 추가로 디스플레이할 수 있다. 예를 들어, 상술한 바와 같이, 디바이스는 비디오 데이터 재생 시, 전체 프레임의 리포커싱 위치를 인디케이트하는 화살표 이미지를 리포커싱 인디케이터(7010)로서 디스플레이할 수 있다. 이때, 디바이스는 현재 디스플레이 중인 프레임의 리포커싱 위치를 인디케이트하는 서브-인디케이터(7020)(예를 들어, 십자가 이미지)를 함께 디스플레이할 수 있다. 보다 상세하게는, 디바이스는 현재 디스플레이 중인 프레임의 리포커싱 위치에 서브-인디케이터(7020)를 디스플레이할 수 있다. 따라서, 비디오 데이터가 재생됨에 따라, 서브-인디케이터(7020)는 디스플레이된 리포커싱 인디케이터(7010)를 따라 이동할 수 있다. 따라서, 유저는 이러한 리포커싱 인디케이터(7010) 및 서브-인디케이터(7020)를 통해 전체 프레임에 대한 리포커싱 위치뿐 아니라, 현재 디스플레이 중인 프레임에 대한 리포커싱 위치도 쉽게 인지할 수 있다는 효과가 있다.
도 7b는 복수개의 프레임에 대하여 동일한 지점이 리포커싱 위치로 지정된 경우, 리포커싱 인디케이터(7010)의 이미지 속성을 조절하여 디스플레이하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
도 7a와 관련하여 상술한 바와 같이, 디바이스는 리포커싱 위치를 인디케이트하는 리포커싱 인디케이터(7010)를 제공할 수 있다. 이때, 디바이스는 리포커싱 인디케이터(7010)의 이미지 속성을 조절하여 리포커싱 위치 외에도, 프레임의 리포커싱과 관련된 다양한 정보를 제공할 수 있다.
일 실시예로서, 디바이스는 디스플레이되는 리포커싱 인디케이터(7010)의 두께를 조절함으로써 동일한 위치를 리포커싱 위치로 지정하고 있는 프레임의 수를 인디케이트할 수 있다. 다시 말하면, 복수의 프레임에 대하여 동일한 위치가 리포커싱 위치로 지정된 경우, 디바이스는 동일한 리포커싱 위치를 갖는 복수의 프레임 “수”를 기준으로 리포커싱 인디케이터(7010)의 두께를 조절하여 디스플레이할 수 있다. 보다 상세하게는, 디바이스는 동일한 리포커싱 위치를 갖는 복수의 프레임 수가 늘어남을 디텍트할 수 있다. 이때, 디바이스는 리포커싱 인디케이터(7010) 중, 해당 리포커싱 위치를 인디케이트하는 특정 영역의 두께를 두껍게 조절하여 디스플레이할 수 있다. 반대로, 디바이스는 동일한 리포커싱 위치를 갖는 복수의 프레임 수가 줄어듦을 디텍트할 수 있다. 이때, 디바이스는 리포커싱 인디케이터(7010) 중, 해당 리포커싱 위치를 인디케이트하는 특정 영역의 두께를 얇게 조절하여 디스플레이할 수 있다.
예를 들어, 도면에 도시한 바와 같이, 전체 프레임에 대한 리포커싱 위치는 연속적 터치 입력(7030)에 의해 연속적으로 지정될 수 있으며, 이때 디바이스는 리포커싱 위치를 인디케이트하는 리포커싱 인디케이터(7010)를 디스플레이할 수 있다. 이때, 복수의 프레임이 동일한 리포커싱 위치를 갖는 경우, 디바이스는 해당 복수의 프레임 수를 기준으로 리포커싱 인디케이터(7010) 중 해당 리포커싱 위치를 인디케이트하는 영역의 두께를 두껍게 조절할 수 있다.
다른 예로서, 도면에 도시한 바와 같이, 전체 프레임에 대한 리포커싱 위치는 불연속적 터치 입력에 의해 불연속적으로 지정될 수 있으며, 이때 디바이스는 리포커싱 위치를 인디케이트하는 리포커싱 인디케이터(7010)를 디스플레이할 수 있다. 이때, 복수의 프레임이 동일한 리포커싱 위치를 갖는 경우, 디바이스는 리포커싱 인디케이터(7010) 중 해당 리포커싱 위치를 인디케이트하는 영역의 두께를 두껍게 조절할 수 있다. 또는, 이 경우, 디바이스는 리포커싱 인디케이터(7010) 중 해당 리포커싱 위치를 인디케이트하는 영역의 크기를 크게 조절할 수 있다. 예를 들어, 리포커싱 인디케이터(7010)로서 원 이미지가 디스플레이된 경우, 디바이스는 동일한 리포커싱 위치를 갖는 프레임 수에 대응하여 원의 반지름 길이를 조절함으로써 리포커싱 인디케이터(7010)의 두께 또는 크기를 조절할 수 있다. 따라서 프레임 10개가 제 1 지점을 리포커싱 위치로 지정하고, 프레임 20개가 제 2 지점을 리포커싱 위치로 지정하고 있는 경우, 제 2 지점에 디스플레이 되는 리포커싱 인디케이터(7010)의 반지름(r1)은 제 1 지점에 디스플레이 되는 리포커싱 인디케이터(7010)의 반지름(r2)보다 클 수 있다.
이외에도, 디바이스는 리포커싱 인디케이터(7010)의 색상, 명암, 밝기, 대비 등 다양한 이미지의 속성을 조절하여 디스플레이함으로써 리포커스된 프레임에 대한 다양한 정보를 제공할 수 있다. 또한, 디바이스는 리포커싱 인디케이터(7010)에 다양한 그래픽 효과를 부여하여 리포커스된 프레임에 대한 다양한 정보를 제공할 수 있다.
한편, 도 7a와 관련하여 상술한 바와 같이, 디바이스는 리포커싱 인디케이터(7010)에 추가로 서브-인디케이터(7020)를 제공할 수 있다. 이때, 디바이스는 리포커싱 인디케이터(7010)와 유사하게, 서브-인디케이터(7020)의 이미지 속성(예를 들어, 색상, 크기, 대비, 명암, 밝기 등)을 조절함으로써 리포커스된 프레임에 대한 다양한 정보를 제공할 수 있다.
예를 들어, 비디오 데이터가 재생됨에 따라 서브-인디케이터(7020)가 리포커싱 인디케이터(7010) 상에서 움직이는 경우, 서브-인디케이터(7020)는 리포커싱 인디케이터(7010) 중 두께가 두껍게 조절된 위치에서는 이동을 멈출 수 있다. 대신, 서브-인디케이터(7020)는 비디오 데이터가 재생됨에 따라 그 크기가 점점 커질 수 있다. 서브-인디케이터(7020)의 크기가 점점 커진 결과, 서브-인디케이터(7020)의 크기와 두껍게 조절된 리포커싱 인디케이터(7010)의 두께가 서로 매칭되는 경우, 서브-인디케이터(7020)의 크기는 다음 이동할 위치의 리포커싱 인디케이터(7010)의 두께와 매칭되는 크기로 조절되어 리포커싱 인디케이터(7010) 상에서 계속 이동할 수 있다. 즉, 동일한 리포커싱 위치를 갖는 프레임 수가 많을수록, 서브-인디케이터(7020)는 해당 리포커싱 위치에서 오래 머무르되, 그 크기가 점점 커지도록 조절될 수 있다. 따라서, 유저는 서브-인디케이터(7020)의 크기 및 크기의 확장 속도 등을 통해 프레임의 리포커싱에 대한 다양한 정보를 획득할 수 있다.
도 8a는 타임라인 인터페이스를 제공하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
디바이스는 비디오 데이터의 재생 시퀀스에 대응하는 타임라인 인터페이스(8010)를 제공할 수 있다. 여기서 재생 시퀀스란, 비디오 데이터에 포함된 복수의 프레임들의 집합으로서, 복수의 프레임들이 재생되는 순서에 관한 정보를 나타낼 수 있다. 이러한 재생 시퀀스에 관한 정보를 재생 시간을 기준으로 제공하는 그래픽 유저 인터페이스(Graphic User Interface, ‘GUI)’를 타임라인 인터페이스(8010)라 할 수 있다. 이러한 타임라인 인터페이스(8010)는 비디오 데이터의 재생 속도, 전체 재생 시간, 현재 재생 시간 등 재생 속성에 관한 다양한 정보를 제공할 수 있다. 따라서, 유저는 이러한 타임라인 인터페이스(8010)를 통하여 현재 재생 중인 비디오 데이터의 재생에 관한 다양한 정보를 획득할 수 있다. 또한, 본 명세서에서 타임라인 인터페이스(8010)는 디스플레이된 타임라인 인터페이스(8010)의 각 지점(8020-1)에 대응하는 프레임(8020-2)을 리포커스하는 데 이용될 수 있는데, 이에 관한 상세한 설명은 도 8b와 관련하여 이하에서 후술하기로 한다.
이하에서는 이러한 타임라인 인터페이스(8010)를 제공하는 디바이스를 기준으로 설명하기로 한다. 나아가, 이하에서는 이러한 타임라인 인터페이스(8010)를 이용하여 타임라인 인터페이스(8010)의 각 지점(8020-1)에 대응하는 프레임(8020-2)을 리포커스하는 실시예에 관하여 상세히 후술하기로 한다.
도 8b는 리포커싱 입력 및 타임라인 인터페이스를 이용하여 각 프레임을 리포커스하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
디바이스는 비디오 데이터의 재생 시퀀스에 대응하는 타임라인 인터페이스(8010)를 제공할 수 있다. 이때, 타임라인 인터페이스(8010)의 각 지점(8030-1, 8040-1)은 비디오 데이터의 각 프레임(8030-2, 8040-2)과 대응될 수 있다. 예를 들어, 타임라인 인터페이스(8010)의 제 1 지점(8030-1)은 비디오 데이터의 제 1 프레임(8030-2)에 대응하고, 타임라인 인터페이스(8010)의 제 2 지점(8040-1)은 비디오 데이터의 제 2 프레임(8040-2)에 대응할 수 있다.
디바이스는 타임라인 인터페이스(8010)의 각 지점(8030-1, 8040-1)에 대응하는 입력을 타임라인 인터페이스(8010)의 각 지점(8030-1, 8040-1)에 대응하는 프레임(8030-2, 8040-2)에 대한 리포커싱 입력으로서 디텍트할 수 있다. 보다 상세하게는, 디바이스는 타임라인 인터페이스(8010)의 각 지점(8030-1, 8040-1)의 “위치”에 대응하는 입력을, 각 지점(8030-1, 8040-1)에 대응하는 프레임(8030-2, 8040-3)에 대한 리포커싱 입력으로서 디텍트할 수 있다.
예를 들어, 도면에 도시한 바와 같이, 디바이스는 제 1 지점(8030-1)과 동일한 수직선 상에서 디텍트되는 터치 입력(8030-3)을 제 1 입력으로서 디텍트할 수 있다. 여기서 제 1 입력(8030-3)은 제 1 프레임(8030-2)을 리포커스하기 위한 리포커싱 입력을 나타낼 수 있다. 제 1 입력(8030-3)을 디텍트한 디바이스는 제 1 입력(8030-3)의 위치를 기준으로 제 1 프레임(8030-2)을 리포커스할 수 있다.
타임라인 인터페이스(8010)에 대응하는 리포커싱 입력은 타임라인 인터페이스(8010)에 대응하여 연속적 또는 불연속적으로 디텍트되는 터치 입력일 수 있다. 디바이스는 타임라인 인터페이스(8010)의 각 지점에 대응하는 터치 입력을 디텍트하고, 디텍트한 터치 입력의 위치를 기준으로 각 지점(8030-1, 8040-1)에 대응하는 각 프레임(8030-2, 8040-2)을 리포커스할 수 있다. 만일, 비디오 데이터가 재생 중이지 않은 상태에서 리포커싱 입력을 디텍트하고, 디텍트한 리포커싱 입력이 연속적 터치 입력인 경우, 디바이스는 리포커싱 입력의 “길이”에 대응하는 프레임을 선택 및 제공할 수 있으며, 이에 관한 상세한 설명은 도 5와 관련하여 상술한 바와 같다.
도 9는 슬라이딩 터치 입력을 타임라인 인터페이스를 기준으로 스케일링하여 디텍트하고, 디텍트한 슬라이딩 터치 입력을 기준으로 프레임을 리포커스하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
타임라인 인터페이스(9010)의 가로 너비는 비디오 데이터에 포함된 전체 프레임의 수를 기준으로 결정될 수 있다. 일 실시예로서, 타임라인 인터페이스(9010)의 가로 너비(w1)는 비디오 데이터에 포함된 전체 프레임의 수에 비례하여 길어지거나 짧아질 수 있다. 따라서, 비디오 데이터에 포함된 전체 프레임의 수가 증가할수록 타임라인 인터페이스(9010)의 가로 너비(w1)는 길어질 수 있다. 또는, 비디오 데이터에 포함된 전체 프레임의 수가 감소할수록 타임라인 인터페이스(9010)의 가로 너비(w1)는 줄어들 수 있다.
이때 디바이스는, 타임라인 인터페이스(9010)의 가로 너비(w1)와는 다른 가로 너비(w2)의 슬라이딩 터치 입력(9020)을 리포커싱 입력으로서 디텍트할 수 있다. 이 경우, 디바이스는 디텍트한 슬라이딩 터치 입력(9020)을 이용하여 가로 너비가 다른 타임라인 인터페이스(9010)에 포함된 모든 프레임에 대한 리포커싱을 수행할 수 있다. 디바이스는 슬라이딩 터치 입력(9020)을 타임라인 인터페이스(9010)를 기준으로 스케일링함으로써 타임라인 인터페이스(9010)에 포함된 모든 프레임에 대한 리포커싱을 수행할 수 있다.
일 실시예로서, 디바이스는 디텍트한 슬라이딩 터치 입력(9030-1)의 가로 너비(w2)가 타임라인 인터페이스(9010)의 가로 너비(w1)보다 긴 경우, 슬라이딩 터치 입력(9030-1)의 가로 너비(w2)를 스케일-다운할 수 있다(도 9-(a) 참조). 보다 상세하게는, 디텍트한 슬라이딩 터치 입력(9030-1)의 가로 너비(w2)가 타임라인 인터페이스(9010)의 가로 너비(w1)보다 긴 경우, 디바이스는 슬라이딩 터치 입력(9030-1)의 가로 너비(w2)를 타임라인 인터페이스(9010)의 가로 너비(w2)를 기준으로 스케일-다운하여, 스케일-다운된 슬라이딩 터치 입력(9030-2)을 디텍트할 수 있다. 슬라이딩 터치 입력(9030-1)의 가로 너비(w2)에 대한 스케일-다운이 완료되면, 디바이스는 도 8b와 관련하여 상술한 실시예와 같이, 스케일-다운된 터치 입력(9030-2)을 기준으로 타임라인 인터페이스(9010)의 각 지점에 대응하는 프레임을 리포커스할 수 있다.
다른 실시예로서, 디바이스는 디텍트한 슬라이딩 터치 입력(9040-1)의 가로 너비(w2)가 타임라인 인터페이스(9010)의 가로 너비(w1)보다 짧은 경우, 슬라이딩 터치 입력(9040-1)의 가로 너비(w2)를 스케일-업할 수 있다(도 9-(b) 참조). 보다 상세하게는, 디텍트한 슬라이딩 터치 입력(9040-1)의 가로 너비(w2)가 타임라인 인터페이스(9010)의 가로 너비(w1)보다 짧은 경우, 디바이스는 슬라이딩 터치 입력(9040-1)의 가로 너비(w2)를 타임라인 인터페이스(9010)의 가로 너비(w1)를 기준으로 스케일-업하여, 스케일-업된 슬라이딩 터치 입력(9040-2)을 디텍트할 수 있다. 슬라이딩 터치 입력(9040-1)의 가로 너비(w2)의 스케일-업이 완료되면, 디바이스는 도 8b와 관련하여 상술한 실시예와 같이, 스케일-업된 터치 입력(9040-2)을 기준으로 타임라인 인터페이스(9010)의 각 지점에 대응하는 프레임을 리포커스할 수 있다.
도 10은 리포커싱 입력으로서 멀티 터치 입력을 디텍트하여 프레임을 리포커스하는 디스플레이 디바이스의 일 실시예를 도시한 도면이다.
디바이스는 프레임에 대한 리포커싱 입력으로서 멀티-터치 입력(10010)을 디텍트할 수 있다. 여기서, 멀티-터치 입력(10010)이란, 복수의 지점(10020, 10030)에서 동시에 디텍트되는 터치 입력을 나타낼 수 있다. 유저는, 복수의 손가락을 이용하거나 복수의 터치 입력 도구(예를 들어, 스타일러스 펜)를 이용하여 복수의 지점을 동시에 터치함으로써 멀티-터치 입력(10010)을 디바이스에 입력할 수 있다.
디바이스는 이러한 멀티-터치 입력(10010)을 디텍트한 경우, 멀티-터치 입력에 포함된 복수의 지점(10020, 10030)을 기준으로 프레임에 대한 멀티-리포커싱을 수행할 수 있다. 유저는 하나의 프레임 상에서 포커스를 맞추고 싶은 오브젝트가 복수개가 존재하거나, 3D 비디오 데이터를 생성하고 싶은 경우, 상술한 멀티-터치 입력(10010)을 이용할 수 있다. 나아가, 디바이스는 이러한 멀티 터치 입력(10010)에 따라 멀티-리포커싱이 완료된 비디오 데이터를 새롭게 생성할 수 있다.
도 11은 디스플레이 디바이스의 제어 방법에 관한 순서도를 도시한 도면이다. 본 순서도에서 도 1 내지 도 10에서 상술한 설명과 유사하거나 중복되는 부분에 관한 상세한 설명은 생략하기로 한다.
우선, 디바이스는 제 1 입력 및 제 2 입력을 디텍트할 수 있다(S11010). 여기서 제 1 입력은 제 1 프레임에 대한 리포커싱 입력이고, 제 2 입력은 제 2 프레임에 대한 리포커싱 입력을 나타낼 수 있다. 디바이스는 비디오 데이터의 재생 중 디텍트되는 터치 입력을 리포커싱 입력으로서 디텍트하거나, 타임라인 인터페이스에 대응하는 터치 입력을 리포커싱 입력으로서 디텍트할 수 있다. 이에 관한 상세한 설명은 도 3 내지 도 9와 관련하여 상술한 바와 같다. 또한, 제 2 입력은 제 1 입력으로부터 연속되거나 불연속된 터치 입력을 나타낼 수 있다. 제 2 입력이 제 1 입력으로부터 연속된 터치 입력인 경우, 제 1 입력 및 제 2 입력은 하나의 슬라이딩 터치 입력을 구성할 수 있다. 또한, 여기서 제 1 프레임 및 제 2 프레임은 제 1 비디오 데이터에 포함된 리포커서블 프레임을 나타낼 수 있다. 또한, 제 2 프레임은 제 1 프레임의 후순위로 재생되는 프레임을 나타낼 수 있다. 따라서, 제 1 프레임 및 제 2 프레임 사이에는 다른 프레임이 존재하지 않거나, 적어도 하나의 다른 프레임이 존재할 수 있다.
다음으로, 디바이스는 제 1 입력의 위치를 기준으로 제 1 프레임을 리포커스하고, 제 2 입력의 위치를 기준으로 제 2 프레임을 리포커스할 수 있다(S11020). 이때, 디바이스는 제 1 프레임에 대한 기저장된 빛의 정보를 이용하여 제 1 입력의 위치를 기준으로 제 1 프레임을 리포커스할 수 있다. 또한, 디바이스는 제 2 프레임에 대한 기저장된 빛의 정보를 이용하여 제 2 입력의 위치를 기준으로 제 2 프레임을 리포커스할 수 있다. 리포커스하는 방법에 관한 상세한 설명은 도 1과 관련하여 상술한 바와 같다.
다음으로, 디바이스는 제 1 프레임 및 제 2 프레임이 리포커스된 제 1 비디오 데이터를 제 2 비디오 데이터로서 생성할 수 있다(S11030). 디바이스는 제 1 프레임 및 제 2 프레임을 리포커스한 제 1 비디오 데이터를 제 2 비디오 데이터로서 생성하여, 제 1 비디오 데이터를 대신하여, 또는 제 1 비디오 데이터에 추가로 스토리지 유닛에 저장할 수 있다. 따라서, 제 2 비디오 데이터가 재생되는 경우, 리포커스가 완료된 프레임들이 기설정된 재생 시퀀스대로 재생될 수 있다.
다만, 본 순서도에는 도시하지 않았으나, 디바이스는 리포커싱 인디케이터를 제공할 수 있다. 리포커싱 인디케이터는 유저가 지정한 리포커싱 위치를 인디케이트하는 인디케이터를 나타낼 수 있다. 리포커싱 인디케이터는 리포커싱이 완료된 비디오 데이터의 재생 시 디스플레이될 수 있으며, 유저는 리포커싱 인디케이터를 통해 전체 프레임에 대한 리포커싱 위치를 보다 쉽게 파악할 수 있다. 이에 관한 상세한 설명은 도 7a와 관련하여 상술한 바와 같다. 또한, 리포커싱 인디케이터는 동일한 리포커싱 위치를 갖는 프레임의 수를 기준으로 그 속성이 변경될 수 있는데, 이에 관한 상세한 설명은 도 7b와 관련하여 상술한 바와 같다.
또한, 본 순서도에는 도시하지 않았으나, 디바이스는 타임라인 인터페이스를 제공할 수 있다. 여기서 타임라인 인터페이스는 재생 시퀀스에 관한 정보를 재생 시간을 기준으로 제공하는 GUI를 나타낼 수 있다. 유저는 타임라인 인터페이스에 대응하여 디바이스를 터치함으로써 비디오 데이터에 포함된 각 프레임에 대한 리포커싱 위치를 지정할 수 있다. 다시 말하면, 디바이스는 타임라인 인터페이스의 각 지점에 대응하는 터치 입력을 디텍트하고, 해당 터치 입력의 위치를 기준으로 각 지점에 대응하는 프레임을 리포커스할 수 있다. 이에 관한 상세한 설명은 도 8a 내지 도 9와 관련하여 상술한 바와 같다.
설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시예들을 병합하여 새로운 실시예를 구현하도록 설계하는 것도 가능하다. 그리고, 당업자의 필요에 따라, 이전에 설명된 실시예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 권리범위에 속한다.
또한, 디바이스 및 그의 제어 방법은 상술한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상술한 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
또한, 이상에서는 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 요지를 벗어남이 없이 당해 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.
또한, 본 명세서의 디바이스 및 제어 방법은 네트워크 디바이스에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, 자기 테이프, 플로피디스크, 광 데이터 저장 장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 본 명세서에서의 길이는 정확한 값을 의미할 뿐 아니라, 일정 범위의 실질적인 길이를 포함하는 것으로 볼 수 있다. 즉, 본 명세서의 길이는 실질적인 길이를 나타낼 수 있고, 일정 범위의 오차가 존재할 수 있다.
또한, 본 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수 있다.
4010: 제 1 프레임
4020: 제 2 프레임
4030: 제 1 입력
4040: 제 2 입력
4020: 제 2 프레임
4030: 제 1 입력
4040: 제 2 입력
Claims (25)
- 디스플레이 디바이스에 있어서,
상기 디스플레이 디바이스에 대한 입력을 센싱하는 입력 센서 유닛;
리포커서블 프레임들을 포함하는 제 1 비디오 데이터를 저장하는 스토리지 유닛;
상기 제 1 비디오 데이터를 포함한 비주얼 인포메이션을 디스플레이하는 디스플레이 유닛; 및
상기 제 1 비디오 데이터의 제 1 프레임에 대한 제 1 입력 및 상기 제 1 비디오 데이터에서 상기 제 1 프레임의 후순위로 재생되는 제 2 프레임에 대한 제 2 입력을 디텍트한 경우, 상기 디텍트한 제 1 입력의 위치를 기준으로 상기 제 1 프레임을 리포커스하고, 상기 디텍트한 제 2 입력의 위치를 기준으로 상기 제 2 프레임을 리포커스하고,
상기 리포커스된 제 1 및 제 2 프레임이 포함된 상기 제 1 비디오 데이터를 이용하여 제 2 비디오 데이터를 생성하는 프로세서;를 포함하고,
상기 제 1 입력 및 상기 제 2 입력은 하나의 슬라이딩 터치 입력으로 구성되고,
상기 프로세서는,
상기 슬라이딩 터치 입력을 디텍트한 경우 상기 슬라이딩 터치 입력 길이에 대응하는 프레임을 선택하여 디스플레이하고,
상기 슬라이딩 터치 입력 길이가 기 설정된 길이 이상 길어짐을 디텍트한 경우, 상기 길이가 기 설정된 길이 이상 길어짐에 따라 상기 제 1 비디오 데이터에 포함된 각 프레임을 기 설정된 순서대로 선택하고, 상기 선택된 각 프레임을 순차적으로 제공하는, 디스플레이 디바이스. - 제 1 항에 있어서,
상기 제 1 비디오 데이터가 재생 중인 경우,
상기 프로세서는,
상기 재생 중인 제 1 비디오 데이터에 포함된 상기 제 1 프레임이 디스플레이된 시점에 디텍트된 입력을 상기 제 1 입력으로서 디텍트하고,
상기 재생 중인 제 1 비디오 데이터에 포함된 상기 제 2 프레임이 디스플레이된 시점에 디텍트된 입력을 상기 제 2 입력으로서 디텍트하는, 디스플레이 디바이스. - 제 1 항에 있어서,
상기 프로세서는,
상기 선택된 각 프레임을 리포커스하는 경우,
상기 선택된 프레임이 제공된 시점에 디텍트된 상기 슬라이딩 터치 입력의 위치를 기준으로, 상기 선택된 프레임을 리포커스하고,
상기 선택된 프레임이 리포커스된 제 1 비디오 데이터를 상기 제 2 비디오 데이터로서 생성하며,
기 설정된 시간 동안 선택된 프레임의 수가 스레스홀드 값을 초과하는 경우,
상기 기 설정된 시간 동안 선택된 프레임을 제외한 제 1 비디오 데이터를 상기 제 2 비디오 데이터로서 생성하는, 디스플레이 디바이스. - 제 1 항에 있어서,
상기 프로세서는,
상기 제 1 프레임 및 상기 제 2 프레임 사이에 제 3 프레임이 존재하고, 상기 제 3 프레임에 대한 제 3 입력을 디텍트한 경우, 상기 디텍트한 제 3 입력의 위치를 기준으로 상기 제 3 프레임을 리포커스하는, 디스플레이 디바이스. - 제 1 항에 있어서,
상기 제 1 입력은 상기 디스플레이 유닛 상의 복수의 지점(multi-point)에서 동시에 디텍트되는 멀티 터치 입력을 더 포함하고,
상기 프로세서는,
상기 제 1 입력으로서 상기 멀티 터치 입력을 디텍트한 경우, 상기 디텍트된 멀티 터치 입력에 포함된 상기 복수의 지점의 위치들을 기준으로 상기 제 1 프레임을 멀티-리포커스하는, 디스플레이 디바이스. - 제 1 항에 있어서,
상기 프로세서는,
상기 제 2 비디오 데이터를 재생하는 경우,
상기 제 1 입력을 기준으로 리포커스된 상기 제 1 프레임의 리포커싱 위치 및 상기 제 2 입력을 기준으로 리포커스된 상기 제 2 프레임의 리포커싱 위치를 인디케이트하는 리포커싱 인디케이터를 디스플레이하고,
복수의 프레임에 대하여 리포커싱 위치가 동일한 위치로 설정된 경우, 상기 동일한 리포커싱 위치를 갖는 복수의 프레임 개수(quantity)를 기준으로 상기 리포커싱 인디케이터의 두께를 조절하는, 디스플레이 디바이스. - 제 1 항에 있어서,
상기 프로세서는,
상기 제 1 비디오 데이터의 재생 시퀀스에 대응하는 타임라인 인터페이스를 제공하되, 상기 타임라인 인터페이스의 제 1 지점은 상기 제 1 비디오 데이터의 상기 제 1 프레임에 대응하고, 상기 타임라인 인터페이스의 제 2 지점은 상기 제 1 비디오 데이터의 상기 제 2 프레임에 대응하고,
상기 제 1 지점의 위치에 대응하는 입력을 디텍트한 경우, 상기 입력을 상기 제 1 입력으로서 디텍트하고, 상기 디텍트한 제 1 입력의 위치를 기준으로 상기 제 1 프레임을 리포커스하고,
상기 제 2 지점의 위치에 대응하는 입력을 디텍트한 경우, 상기 입력을 상기 제 2 입력으로서 디텍트하고, 상기 디텍트한 제 2 입력의 위치를 기준으로 상기 제 2 프레임을 리포커스하는, 디스플레이 디바이스. - 제 7 항에 있어서,
상기 프로세서는,
상기 슬라이딩 터치 입력을 디텍트하고, 상기 디텍트한 슬라이딩 터치 입력을 기준으로 상기 타임라인 인터페이스에 포함된 모든 프레임에 대한 리포커싱을 수행하고,
상기 슬라이딩 터치 입력의 가로 너비가 상기 타임라인 인터페이스의 가로 너비와 다른 경우, 상기 슬라이딩 터치 입력의 가로 너비를 상기 타임라인 인터페이스의 가로 너비를 기준으로 스케일링하는, 디스플레이 디바이스. - 제 8 항에 있어서,
상기 프로세서는,
상기 슬라이딩 터치 입력의 가로 너비가 상기 타임라인 인터페이스의 가로 너비 미만인 경우, 상기 슬라이딩 터치 입력의 가로 너비를 상기 타임라인 인터페이스의 가로 너비를 기준으로 스케일-업하고,
상기 슬라이딩 터치 입력의 가로 너비가 상기 타임라인 인터페이스의 가로 너비 초과인 경우, 상기 슬라이딩 터치 입력의 가로 너비를 상기 타임라인 인터페이스의 가로 너비를 기준으로 스케일-다운하는, 디스플레이 디바이스. - 제 8 항에 있어서,
상기 프로세서는,
상기 슬라이딩 터치 입력이 스케일링된 경우,
상기 타임라인 인터페이스의 제 1 지점의 위치와 대응하는 상기 스케일링된 슬라이딩 터치 입력의 위치를 기준으로 상기 제 1 프레임을 리포커스하고,
상기 타임라인 인터페이스의 제 2 지점의 위치와 대응하는 상기 스케일링된 슬라이딩 터치 입력의 위치를 기준으로 상기 제 2 프레임을 리포커스하고,
상기 제 1 프레임 및 상기 제 2 프레임이 리포커스된 제 1 비디오 데이터를 상기 제 2 비디오 데이터로서 생성하는, 디스플레이 디바이스. - 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140032803A KR102257620B1 (ko) | 2014-03-20 | 2014-03-20 | 디스플레이 디바이스 및 그 제어 방법 |
US14/259,786 US9110576B1 (en) | 2014-03-20 | 2014-04-23 | Display device and method for controlling the same |
PCT/KR2014/003718 WO2015141891A1 (en) | 2014-03-20 | 2014-04-28 | Display device and method for controlling the same |
EP14886344.2A EP3120217B1 (en) | 2014-03-20 | 2014-04-28 | Display device and method for controlling the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140032803A KR102257620B1 (ko) | 2014-03-20 | 2014-03-20 | 디스플레이 디바이스 및 그 제어 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150109694A KR20150109694A (ko) | 2015-10-02 |
KR102257620B1 true KR102257620B1 (ko) | 2021-05-28 |
Family
ID=53785990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140032803A KR102257620B1 (ko) | 2014-03-20 | 2014-03-20 | 디스플레이 디바이스 및 그 제어 방법 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9110576B1 (ko) |
EP (1) | EP3120217B1 (ko) |
KR (1) | KR102257620B1 (ko) |
WO (1) | WO2015141891A1 (ko) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9235278B1 (en) * | 2014-07-24 | 2016-01-12 | Amazon Technologies, Inc. | Machine-learning based tap detection |
JP6576171B2 (ja) * | 2015-09-02 | 2019-09-18 | キヤノン株式会社 | 映像処理装置、映像処理方法、及びプログラム |
JP6700813B2 (ja) * | 2016-01-29 | 2020-05-27 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
US9912860B2 (en) | 2016-06-12 | 2018-03-06 | Apple Inc. | User interface for camera effects |
DK180859B1 (en) | 2017-06-04 | 2022-05-23 | Apple Inc | USER INTERFACE CAMERA EFFECTS |
JP2019105933A (ja) * | 2017-12-11 | 2019-06-27 | キヤノン株式会社 | 画像処理装置、画像処理装置の制御方法、およびプログラム |
CN110460790A (zh) * | 2018-05-02 | 2019-11-15 | 北京视联动力国际信息技术有限公司 | 一种视频帧的抽取方法和装置 |
US11722764B2 (en) | 2018-05-07 | 2023-08-08 | Apple Inc. | Creative camera |
US11770601B2 (en) | 2019-05-06 | 2023-09-26 | Apple Inc. | User interfaces for capturing and managing visual media |
US11128792B2 (en) | 2018-09-28 | 2021-09-21 | Apple Inc. | Capturing and displaying images with multiple focal planes |
US11321857B2 (en) | 2018-09-28 | 2022-05-03 | Apple Inc. | Displaying and editing images with depth information |
US11706521B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | User interfaces for capturing and managing visual media |
US11039074B1 (en) | 2020-06-01 | 2021-06-15 | Apple Inc. | User interfaces for managing media |
CN115529415A (zh) * | 2021-04-30 | 2022-12-27 | 苹果公司 | 用于更改视觉媒体的用户界面 |
KR20230151027A (ko) * | 2021-04-30 | 2023-10-31 | 애플 인크. | 시각적 미디어를 변경하기 위한 사용자 인터페이스들 |
US11778339B2 (en) | 2021-04-30 | 2023-10-03 | Apple Inc. | User interfaces for altering visual media |
US12112024B2 (en) | 2021-06-01 | 2024-10-08 | Apple Inc. | User interfaces for managing media styles |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100128145A1 (en) | 2008-11-25 | 2010-05-27 | Colvin Pitts | System of and Method for Video Refocusing |
US20130222633A1 (en) | 2012-02-28 | 2013-08-29 | Lytro, Inc. | Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices |
US20140002618A1 (en) | 2012-06-28 | 2014-01-02 | Casio Computer Co., Ltd. | Image processing device and image processing method having function for reconstructing multi-aspect images, and recording medium |
US20140013273A1 (en) | 2006-12-01 | 2014-01-09 | Lytro, Inc. | Interactive refocusing of electronic images |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3678160B2 (ja) * | 2001-03-26 | 2005-08-03 | コニカミノルタフォトイメージング株式会社 | 画像処理装置、表示装置、プログラムおよび記憶媒体 |
JP4497236B2 (ja) | 2008-08-11 | 2010-07-07 | オムロン株式会社 | 検出用情報登録装置、電子機器、検出用情報登録装置の制御方法、電子機器の制御方法、検出用情報登録装置制御プログラム、電子機器の制御プログラム |
WO2011041739A1 (en) | 2009-10-01 | 2011-04-07 | Pelco, Inc. | Video surveillance camera refocus |
US8717317B2 (en) * | 2010-02-22 | 2014-05-06 | Canon Kabushiki Kaisha | Display control device and method for controlling display on touch panel, and storage medium |
JP5848561B2 (ja) * | 2011-09-20 | 2016-01-27 | キヤノン株式会社 | 撮像装置及びその制御方法、プログラム、並びに記憶媒体 |
WO2013043488A1 (en) | 2011-09-22 | 2013-03-28 | Eastman Kodak Company | Digital imaging system with refocusable imaging mode |
KR101976178B1 (ko) * | 2012-06-05 | 2019-05-08 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기의 제어 방법 |
JP2013254432A (ja) * | 2012-06-08 | 2013-12-19 | Canon Inc | 画像処理装置及び画像処理方法 |
-
2014
- 2014-03-20 KR KR1020140032803A patent/KR102257620B1/ko active IP Right Grant
- 2014-04-23 US US14/259,786 patent/US9110576B1/en not_active Expired - Fee Related
- 2014-04-28 EP EP14886344.2A patent/EP3120217B1/en active Active
- 2014-04-28 WO PCT/KR2014/003718 patent/WO2015141891A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140013273A1 (en) | 2006-12-01 | 2014-01-09 | Lytro, Inc. | Interactive refocusing of electronic images |
US20100128145A1 (en) | 2008-11-25 | 2010-05-27 | Colvin Pitts | System of and Method for Video Refocusing |
US20130235267A1 (en) | 2008-11-25 | 2013-09-12 | Lytro, Inc. | Acquiring, editing, generating and outputting video data |
US20130222633A1 (en) | 2012-02-28 | 2013-08-29 | Lytro, Inc. | Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices |
US20140002618A1 (en) | 2012-06-28 | 2014-01-02 | Casio Computer Co., Ltd. | Image processing device and image processing method having function for reconstructing multi-aspect images, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
WO2015141891A1 (en) | 2015-09-24 |
EP3120217B1 (en) | 2020-04-15 |
EP3120217A1 (en) | 2017-01-25 |
US9110576B1 (en) | 2015-08-18 |
KR20150109694A (ko) | 2015-10-02 |
EP3120217A4 (en) | 2017-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102257620B1 (ko) | 디스플레이 디바이스 및 그 제어 방법 | |
US9942486B2 (en) | Identifying dominant and non-dominant images in a burst mode capture | |
US8751955B2 (en) | Scrollbar user interface for multitouch devices | |
US10969949B2 (en) | Information display device, information display method and information display program | |
KR101163346B1 (ko) | 터치스크린 제어방법, 장치, 이를 위한 기록매체 및 이를 포함하는 사용자 단말 | |
US9727789B2 (en) | Information processing apparatus and control method thereof | |
US11209973B2 (en) | Information processing apparatus, method, and medium to control item movement based on drag operation | |
JP2013541073A (ja) | 最小フレームレート要件を満たすためのグラフィックスレンダリング方法 | |
KR101669079B1 (ko) | 표시제어장치 및 그 제어 방법 | |
JP2015508211A (ja) | カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する方法及び装置、並びにそのコンピュータ可読記録媒体 | |
AU2013222958A1 (en) | Method and apparatus for object size adjustment on a screen | |
JP2013165462A (ja) | 動画記録装置及びその制御方法、コンピュータプログラム、記憶媒体 | |
US20160103574A1 (en) | Selecting frame from video on user interface | |
US10742968B2 (en) | Apparatus for recognizing pupillary distance for 3D display | |
JP6494358B2 (ja) | 再生制御装置、再生制御方法 | |
KR20140135884A (ko) | 디스플레이 장치 및 그 제어방법 | |
US11243678B2 (en) | Method of panning image | |
US10747410B2 (en) | Image display apparatus, image display method, and storage medium | |
US20170351423A1 (en) | Information processing apparatus, information processing method and computer-readable storage medium storing program | |
KR101646692B1 (ko) | 터치 압력 및 터치 면적에 따른 동작 대상의 임시 조작 방법 및 단말기 | |
US10212382B2 (en) | Image processing device, method for controlling image processing device, and computer-readable storage medium storing program | |
JP6525753B2 (ja) | 表示制御装置、その制御方法、およびプログラム | |
JP6362110B2 (ja) | 表示制御装置、その制御方法、プログラム、及び記録媒体 | |
US11010045B2 (en) | Control apparatus, control method, and non-transitory computer readable medium | |
EP4395335A1 (en) | Electronic device for changing synchronized contents, and method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |