[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20140049865A - Device for providing a floating image - Google Patents

Device for providing a floating image Download PDF

Info

Publication number
KR20140049865A
KR20140049865A KR1020120116222A KR20120116222A KR20140049865A KR 20140049865 A KR20140049865 A KR 20140049865A KR 1020120116222 A KR1020120116222 A KR 1020120116222A KR 20120116222 A KR20120116222 A KR 20120116222A KR 20140049865 A KR20140049865 A KR 20140049865A
Authority
KR
South Korea
Prior art keywords
image
unit
projection
spatial
spatial image
Prior art date
Application number
KR1020120116222A
Other languages
Korean (ko)
Inventor
신성철
김보람
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020120116222A priority Critical patent/KR20140049865A/en
Publication of KR20140049865A publication Critical patent/KR20140049865A/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/54Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels the 3D volume being generated by moving a 2D surface, e.g. by vibrating or rotating the 2D surface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/393Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume the volume being generated by a moving, e.g. vibrating or rotating, surface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

A device for providing a spatial image is disclosed. A projection unit projects a light beam to generate a three-dimensional image based on image data. A three-dimensional image forming unit forms the three-dimensional image by imaging the light beam which the projection unit projected. A projecting unit generates the spatial image by reconstructing the three-dimensional image formed by the three-dimensional image forming unit. A projecting optical unit is located between the three-dimensional image forming unit and the projecting unit, and projects the three-dimensional image formed by the three-dimensional image forming unit. [Reference numerals] (110) Display unit; (120) Projection unit; (130) Sensing unit; (140) Control unit; (150) Feedback providing unit; (160) Storage unit; (170) Communications unit

Description

공간 영상 제공 장치{Device for providing a floating image}Device for providing a spatial image {Device for providing a floating image}

본 발명은 공간 영상 제공 장치에 관한 것으로, 보다 상세하게는, 3차원 영상을 디스플레이하는 공간 영상 제공 장치에 관한 것이다.The present invention relates to a spatial image providing apparatus, and more particularly, to a spatial image providing apparatus for displaying a three-dimensional image.

디스플레이 및 미디어 표현에 대한 기술발전의 방향을 살펴보면, 흑백 TV에서 칼라 CRT브라운관 TV을 거쳐 평면 와이드 TV로, 그리고 2000년도에 들어서면서 슬림 평면 대화면 고해상도 패널 TV로 발전이 되었고, 2010년에 들어서면서 최근까지 양안시차를 이용한 안경방식 및 무안경방식의 3D 디스플레이가 개발되고 있다. 게다가 디스플레이 시스템의 기능도 융합적인 서비스 기능으로 변모하여, 디스플레이 시스템은 기존의 한 방향에서 정보를 전달하는 매개체에서 쌍방향에서 서로 소통기능과 일부 영상정보전달 기능에 추가하여 인터넷 및 전화 통신 기능, 그리고 최근에는 컴퓨터의 기능까지 통합한 스마트한 디스플레이로 변화되고 있다.Looking at the direction of technology development for display and media expression, from the black-and-white TV to the color CRT CRT TV to the flat-panel widescreen TV, and in 2000, the development of the slim flat screen high-definition panel TV. Until now, a 3D display of a glasses type and a glassesless type using binocular disparity has been developed. In addition, the function of the display system is also transformed into a convergent service function. The display system is an internet and telephony function, and recently, in addition to the communication function and some image information transmission functions in both directions in the existing medium that transmits information in one direction. Is transforming into a smart display that incorporates the functionality of a computer.

최근에 국내외 업체 및 조사기관의 기술동향 및 기술계획 발표에 따르면, 시간적인 제약이 있는 역사적인 유물이나 사건 등을 직접 체험하거나 공간적으로 제약이 있는 거시적인 우주, 눈에 보이지 않는 미세한 환경 또는 위험성이 있는 것을 간접적으로 실감나게 구현하는 학습 교육시스템의 개발 계획이 발표되고 있으며, 유비쿼터스 시스템상에서 개인 공간 안에서도 외부공간에서 체험이 가능할 수 있도록 가상공간에서 실감나는 영상 재현할 수 있는 기술개발 계획이 발표되고 있다.According to the recent technology trends and technical plans announced by domestic and foreign companies and research institutes, they can directly experience historical artifacts or events with time constraints, macroscopic spaces with limited space, invisible micro-environments, or risks. The development plan of learning education system that realizes this indirectly and realistically has been announced, and the technology development plan that can reproduce realistic images in virtual space has been announced so that it can be experienced in the external space even in the personal space on the ubiquitous system.

종래 패널 기반의 2D, 2.5D, 그리고 양안시차 3D 디스플레이 영상에 대해서 직접 터치하거나 허공에서 모션 센싱을 하여 영상물을 제어하는 기법으로 개발되었다. 기존 영상들은 제한된 시야각에서 일부 시야의 영상 정보를 제공하여 다소 실제 감이 낮은 영상 콘텐츠로 구현되었다.Conventionally, a panel-based 2D, 2.5D, and binocular parallax 3D display image has been developed as a technique for controlling an image by directly touching or motion sensing in the air. Existing images provide image information of some field of view at limited viewing angle and are implemented as image contents with a little real feeling.

최근에 들어서는 양안 시차방식에 의한 거리 깊이 정보를 주는 3D 영상을 제공하고 있지만 이 또한 양안 시차에 의한 휴먼 팩터(Human factor) 영향이나 깊이(depth)에 따른 영상화질 저하, 데드 존(dead zone), 크로스턱(cross talk) 등이 존재하며 여전히 360도 영상 정보를 제공하는데 제약이 따른다. 게다가, 일부 무안경 방식의 3D는 동시에 여러 시청자가 시청할 수 있는 기술의 극복이 필요한 실정이다.Recently, 3D image providing distance depth information by binocular parallax method is provided, but also, deterioration of image quality due to human factor influence or depth due to binocular parallax, dead zone, There are cross talks and the like, and there are still limitations in providing 360 degree image information. In addition, some glasses-free 3D needs to overcome the technology that can be viewed by multiple viewers at the same time.

본 발명이 이루고자 하는 기술적 과제는 360도 정보를 갖는 리얼 3차원 영상을 사용자가 대면할 수 있는 위치에 디스플레이할 수 있는 공간 영상 제공 장치를 제공하는데 있다.An object of the present invention is to provide a spatial image providing apparatus capable of displaying a real three-dimensional image having 360-degree information in a position where a user can face.

본 발명이 이루고자하는 다른 기술적 과제는 사용자로 하여금 공간상에 디스플레이된 리얼 3차원 영상에 대한 터치감을 느낄 수 있도록 하는 공간 영상 제공 장치를 제공하는데 있다.Another object of the present invention is to provide a spatial image providing apparatus that allows a user to feel a touch on a real 3D image displayed in a space.

본 발명이 이루고자하는 또 다른 기술적 과제는 공간상에 디스플레이된 리얼 3차원 영상을 사용자의 취향에 따라 이동 및 변화시킬 수 있도록 하는 공간 영상 제공 장치를 제공하는데 있다.Another object of the present invention is to provide a spatial image providing apparatus that can move and change a real 3D image displayed in a space according to a user's taste.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 공간 영상 제공 장치는 영상 데이터를 기초로 3차원 영상을 생성하는 광빔을 투사하는 투사부, 상기 투사된 광빔을 결상하여 3차원 영상을 형성하는 3차원 영상 형성부, 상기 형성된 3차원 영상을 재결상하여 공간 영상을 생성하는 투영부, 및 상기 3차원 영상 형성부 및 상기 투영부 사이에 위치하고, 상기 형성된 3차원 영상을 상기 투영부로 투사하는 영사 광학부를 포함할 수 있다. 여기서, 상기 공간 영상은 상기 투영부의 정면에 대향하는 방향에 위치하는 관찰자와 대면하는 위치에 디스플레이될 수 있다. 또한 형성된 3차원 영상은 시야각 제한 없이 360도 어느 방향에서든 관측 가능한 것일 수 있다.In order to achieve the above object, the apparatus for providing a spatial image according to the present invention includes a projection unit for projecting a light beam to generate a 3D image based on the image data, and a 3D image forming the projected light beam. A 3D image forming unit, a projection unit regenerating the formed 3D image to generate a spatial image, and a projection optical unit positioned between the 3D image forming unit and the projection unit and projecting the formed 3D image to the projection unit. It may include. Here, the spatial image may be displayed at a position facing an observer located in a direction opposite to the front of the projection unit. In addition, the formed 3D image may be observable in any direction 360 degrees without limiting the viewing angle.

상기 3차원 영상 형성부 및 상기 투영부는 서로 소정의 각도로 기울어지게 위치할 수 있다.The 3D image forming unit and the projection unit may be positioned to be inclined at a predetermined angle to each other.

상기 투사부는 디스플레이 패널 또는 프로젝터일 수 있다. 또한, 상기 투사부는 멀티 프로젝터일 수 있고, 상기 3차원 영상 형성부의 스크린이 곡률로 형성될 수 있다.The projection unit may be a display panel or a projector. The projector may be a multi-projector, and the screen of the 3D image forming unit may have a curvature.

상기 영사 광학부는, 적어도 하나의 렌즈를 포함할 수 있다. 상기 영사 광학부는, 상기 3차원 영상의 크기를 확대 또는 축소할 수 있다.The projection optical unit may include at least one lens. The projection optical unit may enlarge or reduce the size of the 3D image.

상기 투영부는 미러홀 패턴 소자, 렌즈 패턴 소자 및 회절 광학 소자 중 적어도 하나를 포함할 수 있다. 또한, 상기 투영부는 상기 영사 광학부로부터 입사된 광빔을 반사하여 상을 결상시킬 수 있다.The projection unit may include at least one of a mirror hole pattern element, a lens pattern element, and a diffractive optical element. The projecting unit may form an image by reflecting a light beam incident from the projection optical unit.

상기 3차원 영상 형성부는 투과형 스크린 방식 디스플레이, 회전스크린 방식 디스플레이, 산란 스캔 방식 디스플레이 및 홀로그래픽 디스플레이 중 적어도 하나를 포함할 수 있다.The 3D image forming unit may include at least one of a transmissive screen display, a rotating screen display, a scattering scan display, and a holographic display.

상기 공간 영상 제공 장치는, 상기 공간 영상 제공 장치의 주변에 위치하는 외부 객체의 위치 또는 움직임 감지하는 센싱부, 상기 감지된 외부 객체의 위치에 따라 또는 상기 감지된 외부 객체의 움직임에 응답하여 상기 공간 영상이 변환되도록 제어하는 제어부, 및 상기 감지된 외부 객체의 위치에 따라 또는 상기 감지된 외부 객체의 움직임에 응답하여 피드백을 제공하는 피드백 제공부를 더 포함할 수 있다.The spatial image providing apparatus may include a sensing unit configured to detect a position or movement of an external object located around the spatial image providing apparatus, the space according to the detected position of the external object or in response to the movement of the detected external object. The controller may further include a controller configured to control an image to be converted, and a feedback provider configured to provide feedback based on the detected position of the external object or in response to the movement of the detected external object.

상기 공간 영상 제공 장치는, 상기 영상 데이터를 수신하는 통신부 및 상기 영상 데이터를 저장하는 저장부 중 적어도 하나를 더 포함할 수 있다.The apparatus for providing a spatial image may further include at least one of a communication unit for receiving the image data and a storage unit for storing the image data.

본 발명에 따른 공간 영상 제공 장치에 의하면, 360도 정보를 갖는 리얼 3차원 영상을 사용자가 대면할 수 있는 위치에 디스플레이할 수 있고, 사용자로 하여금 디스플레이된 리얼 3차원 영상에 대한 터치감을 느낄 수 있도록 하며, 사용자가 자신의 취향에 따라 디스플레이된 리얼 3차원 영상을 이동 및 변화시킬 수 있도록 한다.According to the spatial image providing apparatus according to the present invention, it is possible to display a real three-dimensional image having 360-degree information in a position where the user can face, so that the user can feel the touch on the displayed real three-dimensional image In addition, the user can move and change the displayed real 3D image according to his or her taste.

도 1은 본 발명에 따른 공간 영상 제공 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 2는 본 발명에 따른 공간 영상 제공 장치에 대한 바람직한 일실시예의 구조를 도시한 구조도,
도 3은 디스플레이부의 실시예들을 도시한 도면,
도 4는 투영부의 실시예들을 도시한 도면,
도 5는 공간 영상을 터치하는 사용자 조치에 대한 응답으로 공간 영상의 변화의 일예를 도시한 도면,
도 6은 사용자의 손의 움직임에 따라 공간 영상의 움직임의 일예를 도시한 도면,
도 7은 본 발명에 따른 공간 영상 제공 장치의 테이블의 상면의 일실시예를 도시한 도면, 그리고,
도 8은 본 발명에 따른 공간 영상 제공 방법에 대한 바람직한 일실시예의 수행과정을 도시한 순서도, 그리고,
도 9는 본 발명에 따른 공간 영상 제공 장치에 대한 바람직한 다른 실시예의 구조를 도시한 구조도이다.
1 is a block diagram showing the configuration of a preferred embodiment of a spatial image providing apparatus according to the present invention;
2 is a structural diagram showing a structure of a preferred embodiment of a spatial image providing apparatus according to the present invention;
3 is a view illustrating embodiments of a display unit;
4 is a view showing embodiments of the projection unit,
5 illustrates an example of a change of a spatial image in response to a user action of touching the spatial image;
6 is a diagram illustrating an example of a motion of a spatial image according to a movement of a user's hand;
7 is a view showing an embodiment of an upper surface of a table of a spatial image providing apparatus according to the present invention;
8 is a flowchart illustrating a process of performing a preferred embodiment of the method for providing a spatial image according to the present invention;
9 is a structural diagram showing another preferred embodiment of the spatial image providing apparatus according to the present invention.

이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. The structure and operation of the present invention shown in the drawings and described by the drawings are described as at least one embodiment, and the technical ideas and the core structure and operation of the present invention are not limited thereby.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당해 기술분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.Although the terms used in the present invention have been selected in consideration of the functions of the present invention, it is possible to use general terms that are currently widely used, but this may vary depending on the intention or custom of a person skilled in the art or the emergence of new technology. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, it is to be understood that the term used in the present invention should be defined based on the meaning of the term rather than the name of the term, and on the contents of the present invention throughout.

도 1은 본 발명에 따른 공간 영상 제공 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.1 is a block diagram showing the configuration of a preferred embodiment of a spatial image providing apparatus according to the present invention.

도 1을 참조하면, 본 발명에 따른 공간 영상 제공 장치(100)는 디스플레이부(110), 투영부(120), 센싱부(130), 제어부(140), 피드백 제공부(150), 저장부(160) 및 통신부(170) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 1, the apparatus 100 for providing a spatial image according to the present invention may include a display unit 110, a projection unit 120, a sensing unit 130, a control unit 140, a feedback providing unit 150, and a storage unit. It may include at least one of the 160 and the communication unit 170.

디스플레이부(110)는 영상 데이터를 기초로 3차원 영상을 재생한다. 상기 재생된 3차원 영상은 시야각 제한 없이 360도 어느 방향에서든 관측 가능한 것일 수 있다. 상기 재생된 3차원 영상은 360도 영상 정보를 제공하는 리얼 3차원 영상(Real 3D image)일 수 있다. The display 110 reproduces the 3D image based on the image data. The reproduced 3D image may be observable in any direction of 360 degrees without limiting the viewing angle. The reproduced 3D image may be a real 3D image that provides 360 degree image information.

상기 영상 데이터는 저장부(160)에 저장된 것일 수 있고, 통신부(170)가 수신한 것일 수 있다. 상기 영상 데이터는 복수의 입체영상 프레임을 포함하는 3차원 동영상(3차원 비디오)을 디스플레이하기 위한 영상 데이터일 수 있다. 일부 실시예로, 입체영상 프레임은 특정 폭과 넓이를 갖는 2차원 영상 프레임과 이에 대응하는 깊이 영상을 포함할 수 있다. 여기서 2차원 영상 프레임은 칼라 영상 데이터를 포함한다. 상기 칼라 영상 데이터는 픽셀값을 포함한다. 상기 깊이 영상은 그레이 레벨(Grey Level)로 표현될 수 있고, 상기 2차원 영상 프레임의 픽셀 해상도와 동일한 해상도를 가질 수 있다. 상기 깊이 영상에 포함된 픽셀들은 각각 상기 2차원 영상 프레임에 포함된 픽셀들과 일대 일로 대응되는 깊이값을 가질 수 있다. 상기 깊이값은 그레이 레벨로 표시될 수 있다. 일예로, 상기 그레이 레벨은 0에서 255의 값을 가질 수 있다.The image data may be stored in the storage 160, or may be received by the communication unit 170. The image data may be image data for displaying a 3D video (3D video) including a plurality of 3D image frames. In some embodiments, the 3D image frame may include a 2D image frame having a specific width and width and a depth image corresponding thereto. Here, the 2D image frame includes color image data. The color image data includes pixel values. The depth image may be represented by a gray level and may have the same resolution as the pixel resolution of the 2D image frame. The pixels included in the depth image may each have a depth value corresponding one-to-one with the pixels included in the 2D image frame. The depth value may be displayed in gray level. For example, the gray level may have a value of 0 to 255.

투영부(120)는 디스플레이부(110)가 재생한 3차원 영상을 특정 공간에 투영하여 상기 3차원 영상의 상을 맺게 한다. 즉 투영부(120)는 상기 3차원 영상의 상인 공간 영상을 생성한다. 이하에서, 공간 영상은 디스플레이부(110)가 재생한 3차원 영상을 특정 공간에 투영시킨 3차원 영상을 의미하는 것으로 정의한다.The projection unit 120 projects the 3D image reproduced by the display 110 in a specific space to form an image of the 3D image. That is, the projection unit 120 generates a spatial image that is an image of the 3D image. Hereinafter, the spatial image is defined as meaning a 3D image in which the 3D image reproduced by the display 110 is projected onto a specific space.

센싱부(130)는 공간 영상 제공 장치(100)의 주변에 위치하는 외부 객체의 위치 또는 움직임 감지한다. 여기서 외부 객체는 사용자의 손, 사용자의 손가락 및 스틱(stick) 중 적어도 하나를 포함할 수 있다.The sensing unit 130 detects the position or movement of an external object located near the spatial image providing apparatus 100. The external object may include at least one of a user's hand, a user's finger, and a stick.

센싱부(130)는 공간 영상 제공 장치(100)의 주변의 음성을 감지한다.The sensing unit 130 detects the voice of the surroundings of the spatial image providing apparatus 100.

센싱부(130)는 카메라, 적외선 센서, 파장 센서 및 음성 감지 센서 중 적어도 하나를 포함할 수 있다. 센싱부(130)는 카메라에 촬영된 영상, 적외선 센서 및 파장 센서를 통해 외부 객체의 움직임을 트랙킹할 수 있다. 또한, 센싱부(130)는 음선 감지 센서를 통해 사용자의 음성을 센싱할 수 있다.The sensing unit 130 may include at least one of a camera, an infrared sensor, a wavelength sensor, and a voice sensor. The sensing unit 130 may track the movement of the external object through the image captured by the camera, the infrared sensor, and the wavelength sensor. In addition, the sensing unit 130 may sense a user's voice through a sound ray sensor.

제어부(140)는 센싱부(130)가 감지한 외부 객체의 위치에 따라 공간 영상이 변환되도록 제어한다. 제어부(140)는 상기 위치에 따라 공간 영상의 재질, 색상, 크기, 모양, 위치 및 방향 중 적어도 하나가 변환되도록 디스플레이부(110) 및 투영부(120)를 제어할 수 있다. 제어부(140)는 외부 객체의 위치에 따라 공간 영상이 회전 또는 이동하도록 제어할 수 있다.The controller 140 controls the spatial image to be converted according to the position of the external object sensed by the sensing unit 130. The controller 140 may control the display 110 and the projector 120 to convert at least one of a material, a color, a size, a shape, a position, and a direction of the spatial image according to the position. The controller 140 may control the spatial image to be rotated or moved according to the position of the external object.

또한 제어부(140)는 외부 객체의 위치에 따라 공간 영상의 기능이 실현되도록 제어할 수 있다. 예를 들면, 공간 영상이 핸드백이고, 상기 핸드백의 버튼에 외부 객체가 위치한 경우에는, 제어부(140)는 핸드백이 열리는 동영상이 디스플레이되도록 제어할 수 있다. 즉 공간 영상은 닫힌 핸드백에서 열린 핸드백으로 변환된다.In addition, the controller 140 may control the spatial image to be realized according to the position of the external object. For example, when the spatial image is a handbag and an external object is located at a button of the handbag, the controller 140 may control to display a video in which the handbag is opened. In other words, the spatial image is converted from a closed handbag to an open handbag.

제어부(140)는 센싱부(130)가 감지한 외부 객체의 움직임에 응답하여 공간 영상이 변환되도록 제어한다. 제어부(140)는 상기 움직임에 따라 공간 영상의 재질, 색상, 크기, 모양, 위치 및 방향 중 적어도 하나가 변환되도록 디스플레이부(110) 및 투영부(120)를 제어할 수 있다. 제어부(140)는 외부 객체의 움직임에 따라 공간 영상의 크기를 크게 또는 작게 되도록 제어할 수 있다. 또한 제어부(140)는 외부 객체의 움직임에 따라 공간 영상이 분리되도록 제어할 수 있다.The controller 140 controls the spatial image to be converted in response to the movement of the external object sensed by the sensing unit 130. The controller 140 may control the display 110 and the projector 120 to convert at least one of the material, color, size, shape, position, and direction of the spatial image according to the movement. The controller 140 may control the size of the spatial image to be larger or smaller according to the movement of the external object. In addition, the controller 140 may control the spatial image to be separated according to the movement of the external object.

제어부(140)는 상기 외부 객체의 움직임에 응답하여 공간 영상이 움직이도록 디스플레이부(110) 및 투영부(120)를 제어할 수 있다. 일예로, 외부 객체의 상하 움직임에 따라 공간 영상은 상하로 움직일 수 있다. 이때, 제어부(140)는 외부 객체의 상하 움직임에 따라 디스플레이부(110)와 투영부(120)와의 거리를 조절하여 공간 영상이 상하로 움직이도록 제어할 수 있다. 제어부(140)는 상기 외부 객체의 움직임에 응답하여 공간 영상이 회전하도록 디스플레이부(110) 및 투영부(120)를 제어할 수 있다.The controller 140 may control the display 110 and the projector 120 to move the spatial image in response to the movement of the external object. For example, the spatial image may move up and down according to the vertical movement of the external object. In this case, the controller 140 may control the spatial image to move up and down by adjusting the distance between the display 110 and the projector 120 according to the vertical movement of the external object. The controller 140 may control the display 110 and the projector 120 to rotate the spatial image in response to the movement of the external object.

제어부(140)는 센싱부(130)가 감지한 소리에 따라 공간 영상의 재질, 색상, 크기, 모양, 위치 및 방향 중 적어도 하나가 변환되도록 디스플레이부(110) 및 투영부(120)를 제어할 수 있다. 제어부(140)는 센싱부(130)가 감지한 소리에 따라 공간 영상의 기능이 실현되도록 제어할 수 있다. 이에 따라, 사용자는 음성을 통해 공간 영상을 변환시키기 위한 명령어를 공간 영상 제공 장치(100)로 입력할 수 있다.The controller 140 may control the display 110 and the projector 120 to convert at least one of the material, color, size, shape, position, and direction of the spatial image according to the sound sensed by the sensing unit 130. Can be. The controller 140 may control the spatial image to be realized according to the sound sensed by the sensing unit 130. Accordingly, the user may input a command for converting the spatial image through the voice to the spatial image providing apparatus 100.

피드백 제공부(150)는 센싱부(130)가 감지한 외부 객체의 위치에 따라 피드백을 제공한다. 상기 피드백은 촉감, 온도 및 냄새 중 적어도 하나를 포함한다. 사용자가 공간 영상을 터치한 경우에는, 피드백 제공부(150)는 촉감을 제공하여, 사용자에게 터치감을 줄 수 있다.The feedback provider 150 provides feedback based on the position of the external object sensed by the sensing unit 130. The feedback includes at least one of touch, temperature and odor. When the user touches the spatial image, the feedback provider 150 may provide a touch to give the user a touch.

피드백 제공부(150)는 센싱부(130)가 감지한 외부 객체의 움직임에 응답하여 피드백을 제공한다. 상기 피드백은 촉감, 온도 및 냄새 중 적어도 하나를 포함한다. 사용자가 공간 영상을 터치하는 동작을 수행하는 경우에는, 피드백 제공부(150)는 공간 영상과 사용자의 손가락과의 위치 변화에 따라 촉감을 다르게 제공하여, 사용자에게 터치감 및 부피감을 줄 수 있다.The feedback provider 150 provides feedback in response to the movement of the external object sensed by the sensing unit 130. The feedback includes at least one of touch, temperature and odor. When the user performs an operation of touching the spatial image, the feedback provider 150 may provide a different touch to the user according to a change in position of the spatial image and the user's finger, thereby giving the user a sense of touch and volume.

저장부(160)는 공간 영상 제공 장치(100)에 의해 사용되는 프로그램 코드 및 데이터를 저장하는 장소를 제공한다. 여기서 프로그램 코드는 통신부(170)가 수신한 애플리케이션 프로그램 코드 및 공간 영상 제공 장치(100)의 제조시 저장된 애플리케이션 프로그램 코드일 수 있다. 또한 애플리케이션은 HTML, XML, HTML5, CSS, CSS3, 자바스크립트, 자바, C언어, C++, Visual C++ 및 C# 등의 프로그래밍 언어로 작성될 수 있다. 또한 저장부(160)는 영상 데이터를 포함한다. 영상 데이터는 3차원 영상을 디스플레이하기 위한 데이터 및 매뉴얼 영상을 디스플레이하기 위한 데이터를 포함할 수 있다.The storage unit 160 provides a place for storing program codes and data used by the spatial image providing apparatus 100. Here, the program code may be an application program code received by the communication unit 170 and an application program code stored when the spatial image providing apparatus 100 is manufactured. Applications can also be written in programming languages such as HTML, XML, HTML5, CSS, CSS3, JavaScript, Java, C, C ++, Visual C ++, and C #. In addition, the storage unit 160 includes image data. The image data may include data for displaying a 3D image and data for displaying a manual image.

저장부(160)는 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 하드 디스크 드라이브 등으로 구현될 수 있다. 프로그램 코드 및 데이터는 분리형 저장 매체에 존재할 수 있고, 필요할 때, 공간 영상 제공 장치(100) 상으로 로드 또는 설치될 수 있다. 여기서 분리형 저장 매체는 CD-ROM, PC-CARD, 메모리 카드, 플로피 디스크, 자기 테이프, 및 네트워크 컴포넌트를 포함할 수 있다.The storage unit 160 may be implemented as a read only memory (ROM), a random access memory (RAM), a hard disk drive, or the like. The program code and data may reside in a removable storage medium, and may be loaded or installed on the spatial image providing apparatus 100 when necessary. Removable storage media may include CD-ROM, PC-CARD, memory cards, floppy disks, magnetic tape, and network components.

통신부(170)는 유선 또는 무선으로 외부 장치로부터 방송 데이터, 영상 데이터, 음성 데이터, 정보 데이터 및 애플리케이션 데이터를 수신할 수 있다. 영상 데이터는 2차원 영상을 디스플레이하기 위한 영상 데이터 및 3차원 영상을 디스플레이하기 위한 영상 데이터일 수 있다. 상기 외부 장치는 컴퓨터, 노트북, 이동 단말기 및 기록 매체 재생 장치 등의 멀티미디어기기일 수 있고, 방송국 및 서비스 프로바이더 등의 인터넷 상에 위치하는 서버일 수 있다.The communicator 170 may receive broadcast data, image data, audio data, information data, and application data from an external device by wire or wirelessly. The image data may be image data for displaying a 2D image and image data for displaying a 3D image. The external device may be a multimedia device such as a computer, a notebook, a mobile terminal, a recording medium reproducing apparatus, or a server located on the Internet such as a broadcasting station and a service provider.

통신부(170)는 튜너부, 복조부, 이동 통신부, 네트워크 인터페이스부 및 외부 신호 수신부를 포함할 수 있다. 튜너부는 방송망을 통해 데이터를 포함하는 스트림 신호를 수신할 수 있고, 복조부는 상기 수신된 스트림 신호를 복조한다. 이동 통신부는 2G 통신망, 3G 통신망, 4G 통신망 등의 이동 통신망을 통해 데이터를 수신할 수 있다. 또한 네트워크 인터페이스는 네트워크를 통해 데이터를 송수신할 수 있으며, 외부 신호 수신부는 주변 장치로부터 애플리케이션 및 컨텐츠를 수신할 수 있다.The communicator 170 may include a tuner unit, a demodulator, a mobile communication unit, a network interface unit, and an external signal receiver. The tuner may receive a stream signal including data through a broadcasting network, and the demodulator demodulates the received stream signal. The mobile communication unit may receive data through a mobile communication network such as a 2G communication network, a 3G communication network, and a 4G communication network. In addition, the network interface may transmit and receive data through a network, and the external signal receiver may receive an application and content from a peripheral device.

도 2는 본 발명에 따른 공간 영상 제공 장치에 대한 바람직한 일실시예의 구조를 도시한 구조도이다.2 is a structural diagram showing a structure of a preferred embodiment of a spatial image providing apparatus according to the present invention.

도 2를 참조하면, 디스플레이부(110)는 외부 장치(201, 205)로부터 수신된 영상 데이터를 기초로 3차원 영상(210)을 투영부(120)의 하단에 디스플레이한다. 3차원 영상(210)은 시야각 제한 없이 360도 어느 방향에서든 관측 가능한 영상이다. Referring to FIG. 2, the display 110 displays a 3D image 210 at the bottom of the projection unit 120 based on image data received from the external devices 201 and 205. The three-dimensional image 210 is an image that can be observed in any direction through 360 degrees without viewing angle limitation.

투영부(120)는 디스플레이부(110)의 상측에 위치할 수 있다. 투영부(130)는 3차원 영상(210)을 자신의 상부 공간에 투영하여 3차원 영상의 상인 공간 영상(220)을 생성한다. 디스플레이부(110)와 투영부(120) 사이의 거리에 따라 공간 영상(220)의 위치하는 지점의 높이가 변경될 수 있다. 또한 투영부(120)는 배율을 조절하여 공간 영상(220)의 크기를 조절할 수 있다.The projector 120 may be located above the display 110. The projection unit 130 projects the 3D image 210 to its upper space to generate a spatial image 220 which is an image of the 3D image. The height of the location of the spatial image 220 may be changed according to the distance between the display 110 and the projector 120. In addition, the projection unit 120 may adjust the size of the spatial image 220 by adjusting the magnification.

디스플레이부(110)는 영상 데이터를 변경하거나 변환하여 3차원 영상(210)의 크기, 모양, 색상, 재질 및 위치를 변경할 수 있다. 3차원 영상(210)의 변환에 따라 공간 영상(220)의 크기, 모양, 색상, 재질 및 위치가 변경될 수 있다.The display 110 may change or convert image data to change the size, shape, color, material, and position of the 3D image 210. According to the transformation of the 3D image 210, the size, shape, color, material, and position of the spatial image 220 may be changed.

도 3은 디스플레이부의 실시예들을 도시한 도면이다.3 is a diagram illustrating embodiments of a display unit.

도 3을 참조하면, 디스플레이부(110)는 투과형 스크린 방식 디스플레이(310), 회전스크린 방식 디스플레이(330), 산란 스캔 방식 디스플레이(350) 및 홀로그래픽 디스플레이(미도시) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 3, the display unit 110 may include at least one of a transmissive screen display 310, a rotation screen display 330, a scattering scan display 350, and a holographic display (not shown). have.

투과형 스크린 방식 디스플레이(310)는 각 단층(311 내지 319)별 깊이 영상 정보를 적층하여 리얼 3차원 영상(320)을 구현한다.The transmissive screen type display 310 stacks depth image information for each tomography layer 311 to 319 to implement a real 3D image 320.

회전스크린 방식 디스플레이(330)는 스크린(331)을 회전하여 각도별 영상 정보를 구현하여 리얼 3차원 영상(340)을 구현한다.The rotating screen display 330 implements a real 3D image 340 by rotating the screen 331 to implement image information for each angle.

산란 스캔 방식 디스플레이(350)는 가스가 들어가 있는 챔버(351)의 안에서 광학적으로 초점시켜 산란 스캔하여 리얼 3차원 영상(360)을 구현한다.The scattering scan type display 350 optically focuses the scattering scan in the chamber 351 containing the gas to implement the real 3D image 360.

홀로그래픽 디스플레이는 홀로그램을 생성하여 리얼 3차원 영상을 구현한다.Holographic displays generate holograms to produce real three-dimensional images.

도 4는 투영부의 실시예들을 도시한 도면이다.4 is a diagram illustrating embodiments of a projection unit.

도 4를 참조하면, 투영부(120)는 미러홀 패턴 소자(410), 렌즈 패턴 소자(430) 및 회절 광학 소자(450) 중 적어도 하나를 포함할 수 있다. 투영부(120)는 도 2에 도시된 3차원 영상(210)을 미러홀 패턴 소자(410)를 통해 투영하여 공간 영상(420)을 생성할 수 있다. 투영부(120)는 도 2에 도시된 3차원 영상(210)을 렌즈 패턴 소자(430)를 통해 투영하여 공간 영상(440)을 생성할 수 있다. 투영부(120)는 도 2에 도시된 3차원 영상(210)을 회절 광학 소자(450)를 통해 투영하여 공간 영상(460)을 생성할 수 있다.Referring to FIG. 4, the projection unit 120 may include at least one of the mirror hole pattern element 410, the lens pattern element 430, and the diffractive optical element 450. The projector 120 may generate the spatial image 420 by projecting the 3D image 210 illustrated in FIG. 2 through the mirror hole pattern element 410. The projector 120 may generate the spatial image 440 by projecting the 3D image 210 illustrated in FIG. 2 through the lens pattern element 430. The projection unit 120 may generate the spatial image 460 by projecting the 3D image 210 illustrated in FIG. 2 through the diffractive optical element 450.

도 5는 공간 영상을 터치하는 사용자 조치에 대한 응답으로 공간 영상의 변화의 일예를 도시한 도면이다.5 is a diagram illustrating an example of a change of a spatial image in response to a user action of touching the spatial image.

도 5를 참조하면, 제어부(140)는 공간 영상(510)의 표면의 위치를 인지하고 있으며, 외부 객체(501)가 공간 영상(510)의 표면에 위치하는지 여부를 확인한다. 외부 객체(501)가 공간 영상(510)의 표면에 위치하는 경우에는, 외부 객체(501)가 위치하는 표면에 따라 제어부(140)는 사전에 설정된 동작이 진행 되도록 제어한다. 예를 들어, 가방(510)의 버튼 위치에 외부 객체(501)가 도달했을 때에, 제어부(140)는 가방이 열리는 동영상이 재생되도록 제어한다.Referring to FIG. 5, the controller 140 recognizes the position of the surface of the spatial image 510 and checks whether the external object 501 is located on the surface of the spatial image 510. When the external object 501 is located on the surface of the spatial image 510, the controller 140 controls the preset operation to proceed according to the surface on which the external object 501 is located. For example, when the external object 501 arrives at the button position of the bag 510, the controller 140 controls to play a video in which the bag is opened.

도 6은 사용자의 손의 움직임에 따라 공간 영상의 움직임의 일예를 도시한 도면이다.6 is a diagram illustrating an example of a motion of a spatial image according to a user's hand movement.

도 6을 참조하면, 제어부(140)는 공간 영상(610)의 표면의 위치를 인지하고 있으며, 외부 객체(601)가 공간 영상(610)의 표면을 따라 움직이는지 여부를 확인한다. 외부 객체(601)가 공간 영상(510)의 표면을 따라 움직이는 경우에는, 외부 객체(601)가 위치하는 표면에 따라 제어부(140)는 사전에 설정된 동작이 진행 되도록 제어한다. 예를 들어, 외부 객체(601)가 가방 표면(610)을 따라 좌, 우, 상, 하로 움직이는 경우에는, 제어부(140)는 가방의 종류가 바뀌거나 색상이 바뀌는 공간 영상이 제공되도록 제어할 수 있다.Referring to FIG. 6, the controller 140 recognizes the position of the surface of the spatial image 610 and checks whether the external object 601 moves along the surface of the spatial image 610. When the external object 601 moves along the surface of the spatial image 510, the controller 140 controls the preset operation to proceed according to the surface on which the external object 601 is located. For example, when the external object 601 moves left, right, up, and down along the bag surface 610, the controller 140 may control to provide a spatial image in which a bag type is changed or a color is changed. have.

센싱부(130)는 공간 영상(610)으로부터 일정 거리 떨어진 지점(601)에 위치하는 외부 객체(601)의 움직임을 감지한다. 제어부(140)는 감지된 외부 객체(601)의 움직임에 따라 매뉴얼 영상이 디스플레이되도록 제어할 수 있고, 공간 영상(610)이 이동되도록 제어하거나 회전되도록 제어할 수 있다. 이에 따라, 사용자는 손가락을 움직여 매뉴얼 영상을 디스플레이시킬 수 있고, 공간 영상(610)을 이동 또는 회전시킬 수 있다.The sensing unit 130 detects a movement of the external object 601 located at a point 601 away from the spatial image 610. The controller 140 may control the manual image to be displayed according to the detected movement of the external object 601, and may control the spatial image 610 to be moved or rotated. Accordingly, the user may display a manual image by moving a finger and move or rotate the spatial image 610.

도 7은 본 발명에 따른 공간 영상 제공 장치의 테이블의 상면의 일실시예를 도시한 도면이다.7 is a diagram illustrating an embodiment of an upper surface of a table of the spatial image providing apparatus according to the present invention.

도 7을 참조하면, 공간 영상 제공 장치(100)는 사용자가 공간 영상(710)을 터치하면, 사용자에게 촉감을 제공한다. 예를 들어, 사용자(701)가 공간 영상(710)의 버튼을 누르는 경우에, 공간 영상 제공 장치(100)는 에어 등의 유류 압력을 통해서 사용자의 손가락(701)이 압력을 느끼게 한다.Referring to FIG. 7, when the user touches the spatial image 710, the apparatus 100 for providing a spatial image provides a touch to the user. For example, when the user 701 presses a button of the spatial image 710, the spatial image providing apparatus 100 makes the user's finger 701 feel the pressure through an oil pressure such as air.

센싱부(130) 및 피드백 제공부(150)는 공간 영상 제공 장치(100)의 상면(705)에 설치될 수 있다. 센싱부(130)는 복수의 카메라(또는 센서)(720)를 포함할 수 있다.The sensing unit 130 and the feedback providing unit 150 may be installed on the upper surface 705 of the spatial image providing apparatus 100. The sensing unit 130 may include a plurality of cameras (or sensors) 720.

피드백 제공부(150)는 복수의 공기 압력기(Air pressure)(730) 및 방향제(740)를 포함할 수 있다. 공기 압력기(730)는 공기 압력을 통하여 사용자에게 터치감을 제공한다. 방향제(740)는 사용자에게 냄새를 제공한다. 방향제(740)는 탈착식으로 내장될 수 있고, 공간 영상 제공 장치(100)는 다양한 방향제의 조합하여 다양한 냄새를 낼 수 있다.The feedback provider 150 may include a plurality of air pressures 730 and a fragrance 740. The air pressure 730 provides a touch feeling to the user through the air pressure. Fragrance 740 provides odor to the user. The fragrance 740 may be detachably embedded, and the spatial image providing apparatus 100 may emit various odors by combining various fragrances.

도 8은 본 발명에 따른 공간 영상 제공 방법에 대한 바람직한 일실시예의 수행과정을 도시한 순서도이다.8 is a flowchart illustrating a process of performing a preferred embodiment of the method for providing a spatial image according to the present invention.

도 8을 참조하면, 디스플레이부(110)는 영상 데이터를 기초로 3차원 영상을 재생한다(S100). 상기 재생된 3차원 영상은 시야각 제한 없이 360도 어느 방향에서든 관측 가능한 것일 수 있다. 상기 재생된 3차원 영상은 도 2에 도시된 3차원 영상(210), 도 3에 도시된 3차원 영상(320, 340, 360) 중 적어도 하나일 수 있다.Referring to FIG. 8, the display 110 reproduces a 3D image based on the image data (S100). The reproduced 3D image may be observable in any direction of 360 degrees without limiting the viewing angle. The reproduced 3D image may be at least one of the 3D image 210 illustrated in FIG. 2 and the 3D images 320, 340, and 360 illustrated in FIG. 3.

투영부(120)는 디스플레이부(110)가 재생한 3차원 영상을 특정 공간에 투영하여 상기 3차원 영상의 상인 공간 영상을 생성한다(S110). 상기 생성된 공간 영상은 도 2에 도시된 공간 영상(220), 도 4에 도시된 공간 영상(420, 440, 460) 중 적어도 하나일 수 있다.The projector 120 generates a spatial image that is an image of the 3D image by projecting the 3D image reproduced by the display 110 to a specific space (S110). The generated spatial image may be at least one of the spatial image 220 illustrated in FIG. 2 and the spatial images 420, 440, and 460 illustrated in FIG. 4.

센싱부(130)는 공간 영상 제공 장치(100)의 주변에 위치하는 외부 객체의 위치 또는 움직임을 감지한다(S120).The sensing unit 130 detects the position or movement of an external object located around the spatial image providing apparatus 100 (S120).

피드백 제공부(150)는 센싱부(130)가 감지한 외부 객체의 위치 및 움직임에 응답하여 피드백을 제공한다(S130). 상기 피드백은 촉감, 온도 및 냄새 중 적어도 하나를 포함할 수 있다. 제어부(140)는 감지한 외부 객체의 위치 및 움직임에 따라 제공할 피드백을 선택하고 선택한 피드백이 제공되도록 피드백 제공부(150)를 제어할 수 있다. The feedback provider 150 provides feedback in response to the position and movement of the external object sensed by the sensing unit 130 (S130). The feedback may include at least one of touch, temperature and odor. The controller 140 may select the feedback to be provided according to the detected position and movement of the external object and control the feedback provider 150 to provide the selected feedback.

제어부(140)는 센싱부(130)가 감지한 외부 객체의 위치에 따라 또는 상기 감지된 외부 객체의 움직임에 응답하여 상기 공간 영상이 변환되도록 제어한다(S140). 제어부(140)는 상기 위치에 따라 공간 영상의 재질, 색상, 크기, 모양, 위치 및 방향 중 적어도 하나가 변환되도록 디스플레이부(110) 및 투영부(120)를 제어할 수 있다. 제어부(140)는 상기 움직임에 따라 공간 영상의 재질, 색상, 크기, 모양, 위치 및 방향 중 적어도 하나가 변환되도록 디스플레이부(110) 및 투영부(120)를 제어할 수 있다.The controller 140 controls the spatial image to be converted according to the position of the external object sensed by the sensing unit 130 or in response to the movement of the detected external object (S140). The controller 140 may control the display 110 and the projector 120 to convert at least one of a material, a color, a size, a shape, a position, and a direction of the spatial image according to the position. The controller 140 may control the display 110 and the projector 120 to convert at least one of the material, color, size, shape, position, and direction of the spatial image according to the movement.

도 9는 본 발명에 따른 공간 영상 제공 장치에 대한 바람직한 다른 실시예의 구조를 도시한 구조도이다.9 is a structural diagram showing another preferred embodiment of the spatial image providing apparatus according to the present invention.

도 9를 참조하면, 디스플레이부(110)는 투사부(910), 3차원 영상 형성부(920) 및 영사 광학부(940)를 포함할 수 있다.Referring to FIG. 9, the display 110 may include a projection unit 910, a 3D image forming unit 920, and a projection optical unit 940.

투사부(910)는 영상 데이터를 기초로 3차원 영상을 생성하는 광빔을 투사한다. 상기 영상 데이터는 저장부(160)에 저장된 것일 수 있고, 통신부(170)가 수신한 것일 수 있다. 상기 영상 데이터는 복수의 입체영상 프레임을 포함하는 3차원 동영상(3차원 비디오)을 디스플레이하기 위한 영상 데이터일 수 있다.The projection unit 910 projects a light beam that generates a 3D image based on the image data. The image data may be stored in the storage 160, or may be received by the communication unit 170. The image data may be image data for displaying a 3D video (3D video) including a plurality of 3D image frames.

투사부(910)는 디스플레이 패널 또는 프로젝터일 수 있다. 또한 투사부(910)는 멀티 프로젝터일 수 있다. 이러한 경우에는, 3차원 영상 형성부(920)의 스크린은 곡률로 형성될 수 있다.The projection unit 910 may be a display panel or a projector. In addition, the projection unit 910 may be a multi-projector. In this case, the screen of the 3D image forming unit 920 may be formed with curvature.

3차원 영상 형성부(920)는 투사부(910)가 투사한 광빔을 결상하여 3차원 영상(930)을 형성한다. 상기 형성된 3차원 영상(930)은 시야각 제한 없이 360도 어느 방향에서든 관측 가능한 것일 수 있다. 또한, 상기 형성된 3차원 영상(930)은 리얼 3차원 영상일 수 있다.The 3D image forming unit 920 forms a 3D image 930 by imaging the light beam projected by the projection unit 910. The formed 3D image 930 may be observable in any direction of 360 degrees without viewing angle limitation. In addition, the formed 3D image 930 may be a real 3D image.

3차원 영상 형성부(920)는 투사부(910) 및 영사 광학부(940) 사이에 위치할 수 있다.The 3D image forming unit 920 may be located between the projection unit 910 and the projection optical unit 940.

영사 광학부(940)는 3차원 영상(930)을 투영부(120)로 투사한다. 3차원 영상(930)은 영사 광학부(940)를 통해 투영부(120)로 입사된다. 영사 광학부(940)는 3차원 영상 형성부(920)가 형성한 3차원 영상(930)을 투영부(120)로 가이드한다.The projection optical unit 940 projects the 3D image 930 onto the projection unit 120. The 3D image 930 is incident to the projection unit 120 through the projection optical unit 940. The projection optical unit 940 guides the 3D image 930 formed by the 3D image forming unit 920 to the projection unit 120.

영사 광학부(940)는 3차원 영상(930)의 크기를 확대 또는 축소할 수 있다. 이때, 제어부(140)의 제어에 따라, 영사 광학부(940)는 3차원 영상(930)의 크기를 조절할 수 있다.The projection optical unit 940 may enlarge or reduce the size of the 3D image 930. At this time, under the control of the controller 140, the projection optical unit 940 may adjust the size of the 3D image 930.

영사 광학부(940)는 3차원 영상 형성부(920) 및 투영부(120) 사이에 위치하고, 적어도 하나의 렌즈를 포함할 수 있다. The projection optical unit 940 may be positioned between the 3D image forming unit 920 and the projection unit 120 and may include at least one lens.

투영부(120)는 3차원 영상(930)을 재결상하여 공간 영상(960)을 생성한다. 투영부(120)는 영사 광학부(940)를 통해 입사된 3차원 영상(930)의 상인 공간 영상(960)을 생성한다. 공간 영상(960)은 투영부(120)의 정면(950)에 대향하는 방향에 위치하는 관찰자(901)와 대면하는 위치에 디스플레이될 수 있다. 이에 따라, 본 발명에 따른 공간 영상 제공 장치(100)는 공간 영상에 대한 관찰자(901)의 대면감을 높일 수 있다. 공간 영상이 사람 영상인 경우에는, 본 발명에 따른 공간 영상 제공 장치(100)는 실제 사람과 같은 크기의 사람 영상을 관찰자(901)와 대면하는 위치에 제공할 수 있어, 관찰자(901)는 사람과 대면하는 대면감을 느낄 수 있다.The projection unit 120 reimages the 3D image 930 to generate a spatial image 960. The projection unit 120 generates a spatial image 960 that is an image of the 3D image 930 incident through the projection optical unit 940. The spatial image 960 may be displayed at a position facing the observer 901 positioned in a direction opposite to the front surface 950 of the projection unit 120. Accordingly, the apparatus 100 for providing a spatial image according to the present invention may increase the face of the observer 901 with respect to the spatial image. If the spatial image is a human image, the spatial image providing apparatus 100 according to the present invention may provide a human image having the same size as a real person at a position facing the observer 901, so that the observer 901 is a human. You can feel the face to face.

일부 실시예로, 투영부(120)는 영사 광학부(940)로부터 입사된 광빔을 반사하여 상을 결상시킬 수 있다. 즉 투영부(120)는 영사 광학부(940)로부터 입사된 3차원 영상(930)을 반사시켜 공간 영상(960)을 생성할 수 있다.In some embodiments, the projection unit 120 may form an image by reflecting a light beam incident from the projection optical unit 940. That is, the projection unit 120 may generate the spatial image 960 by reflecting the 3D image 930 incident from the projection optical unit 940.

투영부(120)는 지면과 수직한 방향으로 설치될 수 있다. 또한, 투영부(120)는 투사부(910), 3차원 영상 형성부(920) 및 영사 광학부(940)의 상측에 위치할 수 있다.The projection unit 120 may be installed in a direction perpendicular to the ground. In addition, the projection unit 120 may be positioned above the projection unit 910, the 3D image forming unit 920, and the projection optical unit 940.

3차원 영상 형성부(920) 및 투영부(120)는 서로 소정의 각도로 기울어지게 위치할 수 있다. 상기 소정의 각도는 0도보다 크고 180도보다 작은 값일 수 있다.The 3D image forming unit 920 and the projection unit 120 may be inclined with respect to each other at a predetermined angle. The predetermined angle may be a value greater than 0 degrees and less than 180 degrees.

투사부(910) 및 투영부(120)는 서로 소정의 각도로 기울어지게 위치할 수 있다. 상기 소정의 각도는 0도보다 크고 189도보다 작은 값일 수 있다.The projection unit 910 and the projection unit 120 may be positioned to be inclined with each other at a predetermined angle. The predetermined angle may be a value greater than 0 degrees and less than 189 degrees.

투사부(910)는 영상 데이터를 변경하거나 변환하여 3차원 영상(930)의 크기, 모양, 색상, 재질 및 위치를 변경할 수 있다. 3차원 영상(930)의 변환에 따라 공간 영상(960)의 크기, 모양, 색상, 재질 및 위치가 변경될 수 있다.The projection unit 910 may change or transform the image data to change the size, shape, color, material, and position of the 3D image 930. According to the transformation of the 3D image 930, the size, shape, color, material, and position of the spatial image 960 may be changed.

일부 실시예로, 투영부(120)의 정면(950)은 도 7에 도시된 상면(705)과 대응할 수 있다. 센싱부(130) 및 피드백 제공부(150)가 투영부(120)의 정면(950)에 설치될 수 있다.In some embodiments, the front surface 950 of the projection 120 may correspond to the upper surface 705 shown in FIG. 7. The sensing unit 130 and the feedback providing unit 150 may be installed on the front surface 950 of the projection unit 120.

본 발명에 따른 공간 영상 제공 장치 및 그 동작 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The spatial image providing apparatus and its operation method according to the present invention are not limited to the configuration and method of the embodiments described as described above, but the embodiments are all or all of the embodiments so that various modifications can be made. Some may be optionally combined.

한편, 본 발명의 공간 영상 제공 장치의 동작방법은 공간 영상 제공 장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.On the other hand, the operating method of the spatial image providing apparatus of the present invention can be implemented as code that can be read by the processor in a processor-readable recording medium provided in the spatial image providing apparatus. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the recording medium that can be read by the processor include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet . In addition, the processor-readable recording medium may be distributed over network-connected computer systems so that code readable by the processor in a distributed fashion can be stored and executed.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the present invention.

Claims (14)

영상 데이터를 기초로 3차원 영상을 생성하는 광빔을 투사하는 투사부;
상기 투사된 광빔을 결상하여 3차원 영상을 형성하는 3차원 영상 형성부;
상기 형성된 3차원 영상을 재결상하여 공간 영상을 생성하는 투영부; 및
상기 3차원 영상 형성부 및 상기 투영부 사이에 위치하고, 상기 형성된 3차원 영상을 상기 투영부로 투사하는 영사 광학부를 포함하는 것을 특징으로 하는 공간 영상 제공 장치.
A projection unit projecting a light beam to generate a 3D image based on the image data;
A three-dimensional image forming unit configured to form the three-dimensional image by forming the projected light beams;
A projection unit for reimaging the formed 3D image to generate a spatial image; And
And a projection optical unit positioned between the three-dimensional image forming unit and the projection unit and projecting the formed three-dimensional image to the projection unit.
제 1항에 있어서,
상기 3차원 영상 형성부 및 상기 투영부는 서로 소정의 각도로 기울어지게 위치하는 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
And the three-dimensional image forming unit and the projection unit are inclined at a predetermined angle to each other.
제 1항에 있어서,
상기 공간 영상은 상기 투영부의 정면에 대향하는 방향에 위치하는 관찰자와 대면하는 위치에 디스플레이되는 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
And the spatial image is displayed at a position facing an observer positioned in a direction opposite to the front of the projection unit.
제 1항에 있어서,
상기 형성된 3차원 영상은 시야각 제한 없이 360도 어느 방향에서든 관측 가능한 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
The formed 3D image may be observed in any direction 360 degrees without limiting the viewing angle.
제 1항에 있어서,
상기 투사부는 디스플레이 패널 또는 프로젝터인 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
And the projection unit is a display panel or a projector.
제 1항에 있어서,
상기 투사부는 멀티 프로젝터인 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
The projection unit is a spatial image providing apparatus, characterized in that the multi-projector.
제 1항 또는 제 6항에 있어서,
상기 3차원 영상 형성부의 스크린이 곡률로 형성되는 것을 특징으로 하는 공간 영상 제공 장치.
7. The method according to claim 1 or 6,
And the screen of the 3D image forming unit is formed to have a curvature.
제 1항에 있어서,
상기 영사 광학부는,
적어도 하나의 렌즈를 포함하는 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
The projection optical unit,
Spatial image providing apparatus comprising at least one lens.
제 1항에 있어서,
상기 영사 광학부는,
상기 3차원 영상의 크기를 확대 또는 축소하는 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
The projection optical unit,
Spatial image providing device, characterized in that to enlarge or reduce the size of the three-dimensional image.
제 1항에 있어서,
상기 투영부는 미러홀 패턴 소자, 렌즈 패턴 소자 및 회절 광학 소자 중 적어도 하나를 포함하는 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
The projection unit includes at least one of a mirror hole pattern element, a lens pattern element and a diffractive optical element.
제 1항에 있어서,
상기 투영부는 상기 영사 광학부로부터 입사된 광빔을 반사하여 상을 결상시키는 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
And the projection unit reflects a light beam incident from the projection optical unit to form an image.
제 1항에 있어서,
상기 3차원 영상 형성부는 투과형 스크린 방식 디스플레이, 회전스크린 방식 디스플레이, 산란 스캔 방식 디스플레이 및 홀로그래픽 디스플레이 중 적어도 하나를 포함하는 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
The 3D image forming unit includes at least one of a transmissive screen display, a rotating screen display, a scattering scan display and a holographic display.
제 1항에 있어서,
상기 공간 영상 제공 장치의 주변에 위치하는 외부 객체의 위치 또는 움직임 감지하는 센싱부;
상기 감지된 외부 객체의 위치에 따라 또는 상기 감지된 외부 객체의 움직임에 응답하여 상기 공간 영상이 변환되도록 제어하는 제어부; 및
상기 감지된 외부 객체의 위치에 따라 또는 상기 감지된 외부 객체의 움직임에 응답하여 피드백을 제공하는 피드백 제공부를 더 포함하는 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
A sensing unit configured to detect a position or a movement of an external object located around the spatial image providing apparatus;
A controller for controlling the spatial image to be converted according to the detected position of the external object or in response to the movement of the detected external object; And
And a feedback providing unit configured to provide feedback based on the sensed position of the external object or in response to the movement of the detected external object.
제 1항에 있어서,
상기 영상 데이터를 수신하는 통신부 및 상기 영상 데이터를 저장하는 저장부 중 적어도 하나를 더 포함하는 것을 특징으로 하는 공간 영상 제공 장치.
The method of claim 1,
And at least one of a communication unit for receiving the image data and a storage unit for storing the image data.
KR1020120116222A 2012-10-18 2012-10-18 Device for providing a floating image KR20140049865A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120116222A KR20140049865A (en) 2012-10-18 2012-10-18 Device for providing a floating image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120116222A KR20140049865A (en) 2012-10-18 2012-10-18 Device for providing a floating image

Publications (1)

Publication Number Publication Date
KR20140049865A true KR20140049865A (en) 2014-04-28

Family

ID=50655286

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120116222A KR20140049865A (en) 2012-10-18 2012-10-18 Device for providing a floating image

Country Status (1)

Country Link
KR (1) KR20140049865A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015194773A1 (en) * 2014-06-20 2015-12-23 엘지전자(주) Display device and driving method therefor
KR20150145636A (en) * 2014-06-20 2015-12-30 엘지전자 주식회사 display device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1114937A (en) * 1997-06-23 1999-01-22 Victor Co Of Japan Ltd Color stereoscopic image display device
KR20020088016A (en) * 2001-05-16 2002-11-25 조서야 테크놀로지 주식회사 Apparatus for reproducing a 3-dimensional hologram image
JP2007101929A (en) * 2005-10-05 2007-04-19 Matsushita Electric Ind Co Ltd Projection type three-dimensional display device
JP2010217384A (en) * 2009-03-16 2010-09-30 Sony Corp Screen and image display device
KR20110028524A (en) * 2008-07-10 2011-03-18 리얼 뷰 이미징 리미티드 Broad viewing angle displays and user interfaces

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1114937A (en) * 1997-06-23 1999-01-22 Victor Co Of Japan Ltd Color stereoscopic image display device
KR20020088016A (en) * 2001-05-16 2002-11-25 조서야 테크놀로지 주식회사 Apparatus for reproducing a 3-dimensional hologram image
JP2007101929A (en) * 2005-10-05 2007-04-19 Matsushita Electric Ind Co Ltd Projection type three-dimensional display device
KR20110028524A (en) * 2008-07-10 2011-03-18 리얼 뷰 이미징 리미티드 Broad viewing angle displays and user interfaces
JP2010217384A (en) * 2009-03-16 2010-09-30 Sony Corp Screen and image display device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015194773A1 (en) * 2014-06-20 2015-12-23 엘지전자(주) Display device and driving method therefor
KR20150145636A (en) * 2014-06-20 2015-12-30 엘지전자 주식회사 display device
US20170139375A1 (en) * 2014-06-20 2017-05-18 Lg Electronics Inc. Display device and driving method thereof
US10474100B2 (en) 2014-06-20 2019-11-12 Lg Electronics Inc. Display device and driving method thereof

Similar Documents

Publication Publication Date Title
JP6737841B2 (en) System and method for navigating a three-dimensional media guidance application
US9143770B2 (en) Application programming interface supporting mixed two and three dimensional displays
US20160154563A1 (en) Extending 2d graphics in a 3d gui
US9854229B2 (en) Three-dimensional image processing apparatus and method for adjusting location of sweet spot for displaying multi-view image
RU2538335C2 (en) Combining 3d image data and graphical data
KR20130010424A (en) Contents play method and apparatus
US20120113104A1 (en) Table type interactive 3d system
CN103293934B (en) Holographic display and utilize 3D video redundancy generate hologram method
CN103293935A (en) Holographic display device and method for generating hologram
CN109478344A (en) Method and apparatus for composograph
US20190156690A1 (en) Virtual reality system for surgical training
KR20190026267A (en) Electronic apparatus, method for controlling thereof and computer program product thereof
CN114327700A (en) Virtual reality equipment and screenshot picture playing method
CN113677411A (en) Light field display system for cinema
US11539933B2 (en) 3D display system and 3D display method
KR101177058B1 (en) System for 3D based marker
JP2019512177A (en) Device and related method
KR20140049865A (en) Device for providing a floating image
Cha et al. 3D video player system with haptic interaction based on depth image-based representation
CN113170231A (en) Method and device for controlling playing of video content following user motion
KR101356528B1 (en) Device and method for providing a floating image
Fradet et al. [poster] mr TV mozaik: A new mixed reality interactive TV experience
CN111149356A (en) Method for projecting immersive audiovisual content
CN114327032B (en) Virtual reality device and VR picture display method
WO2024193568A1 (en) Interaction method and apparatus, and device, medium and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application