KR102422469B1 - 가상 현실 환경을 위한 가려진 얼굴 부분 재구성 방법 및 시스템 - Google Patents
가상 현실 환경을 위한 가려진 얼굴 부분 재구성 방법 및 시스템 Download PDFInfo
- Publication number
- KR102422469B1 KR102422469B1 KR1020177004479A KR20177004479A KR102422469B1 KR 102422469 B1 KR102422469 B1 KR 102422469B1 KR 1020177004479 A KR1020177004479 A KR 1020177004479A KR 20177004479 A KR20177004479 A KR 20177004479A KR 102422469 B1 KR102422469 B1 KR 102422469B1
- Authority
- KR
- South Korea
- Prior art keywords
- face
- image
- data
- obscured
- person
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000001815 facial effect Effects 0.000 claims description 22
- 238000012544 monitoring process Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 5
- 230000014509 gene expression Effects 0.000 claims description 4
- 230000036541 health Effects 0.000 claims description 4
- 208000032443 Masked facies Diseases 0.000 claims 3
- 238000010586 diagram Methods 0.000 description 16
- 210000003128 head Anatomy 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000005094 computer simulation Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000010146 3D printing Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16B—BIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
- G16B45/00—ICT specially adapted for bioinformatics-related data visualisation, e.g. displaying of maps or networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/416—Exact reconstruction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Architecture (AREA)
- Optics & Photonics (AREA)
- Geometry (AREA)
- Evolutionary Biology (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Biophysics (AREA)
- Biotechnology (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
가려진 얼굴 부분 재구성 방법 및 시스템이 본 명세서에 제공된다. 방법은 다음 단계를 포함할 수 있다: 오프라인 3D 데이터를 획득하는 단계, 3D 데이터는 얼굴을 가리는 물체를 착용하지 않은 사람의 머리의 3D 데이터이고, 물체는 사람의 얼굴의 부분을 가리는 물체임; 실시간으로 실시간 3D 데이터를 획득하는 단계, 3D 데이터는 상기 머리의 3D 데이터이고, 상기 사람은 상기 얼굴을 가리는 물체를 착용함; 실시간 3D 데이터에 기반하여, 재구성된 실시간 3D 데이터를 산출하기 위하여 3D 변환을 오프라인 3D 데이터의 적어도 일부에 적용하는 단계, 재구성된 실시간 3D 데이터는 가려진 얼굴 부분에 관한 실시간 3D 데이터임; 및 재구성된 실시간 3D 데이터를 실시간 3D 데이터로 병합하는 단계를 포함할 수 있다. 시스템은 전술한 단계를 컴퓨터 프로세서를 통해 구현할 수 있다.
Description
본 발명은 일반적으로 가상 현실 환경에 관한 것이고, 특히, 가상 현실 환경 참여자의 실제 이미지를 통합하는 환경에 관한 것이다.
본 발명의 배경이 제시되기에 앞서, 이하에서 사용될 특정 용어의 정의를 규정하는 것이 도움이 될 것이다.
본 명세서에서 사용되는 용어 '가상 현실'(VR)은 실제 세계 또는 상상의 세계에 대한 물리적 존재를 시뮬레이션할 수 있는 컴퓨터 시뮬레이션 환경으로 정의된다. 가상 현실은 가상의 맛, 시야, 냄새, 소리, 촉각 등을 포함하는 감각적 경험을 재생성할 수 있다.
본 명세서에서 사용되는 용어 '가상 현실 헤드셋'은 3D 컴퓨터 시뮬레이션된 환경이 사용자의 눈으로 입체적으로 투사되어, 각 눈이 컴퓨터 시뮬레이션 환경의 약간 다른 시점을 수신하는 헤드 마운트 디스플레이(HMD)로 정의된다. 업계에 알려진 이러한 가상 현실 헤드셋 중 하나는 Oculus Rift™이다. 가상 현실 헤드셋은 임의의 타입의 입체 바이저로 구현될 수 있고 헬멧 타입 구조 내에 수용될 수 있다.
본 명세서에서 사용되는 용어 '3D 모델'은 물체(무생물 또는 생물)의 임의의 3차원 표면의 수학적 표현의 개발 과정인 3D 모델링의 산물로 정의된다. 모델은 예컨대 3D 프린팅 장치를 사용하거나 심지어 수동으로 물리적으로 생성될 수도 있다. 3D 모델은 3D 공간 내의, 데이터(점 및 다른 정보)의 집합인 삼각형, 선, 곡면 등과 같은 다양한 기하학적 엔티티로 연결된 점의 집합을 사용하여 3D 객체를 표현할 수 있다.
본 명세서에서 사용되는 용어 '3D 데이터'는 3D 객체로부터 도출된 임의의 형태와 종류의 임의의 데이터 구조로 정의된다. 3D 데이터는 예컨대, 3D 모델, 3D 이미지를 포함할 수 있으나 덜 구조화된 데이터 타입도 포함할 수 있다.
오늘날 3D 가상 현실의 한 난점은 사용자(예컨대, 가상 현실 환경 참여자)의 실제 이미지 또는 데이터를 예컨대 다른 사용자 각각의 시점에 매끄러운 방식으로 통합하는 것이다. 현재 사용 가능한 일부 가상 현실 시스템이 근안 디스플레이(near eye display)가 통합되는 가상 현실 헤드셋의 형태 일부를 요구하기 때문에, 얼굴의 적어도 일부는 헤드셋으로 가려진다.
일부 3D 가상 현실 애플리케이션에서, 사용자의 이미지를 실시간으로 캡처하고 이미지를 다른 사용자 각각의 시점에 병합하는 것이 바람직하다. 이러한 애플리케이션에서, 가상 현실 헤드셋과 같은 헬멧이나 근안 디스플레이로 기능하는 얼굴을 가리는 물체는 데이터, 예컨대 사용자의 얼굴의 일부의 손실을 야기하고 사용자 경험을 완전히 악화시킬 수 있다.
도 1은 두 사람(사용자)(106 및 108)가 근안 디스플레이 유닛(102 및 104)을 각각 착용하여, 그 얼굴의 적어도 일부가 가려지게 되는 선행 기술에 따른 가상 현실 환경(100)을 도시한다. 그 각 시야(그들이 디스플레이를 통해 보는 것)(110 및 112)는 보통 사실상 3D이고 따라서 보고 있는 이미지 각각은 두 시점(단순화를 위해 도시하지 않음)을 포함한다. 각 근안 디스플레이를 통해 사용자에게 제시되는 시야(110 및 112)는 실제 물체(103 및 105)를 보여주지 않는 컴퓨터 시뮬레이션 환경을 포함한다. 컴퓨터 시뮬레이션 환경의 시야(110 및 112)는 사용자의 움직임에 응답하여 실시간으로 조정된다. 시야(110 및 112)는 시야(112 및 110) 중 얼굴 대부분을 가리는 근안 디스플레이(102A 및 104A)를 착용하고 있는 상대 참여자(106A 및 108A)의 이미지를 표시한다. 얼굴 가려짐은 바람직하지 않은 결과이고 사용자 경험 전체를 저해한다.
본 발명의 일부 실시예는 가상 현실 환경을 위한 가려진 얼굴 부분 재구성 방법 및 시스템을 제공함으로써 선행기술의 전술한 단점을 극복한다. 방법은 다음 단계를 포함할 수 있다: 오프라인 3D 데이터를 획득하는 단계, 오프라인 3D 데이터는 얼굴을 가리는 물체를 착용하지 않은 사람의 머리의 3D 데이터이고, 물체는 사람의 얼굴 부분을 가리는 물체임; 실시간으로 실시간 3D 데이터를 획득하는 단계, 실시간 3D 데이터는 상기 머리의 3D 데이터이고, 상기 사람은 상기 얼굴을 가리는 물체를 착용함; 실시간 3D 데이터에 기반하여, 재구성된 실시간 3D 데이터를 산출하기 위하여, 3D 변환을 오프라인 3D 데이터의 적어도 일부에 적용하는 단계, 재구성된 실시간 3D 데이터는 가려진 얼굴 부분에 관한 실시간 3D 데이터임; 및 재구성된 실시간 3D 데이터를 실시간 3D 데이터에 병합하는 단계. 시스템은 컴퓨터 프로세서를 통해 전술한 단계를 구현할 수 있다.
이들, 본 발명의 실시예의 추가적 및/또는 다른 측면 및/또는 이점은 다음의 상세한 설명에 기재되어 있고; 상세한 설명으로부터 추론가능하고; 및/또는 본 발명의 실시예의 실시에 의해 학습 가능하다.
본 발명의 내용 중에 포함되어 있다.
본 발명의 실시예의 보다 나은 이해를 위해 및 어떻게 수행되어 효과를 내는지 보이기 위하여, 참조가 예시의 방식으로 유사한 숫자가 대응하는 요소 또는 섹션에 지정되는 첨부되는 도면에 설명된다.
첨부되는 도면에서:
도 1은 선행기술에 따른 가상 현실 환경을 도시하는 개략적 블록도이다.
도 2는 본 발명의 실시예에 따른 가상 현실 환경을 도시하는 개략적 블록도이다.
도 3은 본 발명의 실시예에 따른 가상 현실 환경을 도시하는 개략도이다.
도 4는 본 발명의 실시예에 따른 시스템을 도시하는 개략도이다.
도 5는 본 발명에 따른 실시예에 따른 시스템을 도시하는 개략적 블록도이다.
도 6은 본 발명의 실시예에 따라 취해지는 일련의 행동을 도시하는 개략도이다.
도 7은 본 발명에 따른 실시예에 따른 시스템의 한 측면을 도시하는 개략적 블록도이다.
도 8은 본 발명의 일부 실시예에 따른 방법을 도시하는 흐름도이다.
첨부되는 도면에서:
도 1은 선행기술에 따른 가상 현실 환경을 도시하는 개략적 블록도이다.
도 2는 본 발명의 실시예에 따른 가상 현실 환경을 도시하는 개략적 블록도이다.
도 3은 본 발명의 실시예에 따른 가상 현실 환경을 도시하는 개략도이다.
도 4는 본 발명의 실시예에 따른 시스템을 도시하는 개략도이다.
도 5는 본 발명에 따른 실시예에 따른 시스템을 도시하는 개략적 블록도이다.
도 6은 본 발명의 실시예에 따라 취해지는 일련의 행동을 도시하는 개략도이다.
도 7은 본 발명에 따른 실시예에 따른 시스템의 한 측면을 도시하는 개략적 블록도이다.
도 8은 본 발명의 일부 실시예에 따른 방법을 도시하는 흐름도이다.
이제 도면을 상세히 구체적으로 참조하면, 도시된 세부 사항은 단지 예일 뿐이고 본 기술의 바람직한 실시예에 대한 예시적인 논의만을 목적으로 함이 강조되고, 본 기술의 이론과 개념적인 측면의 가장 유용하고 이해 가능한 설명일 것으로 생각되는 것을 제공하기 위해 제시된다. 이에 관해, 본 기술의 구조적 세부사항을 더 자세히 보이려는 시도는 본 기술의 기본적 이해를 위하여 필요하지 않고, 도면과 함께 기재된 설명은 본 발명의 여러 형태가 어떻게 실제로 구현될 수 있는지 당업자에게 명백하다.
본 기술의 적어도 하나의 실시예를 상세히 설명하기 전에, 본 발명은 본 출원의 다음 설명 또는 도면에 도시된 구성요소의 구조 및 배열의 세부사항으로 제한되지 않음이 이해될 것이다. 본 기술은 다른 실시예에 적용 가능하거나 다양한 방법으로 실시 또는 수행될 수 있다. 또한, 본 명세서에 사용된 어구 또는 용어는 설명을 위한 것이며 제한으로 간주되어서는 안 된다.
본 발명의 일부 실시예는 얼굴의 부분이 주로 Oculus Rift™ 헤드셋이나 Google Glass™과 같은 3D 가상 현실 헤드셋에 의해 가려질 때, 가상 현실 참여자의 얼굴 부분을 재구성하는 것의 난점을 다룬다. 3D 가상 현실 영역에서 작동하는 것은 다른 열람자-참여자에게 매끄러운 방식으로 가상 현실 참여자의 얼굴의 3D 이미지와 같은 실시간 3D 데이터를 재구성하기 위한 해결책이 특히 어려워진다.
도 2는 본 발명의 실시예에 따른 가상 현실 환경을 도시하는 개략적 블록도이다. 가상 현실 시스템의 장면(200)이 도시되는데, 두 사람(참여자)(206 및 208)가 근안 디스플레이 또는 VR 헤드셋(202 및 204)을 각각 착용하고 있어, 그 얼굴을 가리게 된다. 하지만, 도 1과는 달리, 근안 디스플레이(202 및 204)를 통해 표시되는 각 시야(210 및 212)는 근안 디스플레이를 착용하지 않은 상대 참여자를 보여준다(실제 물체(203 및 205) 또한 보여지지 않고 실제 세계의 배경은 컴퓨터 시뮬레이션 환경으로 대체된다. 자세히 후술되는 바와 같이 이것은 가려진 물체를 포함하는 이미지 부분을 참여자의 실제 움직임 및/또는 표현 및/또는 제스처에 기반하여 실시간으로 업데이트되는 보충적 또는 수정된 얼굴 이미지로 대체함으로써 가능해진다.
도 3은 본 발명의 일부 실시예에 따른 가상 현실 환경을 도시하는 개략적 블록도이다. 여기서, 제3 참여자(도시되지 않음)이 실제 물체(303 및 305)도 포함하는 현실 세계(300)에서 VR 헤드셋(304A 및 302A)을 착용한 두 다른 참여자(308A 및 306A)를 보고 있다. 제3 사용자에게 표시되는 가상 현실 시야(300B)에서, 두 다른 참여자(308B 및 306B)는 재구성된 얼굴 이미지로 매끈하게 대체됨에 따라 헬멧 없이 표시된다.
도 4는 본 발명에 따른 일부 실시예에 따른 한 측면을 도시하는 개략도이다. VR 헤드셋과 같은 사용자 헬멧(404)이 내측의 복수의 센서(402)(사용자의 얼굴에 부착가능)와 함께 도시된다. 센서는 눈과 같은 사용자의 제스처(예컨대, 눈의 눈동자 및 눈꺼풀 움직임)를 감지하도록 구성되고 컴퓨터 프로세서는 진행중인 제스처에 기반하여 얼굴의 기본 이미지를 수정하고 실시간(또는 작은 지연으로)으로 표시하도록 구성된다. 예시로서, 센서(402)는 사용자가 웃거나 미소 짓는 것을 나타내는 얼굴 피부의 움직임을 감지할 수 있다. 이에 응답하여, 그 또는 그녀의 얼굴의 기본 이미지는 다양한 부분을 늘이는 등의 웃음 또는 미소의 효과를 적용하는 이미지 처리 프로세스를 거칠 것이다. 이 프로세스는 실시간으로 업데이트된다. 따라서, 다른 시청자에게 얼굴의 가려진 부분 대신 사용자의 이미지에 매끈하게 삽입될 사용자의 수정된 미소 짓는 얼굴 이미지가 표시될 것이다.
도 5는 본 발명에 따른 실시예에 따른 시스템(500)을 도시하는 개략적 블록도이다. 시스템(500)은 적어도 하나의 얼굴을 가리는 물체를 착용한 사람을 포함하는 장면의 3D 데이터(예컨대, 이미지)(512)를 캡처하도록 구성된 3D 데이터 캡처 장치(510)를 포함할 수 있고, 캡처는 특정 사용자의 시점에서 취해진다. 시스템(500)은 결국 센서(532-534) 또는 네트워크화된 데이터베이스와 같은 다른 소스로부터 데이터를 수신하는 얼굴 캡처 모듈(530)로부터 예컨대, 얼굴을 가리는 물체에 의해 가려진 얼굴 부분을 표시하는 데이터(550)를 획득하도록 구성된 컴퓨터 프로세서(520)를 더 포함할 수 있다. 사용자 얼굴의 2D 이미지를 위한 가능한 소스는 사용자의 프로필 이미지를 저장할 수 있는 Facebook™이나 LinkedIn™과 같은 소셜 네트워크일 수 있다. 이들 2D 이미지는 사용자의 머리 또는 얼굴의 3D 이미지를 생성하는데 사용될 수 있다.
컴퓨터 프로세서(520)는 획득한 데이터에 기반하여 가려진 얼굴 부분의 3D 데이터(예컨대, 이미지)를 재구성하도록 더 구성될 수 있다. 컴퓨터 프로세서(520)는 재구성된 얼굴 이미지를 장면의 캡처된 이미지에서 각 위치로 병합하도록 더 구성될 수 있다. 시스템(500)은 특정 사용자에게 병합된 이미지를 표시하도록 구성된 근안 디스플레이(570)를 더 포함할 수 있는데, 병합된 이미지는 특정 사용자의 시점에 기반하여 조정 가능한 컴퓨터 시뮬레이션된 환경에 배치된다.
본 발명의 일부 실시예에 따르면, 얼굴을 가리는 물체는 상기 얼굴을 가리는 물체의 내측에 위치한 하나 이상의 센서를 포함하는데, 센서는 얼굴을 가리는 물체에 의해 가려진 얼굴 부분을 가리키는 데이터의 획득을 수행하도록 구성된다.
본 발명의 일부 실시예에 따르면, 센서에 의한 감지는 이미지 캡처의 형태일 수 있고 상기 획득한 데이터는 가려진 얼굴의 부분의 이미지이다.
본 발명의 일부 실시예에 따르면, 센서는 얼굴 제스처를 감지하도록 구성될 수 있고, 얼굴 이미지의 재구성은 감지된 제스처를 이전에 캡처된 가려진 얼굴 부분의 기본 이미지에 대한 얼굴의 변화로 모델링함으로써 수행될 수 있다.
본 발명의 일부 실시예에 따르면, 컴퓨터 프로세서(520)는 이전에 캡처된 가려진 얼굴 부분의 기본 이미지를 획득하는 것을 포함하는, 얼굴을 가리는 물체에 의해 가려진 얼굴 부분을 가리키는 데이터를 획득하도록 구성될 수 있다.
본 발명의 일부 실시예에 따르면, 프로세서에 의한 가려진 얼굴 부분의 기본 이미지의 획득은 네트워크화된 데이터베이스의 검색을 통해 수행된다.
본 발명의 일부 실시예에 따르면, 가려진 얼굴 부분의 얼굴 이미지의 재구성은 프로세서에 의해 얼굴을 가리는 물체를 착용한 적어도 한 명의 사람의 위치, 방향, 프로필 및 건강 신호(예컨대, 심박수, 호흡계 표시기 등)를 모니터링하는 것, 및 수정된 얼굴 이미지를 산출하기 위하여, 획득한 데이터를 적어도 한 명의 사람의 얼굴의 3차원 모델에 적용하는 것에 의하여, 획득한 데이터에 기반하여 수행될 수 있다.
본 발명의 일부 실시예에 따르면, 얼굴을 가리는 물체는 근안 디스플레이를 포함한다.
본 발명의 일부 실시예에 따르면, 근안 디스플레이는 헬멧 내에 통합된다.
본 발명의 일부 실시예에 따르면, 컴퓨터 시뮬레이션된 환경은 특정 사용자와 얼굴을 가리는 물체를 착용한 적어도 한 명의 사람에게 공통인 3차원 장면일 수 있다.
도 6은 본 발명의 실시예에 따라 취해지는 일련의 행동을 도시하는 개략도(600)이다. 첫 단계에서, 사람(610)의 머리의 오프라인 3D 데이터(예컨대, 3D 모델의 형태)가 획득되는데, 사람의 복수의 2D 이미지(612, 614 및 616)에 기반할 수 있으나 배타적이지는 않다. 사람의 2D 이미지(612, 614 및 616)는 헬멧을 착용하기 전 오프라인 세션에서 캡처되거나 네트워크화된 데이터베이스와 같은 제3자 소스에서 획득될 수 있다.
대안적으로, 오프라인 3D 데이터는 가상 현실 헤드기어를 착용하기 전 구조형 광 기술을 사용하여 획득될 수 있다. 구체적으로, 본 명세서에 전체로 참조로서 통합된 WIPO PCT 출원 공보 WO2013088442에 개시된 것과 같은 구조형 광을 사용함으로써, 사용자의 머리 또는 얼굴의 뎁스 맵이 생성되어 오프라인 3D 데이터가 검색될 수 있다.
이어서, 두 번째 단계에서, 사용자(620)의 실시간 3D 데이터(예컨대, 모델)이 획득되는데, 사람이 얼굴을 가리는 물체(622)(예컨대, 가상 현실 헤드셋)를 착용하고 있는 동안 실시간 이미지가 지속적으로 업데이트된다. 세 번째 단계에서 3D 변환이 오프라인 3D 데이터(610) 또는 그 부분(618)(3D 모델(632)에서 분할될 수 있는 가려진 부분(634)의 경계에 대응)에 재구성 모듈(640)에서 적용될 수 있다. 3D 변환은 실시간 3D 데이터(모델)(620), 보다 구체적으로, 가려진 부분(634)의 외관으로부터 추측될 수 있는 실시간 파라미터(644)에 기반할 수 있다.
실시간 파라미터(644)는 예컨대, 사용자의 얼굴의 위치와 방향 또는 표현뿐만 아니라 사람이 얼마나 피곤한지 및 어떤 타입의 감정이 실시간으로 표현되는지를 포함할 수 있다. 이들 실시간 파라미터(644)는 가상 현실 헤드셋에 의해 가려진 얼굴 부분을 추측하고 재구성하기 위해 모두 사용된다.
재구성 모듈(또는 단계)의 산물은 가려지지 않은 부분(652)에 의해 영향 받는 영역의 서브 부분, 보통 바깥 뺨에 생기는 제스처의 변화에 의해 영향 받는 안쪽 뺨을 포함하는 재구성된 실시간 데이터(또는 모델)(650)이다. 이 영역의 외관은 가려지지 않은 부분에 관한 실시간 파라미터(644)에 기반하여 추측될 수 있다. 다른 영역은 가려지지 않은 부분에 의해 영향 받지 않는 영역(654)(예컨대, 눈)이다. 눈의 외관은 다른 모델에 기반하여, 및 사람이 보고 있는 방향과 같은 사람이 다른 사람(위치 또한 알려진)과 상호작용하는 가상 현실 환경에서 주어지는 실시간 2D 데이터(622) 외부의 소스로부터의 메타 데이터(642)를 사용하여 추측될 수 있다. 마지막으로, 재구성된 실시간 3D 데이터(또는 모델)(650)는 분할된 가려진 부분(632)을 가질 수 있는 실시간 3D 데이터(또는 모델)에 병합되어 재구성된 가려진 부분을 가지는, 사람의 머리의 재구성된 실시간 3D 데이터(또는 모델)을 산출할 수 있다. 모델(660)은 그 후 3D 이미지로 생성되어 가상 현실 환경에 참여하는 다른 사람(들)에게 표시될 수 있다.
도 7은 본 발명에 따른 실시예에 따른 시스템의 한 측면을 도시하는 개략적 블록도이다. 구체적으로, 가려진 얼굴 부분이 어떻게 재구성될 수 있는지 설명하는 개략도가 본 명세서에 제시된다. 시스템(700)은 참여자의 얼굴 이미지를 위한 소스로 기능하는 인터넷일 수 있는 네트워크(710)를 포함할 수 있다. 상술한 바와 같이, 이들 기본 이미지(720)는 보통 Facebook™과 같은 소셜 네트워크 웹사이트에서 획득할 수 있는 로우(raw) 이미지이다.
동시에, 소프트웨어로 구현되는 모델러(730)는 재구성될 필요가 있는 얼굴의 3D 모델(732)을 생성할 수 있다. 모델은 얼굴 이미지가 재구성될 필요가 있는 사람의 머리의 여러 2D 뷰에 기반할 수 있다. 그 후, 제3자 소스에서 검색된 얼굴의 기본 이미지(720)와 3D 모델(732) 모두가 얼굴 이미지가 재구성될 필요가 있는 참여자의 머리의 실제 위치와 방향 및 어쩌면 얼굴 제스처에 관한 실시간 파라미터(750)와 함께 그들을 처리할 컴퓨터 프로세서(740)에 제공된다. 컴퓨터 프로세서(740)의 출력은 얼굴 이미지를 조정하고 모델에 적용되어 재구성된 얼굴 이미지가 가능한 한 자연스럽게 가상 현실 시야에 표시되도록 참여자의 실제 위치, 주변 환경 및 방향이 사용된 재구성된 얼굴 이미지(760)이다. 실시간 파라미터의 예시는 참여자의 시야의 방향, 그 또는 그녀가 얼마나 지쳐서 그 눈 위치 및 그 얼굴의 일반적 외관 등에 영향을 미치는지와 같은 그 또는 그녀의 물리적 조건, 그 현재 분위기, 예컨대 행복/분노/슬픔 등, 그 주변 환경, 예컨대 집에 있는지 또는 더운 날씨의 야외 바닷가에 있는지일 수 있다. 이 외관에 영향을 미치는 데이터는 모델러에 의해 사용되어 업계에 공지된 방법(예컨대, 텍스처링 및 디지털 애니메이션)에 의하여 기본 이미지가 재구성 및 수정될 수 있다.
일부 실시예에서, 얼굴 표현은 가상 세계에서(예컨대, 게임에서) 사용자에게 뭐가 일어났는지와 같은 가상 현실 환경의 컨텍스트에 의해 추론될 수 있고 따라서 재구성된 얼굴 이미지는 가상 세계 활동에 기반하여 동적으로 조정될 수 있다.
도 8은 본 발명의 일부 실시예에 따른 방법(800)을 도시하는 하이 레벨 흐름도이다. 방법(800)은 전술한 시스템(500)의 구조와는 상이한 구조로 구현될 수 있음이 이해될 것이다. 방법(800)은: 오프라인 3D 데이터를 획득하는 단계, 3D 데이터는 얼굴을 가리는 물체를 착용하지 않은 사람의 머리의 3D 데이터이고, 물체는 사람의 얼굴의 부분을 가리는 물체임(810); 실시간으로 실시간 3D 데이터를 획득하는 단계, 3D 데이터는 상기 머리의 3D 데이터이고, 상기 사람은 상기 얼굴을 가리는 물체를 착용함(820); 실시간 3D 데이터에 기반하여, 재구성된 실시간 3D 데이터를 산출하기 위하여 3D 변환을 오프라인 3D 데이터의 적어도 일부에 적용하는 단계, 재구성된 실시간 3D 데이터는 가려진 얼굴 부분에 관한 실시간 3D 데이터임(830); 및 재구성된 실시간 3D 데이터를 실시간 3D 데이터로 병합하는 단계(840)를 포함할 수 있다.
본 발명의 일부 실시예에 따르면, 오프라인 3D 데이터는 오프라인 3D 모델이고 실시간 3D 데이터는 실시간 3D 모델일 수 있다. 모델은 공간적 특성을 가리키는 임의의 수학적 또는 실제 구조일 수 있다.
본 발명의 일부 실시예에 따르면, 방법은 병합된 재구성된 실시간 3D 데이터 및 실시간 3D 데이터로부터 병합된 실시간 3D 이미지를 생성하는 단계를 더 포함할 수 있다.
본 발명의 일부 실시예에 따르면, 실시간 3D 데이터는 가상 현실(VR) 환경 위에 놓일 수 있다.
본 발명의 일부 실시예에 따르면, 실시간 3D 데이터는 얼굴을 가리는 물체를 착용한 사람의 위치, 방향, 프로필 및 건강 신호 중 적어도 하나를 모니터링함으로써 획득할 수 있다.
본 발명의 일부 실시예에 따르면, 수정된 얼굴 이미지를 산출하기 위해, 방법은 획득된 실시간 3D 데이터를 상기 사람의 얼굴의 3D 모델에 적용하는 단계를 더 포함할 수 있다.
본 발명의 일부 실시예에 따르면, 3D 변환은 가려지지 않은 얼굴 부분의 변화에 영향 받는 가려진 얼굴 부분을 추측하기 위하여 사람의 가려지지 않은 얼굴 부분으로부터 획득한 데이터를 사용하는 것을 더 포함할 수 있다. 구체적으로, 추측은 실시간 3D 데이터로부터 얼굴 표현을 감지하는 것에 기반하여 수행될 수 있다.
본 발명의 일부 실시예에 따르면, 3D 변환은 가려지지 않은 얼굴 부분(예컨대, 눈)의 변화에 영향 받지 않는 가려진 부분의 외관을 추측하는 것 및 3D 변환에서 추측을 사용하는 것을 더 포함할 수 있다. 구체적으로, 추측은 상기 사람에 관한 메타 데이터에 기반하여 수행될 수 있다.
본 발명의 일부 실시예에 따르면, 적어도 한 명의 사람의 가려진 부분은 VR 환경의 가려짐에 기반하여 적어도 부분적으로 재구성될 수 있다. 이 특징은 얼굴의 가려지지 않은 부분에도 구현될 수 있음이 이해될 것이다.
본 발명의 일부 실시예에 따르면, 오프라인 3D 데이터의 획득은 컴퓨터 네트워크로부터 수신한 2D 이미지를 저장할 수 있는 외부 데이터베이스를 통해 수행될 수 있다. 대안적으로 오프라인 3D 데이터의 획득은 VR 환경의 세션 시작 전 3D 센서를 통해 수행될 수 있다.
상기 설명에서, 실시예는 본 발명의 예시 또는 구현이다. 다양한 형태의 "일실시예", "실시예" 또는 "일부 실시예"는 반드시 모두 동일한 실시예를 지칭하는 것이 아니다.
본 발명의 다양한 특징이 단일 실시예의 문맥에서 서술될 수 있지만, 특징은 별개로 또는 임의의 적절한 조합에서 제공될 수 있다. 반대로, 본 명세서에서 본 발명이 명확성을 위해 별개의 실시예의 문맥에서 서술될 수 있지만, 본 발명은 단일 실시예에서도 구현될 수 있다.
명세서에서 "일부 실시예", "한 실시예", "일실시예" 또는 "다른 실시예"의 지칭은 실시예와 관련하여 서술된 특정한 특징, 구조 또는 특성이 적어도 일부의 실시예에 포함되는 것이나, 반드시 본 발명의 모든 실시예에 포함되는 것은 아니라는 것을 의미하는 것이다.
본 명세서에서 사용된 어구 및 용어는 제한으로 해석되지 않고 설명의 목적만을 위한 것이라는 것이 이해될 것이다.
본 발명의 개시의 원리 및 사용은 첨부된 설명, 도면 및 예시를 참조하여 더 잘 이해될 수 있다.
본 명세서의 세부 사항은 본 발명의 응용을 제한으로 해석되지 않는다는 것이 이해될 것이다.
나아가, 본 발명은 다양한 방식으로 수행 또는 실시될 수 있고 본 발명은 상기 설명에서 서술된 것과 다른 실시예로 구현될 수 있음이 이해될 것이다.
용어 "포함하는(including)", "포함(comprising)", "이루어진" 및 그 문법적 변형은 하나 이상의 구성요소, 특징, 단계 또는 정수나 그 그룹의 추가를 못하게 하지 않으며 용어들은 구성요소, 특징, 단계 또는 정수를 명시하는 것으로 해석되는 것이 이해될 것이다.
명세서 또는 청구범위가 "추가적" 요소를 지칭한다면, 하나 이상의 추가적 요소가 있음을 배제하지 않는다.
청구항 또는 명세서가 "한" 또는 "하나의" 요소를 지칭할 때, 이런 지칭은 그 요소가 오직 하나만 있는 것으로 해석되지 않음이 이해될 것이다.
명세서가 구성요소, 특징, 구조 또는 특성이 포함"되도 좋거나(may)", 포함"될지도 모르거나(might)", 포함"될 수 있거나(can)", 포함"되는 것이 가능(could)"하다고 언급한다면, 특정 구성요소, 특징, 구조 또는 특성이 포함될 것이 요구되는 것이 아님이 이해될 것이다.
적용 가능하다면, 상태 천이도, 흐름도 또는 양자 모두 실시예를 설명하기 위해 사용될 수 있지만, 본 발명은 이들 도면 또는 대응하는 설명에 제한되지 않는다. 예를 들어, 흐름은 각 도시된 상자 또는 상태를 통해, 또는 도시되고 설명된 정확히 동일한 순서로 이동하지 않아도 된다.
본 발명의 방법은 선택된 단계나 작업을 수동, 자동 또는 그 조합으로 수행 또는 완료함으로써 구현될 수 있다.
청구범위 및 명세서에 제시된 설명, 예시, 방법 및 소재는 제한이 아니고 단지 예시적인 것으로 해석되어야 한다.
본 명세서에서 사용된 기술적 및 과학적 용어의 의미는 다르게 정의되지 않으면, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되어야 한다.
본 발명은 본 명세서에 서술된 것과 동등하거나 유사한 방법 및 물질로 시험 또는 실시에서 구현될 수 있다.
본 발명이 제한된 수의 실시예에 관하여 설명되었지만, 이들은 본 발명의 범위의 제한이 아닌, 바람직한 실시예의 일부의 예시로 해석되어야 한다. 다른 가능한 변형, 수정 및 응용 또한 본 발명의 범위에 속한다. 따라서, 본 발명의 범위는 지금까지 설명된 내용에 의해 제한되지 않고, 첨부된 청구범위 및 그 법적 균등물에 의해 제한되어야 한다.
Claims (26)
- 얼굴을 가리는 물체를 착용한 적어도 한 명의 사람을 포함하는 장면의 이미지를 캡처하는 단계;
얼굴을 가리는 물체 상의 센서에 의해 캡처된 센서 데이터에 기초하여, 얼굴을 가리는 물체에 의해 가려진 얼굴 부분을 가리키는 데이터를 획득하는 단계;
획득한 데이터에 기반하여 가려진 얼굴 부분의 3D 얼굴 이미지를 재구성하는 단계; 및
재구성된 3D 얼굴 이미지를 캡처된 장면 내의 사람의 각 3D 이미지로 병합하는 단계를 포함하는 방법. - 청구항 1에 있어서,
병합된 이미지를 디스플레이를 통해 특정 사용자에게 표시하는 단계를 더 포함하는 방법. - 청구항 2에 있어서,
디스플레이는 근안 디스플레이(near eye display)인 방법. - 청구항 1에 있어서,
얼굴을 가리는 물체에 의해 가려진 얼굴 부분을 가리키는 데이터를 획득하는 단계는 상기 얼굴을 가리는 물체의 내측으로부터 가려진 얼굴 부분을 감지함으로써 수행되는 방법. - 청구항 4에 있어서,
상기 감지는 이미지 캡처를 포함하고 상기 획득한 데이터는 가려진 얼굴의 부분의 이미지인 방법. - 청구항 4에 있어서,
상기 감지는 얼굴 제스처의 감지이고, 얼굴 3D 이미지의 재구성은 이전에 캡처된 가려진 얼굴 부분의 기본 이미지에 대해 얼굴을 변화시키도록 감지된 제스처를 모델링함으로써 수행되는 방법. - 청구항 1에 있어서,
얼굴을 가리는 물체에 의해 가려진 얼굴 부분을 가리키는 데이터의 획득은 눈에 영향을 주는 표현을 도출함으로써 수행되는 방법. - 청구항 1에 있어서,
얼굴을 가리는 물체에 의해 가려진 얼굴 부분을 가리키는 데이터의 획득은 다른 사람과 통신하는 사람의 상황(context)을 도출함으로써 수행되는 방법. - 청구항 1에 있어서,
얼굴을 가리는 물체에 의해 가려진 얼굴 부분을 가리키는 데이터를 획득하는 단계는 이전에 캡처된 가려진 얼굴 부분의 기본 이미지를 획득하는 단계를 포함하는 방법. - 청구항 9에 있어서,
가려진 얼굴 부분의 기본 이미지의 획득은 외부 데이터베이스를 통하여 수행되는 방법. - 청구항 10에 있어서,
상기 외부 데이터베이스는 네트워크화된 데이터베이스인 방법. - 청구항 9에 있어서,
가려진 얼굴 부분의 3D 얼굴 이미지를 재구성하는 단계는,
위치, 방향 및 프로필 중 적어도 하나를 모니터링하는 단계; 및
수정된 얼굴 이미지를 산출하기 위하여, 획득한 데이터를 적어도 한 명의 사람의 얼굴의 3차원 모델에 적용하는 단계에 의하여, 획득한 데이터에 기반하여 수행되는 방법. - 청구항 9에 있어서,
가려진 얼굴 부분의 3D 얼굴 이미지를 재구성하는 단계는,
얼굴을 가리는 물체를 착용한 적어도 한 명의 사람의 건강 신호를 모니터링하는 단계; 및
수정된 얼굴 이미지를 산출하기 위하여, 획득한 데이터를 적어도 한 명의 사람의 얼굴의 3차원 모델에 적용하는 단계에 의하여, 획득한 데이터에 기반하여 수행되는 방법. - 얼굴을 가리는 물체를 착용한 적어도 한 명의 사람을 포함하는 장면의 이미지를 캡처하도록 구성된 이미지 캡처 장치; 및
컴퓨터 프로세서로서,
얼굴을 가리는 물체 상의 센서로부터, 얼굴을 가리는 물체에 의해 가려진 얼굴 부분을 가리키는 데이터를 획득하고;
획득한 데이터에 기반하여 가려진 얼굴 부분의 3D 얼굴 이미지를 재구성하고; 및
재구성된 3D 얼굴 이미지를 캡처된 장면 내의 사람의 각 3D 이미지로 병합하도록 구성된 컴퓨터 프로세서를 포함하는 시스템. - 청구항 14에 있어서,
병합된 이미지를 표시하도록 구성된 디스플레이를 더 포함하는 시스템. - 청구항 15에 있어서,
디스플레이는 근안 디스플레이인 시스템. - 청구항 14에 있어서,
얼굴을 가리는 물체에 의해 가려진 얼굴 부분을 가리키는 데이터를 획득하는 것은 상기 얼굴을 가리는 물체의 내측으로부터 가려진 얼굴 부분을 감지하도록 구성된 센서에 의해 수행되는 시스템. - 청구항 17에 있어서,
상기 감지는 이미지 캡처를 포함하고 상기 획득한 데이터는 가려진 얼굴의 부분의 이미지인 시스템. - 청구항 17에 있어서,
상기 감지는 얼굴 제스처의 감지이고, 얼굴 3D 이미지의 재구성은 이전에 캡처된 가려진 얼굴 부분의 기본 이미지에 대해 얼굴을 변화시키도록 감지된 제스처를 모델링함으로써 수행되는 시스템. - 청구항 14에 있어서,
얼굴을 가리는 물체에 의해 가려진 얼굴 부분을 가리키는 데이터의 획득은 눈에 영향을 주는 표현을 도출함으로써 수행되는 시스템. - 청구항 14에 있어서,
얼굴을 가리는 물체에 의해 가려진 얼굴 부분을 가리키는 데이터의 획득은 다른 사람과 통신하는 사람의 상황을 도출함으로써 수행되는 시스템. - 청구항 14에 있어서,
얼굴을 가리는 물체에 의해 가려진 얼굴 부분을 가리키는 데이터를 획득하는 단계는 이전에 캡처된 가려진 얼굴 부분의 기본 이미지를 획득하는 단계를 포함하는 시스템. - 청구항 22에 있어서,
가려진 얼굴 부분의 기본 이미지의 획득은 외부 데이터베이스를 통하여 수행되는 시스템. - 청구항 23에 있어서,
상기 외부 데이터베이스는 네트워크화된 데이터베이스인 시스템. - 청구항 14에 있어서,
가려진 얼굴 부분의 3D 얼굴 이미지를 재구성하는 것은,
위치, 방향 및 프로필 중 적어도 하나를 모니터링하는 것; 및
수정된 얼굴 이미지를 산출하기 위하여, 획득한 데이터를 적어도 한 명의 사람의 얼굴의 3차원 모델에 적용하는 것에 의하여, 획득한 데이터에 기반하여 수행되는 시스템. - 청구항 14에 있어서,
가려진 얼굴 부분의 3D 얼굴 이미지를 재구성하는 것은,
얼굴을 가리는 물체를 착용한 적어도 한 명의 사람의 건강 신호를 모니터링하는 것; 및
수정된 얼굴 이미지를 산출하기 위하여, 획득한 데이터를 적어도 한 명의 사람의 얼굴의 3차원 모델에 적용하는 것에 의하여, 획득한 데이터에 기반하여 수행되는 시스템.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462032678P | 2014-08-04 | 2014-08-04 | |
US62/032,678 | 2014-08-04 | ||
PCT/IL2015/050801 WO2016020921A1 (en) | 2014-08-04 | 2015-08-04 | Method and system for reconstructing obstructed face portions for virtual reality environment |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170085477A KR20170085477A (ko) | 2017-07-24 |
KR102422469B1 true KR102422469B1 (ko) | 2022-07-20 |
Family
ID=55263254
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020177004479A KR102422469B1 (ko) | 2014-08-04 | 2015-08-04 | 가상 현실 환경을 위한 가려진 얼굴 부분 재구성 방법 및 시스템 |
Country Status (11)
Country | Link |
---|---|
US (3) | US10445863B2 (ko) |
EP (1) | EP3178066A4 (ko) |
JP (1) | JP6654625B2 (ko) |
KR (1) | KR102422469B1 (ko) |
CN (1) | CN107004296B (ko) |
AU (1) | AU2015300725A1 (ko) |
BR (1) | BR112017002426A2 (ko) |
CA (1) | CA2956508C (ko) |
IL (1) | IL250299B (ko) |
MX (1) | MX2017001646A (ko) |
WO (1) | WO2016020921A1 (ko) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9910275B2 (en) * | 2015-05-18 | 2018-03-06 | Samsung Electronics Co., Ltd. | Image processing for head mounted display devices |
CN107305621A (zh) * | 2016-04-17 | 2017-10-31 | 张翔宇 | 一种虚拟现实眼镜的图像捕获设备及图像合成系统 |
FR3053509B1 (fr) | 2016-06-30 | 2019-08-16 | Fittingbox | Procede d’occultation d’un objet dans une image ou une video et procede de realite augmentee associe |
WO2018002533A1 (fr) * | 2016-06-30 | 2018-01-04 | Fittingbox | Procédé d'occultation d'un objet dans une image ou une vidéo et procédé de réalité augmentée associé |
US10726792B2 (en) * | 2017-04-17 | 2020-07-28 | Intel Corporation | Glare and occluded view compensation for automotive and other applications |
CN109427083B (zh) * | 2017-08-17 | 2022-02-01 | 腾讯科技(深圳)有限公司 | 三维虚拟形象的显示方法、装置、终端及存储介质 |
US11145124B2 (en) | 2017-08-30 | 2021-10-12 | Ronald H. Winston | System and method for rendering virtual reality interactions |
CN107680069B (zh) * | 2017-08-30 | 2020-09-11 | 歌尔股份有限公司 | 一种图像处理方法、装置和终端设备 |
CN107590859A (zh) * | 2017-09-01 | 2018-01-16 | 广州励丰文化科技股份有限公司 | 一种混合现实画面处理方法及服务设备 |
CN109785369A (zh) * | 2017-11-10 | 2019-05-21 | 中国移动通信有限公司研究院 | 一种虚拟现实人像采集方法及装置 |
JP7073702B2 (ja) * | 2017-12-11 | 2022-05-24 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及び情報処理プログラム |
JP7020115B2 (ja) * | 2017-12-28 | 2022-02-16 | 凸版印刷株式会社 | Vr空間における自撮り装置、方法、およびプログラム |
EP3729177A4 (en) * | 2018-03-13 | 2021-10-06 | Ronald Winston | VIRTUAL REALITY SYSTEM AND METHOD |
US11055887B2 (en) * | 2018-11-29 | 2021-07-06 | Adobe Inc. | Modifying digital content with digital effects using facial skin mask |
CN111353943B (zh) * | 2018-12-20 | 2023-12-26 | 杭州海康威视数字技术股份有限公司 | 一种人脸图像恢复方法、装置及可读存储介质 |
US11315298B2 (en) * | 2019-03-25 | 2022-04-26 | Disney Enterprises, Inc. | Personalized stylized avatars |
CN110266959B (zh) * | 2019-07-18 | 2021-03-26 | 珠海格力电器股份有限公司 | 一种移动终端拍照的方法及移动终端 |
KR102647730B1 (ko) * | 2021-07-26 | 2024-03-14 | 서울대학교병원 | 워핑기술을 이용한 자폐증 환자의 상호작용 훈련 시스템 및 영상 워핑 모델 학습 방법 |
WO2023008811A2 (ko) * | 2021-07-29 | 2023-02-02 | 이광희 | 신경망 모델을 이용한 마스크 착용 얼굴 이미지 복원 방법 |
KR102547630B1 (ko) * | 2021-07-29 | 2023-06-26 | 이광희 | 신경망 모델을 이용한 마스크 착용 얼굴 이미지 복원 방법 |
DE102022208822A1 (de) * | 2021-08-30 | 2023-03-02 | Apple Inc. | Anzeigen von bilddaten basierend auf umgebungslicht |
CN114516166B (zh) * | 2021-12-27 | 2024-03-29 | 中铭谷智能机器人(广东)有限公司 | 一种头盔眼罩专用的透明黑加工工艺 |
WO2023223377A1 (ja) * | 2022-05-16 | 2023-11-23 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び記録媒体 |
CN115174985B (zh) * | 2022-08-05 | 2024-01-30 | 北京字跳网络技术有限公司 | 特效展示方法、装置、设备及存储介质 |
US20240177359A1 (en) * | 2022-11-30 | 2024-05-30 | Sony Interactive Entertainment Inc. | Training a machine learning model for reconstructing occluded regions of a face |
WO2024145349A1 (en) * | 2022-12-28 | 2024-07-04 | Canon U.S.A., Inc. | Automatic inertial measurement unit alignment |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013175929A (ja) * | 2012-02-24 | 2013-09-05 | Nikon Corp | 情報出力装置、及び情報出力方法 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5886735A (en) * | 1997-01-14 | 1999-03-23 | Bullister; Edward T | Video telephone headset |
US6121953A (en) * | 1997-02-06 | 2000-09-19 | Modern Cartoons, Ltd. | Virtual reality system for sensing facial movements |
JP3464754B2 (ja) | 1997-09-19 | 2003-11-10 | 日本電信電話株式会社 | ヘッドマウントディスプレイを装着した人物の顔画像合成方法およびその装置 |
US7139767B1 (en) | 1999-03-05 | 2006-11-21 | Canon Kabushiki Kaisha | Image processing apparatus and database |
JP2000307973A (ja) * | 2000-01-01 | 2000-11-02 | Atr Media Integration & Communications Res Lab | ヘッドマウンテッドディスプレイ |
US6774869B2 (en) * | 2000-12-22 | 2004-08-10 | Board Of Trustees Operating Michigan State University | Teleportal face-to-face system |
US8696113B2 (en) * | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US7653221B2 (en) * | 2006-01-31 | 2010-01-26 | Fujifilm Corporation | Method and apparatus for automatic eyeglasses detection and removal |
JP5228305B2 (ja) | 2006-09-08 | 2013-07-03 | ソニー株式会社 | 表示装置、表示方法 |
CN101266685A (zh) * | 2007-03-14 | 2008-09-17 | 中国科学院自动化研究所 | 一种基于多幅照片去除无关图像的方法 |
US20090003662A1 (en) * | 2007-06-27 | 2009-01-01 | University Of Hawaii | Virtual reality overlay |
JP5208810B2 (ja) * | 2009-02-27 | 2013-06-12 | 株式会社東芝 | 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム |
CN102034079B (zh) * | 2009-09-24 | 2012-11-28 | 汉王科技股份有限公司 | 眼镜遮挡下的人脸识别方法和系统 |
JP4794678B1 (ja) | 2010-05-24 | 2011-10-19 | 株式会社ソニー・コンピュータエンタテインメント | 映像処理装置、映像処理方法、および映像通信システム |
US8573866B2 (en) * | 2011-02-03 | 2013-11-05 | Jason R. Bond | Head-mounted face image capturing devices and systems |
CN102306304B (zh) * | 2011-03-25 | 2017-02-08 | 上海星尘电子科技有限公司 | 人脸遮挡物识别方法及其装置 |
JP5879886B2 (ja) * | 2011-10-03 | 2016-03-08 | セイコーエプソン株式会社 | 虚像表示装置及びその製造方法 |
US9518864B2 (en) | 2011-12-15 | 2016-12-13 | Facebook, Inc. | Controllable optical sensing |
RU2488882C1 (ru) | 2012-01-19 | 2013-07-27 | Общество с ограниченной ответственностью "Вокорд СофтЛаб" | Способ идентификации личности человека |
CN103472909B (zh) * | 2012-04-10 | 2017-04-12 | 微软技术许可有限责任公司 | 用于头戴式、增强现实显示器的逼真遮挡 |
TWI486631B (zh) * | 2014-01-24 | 2015-06-01 | Quanta Comp Inc | 頭戴式顯示裝置及其控制方法 |
US9672416B2 (en) * | 2014-04-29 | 2017-06-06 | Microsoft Technology Licensing, Llc | Facial expression tracking |
GB2534580B (en) * | 2015-01-28 | 2020-06-17 | Sony Interactive Entertainment Europe Ltd | Image processing |
-
2015
- 2015-08-04 CN CN201580053863.8A patent/CN107004296B/zh active Active
- 2015-08-04 WO PCT/IL2015/050801 patent/WO2016020921A1/en active Application Filing
- 2015-08-04 US US15/501,160 patent/US10445863B2/en active Active
- 2015-08-04 CA CA2956508A patent/CA2956508C/en not_active Expired - Fee Related
- 2015-08-04 JP JP2017506358A patent/JP6654625B2/ja not_active Expired - Fee Related
- 2015-08-04 BR BR112017002426-8A patent/BR112017002426A2/pt not_active IP Right Cessation
- 2015-08-04 KR KR1020177004479A patent/KR102422469B1/ko active IP Right Grant
- 2015-08-04 AU AU2015300725A patent/AU2015300725A1/en not_active Abandoned
- 2015-08-04 EP EP15829328.2A patent/EP3178066A4/en not_active Ceased
- 2015-08-04 MX MX2017001646A patent/MX2017001646A/es unknown
-
2017
- 2017-01-26 IL IL250299A patent/IL250299B/en not_active IP Right Cessation
-
2019
- 2019-09-06 US US16/562,893 patent/US10593025B2/en active Active
-
2020
- 2020-02-04 US US16/781,918 patent/US11238568B2/en not_active Expired - Lifetime
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013175929A (ja) * | 2012-02-24 | 2013-09-05 | Nikon Corp | 情報出力装置、及び情報出力方法 |
Also Published As
Publication number | Publication date |
---|---|
MX2017001646A (es) | 2017-10-31 |
BR112017002426A2 (pt) | 2021-10-05 |
KR20170085477A (ko) | 2017-07-24 |
CA2956508C (en) | 2020-04-21 |
US20190392559A1 (en) | 2019-12-26 |
US20170243334A1 (en) | 2017-08-24 |
JP6654625B2 (ja) | 2020-02-26 |
IL250299B (en) | 2020-04-30 |
EP3178066A4 (en) | 2018-01-17 |
CA2956508A1 (en) | 2016-02-11 |
US20200175655A1 (en) | 2020-06-04 |
CN107004296A (zh) | 2017-08-01 |
IL250299A0 (en) | 2017-03-30 |
US10593025B2 (en) | 2020-03-17 |
US11238568B2 (en) | 2022-02-01 |
WO2016020921A1 (en) | 2016-02-11 |
JP2017534096A (ja) | 2017-11-16 |
AU2015300725A1 (en) | 2017-03-02 |
CN107004296B (zh) | 2020-12-29 |
US10445863B2 (en) | 2019-10-15 |
EP3178066A1 (en) | 2017-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102422469B1 (ko) | 가상 현실 환경을 위한 가려진 얼굴 부분 재구성 방법 및 시스템 | |
TWI659335B (zh) | 圖形處理方法和裝置、虛擬實境系統和計算機儲存介質 | |
AU2024200190A1 (en) | Presenting avatars in three-dimensional environments | |
US20230171484A1 (en) | Devices, methods, and graphical user interfaces for generating and displaying a representation of a user | |
CN105183147A (zh) | 头戴式智能设备及其建模三维虚拟肢体的方法 | |
US11645823B2 (en) | Neutral avatars | |
CN115413353A (zh) | 扩展现实记录仪 | |
WO2022066450A1 (en) | Representation of users based on current user appearance | |
US11908098B1 (en) | Aligning user representations | |
US20230260222A1 (en) | Efficient dynamic occlusion based on stereo vision within an augmented or virtual reality application | |
US20240372968A1 (en) | Devices, methods, and graphical user interfaces for displaying a representation of a person | |
CN116612234A (zh) | 基于增强或虚拟现实应用程序内立体视觉的高效动态遮挡 | |
JP2024007474A (ja) | 複数の表面点に対する深度を使用したユーザ表現 | |
WO2023096940A2 (en) | Devices, methods, and graphical user interfaces for generating and displaying a representation of a user | |
CN118736078A (zh) | 外部显示器的对访客用户的面部的渲染 | |
CN118279472A (zh) | 组合3d用户表示中的光归一化 | |
CN118963890A (zh) | 用于生成和显示用户的表示的设备、方法和图形用户界面 | |
Frueh | Enabling Social Virtual Reality Experiences Using Pass-Through Video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |