JP7127659B2 - 情報処理装置、仮想・現実合成システム、学習済みモデルの生成方法、情報処理装置に実行させる方法、プログラム - Google Patents
情報処理装置、仮想・現実合成システム、学習済みモデルの生成方法、情報処理装置に実行させる方法、プログラム Download PDFInfo
- Publication number
- JP7127659B2 JP7127659B2 JP2020020068A JP2020020068A JP7127659B2 JP 7127659 B2 JP7127659 B2 JP 7127659B2 JP 2020020068 A JP2020020068 A JP 2020020068A JP 2020020068 A JP2020020068 A JP 2020020068A JP 7127659 B2 JP7127659 B2 JP 7127659B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- user
- learning
- region
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 37
- 238000003786 synthesis reaction Methods 0.000 title claims description 26
- 230000015572 biosynthetic process Effects 0.000 title claims description 25
- 230000010365 information processing Effects 0.000 title claims description 23
- 230000011218 segmentation Effects 0.000 claims description 55
- 230000002194 synthesizing effect Effects 0.000 claims description 40
- 238000012545 processing Methods 0.000 claims description 38
- 230000009977 dual effect Effects 0.000 description 18
- 238000013500 data storage Methods 0.000 description 17
- 238000013527 convolutional neural network Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 239000002131 composite material Substances 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 239000000470 constituent Substances 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000013145 classification model Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- CDBYLPFSWZWCQE-UHFFFAOYSA-L Sodium Carbonate Chemical compound [Na+].[Na+].[O-]C([O-])=O CDBYLPFSWZWCQE-UHFFFAOYSA-L 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 235000013361 beverage Nutrition 0.000 description 1
- 235000013353 coffee beverage Nutrition 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/005—Non-interactive screen display of musical or status data
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/401—3D sensing, i.e. three-dimensional (x, y, z) position or movement sensing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/441—Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
- G10H2220/455—Camera input, e.g. analyzing pictures from a video camera and using the analysis results as control data
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Electrophonic Musical Instruments (AREA)
- User Interface Of Digital Computer (AREA)
Description
また、学習データ合成部204は、学習データ記憶部203から、色々な角度からのピアノ画像208(#2)(或る角度からのピアノ画像は、図5(b)に例示)と、背景のみの画像208(#1)(図5(a)に例示)を選択し、ピアノの学習入力データ208A(#2)と、背景のみの学習入力データ208A(#1)を、#1の画像の上に#2の画像が重なるように合成して、図6(b)に例示される合成学習入力データ209A(#2)として出力する。同様に、ピアノの学習正解データ208(#2)と、背景のみの学習正解データ208(#1)を、#1の画像の上に#2の画像が重なるように合成して、図6(b)に示される合成学習正解データ209B(#2)として出力する。
また、学習データ合成部204は、学習データ記憶部203から、身体を自由に見渡す画像208(#6)と、背景のみの画像208(#1)を選択し、学習入力データ208A(#6)と208A(#1)を、#1の画像の上に#6の画像が重なるように合成して、図6(c)に例示される合成学習入力データ209A(#3)として出力する。同様に、学習正解データ208B(#6)と208B(#1)を、#1の画像の上に#6の画像が重なるように合成して、図6(c)に例示される合成学習正解データ209B(#3)として出力する。
また、学習データ合成部204は、学習データ記憶部203から、演奏者が自分の手を見ている画像208(#7)と、背景のみの画像208(#1)を選択し、特には図示しないが、学習入力データ208A(#7)と208A(#1)を、#1の画像の上に#7の画像が重なるように合成して、合成学習入力データ209Aとして出力する。同様に、学習正解データ208B(#7)と208B(#1)を、#1の画像の上に#7の画像が重なるように合成して、合成学習正解データ209Bとして出力する。
更に、学習データ合成部204は、学習データ記憶部203から、ピアノが上部に映っている画像208(#3)と、演奏者の足が画像の下方に映る範囲で演奏者の身体を自由に見渡す画像208(#6)と、背景のみの画像208(#1)を選択し、学習入力データ208A(#3)と208A(#6)と208A(#1)を、#1の画像の上に#3の画像、#3の画像の上に#6の画像が重なるように合成して、図6(d)に例示される合成学習入力データ209A(#4)として出力する。同様に、学習正解データ208B(#3)と208B(#6)と208B(#1)を、#1の画像の上に#3の画像、#3の画像の上に#6の画像が重なるように合成して、図6(d)に例示される合成学習正解データ209B(#4)として出力する。
そして、学習データ合成部204は、学習データ記憶部203から、弾く時の角度からの正面から撮影したピアノ画像208(#4)と、演奏者が自分の手を見ている画像208(#7)と、背景のみの画像208(#1)を選択し、学習入力データ208A(#4)と208A(#7)と208A(#1)を、#1の画像の上に#4の画像、#4の画像の上に#7の画像が重なるように合成して、図6(e)に例示される合成学習入力データ209A(#5)として出力する。同様に、学習正解データ208B(#4)と208B(#7)と208B(#1)を、#1の画像の上に#4の画像、#4の画像の上に#7の画像が重なるように合成して、図6(e)に例示される合成学習正解データ209B(#5)として出力する。
推論処理が特定の条件下のみで実行される。
図10は、角度により楽器を見ているか否かを判定する手法の説明図である。この手法では、演奏者が固定の位置にいるという前提で、図10(a)(b)又は(c)に示されるように、CPU101は、HMD105についたカメラの視野角に楽器が入っていると判定した場合に演奏者が楽器を見ていると判断し、上記視野角に楽器が入っていないと判定した場合に演奏者が楽器を見ていないと判断する。若しくは、演奏者が自ら推論処理を行いたいHMD105の角度を設け、CPU101は、その角度の範囲内に楽器が入っていると判定した場合に演奏者が楽器を見ていると判断する。
例えば、既知の物体検出の技術を用いて、デュアルカメラ104からのデュアルカメラ撮像画像データ211から楽器が検出された場合に、演奏者が楽器を見ていると判断する。
現在の主流のHMD105では、仮想空間を自由に動き回るために、赤外線センサでユーザの位置情報を追跡している。そこで、例えばVIVEトラッカーと呼ばれる既知の装置などで、楽器の位置情報を追跡し、更に楽器の大きさを入力することでHMD105に装着したカメラの視野角に楽器が入っているかどうかを判断することができる。
(1)一人称視点の身体画像だけを切り抜くとすると、360度映像や仮想空間などにアバターとしてではなくそのままの自分で入り込むことができ、仮想空間への没入感をより増すことが可能となる。
(2)一人称視点の身体と楽器だけを切り抜くとすると、仮想空間上で実際の楽器を演奏する体験ができる。例えば、仮想空間上でライブ体験などを実現することが可能となる。
(3)図11の実施形態で説明したように、一人称視点の身体と飲み物を切り抜くとすると、仮想空間で楽しみながら(HMD105を外さなくても)、飲み物を飲むことが可能となる。
(4)図12の実施形態で説明したように、一人称視点のスマートフォンだけを切り抜くとすると、仮想空間上で本物のスマートフォンを操作することが可能となる。
(付記1)
ユーザ視点でリアルタイムに撮像されることにより取得される現実空間における撮像画像データから、仮想空間に持ち込みたい任意の物体が映る領域をリアルタイムに識別し、
仮想空間画像データに、取得された前記撮像画像データに含まれる前記領域のデータをリアルタイムに合成することにより仮想・現実合成画像データを生成する、
情報処理装置。
(付記2)
前記撮像画像データから、前記任意の物体が映る第1領域と、ユーザの身体の少なくとも一部が映る第2領域と、をリアルタイムに識別し、
前記仮想空間画像データに、前記第1領域のデータと、前記第2領域のデータと、をリアルタイムに合成することにより前記仮想・現実合成画像データを生成する、
付記1に記載の情報処理装置。
(付記3)
任意の物体が映るデータと、ユーザの身体の少なくとも一部が映るデータと、のいずれか一方を含むデータ、両方を含むデータ及び両方を含まないデータを入力とし、前記任意の物体の切抜きデータと、前記ユーザの身体の少なくとも一部の切抜きデータと、のいずれか一方を含むデータ、両方を含むデータ及び両方を含まないデータを出力とする学習データを用いて学習させた学習済みモデルに、ユーザ視点でリアルタイムに撮像されることにより取得される現実空間における撮像画像データを入力することで、前記学習済みモデルが出力する前記任意の物体が映る第1領域と、前記ユーザの身体の少なくとも一部が映る第2領域と、その他の第3領域と、が分類されたセマンティックセグメンテーションデータに基づいて、前記撮像画像データから、前記任意の物体が映る第1領域と、前記ユーザの身体の少なくとも一部が映る第2領域と、をリアルタイムに識別する、
付記2に記載の情報処理装置。
(付記4)
前記任意の物体は、少なくとも楽器、飲み物、携帯端末装置のいずれかを含み、
前記ユーザの身体の少なくとも一部は、前記楽器、前記飲み物、前記携帯端末装置に触れるユーザの身体の一部、を含む、
付記2乃至3のいずれかに記載の情報処理装置。
(付記5)
ユーザがどこを見ようとしているのかを検出する視線検出手段から取得されるユーザの視線データに基づいてユーザが前記任意の物体を見ていると判断できる場合に、識別された前記第1領域のデータを、前記仮想空間画像データに合成するように制御し、
前記視線データに基づいてユーザが前記任意の物体を見ていると判断できない場合に、識別された前記第1領域のデータを、前記仮想空間画像データに合成しないように制御する、
付記2乃至4のいずれかに記載の情報処理装置。
(付記6)
付記1乃至5のいずれかに記載の情報処理装置と、
ユーザ視点でリアルタイムに現実空間を撮像するデュアルカメラと、
前記仮想・現実合成画像データを表示するヘッドマウントディスプレイと、
を備える仮想・現実合成システム。
(付記7)
任意の物体が映るデータと、ユーザの身体の少なくとも一部が映るデータと、のいずれか一方を含むデータ、両方を含むデータ及び両方を含まないデータを含み、ユーザ視点でリアルタイムに撮像されることにより取得される現実空間における撮像画像データが入力される入力層と、
前記任意の物体が映る第1領域と、前記ユーザの身体の少なくとも一部が映る第2領域と、その他の第3領域と、が分類されたセマンティックセグメンテーションデータを出力とする出力層と、
任意の物体が映るデータと、ユーザの身体の少なくとも一部が映るデータと、のいずれか一方を含むデータ、両方を含むデータ及び両方を含まないデータを入力とし、前記任意の物体の切抜きデータと、前記ユーザの身体の少なくとも一部の切抜きデータと、のいずれか一方を含むデータ、両方を含むデータ及び両方を含まないデータを出力とする学習データを用いてセマンティックセグメンテーションに基づいてパラメータが学習された中間層と、
を備え、
前記撮像画像データを入力とし、前記セマンティックセグメンテーションデータを出力とする学習済みモデルの生成方法。
(付記8)
情報処理装置のプロセッサに、
ユーザ視点でリアルタイムに撮像されることにより取得される現実空間における撮像画像データから、仮想空間に持ち込みたい任意の物体が映る領域をリアルタイムに識別させ、
仮想空間画像データに、取得された前記撮像画像データに含まれる前記領域のデータをリアルタイムに合成することにより仮想・現実合成画像データを生成させる、
方法。
(付記9)
情報処理装置のプロセッサに、
ユーザ視点でリアルタイムに撮像されることにより取得される現実空間における撮像画像データから、仮想空間に持ち込みたい任意の物体が映る領域をリアルタイムに識別させ、
仮想空間画像データに、取得された前記撮像画像データに含まれる前記領域のデータをリアルタイムに合成することにより仮想・現実合成画像データを生成させる、
プログラム。
102 ROM
103 RAM
104 デュアルカメラ
105 HMD
106 カメラI/F
107 ディスプレイコントローラ
108 スイッチI/F
109 外部記憶装置
110 ネットワークインタフェース
111 システムバス
201 学習用コンピュータ
202 学習データ収集部
203 学習データ記憶部
204 学習データ合成部
205 セマンティックセグメンテーションモデル学習部
206 学習済みセマンティックセグメンテーションモデル部
207 仮想・現実合成部
208 学習データ
208A 学習入力データ
208B 学習正解データ
209 合成学習データ
209A 合成学習入力データ
209B 合成学習正解データ
210 学習済みセマンティックセグメンテーションモデルデータ
211 デュアルカメラ撮像画像データ
212 切抜きデータ
213 仮想空間映像データ
214 仮想・現実合成映像データ
Claims (8)
- ユーザ視点で現実空間が撮像された撮像画像データを取得し、
前記撮像画像データを学習済みモデルに入力し、
前記学習済みモデルが出力するセグメンテーションデータであって、前記撮像画像データを、任意の物体が映る第1領域及びユーザの身体の少なくとも一部が映る第2領域と、その他の第3領域と、に分けたセグメンテーションデータに基づいて、仮想空間画像データに、前記撮像画像データの前記第1領域及び前記第2領域のデータを合成し、更に、ユーザの視線データに基づいて前記ユーザが前記任意の物体を見ていると判断できる場合に、前記第1領域のデータを前記仮想空間画像データに合成する、或いは、前記視線データに基づいて前記ユーザが前記任意の物体を見ていると判断できない場合に、前記第1領域のデータを前記仮想空間画像データに合成しない、
処理を実行する情報処理装置。 - ユーザが現実空間の楽器を演奏するために、前記仮想空間画像データに、前記撮像画像データの前記楽器が映る前記第1領域及び、前記楽器を演奏する前記ユーザの身体の少なくとも一部が映る前記第2領域をリアルタイムに合成する、
処理を実行する請求項1に記載の情報処理装置。 - 前記任意の物体は、少なくとも楽器、飲み物、携帯端末装置のいずれかを含み、
前記ユーザの身体の少なくとも一部は、前記楽器、前記飲み物、前記携帯端末装置のいずれかに触れるユーザの身体の一部、を含む、
処理を実行する請求項1又は請求項2に記載の情報処理装置。 - 前記学習済みモデルは、
ユーザ視点で現実空間が撮像された撮像画像データが入力される入力層と、
前記撮像画像データを、任意の物体が映る第1領域と、前記ユーザの身体の少なくとも一部が映る第2領域と、その他の第3領域と、に分類した前記セグメンテーションデータを出力する出力層と、
任意の物体が映るデータと、ユーザの身体の少なくとも一部が映るデータと、のいずれか一方を含むデータ、両方を含むデータ及び両方を含まないデータを入力とし、前記任意の物体の切抜きデータと、前記ユーザの身体の少なくとも一部の切抜きデータと、のいずれか一方を含むデータ、両方を含むデータ及び両方を含まないデータを出力とする学習データを用いてパラメータが学習された中間層と、
を備える、
請求項1乃至3のいずれかに記載の情報処理装置。 - 前記ユーザの視線データに基づいてユーザが前記任意の物体を見ていると判断できる場合に、前記第1領域のデータを前記仮想空間画像データに合成し、前記視線データに基づいて前記ユーザが前記任意の物体を見ていると判断できない場合に、前記第1領域のデータを前記仮想空間画像データに合成しない、
請求項1乃至4のいずれかに記載の情報処理装置。 - 請求項1乃至5のいずれかに記載の情報処理装置と、
ユーザ視点でリアルタイムに現実空間を撮像する少なくとも1つ以上のカメラと、
を備える仮想・現実合成システム。 - 情報処理装置のコンピュータに、請求項1乃至5のいずれか1項に記載の処理を実行させる、
方法。 - 情報処理装置のコンピュータに、請求項1乃至5のいずれか1項に記載の処理を実行させる、
プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020020068A JP7127659B2 (ja) | 2020-02-07 | 2020-02-07 | 情報処理装置、仮想・現実合成システム、学習済みモデルの生成方法、情報処理装置に実行させる方法、プログラム |
US17/168,868 US11501471B2 (en) | 2020-02-07 | 2021-02-05 | Virtual and real composite image data generation method, virtual and real images compositing system, trained model generation method, virtual and real composite image data generation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020020068A JP7127659B2 (ja) | 2020-02-07 | 2020-02-07 | 情報処理装置、仮想・現実合成システム、学習済みモデルの生成方法、情報処理装置に実行させる方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021125138A JP2021125138A (ja) | 2021-08-30 |
JP7127659B2 true JP7127659B2 (ja) | 2022-08-30 |
Family
ID=77178784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020020068A Active JP7127659B2 (ja) | 2020-02-07 | 2020-02-07 | 情報処理装置、仮想・現実合成システム、学習済みモデルの生成方法、情報処理装置に実行させる方法、プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11501471B2 (ja) |
JP (1) | JP7127659B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020129115A1 (ja) * | 2018-12-17 | 2020-06-25 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、情報処理方法およびコンピュータプログラム |
US11107280B1 (en) * | 2020-02-28 | 2021-08-31 | Facebook Technologies, Llc | Occlusion of virtual objects in augmented reality by physical objects |
US20230039935A1 (en) * | 2021-08-04 | 2023-02-09 | Motional Ad Llc | Scalable and realistic camera blockage dataset generation |
CN113688887A (zh) * | 2021-08-13 | 2021-11-23 | 百度在线网络技术(北京)有限公司 | 图像识别模型的训练与图像识别方法、装置 |
CN114372477B (zh) * | 2022-03-21 | 2022-06-10 | 北京百度网讯科技有限公司 | 文本识别模型的训练方法、文本识别方法及装置 |
WO2024007135A1 (zh) * | 2022-07-04 | 2024-01-11 | 北京小米移动软件有限公司 | 图像处理方法、装置、终端设备、电子设备及存储介质 |
CN116563210B (zh) * | 2023-03-21 | 2023-12-08 | 安徽中新云谷数字技术有限公司 | 一种虚拟现实图像质量评价方法及系统 |
US11880698B1 (en) * | 2023-05-15 | 2024-01-23 | Verizon Patent And Licensing Inc. | Systems and methods for enhanced graphical user interface information tracking |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009134693A (ja) | 2007-10-30 | 2009-06-18 | Canon Inc | 画像処理装置、画像処理方法 |
JP2019533866A (ja) | 2016-10-31 | 2019-11-21 | コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド | 制御フィードバックを用いる画像セグメンテーションの方法及びシステム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8280115B2 (en) | 2007-10-30 | 2012-10-02 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP5401386B2 (ja) | 2010-03-31 | 2014-01-29 | 新日鉄住金ソリューションズ株式会社 | 情報処理システム及び情報処理方法 |
WO2015111283A1 (ja) | 2014-01-23 | 2015-07-30 | ソニー株式会社 | 画像表示装置及び画像表示方法 |
US10191541B2 (en) | 2016-06-30 | 2019-01-29 | Sony Interactive Entertainment Inc. | Augmenting virtual reality content with real world content |
CN110945869A (zh) * | 2017-04-19 | 2020-03-31 | 维多尼股份公司 | 利用运动捕捉的虚拟手的增强现实学习系统和方法 |
JP6298561B1 (ja) * | 2017-05-26 | 2018-03-20 | 株式会社コロプラ | ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 |
US10867390B2 (en) * | 2018-09-10 | 2020-12-15 | Arm Limited | Computer vision processing |
CN113395944B (zh) * | 2019-02-05 | 2024-10-18 | 史密夫和内修有限公司 | 用于机器人手术规划的患者特定的模拟数据 |
US10643593B1 (en) * | 2019-06-04 | 2020-05-05 | Electronic Arts Inc. | Prediction-based communication latency elimination in a distributed virtualized orchestra |
US11127148B1 (en) * | 2020-05-12 | 2021-09-21 | Microsoft Technology Licensing, Llc | Parallax correction for partially overlapping stereo depth images |
-
2020
- 2020-02-07 JP JP2020020068A patent/JP7127659B2/ja active Active
-
2021
- 2021-02-05 US US17/168,868 patent/US11501471B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009134693A (ja) | 2007-10-30 | 2009-06-18 | Canon Inc | 画像処理装置、画像処理方法 |
JP2019533866A (ja) | 2016-10-31 | 2019-11-21 | コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド | 制御フィードバックを用いる画像セグメンテーションの方法及びシステム |
Also Published As
Publication number | Publication date |
---|---|
US11501471B2 (en) | 2022-11-15 |
JP2021125138A (ja) | 2021-08-30 |
US20210248788A1 (en) | 2021-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7127659B2 (ja) | 情報処理装置、仮想・現実合成システム、学習済みモデルの生成方法、情報処理装置に実行させる方法、プログラム | |
CN110850983B (zh) | 视频直播中的虚拟对象控制方法、装置和存储介质 | |
CN107204031B (zh) | 信息展示方法及装置 | |
KR100845390B1 (ko) | 영상 처리기, 영상 처리 방법, 기록 매체, 및 반도체 장치 | |
US9626788B2 (en) | Systems and methods for creating animations using human faces | |
CN104243951B (zh) | 图像处理设备、图像处理系统以及图像处理方法 | |
US20210358204A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2005216061A (ja) | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス | |
CN109154862B (zh) | 用于处理虚拟现实内容的装置、方法和计算机可读介质 | |
WO2017094527A1 (ja) | 動画生成システムおよび動画表示システム | |
JP7512488B2 (ja) | 画像処理装置、画像処理方法及び画像処理システム | |
TW202240530A (zh) | 用於新穎視圖合成之神經混合 | |
CN111491187A (zh) | 视频的推荐方法、装置、设备及存储介质 | |
CN117333645A (zh) | 一种环形全息交互系统及其设备 | |
CN116943191A (zh) | 基于故事场景的人机互动方法、装置、设备及介质 | |
CN111652986B (zh) | 舞台效果呈现方法、装置、电子设备及存储介质 | |
JP4689548B2 (ja) | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス | |
US11961190B2 (en) | Content distribution system, content distribution method, and content distribution program | |
US20240137588A1 (en) | Methods and systems for utilizing live embedded tracking data within a live sports video stream | |
CN111651054A (zh) | 音效控制方法、装置、电子设备及存储介质 | |
KR20120092960A (ko) | 가상 캐릭터 제어 시스템 및 방법 | |
JP2012094103A (ja) | 画像表示システム | |
JP7442107B2 (ja) | 動画再生装置、動画再生方法、及び動画配信システム | |
US20240329747A1 (en) | Hand gesture magnitude analysis and gearing for communicating context-correct communication | |
JP4767331B2 (ja) | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201119 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220719 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7127659 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |