JP6290922B2 - 現実環境における現実対象物上のデジタル情報を投影するための方法およびシステム - Google Patents
現実環境における現実対象物上のデジタル情報を投影するための方法およびシステム Download PDFInfo
- Publication number
- JP6290922B2 JP6290922B2 JP2015549997A JP2015549997A JP6290922B2 JP 6290922 B2 JP6290922 B2 JP 6290922B2 JP 2015549997 A JP2015549997 A JP 2015549997A JP 2015549997 A JP2015549997 A JP 2015549997A JP 6290922 B2 JP6290922 B2 JP 6290922B2
- Authority
- JP
- Japan
- Prior art keywords
- real object
- camera
- visible light
- light projector
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 88
- 230000009466 transformation Effects 0.000 claims description 79
- 230000000007 visual effect Effects 0.000 claims description 38
- 230000003287 optical effect Effects 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 9
- 238000013459 approach Methods 0.000 claims description 6
- 229920000049 Carbon (fiber) Polymers 0.000 claims description 4
- 239000004917 carbon fiber Substances 0.000 claims description 4
- VNWKTOKETHGBQD-UHFFFAOYSA-N methane Chemical compound C VNWKTOKETHGBQD-UHFFFAOYSA-N 0.000 claims description 4
- 230000007423 decrease Effects 0.000 claims description 3
- 239000000463 material Substances 0.000 claims description 2
- 239000000758 substrate Substances 0.000 claims description 2
- 230000003139 buffering effect Effects 0.000 claims 1
- 230000008859 change Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000009434 installation Methods 0.000 description 5
- 239000003550 marker Substances 0.000 description 5
- 238000000844 transformation Methods 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 229910052799 carbon Inorganic materials 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 239000006096 absorbing agent Substances 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Projection Apparatus (AREA)
- Processing Or Creating Images (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
Description
RGB−Dカメラシステムの可能な実施例:
RGB−Dカメラシステムは、飛行時間型カメラシステムであることができる。非特許文献7においてKolbらは、時間飛行型カメラセンサと応用における技術情勢についての概要を与えている。RGB−Dカメラシステム16は、また、RGBカメラ12、赤外線カメラ13および赤外線プロジェクタ14(図1Aを参照)を使用して構築することができる。RGB−Dカメラ12、赤外線カメラ13および赤外線プロジェクタ14は、典型的に固く結合され、そしてそれら空間関係は既知である。これによって、RGBカメラ、赤外線カメラおよび赤外線プロジェクタは、RGB−Dカメラ座標系102として命名される、共通の座標系において定義されることができる。有利に、3つのセンサは、1つの共通パーツ上に、例えば金属の固体ブロックまたはカーボン・ファイバ・ラミネート部品に、すべてしっかりと固定される。
反復的最近接点(ICP)(たとえば、非特許文献10に記載されている)は、3次元点群によってしばしば表現される2つの部分的に重複する3次元モデルを空間的に登録するためアルゴリズムである。アルゴリズムの目的は、他のもので登録されるため1つのモデルを変換する、6つのDoF(DoF:自由度)剛体変換(3次元回転および3次元並進を備えること)を見付けることである、例えば、次に記載される図8を参照:
参照モデルR(ステップ81)、現在のモデルC(ステップ82)、そして、CとR(ステップ83)との間の変換の初期推定を与えられ、方法は、初期に供給された初期推定を用いて、C(ステップ84)を初期に変換する。最も単純な場合に留意し、初期推定は、アイデンティティ変換であることができる。今日、反復的方法は、モデルRおよびC(ステップ85)からサンプル点R´およびC´を選択して、点についてのこれら2つの集合の間のマッチを定める(ステップ86)。最も単純な場合、C´における点に対して対応をマッチすることは、R´において最も近い点を決定することである。サブシーケンスステップ(ステップ87)において、ウェイト(weights)は、全てのマッチに対して計算されることである。これの最も単純な実施形態は、全てのマッチに等しいウェイトを割り当てることであることに留意してください。誤差、例えば、のマッチする点の間での距離についてのルートミーンスクウェアを割り当ての後(ステップ88)、変換は見付られ、この誤差を最小化する。
距離画像を生成することができる深度センサを有する事は、追加の利点を持っている。1つの利点は、現実対象物の仮想モデル(すなわち、コンピュータ支援された設計(CAD)モデル)と現実対象物の実際の幾何学形状との間の食い違いを見付けるために異なる測定方法についての実施形態であることができる。ICPアルゴリズムは、部分的エラーまたは2つの3次元モデルとの間の違いを扱うことができるから、アルゴリズムは、大部分の場合において、部分的に異なる仮想モデルを深度センサから来る深度データに位置合わせすることができる。そして、その差は、例えば1つのモデルの頂点または点と他のモデルの最も近い頂点または点との間において計算されることができる。異なる距離に異なる色を割り当て、プロジェクタは、それらの仮想3次元モデルとの違いに基づいて、現実対象物の一部に彩色をすることができる。
“容量は、発振器の周波数を制御する、またはAC信号の結合すること(または減衰)のレベルを変化させるために、それを使用することによって、通常間接的に測定される。単純な容量メータの設計は、しばしば緩和発振器に基づいている。センスされるべき容量は、発振器RC回路またはLC回路の部分を形成する。基本的に技術は、既知の回路を用いて、未知の容量をチャージすることによって動作する。(容量のための状態方程式は、i=Cdv/dt。これは、容量が、容量素子を横切る電圧の変化レートによって割られた電流と等しいことを意味する。)容量は、しきい値電圧(緩和発振器の)に達するに要求されるチャージ時間を測定することによって、または等価的に発振器の周波数を測定することによって、計算されることができる。これらの両方とも、発振回路のRC(またはLC)時定数に比例する。容量測定における誤差の第1の原因は、浮遊容量(stray capacitance)であり、警戒されないならば、おおよそ10pFと10nFの間を行き来する可能性がある。浮遊容量は、容量信号をシールド(ハイ・インピーダンス)すること、そして接地リファレンスに(低インピーダンス)シールドを接続することによって相対的に定常値に保持されることができる。また、浮遊容量の望まない効果を最小限にするために、可能な限りセンサ電極の近傍になるようにセンシングエレクトロニクスを配置するという良い実地経験がある。もう1つの測定技術は、容量分割素子を介して固定周波数の交流電圧を印加することである。これは、既知の値と他の未知の値の2つの容量素子を直列で構成する。出力信号は、一方の容量素子を介して取り出される。未知の容量素子の値は、交流電圧計によって測定されることができるような、出力/入力の信号振幅の比率と等しい、容量の比率から見付ることができる。”
ユーザタッチは、また、ユーザ位置を測定することなしに使用され、そして可能な内容のワークフローにおいて次のステップを単純に起動することができる。例えば、システムは最初に、現実の自動車上に仮想エンジンを表示し、そして自動車をタッチした後、システムはギアボックスの構造を表示するように切り替える。
Claims (56)
- 現実環境内の現実対象物上にデジタル情報を投影する方法であって、
可視光プロジェクタを用いて現実対象物の少なくとも一部の上にデジタル情報を投影する工程と、
カメラを使用して前記現実対象物及び前記投影されたデジタル情報の少なくとも1つの画像を取り込む工程と、
前記カメラとともに登録された深度センサによって、前記現実対象物の少なくとも一部の深度データを取り込む工程と、
前記少なくとも1つの画像内の前記投影されたデジタル情報、および前記投影されたデジタル情報に対応する前記現実対象物の少なくとも一部の前記深度データに基づいて、前記可視光プロジェクタと前記現実対象物との間の空間変換を計算する工程と、
を具備することを特徴とする現実環境内の現実対象物上にデジタル情報を投影する方法。 - さらに、前記深度データを使用して前記デジタル情報の深度を推定する工程を具備する請求項1に記載の方法。
- 前記深度データおよび少なくとも1つの画像を使用して前記デジタル情報の3次元位置を推定する工程を具備する請求項1または2に記載の方法。
- 前記深度センサおよび前記カメラは、前記深度センサおよび前記カメラが相互に関係されるように、サブシステム内に構成されており、
前記方法は、前記サブシステムと前記現実対象物との間の空間変換を計算する工程をさらに含む、請求項1に記載の方法。 - 前記サブシステムと前記現実対象物との間の空間変換を計算する工程が、前記現実対象物の少なくとも一部の3次元幾何学モデルと、前記カメラによって取り込まれた1つまたはそれ以上の画像からの前記現実対象物の少なくとも一部の3次元記述、または前記深度センサによって取り込まれた前記現実対象物の深度データのいずれかとに基づいている請求項4に記載の方法。
- さらに、前記現実対象物の少なくとも一部の3次元幾何学モデル、および前記サブシステムと前記現実対象物との間の計算された空間変換を使用して、前記デジタル情報の深度を推定することによって第2の深度データを取得する工程を具備する請求項4に記載の方法。
- さらに、前記可視光プロジェクタを使用して前記デジタル情報として少なくとも1つの視覚パターンを前記現実対象物の表面上に投影する工程と、
前記深度センサおよび前記カメラを使用して前記投影された視覚パターンの深度データを取り込む工程と、を含む請求項1に記載の方法。 - さらに、前記可視光プロジェクタと前記サブシステムとの間の空間変換を計算する工程と、
前記可視光プロジェクタの内部パラメータを計算または供給する工程と、
前記可視光プロジェクタと前記サブシステムとの間の前記空間変換、および前記サブシステムと前記現実対象物との間の前記空間変換に基づいて、前記可視光プロジェクタと前記現実対象物との間の前記空間変換を計算する工程とを具備する請求項4に記載の方法。 - さらに、前記サブシステムと前記現実対象物との間の前記空間変換に基づいて、前記サブシステムの座標系から、前記現実対象物の対象物座標系に前記投影された視覚パターンの前記深度データを変換する工程と、
前記可視光プロジェクタの内部パラメータを計算または供給する工程と、
前記変換された深度データに基づいて、前記可視光プロジェクタと前記現実対象物との間の前記空間変換を計算する工程とを具備する請求項4に記載の方法。 - 前記サブシステムはRGB−Dカメラシステムであり、前記カメラはRGBカメラである、請求項4に記載の方法。
- 前記深度センサは、前記可視光プロジェクタに頼ることなく、前記現実対象物または前記現実対象物の一部の深度データを取り込む請求項1に記載の方法。
- 前記サブシステムと前記可視光プロジェクタとの間の空間変換、ならびに前記可視光プロジェクタの内部パラメータを使用して、第3の深度データが創出され、
前記カメラの少なくとも1つの画像から抽出されたデジタル情報の項目を前記現実対象物上に投影する請求項6に記載の方法。 - 前記深度センサは、第1の深度データである前記深度データを取り込み、前記方法はさらに前記第1の深度データ、前記第2の深度データおよび前記第3の深度データの任意の組み合わせ間の差を計算する工程を具備する請求項12に記載の方法。
- 前記現実対象物までの前記可視光プロジェクタの所定距離が、前記現実対象物まで到達されるまたは超過されることが判定された場合、較正を行う必要についてユーザに通知し、または自動的に較正手続きを開始する請求項1に記載の方法。
- 前記現実対象物までの前記可視光プロジェクタの所定距離が、前記可視光プロジェクタを使用して前記現実対象物の上に視覚情報として表示される請求項1に記載の方法。
- さらに、前記深度センサおよび前記カメラを有する前記サブシステムを使用して、前記現実対象物を追跡する工程を具備する請求項4に記載の方法。
- 前記追跡ための1つまたはそれ以上の視覚マーカが前記現実環境に加えられる請求項16に記載の方法。
- 前記深度センサの姿勢を初期化するために反復最近接点アルゴリズムが使用される請求項1に記載の方法。
- 前記可視光プロジェクタの姿勢データは、前記可視光プロジェクタの特定のパラメータをセットするのに使用される請求項1に記載の方法。
- 前記可視光プロジェクタの前記特定のパラメータは、フォーカス、ズーム、輝度の1つ又はそれ以上を含む、請求項19に記載の方法。
- 前記可視光プロジェクタが前記現実対象物に接近した場合、前記可視光プロジェクタの輝度が小さくなる請求項1に記載の方法。
- さらに、ユーザによる接触を認識するために前記深度センサおよび前記カメラを有する前記サブシステムを使用して、前記現実対象物の最表面上の前記ユーザによって相互作用する工程を具備する請求項4に記載の方法。
- 現実環境において現実対象物上にデジタル情報を投影するためのシステムであって、
現実環境において現実対象物の少なくとも一部の上にデジタル情報を投影するために適合された可視光プロジェクタと、
前記投影されたデジタル情報を伴う前記現実対象物の少なくとも1つの画像を取り込むために適応されたカメラと、
前記カメラと共に登録され、前記現実対象物の少なくとも一部の深度データを取り込むために適合された深度センサと、
前記少なくとも1つの画像内の前記投影されたデジタル情報、および前記投影されたデジタル情報に対応する前記現実対象物の少なくとも一部の前記深度データに基づいて、前記可視光プロジェクタと前記現実対象物との間の空間変換を計算するように構成された処理ユニットと、
を具備することを特徴とするシステム。 - 前記カメラおよび前記深度センサは共通の筐体の中に収納されている請求項23に記載のシステム。
- 前記カメラおよび前記深度センサはRGB-Dカメラシステムの機能的ユニットである請求項23または24に記載のシステム。
- 前記可視光プロジェクタ、前記カメラおよび前記深度センサは、ハンドヘルドまたはヘッドマウントデバイスの一部である請求項23に記載のシステム。
- 前記カメラは、可視光カメラを含み、
前記深度センサは、赤外線プロジェクタおよび赤外線カメラを含む請求項23に記載のシステム。 - 可視光カメラはRGBカメラである請求項27に記載のシステム。
- 前記可視光プロジェクタ、前記カメラおよび前記深度センサは、共通の筐体の中に収納され、前記可視光プロジェクタは、隔離または熱緩衝をする材料によって前記カメラおよび前記深度センサから分離されている、請求項23に記載のシステム。
- 前記可視光プロジェクタ、前記カメラおよび前記深度センサは、共通の筐体の中に収納され、前記筐体の基板がカーボン・ファイバー・ラミネートでできている、請求項23に記載のシステム。
- さらに、最新の較正に係る温度と現在の温度との間の温度差がしきい値を超えた場合、前記システムの新たな較正のための必要性についてユーザに通知する較正手段、または自動的にシステムの自己較正を実行する較正手段を含んでいる請求項23に記載のシステム。
- 前記可視光プロジェクタは、通気孔、ズーム光学系、可変フォーカスレンズの少なくとも1つを含んでいる請求項23に記載のシステム。
- さらに赤外線プロジェクタを含み、前記赤外線プロジェクタは、通気孔、ズーム光学系、可変フォーカスレンズの少なくとも1つを含まない請求項23に記載のシステム。
- 前記赤外線プロジェクタは、前記深度センサの一部として使用される請求項33に記載のシステム。
- 現実環境において現実対象物上にデジタル情報を投影する装置であって、
可視光プロジェクタで、現実対象物の少なくとも一部の上にデジタル情報を投影する手段と、
カメラを使用して、前記投影されたデジタル情報を伴う前記現実対象物の少なくとも1つの画像を取り込む手段と、
前記カメラと共に登録され、前記現実対象物または前記現実対象物の少なくとも一部の深度データを取り込む深度センサを提供する手段と、
前記少なくとも1つの画像内の前記投影されたデジタル情報、および前記投影されたデジタル情報に対応する前記現実対象物の少なくとも一部の前記深度データに基づいて、前記可視光プロジェクタと前記現実対象物との間の空間変換を計算する手段と、を具備する装置。 - さらに、前記深度データを使用して前記デジタル情報の深度を推定する手段を具備する請求項35に記載の装置。
- さらに、前記深度データおよび少なくとも1つの画像を使用して前記デジタル情報の3次元位置を推定する手段を具備する請求項35または36に記載の装置。
- 前記深度センサおよび前記カメラは、前記深度センサおよび前記カメラが相互に関係されるように、サブシステム内に構成されており、
前記サブシステムと前記現実対象物との間の空間変換を計算する手段をさらに含む、請求項35に記載の装置。 - 深度センサおよびカメラを有する前記サブシステムと前記現実対象物との間の空間変換を計算することは、前記現実対象物の少なくとも一部の3次元幾何学モデルと、前記カメラによって取り込まれた1つまたはそれ以上の画像からの前記現実対象物の少なくとも一部の3次元記述、または前記深度センサによって取り込まれた前記現実対象物の深度データのいずれかとに基づいている請求項38に記載の装置。
- さらに、第2の深度データを取得するために、前記現実対象物の少なくとも一部の3次元幾何学モデル、および深度センサおよびカメラを有する前記サブシステムと前記現実対象物との間の計算された空間変換を使用して、前記デジタル情報の深度を推定する手段を具備する請求項38に記載の装置。
- さらに、前記可視光プロジェクタを使用して前記デジタル情報として少なくとも1つの視覚パターンを前記現実対象物の表面上に投影する手段と、
前記深度センサおよび前記カメラを使用して前記投影された視覚パターンの深度データを取り込む手段と、を具備する請求項35に記載の装置。 - さらに、前記可視光プロジェクタと前記サブシステムとの間の空間変換を計算する手段と、
前記可視光プロジェクタの内部パラメータを計算または供給する手段と、
前記可視光プロジェクタと前記サブシステムとの間の前記空間変換、および前記サブシステムと前記現実対象物との間の前記空間変換に基づいて、前記可視光プロジェクタと前記現実対象物との間の前記空間変換を計算する手段と、を具備する請求項38に記載の装置。 - さらに、前記サブシステムと前記現実対象物との間の前記空間変換に基づいて、前記サブシステムの座標系から、前記現実対象物の対象物座標系に前記投影された視覚パターンの前記深度データを変換する手段と、
前記可視光プロジェクタの内部パラメータを計算または供給する手段と、
前記変換された深度データに基づいて、前記可視光プロジェクタと前記現実対象物との間の前記空間変換を計算する手段と、を具備する請求項38に記載の装置。 - 前記サブシステムはRGB−Dカメラシステムであり、前記カメラはRGBカメラである、請求項38に記載の装置。
- 前記深度センサは、前記可視光プロジェクタに頼ることなく、前記現実対象物または前記現実対象物の一部の深度データを取り込む請求項35に記載の装置。
- 前記サブシステムと前記可視光プロジェクタとの間の空間変換、および前記可視光プロジェクタの内部パラメータを使用して、第3の深度データが創出され、
前記カメラの少なくとも1つの画像から抽出されたデジタル情報の項目を前記現実対象物上に投影する請求項40に記載の装置。 - 前記深度センサは、第1の深度データである前記深度データを取り込み、
前記装置は、さらに、前記第1の深度データ、前記第2の深度データおよび前記第3の深度データの任意の組み合わせ間の差を計算する手段を具備する請求項46に記載の装置。 - 前記現実対象物までの前記可視光プロジェクタの所定距離が、前記現実対象物まで到達されるまたは超過されることが判定された場合、較正を行う必要についてユーザに通知し、または自動的に較正手続きを開始する請求項35に記載の装置。
- 前記現実対象物までの前記可視光プロジェクタの所定距離が、前記可視光プロジェクタを使用して前記現実対象物の上に視覚情報として表示される請求項35に記載の装置。
- さらに、前記深度センサおよび前記カメラを有する前記サブシステムを使用して、前記現実対象物を追跡する手段を具備する請求項38に記載の装置。
- 前記追跡ための1つまたはそれ以上の視覚マーカが前記現実環境に加えられる請求項50に記載の装置。
- 前記深度センサの姿勢を初期化するために反復最近接点アルゴリズムが使用される請求項35に記載の装置。
- 前記可視光プロジェクタの姿勢データは、前記可視光プロジェクタの特定のパラメータをセットするのに使用される請求項35に記載の装置。
- 前記可視光プロジェクタの前記特定のパラメータは、フォーカス、ズーム、輝度の1つ又はそれ以上を含む、請求項53に記載の装置。
- 前記可視光プロジェクタが前記現実対象物に接近した場合、可視光プロジェクタの輝度が小さくなる請求項35に記載の装置。
- さらに、ユーザによる接触を認識するために、前記深度センサおよび前記カメラを有する前記サブシステムを使用して、前記現実対象物の最表面上の前記ユーザによって相互作用する手段を具備する請求項38に記載の装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2012/077060 WO2014101955A1 (en) | 2012-12-28 | 2012-12-28 | Method of and system for projecting digital information on a real object in a real environment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016509394A JP2016509394A (ja) | 2016-03-24 |
JP6290922B2 true JP6290922B2 (ja) | 2018-03-07 |
Family
ID=47598775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015549997A Active JP6290922B2 (ja) | 2012-12-28 | 2012-12-28 | 現実環境における現実対象物上のデジタル情報を投影するための方法およびシステム |
Country Status (5)
Country | Link |
---|---|
US (2) | US10819962B2 (ja) |
EP (1) | EP2939423A1 (ja) |
JP (1) | JP6290922B2 (ja) |
CN (1) | CN105027562B (ja) |
WO (1) | WO2014101955A1 (ja) |
Families Citing this family (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015016798A2 (en) * | 2013-07-31 | 2015-02-05 | Imcom Yazilim Elektronik Sanayi Ltd. Sti. | A system for an augmented reality application |
WO2015086036A1 (de) * | 2013-12-12 | 2015-06-18 | Testo Ag | Verfahren zur ortsrichtigen projektion einer markierung auf ein objekt und projektionsvorrichtung |
CN105814611B (zh) * | 2013-12-17 | 2020-08-18 | 索尼公司 | 信息处理设备和方法以及非易失性计算机可读存储介质 |
DE102014103010A1 (de) * | 2014-03-06 | 2015-09-10 | Skidata Ag | Digitalkamera |
FR3021784B1 (fr) * | 2014-05-27 | 2017-10-13 | European Aeronautic Defence & Space Co Eads France | Procede de projection de donnees virtuelles et dispositif permettant cette projection |
CN105472358A (zh) * | 2014-10-05 | 2016-04-06 | 万明 | 一种关于视频图像处理的智能终端 |
EP3055734A4 (en) * | 2014-10-28 | 2016-10-26 | Sz Dji Technology Co Ltd | RGB-D IMAGING SYSTEM AND METHOD USING ULTRASONIC DEPTH DETECTION |
JP6192853B2 (ja) * | 2014-12-19 | 2017-09-06 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 超音波深度検出を使用するオプティカルフロー画像化システム及び方法 |
JP6636252B2 (ja) * | 2015-03-19 | 2020-01-29 | 株式会社メガチップス | 投影システム、プロジェクター装置、撮像装置、および、プログラム |
US10306193B2 (en) | 2015-04-27 | 2019-05-28 | Microsoft Technology Licensing, Llc | Trigger zones for objects in projected surface model |
US20160316113A1 (en) * | 2015-04-27 | 2016-10-27 | Microsoft Technology Licensing, Llc | Integrated processing and projection device with object detection |
JP6480824B2 (ja) * | 2015-07-27 | 2019-03-13 | 株式会社日立製作所 | 距離画像センサのパラメータ調整方法、パラメータ調整装置、およびエレベータシステム |
CN105115560B (zh) * | 2015-09-16 | 2019-07-05 | 北京理工大学 | 一种船舱舱容的非接触测量方法 |
US10404962B2 (en) * | 2015-09-24 | 2019-09-03 | Intel Corporation | Drift correction for camera tracking |
US9633435B2 (en) * | 2015-09-25 | 2017-04-25 | Siemens Healthcare Gmbh | Calibrating RGB-D sensors to medical image scanners |
US9665936B2 (en) * | 2015-09-25 | 2017-05-30 | Siemens Healthcare Gmbh | Systems and methods for see-through views of patients |
US9918204B1 (en) * | 2015-12-08 | 2018-03-13 | Bentley Systems, Incorporated | High accuracy indoor tracking |
US20170169612A1 (en) | 2015-12-15 | 2017-06-15 | N.S. International, LTD | Augmented reality alignment system and method |
US20170180652A1 (en) * | 2015-12-21 | 2017-06-22 | Jim S. Baca | Enhanced imaging |
EP3236286B1 (en) * | 2016-04-18 | 2023-01-25 | Otis Elevator Company | Auto commissioning system and method |
JP2017215374A (ja) * | 2016-05-30 | 2017-12-07 | パナソニックIpマネジメント株式会社 | 画像投影システムおよび画像投影方法 |
US10019837B2 (en) | 2016-05-31 | 2018-07-10 | Microsoft Technology Licensing, Llc | Visualization alignment for three-dimensional scanning |
US10591277B2 (en) * | 2016-07-28 | 2020-03-17 | Liberty Reach Inc. | Method and system for measuring outermost dimension of a vehicle positioned at an inspection station |
US10574909B2 (en) | 2016-08-08 | 2020-02-25 | Microsoft Technology Licensing, Llc | Hybrid imaging sensor for structured light object capture |
GB2553148A (en) * | 2016-08-26 | 2018-02-28 | Nctech Ltd | Modelling system and method |
EP4131172A1 (en) * | 2016-09-12 | 2023-02-08 | Dassault Systèmes | Deep convolutional neural network for 3d reconstruction of a real object |
US10410331B2 (en) * | 2016-09-29 | 2019-09-10 | National Technology & Engineering Solutions Of Sandia, Llc | Computed tomography object inspection system |
US20180114363A1 (en) * | 2016-10-25 | 2018-04-26 | Microsoft Technology Licensing, Llc | Augmented scanning of 3d models |
WO2018095789A1 (en) * | 2016-11-22 | 2018-05-31 | Lego A/S | System for acquiring a 3d digital representation of a physical object |
DE102017202652A1 (de) * | 2017-02-20 | 2018-08-23 | Siemens Aktiengesellschaft | Vorrichtung und Verfahren zur Kalibrierung mittels projizierter Muster |
DE102017202651A1 (de) * | 2017-02-20 | 2018-08-23 | Siemens Aktiengesellschaft | Vorrichtung und Verfahren zur Kalibrierung mittels projizierter Muster mit virtueller Ebene |
WO2018183961A1 (en) | 2017-03-31 | 2018-10-04 | Canvas Construction, Inc. | Automated drywall sanding system and method |
US20210117680A1 (en) * | 2017-05-10 | 2021-04-22 | Humane, Inc. | Wearable multimedia device and cloud computing platform with laser projection system |
IL272882B (en) | 2017-09-25 | 2022-07-01 | Canvas Construction Inc | Automatic system for planning plaster walls and method |
CN107730561B (zh) | 2017-10-17 | 2021-07-06 | 奥比中光科技集团股份有限公司 | 深度相机温度误差校正方法及系统 |
CN108460803B (zh) * | 2018-01-19 | 2020-12-08 | 杭州映墨科技有限公司 | 一种基于棋盘格图案的ar沙盘校准模型计算方法 |
JP6734583B2 (ja) * | 2018-02-23 | 2020-08-05 | 株式会社市川工務店 | 橋梁などの構造物を検査するための画像処理システム、画像処理方法及びプログラム |
CN108259869B (zh) * | 2018-02-26 | 2020-08-04 | 神画科技(深圳)有限公司 | 一种投影机及其梯形校正的温度补偿方法 |
JP6856583B2 (ja) | 2018-07-25 | 2021-04-07 | ファナック株式会社 | センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム |
WO2020024575A1 (zh) | 2018-08-01 | 2020-02-06 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
WO2020024576A1 (zh) | 2018-08-01 | 2020-02-06 | Oppo广东移动通信有限公司 | 摄像头校准方法和装置、电子设备、计算机可读存储介质 |
JP6930739B2 (ja) * | 2018-08-03 | 2021-09-01 | 株式会社プレースホルダ | キャリブレーションシステム |
JP6856590B2 (ja) | 2018-08-31 | 2021-04-07 | ファナック株式会社 | センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム |
CN111083453B (zh) * | 2018-10-18 | 2023-01-31 | 中兴通讯股份有限公司 | 一种投影装置、方法及计算机可读存储介质 |
EP3908431A4 (en) | 2019-02-21 | 2022-10-19 | Canvas Construction, Inc. | SYSTEM AND METHOD FOR SURFACE FINISH QUALITY ASSESSMENT |
ES2954842T3 (es) * | 2019-03-13 | 2023-11-27 | Oreal | Sistemas, dispositivos, y métodos para proyectar contenido digital sobre la superficie facial de un usuario |
CN112150372B (zh) * | 2019-06-28 | 2024-02-02 | 深圳创想未来机器人有限公司 | 一种深度图矫正方法、深度图矫正装置和机器人 |
CN110990107A (zh) * | 2019-12-16 | 2020-04-10 | 成都极米科技股份有限公司 | 阅读辅助方法、装置及电子设备 |
CN111427331B (zh) * | 2020-03-24 | 2022-03-04 | 新石器慧通(北京)科技有限公司 | 无人驾驶车辆的感知信息展示方法、装置和电子设备 |
JP2021179733A (ja) * | 2020-05-12 | 2021-11-18 | Necプラットフォームズ株式会社 | 装着装置、処理方法、プログラム |
JP2021051318A (ja) * | 2020-12-03 | 2021-04-01 | パナソニックIpマネジメント株式会社 | 画像投影システムおよび画像投影方法 |
US11827203B2 (en) * | 2021-01-14 | 2023-11-28 | Ford Global Technologies, Llc | Multi-degree-of-freedom pose for vehicle navigation |
CN117044188A (zh) | 2021-03-10 | 2023-11-10 | 川崎重工业株式会社 | 作业信息投影系统以及相对信息校准方法 |
US12094220B2 (en) | 2022-02-16 | 2024-09-17 | GM Global Technology Operations LLC | Methods and systems for camera to ground alignment |
US12043269B2 (en) | 2022-02-16 | 2024-07-23 | GM Global Technology Operations LLC | Methods and systems for camera to ground alignment |
US12094169B2 (en) * | 2022-02-16 | 2024-09-17 | GM Global Technology Operations LLC | Methods and systems for camera to ground alignment |
Family Cites Families (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5313234A (en) * | 1991-07-26 | 1994-05-17 | Sayett Group, Inc. | Liquid crystal projector |
AU2001229572A1 (en) * | 2000-01-18 | 2001-07-31 | The Trustees Of The University Of Pennsylvania | Vision-based human computer interface system |
JP2001320652A (ja) | 2000-05-11 | 2001-11-16 | Nec Corp | プロジェクタ装置 |
JP4042474B2 (ja) | 2001-08-08 | 2008-02-06 | セイコーエプソン株式会社 | 光学装置、およびプロジェクタ |
JP2003270719A (ja) * | 2002-03-13 | 2003-09-25 | Osaka Industrial Promotion Organization | 投影方法、投影装置、作業支援方法及び作業支援システム |
JP4026745B2 (ja) * | 2002-03-26 | 2007-12-26 | 財団法人大阪産業振興機構 | 医療用システムおよびその製造方法 |
EP1567988A1 (en) * | 2002-10-15 | 2005-08-31 | University Of Southern California | Augmented virtual environments |
JP4016876B2 (ja) | 2003-04-23 | 2007-12-05 | セイコーエプソン株式会社 | プロジェクタ |
JP3951984B2 (ja) * | 2003-08-22 | 2007-08-01 | 日本電気株式会社 | 画像投影方法、及び画像投影装置 |
JP4283632B2 (ja) * | 2003-10-16 | 2009-06-24 | 日本電信電話株式会社 | 情報提示装置、情報提示システム、情報提示方法および情報提示プログラム |
JP2006031506A (ja) * | 2004-07-20 | 2006-02-02 | Brother Ind Ltd | 画像入出力装置 |
US7244029B2 (en) * | 2004-10-08 | 2007-07-17 | Virtek Vision International Inc. | Laser projector having temperature control |
WO2007025363A1 (en) * | 2005-09-02 | 2007-03-08 | Neptec | Apparatus and method for tracking an object |
US7433024B2 (en) | 2006-02-27 | 2008-10-07 | Prime Sense Ltd. | Range mapping using speckle decorrelation |
WO2008041753A1 (fr) | 2006-10-04 | 2008-04-10 | Nikon Corporation | Dispositif électronique, appareil de prise de vues électronique, dispositif de source lumineuse, dispositif d'illumination et dispositif de projection |
DE102008007338B4 (de) | 2007-02-06 | 2011-08-25 | Mitsubishi Electric Corp. | Keramikpulver für einen Rohling, mehrschichtiges Keramiksubstrat und Verfahren zur Herstellung eines mehrschichtigen Keramiksubstrats |
JP2008203490A (ja) | 2007-02-20 | 2008-09-04 | Seiko Epson Corp | プロジェクタ |
US8150142B2 (en) | 2007-04-02 | 2012-04-03 | Prime Sense Ltd. | Depth mapping using projected patterns |
US8172407B2 (en) | 2007-05-16 | 2012-05-08 | Honda Motor Co., Ltd. | Camera-projector duality: multi-projector 3D reconstruction |
BRPI0917864A2 (pt) * | 2008-08-15 | 2015-11-24 | Univ Brown | aparelho e método para estimativa da forma corporal |
JP5287066B2 (ja) | 2008-09-12 | 2013-09-11 | セイコーエプソン株式会社 | プロジェクタおよびその制御方法 |
JP2010078974A (ja) | 2008-09-26 | 2010-04-08 | Panasonic Corp | 投射型表示装置 |
JP2010243890A (ja) | 2009-04-08 | 2010-10-28 | Seiko Epson Corp | プロジェクター、プログラムおよび情報記憶媒体 |
US8442016B1 (en) * | 2009-05-05 | 2013-05-14 | Marvell International Ltd. | Co-existance of bluetooth and wireless local area network |
JP5567908B2 (ja) * | 2009-06-24 | 2014-08-06 | キヤノン株式会社 | 3次元計測装置、その計測方法及びプログラム |
US8355601B2 (en) | 2010-01-15 | 2013-01-15 | Seiko Epson Corporation | Real-time geometry aware projection and fast re-calibration |
US8405680B1 (en) * | 2010-04-19 | 2013-03-26 | YDreams S.A., A Public Limited Liability Company | Various methods and apparatuses for achieving augmented reality |
KR101657120B1 (ko) * | 2010-05-06 | 2016-09-13 | 엘지전자 주식회사 | 이동 단말기 및 이것의 영상 디스플레이 방법 |
JP5609561B2 (ja) | 2010-11-10 | 2014-10-22 | ソニー株式会社 | 投影装置 |
JP2012103113A (ja) * | 2010-11-10 | 2012-05-31 | Honda Motor Co Ltd | 測定装置、位置測定システム、測定方法、較正方法及びプログラム |
CN102109745A (zh) | 2011-01-21 | 2011-06-29 | 鸿富锦精密工业(深圳)有限公司 | 具有亮度调整功能的投影装置及方法 |
US9329469B2 (en) * | 2011-02-17 | 2016-05-03 | Microsoft Technology Licensing, Llc | Providing an interactive experience using a 3D depth camera and a 3D projector |
US8760499B2 (en) * | 2011-04-29 | 2014-06-24 | Austin Russell | Three-dimensional imager and projection device |
US8570372B2 (en) * | 2011-04-29 | 2013-10-29 | Austin Russell | Three-dimensional imager and projection device |
CN103620535B (zh) * | 2011-06-13 | 2017-06-27 | 西铁城时计株式会社 | 信息输入装置 |
US9117274B2 (en) * | 2011-08-01 | 2015-08-25 | Fuji Xerox Co., Ltd. | System and method for interactive markerless paper documents in 3D space with mobile cameras and projectors |
US9520072B2 (en) * | 2011-09-21 | 2016-12-13 | University Of South Florida | Systems and methods for projecting images onto an object |
US20130229396A1 (en) * | 2012-03-05 | 2013-09-05 | Kenneth J. Huebner | Surface aware, object aware, and image aware handheld projector |
US9275302B1 (en) * | 2012-08-24 | 2016-03-01 | Amazon Technologies, Inc. | Object detection and identification |
US8855404B2 (en) * | 2012-08-27 | 2014-10-07 | The Boeing Company | Methods and systems for inspecting a workpiece |
US8979271B2 (en) * | 2012-09-25 | 2015-03-17 | Google Inc. | Facilitation of temperature compensation for contact lens sensors and temperature sensing |
US9239627B2 (en) * | 2012-11-07 | 2016-01-19 | Panasonic Intellectual Property Corporation Of America | SmartLight interaction system |
US20140168261A1 (en) * | 2012-12-13 | 2014-06-19 | Jeffrey N. Margolis | Direct interaction system mixed reality environments |
-
2012
- 2012-12-28 JP JP2015549997A patent/JP6290922B2/ja active Active
- 2012-12-28 CN CN201280078216.9A patent/CN105027562B/zh active Active
- 2012-12-28 EP EP12816676.6A patent/EP2939423A1/en not_active Withdrawn
- 2012-12-28 WO PCT/EP2012/077060 patent/WO2014101955A1/en active Application Filing
- 2012-12-28 US US14/758,121 patent/US10819962B2/en active Active
-
2020
- 2020-09-22 US US17/028,360 patent/US11652965B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11652965B2 (en) | 2023-05-16 |
CN105027562B (zh) | 2019-02-22 |
US20150350618A1 (en) | 2015-12-03 |
WO2014101955A1 (en) | 2014-07-03 |
EP2939423A1 (en) | 2015-11-04 |
CN105027562A (zh) | 2015-11-04 |
US20210076014A1 (en) | 2021-03-11 |
US10819962B2 (en) | 2020-10-27 |
JP2016509394A (ja) | 2016-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6290922B2 (ja) | 現実環境における現実対象物上のデジタル情報を投影するための方法およびシステム | |
JP7294396B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
KR102255031B1 (ko) | 부정합 검출 시스템, 복합 현실 시스템, 프로그램 및 부정합 검출 방법 | |
JP5773944B2 (ja) | 情報処理装置および情報処理方法 | |
CN104937635B (zh) | 基于模型的多假设目标追踪器 | |
KR101954855B1 (ko) | 볼륨 내 물체의 심도 맵핑을 위한 광 패턴의 강도 변화의 사용 | |
CN106663334B (zh) | 通过计算装置执行的方法、移动通信装置和存储介质 | |
Canessa et al. | Calibrated depth and color cameras for accurate 3D interaction in a stereoscopic augmented reality environment | |
JP5587137B2 (ja) | 測定装置及び測定方法 | |
JP6723061B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP2018106661A (ja) | 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 | |
Iwai et al. | Shadow removal of projected imagery by occluder shape measurement in a multiple overlapping projection system | |
CN107330974B (zh) | 商品展示方法、装置及移动设备 | |
KR102460361B1 (ko) | 캘리브레이션 시스템 및 방법 | |
TWI454653B (zh) | 三維絕對座標偵測系統、互動三維顯示系統以及辨識物體之三維座標的方法 | |
JP2018132319A (ja) | 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体 | |
JP7029253B2 (ja) | 情報処理装置及びその方法 | |
JP6643825B2 (ja) | 装置及び方法 | |
JP6948363B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR101904733B1 (ko) | 3d 카메라를 이용한 입력 위치 검출 장치 | |
Smith et al. | Michael Marner, Bruce H. Thomas | |
JP2016024728A (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
Bergamasco et al. | A practical setup for projection-based augmented maps | |
JP2019168252A (ja) | 処理装置、3次元モデルの分割方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20160422 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160614 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160624 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160725 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20161025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170417 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6290922 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |