JP2017111724A - 配管用ヘッドマウントディスプレイ - Google Patents
配管用ヘッドマウントディスプレイ Download PDFInfo
- Publication number
- JP2017111724A JP2017111724A JP2015247230A JP2015247230A JP2017111724A JP 2017111724 A JP2017111724 A JP 2017111724A JP 2015247230 A JP2015247230 A JP 2015247230A JP 2015247230 A JP2015247230 A JP 2015247230A JP 2017111724 A JP2017111724 A JP 2017111724A
- Authority
- JP
- Japan
- Prior art keywords
- display
- unit
- piping
- area
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 13
- 238000003466 welding Methods 0.000 claims description 54
- 238000007689 inspection Methods 0.000 claims description 21
- 230000005540 biological transmission Effects 0.000 abstract 1
- 238000001514 detection method Methods 0.000 description 69
- 238000000034 method Methods 0.000 description 59
- 210000003811 finger Anatomy 0.000 description 51
- 238000010586 diagram Methods 0.000 description 30
- 230000008569 process Effects 0.000 description 25
- 239000011521 glass Substances 0.000 description 16
- 230000007246 mechanism Effects 0.000 description 15
- 210000000323 shoulder joint Anatomy 0.000 description 12
- 210000003813 thumb Anatomy 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 210000004247 hand Anatomy 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- 101100079104 Schizosaccharomyces pombe (strain 972 / ATCC 24843) arm1 gene Proteins 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 4
- 230000009189 diving Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000010287 polarization Effects 0.000 description 3
- 101100458111 Bacillus subtilis (strain 168) mreD gene Proteins 0.000 description 2
- 101100491149 Caenorhabditis elegans lem-3 gene Proteins 0.000 description 2
- 101150089878 RAD2 gene Proteins 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 210000004932 little finger Anatomy 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 244000060701 Kaempferia pandurata Species 0.000 description 1
- 235000016390 Uvaria chamae Nutrition 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000005336 cracking Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
特許文献1に記載の高速画像生成表示方法においては、立体構造をもつ対象を2次元画面に投影して表示する高速画像生成表示方法であって、対象の構成面は、対象座標系において、領域の大きさを少なくとも1つの要素として階層的に記述され、任意の視点から見た時の該対象の構成面を2次元画面へ投影するに際して、表示基準座標系原点または視点から対象座標系で表される該対象の任意の点までの距離を少なくとも1つのパラメータとして階層度を設定することを特徴とする。
特許文献2に記載の立体視画像生成方法は、三次元座標を有するポリゴンで構成されるオブジェクトのうち、平面視表示させるオブジェクトデータを基準カメラを原点とする基準カメラ座標系データに、立体視表示させるオブジェクトのデータを所定の視差角を有する右眼用及び左眼用視差カメラをそれぞれ原点とする右眼用及び左眼用視差カメラ座標系データに変換し、基準カメラ座標系のオブジェクトのデータと、右眼用視差カメラ座標系のオブジェクトのデータを右眼用画像データとして、ビデオメモリに描画し、基準カメラ座標系のオブジェクトのデータと、左眼用視差カメラ座標系のオブジェクトのデータを左眼用画像データとして、ビデオメモリに描画し、ビデオメモリに描画された右眼用画像データと左眼用画像データを合成して、立体視オブジェクトと平面視オブジェクトの混在する画像を立体視表示装置に表示することを特徴とする。
特許文献3に記載の方法は、ユーザの気質を示す属性を視覚表示に適用するための方法であって、ユーザの視覚表示をレンダリングするステップと、物理的な空間のデータを受信するステップであって、データが、物理的な空間内のユーザを代表しているものと、ユーザの気質を推論するために、少なくとも1つの検出可能な特徴を解析するステップと、ユーザの気質を示す属性を視覚表示に適用するステップと、を含む。
特許文献4に記載のシステムは、入力デバイスと、プロセッサに結合され、入力デバイスの方位を検出する検出器と、を備えているシステムであって、入力デバイスが、方位に対応する複数のモード方位を有し、複数のモード方位が、ジェスチャ制御システムの複数の入力モードに対応し、検出器が、ジェスチャ制御システムに結合され、方位に応答して、複数の入力モードからの入力モードの選択を自動的に制御する。
しかしながら、海中または海底に設置された配管へ、太陽の光が届かないことが多い。
または、ヘッドライトを頭部に設けて作業を行う場合もあるが、ヘッドライトの灯りは、一部分にしか届かず、作業低下が生じやすい。
本発明の他の目的は、太陽の光が届かない配管の点検または溶接を容易に行うことができる配管用ヘッドマウントディスプレイを提供することである。
一局面に従う配管用ヘッドマウントディスプレイは、立体視像を生成可能な表示装置と、対象物までの距離を測定する深度センサと、配管を撮像するための紫外線撮像装置と、深度センサによる対象物の動作に応じて表示装置の表示を制御する制御部と、を含み、制御部は、紫外線撮像装置により配管を表示装置に表示する。
第2の発明にかかる配管用ヘッドマウントディスプレイは、一局面に従う配管用ヘッドマウントディスプレイにおいて、制御部は、深度センサによる対象物の動作に応じて配管の点検個所リストおよび配管位置を表示してもよい。
第3の発明にかかる配管用ヘッドマウントディスプレイは、一局面または第2の発明にかかる配管用ヘッドマウントディスプレイにおいて、制御部は、深度センサによる対象物の動作に応じて紫外線撮像装置の配管の映像から溶接すべき位置を判定し、配管の溶接位置を前記表示装置に表示してもよい。
第4の発明にかかる配管用ヘッドマウントディスプレイは、第3の発明にかかる配管用ヘッドマウントディスプレイにおいて、制御部は、配管自動溶接装置の取り付け位置を配管の表示装置に表示してもよい。
第5の発明にかかる配管用ヘッドマウントディスプレイは、一局面から第4の発明にかかる配管用ヘッドマウントディスプレイにおいて、対象物は、少なくとも人体の指、掌、手、腕、またはグローブ装着の手であってもよい。
また、グローブ等を装着した場合でも、制御部は、深度カメラにより確実に認識することができる。
なお、グローブを例示したが、これに限定されず、手袋等、任意の保護道具を用いてもよい。
また、本発明は、以下に説明する眼鏡表示装置に限定されるものではなく、他の入出力装置、表示装置、テレビジョン、モニタ、プロジェクタ等にも適用することができる。
図1は、一実施の形態にかかる眼鏡表示装置100の基本構成の一例を示す模式的外観正面図であり、図2は、眼鏡表示装置100の一例を示す模式的外観斜視図である。
図1および図2に示すように、眼鏡ユニット200は、眼鏡フレーム210、一対の半透過ディスプレイ220および一対の表示調整機構600からなる。眼鏡フレーム210は、主にリムユニット211、テンプルユニット212を含む。
眼鏡フレーム210のリムユニット211により一対の半透過ディスプレイ220が支持される。また、リムユニット211には、一対の表示調整機構600が設けられる。さらに、リムユニット211には、赤外線検知ユニット410およびユニット調整機構500が設けられる。ユニット調整機構500の詳細については後述する。
一対の表示調整機構600は、後述するように一対の半透過ディスプレイ220の角度および位置を調整することができる。一対の表示調整機構600の詳細については、後述する。
また、当該レンズ類の一部に、半透過ディスプレイ220を埋め込んで設けてもよい。
また、一対の表示調整機構600を半透過ディスプレイ220の側部に設けているが、これに限定されず、半透過ディスプレイ220の周囲または内部に設けてもよい。
次に、通信システム300について説明を行なう。
通信システム300は、バッテリーユニット301、アンテナモジュール302、カメラユニット303、スピーカユニット304、GPS(Global Positioning System)ユニット307、マイクユニット308、SIM(Subscriber Identity Module Card)ユニット309およびメインユニット310を含む。
なお、カメラユニット303にはCCDセンサが備えられてもよい。スピーカユニット304は、ノーマルイヤホンであってもよいし、骨伝導イヤホンであってもよい。SIMユニット309には、NFC(Near Field Communication:近距離無線通信)ユニットおよび他の接触式ICカードユニット、ならびに非接触式ICカードユニットを含んでもよい。
したがって、ユーザは、眼鏡表示装置100を用いて、通信装置、スピーカおよびマイクにより、携帯電話と同様の通話機能を使用することができる。また、眼鏡型であるので、両手を利用せず、通話を行なうことができる。
続いて、操作システム400は、赤外線検知ユニット410、ジャイロセンサユニット420、加速度検知ユニット430および制御ユニット450からなる。赤外線検知ユニット410は、主に赤外線照射素子411および赤外線検知カメラ412からなる。
図2に示すように、ユニット調整機構500は、赤外線検知ユニット410の角度を調整することができる。具体的には、ユニット調整機構500は、矢印V5の水平軸周り、および、矢印H5の垂直軸周り、に赤外線検知ユニット410の角度を調整可能な構造である。
例えば、制御ユニット450により所定のジェスチャを認識した場合に、ユニット調整機構500を所定の角度で動作させてもよい。その場合、ユーザは、所定のジェスチャを行うことにより赤外線検知ユニット410の角度の調整を行うことができる。
ジェスチャ識別ユニット456は、ジェスチャデータ記録ユニット455に記録されたジェスチャデータを参照し、解剖学的特徴が識別された外形からジェスチャの識別を行なう。なお、ジェスチャ識別ユニット456は、ジェスチャデータ記録ユニット455からのジェスチャデータを参照することとしているが、参照することに限定されず、他の任意のデータを参照してもよく、全く参照することなく処理してもよい。
以上により、図5(a)に示すように、手のジェスチャを認識する。
これによって、図5(b)に示すように、たとえば写真アプリによる画像が表示される。この際、当該画面には、カメラユニット303からの撮像データが表示されてよい。
次に、操作システム400の赤外線検知ユニット410の検知領域と、一対の半透過ディスプレイ220の仮想表示領域との関係について説明を行なう。
図6は、赤外線検知ユニット410の検知領域と、一対の半透過ディスプレイ220の仮想表示領域とを説明するための模式的斜視図であり、図7は図6の上面図であり、図8は、図6の側面図である。
三次元空間検知領域4103Dは、赤外線検知ユニット410からの円錐状または角錐状の三次元空間からなる。
また、本実施の形態においては、赤外線検知ユニット410を1個設けることとしているが、これに限定されず、赤外線検知ユニット410を複数個設けてもよいし、赤外線照射素子411を1個、赤外線検知カメラ412を複数個設けてもよい。
すなわち、実際には眼鏡表示装置100の半透過ディスプレイ220に表示されるものの、ユーザは、右目のイメージは右目側の半透過ディスプレイ220を透過し三次元空間領域2203DRで認識し、左目のイメージは左目側の半透過ディスプレイ220を透過し三次元空間領域2203DLで認識する。その結果、認識された両イメージがユーザの脳内で合成されることにより、仮想イメージ表示領域2203Dで仮想イメージとして認識することができる。
また、図8に示すように、一対の半透過ディスプレイ220よりも赤外線検知ユニット410が上方(y軸正方向)に配設されている場合について説明しているが、鉛直方向(y軸方向)に対して、赤外線検知ユニット410の配設位置が半透過ディスプレイ220よりも下方(y軸負方向)または半透過ディスプレイ220と同位置であっても、同様に、仮想イメージ表示領域2203Dは、三次元空間検知領域4103Dと共有する空間領域を有する。
続いて、図9から図11は、図6から図8において示した検知領域と仮想表示領域との他の例を示す模式図である。
この場合、入出力装置900による仮想イメージ表示領域2203Dが、三次元空間検知領域4103Dと共有の空間領域として生じる。
この場合でも、入出力装置900による仮想イメージ表示領域2203Dが、三次元空間検知領域4103Dと共有の空間領域として生じる。
続いて、検知領域における操作領域とジェスチャ領域とについて説明する。図12および図13は、検知領域における操作領域と、ジェスチャ領域との一例を示す模式図である。
また、三次元空間検知領域4103D内における操作領域410c以外の部分で、かつ腕の移動領域Lおよび移動領域Rを合わせた領域と重なる部分をジェスチャ領域410gとして設定する。
次いで、キャリブレーション処理について説明を行なう。図14は、キャリブレーション処理の説明を行なうためのフローチャートである。
また、キャリブレーション処理には、ユーザの個々で異なる指の長さ、手の長さ、腕の長さの調整も行なう。
すなわち、ユーザによりユーザの個々で異なる指の長さ、手の長さ、腕の長さが異なるので、操作領域410cの調整を行なうものである。
なお、ジェスチャ領域410gは、仮想イメージ表示領域2203Dと重ならないように配置しかつ深さ方向(z軸正方向)に厚みを持たせることが好ましい。
そのため、赤外線検知ユニット410からの信号を無処理のまま使用すると、ユーザは、手先が仮想イメージ表示領域2203Dから外れたとしても、そのような状態であることを体感しにくい。
その結果、ユーザは、両腕を最大限に伸ばした状態、または少し曲げた状態で、奥行きのある平面状の仮想イメージ表示領域2203D内の中央部から端部まで操作することができる。
続いて、半透過ディスプレイ220に、像の周囲を指で囲んでくださいと、表示を行なう(ステップS16)。ここで、像の近傍に指の形の像を薄く表示してもよいし、半透過ディスプレイ220に表示を行なう代わりにスピーカから音声により指示をユーザに伝えてもよい。
なお、上記においては、指で矩形を形作り、そのように定められた矩形と、像の外縁の矩形にあわせる。このことによって、指により定められた矩形の視認サイズおよび位置と像の外縁の矩形の視認サイズ及び位置とを合わせることとした。しかしながら、指によって形状を定める手法はこれに限定されず、表示された像の外縁を指でなぞる手法、表示された像の外縁上の複数の点を指で指し示す手法等、他の任意の手法であってもよい。また、これらの手法を複数のサイズの像について行ってもよい。
次いで、指認識について説明を行い、その後掌認識、腕認識の順で説明を行なう。図15は、指認識の一例を示す模式図である。図15において、(A)は指の先端付近の拡大図であり、(B)は指の根元付近の拡大図である。図16は、指認識の処理の一例を示すフローチャートである。
次に、赤外線検知ユニット410により画像データをピクセル単位で距離に置き換える(ステップS23)。この場合、赤外線の明るさは、距離の三乗に反比例する。これを利用し、デプスマップを作成する(ステップS24)。
続いて、二値化した画像データから約100個の頂点を持つポリゴンを作成する(ステップS26)。そして、頂点が滑らかになるようにローパスフィルタ(LPF)により、より多くの頂点pnを有する新たな多角形を作成することによって、図15に示す手の外形OFを抽出する(ステップS27)。
なお、本実施の形態においては、ステップS26において二値化したデータからポリゴンを作成するために抽出する頂点の数を約100個としているが、これに限定されず、1000個、その他の任意の個数であってもよい。
その後、ステップS27で作成された新たな多角形と、ステップS28で作成された凸包との共有の頂点p0を抽出する(ステップS29)。このように抽出された共有の頂点p0自体を指の先端点として用いることができる。
さらに、頂点p0の位置に基づいて算出される他の点を指の先端点として用いてもよい。例えば、図15(A)に示すように頂点p0における外形OFの内接円の中心を先端点P0として算出することもできる。
全ての指について同様の処理を行なうことで、全ての指のスケルトンを得る。これにより、手のポーズを認識することができる。すなわち、親指、人差し指、中指、薬指、小指のいずれの指が広げられ、いずれの指が握られているかを認識することができる。
グラフィック演算ユニット463は、キャリブレーションサービスユニット461を用いてキャリブレーションデータ記録ユニット457を参照し、表示の補正を行なう(ステップS36)。
最後に、ディスプレイ演算ユニット464により半透過ディスプレイ220に表示を行なう(ステップS37)。
次いで、図17は、掌認識の一例を示す模式図である。
次いで、腕認識について説明を行なう。本実施の形態において、腕認識は、指、掌および親指のいずれかを認識した後に実施する。なお、腕認識は、指、掌および親指のいずれかを認識する前、またはそれらの少なくともいずれかと同時に実施してもよい。
その後、抽出した外形に外接する四角枠を選定する。本実施の形態においては、当該四角枠は、平行四辺形または長方形からなる。
この場合、平行四辺形または長方形は、対向する長辺を有するので、長辺の延在方向から腕の延在方向を認識することができ、長辺の向きから腕の向きを判定することが出来る。なお、ステップS32の処理と同様に、直前の数フレームの画像データと比較して、腕の動きを検知させてもよい。
次に、図19は、眼鏡表示装置100の半透過ディスプレイ220の表示の一例を示す模式図である。
図20から図23は、図12から図14において説明した操作領域410cの他の例を示す模式図である。
図20および図21は、ユーザを上方から視認した状態を示す模式図であり、図22および図23は、ユーザを側方から視認した状態を示す模式図である。
すなわち、図21においては、ユーザが水平方向に手H1を移動させようとしているが、直線に近い移動軌跡RL2を通ることとなる。この場合、移動軌跡RL2の曲率半径はrad2である。ここで、人間工学に基づいて、当然のことながら、曲率半径rad1は、曲率半径rad2よりも小さい値となる。
すなわち、図23においては、ユーザが鉛直方向に手H1を移動させようとしているが、直線に近い移動軌跡RL4を通ることとなる。この場合、移動軌跡RL4の曲率半径はrad4である。ここで、人間工学に基づいて、当然のことながら、曲率半径rad3は、曲率半径rad4よりも小さい値となる。
図24は、眼鏡表示装置100を配管の点検溶接に用いた場合の制御ユニット450の動作の一例を示すフローチャートである。
眼鏡表示装置100の制御ユニット450は、眼鏡表示装置100の半透過ディスプレイ220にカメラユニット303で撮像された映像を表示する。本実施の形態において、カメラユニット303は、紫外線カメラからなる。
制御ユニット450は、半透過ディスプレイ220に、紫外線のカメラユニット303で撮像した配管PIPE(図25参照)を表示する(ステップS71)。ここで、半透過ディスプレイ220に表示されるのは、半透過ディスプレイ220の仮想イメージ表示領域2203Dに表示されている。
次いで、制御ユニット450は、ステップS72の処理の手H1の動作に応じて半透過ディスプレイ220の仮想イメージ表示領域2203Dに、点検溶接リストを表示する(ステップS73)。
例えば、制御ユニット450は、手H1の人差し指の指先が3秒位置させられたと認識した場合(ステップS74)、半透過ディスプレイ220のチェック印の四角枠に、レ点を表示させる(ステップS75)。
上記と同様に制御ユニット450は、手H1の人差し指の指先が3秒位置させられたと認識した場合、半透過ディスプレイ220のチェック印の四角枠に、レ点を表示させる。
また、図27は、溶接する場合の制御ユニット450の動作の一例を示すフローチャートである。
まず、制御ユニット450は、半透過ディスプレイ220に溶接位置Dを表示する(ステップS73a)。次に、制御ユニット450は、カメラユニット303により現実の溶接棒rodAの位置を認識する(ステップS73b)。
この場合、図25に示すように、制御ユニット450は、半透過ディスプレイ220に溶接棒をrodBの位置に移動させるように指示する。
その結果、ダイバーは、視界が悪い環境であっても、溶接すべき位置を容易に認識することができる。
制御ユニット450は、ステップS73dの処理において、薄肉部があると判定した場合、すなわち、位置Dにおいて他の部分と比較して厚みが薄い薄肉部があると判定した場合、図26に示すように、溶接不足または未溶接部分として表示が行われる。
その結果、制御ユニット450は、図26に示すように、配管PIPEの溶接不足の部分を表示する。
制御ユニット450は、位置Dに薄肉部がないと判定した場合、処理を終了する。その後、ダイバーは、手H1によりチェック印にレ点を入れて次の点検溶接項目に移行する。
続いて、自動溶接装置ATWを用いて配管PIPEの溶接を行う場合について説明する。図28は、自動溶接装置ATWを設置する位置の表示の一例を示す模式図である。ここで、自動溶接装置ATWとは、自動的に配管PIPEの周囲を移動して溶接を行う装置である。
図28に示すように、ダイバーは、半透過ディスプレイ220に表示された配管PIPEの位置Dに自動溶接装置ATWを配置する。その結果、自動溶接装置ATWにより自動的に配管PIPEの位置Dに溶接が施される。
220 半透過ディスプレイ
2203D 仮想イメージ表示領域(共有領域)
300 通信システム
303 カメラユニット
410 赤外線検知ユニット
410c 操作領域
420 ジャイロセンサユニット
430 加速度検知ユニット
4103D 三次元空間検知領域
450 制御ユニット
454 解剖学的認識ユニット
456 ジェスチャ識別ユニット
460 イベントサービスユニット
461 キャリブレーションサービスユニット
H1 手
RP 右肩関節
LP 左肩関節
Claims (5)
- 立体視像を生成可能な表示装置と、
対象物までの距離を測定する深度センサと、
配管を撮像するための紫外線撮像装置と、
前記深度センサによる前記対象物の動作に応じて前記表示装置の表示を制御する制御部と、を含み、
前記制御部は、前記紫外線撮像装置により前記配管を前記表示装置に表示する、配管用ヘッドマウントディスプレイ。 - 前記制御部は、前記深度センサによる前記対象物の動作に応じて前記配管の点検個所リストおよび前記配管位置を表示する、請求項1記載の配管用ヘッドマウントディスプレイ。
- 前記制御部は、前記深度センサによる前記対象物の動作に応じて前記紫外線撮像装置の前記配管の映像から溶接すべき位置を判定し、前記配管の溶接位置を前記表示装置に表示する、請求項1または2記載の配管用ヘッドマウントディスプレイ。
- 前記制御部は、配管自動溶接装置の取り付け位置を前記配管の前記表示装置に表示する、請求項3記載の配管用ヘッドマウントディスプレイ。
- 前記対象物は、少なくとも人体の指、掌、手、腕、またはグローブ装着の手である、請求項1から4のいずれか1項に記載の配管用ヘッドマウントディスプレイ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015247230A JP2017111724A (ja) | 2015-12-18 | 2015-12-18 | 配管用ヘッドマウントディスプレイ |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015247230A JP2017111724A (ja) | 2015-12-18 | 2015-12-18 | 配管用ヘッドマウントディスプレイ |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017111724A true JP2017111724A (ja) | 2017-06-22 |
Family
ID=59081285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015247230A Pending JP2017111724A (ja) | 2015-12-18 | 2015-12-18 | 配管用ヘッドマウントディスプレイ |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017111724A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200099781A (ko) * | 2019-02-15 | 2020-08-25 | 한국광기술원 | 넓은 화각을 갖는 광학장치 및 이를 포함한 증강현실 장치 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008504597A (ja) * | 2004-06-21 | 2008-02-14 | トータルフェルスバレッツ フォルスクニングスインスティテュート | 周辺界の画像を表示するための装置及び方法 |
US20140184496A1 (en) * | 2013-01-03 | 2014-07-03 | Meta Company | Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities |
US20140346158A1 (en) * | 2013-05-24 | 2014-11-27 | Lincoln Global, Inc. | Systems and methods providing a computerized eyewear device to aid in welding |
JP2015057659A (ja) * | 2014-10-24 | 2015-03-26 | ソニー株式会社 | 表示装置、表示方法、プログラム |
-
2015
- 2015-12-18 JP JP2015247230A patent/JP2017111724A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008504597A (ja) * | 2004-06-21 | 2008-02-14 | トータルフェルスバレッツ フォルスクニングスインスティテュート | 周辺界の画像を表示するための装置及び方法 |
US20140184496A1 (en) * | 2013-01-03 | 2014-07-03 | Meta Company | Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities |
US20140346158A1 (en) * | 2013-05-24 | 2014-11-27 | Lincoln Global, Inc. | Systems and methods providing a computerized eyewear device to aid in welding |
JP2015057659A (ja) * | 2014-10-24 | 2015-03-26 | ソニー株式会社 | 表示装置、表示方法、プログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200099781A (ko) * | 2019-02-15 | 2020-08-25 | 한국광기술원 | 넓은 화각을 갖는 광학장치 및 이를 포함한 증강현실 장치 |
KR102284120B1 (ko) | 2019-02-15 | 2021-07-30 | 한국광기술원 | 넓은 화각을 갖는 광학장치 및 이를 포함한 증강현실 장치 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6195893B2 (ja) | 形状認識装置、形状認識プログラム、および形状認識方法 | |
JP6333801B2 (ja) | 表示制御装置、表示制御プログラム、および表示制御方法 | |
JP6250024B2 (ja) | キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法 | |
WO2014128747A1 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
WO2014128751A1 (ja) | ヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ用プログラム、およびヘッドマウントディスプレイ方法 | |
JP2017120556A (ja) | 操作用ヘッドマウントディスプレイ、操作用ヘッドマウントディスプレイの制御方法および操作用ヘッドマウントディスプレイのプログラム | |
JP6250025B2 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
JP6563802B2 (ja) | 運送点検用ヘッドマウントディスプレイおよび運送点検用ヘッドマウントディスプレイのプログラム | |
JP6446465B2 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
JP2017111723A (ja) | バイク用ヘッドマウントディスプレイ、バイク用ヘッドマウントディスプレイの制御方法およびバイク用ヘッドマウントディスプレイの制御プログラム。 | |
JP2017111724A (ja) | 配管用ヘッドマウントディスプレイ | |
JP2017111537A (ja) | ヘッドマウントディスプレイおよびヘッドマウントディスプレイのプログラム | |
WO2016051429A1 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
JP2017111722A (ja) | ヘッドマウントディスプレイ、ヘッドマウントディスプレイの表示方法、およびヘッドマウントディスプレイのプログラム | |
JP6479836B2 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
JP2017111721A (ja) | クリーンルーム用ヘッドマウントディスプレイ、クリーンルーム用ヘッドマウントディスプレイの制御方法、およびクリーンルーム用ヘッドマウントディスプレイの制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20170224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170515 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170703 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200128 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200901 |