[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7210131B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7210131B2
JP7210131B2 JP2017153553A JP2017153553A JP7210131B2 JP 7210131 B2 JP7210131 B2 JP 7210131B2 JP 2017153553 A JP2017153553 A JP 2017153553A JP 2017153553 A JP2017153553 A JP 2017153553A JP 7210131 B2 JP7210131 B2 JP 7210131B2
Authority
JP
Japan
Prior art keywords
menu
information processing
orientation
virtual space
dimensional pointer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017153553A
Other languages
English (en)
Other versions
JP2019032713A (ja
JP2019032713A5 (ja
Inventor
奈緒子 小形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017153553A priority Critical patent/JP7210131B2/ja
Publication of JP2019032713A publication Critical patent/JP2019032713A/ja
Publication of JP2019032713A5 publication Critical patent/JP2019032713A5/ja
Priority to JP2022009944A priority patent/JP2022058753A/ja
Application granted granted Critical
Publication of JP7210131B2 publication Critical patent/JP7210131B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
近年、現実空間と仮想空間とのつなぎ目のない結合を目的とした、複合現実感(Mixed Reality:MR)システムの研究が盛んに行われている。これらのシステムの提示を行う画像表示装置は、例えば頭部装着型ディスプレイ(Head Mount Display:HMD)を用いることができる。MRシステムの研究が盛んになるにつれ、仮想物体の移動や複製、表示非表示の制御等、MRにおいて求められる操作は多種多様となっている。操作を行うためのメニューをHMDに表示する方法として適切なものが求められる。
特許文献1の方法では、視線により選択されたオブジェクトを基点としてメニューを表示し、更に、選択したメニューが次階層のメニューを持つ場合、次階層が前階層を覆わないように表示する。
特開2017-58971号公報
しかしながら、特許文献1の方法では、オブジェクトに対して行う操作が増えるほど、メニュー階層が深くなり、視認性が低下する課題があった。更に、仮想物体に依らない操作にはそれに適した形式のメニュー表示が必要であり、仮想物体に対してと、仮想物体以外に対してと、の操作メニューを適切に切り替える必要がある課題があった。
本発明の情報処理装置は、ユーザの頭部の位置姿勢を計測する計測手段と、仮想空間における三次元ポインタの位置姿勢とオブジェクトの形状および位置姿勢とに基づいて、前記三次元ポインタが前記オブジェクトを指しているかを判定する判定手段と、前記三次元ポインタが前記オブジェクトを指していると判定された場合、当該三次元ポインタが当該オブジェクトを指している位置に基づく位置に、前記ユーザの頭部の位置姿勢に基づく視線方向に対向する向きで、前記オブジェクトに関わる操作メニューを生成し、前記三次元ポインタが前記オブジェクトを指していないと判定された場合、前記ユーザの左目の視錐台と右目の視錐台との重複領域内の前記オブジェクトより手前の位置に、前記視線方向に対向する向きで、前記オブジェクトによらないアプリケーション操作に関わる操作メニューを生成する第1の生成手段と、前記第1の生成手段により生成された操作メニューと仮想空間に係るデータとに基づいて仮想空間画像を生成する第2の生成手段と、前記第2の生成手段により生成された前記仮想空間画像と現実空間画像とを重畳し、複合現実画像を生成する第3の生成手段と、前記第3の生成手段により生成された前記複合現実画像を出力する出力手段と、を有する。
本発明によれば、体験状況に応じて適切に表示可能なメニューを生成することができる。
実施形態1の情報処理システムを構成する各装置の機能構成を示す図である。 情報処理装置のハードウェア構成の一例を示す図である。 実施形態1の情報処理の一例を示すフローチャートである。 オブジェクトメニューとアプリケーションメニューとの表示位置を示す図である。 実施形態2の情報処理システムを構成する各装置の機能構成を示す図である。 実施形態2の情報処理の一例を示すフローチャートである。
以下、本発明の実施形態について図面に基づいて説明する。
<実施形態1>
図1は、情報処理システムを構成する各装置の機能構成の一例を示す図である。情報システムは、情報処理装置1000と、HMD1200と、画像表示装置1300と、操作入力装置1400と、を含む。HMD1200は、頭部装着型表示装置の一例である。
情報処理装置1000は、撮像画像取得部1010、位置姿勢計測部1020、視錐台算出部1030、仮想データ保持部1040、三次元ポインタ位置姿勢取得部1050、オブジェクト選択判定部1060、モード選択部1070を機能構成として含む。更に、情報処理装置1000は、メニュー形式保持部1080、メニュー操作受取部1090、メニュー形式決定部1100、メニュー生成部1110、メニュー実行部1120、仮想空間生成部1130、複合現実画像生成部1140を機能構成として含む。
HMD1200は、画像撮像部1210、画像表示部1220、画角保持部1230を機能構成として含む。ここで、情報処理装置1000とHMD1200とはデータ通信が可能なように接続されている。情報処理装置1000とHMD1200との間の接続は、有線、無線の何れであってもよい。
先ず、情報処理装置1000について説明する。
図2は、情報処理装置1000のハードウェア構成の一例を示す図である。CPU2010は、バス2000を介して接続する各デバイスを統括的に制御する。CPU2010は、読み出し専用メモリ(ROM)2020に記憶されたプログラムを読み出して実行する。オペレーティングシステム(OS)のプログラム、本実施形態に係る各処理プログラム、デバイスドライバのプログラム等はROM2020に記憶されており、ランダムアクセスメモリ(RAM)2030に一時記憶され、CPU2010によって適宜実行される。また、入力I/F2040は、外部の装置(表示装置や操作装置等)から情報処理装置1000で処理可能な形式で入力信号として入力する。また、出力I/F2050は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。
CPU2010がROM2020に記憶されたプログラムに基づき処理を実行することによって、図1や後述する図5の情報処理装置1000の機能構成、及び後述する図3及び図6のフローチャートの処理が実現される。
HMD1200も少なくともCPUやROM等のメモリを有し、HMD1200のCPUがHMD1200のメモリに記憶されているプログラムに基づき処理を実行することによって、図1や後述する図5のHMD1200の機能構成等が実現される。
撮像画像取得部1010は、画像撮像部1210により撮像された現実空間の画像(現実空間画像)を取得し、位置姿勢計測部1020、複合現実画像生成部1140に入力する。
位置姿勢計測部1020は、撮像画像取得部1010により取得された現実空間画像を用いて画像処理を行い、画像中の点や線等の特徴的な情報(特徴情報)を抽出することで位置姿勢を計測する。位置姿勢計測部1020は、位置姿勢情報を視錐台算出部1030及び複合現実画像生成部1140に入力する。本実施形態では、画像処理による位置姿勢計測を説明するが、位置姿勢計測部1020は、赤外光を用いて位置姿勢を計測してもよいし、超音波を用いて位置姿勢を計測してもよいし、磁気センサを用いて位置姿勢を計測してもよい。更に位置姿勢計測部1020は、奥行きセンサを用いて位置姿勢を計測してもよいし、機械的に位置姿勢を計測してもよい。
視錐台算出部1030は、画角保持部1230により得られたHMDの画角情報と位置姿勢計測部1020により得られたHMD位置とに基づき、左目右目各々の視錐台を算出する。視錐台を算出するための技術については既知の事実であるので、これについての詳細な説明は省略する。視錐台算出部1030は、算出結果をアプリケーションメニュー位置姿勢算出部1115に入力する。
仮想データ保持部1040は、仮想空間を構成する仮想物体に係るデータ(形状情報や位置姿勢情報)や仮想空間中に照射する光源に係るデータ等、仮想空間のデータを保持し、オブジェクト選択判定部1060及び仮想空間生成部1130に入力する。
三次元ポインタ位置姿勢取得部1050は、仮想物体を選択するための三次元ポインタの位置姿勢を取得し、オブジェクト選択判定部1060に入力する。三次元ポインタはユーザが仮想物体を選択するために使用するツールである。本実施形態において、ユーザが任意に動かすことのできるレーザー形状の仮想物体とするが、これに限定されない。即ち、注視点を三次元ポインタとして使用する方法であってもよいし、仮想空間で位置姿勢取得可能な、例えば、手のようなユーザの身体の一部を三次元ポインタとして使用してもよい。
オブジェクト選択判定部1060は、仮想データ保持部1040で保持されている仮想空間データのうち仮想物体の形状情報及び位置姿勢情報を取得する。更に、オブジェクト選択判定部1060は、三次元ポインタ位置姿勢取得部1050により取得された三次元ポインタの位置姿勢から三次元ポインタが仮想物体と交差しているか否かを判定する。交差している場合、オブジェクト選択判定部1060は、仮想物体を選択していると見做し、選択している仮想物体情報をメニュー形式決定部1100に入力する。更に、オブジェクト選択判定部1060は、仮想物体と三次元ポインタとの交点情報をオブジェクトメニュー位置姿勢算出部1113に入力する。
モード選択部1070は、複数のモードからモードを選択する。本実施形態では仮想物体を操作する操作編集モードとユーザが寸法線や断面等の追加を行う追加編集モードとの場合を説明するが、これに限定されない。即ち、仮想物体の干渉判定を行う干渉判定モードや複合現実空間の体験記録をとる記録モードであってもよい。モード選択部1070は、選択したモード情報をオブジェクトメニュー項目設定部1114に入力する。
メニュー形式保持部1080は、仮想物体選択時に表示される仮想物体に関わる操作メニュー(オブジェクトメニュー)と仮想物体に依らないアプリケーション操作に関わるメニュー(アプリケーションメニュー)との二つのメニュー形式を保持する。メニュー形式保持部1080は、メニュー形式をメニュー形式決定部1100に入力する。本実施形態では、ユーザの視界の固定位置に表示されるアプリケーションメニューと、選択した仮想物体の位置に表示されるオブジェクトメニューと、の二つのメニュー形式を説明する。アプリケーションメニューとは、例えば、モード選択や編集操作を元に戻す操作、干渉判定の開始停止制御等を含むメニューを指す。また、オブジェクトメニューとは、選択した仮想物体に対して行う、例えば、仮想物体の移動や表示非表示の制御を含むメニューを指す。本実施形態では、アプリケーションメニューの表示位置を視界の固定位置に表示させる場合を説明するが、これに限定されない。即ち、アプリケーションメニューの表示位置を仮想空間中に固定するメニューとしてもよいし、ユーザにより表示位置を指定させるメニューとしてもよい。更に、アプリケーションメニューの表示位置を視界に固定させるか仮想空間中に固定するかを切り替えることの出来るメニューであってもよい。
メニュー操作受取部1090は、操作入力装置1400から入力されたイベントを受け取り、メニュー形式決定部1100、メニュー実行部1120にメニュー操作を促す。
メニュー形式決定部1100は、メニュー操作受取部1090からメニュー表示操作を受け取ったタイミングでオブジェクト選択判定部1060の判定に応じて、メニュー形式保持部1080に保持されているメニュー形式のうち適切なメニュー形式を採用する。メニュー形式決定部1100は、採用したメニュー形式をメニュー生成部1110に入力する。本実施形態では、三次元ポインタが仮想物体を選択しているか否かによってメニュー形式を決定する例を説明するが、これに限定されない。即ち、メニュー形式決定部1100は、操作入力装置1400から入力されたイベントの違いによってメニュー形式を決定してもよい。
メニュー生成部1110は、オブジェクトメニュー生成部1111とアプリケーションメニュー生成部1112とで構成されている。メニュー生成部1110は、メニュー形式決定部1100により決定されたメニュー形式に基づき、オブジェクトメニューを生成するか、アプリケーションメニューを生成するかを決定する。メニュー生成部1110は、生成したメニューを仮想空間生成部1130に入力する。
オブジェクトメニュー生成部1111は、オブジェクトメニュー位置姿勢算出部1113とオブジェクトメニュー項目設定部1114とで構成されている。オブジェクトメニュー生成部1111は、オブジェクトメニュー位置姿勢算出部1113により算出された位置に、オブジェクトメニュー項目設定部1114で設定されたメニュー項目を表示するようメニューを生成する。オブジェクトメニュー生成部1111は、生成したメニューをメニュー生成部1110に入力する。
オブジェクトメニュー位置姿勢算出部1113は、オブジェクト選択判定部1060により取得した三次元ポインタと選択された仮想物体との交点とに基づいてメニューの位置姿勢を算出する。
オブジェクトメニュー項目設定部1114は、モード選択部1070により選択されたモードに基づき、仮想物体の操作を行うためのメニュー項目を設定する。
アプリケーションメニュー生成部1112は、アプリケーションメニュー位置姿勢算出部1115とアプリケーションメニュー項目設定部1116とで構成されている。アプリケーションメニュー生成部1112は、アプリケーションメニュー位置姿勢算出部1115により算出された位置に、アプリケーションメニュー項目設定部1116で設定されたメニュー項目を表示するよう生成する。アプリケーションメニュー生成部1112は、生成したメニューをメニュー生成部1110に入力する。
アプリケーションメニュー位置姿勢算出部1115は、視錐台算出部1030により算出された視錐台情報に基づき、メニューの位置姿勢を算出する。
アプリケーションメニュー項目設定部1116は、仮想物体に依らないアプリケーションに関わる操作を行うためのメニュー項目を設定する。
メニュー実行部1120は、メニュー操作受取部1090により受け取ったメニュー実行イベントと選択されたメニュー項目とに基づき、機能を実行する。
仮想空間生成部1130は、仮想データ保持部1040で保持された仮想データとメニュー生成部1110で生成されたメニューとを基に仮想空間を生成し、複合現実画像生成部1140に入力する。
複合現実画像生成部1140は、仮想空間生成部1130で生成された仮想空間と位置姿勢計測部1020の計測結果とに基づいて仮想空間画像を生成する。更に、複合現実画像生成部1140は、仮想空間画像を撮像画像取得部1010で取得された現実空間画像に重畳し、複合現実空間の画像(複合現実画像)を生成する。なお、所定の位置から見える仮想空間を生成するための技術については既知の事実であるので、これについての詳細な説明は省略する。その後に、複合現実画像生成部1140は、生成した複合現実画像をHMD1200の画像表示部1220に対して出力する。また、複合現実画像生成部1140は、画像表示装置1300に同時に表示してもよい。HMDに限ったことではなく表示できる装置であればよく、タブレット・スマートフォン等の表示端末であってもよい。
次に、HMD1200について説明する。
HMD1200は、液晶画面等で構成される表示装置で、夫々右目用と左目用とが設けられており、夫々はHMD1200を頭部に装着したユーザの右目、左目の眼前に位置するように、HMDに取り付けられている。また、左右の画面には夫々視差のついた画像がステレオ表示される。
画像撮像部1210は、HMD1200に映る現実空間を撮像し、撮像画像を現実空間画像として情報処理装置1000に入力する。
画像表示部1220は、情報処理装置1000で生成された複合現実画像を表示する。
画角保持部1230は、HMDの表示画角情報を保持している。表示画角情報を視錐台算出部1030に入力する。
本実施形態においてHMD1200は、撮像装置により撮像された画像に基づいて生成された複合現実画像を表示装置に表示するビデオシースルー型のHMDであることとして説明する。しかしながら、HMD1200は、現実空間を透過して観察することが可能な表示媒体に仮想空間画像を重畳して表示する光学シースルー型のHMDを用いてもよい。
操作入力装置1400は、情報処理装置に対して、ユーザの操作を入力することができる装置である。操作入力装置1400は、メニューの表示、操作、実行を行う場合に利用される。操作入力装置1400は、このような目的が達成されるのであれば、いかなる入力装置であってもよく、例えばマウスであってもよいし、キーボードやコントローラ等のボタン型装置であってもよい。また、操作入力装置1400は、ユーザのジェスチャを認識することによって入力する装置であってもよいし、ユーザの声を認識することによって入力する装置であってもよい。
図3は、情報処理装置1000が、複合現実空間画像を生成し、HMD1200又は画像表示装置1300に対して出力する情報処理の一例を示すフローチャートである。
S3000において、位置姿勢計測部1020は、画像撮像部1210から現実空間画像を取得し、画像から位置姿勢を計測する。そして、位置姿勢計測部1020は、S3100に処理を移す。
S3100において、メニュー操作受取部1090は、操作入力装置1400からの入力情報を参照し、メニューを表示する操作が入力されているかどうか調べる。メニュー操作受取部1090は、メニューを表示する操作が入力されている場合は、S3200に処理を移し、メニューを表示する操作が入力されていない場合は、S3500に処理を移す。
S3200において、三次元ポインタ位置姿勢取得部1050は、三次元ポインタの位置を取得する。そして、三次元ポインタ位置姿勢取得部1050は、S3300に処理を移す。
S3300において、オブジェクト選択判定部1060は、仮想データ保持部1040の仮想物体の位置姿勢情報及び形状情報とS3200において取得した三次元ポインタの位置姿勢情報とから仮想物体が選択されているか否かを判定する。仮想物体はオブジェクトの一例である。オブジェクト選択判定部1060は、選択されているか否かを三次元ポインタと仮想物体との干渉の有無により判定する。干渉判定をするための技術については既知の事実であるので、これについての詳細な説明は省略する。何れかの仮想物体と三次元ポインタとが干渉している場合、オブジェクト選択判定部1060は、仮想物体と三次元ポインタとの交点情報を保存する。更にメニュー形式決定部1100は、表示するメニュー形式をオブジェクトメニューとし、S3310に処理を移す。仮想物体の何れにおいても三次元ポインタが干渉していない場合、メニュー形式決定部1100は、表示するメニュー形式をアプリケーションメニューとし、S3320に処理を移す。
S3310において、オブジェクトメニュー項目設定部1114は、モード選択部1070において選択されているモードに応じて、仮想物体の操作に関わるメニュー項目を設定する。仮想物体の操作に関わるメニューは、仮想物体用のメニューの一例である。モードが操作編集モードの場合、オブジェクトメニュー項目設定部1114は、選択した仮想物体に対して直接操作を行うためのメニュー項目を設定する。例えば、オブジェクトメニュー項目設定部1114は、仮想物体の移動、表示非表示、削除、複製等を行うメニュー項目を設定する。モードが追加編集モードの場合、オブジェクトメニュー項目設定部1114は、選択した仮想物体に対して追加操作を行うためのメニュー項目を設定する。例えば、オブジェクトメニュー項目設定部1114は、寸法線の追加、断面の追加、メモの追加等を行うメニュー項目を設定する。本実施形態では、上記メニュー項目を用いて説明を行うが、これに限定されない。そして、オブジェクトメニュー項目設定部1114は、S3311に処理を移す。
S3320において、アプリケーションメニュー項目設定部1116は、モード選択メニューを含むアプリケーションメニュー項目を設定する。そして、アプリケーションメニュー項目設定部1116は、S3321に処理を移す。
S3311及びS3321の処理は、図4を用いながら説明を行う。
図4は、オブジェクトメニューとアプリケーションメニューとの表示位置について示した図である。図4(A)は、メニュー表示前におけるユーザ4000が仮想空間を体験している様子を示した図である。ユーザ4000は三次元ポインタ4010を把持し、仮想物体4020により構成された仮想空間を体験する。図4(B)は、ユーザ4000がオブジェクトメニュー4100を表示した様子を示した図である。図4(C)は、ユーザ4000がアプリケーションメニュー4200を表示した様子を示した図である。図4(D)は、視錐台から見たアプリケーションメニュー4200の配置を示した図である。
S3311において、オブジェクトメニュー位置姿勢算出部1113は、オブジェクト選択判定部1060において得られた、三次元ポインタ4010と仮想物体4020との交点情報を取得する。オブジェクトメニュー位置姿勢算出部1113は、交点を基準とした位置に、三次元ポインタ4010で選択しやすいよう縦一列のオブジェクトメニュー4100を、位置姿勢計測部1020において計測された視線方向に垂直になるよう位置姿勢を算出する。本実施形態では、縦一列に表示するメニューを用いて説明するが、これに限定されない。即ち、オブジェクトメニュー位置姿勢算出部1113は、横一列に表示してもよいし、円形に表示してもよいし、格子状に表示してもよい。そして、オブジェクトメニュー位置姿勢算出部1113は、S3400に処理を移す。
S3321において、アプリケーションメニュー位置姿勢算出部1115は、視錐台算出部1030において得られた左目の視錐台4210と右目の視錐台4220との情報から重複領域4230を算出する。アプリケーションメニュー位置姿勢算出部1115は、重複領域の視線方向にxの奥行位置に、視線方向に対して垂直になるようなメニュー表示面4240を算出する。アプリケーションメニュー位置姿勢算出部1115は、メニュー表示面4240において横方向は中心位置に、縦方向は視界をふさがない中心位置より下方、かつ、HMDのレンズ歪みの影響を受けない特定位置に表示されるよう、位置姿勢を算出する。そして、アプリケーションメニュー位置姿勢算出部1115は、S3400に処理を移す。本実施形態では、メニューの奥行位置を一定とするが、これに限定されない。即ち、アプリケーションメニュー位置姿勢算出部1115は、メニューを視認しやすいよう、仮想物体位置より常に視線に対して手前方向にメニューが表示されるようにメニュー表示面4240を動的に算出する。このことにより、メニューと仮想物体とが重なり合わないようにしてもよい。また、アプリケーションメニュー位置姿勢算出部1115は、ユーザによって奥行方向を任意に変更できてもよいし、メニューと仮想物体とが重なり合っているとき、メニューより視線に対して手前方向に存在する仮想物体をレンダリングしなくてもよい。更に、アプリケーションメニュー位置姿勢算出部1115は、メニューより視線に対して手前方向に存在する仮想物体は半透明表示してもよいし、ワイヤー表示してもよい。また、本実施形態ではメニュー表示面4240に対してのメニュー位置をシステムで固定したが、これに限定されない。即ち、アプリケーションメニュー位置姿勢算出部1115は、仮想物体の位置に基づき、メニューによって仮想物体が隠される領域が最小になるような位置に表示されてもよいし、ユーザが任意で変更できてもよい。更に、情報処理装置1000は、これらの表示方法を保持し、切り替えるアプリケーションメニュー表示切替部をもってもよい。
本実施形態は、S3311及びS3321において、ユーザの視線方向に垂直にメニューを表示するための位置姿勢算出方法を説明したが、これに限定されない。即ち、ユーザに視認しやすい向きで表示されればよく、視線方向に垂直以外の特定の向きであってもよいし、ユーザが任意で設定できてもよい。
S3400において、メニュー生成部1110は、メニュー形式決定部1100で決定されたメニュー形式に基づき、オブジェクトメニュー又はアプリケーションメニューを生成する。即ち、メニュー形式がオブジェクトメニューであった場合は、メニュー生成部1110は、オブジェクトメニュー位置姿勢算出部1113で算出された位置に、オブジェクトメニュー項目設定部1114で設定されたメニュー項目を設定し、オブジェクトメニューを生成する。一方、メニュー形式がアプリケーションメニューであった場合は、メニュー生成部1110は、アプリケーションメニュー位置姿勢算出部1115で算出された位置に、アプリケーションメニュー項目設定部1116で設定されたメニュー項目を設定し、アプリケーションメニューを生成する。そして、メニュー生成部1110は、S3500に処理を移す。S3310、S3311、S3400は、第1の生成の処理の一例である。また、S3320、S3321、S3400も、第1の生成の処理の一例である。
S3500において、仮想空間生成部1130は、仮想データ保持部1040で保持されている仮想空間に係るデータと、メニュー生成部1110において生成したメニューと、を用いて仮想空間を生成する。そして、仮想空間生成部1130は、S3600に処理を移す。
S3600において、複合現実画像生成部1140は、仮想空間生成部1130で生成された仮想空間と位置姿勢計測部1020の位置姿勢とに基づいて、仮想空間画像を生成する。更に、複合現実画像生成部1140は、仮想空間画像を撮像画像取得部1010で取得された現実空間画像に重畳し、複合現実画像を生成する。複合現実画像生成部1140は、生成した複合現実画像を、HMDの画像表示部又は画像表示装置に対して出力する。そして、複合現実画像生成部1140は、S3700に処理を移す。S3500とS3600の一部は、第2の生成の処理の一例である。また、S3600の一部は、第3の生成の処理の一例である。
S3700において、CPU2010は、ユーザによって本処理の終了指示が入力された、若しくは本処理を終了する条件が満たされた場合、本処理を終了する。一方、CPU2010は、本処理の終了指示が入力されておらず、本処理を終了する条件も満たされていない場合は、処理をS3000に戻す。
本実施形態によれば、仮想物体の操作を行うか、仮想物体に依らないアプリケーションに関わる操作を行うかを識別し、識別結果によって異なるメニュー形式でメニューを表示する。更に、選択されたモードによってメニュー項目を変更することにより、体験状況に応じて適切にメニューを表示することができる。
(変形例1)
上記実施形態では、撮像画像に仮想画像を合成した画像を表示させるMRシステムに適用した例を説明した。しかしながらこれに限定されない。例えば、本実施形態は仮想画像のみを表示させるVR(Virtual Reality)システムに適用することができる。その場合には、上記実施形態においては、複合現実画像生成部1140は、撮像画像取得部1010で取得された現実空間画像に仮想画像を重畳することなく、仮想空間画像そのままを表示装置に表示させるように機能すればよい。そしてそのようなVRシステムにおいて、センサを用いて位置姿勢を計測する場合には、撮像画像取得部1010はなくてもよい。
<実施形態2>
実施形態1では、仮想物体に依らないアプリケーションに対する操作と仮想物体に対する操作とをメニューの表示形式を切り替えることにより実現したが、本実施形態では、現実空間を三次元再構成したモデル(現実モデル)に対する操作を加えた場合を示す。以下では、仮想空間を構成する仮想物体と現実モデルとを総称してオブジェクトと呼ぶ。
図5は、実施形態2の情報処理システムを構成する各装置の機能構成の一例を示す図である。図1と同じ構成要素には同じ参照番号を付けており、その説明は省略する。
現実モデル生成部5010は、撮像画像取得部1010で取られた現実空間画像を基に現実モデルを生成する。現実モデルの生成方法にはSurreal Vision社のKinectFusionが考えられる。KinectFusionはKinectを使ったリアルタイム三次元再構成であり、先ずデプスカメラを使った点群の作成を行う。次に、ICP(Iterative Closest Point)によるカメラ位置姿勢推定、三次元オブジェクト生成、レンダリングの流れで三次元再構成を行う。本実施形態ではKinectFusionを用いて説明するが、これに限定されない。現実モデル生成部5010は、生成した現実モデルデータをデータ保持部5020に入力する。
データ保持部5020は、仮想空間を構成する仮想物体に係るデータ(形状情報や位置姿勢情報)や仮想空間中に照射する光源に係るデータ等、仮想空間のデータと現実モデル生成部により生成された現実モデルデータとを保持する。データ保持部5020は、仮想空間データと現実モデルデータとを仮想空間生成部1130、オブジェクト選択判定部1060に入力する。
オブジェクト識別部5030は、オブジェクト選択判定部1060によって選択されたと見なされたオブジェクトが仮想物体であるか現実モデルであるかを識別する。オブジェクト識別部5030は、識別結果をメニュー形式決定部5040に入力する。オブジェクト識別部5030は、オブジェクト選択判定部1060でオブジェクトが選択されていないと判定された場合は、識別することなく、選択されていない旨をメニュー形式決定部5040に入力する。
メニュー形式決定部5040は、メニュー操作受取部1090からメニュー表示操作を受け取ったタイミングでオブジェクト識別部5030の入力に応じて、メニュー形式保持部1080に保持されているメニュー形式のうち適切なメニュー形式に切り替える。メニュー形式決定部5040は、切り替えたメニュー形式をメニュー生成部1110に入力する。
オブジェクトメニュー生成部5050は、オブジェクトメニュー位置姿勢算出部1113とオブジェクトメニュー項目設定部5051とで構成されている。オブジェクトメニュー生成部5050は、オブジェクトメニュー位置姿勢算出部1113で算出された位置に、オブジェクトメニュー項目設定部5051で設定されたメニュー項目を表示するよう生成する。また、オブジェクトメニュー生成部5050は、メニュー形式決定部5040で決定されたメニュー形式に基づき選択されたオブジェクトが仮想物体であるか現実モデルであるかを認識できるよう異なる配色を用いてメニューを生成する。オブジェクトメニュー生成部5050は、生成した結果をメニュー生成部1110に入力する。本実施形態では、選択されたオブジェクトが仮想物体であるか現実モデルであるかをユーザが認識するためにメニューの配色を変えた場合を説明するが、これに限定されない。オブジェクトメニュー生成部5050は、メニューの形状を変えてもよいし、メニュー中に表示するメニュー名を変えてもよい。
オブジェクトメニュー項目設定部5051は、モード選択部1070により選択されたモードを取得する。更に、オブジェクトメニュー項目設定部5051は、オブジェクト識別部の識別結果によりオブジェクトが選択されているか否かを取得する。オブジェクトメニュー項目設定部5051は、選択モード及びオブジェクト識別結果及び選択されているオブジェクトが仮想物体であるか現実モデルであるかに基づき、メニュー項目を設定する。
図6は、情報処理装置1000が、複合現実空間画像を生成し、HMD1200又は画像表示装置1300に対して出力するために行う処理のフローチャートである。図3と同じ構成要素には同じ参照番号を付けており、その説明は省略する。
S6100において、オブジェクト識別部5030は、オブジェクト選択判定部1060により選択されたオブジェクトの種類が現実モデルであるか仮想物体であるかを識別する。オブジェクト識別部5030は、選択しているオブジェクトが現実モデルの場合は、S6110に処理を移し、仮想物体が選択されていた場合は、S3310に処理を移す。
S6110において、オブジェクトメニュー項目設定部5051は、モード選択部1070により選択されているモードに応じて現実モデル操作に関わる操作メニュー項目を設定する。現実モデル操作に関わる操作メニューは、現実モデルに対して操作を行う操作メニューの一例である。オブジェクトメニュー項目設定部5051は、モードが操作編集モードの場合、選択した現実モデルに対して操作を行うためのメニュー項目を設定する。オブジェクトメニュー項目設定部5051が設定するメニュー項目は、選択した現実モデルに対して重ね合わせる仮想物体を選択する操作のメニュー項目であってもよいし、干渉判定対象にする操作や同様の形状の仮想物体を複製する操作のメニュー項目であってもよい。また、オブジェクトメニュー項目設定部5051が設定するメニュー項目は、色の変更やテクスチャの貼付等マテリアルを変更する操作のメニュー項目であってもよい。オブジェクトメニュー項目設定部5051は、モードが追加編集モードの場合、選択した現実モデルに対して追加操作を行うメニューを設定する。オブジェクトメニュー項目設定部5051は、寸法線の追加、メモの追加等を行うメニュー項目を設定する。そして、オブジェクトメニュー項目設定部5051は、S6111に処理を移す。
S6111において、オブジェクトメニュー生成部5050は、選択されたオブジェクトが現実モデルであることを示すメニュー配色を設定する。そして、オブジェクトメニュー生成部5050は、S3311に処理を移す。
S6120において、オブジェクトメニュー生成部5050は、選択されたオブジェクトが仮想物体であることを示すメニュー配色を設定する。そして、オブジェクトメニュー生成部5050は、S3311に処理を移す。
本実施形態によれば、実施形態1に加え、オブジェクトが仮想物体であるか現実モデルかによって異なるメニュー項目を設定することで階層を浅くすることができる。更に、メニューから選択したオブジェクトを識別可能にすることで視認性が向上し、体験状況に応じて適切にメニューを表示することができる。
(変形例1)
上記実施形態では、撮像画像に仮想空間画像を合成した画像を表示させるMRシステムに適用した例を説明した。しかしながらこれに限定されない。例えば、本実施形態は現実モデルのみをレンダリングした画像を表示させるシステムに適用することができる。その場合には、上記実施形態において、仮想空間生成部1130は、現実モデルのみにより構成された仮想空間を生成すればよい。
(変形例2)
上記実施形態では、選択したオブジェクトが仮想物体であるか現実モデルであるかを識別することにより、設定するメニュー項目を変更する例を説明した。しかしながらこれに限定されない。例えば、仮想物体に属性を不図示のオブジェクト属性保持部に持たせ、その属性を不図示のオブジェクト属性判定部に識別することにより、設定するメニュー項目を変更してもよい。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
図1や図5の情報処理装置1000の機能構成の一部又は全てはハードウェア構成として情報処理装置1000に実装してもよい。
上述した各実施形態によれば、体験状況に応じて適切に表示可能なメニューを生成することができる。
1000 情報処理装置
2010 CPU

Claims (16)

  1. ユーザの頭部の位置姿勢を計測する計測手段と、
    仮想空間における三次元ポインタの位置姿勢とオブジェクトの形状および位置姿勢とに基づいて、前記三次元ポインタが前記オブジェクトを指しているかを判定する判定手段と、
    前記三次元ポインタが前記オブジェクトを指していると判定された場合、当該三次元ポインタが当該オブジェクトを指している位置に基づく位置に、前記ユーザの頭部の位置姿勢に基づく視線方向に対向する向きで、前記オブジェクトに関わる操作メニューを生成し、前記三次元ポインタが前記オブジェクトを指していないと判定された場合、前記ユーザの左目の視錐台と右目の視錐台との重複領域内の前記オブジェクトより手前の位置に、前記視線方向に対向する向きで、前記オブジェクトによらないアプリケーション操作に関わる操作メニューを生成する第1の生成手段と、
    前記第1の生成手段により生成された操作メニューと仮想空間に係るデータとに基づいて仮想空間画像を生成する第2の生成手段と、
    前記第2の生成手段により生成された前記仮想空間画像と現実空間画像とを重畳し、複合現実画像を生成する第3の生成手段と、
    前記第3の生成手段により生成された前記複合現実画像を出力する出力手段と、
    を有する情報処理装置。
  2. ユーザの頭部の位置姿勢を計測する計測手段と、
    仮想空間における三次元ポインタの位置姿勢とオブジェクトの形状および位置姿勢とに基づいて、前記三次元ポインタが前記オブジェクトを指しているかを判定する判定手段と、
    前記三次元ポインタが前記オブジェクトを指していると判定された場合、当該三次元ポインタが当該オブジェクトを指している位置に基づく位置に、前記ユーザの頭部の位置姿勢に基づく視線方向に対向する向きで、前記オブジェクトに関わる操作メニューを生成し、前記三次元ポインタが前記オブジェクトを指していないと判定された場合、前記ユーザの左目の視錐台と右目の視錐台との重複領域内の前記オブジェクトより手前の位置に、前記視線方向に対向する向きで、前記オブジェクトによらないアプリケーション操作に関わる操作メニューを生成する第1の生成手段と、
    前記第1の生成手段により生成された操作メニューと仮想空間に係るデータとに基づいて仮想空間画像を生成する第2の生成手段と、
    前記第2の生成手段により生成された前記仮想空間画像を出力する出力手段と、
    を有する情報処理装置。
  3. 前記第1の生成手段は、前記三次元ポインタが前記オブジェクトを指していると判定された場合、当該三次元ポインタが当該オブジェクトを指している位置に基づく位置に、前記視線方向にメニュー面が垂直になるように、前記オブジェクトに関わる操作メニューを生成し、前記三次元ポインタが前記オブジェクトを指していないと判定された場合、前記ユーザの左目の視錐台と右目の視錐台との重複領域内の前記オブジェクトより手前の位置に、前記視線方向にメニュー面が垂直になるように、前記オブジェクトによらないアプリケーション操作に関わる操作メニューを生成する請求項1又は2記載の情報処理装置。
  4. 前記第1の生成手段は、前記三次元ポインタがオブジェクトを指している場合であって、前記オブジェクトの種類が現実モデルである場合、現実モデルに対して操作を行う操作メニューを生成し、前記三次元ポインタがオブジェクトを指している場合であって、前記オブジェクトの種類が仮想物体である場合、仮想物体に対して操作を行う操作メニューを生成する請求項1乃至3何れか1項記載の情報処理装置。
  5. モードを選択する選択手段を更に有し、
    前記第1の生成手段は、前記三次元ポインタがオブジェクトを指している場合であって、前記オブジェクトの種類が現実モデルである場合、前記現実モデルに対して前記選択手段によって選択されたモードに応じた操作を行う操作メニューを生成する請求項4記載の情報処理装置。
  6. 前記モードが操作編集モードの場合、前記第1の生成手段は、前記現実モデルに対して操作を行う操作メニューを生成する請求項5記載の情報処理装置。
  7. 前記モードが追加編集モードの場合、前記第1の生成手段は、前記現実モデルに対して追加操作を行う操作メニューを生成する請求項5記載の情報処理装置。
  8. 前記第1の生成手段は、前記三次元ポインタがオブジェクトを指している場合、前記オブジェクトの属性に応じて生成するオブジェクトに関わる操作メニューを変更する請求項1乃至4何れか1項記載の情報処理装置。
  9. 前記出力手段は、前記複合現実画像を頭部装着型表示装置に出力する請求項1記載の情報処理装置。
  10. 前記出力手段は、前記複合現実画像をビデオシースルー型の表示装置に出力する請求項1記載の情報処理装置。
  11. 前記出力手段は、前記仮想空間画像を頭部装着型表示装置に出力する請求項2記載の情報処理装置。
  12. 前記出力手段は、前記仮想空間画像を光学シースルー型の表示装置に出力する請求項2記載の情報処理装置。
  13. 前記仮想空間に係るデータは、当該仮想空間における仮想物体の形状情報または位置姿勢情報、もしくは当該仮想空間における光源の情報を含む請求項1乃至12何れか1項記載の情報処理装置。
  14. 情報処理装置が実行する情報処理方法であって、
    ユーザの頭部の位置姿勢を計測する計測工程と、
    仮想空間における三次元ポインタの位置姿勢とオブジェクトの形状および位置姿勢とに基づいて、前記三次元ポインタが前記オブジェクトを指しているかを判定する判定工程と、
    前記三次元ポインタが前記オブジェクトを指していると判定された場合、当該三次元ポインタが当該オブジェクトを指している位置に基づく位置に、前記ユーザの頭部の位置姿勢に基づく視線方向に対向する向きで、前記オブジェクトに関わる操作メニューを生成し、前記三次元ポインタが前記オブジェクトを指していないと判定された場合、前記ユーザの左目の視錐台と右目の視錐台との重複領域内の前記オブジェクトより手前の位置に、前記視線方向に対向する向きで、前記オブジェクトによらないアプリケーション操作に関わる操作メニューを生成する第1の生成工程と、
    前記第1の生成工程により生成された操作メニューと仮想空間に係るデータとに基づいて仮想空間画像を生成する第2の生成工程と、
    前記第2の生成工程により生成された前記仮想空間画像と現実空間画像とを重畳し、複合現実画像を生成する第3の生成工程と、
    前記第3の生成工程により生成された前記複合現実画像を出力する出力工程と、
    を含む情報処理方法。
  15. 情報処理装置が実行する情報処理方法であって、
    ユーザの頭部の位置姿勢を計測する計測工程と、
    仮想空間における三次元ポインタの位置姿勢とオブジェクトの形状および位置姿勢とに基づいて、前記三次元ポインタが前記オブジェクトを指しているかを判定する判定工程と、
    前記三次元ポインタが前記オブジェクトを指していると判定された場合、当該三次元ポインタが当該オブジェクトを指している位置に基づく位置に、前記ユーザの頭部の位置姿勢に基づく視線方向に対向する向きで、前記オブジェクトに関わる操作メニューを生成し、前記三次元ポインタが前記オブジェクトを指していないと判定された場合、前記ユーザの左目の視錐台と右目の視錐台との重複領域内の前記オブジェクトより手前の位置に、前記視線方向に対向する向きで、前記オブジェクトによらないアプリケーション操作に関わる操作メニューを生成する第1の生成工程と、
    前記第1の生成工程により生成された操作メニューと仮想空間に係るデータとに基づいて仮想空間画像を生成する第2の生成工程と、
    前記第2の生成工程により生成された前記仮想空間画像を出力する出力工程と、
    を含む情報処理方法。
  16. コンピュータを、請求項1乃至13何れか1項記載の情報処理装置の各手段として機能させるためのプログラム。
JP2017153553A 2017-08-08 2017-08-08 情報処理装置、情報処理方法及びプログラム Active JP7210131B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017153553A JP7210131B2 (ja) 2017-08-08 2017-08-08 情報処理装置、情報処理方法及びプログラム
JP2022009944A JP2022058753A (ja) 2017-08-08 2022-01-26 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017153553A JP7210131B2 (ja) 2017-08-08 2017-08-08 情報処理装置、情報処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022009944A Division JP2022058753A (ja) 2017-08-08 2022-01-26 情報処理装置、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2019032713A JP2019032713A (ja) 2019-02-28
JP2019032713A5 JP2019032713A5 (ja) 2020-09-10
JP7210131B2 true JP7210131B2 (ja) 2023-01-23

Family

ID=65523449

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017153553A Active JP7210131B2 (ja) 2017-08-08 2017-08-08 情報処理装置、情報処理方法及びプログラム
JP2022009944A Pending JP2022058753A (ja) 2017-08-08 2022-01-26 情報処理装置、情報処理方法及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022009944A Pending JP2022058753A (ja) 2017-08-08 2022-01-26 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (2) JP7210131B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7419003B2 (ja) * 2019-09-12 2024-01-22 株式会社日立システムズ 情報表示装置、情報表示方法及び情報表示システム
JP7016438B1 (ja) 2021-03-29 2022-02-18 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049298A (ja) 2001-08-17 2002-02-15 Ohbayashi Corp 風環境予測プログラムおよび風環境予測方法
JP2002175114A (ja) 2000-12-07 2002-06-21 Nissin Electric Co Ltd ポップアップメニューの動的変更方法
JP2005107963A (ja) 2003-09-30 2005-04-21 Canon Inc 三次元cg操作方法および装置
JP2006048145A (ja) 2004-07-30 2006-02-16 Japan Research Institute Ltd ビジネスモデリング支援方法およびビジネスモデリング支援プログラム
JP2011128777A (ja) 2009-12-16 2011-06-30 Yokogawa Electric Corp 操作監視装置
JP2011228859A (ja) 2010-04-16 2011-11-10 Sony Computer Entertainment Inc 3次元画像表示装置、および3次元画像表示方法
JP2017058971A (ja) 2015-09-16 2017-03-23 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0447368A (ja) * 1990-06-12 1992-02-17 Nippon Kensetsu Computer Kk コンピュータ設計支援システム
JP2003175114A (ja) * 2001-12-11 2003-06-24 Unitika Ltd 殺菌消毒綿
JP4533087B2 (ja) * 2004-10-28 2010-08-25 キヤノン株式会社 画像処理方法、画像処理装置
JP2010145861A (ja) * 2008-12-19 2010-07-01 Brother Ind Ltd ヘッドマウントディスプレイ
WO2010075456A1 (en) * 2008-12-22 2010-07-01 Intelligent Spatial Technologies, Inc. System and method for initiating actions and providing feedback by pointing at object of interest
WO2012020497A1 (ja) * 2010-08-12 2012-02-16 富士通株式会社 情報処理装置および情報処理プログラム
JP2013084096A (ja) * 2011-10-07 2013-05-09 Sharp Corp 情報処理装置
US20140168261A1 (en) * 2012-12-13 2014-06-19 Jeffrey N. Margolis Direct interaction system mixed reality environments

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175114A (ja) 2000-12-07 2002-06-21 Nissin Electric Co Ltd ポップアップメニューの動的変更方法
JP2002049298A (ja) 2001-08-17 2002-02-15 Ohbayashi Corp 風環境予測プログラムおよび風環境予測方法
JP2005107963A (ja) 2003-09-30 2005-04-21 Canon Inc 三次元cg操作方法および装置
JP2006048145A (ja) 2004-07-30 2006-02-16 Japan Research Institute Ltd ビジネスモデリング支援方法およびビジネスモデリング支援プログラム
JP2011128777A (ja) 2009-12-16 2011-06-30 Yokogawa Electric Corp 操作監視装置
JP2011228859A (ja) 2010-04-16 2011-11-10 Sony Computer Entertainment Inc 3次元画像表示装置、および3次元画像表示方法
JP2017058971A (ja) 2015-09-16 2017-03-23 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
猪股 志夫,"速攻解決 AutoCAD LT逆引きリファレンス",初版,ソシム株式会社,2015年06月15日,pp.84-85.

Also Published As

Publication number Publication date
JP2022058753A (ja) 2022-04-12
JP2019032713A (ja) 2019-02-28

Similar Documents

Publication Publication Date Title
JP5871345B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
CN110022470B (zh) 使用合成图像训练对象检测算法的方法和系统和存储介质
CN105659295B (zh) 用于在移动设备上的真实环境的视图中表示兴趣点的方法以及用于此方法的移动设备
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
US10095030B2 (en) Shape recognition device, shape recognition program, and shape recognition method
JP4533087B2 (ja) 画像処理方法、画像処理装置
JP5843340B2 (ja) 3次元環境共有システム及び3次元環境共有方法
US9086742B2 (en) Three-dimensional display device, three-dimensional image capturing device, and pointing determination method
CN107615214A (zh) 界面控制系统、界面控制装置、界面控制方法及程序
CN111161396B (zh) 虚拟内容的控制方法、装置、终端设备及存储介质
KR100971667B1 (ko) 증강 책을 통한 실감 콘텐츠를 제공하는 방법 및 장치
US9727229B2 (en) Stereoscopic display device, method for accepting instruction, and non-transitory computer-readable medium for recording program
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP7005224B2 (ja) 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
WO2013168736A1 (ja) 立体画像表示装置、そのカーソル表示方法及びコンピュータプログラム
JP2013168120A (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP6562371B1 (ja) 表示装置、表示処理装置、および表示処理プログラム
CN112578983B (zh) 手指取向触摸检测
JP5520772B2 (ja) 立体画像の表示システム及び表示方法
CN117707332A (zh) 信息处理设备、控制方法和非暂态计算机存储介质
JP6514386B1 (ja) プログラム、記録媒体及び画像生成方法
CN118689363A (zh) 显示3d图像的方法、装置、电子设备和存储介质
KR20130065580A (ko) 전자 장치, ar 이미지 생성 방법 및 컴퓨터 판독가능 기록매체

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200731

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210813

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220126

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220204

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220208

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220318

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220329

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220419

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220705

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221004

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20221115

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20221213

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230111

R151 Written notification of patent or utility model registration

Ref document number: 7210131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151