JP2012222588A - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents
画像処理装置、および画像処理方法、並びにプログラム Download PDFInfo
- Publication number
- JP2012222588A JP2012222588A JP2011085994A JP2011085994A JP2012222588A JP 2012222588 A JP2012222588 A JP 2012222588A JP 2011085994 A JP2011085994 A JP 2011085994A JP 2011085994 A JP2011085994 A JP 2011085994A JP 2012222588 A JP2012222588 A JP 2012222588A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- eye
- stereoscopic effect
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/002—Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/007—Aspects relating to detection of stereoscopic image format, e.g. for adaptation to the display format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
Abstract
【解決手段】3次元画像表示に適用する左目用画像と右目用画像を入力し、入力画像の補正処理により立体感調整を実行する立体感調整部を有する。立体感調整部は、例えばユーザ入力された設定情報に応じて、左目用画像と右目用画像の少なくともいずれかの画像の横方向への縮小処理または拡大処理を実行し、視差調整を施した補正画像を生成する。さらに、この補正画像の表示部に対する表示位置を決定して表示部に出力して3次元画像表示処理を実行させる。
【選択図】図7
Description
(a)視差なし画像の表示画像と知覚画像
(b)視差あり画像の表示画像と知覚画像
これらの図を並べて示している。
この場合、(a)の知覚画像に示すように、観察者の左目で観察する左目用画像においても、視覚者の右目で観察する右目用画像においても、全く同じ表示面の位置に表示オブジェクト(りんご)が観察される。
この結果、観察者には、この表示オブジェクト(りんご)が表示面位置に位置するように知覚する。
この設定では、図1(b)知覚画像に示すように、観察者は、画像に対応するオブジェクトを表示面より奥(遠く)に知覚することになる。
3次元画像表示に適用する左目用画像と右目用画像を入力し、入力画像の補正処理により立体感調整を実行する立体感調整部を有し、
前記立体感調整部は、
前記左目用画像と右目用画像の少なくともいずれかの画像の横方向への縮小処理または拡大処理を実行して視差調整を施した補正画像を生成する画像処理装置にある。
画像処理装置において実行する画像処理方法であり、
立体感調整部が、3次元画像表示に適用する左目用画像と右目用画像を入力し、入力画像の補正処理により立体感調整を実行する立体感調整ステップを実行し、
前記立体感調整ステップは、
前記左目用画像と右目用画像の少なくともいずれかの画像の横方向への縮小処理または拡大処理を実行して視差調整を施した補正画像を生成するステップである画像処理方法にある。
画像処理装置において画像処理を実行させるプログラムであり、
立体感調整部に、3次元画像表示に適用する左目用画像と右目用画像を入力し、入力画像の補正処理により立体感調整を実行させる立体感調整ステップを実行させ、
前記立体感調整ステップは、
前記左目用画像と右目用画像の少なくともいずれかの画像の横方向への縮小処理または拡大処理を実行して視差調整を施した補正画像を生成させるステップであるプログラムにある。
具体的には、3次元画像表示に適用する左目用画像と右目用画像を入力し、入力画像の補正処理により立体感調整を実行する立体感調整部を有する。立体感調整部は、例えばユーザ入力された設定情報に応じて、左目用画像と右目用画像の少なくともいずれかの画像の横方向への縮小処理または拡大処理を実行し、視差調整を施した補正画像を生成する。さらに、この補正画像の表示部に対する表示位置を決定して表示部に出力して3次元画像表示処理を実行させる。
本構成では、例えば画像の縮小処理のみで視差の調整が可能となり、任意の奥行き位置に表示オブジェクトを表示させる制御が可能となる。
1.本開示の画像処理装置の実行する処理について
1−1.処理例1.表示面より手前に表示オブジェクトを知覚させる表示処理例
1−2.処理例2.表示面より奥に表示オブジェクトを知覚させる表示処理例
1−3.処理例3.左側を手前、右側を奥に表示オブジェクトを知覚させる表示処理例
1−4.処理例4.左側を奥、右側を手前に表示オブジェクトを知覚させる表示処理例
2.画像処理装置の構成と処理について
3.画像処理装置の実行する処理シーケンスについて
4.本開示の構成のまとめ
まず、図3以下の図面を参照して本開示の画像処理装置の実行する処理の具体的な例について説明する。
本開示の画像処理装置では、予め生成された3次元画像表示用の左目用画像(L画像)と右目用画像(R画像)を入力して、これらのLR画像に対する例えば画像縮小処理等の画像補正処理を実行して視差調整を施した左目用画像(L画像)と、右目用画像(R画像)を生成する。生成画像は例えば表示装置に出力して3D画像として表示される。
(1)処理例1.表示面より手前に表示オブジェクトを知覚させる表示処理例
(2)処理例2.表示面より奥に表示オブジェクトを知覚させる表示処理例
(3)処理例3.左側を手前、右側を奥に表示オブジェクトを知覚させる表示処理例
(4)処理例4.左側を奥、右側を手前に表示オブジェクトを知覚させる表示処理例
まず、処理例1として、表示面より手前に表示オブジェクトを知覚させる表示処理例について図3を参照して説明する。
(a)表示画像生成例1
(b)表示画像知覚例1(全体が手前に飛び出す)
これらの図を示している。
本開示の画像処理装置では、予め生成された3次元画像表示用の左目用画像(L画像)と右目用画像(R画像)を入力して、これらのLR画像の少なくとも一方の画像に対して水平方向の画像縮小処理を実行して補正LR画像を生成して、生成した補正LR画像の表示位置を決定する処理を行う。
これらの画像を、そのまま表示部に表示すれば、その視差に応じた立体感(奥行き感)を知覚することができる。
以下に説明する本開示の一実施例に係る画像処理装置は、入力LR画像の少なくとも一方の画像に対して、水平方向(左右方向)の画像縮小処理を実行して、視差調整を実現する。
入力画像としての左目用画像(L画像)と右目用画像(R画像)の双方を、水平方向に縮小して左目用補正画像111と右目用補正画像112を生成する処理例を示している。
例えば縮小した左目用補正画像111と縮小した右目用補正画像112を交互に出力し、シャッター式メガネを装着した観察者が、左目用補正画像111を左目でのみ観察し、右目用補正画像112を右目でのみ観察する設定とすることで、3D画像として観察可能となる。
画像処理装置に入力する元の入力LR画像の画像幅をWとする。
画像処理装置は、入力L画像の水平幅をLx1削減し、L画像の水平方向の画像幅を、
Wから(W−Lx1)、
とする縮小処理を実行する。
すなわち、L画像の水平方向の縮小率をLmとしたとき、
Lm=(W−Lx1)/W
上記縮小率の設定とした画像水平方向の画像縮小処理を実行して、左目用補正画像111を生成する。
Wから(W−Rx2)、
とする縮小処理を実行する。
すなわち、R画像の水平方向の縮小率をRmとしたとき、
Rm=(W−Rx2)/W
上記縮小率の設定とした画像水平方向の画像縮小処理を実行して、右目用補正画像112を生成する。
なお、本処理例では、Lx1≒Rx2であるものとする。
生成した左目用補正画像111と右目用補正画像112の表示部における表示位置を決定する。
表示部における表示位置は、図3(a)に示す左目用補正画像111、右目用補正画像112の位置である。
すなわち、図3(a)の左目用補正画像111、右目用補正画像112の各々に示す横幅=W(x=0〜w)の点線枠を表示部の表示画面領域としたとき、
左目用補正画像111は、x=Lx1〜wの位置を表示位置とする。
右目用補正画像112は、x=0〜(w−Rx2)の位置を表示位置とする。
補正前の入力LR画像をそのまま表示装置に表示した場合は、
L画像もR画像も、x=0〜wの位置に表示される。
画像処理装置は、この左目用補正画像111の表示位置を、
x=Lx1〜w
の位置とする表示位置決定処理を行う。
画像処理装置は、この右目用補正画像112の表示位置を、
x=0〜(w−Rx2)
の位置とする表示位置決定処理を行う。
すなわち、入力LR画像をそのまま表示部に表示した場合は、オブジェクト(りんご)とオブジェクト(みかん)について、観察者は、表示部の表示面の奥行位置に存在するオブジェクトとして知覚するものとする。
すなわち、先に図1(a)を参照して説明した設定である。
すなわち、オブジェクト(りんご)とオブジェクト(みかん)は、いずれも表示面121より手前に飛び出した知覚面122上に存在するように観察される。
この原理は、先に図2を参照して説明した原理に基づくものである。
表示画像における左端と右端の奥行きについて各々、
左端奥行き=ZL、
右端奥行き=ZR、
これらの表示面と知覚面との距離情報を示している。
左側のオブジェクト(りんご)のオブジェクトずれ量=(Lx1)
右側のオブジェクト(みかん)のオブジェクトずれ量=(Rx2)
なお、
オブジェクトずれ量=(Lx1)≒(Rx2)
である。
オブジェクトずれ量=(Lx1)≒(Rx2)
であるため、
表示画像における左端と右端の奥行き:ZL,ZRは、
ZL≒ZR
となる。
画像処理装置は、この入力LR画像の水平方向への縮小処理と表示位置制御を行うことで、視差制御を行い、入力LR画像と異なる視差を発生させた3次元画像表示を行うことが可能となる。
本例では、表示画面全体を画面の手前に知覚可能な設定とした処理を実現している。
次に、処理例2として、表示面より奥に表示オブジェクトを知覚させる表示処理例について図4を参照して説明する。
(a)表示画像生成例2
(b)表示画像知覚例2(全体が奥に沈む)
これらの図を示している。
前述したように、本開示の画像処理装置では、予め生成された3次元画像表示用の左目用画像(L画像)と右目用画像(R画像)を入力して、これらのLR画像の少なくとも一方の画像に対して水平方向の画像縮小処理を実行して補正LR画像を生成して、生成した補正LR画像の表示位置を決定する処理を行う。
入力画像としての左目用画像(L画像)と右目用画像(R画像)の双方を、水平方向に縮小して左目用補正画像131と右目用補正画像132を生成する処理例を示している。
例えば縮小した左目用補正画像131と縮小した右目用補正画像132を交互に出力し、シャッター式メガネを装着した観察者が、左目用補正画像131を左目でのみ観察し、右目用補正画像132を右目でのみ観察する設定とすることで、3D画像として観察可能となる。
画像処理装置に入力する元の入力LR画像の画像幅をWとする。
画像処理装置は、入力L画像の水平幅をLx2削減し、L画像の水平方向の画像幅を、
Wから(W−Lx2)、
とする縮小処理を実行する。
すなわち、L画像の水平方向の縮小率をLmとしたとき、
Lm=(W−Lx2)/W
上記縮小率の設定とした画像水平方向の画像縮小処理を実行して、左目用補正画像131を生成する。
Wから(W−Rx1)、
とする縮小処理を実行する。
すなわち、R画像の水平方向の縮小率をRmとしたとき、
Rm=(W−Rx1)/W
上記縮小率の設定とした画像水平方向の画像縮小処理を実行して、右目用補正画像132を生成する。
なお、本処理例では、Rx1≒Lx2であるものとする。
生成した左目用補正画像131と右目用補正画像132の表示部における表示位置を決定する。
表示部における表示位置は、図4(a)に示す左目用補正画像131、右目用補正画像132の位置である。
すなわち、図4(a)の左目用補正画像131、右目用補正画像132の各々に示す横幅=W(x=0〜w)の点線枠を表示部の表示画面領域としたとき、
左目用補正画像131は、x=0〜(w−Lx2)の位置を表示位置とする。
右目用補正画像132は、x=Rx1〜wの位置を表示位置とする。
補正前の入力LR画像をそのまま表示装置に表示した場合は、
L画像もR画像も、x=0〜wの位置に表示される。
画像処理装置は、この左目用補正画像131の表示位置を、
x=0〜(w−Lx2)
の位置とする表示位置決定処理を行う。
画像処理装置は、この右目用補正画像122の表示位置を、
x=Rx1〜w
の位置とする表示位置決定処理を行う。
すなわち、入力LR画像をそのまま表示部に表示した場合は、オブジェクト(りんご)とオブジェクト(みかん)について、観察者は、表示部の表示面の奥行位置に存在するオブジェクトとして知覚するものとする。
すなわち、先に図1(a)を参照して説明した設定である。
すなわち、オブジェクト(りんご)とオブジェクト(みかん)は、いずれも表示面141より奥側に沈み込んだ(遠い)知覚面142上に存在するように観察される。
この原理は、先に図1(b)を参照して説明した原理に基づくものである。
表示画像における左端と右端の奥行きについて各々、
左端奥行き=ZL、
右端奥行き=ZR、
これらの表示面と知覚面との距離情報を示している。
左側のオブジェクト(りんご)のオブジェクトずれ量=(Rx1)
右側のオブジェクト(みかん)のオブジェクトずれ量=(Lx2)
なお、
オブジェクトずれ量=(Rx1)≒(Lx2)
である。
オブジェクトずれ量=(Rx1)≒(Lx2)
であるため、
表示画像における左端と右端の奥行き:ZL,ZRは、
ZL≒ZR
となる。
画像処理装置は、この入力LR画像の水平方向への縮小処理と表示位置制御を行うことで、視差制御を行い、入力LR画像と異なる視差を発生させた3次元画像表示を行うことが可能となる。
本例では、表示画面全体を画面より遠い位置に知覚可能な設定とした処理を実現している。
次に、処理例3として、左側を手前、右側を奥に表示オブジェクトを知覚させる表示処理例について図5を参照して説明する。
(a)表示画像生成例3
(b)表示画像知覚例3(左が手前、右が奥に沈む)
これらの図を示している。
前述したように、本開示の画像処理装置では、予め生成された3次元画像表示用の左目用画像(L画像)と右目用画像(R画像)を入力して、これらのLR画像の少なくとも一方の画像に対して水平方向の画像縮小処理を実行して補正LR画像を生成して、生成した補正LR画像の表示位置を決定する処理を行う。
入力画像としての左目用画像(L画像)のみを、水平方向に縮小して左目用補正画像151を生成する。
右目用画像152は、入力した右目用画像(R画像)をそのまま利用する。
例えば縮小した左目用補正画像151と右目用画像152を交互に出力し、シャッター式メガネを装着した観察者が、左目用補正画像151を左目でのみ観察し、右目用画像152を右目でのみ観察する設定とすることで、3D画像として観察可能となる。
画像処理装置に入力する元の入力LR画像の画像幅をWとする。
画像処理装置は、入力L画像の水平幅を、(Lx1+Lx2)削減し、L画像の水平方向の画像幅を、
Wから(W−(Lx1+Lx2))、
とする縮小処理を実行する。
すなわち、L画像の水平方向の縮小率をLmとしたとき、
Lm=(W−(Lx1+Lx2))/W
上記縮小率の設定とした画像水平方向の画像縮小処理を実行して、左目用補正画像151を生成する。
なお、本処理例では、Lx1≒Lx2であるものとする。
右目用画像152は、入力した右目用画像(R画像)をそのまま利用する。
生成した左目用補正画像151と右目用画像152の表示部における表示位置を決定する。
表示部における表示位置は、図5(a)に示す左目用補正画像151、右目用画像152の位置である。
すなわち、図5(a)の左目用補正画像151、右目用画像152の各々に示す横幅=W(x=0〜w)の点線枠を表示部の表示画面領域としたとき、
左目用補正画像151は、x=Lx1〜(w−Lx2)の位置を表示位置とする。
右目用画像152は、x=0〜wの位置を表示位置とする。
補正前の入力LR画像をそのまま表示装置に表示した場合は、
L画像もR画像も、x=0〜wの位置に表示される。
画像処理装置は、この左目用補正画像151の表示位置を、
x=Lx1〜(w−Lx2)
の位置とする表示位置決定処理を行う。
画像処理装置は、この右目用画像152の表示位置を、
x=0〜w
の位置とする表示位置決定処理を行う。
すなわち、入力LR画像をそのまま表示部に表示した場合は、オブジェクト(りんご)とオブジェクト(みかん)について、観察者は、表示部の表示面の奥行位置に存在するオブジェクトとして知覚するものとする。
すなわち、先に図1(a)を参照して説明した設定である。
すなわち、左側のオブジェクト(りんご)は、表示面161より手前に知覚され、右側のオブジェクト(みかん)は、表示面161より奥側に沈み込んだ(遠い)知覚面162上に存在するように観察される。
この原理は、先に図1(b)、図2を参照して説明した原理に基づくものである。
表示画像における左端と右端の奥行きについて各々、
左端奥行き=ZL、
右端奥行き=ZR、
これらの表示面と知覚面との距離情報を示している。
左側のオブジェクト(りんご)のオブジェクトずれ量=(Lx1)
右側のオブジェクト(みかん)のオブジェクトずれ量=(Lx2)
なお、
オブジェクトずれ量=(Lx1)≒(Lx2)
である。
この結果、左側のオブジェクト(りんご)については表示面161より手前に知覚され、右側のオブジェクト(みかん)は表示面161より観察者から遠い位置に知覚される。
オブジェクトずれ量=(Lx1)≒(Lx2)
であるため、
表示画像における左端と右端の奥行き:ZL,ZRは、
ZL≒ZR
となる。
画像処理装置は、この入力LR画像の水平方向への縮小処理と表示位置制御を行うことで、視差制御を行い、入力LR画像と異なる視差を発生させた3次元画像表示を行うことが可能となる。
本例では、左側が表示面より手前、右側が表示面より奥に位置する斜めの知覚面上に各オブジェクトが存在するように知覚させる表示処理を実現している。
次に、処理例4として、左側を奥、右側を手前に表示オブジェクトを知覚させる表示処理例について図6を参照して説明する。
(a)表示画像生成例4
(b)表示画像知覚例4(左が奥に沈み、右が手前)
これらの図を示している。
前述したように、本開示の画像処理装置では、予め生成された3次元画像表示用の左目用画像(L画像)と右目用画像(R画像)を入力して、これらのLR画像の少なくとも一方の画像に対して水平方向の画像縮小処理を実行して補正LR画像を生成して、生成した補正LR画像の表示位置を決定する処理を行う。
入力画像としての右目用画像(R画像)のみを、水平方向に縮小して右目用補正画像172を生成する。
左目用画像171は、入力した左目用画像(L画像)をそのまま利用する。
例えば左目用画像171と縮小した右目用補正画像172を交互に出力し、シャッター式メガネを装着した観察者が、左目用画像171を左目でのみ観察し、右目用補正画像172を右目でのみ観察する設定とすることで、3D画像として観察可能となる。
画像処理装置に入力する元の入力LR画像の画像幅をWとする。
画像処理装置は、左目用画像171は、入力した左目用画像(L画像)をそのまま利用する。
Wから(W−(Rx1+Rx2))、
とする縮小処理を実行する。
すなわち、R画像の水平方向の縮小率をRmとしたとき、
Rm=(W−(Rx1+Rx2))/W
上記縮小率の設定とした画像水平方向の画像縮小処理を実行して、右目用補正画像172を生成する。
なお、本処理例では、Rx1≒Rx2であるものとする。
左目用画像171と右目用補正画像172の表示部における表示位置を決定する。
表示部における表示位置は、図6(a)に示す左目用画像171、右目用補正画像172の位置である。
すなわち、図6(a)の左目用画像171、右目用補正画像172の各々に示す横幅=W(x=0〜w)の点線枠を表示部の表示画面領域としたとき、
左目用画像171は、x=0〜wの位置を表示位置とする。
右目用補正画像172は、x=Rx1〜(w−Rx2)の位置を表示位置とする。
補正前の入力LR画像をそのまま表示装置に表示した場合は、
L画像もR画像も、x=0〜wの位置に表示される。
画像処理装置は、この右目用補正画像172の表示位置を、
x=Rx1〜(w−Rx2)
の位置とする表示位置決定処理を行う。
画像処理装置は、この左目用画像171の表示位置を、
x=0〜w
の位置とする表示位置決定処理を行う。
すなわち、入力LR画像をそのまま表示部に表示した場合は、オブジェクト(りんご)とオブジェクト(みかん)について、観察者は、表示部の表示面の奥行位置に存在するオブジェクトとして知覚するものとする。
すなわち、先に図1(a)を参照して説明した設定である。
すなわち、左側のオブジェクト(りんご)は、表示面181より奥側に沈み込んだ(遠い)位置に知覚され、右側のオブジェクト(みかん)は、表示面161より手前に知覚される。すなわち、知覚面182上に存在するように観察される。
この原理は、先に図1(b)、図2を参照して説明した原理に基づくものである。
表示画像における左端と右端の奥行きについて各々、
左端奥行き=ZL、
右端奥行き=ZR、
これらの表示面と知覚面との距離情報を示している。
左側のオブジェクト(りんご)のオブジェクトずれ量=(Rx1)
右側のオブジェクト(みかん)のオブジェクトずれ量=(Rx2)
なお、
オブジェクトずれ量=(Rx1)≒(Rx2)
である。
この結果、左側のオブジェクト(りんご)については表示面181より奥に知覚され、右側のオブジェクト(みかん)は表示面181より手前に知覚される。
オブジェクトずれ量=(Rx1)≒(Rx2)
であるため、
表示画像における左端と右端の奥行き:ZL,ZRは、
ZL≒ZR
となる。
画像処理装置は、この入力LR画像の水平方向への縮小処理と表示位置制御を行うことで、視差制御を行い、入力LR画像と異なる視差を発生させた3次元画像表示を行うことが可能となる。
本例では、左側が表示面より奥、右側が表示面より手前に位置する斜めの知覚面上に各オブジェクトが存在するように知覚させる表示処理を実現している。
次に、図7以下を参照して本開示の一実施例に係る画像処理装置の構成と処理について説明する。
図7に示す画像処理装置300は、外部から、3D画像表示用の左目用画像(L画像)201と右目用画像(R画像)202を入力し、これらの入力画像に対する画像処理を実行して、例えば3D画像表示可能なテレビなどの表示部に出力する出力画像251を生成する。
さらに、先に図3〜図6を参照して説明した入力LR画像の縮小処理や表示位置決定処理を実行する処理部として、
入力L画像201に対する処理を実行するL画像立体感調整部350、
入力R画像202に対する処理を実行するR画像立体感調整部360、
を有する。
L画像立体感調整部350は、縮小処理実行部351、表示位置決定部352、画像調整部353を有する。
R画像立体感調整部360は、縮小処理実行部361、表示位置決定部362、画像調整部363を有する。
また、ユーザからの入力情報などを入力する入力部330と、
入力部330からの入力情報、あるいは予め既定されたデフォルト設定情報に従って立体感の調整量を決定する立体感調整量決定部340を有する。
なお、図には示していないが、画像処理装置300は、図に示す構成の他、各構成部の処理の制御を実行する制御部と、制御部において実行するプログラムや処理パラメータ等を格納したメモリを有する。
まず、入力画像としての左目用画像(L画像)201、右目用画像(R画像)202の例について図8を参照して説明する。
(a)LR画像を1フレームごとに交互に伝送するフレームシーケンシャル方式
(b)LR画像を1フレームの左右に分割した領域に格納して伝送するサイドバイサイド方式
(c)LR画像を1フレームの上下に分割した領域に格納して伝送するトップアンドボトム方式
例えば、このような伝送方式で伝送されるLR画像が画像処理装置300に入力される。
具体的には、例えば図3〜図6を参照して説明した例では、画像幅:W=0〜wの画像に調整する処理である。画像高さも表示面372の高さに適合するね設定に調整する。
入力部330には、ユーザによって例えば立体感の設定情報などが入力される。具体的には、例えば以下の情報である。
左奥行き情報:ZL
右奥行き情報:ZR
等である。
これらの奥行き情報ZL,ZRは、図3〜図6を参照して説明した奥行き情報に相当し、表示面からの距離に対応する。
すなわち、図9に示すように、表示面611から知覚面612の距離に相当する値である。
表示面より手前側(観察者に近い)を(−)
表示面より奥側(観察者から遠い)を(+)
とした設定例について説明する。
例えば、パラメータの許容設定範囲が、
ZL=−50〜+50
ZR=−50〜+50
このような許容値が設定されていると想定する。
ZL=−50、
ZR=−50、
このようなパラメータを入力すると、先に、図3を参照して説明したような、知覚面が表示面より手前(観察者に近い位置)に設定されるような3D画像表示制御が行われる。
ZL=+50、
ZR=+50、
このようなパラメータを入力すると、先に、図4を参照して説明したような、知覚面が表示面より奥(観察者から遠い位置)に設定されるような3D画像表示制御が行われる。
ZL=−50、
ZR=+50、
このようなパラメータを入力すると、先に、図5を参照して説明したような、知覚面が、左側が表示面より手前(観察者に近い位置)、右側が表示面より奥(観察者から遠い位置)に設定されるような3D画像表示制御が行われる。
(1)ZL=0,ZR=0:通常の立体表示
(2)ZL=正数、ZR=正数:知覚面全体を表示面より奥(観察者から遠い位置)に設定、
(3)ZL=負数、ZR=負数:知覚面全体を表示面より手前(観察者に近い位置)に設定、
(4)ZL=負数、ZR=正数:知覚面の左(L)側を表示面より手前(観察者に近い位置)、右(R)側を表示面より奥(観察者から遠い位置)に設定、
(5)ZL=0、ZR=負数:知覚面の左(L)側を表示面の位置、右(R)側を表示面より手前(観察者に近い位置)に設定、
例えば、このような制御が可能となる。
立体感調整量決定部340は、入力部330から入力される情報、あるいは予め既定されたデフォルト設定情報に従って立体感の調整量を決定する。
左奥行き情報:ZL
右奥行き情報:ZR
これらの情報が入力される。
具体的には、図11に示すように、
L画像表示位置:Lx1,Lx2、
R画像表示位置:Rx1,Rx2、
L画像縮小率:Lm、
R画像縮小率:Rm、
これらの調整量(制御パラメータ)を決定する。
Lx1は、左目用画像(L画像)の左端の表示位置、
Lx2は、左目用画像(L画像)の右端の表示位置、
Rx1は、右目用画像(R画像)の左端の表示位置、
Rx2は、右目用画像(R画像)の右端の表示位置、
である。
すなわち、
左目用画像(L画像)の横幅は、(Lx2−Lx1)
右目用画像(R画像)の横幅は、(Rx2−Rx1)
である。
L画像縮小率:Lmは、
(W−(Lx2−Lx1))/W
R画像縮小率:Rmは、
(W−(Rx2−Rx1))/W
上記式に従って算出される。
R画像表示位置:Rx1,Rx2、
これらの各位置は、入力部330から入力する以下の奥行き情報に応じて決定する。
左奥行き情報:ZL
右奥行き情報:ZR
例えば左側を表示面(画面)の手前に表示させる場合は、
ZL<0であり、
この場合、
Lx1>Rx1
上記条件を満足する設定とすればよい。
これは図3、図5の設定に対応する。
ZL>0であり、
この場合、
Lx1<Rx1
上記条件を満足する設定とすればよい。
これは図4、図6の設定に対応する。
ZR<0であり、
この場合、
Lx2<Rx2
上記条件を満足する設定とすればよい。
これは図3、図6の設定に対応する。
ZR>0であり、
この場合、
Lx2>Rx2
上記条件を満足する設定とすればよい。
これは図4、図5の設定に対応する。
左奥行き情報:ZL
右奥行き情報:ZR
これらの情報に従って、
L画像表示位置:Lx1,Lx2、
R画像表示位置:Rx1,Rx2、
これらの表示位置を決定する。
L画像表示位置:Lx1,Lx2、
R画像表示位置:Rx1,Rx2、
これらを算出する。
L画像表示位置:Lx1,Lx2、
R画像表示位置:Rx1,Rx2、
これらの値を適用して、
L画像縮小率:Lm、
R画像縮小率:Rm、
これらを算出する。
L画像表示位置:Lx1,Lx2、
R画像表示位置:Rx1,Rx2、
L画像縮小率:Lm、
R画像縮小率:Rm、
これらのパラメータは、L画像立体感調整部350、R画像立体感調整部360に提供される。
L画像立体感調整部350、R画像立体感調整部360は、左目用画像と右目用画像の少なくともいずれかの画像の横方向への縮小処理または拡大処理を実行して視差調整を施した補正画像を生成する。
この処理について、図12を参照して説明する。
L画像表示位置:Lx1,Lx2、
L画像縮小率:Lm、
これらの制御パラメータは、L画像立体感調整部350に入力される。
さらに、L画像立体感調整部350の表示位置決定部352は、L画像表示位置:Lx1,Lx2に従って、L画像の表示位置を決定する。
さらに、画像調整部353は、縮小されたL画像を決定された位置に表示するために必要となるその他の画像調整を実行して表示部370の立体画像合成部371に出力する。
R画像表示位置:Rx1,Rx2、
R画像縮小率:Rm、
これらの制御パラメータは、R画像立体感調整部360に入力される。
さらに、R画像立体感調整部360の表示位置決定部362は、R画像表示位置:Rx1,Rx2に従って、R画像の表示位置を決定する。
さらに、画像調整部363は、縮小されたR画像を決定された位置に表示するために必要となるその他の画像調整を実行して表示部370の立体画像合成部371に出力する。
次に、画像処理装置の実行する処理シーケンスについて図13に示すフローチャートを参照して説明する。
この処理は、図7に示すL画像画角変換部311、R画像画角変換部321において実行する処理である。L画像画角変換部311、R画像画角変換部321は、入力LR画像の画角を、出力する表示面の表示可能領域の大きさに調整する。
また、表示面の特徴に合うように、輝度成分や色差成分を調整してもよい。
左奥行き情報:ZL
右奥行き情報:ZR
これらの情報が入力されたか否かを判定する処理である。
入力がない場合は、ステップS103に進む。
ステップS103では、入力LR画像に付属して設定されたメタデータ(属性情報)に基づいて設定値(左奥行き情報:ZL,右奥行き情報:ZR)を決定するか、あるいは既定の設定値(デフォルト値)を利用する処理を行う。
ステップS103では、例えば、入力画像の輝度成分、色差成分などの検出結果の比較から左目用画像と右目用画像の特徴点のずれなどといった特徴量に基づいて、設定値(左奥行き情報:ZL,右奥行き情報:ZR)を算出する構成としてもよい。
具体的には、先に図11を参照して説明したように、
L画像表示位置:Lx1,Lx2、
R画像表示位置:Rx1,Rx2、
L画像縮小率:Lm、
R画像縮小率:Rm、
これらの調整量(制御パラメータ)を決定する。
ステップS102〜S104の処理は、図7に示す立体感調整量決定部340において実行される。
これらの処理は、図7に示すL画像立体感調整部350、R画像立体感調整部360において実行される。
この処理は、図7に示す表示部370において実行される。
少なくともいずれかを縮小した左目用補正画像と右目用補正画像を交互に出力し、シャッター式メガネを装着した観察者が、左目用補正画像を左目でのみ観察し、右目用補正画像を右目でのみ観察する設定とすることで、例えば先に図3〜図6を参照して説明した知覚面上で3D画像として観察することが可能となる。
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
(1) 3次元画像表示に適用する左目用画像と右目用画像を入力し、入力画像の補正処理により立体感調整を実行する立体感調整部を有し、
前記立体感調整部は、
前記左目用画像と右目用画像の少なくともいずれかの画像の横方向への縮小処理または拡大処理を実行して視差調整を施した補正画像を生成する画像処理装置。
(3)前記画像処理装置は、画像設定情報を入力可能とした入力部と、前記入力部を介する画像設定情報に応じて、画像の補正態様を決定する制御パラメータを決定する立体感調整量決定部を有し、前記立体感調整部は、前記立体感調整量決定部の決定した制御パラメータに従った画像補正処理と表示位置決定処理を実行する前記()1)または(2)に記載の画像処理装置。
(5)前記立体感調整量決定部は、入力画像に付属するメタデータに基づいて、左目用画像と右目用画像の拡縮率と、表示部に対する表示位置を決定する前記(1)〜(4)いずれかに記載の画像処理装置。
(6)前記画像処理装置は、さらに、前記立体感調整部の生成した補正画像としての左目用画像と右目用画像を適用した3次元画像表示を実行する表示部を有する前記(1)〜(5)いずれかに記載の画像処理装置。
具体的には、3次元画像表示に適用する左目用画像と右目用画像を入力し、入力画像の補正処理により立体感調整を実行する立体感調整部を有する。立体感調整部は、例えばユーザ入力された設定情報に応じて、左目用画像と右目用画像の少なくともいずれかの画像の横方向への縮小処理または拡大処理を実行し、視差調整を施した補正画像を生成する。さらに、この補正画像の表示部に対する表示位置を決定して表示部に出力して3次元画像表示処理を実行させる。
本構成では、例えば画像の縮小処理のみで視差の調整が可能となり、任意の奥行き位置に表示オブジェクトを表示させる制御が可能となる。
311 L画像画角変換部
321 R画像画角変換部
330 入力部
340 立体感調整量決定部
350 L画像立体感調整部
351 縮小処理実行部
352 表示位置決定部
353 画像調整部
360 R画像立体感調整部
361 縮小処理実行部
362 表示位置決定部
363 画像調整部
370 表示部
371 立体画像合成部
372 表示面
Claims (8)
- 3次元画像表示に適用する左目用画像と右目用画像を入力し、入力画像の補正処理により立体感調整を実行する立体感調整部を有し、
前記立体感調整部は、
前記左目用画像と右目用画像の少なくともいずれかの画像の横方向への縮小処理または拡大処理を実行して視差調整を施した補正画像を生成する画像処理装置。 - 前記立体感調整部は、
左目用画像と右目用画像の少なくともいずれかの画像を横方向に縮小または拡大し生成した補正画像の表示部に対する表示位置を決定する請求項1に記載の画像処理装置。 - 前記画像処理装置は、
画像設定情報を入力可能とした入力部と、
前記入力部を介する画像設定情報に応じて、画像の補正態様を決定する制御パラメータを決定する立体感調整量決定部を有し、
前記立体感調整部は、前記立体感調整量決定部の決定した制御パラメータに従った画像補正処理と表示位置決定処理を実行する請求項1に記載の画像処理装置。 - 前記入力部から入力される画像設定情報は、
表示画像の左右端部の奥行き情報:ZL,ZRであり、
前記立体感調整量決定部は、
前記奥行き情報:ZL,ZRに基づいて、左目用画像と右目用画像の拡縮率と、表示部に対する表示位置を決定する請求項3に記載の画像処理装置。 - 前記立体感調整量決定部は、
入力画像に付属するメタデータに基づいて、左目用画像と右目用画像の拡縮率と、表示部に対する表示位置を決定する請求項3に記載の画像処理装置。 - 前記画像処理装置は、さらに、
前記立体感調整部の生成した補正画像としての左目用画像と右目用画像を適用した3次元画像表示を実行する表示部を有する請求項1に記載の画像処理装置。 - 画像処理装置において実行する画像処理方法であり、
立体感調整部が、3次元画像表示に適用する左目用画像と右目用画像を入力し、入力画像の補正処理により立体感調整を実行する立体感調整ステップを実行し、
前記立体感調整ステップは、
前記左目用画像と右目用画像の少なくともいずれかの画像の横方向への縮小処理または拡大処理を実行して視差調整を施した補正画像を生成するステップである画像処理方法。 - 画像処理装置において画像処理を実行させるプログラムであり、
立体感調整部に、3次元画像表示に適用する左目用画像と右目用画像を入力し、入力画像の補正処理により立体感調整を実行させる立体感調整ステップを実行させ、
前記立体感調整ステップは、
前記左目用画像と右目用画像の少なくともいずれかの画像の横方向への縮小処理または拡大処理を実行して視差調整を施した補正画像を生成させるステップであるプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011085994A JP6089383B2 (ja) | 2011-04-08 | 2011-04-08 | 画像処理装置、および画像処理方法、並びにプログラム |
EP12162079.3A EP2509325A3 (en) | 2011-04-08 | 2012-03-29 | Image processing apparatus, image processing method, and program |
US13/435,177 US9041781B2 (en) | 2011-04-08 | 2012-03-30 | Image processing apparatus, image processing method, and program |
CN201210094555.8A CN102740103B (zh) | 2011-04-08 | 2012-04-01 | 图像处理设备、图像处理方法 |
US14/691,863 US9516300B2 (en) | 2011-04-08 | 2015-04-21 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011085994A JP6089383B2 (ja) | 2011-04-08 | 2011-04-08 | 画像処理装置、および画像処理方法、並びにプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2012222588A true JP2012222588A (ja) | 2012-11-12 |
JP2012222588A5 JP2012222588A5 (ja) | 2014-05-01 |
JP6089383B2 JP6089383B2 (ja) | 2017-03-08 |
Family
ID=46210073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011085994A Expired - Fee Related JP6089383B2 (ja) | 2011-04-08 | 2011-04-08 | 画像処理装置、および画像処理方法、並びにプログラム |
Country Status (4)
Country | Link |
---|---|
US (2) | US9041781B2 (ja) |
EP (1) | EP2509325A3 (ja) |
JP (1) | JP6089383B2 (ja) |
CN (1) | CN102740103B (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6089383B2 (ja) * | 2011-04-08 | 2017-03-08 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
JP5817639B2 (ja) * | 2012-05-15 | 2015-11-18 | ソニー株式会社 | 映像フォーマット判別装置及び映像フォーマット判別方法、並びに映像表示装置 |
KR101917224B1 (ko) * | 2012-09-18 | 2018-11-13 | 엘지이노텍 주식회사 | 영상데이터 전송장치 |
CN109923585B (zh) * | 2016-10-26 | 2021-06-08 | 华为技术有限公司 | 使用立体图像进行深度检测的方法和装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06149227A (ja) * | 1992-11-07 | 1994-05-27 | Sony Corp | 拡大表示装置 |
JPH0819003A (ja) * | 1994-06-29 | 1996-01-19 | Matsushita Electric Ind Co Ltd | 立体画像生成装置 |
JPH08240789A (ja) * | 1995-03-03 | 1996-09-17 | Canon Inc | 画像表示装置及び画像入力装置 |
JPH09187040A (ja) * | 1995-12-28 | 1997-07-15 | Fuji Photo Optical Co Ltd | ズームレンズの駆動装置 |
JP2004214985A (ja) * | 2002-12-27 | 2004-07-29 | Canon Inc | 画像処理装置及び画像再生装置 |
JP2005073013A (ja) * | 2003-08-26 | 2005-03-17 | Sharp Corp | 立体画像表示装置、立体画像表示方法、その方法をコンピュータに実行させるためのプログラム及びそのプログラムを記録した記録媒体 |
JP2011024151A (ja) * | 2009-07-21 | 2011-02-03 | Fujifilm Corp | 画像表示装置および方法並びにプログラム |
JP2012023676A (ja) * | 2010-07-16 | 2012-02-02 | Fujifilm Corp | 立体画像処理装置及び立体画像表示装置 |
JP2012065066A (ja) * | 2010-09-15 | 2012-03-29 | Sharp Corp | 立体画像生成装置、立体画像表示装置、立体画像調整方法、立体画像調整方法をコンピュータに実行させるためのプログラム、及びそのプログラムを記録した記録媒体 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3653790B2 (ja) * | 1995-05-23 | 2005-06-02 | 松下電器産業株式会社 | 立体電子ズーム装置及び立体画質制御装置 |
JP3749227B2 (ja) | 2002-03-27 | 2006-02-22 | 三洋電機株式会社 | 立体画像処理方法および装置 |
JP2006221372A (ja) * | 2005-02-09 | 2006-08-24 | Namco Bandai Games Inc | 立体視用印刷物の製造方法、立体視用印刷物、画像生成方法及びプログラム |
KR100739730B1 (ko) * | 2005-09-03 | 2007-07-13 | 삼성전자주식회사 | 3d 입체 영상 처리 장치 및 방법 |
KR101719980B1 (ko) * | 2010-06-22 | 2017-03-27 | 엘지전자 주식회사 | 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기 |
JP5491786B2 (ja) | 2009-07-21 | 2014-05-14 | 富士フイルム株式会社 | 画像再生装置及び方法 |
JP2011085994A (ja) | 2009-10-13 | 2011-04-28 | Nippon Telegr & Teleph Corp <Ntt> | 広告配信装置、広告配信方法および広告配信プログラム |
JP4763827B2 (ja) * | 2009-11-26 | 2011-08-31 | 富士フイルム株式会社 | 立体画像表示装置、複眼撮像装置及び立体画像表示プログラム |
EP2355526A3 (en) * | 2010-01-14 | 2012-10-31 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
JP6089383B2 (ja) * | 2011-04-08 | 2017-03-08 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
-
2011
- 2011-04-08 JP JP2011085994A patent/JP6089383B2/ja not_active Expired - Fee Related
-
2012
- 2012-03-29 EP EP12162079.3A patent/EP2509325A3/en not_active Withdrawn
- 2012-03-30 US US13/435,177 patent/US9041781B2/en not_active Expired - Fee Related
- 2012-04-01 CN CN201210094555.8A patent/CN102740103B/zh not_active Expired - Fee Related
-
2015
- 2015-04-21 US US14/691,863 patent/US9516300B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06149227A (ja) * | 1992-11-07 | 1994-05-27 | Sony Corp | 拡大表示装置 |
JPH0819003A (ja) * | 1994-06-29 | 1996-01-19 | Matsushita Electric Ind Co Ltd | 立体画像生成装置 |
JPH08240789A (ja) * | 1995-03-03 | 1996-09-17 | Canon Inc | 画像表示装置及び画像入力装置 |
JPH09187040A (ja) * | 1995-12-28 | 1997-07-15 | Fuji Photo Optical Co Ltd | ズームレンズの駆動装置 |
JP2004214985A (ja) * | 2002-12-27 | 2004-07-29 | Canon Inc | 画像処理装置及び画像再生装置 |
JP2005073013A (ja) * | 2003-08-26 | 2005-03-17 | Sharp Corp | 立体画像表示装置、立体画像表示方法、その方法をコンピュータに実行させるためのプログラム及びそのプログラムを記録した記録媒体 |
JP2011024151A (ja) * | 2009-07-21 | 2011-02-03 | Fujifilm Corp | 画像表示装置および方法並びにプログラム |
JP2012023676A (ja) * | 2010-07-16 | 2012-02-02 | Fujifilm Corp | 立体画像処理装置及び立体画像表示装置 |
JP2012065066A (ja) * | 2010-09-15 | 2012-03-29 | Sharp Corp | 立体画像生成装置、立体画像表示装置、立体画像調整方法、立体画像調整方法をコンピュータに実行させるためのプログラム、及びそのプログラムを記録した記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
US20150229917A1 (en) | 2015-08-13 |
US20120256912A1 (en) | 2012-10-11 |
US9041781B2 (en) | 2015-05-26 |
EP2509325A2 (en) | 2012-10-10 |
US9516300B2 (en) | 2016-12-06 |
EP2509325A3 (en) | 2015-10-21 |
JP6089383B2 (ja) | 2017-03-08 |
CN102740103B (zh) | 2016-12-14 |
CN102740103A (zh) | 2012-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8446461B2 (en) | Three-dimensional (3D) display method and system | |
EP2448276B1 (en) | GUI providing method, and display apparatus and 3D image providing system using the same | |
TWI444036B (zh) | 2d至3d使用者介面內容資料轉換 | |
EP2648414B1 (en) | 3d display apparatus and method for processing image using the same | |
JP4748251B2 (ja) | 映像変換方法および映像変換装置 | |
US9167237B2 (en) | Method and apparatus for providing 3-dimensional image | |
JP6089383B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP2003348621A (ja) | 二視点カメラの設定手段 | |
KR101228916B1 (ko) | 멀티 비젼의 3차원 영상 표시 장치 및 방법 | |
JP5036088B2 (ja) | 立体画像処理装置、立体画像処理方法およびプログラム | |
JP2014207492A (ja) | 立体映像表示装置 | |
JP2011223126A (ja) | 立体映像表示装置および立体映像表示方法 | |
JP5250604B2 (ja) | 立体画像表示装置、立体画像表示方法およびプログラム | |
US9547933B2 (en) | Display apparatus and display method thereof | |
JP5708395B2 (ja) | 映像表示装置及び映像表示方法 | |
JP2012142800A (ja) | 画像処理装置及び画像処理方法、並びにコンピューター・プログラム | |
JP5501150B2 (ja) | 表示装置及びその制御方法 | |
US20120320041A1 (en) | Stereoscopic Display Apparatus and Stereoscopic Display Method | |
JP2013090170A (ja) | 立体視映像再生装置 | |
JP2012175309A (ja) | 映像表示装置および映像表示方法 | |
JP2013017052A (ja) | 奥行き信号生成装置、擬似立体画像生成装置、奥行き信号生成方法、および擬似立体画像生成方法 | |
JP2014003533A (ja) | 映像処理装置、映像処理方法及びコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140317 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160912 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170123 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6089383 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |