JP2015012304A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2015012304A JP2015012304A JP2013133670A JP2013133670A JP2015012304A JP 2015012304 A JP2015012304 A JP 2015012304A JP 2013133670 A JP2013133670 A JP 2013133670A JP 2013133670 A JP2013133670 A JP 2013133670A JP 2015012304 A JP2015012304 A JP 2015012304A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- user
- deformed
- amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000006073 displacement reaction Methods 0.000 claims description 119
- 238000004364 calculation method Methods 0.000 claims description 49
- 238000000034 method Methods 0.000 abstract description 35
- 230000008921 facial expression Effects 0.000 description 57
- 230000006870 function Effects 0.000 description 40
- 210000000744 eyelid Anatomy 0.000 description 32
- 238000005516 engineering process Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000004397 blinking Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 208000008918 voyeurism Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/06—Authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/14—Transformations for image registration, e.g. adjusting or mapping for alignment of images
- G06T3/153—Transformations for image registration, e.g. adjusting or mapping for alignment of images using elastic snapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/67—Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/28—Indexing scheme for image data processing or generation, in general involving image processing hardware
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30172—Centreline of tubular or elongated structure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/08—Network architectures or network communication protocols for network security for authentication of entities
- H04L63/0861—Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Security & Cryptography (AREA)
- Computer Networks & Wireless Communication (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Studio Devices (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
Abstract
Description
本技術は、画像処理装置、画像処理方法、及び、プログラムに関し、特に、例えば、ユーザに、所望の撮影状態を、容易にガイドすることができるようにする画像処理装置、画像処理方法、及び、プログラムに関する。 The present technology relates to an image processing device, an image processing method, and a program, and in particular, for example, an image processing device, an image processing method, and an image processing device that can easily guide a user to a desired shooting state. Regarding the program.
近年、例えば、スマートフォンや、携帯電話機、タブレット、PC(Personal Computer)等の各種の機器に、画像を撮影する撮影機能が実装されることが多くなっている。これに伴い、画像を撮影する専用の機器としてのディジタルカメラの他、撮影機能が実装されたカメラ以外の機器でも、画像の撮影が、頻繁に行われている。 In recent years, for example, a photographing function for photographing an image is often implemented in various devices such as a smartphone, a mobile phone, a tablet, and a PC (Personal Computer). Accordingly, images are frequently taken not only by digital cameras as dedicated devices for taking images but also by devices other than cameras equipped with a shooting function.
さらに、各種の機器に、撮影機能が実装されることに伴い、その撮影機能によって撮影された画像を利用する様々なアプリケーションが開発されている。 Furthermore, as a shooting function is implemented in various devices, various applications that use images shot by the shooting function have been developed.
撮影機能によって撮影された画像を利用するアプリケーションである画像利用アプリケーションとしては、例えば、ユーザの目の画像を撮影し、その目の画像を用いて、ユーザが所定のユーザであるかどうかの認証を、虹彩認証によって行う虹彩認証装置がある(例えば、特許文献1を参照)。 As an image utilization application that is an application that uses an image photographed by the photographing function, for example, an image of a user's eye is photographed, and authentication of whether or not the user is a predetermined user is performed using the eye image. There is an iris authentication device that performs iris authentication (see, for example, Patent Document 1).
ところで、ディジタルカメラを含む撮影機能が実装されている機器(以下、撮影機能付き機器ともいう)を用いて、ユーザが撮影した画像である撮影画像が、例えば、画像利用アプリケーション等が要求する所望の撮影状態からずれていることがある。 By the way, a captured image that is an image captured by a user using a device (hereinafter also referred to as a device with a photographing function) including a photographing function including a digital camera is, for example, a desired request requested by an image use application or the like. It may be out of the shooting state.
しかしながら、撮影画像が所望の撮影状態からずれていることを、ユーザが認識することができない場合があり、この場合、所望の撮影状態からずれていることを認識することができていないユーザが、撮影画像が所望の撮影状態になるように、撮影機能付き機器を調整することは困難である。 However, the user may not be able to recognize that the captured image has deviated from the desired shooting state, and in this case, the user who cannot recognize that the captured image has deviated from the desired shooting state. It is difficult to adjust a device with a photographing function so that a photographed image is in a desired photographing state.
本技術は、このような状況に鑑みてなされたものであり、ユーザに、所望の撮影状態を、容易にガイドすることができるようにするものである。 The present technology has been made in view of such a situation, and makes it possible to easily guide a user to a desired shooting state.
本技術の画像処理装置、又は、プログラムは、画像を取得する画像取得部によって取得された取得画像が、所望の撮影状態からずれている場合に、前記所望の撮影状態からのずれを大きくした大ずれ画像を生成する画像生成部を備える画像処理装置、又は、そのような画像処理装置として、コンピュータを機能させるためのプログラムである。 The image processing apparatus or the program according to an embodiment of the present technology is configured to increase the deviation from the desired shooting state when the acquired image acquired by the image acquisition unit that acquires the image is shifted from the desired shooting state. An image processing apparatus including an image generation unit that generates a shifted image, or a program for causing a computer to function as such an image processing apparatus.
本技術の画像処理方法は、画像を取得する画像取得部によって取得された取得画像が、所望の撮影状態からずれている場合に、前記所望の撮影状態からのずれを大きくした大ずれ画像を生成するステップを含む画像処理方法である。 The image processing method according to an embodiment of the present technology generates a large shift image in which a shift from the desired shooting state is large when the acquired image acquired by the image acquisition unit that acquires the image is shifted from the desired shooting state. An image processing method including the step of:
本技術においては、画像を取得する画像取得部によって取得された取得画像が、所望の撮影状態からずれている場合に、前記所望の撮影状態からのずれを大きくした大ずれ画像が生成される。 In the present technology, when an acquired image acquired by an image acquisition unit that acquires an image is deviated from a desired shooting state, a large shift image in which the shift from the desired shooting state is increased is generated.
なお、画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。 Note that the image processing apparatus may be an independent apparatus or an internal block constituting one apparatus.
また、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。 The program can be provided by being transmitted via a transmission medium or by being recorded on a recording medium.
本技術によれば、ユーザに、所望の撮影状態を、容易にガイドすることができる。 According to the present technology, it is possible to easily guide a user to a desired shooting state.
なお、本明細書に記載された効果は、あくまで例示であり、本技術の効果は、本明細書に記載された効果に限定されるものではなく、付加的な効果があってもよい。 In addition, the effect described in this specification is an illustration to the last, and the effect of this technique is not limited to the effect described in this specification, and there may be an additional effect.
<本技術を適用した画像処理装置の一実施の形態> <One embodiment of an image processing apparatus to which the present technology is applied>
図1は、本技術を適用した画像処理装置の一実施の形態の構成例を示すブロック図である。 FIG. 1 is a block diagram illustrating a configuration example of an embodiment of an image processing apparatus to which the present technology is applied.
図1の画像処理装置は、例えば、スマートフォンや、携帯電話機、タブレット、PC等の各種の機器に適用することができる。ここでは、図1の画像処理装置は、例えば、スマートフォンに適用されていることとする。 The image processing apparatus in FIG. 1 can be applied to various devices such as a smartphone, a mobile phone, a tablet, and a PC. Here, it is assumed that the image processing apparatus in FIG. 1 is applied to, for example, a smartphone.
図1において、スマートフォンとしての画像処理装置は、画像取得部10、画像判定部20、デフォルメ処理部30、表示部40、画像処理部50、保存部60、操作部70、及び、制御部80を有する。
In FIG. 1, an image processing apparatus as a smartphone includes an
画像取得部10は、例えば、ユーザによる操作部70の操作等に従って、画像を取得し、その取得した画像である取得画像を、画像判定部20、デフォルメ処理部32、及び、画像処理部50に供給する。
The
すなわち、画像取得部10は、例えば、画像を撮影する撮影部であり、画像を撮影して、その結果得られる撮影画像を、取得画像として、画像判定部20、デフォルメ処理部32、及び、画像処理部50に供給する。
That is, the
その他、画像取得部10は、例えば、インターネット等のネットワークとの間のインターフェースや、ディジタルカメラ等の画像を提供可能な画像提供装置との間のインターフェースとして機能し、ネットワーク上の画像や、画像提供装置から提供される画像等を、有線通信や無線通信等によって取得することができる。
In addition, the
なお、以下では、画像取得部10は、例えば、画像を撮影する撮影部であることとし、その撮影部によって撮影された撮影画像が、撮影部である画像取得部10から、画像判定部20、デフォルメ処理部32、及び、画像処理部50に供給されることとする。
In the following description, the
画像判定部20は、画像取得部10からの撮影画像(取得画像)が、所望の撮影状態からずれているかどうかを判定し、その判定結果を表すずれ判定情報を、デフォルメ処理部30、及び、画像処理部50に供給する。
The
すなわち、画像判定部20は、実変位量算出部21、所望撮影状態設定部22、及び、判定部23を有する。
That is, the
実変位量算出部21には、画像取得部10から、撮影画像が供給されるとともに、所望撮影状態設定部22から、所望撮影状態情報が供給される。
The actual displacement
実変位量算出部21は、画像取得部10からの撮影画像の状態と、所望撮影状態設定部22からの所望撮影状態情報が表す所望撮影状態とのずれを表すずれ量である実変位量を算出し、判定部23に供給する。
The actual displacement
所望撮影状態設定部22は、例えば、画像処理部50からの要求等に応じて、その画像処理部50(の画像処理)にとって、撮影画像の最適な撮影状態である所望撮影状態を設定し、その所望撮影状態を表す所望撮影状態情報を、実変位量算出部21に供給する。
For example, in response to a request from the
判定部23は、実変位量算出部21からの実変位量に基づいて、画像取得部10からの撮影画像が、所望撮影状態からずれているかどうかを判定し、その判定結果を表すずれ判定情報を、デフォルメ処理部30、及び、画像処理部50に供給する。
The
なお、ずれ判定情報には、実変位量算出部21からの実変位量が含まれる。
The deviation determination information includes the actual displacement amount from the actual displacement
デフォルメ処理部30は、画像判定部20の判定部23から供給されるずれ判定情報に基づいて、所望撮影状態からのずれを大きくした大ずれ画像としてのデフォルメ画像を生成し、表示部40に供給する。
The
すなわち、デフォルメ処理部30は、デフォルメ量算出部31、及び、デフォルメ画像生成部32を有する。
That is, the
デフォルメ量算出部31には、画像判定部20の判定部23から、ずれ判定情報が供給される。
The deformation
デフォルメ量算出部31は、判定部23からのずれ判定情報が、撮影画像が所望撮影状態からずれている旨を表している場合、例えば、判定部23からのずれ判定情報に含まれる実変位量に応じて、大ずれ画像の所望撮影状態からのずれ量(大ずれ量)としての、デフォルメ画像のデフォルメ量を算出し、デフォルメ画像生成部32に供給する。
For example, when the displacement determination information from the
なお、ずれ判定情報が、撮影画像が所望撮影状態からずれていない旨を表している場合、デフォルメ量算出部31は、例えば、デフォルメ量として、0を、デフォルメ画像生成部32に供給する。
When the deviation determination information indicates that the photographed image is not deviated from the desired photographing state, the deformation
デフォルメ画像生成部32は、画像取得部10から供給される撮影画像や所定のグラフィックス画像を用いて、デフォルメ量算出部31から供給されるデフォルメ量だけ、所望撮影状態からのずれ(撮影画像と所望撮影状態とのずれ)を大きくした大ずれ画像、すなわち、例えば、所望撮影状態からのずれをデフォルメしたデフォルメ画像を生成し、表示部40に供給する。
The deformed
なお、デフォルメ画像生成部32は、デフォルメ量算出部31から供給されるデフォルメ量が0である場合には、画像取得部10から供給される撮影画像や所定のグラフィックス画像を、そのまま表示部40に供給する。
When the deformation amount supplied from the deformation
表示部40は、液晶パネルや有機EL(Electro-Luminescence)パネル等で構成され、デフォルメ処理部30のデフォルメ画像生成部32から供給される画像(撮影画像、所定のグラフィックス画像、又は、撮影画像、若しくは、所定のグラフィックス画像をデフォルメしたデフォルメ画像)を表示する。
The
画像処理部50は、例えば、画像取得部10からの撮影画像を利用する画像利用アプリケーションであり、画像取得部10からの撮影画像の符号化や、保存部60への保存(記憶)、その他の撮影画像を用いた所定の画像処理を行う。
The
すなわち、画像処理部50は、その画像処理部50(の画像処理)にとって最適な撮影状態の撮影画像を、所望撮影状態設定部22に要求する。
That is, the
そして、画像処理部50は、判定部23から、撮影画像が所望撮影状態からずれていない旨(撮影画像が所望撮影状態になっている旨)のずれ判定情報が供給されると、そのときに、画像取得部10から供給された撮影画像を用いて、所定の画像処理を行う。
When the
ここで、画像利用アプリケーションとしては、例えば、虹彩認証や顔認証を行って、スマートフォンとしての画像処理装置のロックを解除する認証装置がある。その他、画像利用アプリケーションとしては、例えば、証明写真等の顔をメインとする顔画像の撮影や、被写体を極端にクローズアップしたマクロ撮影、その他の任意の撮影を行うときに、その撮影を補助する撮影補助装置等がある。 Here, as the image use application, for example, there is an authentication device that performs iris authentication and face authentication to unlock the image processing apparatus as a smartphone. In addition, as an image utilization application, for example, when photographing a face image mainly of a face such as an ID photo, macro shooting with an extremely close-up of the subject, or any other shooting, the shooting is assisted. There are photographing assistance devices.
保存部60は、半導体メモリや、ハードディスク等であり、画像処理部50からの制御に従い、画像処理部50から供給される撮影画像を記憶(保存)する。
The storage unit 60 is a semiconductor memory, a hard disk, or the like, and stores (saves) a captured image supplied from the
操作部70は、物理的なボタンや、(表示部40と一体的に構成される)タッチスクリーンに表示される仮想的なボタン等であり、ユーザによって操作される。操作部70は、ユーザの操作に応じた操作信号を制御部80に供給する。
The
制御部80は、操作部70からの操作信号等に応じて、スマートフォンとしての画像処理装置を構成する各ブロックを制御する。
The
図2は、図1のスマートフォンとしての画像処理装置の処理を説明するフローチャートである。 FIG. 2 is a flowchart for explaining processing of the image processing apparatus as the smartphone of FIG.
なお、所望撮影状態設定部22は、既に、画像処理部50からの要求等に応じて、その画像処理部50(の画像処理)にとって、撮影画像の最適な撮影状態である所望撮影状態を設定し、その所望撮影状態を表す所望撮影状態情報を、実変位量算出部21に供給していることとする。
The desired shooting
ステップS11において、画像取得部10は、例えば、画像を撮影することにより取得し、実変位量算出部21、デフォルメ画像生成部32、及び、画像処理部50に供給して、処理は、ステップS12に進む。
In step S11, the
ステップS12では、実変位量算出部21は、画像取得部10からの撮影画像(の状態)の、所望撮影状態設定部22からの所望撮影状態情報が表す所望撮影状態に対するずれ量である実変位量を算出し、判定部23に供給して、処理は、ステップS13に進む。
In step S <b> 12, the actual displacement
ステップS13では、判定部23は、実変位量算出部21からの実変位量に基づいて、画像取得部10からの撮影画像が、所望撮影状態からずれているかどうかを判定する。
In step S <b> 13, the
ステップS13において、撮影画像が所望撮影状態からずれていると判定された場合、判定部23は、撮影画像が所望撮影状態からずれている旨のずれ判定情報に、実変位量算出部21からの実変位量を含めて、デフォルメ量算出部31に供給して、処理は、ステップS14に進む。
When it is determined in step S <b> 13 that the photographed image has deviated from the desired photographing state, the
ステップS14では、デフォルメ量算出部31は、判定部23からの、撮影画像が所望撮影状態からずれている旨のずれ判定情報に従い、そのずれ判定情報に含まれる実変位量に応じて、デフォルメ画像のデフォルメ量を算出し、デフォルメ画像生成部32に供給して、処理は、ステップS15に進む。
In step S <b> 14, the deformation
ステップS15では、デフォルメ画像生成部32は、例えば、画像取得部10から供給される撮影画像を用いて、デフォルメ量算出部31からのデフォルメ量だけ、撮影画像のずれをデフォルメしたデフォルメ画像を生成し、表示部40に供給して、処理は、ステップS16に進む。
In step S15, the deformed
ステップS16では、表示部40において、デフォルメ画像生成部32からのデフォルメ画像が表示される。
In step S <b> 16, the deformed image from the deformed
そして、処理は、ステップS16からステップS11に戻り、以下、ステップS13において、撮影画像が所望撮影状態からずれていないと判定されるまで、ステップS11ないしS16の処理が繰り返される。 Then, the process returns from step S16 to step S11. Hereinafter, the processes of steps S11 to S16 are repeated until it is determined in step S13 that the photographed image is not deviated from the desired photographing state.
したがって、撮影画像が所望撮影状態からずれている(と判定されている)間は、表示部40では、デフォルメ画像が表示される。
Therefore, while the photographed image is deviated from the desired photographing state (determined as being determined), the deformed image is displayed on the
一方、ステップS13において、撮影画像が所望撮影状態からずれていないと判定された場合、すなわち、撮影画像が所望撮影状態になっている場合、判定部23は、撮影画像が所望撮影状態からずれていない旨のずれ判定情報を、デフォルメ量算出部31、及び、画像処理部50に供給して、処理は、ステップS17に進む。
On the other hand, when it is determined in step S13 that the photographed image is not deviated from the desired photographing state, that is, when the photographed image is in the desired photographing state, the
ここで、ずれ判定情報が、撮影画像が所望撮影状態からずれていない旨を表している場合、デフォルメ量算出部31は、デフォルメ量として、0を、デフォルメ画像生成部32に供給する。そして、デフォルメ画像生成部32は、デフォルメ量算出部31から供給されるデフォルメ量が0である場合には、例えば、画像取得部10から供給される撮影画像を、そのまま表示部40に供給する。
Here, when the deviation determination information indicates that the photographed image is not deviated from the desired photographing state, the deformation
その結果、表示部40では、ステップS17において、画像取得部10で取得された撮影画像そのもの、すなわち、所望撮影状態になっている撮影画像が表示され、処理は、ステップS18に進む。
As a result, the
以上のように、撮影画像が所望撮影状態になっている場合には、表示部40では、デフォルメ画像ではなく、所望撮影状態になっている撮影画像が表示される。
As described above, when the photographed image is in the desired photographing state, the
ステップS18では、制御部80は、操作部70が操作されたかどうか、すなわち、例えば、操作部70に含まれる図示せぬシャッタボタン(レリーズボタン)等が操作されたかどうかを判定する。
In step S18, the
ステップS18において、操作部70が操作されていないと判定された場合、処理は、ステップS11に戻る。
If it is determined in step S18 that the
また、ステップS18において、操作部70が操作されたと判定された場合、処理は、ステップS19に進み、画像処理部50は、画像取得部10から供給される撮影画像、すなわち、所望撮影状態になっている撮影画像を保存部60に記憶させる等の所定の画像処理を行って、処理を終了する。
If it is determined in step S18 that the
なお、図2では、撮影画像が所望撮影状態になった後、操作部70が操作された場合に、画像処理部50において、画像処理を行うこととしたが、画像処理部50では、撮影画像が所望撮影状態になった場合には、操作部70の操作を待たずに、画像処理を行うことができる。
In FIG. 2, when the
又は、操作部70が操作されている最中に、撮影画像が所望撮影状態になった場合に、画像処理部50において、画像処理を行うことができる。
Alternatively, when the photographed image is in a desired photographing state while the
<デフォルメ画像の具体例> <Specific examples of deformed images>
以下、画像利用アプリケーションとしての画像処理部50が、例えば、虹彩認証装置である場合を例として、デフォルメ画像の具体例を説明する。
Hereinafter, a specific example of a deformed image will be described by taking as an example the case where the
図3は、図1のスマートフォンとしての画像処理装置において、虹彩認証のために、ユーザが、ユーザ自身を撮影する場合を説明する図である。 FIG. 3 is a diagram illustrating a case where the user photographs the user himself / herself for iris authentication in the image processing apparatus as the smartphone in FIG. 1.
図3のスマートフォンとしての画像処理装置では、画像取得部10としての画像を撮影する撮影部が、表示部40の表示画面と同一の面に設けられている。
In the image processing apparatus as the smartphone in FIG. 3, the photographing unit that captures an image as the
いま、スマートフォンとしての画像処理装置の動作モードとして、表示部40に、画像取得部10で撮影された撮影画像が、いわゆるスルー画として表示される通常モードと、デフォルメ画像がスルー画として表示されるデフォルメモードとがあるとする。なお、通常モード、又は、デフォルメモードへの動作モードの切り替えは、例えば、ユーザによる操作部70の操作等に従って行うことができる。
Now, as an operation mode of an image processing apparatus as a smartphone, a normal mode in which a captured image captured by the
通常モードでは、表示部40には、画像取得部10で撮影された撮影画像がスルー画として表示される。ユーザは、表示部40に表示されたスルー画としての撮影画像を見ながら、その撮影画に映る被写体としてのユーザ自身が適切な状態となるように、スマートフォン(の撮影方向)の向きや、スマートフォンの位置、ユーザ自身の姿勢等を調整することができる。
In the normal mode, the captured image captured by the
そして、撮影画像が、ユーザが適切と考える状態になると、すなわち、例えば、撮影画像に映るユーザが、ユーザが適切と考える大きさで、ユーザが適切と考える位置に配置された状態等になると、ユーザは、操作部70に含まれる図示せぬシャッタボタンを操作する。
Then, when the captured image is in a state that the user thinks appropriate, that is, for example, when the user reflected in the captured image is in a size that the user thinks appropriate and placed in a position that the user thinks appropriate, etc. The user operates a shutter button (not shown) included in the
ユーザがシャッタボタンを操作すると、画像処理部50において、そのときに、画像取得部10で撮影された撮影画像が、例えば、保存部60に記憶される等の所定の画像処理が行われる。
When the user operates the shutter button, the
ここで、図3は、通常モードでの表示部40のスルー画の表示の例を示している。
Here, FIG. 3 shows an example of display of a through image on the
図3では、画像取得部10で撮影された撮影画像が、そのまま、スルー画として、表示部40に表示されている。
In FIG. 3, the captured image captured by the
なお、図3においては(後述する図においても同様)、視認像を図示してある。視認像は、向こう側を向いているユーザを、向こう側にいる第三者から見たときに視認されるユーザの像である。 In FIG. 3 (the same applies to the drawings described later), a visual image is shown. The visual image is an image of a user who is visually recognized when viewing a user facing away from a third party.
すなわち、図3では(後述する図においても同様)、スマートフォンとしての画像処理装置の表示部40の表示画面側を向いているユーザを図示しており、そのような表示画面側を向いているユーザを、そのユーザの表情等の状態を確認することができるように図示することは、困難である。
That is, in FIG. 3 (the same applies to the drawings described later), a user who faces the display screen side of the
そのため、図3では(後述する図においても同様)、向こう側(表示部40の表示画面側)を向いているユーザの表情等の状態を確認することができるように、第三者が向こう側にいたならば、その第三者が視認することができるであろうユーザの像である視認像を図示してある。 Therefore, in FIG. 3 (the same applies to the drawings to be described later), a third party is on the other side so that the facial expression of the user facing the other side (the display screen side of the display unit 40) can be confirmed. If it is, the visual image which is an image of the user who the third party can visually recognize is shown.
通常モードでは、上述したように、撮影画像が、ユーザが適切と考える状態になった場合に、その撮影画像を保存部60に記憶する等の、撮影画像を用いた画像処理が行われる。 In the normal mode, as described above, when the captured image is in a state considered appropriate by the user, image processing using the captured image, such as storing the captured image in the storage unit 60, is performed.
したがって、撮影画像を用いた画像処理として、例えば、虹彩認証が行われる場合に、通常モードでは、虹彩認証にとって適切な撮影状態の撮影画像が撮影されるとは限らない。 Therefore, as image processing using a captured image, for example, when iris authentication is performed, a captured image in a capturing state appropriate for iris authentication is not always captured in the normal mode.
すなわち、虹彩認証に不慣れなユーザにとっては、虹彩認証にとって適切な撮影状態の撮影画像が不明であるために、撮影画像が、虹彩認証にとって適切な撮影状態からずれていることを認識することができず、虹彩認証にとって適切な撮影状態の撮影画像を撮影することが、難しいことがある。 That is, for a user unfamiliar with iris authentication, it is possible to recognize that the captured image deviates from the appropriate imaging state for iris authentication because the captured image appropriate for the iris authentication is unknown. First, it may be difficult to capture a captured image that is appropriate for iris authentication.
そこで、デフォルメモードでは、撮影画像が、虹彩認証にとって適切な撮影状態である所望撮影状態からずれているかどうかが判定され、撮影画像が所望撮影状態からずれている場合には、撮影画像が所望撮影状態になるのに必要な、スマートフォンとしての画像処理装置の調整の方向とは逆方向にデフォルメを行ったデフォルメ画像、すなわち、撮影画像の、所望撮影状態からのずれを強調したデフォルメ画像が、表示部40に、スルー画像として表示される。
Therefore, in the deformation mode, it is determined whether or not the captured image is deviated from a desired photographing state that is an appropriate photographing state for iris authentication. If the photographed image deviates from the desired photographing state, the photographed image is captured as desired. The deformed image that is deformed in the direction opposite to the adjustment direction of the image processing device as a smartphone, that is, the deformed image that emphasizes the deviation from the desired shooting state is displayed. It is displayed on the
ユーザは、スルー画としてのデフォルメ画像を見ることにより、撮影画像が所望撮影状態からずれていることを容易に認識し、そのデフォルメ画像を、いわば反面教師として、撮影画像が所望撮影状態になるように、スマートフォンとしての画像処理装置の向き等の調整を行うことができる。 By viewing the deformed image as a through image, the user easily recognizes that the photographed image is deviated from the desired photographing state, and using the deformed image as a teacher on the other hand, the photographed image is brought into the desired photographing state. In addition, the orientation of the image processing apparatus as a smartphone can be adjusted.
したがって、デフォルメモードによれば、ユーザに、所望撮影状態を、容易にガイドすることができる。 Therefore, according to the deformation mode, it is possible to easily guide the user to the desired shooting state.
なお、所望撮影状態になり得る撮影画像の要素としては、例えば、撮影画像に映る被写体の位置や、大きさ(画角、面積)、角度(向き)、フォーカス、顔の表情等がある。 Note that the elements of a captured image that can be in a desired shooting state include, for example, the position, size (field angle, area), angle (orientation), focus, facial expression, etc. of the subject in the captured image.
所望撮影状態としては、例えば、撮影画像に映る被写体の位置が、撮影画像を左右に二等分する垂直線上の位置になっていることや、撮影画像に映る被写体の大きさ(面積)が、撮影画像の領域の所定の割合以上を占めていること、撮影画像に映る被写体の向きが、正対している向きになっていること、フォーカスが被写体に合っており、被写体がぼけていないこと、撮影画像に映る被写体としての人の表情が、まぶたを平常時と同様に開いた表情になっており、撮影画像に虹彩全体が映っていること等がある。 As the desired shooting state, for example, the position of the subject shown in the shot image is a position on a vertical line that bisects the shot image left and right, and the size (area) of the subject shown in the shot image is It occupies more than a predetermined percentage of the area of the shot image, the direction of the subject shown in the shot image is facing directly, the focus is on the subject and the subject is not blurred, The facial expression of the person as the subject in the photographed image is a facial expression with the eyelids open as usual, and the entire iris is reflected in the photographed image.
その他、所望撮影状態としては、例えば、撮影画像に映る被写体としての人の表情が、笑っている表情になっていることや、口を閉じている表情になっていること等を採用することができる。 In addition, as the desired shooting state, for example, it is possible to adopt that the facial expression of the person as the subject reflected in the shot image is a smiling expression, a closed expression, etc. it can.
図4は、デフォルメ画像の第1の具体例を説明する図である。 FIG. 4 is a diagram for explaining a first specific example of a deformed image.
図4では、撮影画像に映る被写体としてのユーザの位置が、撮影画像を左右に二等分する垂直線である中心線上の位置(所定の位置)になっている状態から、右方向にずれている。 In FIG. 4, the position of the user as the subject shown in the captured image is shifted to the right from the position (predetermined position) on the center line that is a vertical line that bisects the captured image to the left and right. Yes.
いま、所望撮影状態が、撮影画像に映るユーザの位置が中心線上の位置になっている状態であるとすると、画像判定部20の実変位量算出部21では、撮影画像に映るユーザの位置の、中心線上の位置からの右方向への位置ずれ量が、実変位量として算出される。
Now, assuming that the desired shooting state is a state where the position of the user shown in the shot image is a position on the center line, the actual displacement
そして、画像判定部20の判定部23では、実変位量としての右方向への位置ずれ量に基づいて、撮影画像が所望撮影状態になっていないと判定され、右方向への位置ずれ量を含むずれ判定情報が、デフォルメ処理部30に供給される。
Then, the
デフォルメ処理部30のデフォルメ量算出部31では、画像判定部20からのずれ判定情報に含まれる実変位量としての右方向への位置ずれ量に応じて、その位置ずれ量の大きさを大にした右方向への位置ずれ量が、デフォルメ量として算出される。
In the deformation
さらに、デフォルメ処理部30のデフォルメ画像生成部32では、画像取得部10から供給される撮影画像を、デフォルメ量だけデフォルメしたデフォルメ画像が生成され、表示部40で表示される。
Further, in the deformed
すなわち、デフォルメ処理部30では、実変位量としての右方向への位置ずれ量の大きさを大にした右方向への位置ずれ量を、デフォルメ量として、そのデフォルメ量に基づき、撮影画像に映るユーザの位置が、中心線上の位置から、実変位量よりも右方向に大きくずれた画像が、デフォルメ画像として生成される。
That is, in the
そして、表示部40において、以上のようなデフォルメ画像、すなわち、撮影画像に映るユーザの位置が、中心線上の位置から、実変位量よりも右方向に大きくずれた画像が表示されることにより、ユーザは、撮影画像に映るユーザの位置が、中心線上の位置から右にずれており、撮影画像が、(画像利用アプリケーションとしての画像処理部50にとって)適切な画像になっていないことを認識することができる。
Then, on the
この場合、ユーザは、デフォルメ画像を見ながら、スマートフォンとしての画像処理装置やユーザ自身の位置あるいは姿勢を、デフォルメ画像でデフォルメされているデフォルメ量としての右方向への大きな位置ずれ量を正す(なくす)ように調整し、最終的には、適切な撮影画像、すなわち、撮影画像に映るユーザの位置が、中心線上の位置になっている撮影画像を得ることができる。 In this case, while viewing the deformed image, the user corrects (or eliminates) a large amount of displacement in the right direction as the deformation amount deformed in the deformed image with respect to the position or orientation of the image processing apparatus as the smartphone or the user himself / herself. ), And finally, an appropriate captured image, that is, a captured image in which the position of the user reflected in the captured image is on the center line can be obtained.
撮影画像が、その撮影画像に映るユーザの位置が中心線上の位置になっているという所望撮影状態になっているかどうかは、例えば、画像判定部20の実変位量算出部21において、撮影画像を対象として、顔認識技術等を用いて、撮影画像に映る被写体としてのユーザの顔を認識し、その顔の中心と、撮影画像の中心線との間の距離を、実変位量として算出することにより、判定部23において、実変位量に基づいて判定することができる。
For example, in the actual displacement
なお、撮影画像が、その撮影画像に映るユーザの位置が中心線上の位置になっているという所望撮影状態になっているかどうかを判定する方法は、上述したような顔認識技術を用いる方法に限定されるものではない。 Note that the method for determining whether or not the captured image is in a desired capturing state in which the position of the user reflected in the captured image is a position on the center line is limited to the method using the face recognition technique as described above. Is not to be done.
図5は、デフォルメ画像の第2の具体例を説明する図である。 FIG. 5 is a diagram for explaining a second specific example of a deformed image.
図5では、ユーザとスマートフォンとしての画像処理装置(の画像取得部10)との間の距離が近すぎるか、又は、遠すぎることに起因して、撮影画像に映る被写体としてのユーザが、若干ぼけている。 In FIG. 5, the user as the subject reflected in the captured image is slightly slightly caused by the distance between the user and the image processing apparatus (the image acquisition unit 10) as a smartphone being too close or too far. I am blurred.
いま、所望撮影状態が、撮影画像に映るユーザにフォーカスが合っている状態であるとすると、画像判定部20の実変位量算出部21では、撮影画像に映るユーザにフォーカスがあっていない程度を表すぼけ量が、実変位量として算出される。
Assuming that the desired shooting state is a state in which the user shown in the shot image is in focus, the actual displacement
そして、画像判定部20の判定部23では、実変位量としてのぼけ量に基づいて、撮影画像が所望撮影状態になっていないと判定され、ぼけ量を含むずれ判定情報が、デフォルメ処理部30に供給される。
Then, the
デフォルメ処理部30のデフォルメ量算出部31では、画像判定部20からのずれ判定情報に含まれる実変位量としてのぼけ量に応じて、そのぼけ量の大きさを大にしたぼけ量が、デフォルメ量として算出される。
In the deformation
さらに、デフォルメ処理部30のデフォルメ画像生成部32では、画像取得部10から供給される撮影画像を、デフォルメ量だけデフォルメしたデフォルメ画像が生成され、表示部40で表示される。
Further, in the deformed
すなわち、デフォルメ処理部30では、実変位量としてのぼけ量の大きさを大にしたぼけ量を、デフォルメ量として、そのデフォルメ量に基づき、撮影画像に映るユーザをさらにぼかした画像が、デフォルメ画像として生成される。
That is, in the
そして、表示部40において、以上のようなデフォルメ画像、すなわち、撮影画像に映るユーザがさらにぼけた画像が表示されることにより、ユーザは、撮影画像に映るユーザにフォーカスがあっておらず、撮影画像が、(画像利用アプリケーションとしての画像処理部50にとって)適切な画像になっていないことを認識することができる。
The
この場合、ユーザは、デフォルメ画像を見ながら、スマートフォンとしての画像処理装置とユーザ自身との間の距離を、デフォルメ画像でデフォルメされているデフォルメ量としてのぼけ量を正す(なくす)ように、適切な距離に調整し、最終的には、適切な撮影画像、すなわち、撮影画像に映るユーザにフォーカスが合っている撮影画像を得ることができる。 In this case, while viewing the deformed image, the user properly adjusts (displaces) the distance between the image processing apparatus as the smartphone and the user himself to correct the amount of blur as the deformed amount deformed in the deformed image. The distance can be adjusted to a proper distance, and finally, an appropriate captured image, that is, a captured image focused on the user reflected in the captured image can be obtained.
撮影画像が、その撮影画像に映るユーザにフォーカスが合っているという所望撮影状態になっているかどうかの判定は、例えば、以下のようにして行うことができる。 The determination as to whether or not the photographed image is in a desired photographing state in which the user reflected in the photographed image is in focus can be performed as follows, for example.
すなわち、画像判定部20の実変位量算出部21において、最新の所定期間について、撮影画像に映るユーザを含む領域を注目領域として、注目領域のコントラスト(明暗差)を時系列で算出し、その時系列のコントラストの中の最大値である最大コントラストを検出する。
That is, the actual displacement
そして、実変位量算出部21において、最大コントラストから、最新の撮影画像(の注目領域)のコントラストを減算した減算値を、ぼけ量として求め、そのぼけ量を、実変位量として、判定部23に供給することにより、判定部23では、その実変位量に基づいて、撮影画像が、その撮影画像に映るユーザにフォーカスが合っているという所望撮影状態になっているかどうかを判定することができる。
Then, the actual displacement
また、デフォルメ処理部30のデフォルメ画像生成部32では、例えば、デフォルメ量としてのぼけ量に応じて通過帯域幅が狭くなるようなローパスフィルタによって、撮影画像(に映るユーザを含む領域)をフィルタリングすることにより、撮影画像に映るユーザをさらにぼかした画像を、デフォルメ画像として生成することができる。
In addition, the deformed
なお、撮影画像が、その撮影画像に映るユーザにフォーカスが合っているという所望撮影状態になっているかどうかを判定する方法、及び、撮影画像に映るユーザをさらにぼかしたデフォルメ画像として生成する方法は、上述した方法に限定されるものではない。 Note that a method for determining whether or not a photographed image is in a desired photographing state in which the user reflected in the photographed image is in focus, and a method for generating a deformed deformed image of the user reflected in the photographed image are as follows. The method is not limited to the above-described method.
図6は、デフォルメ画像の第3の具体例を説明する図である。 FIG. 6 is a diagram for explaining a third specific example of the deformed image.
図6では、撮影画像に映る被写体としてのユーザの表情が、まぶたをやや閉じている表情になっている。 In FIG. 6, the user's facial expression as a subject shown in the captured image is a facial expression with the eyelid slightly closed.
いま、所望撮影状態が、撮影画像に映るユーザの表情が、虹彩の全体が見えるように、まぶたを正常に開いた表情になっている状態であるとすると、画像判定部20の実変位量算出部21では、撮影画像に映るユーザの表情が、まぶたを正常に開いた表情(所定の表情)からずれているずれ量である表情ずれ量が、実変位量として算出される。
Now, assuming that the desired shooting state is a state in which the user's facial expression reflected in the captured image is a facial expression with the eyelids normally opened so that the entire iris can be seen, the actual displacement amount calculation of the
そして、画像判定部20の判定部23では、実変位量としての表情ずれ量に基づいて、撮影画像が所望撮影状態になっていないと判定され、表情ずれ量を含むずれ判定情報が、デフォルメ処理部30に供給される。
Then, the
デフォルメ処理部30のデフォルメ量算出部31では、画像判定部20からのずれ判定情報に含まれる実変位量としての表情ずれ量に応じて、その表情ずれ量の大きさを大にした表情ずれ量が、デフォルメ量として算出される。
In the deformation
さらに、デフォルメ処理部30のデフォルメ画像生成部32では、画像取得部10から供給される撮影画像を、デフォルメ量だけデフォルメしたデフォルメ画像が生成され、表示部40で表示される。
Further, in the deformed
すなわち、デフォルメ処理部30では、実変位量としての表情ずれ量の大きさを大にした表情ずれ量を、デフォルメ量として、そのデフォルメ量に基づき、撮影画像に映るユーザの表情が、例えば、まぶたをほぼ閉じている表情になっている画像が、デフォルメ画像として生成される。
That is, in the
そして、表示部40において、以上のようなデフォルメ画像、すなわち、撮影画像に映るユーザの表情が、まぶたをほぼ閉じている表情になっている画像が表示されることにより、ユーザは、撮影画像に映るユーザの表情が、まぶたを正常に開いた表情になっておらず、撮影画像が、(画像利用アプリケーションとしての画像処理部50にとって)適切な画像になっていないことを認識することができる。
Then, the deformed image as described above, that is, an image in which the facial expression of the user reflected in the captured image is a facial expression in which the eyelid is almost closed is displayed on the
この場合、ユーザは、デフォルメ画像を見て、まぶたを開くことにより、ユーザ自身の表情を調整し、適切な撮影画像、すなわち、撮影画像に映るユーザの表情が、まぶたを正常に開いた表情になっており、虹彩の全体が見える(映っている)撮影画像を得ることができる。 In this case, the user looks at the deformed image and adjusts the user's own facial expression by opening the eyelid, so that the appropriate photographed image, that is, the user's facial expression reflected in the photographed image becomes a facial expression that normally opens the eyelid. Therefore, it is possible to obtain a photographed image in which the entire iris can be seen (reflected).
撮影画像が、その撮影画像に映るユーザの表情が、虹彩の全体が見えるように、まぶたを正常に開いた表情になっているという所望撮影状態になっているかどうかは、例えば、画像判定部20の実変位量算出部21において、撮影画像を対象として、まぶた検出技術等を用いて、撮影画像に映る被写体としてのユーザのまぶたが、虹彩に重なっている重なり具合(以下、まぶた重なり具合ともいう)を、実変位量として算出することにより、判定部23において、実変位量に基づいて判定することができる。
Whether the photographed image is in a desired photographing state in which the user's facial expression reflected in the photographed image is a facial expression with the eyelids normally opened so that the entire iris can be seen is, for example, the
また、デフォルメ処理部30のデフォルメ画像生成部32では、例えば、瞬きをしているユーザを撮影した一連の撮影画像を、瞬き画像として保持しておき、デフォルメ量に応じたまぶた重なり具合の瞬き画像の目の部分によって、最新の撮影画像の目の部分を置き換えることにより、撮影画像に映るユーザよりもまぶたが閉じ気味のユーザが映った画像を、デフォルメ画像として生成することができる。
In addition, the deformed
なお、撮影画像が、その撮影画像に映るユーザの表情が、虹彩の全体が見えるように、まぶたを正常に開いた表情になっているという所望撮影状態になっているかどうかを判定する方法、及び、撮影画像に映るユーザよりもまぶたが閉じ気味のユーザが映ったデフォルメ画像を生成する方法は、上述した方法に限定されるものではない。 A method for determining whether a photographed image is in a desired photographing state in which a user's facial expression reflected in the photographed image is a facial expression with the eyelids normally opened so that the entire iris can be seen, and The method for generating a deformed image in which a user whose eyelids are more closed than the user shown in the captured image is not limited to the above-described method.
図7は、デフォルメ画像の第4の具体例を説明する図である。 FIG. 7 is a diagram illustrating a fourth specific example of a deformed image.
図7では、撮影画像に映る被写体としてのユーザ(の姿勢)が正対せずに傾いている。 In FIG. 7, the user (posture) as the subject shown in the captured image is tilted without facing.
いま、所望撮影状態が、撮影画像に映るユーザが正対している状態であるとすると、画像判定部20の実変位量算出部21では、撮影画像に映るユーザが正対の方向に対して傾いている傾き角が、実変位量として算出される。
Assuming that the desired shooting state is a state where the user shown in the shot image is facing the user, the actual displacement
そして、画像判定部20の判定部23では、実変位量としての傾き角に基づいて、撮影画像が所望撮影状態になっていないと判定され、傾き角を含むずれ判定情報が、デフォルメ処理部30に供給される。
Then, the
デフォルメ処理部30のデフォルメ量算出部31では、画像判定部20からのずれ判定情報に含まれる実変位量としての傾き角に応じて、その傾き角の大きさを大にした傾き角が、デフォルメ量として算出される。
In the deformation
さらに、デフォルメ処理部30のデフォルメ画像生成部32では、画像取得部10から供給される撮影画像を、デフォルメ量だけデフォルメしたデフォルメ画像が生成され、表示部40で表示される。
Further, in the deformed
すなわち、デフォルメ処理部30では、実変位量としての傾き角の大きさを大にした傾き角を、デフォルメ量として、そのデフォルメ量に基づき、撮影画像に映るユーザを正対の方向に対してより傾けた画像が、デフォルメ画像として生成される。
That is, in the
そして、表示部40において、以上のようなデフォルメ画像、すなわち、撮影画像に映るユーザがより傾いた画像が表示されることにより、ユーザは、撮影画像に映るユーザが正対しておらず、撮影画像が、(画像利用アプリケーションとしての画像処理部50にとって)適切な画像になっていないことを認識することができる。
The
この場合、ユーザは、デフォルメ画像を見て、例えば、スマートフォンとしての画像処理装置の姿勢を、ヨー方向や、ロール方向、ピッチ方向に傾けること等により調整し、適切な撮影画像、すなわち、撮影画像に映るユーザが(スマートフォンとしての画像処理装置(の画像取得部10)に)正対している撮影画像を得ることができる。
In this case, the user looks at the deformed image and adjusts the posture of the image processing apparatus as a smartphone by tilting in the yaw direction, the roll direction, or the pitch direction, for example, and an appropriate captured image, that is, the captured image. It is possible to obtain a captured image in which the user shown in the screen is facing (to the image processing apparatus (
撮影画像が、その撮影画像に映るユーザが正対しているという所望撮影状態になっているかどうかは、例えば、画像判定部20の実変位量算出部21において、撮影画像を対象として、顔認識技術等を用いて、撮影画像に映る被写体としてのユーザの顔の向きを検出し、その顔の向きの、正対している方向に対する傾き角を、実変位量として算出することにより、判定部23において、実変位量に基づいて判定することができる。
Whether or not the photographed image is in a desired photographing state in which the user reflected in the photographed image is directly facing is determined by, for example, the face recognition technique for the photographed image in the actual displacement
その他、例えば、スマートフォンとしての画像処理装置が、ジャイロセンサや加速度センサを内蔵している場合には、例えば、撮影画像に映るユーザが正対しているときのスマートフォンの姿勢(以下、正対姿勢ともいう)をジャイロセンサや加速度センサから取得するのに必要な操作を、スマートフォンのキャリブレーションの操作の1つとして、ユーザに行ってもらうことで、正対姿勢をあらかじめ取得しておき、スマートフォンの現在の姿勢と正対姿勢と差を、実変位量として算出することにより、その実変位量に基づいて、撮影画像が、その撮影画像に映るユーザが正対しているという所望撮影状態になっているかどうかを判定することができる。 In addition, for example, when the image processing apparatus as a smartphone has a built-in gyro sensor or acceleration sensor, for example, the posture of the smartphone when the user reflected in the photographed image is facing (hereinafter referred to as the facing posture). ) Is acquired from the gyro sensor or acceleration sensor as one of the calibration operations of the smartphone, and the user performs the operation in advance, so that the current orientation of the smartphone is acquired. By calculating the difference between the posture and the facing posture as the actual displacement amount, based on the actual displacement amount, whether or not the captured image is in the desired shooting state that the user reflected in the captured image is facing Can be determined.
なお、撮影画像が、その撮影画像に映るユーザが正対しているという所望撮影状態になっているかどうかを判定する方法は、上述した方法に限定されるものではない。 Note that the method for determining whether or not the captured image is in the desired capturing state in which the user shown in the captured image is facing is not limited to the method described above.
図8は、デフォルメ画像の第5の具体例を説明する図である。 FIG. 8 is a diagram for explaining a fifth specific example of a deformed image.
図8では、図6の場合と同様に、撮影画像に映る被写体としてのユーザの表情が、まぶたをやや閉じている表情になっている。 In FIG. 8, as in the case of FIG. 6, the user's facial expression as a subject shown in the captured image is a facial expression with the eyelid slightly closed.
いま、所望撮影状態が、撮影画像に映るユーザの表情が、虹彩の全体が見えるように、まぶたを正常に開いた表情になっている状態であるとすると、画像判定部20の実変位量算出部21では、撮影画像に映るユーザの表情が、まぶたを正常に開いた表情からずれているずれ量である表情ずれ量が、実変位量として算出される。
Now, assuming that the desired shooting state is a state in which the user's facial expression reflected in the captured image is a facial expression with the eyelids normally opened so that the entire iris can be seen, the actual displacement amount calculation of the
そして、画像判定部20の判定部23では、実変位量としての表情ずれ量に基づいて、撮影画像が所望撮影状態になっていないと判定され、表情ずれ量を含むずれ判定情報が、デフォルメ処理部30に供給される。
Then, the
デフォルメ処理部30のデフォルメ量算出部31では、画像判定部20からのずれ判定情報に含まれる実変位量としての表情ずれ量に応じて、その表情ずれ量の大きさを大にした表情ずれ量が、デフォルメ量として算出される。
In the deformation
さらに、デフォルメ処理部30のデフォルメ画像生成部32では、デフォルメ量に従ってデフォルメしたデフォルメ画像が生成され、表示部40で表示される。
Further, in the deformed
ここで、図6では、デフォルメ処理部30において、撮影画像を用いて、デフォルメ画像を生成したが、デフォルメ画像は、撮影画像ではなく、3D(Dimension)アバタ等のキャラクタやGUI(Graphical User Interface)、その他のグラフィクス画像を用いて生成することができる。
In FIG. 6, the
図8では、熊のキャラクタ(のグラフィクス画像)を用いて、デフォルメ画像が生成されている。 In FIG. 8, a deformed image is generated using a bear character (graphics image thereof).
すなわち、デフォルメ処理部30では、実変位量としての表情ずれ量の大きさを大にした表情ずれ量を、デフォルメ量として、そのデフォルメ量に基づき、熊のキャラクタの表情が、撮影画像に映るユーザよりもまぶたを閉じた表情になっている画像が、デフォルメ画像として生成される。
That is, in the
そして、表示部40において、以上のようなデフォルメ画像、すなわち、熊のキャラクタの表情が、撮影画像に映るユーザよりもまぶたを閉じた表情になっている画像が表示されることにより、ユーザは、撮影画像に映るユーザの表情が、まぶたを正常に開いた表情になっておらず、撮影画像が、(画像利用アプリケーションとしての画像処理部50にとって)適切な画像になっていないことを認識することができる。
Then, on the
この場合、ユーザは、デフォルメ画像を見て、まぶたを開くことにより、ユーザ自身の表情を調整し、適切な撮影画像、すなわち、撮影画像に映るユーザの表情が、まぶたを正常に開いた表情になっており、虹彩の全体が見える(映っている)撮影画像を得ることができる。 In this case, the user looks at the deformed image and adjusts the user's own facial expression by opening the eyelid, so that the appropriate photographed image, that is, the user's facial expression reflected in the photographed image becomes a facial expression that normally opens the eyelid. Therefore, it is possible to obtain a photographed image in which the entire iris can be seen (reflected).
なお、図8の熊のキャラクタのような、人(ユーザ)をある程度想起させるグラフィクス画像を用いて生成するデフォルメ画像は、図6の場合の他、図4や、図5、図7の場合等にも適用することができる。 Note that the deformed image generated using a graphics image reminiscent of a person (user) such as the bear character in FIG. 8 is not limited to the case in FIG. 6, but in the case of FIG. 4, FIG. 5, FIG. It can also be applied to.
また、デフォルメ画像の生成に用いるグラフィクス画像としては、図8の熊のキャラクタのような、人を想起させるグラフィクス画像以外の画像を採用することができる。 Further, as the graphics image used for generating the deformed image, an image other than the graphics image reminiscent of a person such as the bear character in FIG. 8 can be adopted.
すなわち、図9は、デフォルメ画像の第6の具体例を説明する図である。 That is, FIG. 9 is a diagram for explaining a sixth specific example of a deformed image.
図9では、図5の場合と同様に、撮影画像に映る被写体としてのユーザが、若干ぼけている。 In FIG. 9, as in the case of FIG. 5, the user as the subject shown in the captured image is slightly blurred.
いま、所望撮影状態が、撮影画像に映るユーザにフォーカスが合っている状態であるとすると、画像判定部20の実変位量算出部21では、撮影画像に映るユーザにフォーカスがあっていない程度を表すぼけ量が、実変位量として算出される。
Assuming that the desired shooting state is a state in which the user shown in the shot image is in focus, the actual displacement
そして、画像判定部20の判定部23では、実変位量としてのぼけ量に基づいて、撮影画像が所望撮影状態になっていないと判定され、ぼけ量を含むずれ判定情報が、デフォルメ処理部30に供給される。
Then, the
デフォルメ処理部30のデフォルメ量算出部31では、画像判定部20からのずれ判定情報に含まれる実変位量としてのぼけ量に応じて、そのぼけ量の大きさを大にしたぼけ量が、デフォルメ量として算出される。
In the deformation
さらに、デフォルメ処理部30のデフォルメ画像生成部32では、デフォルメ量に従ってデフォルメしたデフォルメ画像が生成され、表示部40で表示される。
Further, in the deformed
ここで、図5では、デフォルメ処理部30において、撮影画像を用いて、デフォルメ画像を生成したが、デフォルメ画像は、上述したように、撮影画像ではなく、グラフィクス画像を用いて生成することができる。
Here, in FIG. 5, the
図9では、例えば、撮影画像を利用する画像利用アプリケーションとしての画像処理部50が、虹彩認証や顔認証を行う認証装置である場合に、その認証装置が認証を行っているときに表示される「認証中」の文字が描画されたGUI(以下、認証中GUIともいう)を用いて、デフォルメ画像が生成されている。
In FIG. 9, for example, when the
すなわち、デフォルメ処理部30では、実変位量としてのぼけ量の大きさを大にしたぼけ量を、デフォルメ量として、そのデフォルメ量に基づき、認証中GUIを、撮影画像に映るユーザよりもぼかした画像が、デフォルメ画像として生成される。
That is, the
そして、表示部40において、以上のようなデフォルメ画像、すなわち、撮影画像に映るユーザよりもぼかした認証中GUIが表示されることにより、ユーザは、撮影画像に映るユーザにフォーカスがあっておらず、撮影画像が、(画像利用アプリケーションとしての画像処理部50にとって)適切な画像になっていないことを認識することができる。
The
この場合、ユーザは、デフォルメ画像を見ながら、スマートフォンとしての画像処理装置とユーザ自身との間の距離を、デフォルメ画像でデフォルメされているデフォルメ量としてのぼけ量を正すように、適切な距離に調整し、最終的には、適切な撮影画像、すなわち、撮影画像に映るユーザにフォーカスが合っている撮影画像を得ることができる。 In this case, while viewing the deformed image, the user sets the distance between the image processing apparatus as the smartphone and the user himself to an appropriate distance so as to correct the blur amount as the deformed amount deformed in the deformed image. After adjustment, an appropriate captured image, that is, a captured image focused on the user reflected in the captured image can be obtained.
図10は、デフォルメ画像の第7の具体例を説明する図である。 FIG. 10 is a diagram for explaining a seventh specific example of a deformed image.
図10では、図7の場合と同様に、撮影画像に映る被写体としてのユーザ(の姿勢)が正対せずに傾いている。 In FIG. 10, as in the case of FIG. 7, the user (or posture) as a subject reflected in the captured image is tilted without facing.
いま、所望撮影状態が、撮影画像に映るユーザが正対している状態であるとすると、画像判定部20の実変位量算出部21では、撮影画像に映るユーザが正対の方向に対して傾いている傾き角が、実変位量として算出される。
Assuming that the desired shooting state is a state where the user shown in the shot image is facing the user, the actual displacement
そして、画像判定部20の判定部23では、実変位量としての傾き角に基づいて、撮影画像が所望撮影状態になっていないと判定され、傾き角を含むずれ判定情報が、デフォルメ処理部30に供給される。
Then, the
デフォルメ処理部30のデフォルメ量算出部31では、画像判定部20からのずれ判定情報に含まれる実変位量としての傾き角に応じて、その傾き角の大きさを大にした傾き角が、デフォルメ量として算出される。
In the deformation
さらに、デフォルメ処理部30のデフォルメ画像生成部32では、デフォルメ量に従ってデフォルメしたデフォルメ画像が生成され、表示部40で表示される。
Further, in the deformed
ここで、図7では、デフォルメ処理部30において、撮影画像を用いて、デフォルメ画像を生成したが、図10では、例えば、図9の場合と同様に、撮影画像ではなく、グラフィクス画像としての認証中GUIを用いて、デフォルメ画像が生成されている。
Here, in FIG. 7, the
すなわち、デフォルメ処理部30では、実変位量としての傾き角の大きさを大にした傾き角を、デフォルメ量として、そのデフォルメ量に基づき、認証中GUIを傾けた画像が、デフォルメ画像として生成される。
That is, in the
そして、表示部40において、以上のようなデフォルメ画像、すなわち、撮影画像に映るユーザよりも傾いた認証中GUIが表示されることにより、ユーザは、撮影画像に映るユーザが正対しておらず、撮影画像が、(画像利用アプリケーションとしての画像処理部50にとって)適切な画像になっていないことを認識することができる。
The
この場合、ユーザは、デフォルメ画像を見て、スマートフォンとしての画像処理装置の姿勢を、ヨー方向や、ロール方向、ピッチ方向に傾けること等により調整し、適切な撮影画像、すなわち、撮影画像に映るユーザが(スマートフォンとしての画像処理装置(の画像取得部10)に)正対している撮影画像を得ることができる。
In this case, the user looks at the deformed image, adjusts the attitude of the image processing apparatus as a smartphone by tilting it in the yaw direction, the roll direction, the pitch direction, etc., and appears in an appropriate captured image, that is, the captured image. It is possible to obtain a captured image that the user is facing (to the
なお、図9及び図10の認証中GUIのような、人を想起させないグラフィクス画像を用いて生成するデフォルメ画像は、人(ユーザ)の表情をデフォルメした画像とすることが困難であるため、人の表情以外をデフォルメする図4や、図5、図7の場合等に適用することができる。 Note that a deformed image generated using a graphics image that does not recall a person such as the authenticating GUI in FIGS. 9 and 10 is difficult to obtain a deformed image of a human (user) expression. The present invention can be applied to the cases of FIGS. 4, 5, and 7 that deform other than the above expression.
<デフォルメ量の算出> <Calculation of deformation amount>
図11は、図1のデフォルメ量算出部31によるデフォルメ量の算出の方法の例を説明する図である。
FIG. 11 is a diagram for explaining an example of a method of calculating the deformation amount by the deformation
デフォルメ量算出部31では、例えば、所定の補間関数に従い、判定部23からのずれ判定情報に含まれる実変位量に対して、デフォルメ量を算出することができる。
The deformation
図11Aは、デフォルメ量を算出するための第1の補間関数の例を示している。 FIG. 11A shows an example of a first interpolation function for calculating the deformation amount.
図11Aの第1の補間関数は、入力値に対して線形の出力値が得られる線形補間関数であり、かかる第1の補間関数によれば、実変位量を所定数(>1)倍した値のデフォルメ量が算出される。 The first interpolation function in FIG. 11A is a linear interpolation function that obtains a linear output value with respect to an input value. According to the first interpolation function, the actual displacement amount is multiplied by a predetermined number (> 1). The deformation amount of the value is calculated.
図11Bは、デフォルメ量を算出するための第2の補間関数の例を示している。 FIG. 11B shows an example of a second interpolation function for calculating the deformation amount.
図11Bの第2の補間関数は、入力値に対して非線形の出力値が得られるスプライン補間関数であり、かかる第2の補間関数によれば、小さい値の実変位量については、線形関数である第1の補間関数の場合よりも大きい値のデフォルメ量が算出され、大きい値の実変位量については、一定値に収束していくような値のデフォルメ量が算出される。 The second interpolation function in FIG. 11B is a spline interpolation function that obtains a non-linear output value with respect to the input value. According to the second interpolation function, the actual displacement amount with a small value is a linear function. A deformation amount having a value larger than that in the case of a certain first interpolation function is calculated, and a deformation amount having a value that converges to a constant value is calculated for a large displacement value.
したがって、第2の補間関数により算出されるデフォルメ量によれば、例えば、図4に示したような、ユーザの位置が中心線上の位置から(右方向に)ずれている撮影画像に対して、ユーザの位置の中心線上の位置からの位置ずれ量が小さいときには、その位置ずれ量を大きくデフォルメ(強調)したデフォルメ画像、すなわち、ユーザの位置が、より大きくずれたデフォルメ画像が生成される。 Therefore, according to the deformation amount calculated by the second interpolation function, for example, for a captured image in which the user's position is shifted from the position on the center line (to the right) as shown in FIG. When the positional deviation amount from the position on the center line of the user position is small, a deformed image in which the positional deviation amount is greatly deformed (emphasized), that is, a deformed image in which the user position is significantly displaced is generated.
一方、位置ずれ量が大きいときには、その位置ずれ量を幾分かデフォルメした(あまりデフォルメしていない)デフォルメ画像、すなわち、例えば、ユーザの位置が、その位置ずれ量とほぼ同程度にずれたデフォルメ画像が生成される。 On the other hand, when the amount of positional deviation is large, a deformed image in which the amount of positional deviation is somewhat deformed (not much deformed), that is, for example, a deformed image in which the position of the user is substantially deviated from the amount of positional deviation. An image is generated.
以上のような第2の補間関数により算出されるデフォルメ量によれば、位置ずれ量が大きい場合に、デフォルメ画像において、ユーザが画枠からはみ出すことを防止すること、あるいは、ユーザが画枠からはみ出す程度を低減することができる。 According to the deformation amount calculated by the second interpolation function as described above, when the displacement amount is large, it is possible to prevent the user from protruding from the image frame in the deformed image, or the user can move out of the image frame. The extent of protrusion can be reduced.
図11Cは、デフォルメ量を算出するための第3の補間関数の例を示している。 FIG. 11C shows an example of a third interpolation function for calculating the deformation amount.
図11Cの第3の補間関数は、入力値に対して非線形の出力値が得られる定数補間関数であり、かかる第3の補間関数によれば、実変位量に対して、段階的に変化するデフォルメ量が算出される。 The third interpolation function in FIG. 11C is a constant interpolation function that can obtain a non-linear output value with respect to the input value. According to the third interpolation function, the third interpolation function changes stepwise with respect to the actual displacement amount. A deformation amount is calculated.
第3の補間関数では、実変位量が多少変化しても、デフォルメ量が変化しないので、例えば、実変位量の変化を、逐次、デフォルメ画像の変化として反映する必要がない場合に有効である。 The third interpolation function is effective when the actual displacement amount does not change even if the actual displacement amount changes to some extent. For example, it is effective when the change in the actual displacement amount need not be sequentially reflected as the deformation image. .
例えば、図8に示したように、撮影画像に映るユーザの表情がまぶたを正常に開いた表情からずれている表情ずれ量を、実変位量として算出し、その実変位量から求められるデフォルメ量に基づき、熊のキャラクタの表情が、撮影画像に映るユーザよりもまぶたを閉じた表情になっている画像を、デフォルメ画像として生成する場合には、デフォルメ量の算出に、第3の補間関数を用いることができる。 For example, as shown in FIG. 8, a facial expression deviation amount in which a user's facial expression reflected in a photographed image deviates from a facial expression in which the eyelids are normally opened is calculated as an actual displacement amount, and a deformation amount obtained from the actual displacement amount is calculated. On the basis of this, when an image in which the facial expression of the bear character is a facial expression in which the eyelid is closed more than the user shown in the captured image is generated as a deformed image, the third interpolation function is used to calculate the deformed amount. be able to.
すなわち、例えば、熊のキャラクタの(グラフィクス)画像として、まぶたを完全に開いている画像、まぶたを半分閉じている(開いている)画像、及び、まぶたを完全に閉じている画像の3種類の画像を用意し、実変位量に対して段階的に変化するデフォルメ量に応じて、デフォルメ画像として生成する画像を、上述の3種類の画像の中から選択することができる。 That is, for example, as a (graphics) image of a bear character, there are three types of images: an image with the eyelids fully open, an image with the eyelids half closed (open), and an image with the eyelids fully closed An image is prepared, and an image to be generated as a deformed image can be selected from the above-described three types of images according to the deformed amount that changes stepwise with respect to the actual displacement amount.
この場合、キャラクタの画像を保持するメモリ領域の削減や、キャラクタの画像を表示部40に描画する処理コストの削減を図ることが可能となる。
In this case, it is possible to reduce the memory area for holding the character image and the processing cost for drawing the character image on the
図11Dは、デフォルメ量を算出するための第4の補間関数の例を示している。 FIG. 11D shows an example of a fourth interpolation function for calculating the deformation amount.
図11Dの第4の補間関数は、図11Aの第1の補間関数と同様に、線形補間関数ではあるが、実変位量が、そのまま、デフォルメ量として算出される関数になっている。 The fourth interpolation function in FIG. 11D is a linear interpolation function similar to the first interpolation function in FIG. 11A, but the actual displacement amount is a function that is calculated as a deformed amount as it is.
図11Dの第4の補間関数は、変位量を、そのままデフォルメ量とし、デフォルメを行っていない画像を、スルー画として表示部40に表示したいとき(一切のデフォルメを行いたくないとき)等に用いることができる。
The fourth interpolation function in FIG. 11D is used when the displacement amount is used as a deformation amount as it is, and an image that has not been deformed is displayed on the
デフォルメモードにおいて、第4の補間関数によって、デフォルメ量を算出し、かつ、撮影画像を用いて、デフォルメ画像を生成する場合には、通常モードの場合と同様に、表示部40には、画像取得部10で撮影された撮影画像が、そのままスルー画として表示される。
In the deformed mode, when the deformed amount is calculated by the fourth interpolation function and the deformed image is generated using the captured image, the
なお、実変位量を用いたデフォルメ量の算出にあたっては、図11の補間関数以外の関数を用いることが可能である。 In calculating the deformation amount using the actual displacement amount, it is possible to use a function other than the interpolation function of FIG.
以上のように、スマートフォンとしての図1の画像処理装置では、画像を撮影すること等によって取得し、取得された撮影画像(取得画像)が、所望撮影状態からずれている場合に、所望撮影状態からのずれをデフォルメしたデフォルメ画像を生成するので、ユーザに、所望撮影状態を、容易にガイドすることができる。 As described above, in the image processing apparatus of FIG. 1 as a smartphone, when a captured image (acquired image) acquired by capturing an image is deviated from the desired shooting state, the desired shooting state Since a deformed image in which the deviation from is deformed is generated, the user can be easily guided in a desired shooting state.
すなわち、ユーザは、デフォルメ画像を見ることによって、所望撮影状態(例えば、撮影画像に映るユーザが正対していること等)を知らなくても、自然に、撮影画像の、所望撮影状態からのずれを正すような操作(行動)を行うようになり、容易に、所望撮影状態の撮影画像を得ることができる。 That is, the user naturally sees the deformed image without the user knowing the desired shooting state (for example, the user shown in the shot image is directly facing), and the natural deviation of the shot image from the desired shooting state. Thus, an operation (behavior) is performed to correct the image, and a captured image in a desired shooting state can be easily obtained.
したがって、撮影画像を利用する画像利用アプリケーションとしての画像処理部50が、例えば、虹彩認証を行う虹彩認証装置である場合には、容易に、虹彩認証に適切な撮影画像を得ることができる。
Therefore, when the
ここで、虹彩認証装置では、例えば、特許第3307936号明細書等に記載されているように、一般的に、ユーザの目の画像である目画像をカメラで撮影し、目画像の中の虹彩部分を切り出して、虹彩の特徴を抽出(虹彩データ)した後、あらかじめ虹彩認証装置内に登録しておいた虹彩データと照合して一致した場合に、ユーザが本人であると特定(認証)される。 Here, in the iris authentication device, for example, as described in, for example, Japanese Patent No. 3307936, an eye image that is an image of the user's eye is photographed with a camera, and an iris in the eye image is captured. After extracting the part and extracting the iris characteristics (iris data), the user is identified (authenticated) if the user matches and matches the iris data registered in the iris authentication device in advance. The
かかる虹彩認証装置では、認証精度を維持するために、高精細かつ適切な状態の目の目画像を撮影する必要があるため、表示画面に、ユーザの目画像を高解像度で表示し、ユーザに、表示画面内のある矩形領域に目の位置を合わせてもらうことで、虹彩認証に必要な目画像が撮影される。 In such an iris authentication device, in order to maintain the authentication accuracy, it is necessary to capture a high-definition and appropriate eye image of the eye, so that the user's eye image is displayed at a high resolution on the display screen, The eye image necessary for iris authentication is taken by aligning the eye position with a rectangular area in the display screen.
しかしながら、虹彩認証の操作に不慣れなユーザにとっては、高解像度の表示画面内の矩形領域に目の位置を合わせることは難しく、目の位置合わせに多くの時間がかかることがある。 However, it is difficult for a user who is unfamiliar with the iris authentication operation to align the position of the eye with the rectangular area in the high-resolution display screen, and it may take a long time to align the eye.
さらに、目の位置合わせができた場合であっても、フォーカスが合っておらず、目画像がぼけていることや、閉じ気味のまぶたによって、目の虹彩の一部又は全部が覆われていること、カメラに正対せずに斜めから撮影されていること等が生じ、虹彩認証装置の虹彩認証に適した目画像を得ることが困難であることがある。 In addition, even if the eyes can be aligned, some or all of the iris of the eye is covered by out-of-focus, blurred eye images, or closed eyelids. In other words, it may be difficult to obtain an eye image suitable for iris authentication of the iris authentication device due to the fact that the image is taken obliquely without facing the camera.
また、前述の特許文献1では、虹彩認証装置において、まず低解像度の目画像について、その目画像に映る目が、表示画面内のある矩形領域にあるか否かを判定し、目画像に映る目が、矩形領域にある場合には、目画像を、低解像度の目画像から高解像度の目画像に切り替えて、表示画面に表示し、ユーザに、表示画面内の矩形領域に目の位置を合わせてもらうことを繰り返すことが記載されている。 Further, in Patent Document 1 described above, in the iris authentication apparatus, first, with respect to a low-resolution eye image, it is determined whether or not the eye shown in the eye image is in a rectangular area in the display screen, and is shown in the eye image. If the eye is in a rectangular area, the eye image is switched from a low-resolution eye image to a high-resolution eye image and displayed on the display screen, and the user is positioned on the rectangular area in the display screen. It is described to repeat matching.
しかしながら、かかる虹彩認証装置では、目画像の解像度が切り替えられるたびに、ユーザは、表示画面内の矩形領域に目の位置を合わせなければならず、目の位置合わせができた場合であっても、やはり、上述したように、目画像のフォーカスが合っていないこと等が生じることがある。 However, in such an iris authentication device, every time the resolution of the eye image is switched, the user must align the eye position with the rectangular area in the display screen, and even when the eye position can be aligned. Of course, as described above, the eye image may not be in focus.
一方、スマートフォンとしての図1の画像処理装置では、上述したように、ユーザに、所望撮影状態を、容易にガイドすることができるので、虹彩認証に適切な撮影画像を、容易に得ることができる。 On the other hand, as described above, the image processing apparatus of FIG. 1 as a smartphone can easily guide the user to the desired shooting state, so that a shot image suitable for iris authentication can be easily obtained. .
また、スマートフォンとしての図1の画像処理装置では、ユーザが映った撮影画像ではなく、所定のキャラクタやGUI等のグラフィクス画像を用いて、デフォルメ画像を生成することができるので、画像利用アプリケーションとしての画像処理部50が、例えば、虹彩認証装置である場合に、生体情報が盗撮されることや、目の画像が大きく表示されることに起因して、ユーザが嫌悪感を感じることを防止することができる。
Further, in the image processing apparatus of FIG. 1 as a smartphone, a deformed image can be generated using a graphics image such as a predetermined character or a GUI instead of a captured image showing a user. For example, when the
すなわち、グラフィクス画像ではなく、例えば、ユーザが映った撮影画像が表示される場合には、他人に、撮影画像に映ったユーザの虹彩(の画像)等の生体情報が盗撮されることや、撮影画像に大きく映った目の画像に対して、ユーザが嫌悪感を感じることがあり得る。 That is, for example, when a photographed image showing a user is displayed instead of a graphics image, another person can take a voyeur of biological information such as the user's iris (image) reflected in the photographed image, The user may feel disgusted with the image of the eye that appears largely in the image.
ユーザが映った撮影画像ではなく、所定のキャラクタやGUI等のグラフィクス画像を用いて、デフォルメ画像を生成する場合には、上述のような生体情報の盗撮や、ユーザが嫌悪感を感じることを防止することができる。 When generating a deformed image using a graphic image such as a predetermined character or GUI instead of a photographed image shown by the user, it prevents the above-described voyeurism of biometric information and the user's aversion can do.
ここで、撮影画像を利用する画像利用アプリケーションとしては、例えば、上述したように、虹彩認証等を行う認証装置や、マクロ撮影等を補助する撮影補助装置等がある。 Here, examples of the image utilization application that uses the photographed image include an authentication device that performs iris authentication and the like, a photographing assistance device that assists macro photographing, and the like, as described above.
認証装置については、撮影画像に映るユーザの位置が中心線上の位置になっていること、撮影画像に映るユーザにフォーカスが合っていること、撮影画像に映るユーザの表情が、虹彩の全体が見えるように、まぶたを開いた表情になっていること、及び、撮影画像に映るユーザが正対していることのすべてを、所望撮影状態とすることができる。 Regarding the authentication device, the user's position shown in the captured image is on the center line, that the user reflected in the captured image is in focus, and the user's facial expression reflected in the captured image shows the entire iris. As described above, it is possible to make all of the expression that the eyelid is open and that the user reflected in the photographed image is directly facing the desired photographing state.
また、撮影補助装置において、マクロ撮影の補助を行う場合については、撮影画像に映る(大きな)被写体にフォーカスが合っていること、及び、撮影画像に映る被写体の画角が所定の範囲内(所定の最小値から所定の最大値までの範囲内)になっていること等を、所望撮影状態とすることができる。 Also, in the case of assisting macro shooting in the shooting assisting device, the (large) subject appearing in the shot image is in focus, and the angle of view of the subject appearing in the shot image is within a predetermined range (predetermined) In the range from the minimum value to the predetermined maximum value) can be set as a desired photographing state.
なお、本技術は、例えば、ディジタルカメラや、スマートフォン、携帯電話機、タブレット、PC等の、撮影機能が実装されている撮影機能付き機器は勿論、撮影機能を有するか否かにかかわらず、ディジタルカメラ等の撮影装置で撮影された画像を利用するあらゆる画像利用アプリケーションに適用することができる。 Note that the present technology is not limited to a digital camera, a smartphone, a mobile phone, a tablet, a PC, or the like, which has a shooting function, such as a digital camera. The present invention can be applied to any image utilization application that uses an image photographed by a photographing apparatus such as the above.
すなわち、本技術は、例えば、ユーザを撮影し、その撮影によって得られる画像に映るユーザをTV(テレビジョン受像機)等に表示するとともに、ユーザのアクションに応じて進行していくゲームにおいて、撮影画像に映るユーザの適切な大きさや適切な位置に対するずれをデフォルメしたデフォルメ画像を表示することにより、ユーザがゲームにとって適切な大きさで適切な位置に映るように、ユーザをガイドすることができる。 That is, for example, the present technology shoots a user in a game in which a user is photographed, and a user reflected in an image obtained by the photographing is displayed on a TV (television receiver) or the like and progresses according to the user's action. By displaying a deformed image obtained by deforming a user's appropriate size and an appropriate position in the image, the user can be guided so that the user appears in an appropriate position with an appropriate size for the game.
また、本技術は、例えば、小型のカメラを搭載したメガネ型の、いわゆるウェアラブルグラスにおいて、カメラで撮影されるべき適切な画像に対するずれをデフォルメしたデフォルメ画像を表示することにより、ユーザが、ウェアラブルメガネを適切に装着する(かける)ことをガイドするアプリケーションに適用することができる。 In addition, the present technology displays, for example, a deformed image in which a deviation from an appropriate image to be photographed by a camera is displayed in a so-called wearable glass having a small camera, so that the user can wear the wearable glasses. It can be applied to an application that guides the user to properly wear (apply).
さらに、本技術は、例えば、ディジタルカメラでの撮影において、ディジタルカメラが、ヨー方向や、ロール方向、ピッチ方向に傾いていることに起因して、撮影画像が傾いている場合に、その傾きをデフォルメしたデフォルメ画像を表示することにより、ディジタルカメラが傾いていることを、ユーザに報知し、ディジタルカメラの傾きを修正することを促すアプリケーションに適用することができる。 Furthermore, in the present technology, for example, in photographing with a digital camera, when the photographed image is inclined due to the digital camera being inclined in the yaw direction, the roll direction, or the pitch direction, the inclination is reduced. By displaying the deformed deformed image, it can be applied to an application that notifies the user that the digital camera is tilted and prompts the user to correct the tilt of the digital camera.
ここで、例えば、スマートフォンには、いわば主要な表示を行う表示面と、その表示面と反対側の面との両方にカメラが設けられている場合があるが、本技術は、表示面に設けられたカメラ(内向きカメラ)で撮影された画像と、表示面と反対側の面に設けられたカメラ(外向きカメラ)で撮影された画像とのいずれにも適用することができる。 Here, for example, a smartphone may be provided with a camera on both the display surface that performs main display and the surface opposite to the display surface, but the present technology is provided on the display surface. The present invention can be applied to both an image photographed by a provided camera (inward camera) and an image photographed by a camera (outward camera) provided on a surface opposite to the display surface.
また、本技術は、静止画、及び、動画のいずれにも適用することができる。 The present technology can be applied to both still images and moving images.
<本技術を適用したコンピュータの説明> <Description of computer to which this technology is applied>
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。 Next, the series of processes described above can be performed by hardware or software. When a series of processing is performed by software, a program constituting the software is installed in a general-purpose computer or the like.
そこで、図12は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。 Therefore, FIG. 12 shows a configuration example of an embodiment of a computer in which a program for executing the series of processes described above is installed.
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク105やROM103に予め記録しておくことができる。
The program can be recorded in advance on a
あるいはまた、プログラムは、リムーバブル記録媒体111に格納(記録)しておくことができる。このようなリムーバブル記録媒体111は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブル記録媒体111としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
Alternatively, the program can be stored (recorded) in the
なお、プログラムは、上述したようなリムーバブル記録媒体111からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク105にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
In addition to installing the program from the
コンピュータは、CPU(Central Processing Unit)102を内蔵しており、CPU102には、バス101を介して、入出力インタフェース110が接続されている。
The computer incorporates a CPU (Central Processing Unit) 102, and an input /
CPU102は、入出力インタフェース110を介して、ユーザによって、入力部107が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)103に格納されているプログラムを実行する。あるいは、CPU102は、ハードディスク105に格納されたプログラムを、RAM(Random Access Memory)104にロードして実行する。
The
これにより、CPU102は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU102は、その処理結果を、必要に応じて、例えば、入出力インタフェース110を介して、出力部106から出力、あるいは、通信部108から送信、さらには、ハードディスク105に記録等させる。
Thus, the
なお、入力部107は、キーボードや、マウス、マイク等で構成される。また、出力部106は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
The
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。 Here, in the present specification, the processing performed by the computer according to the program does not necessarily have to be performed in time series in the order described as the flowchart. That is, the processing performed by the computer according to the program includes processing executed in parallel or individually (for example, parallel processing or object processing).
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。 The program may be processed by one computer (processor), or may be processed in a distributed manner by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 Furthermore, in this specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 For example, the present technology can take a configuration of cloud computing in which one function is shared by a plurality of devices via a network and is jointly processed.
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 In addition, each step described in the above flowchart can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Furthermore, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
なお、本技術は、以下のような構成をとることができる。 In addition, this technique can take the following structures.
<1>
画像を取得する画像取得部によって取得された取得画像が、所望の撮影状態からずれている場合に、前記所望の撮影状態からのずれを大きくした大ずれ画像を生成する画像生成部を備える
画像処理装置。
<2>
前記画像生成部は、前記取得画像に映る被写体の位置が所定の位置からずれている場合に、前記被写体の位置ずれを大きくした前記大ずれ画像を生成する
<1>に記載の画像処理装置。
<3>
前記画像生成部は、前記取得画像に映る被写体がぼけている場合に、前記被写体のぼけを大きくした前記大ずれ画像を生成する
<1>に記載の画像処理装置。
<4>
前記画像生成部は、前記取得画像に映る被写体の表情が所定の表情からずれている場合に、前記被写体の表情ずれを大きくした前記大ずれ画像を生成する
<1>に記載の画像処理装置。
<5>
前記画像生成部は、前記取得画像に映る被写体が正対せずに傾いている場合に、前記被写体の傾きを大きくした前記大ずれ画像を生成する
<1>に記載の画像処理装置。
<6>
前記画像生成部は、前記取得画像を用いた前記大ずれ画像を生成する
<1>ないし<5>のいずれかに記載の画像処理装置。
<7>
前記画像生成部は、所定のグラフィクス画像を用いた前記大ずれ画像を生成する
<1>ないし<5>のいずれかに記載の画像処理装置。
<8>
前記画像取得部によって取得された取得画像の状態と、所望の撮影状態とのずれ量である実変位量を算出する実変位量算出部と、
前記実変位量に応じて、前記大ずれ画像のずれ量である大ずれ量を算出する大ずれ量算出部と
をさらに備え、
前記画像生成部は、前記大ずれ量に従って、前記所望の撮影状態からのずれを大きくした大ずれ画像を生成し、
前記大ずれ量は、前記実変位量に対して、線形、又は、非線形に変化する
<1>ないし<7>のいずれかに記載の画像処理装置。
<9>
前記画像取得部と、
前記大ずれ画像を表示する表示部と
をさらに備える
<1>ないし<8>のいずれかに記載の画像処理装置。
<10>
画像を取得する画像取得部によって取得された取得画像が、所望の撮影状態からずれている場合に、前記所望の撮影状態からのずれを大きくした大ずれ画像を生成する
ステップを含む画像処理方法。
<11>
画像を取得する画像取得部によって取得された取得画像が、所望の撮影状態からずれている場合に、前記所望の撮影状態からのずれを大きくした大ずれ画像を生成する画像生成部
として、コンピュータを機能させるためのプログラム。
<1>
When the acquired image acquired by the image acquiring unit that acquires an image is deviated from a desired shooting state, the image processing unit includes an image generation unit that generates a large shift image with a large shift from the desired shooting state. apparatus.
<2>
The image processing device according to <1>, wherein the image generation unit generates the large shift image in which the position shift of the subject is increased when the position of the subject shown in the acquired image is shifted from a predetermined position.
<3>
The image processing device according to <1>, wherein the image generation unit generates the large deviation image in which the blur of the subject is increased when the subject reflected in the acquired image is blurred.
<4>
The image processing device according to <1>, wherein the image generation unit generates the large displacement image in which the subject's facial expression shift is increased when the facial expression of the subject reflected in the acquired image deviates from a predetermined facial expression.
<5>
The image processing device according to <1>, wherein the image generation unit generates the large deviation image in which the inclination of the subject is increased when the subject shown in the acquired image is tilted without facing.
<6>
The image processing device according to any one of <1> to <5>, wherein the image generation unit generates the large shift image using the acquired image.
<7>
The image processing device according to any one of <1> to <5>, wherein the image generation unit generates the large shift image using a predetermined graphics image.
<8>
An actual displacement amount calculation unit that calculates an actual displacement amount that is a deviation amount between the state of the acquired image acquired by the image acquisition unit and a desired shooting state;
A large deviation amount calculating unit that calculates a large deviation amount that is a deviation amount of the large deviation image according to the actual displacement amount;
The image generation unit generates a large shift image with a large shift from the desired shooting state according to the large shift amount,
The image processing device according to any one of <1> to <7>, wherein the large deviation amount changes linearly or nonlinearly with respect to the actual displacement amount.
<9>
The image acquisition unit;
The image processing apparatus according to any one of <1> to <8>, further comprising: a display unit that displays the large deviation image.
<10>
An image processing method including a step of generating a large shift image in which a shift from a desired shooting state is increased when an acquired image acquired by an image acquisition unit that acquires an image is shifted from a desired shooting state.
<11>
When the acquired image acquired by the image acquiring unit that acquires the image is deviated from the desired shooting state, the computer is used as an image generating unit that generates a large shift image with a large shift from the desired shooting state. A program to make it work.
10 画像取得部, 20 画像判定部, 21 実変位量算出部, 22 所望撮影状態設定部, 23 判定部, 30 デフォルメ処理部, 31 デフォルメ量算出部, 32 デフォルメ画像生成部, 40 表示部, 50 画像処理部, 60 保存部, 70 操作部, 80 制御部, 101 バス, 102 CPU, 103 ROM, 104 RAM, 105 ハードディスク, 106 出力部, 107 入力部, 108 通信部, 109 ドライブ, 110 入出力インタフェース, 111 リムーバブル記録媒体
DESCRIPTION OF
Claims (11)
画像処理装置。 When the acquired image acquired by the image acquiring unit that acquires an image is deviated from a desired shooting state, the image processing unit includes an image generation unit that generates a large shift image with a large shift from the desired shooting state. apparatus.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image generation unit generates the large shift image in which the position shift of the subject is increased when the position of the subject shown in the acquired image is shifted from a predetermined position.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image generation unit generates the large shift image in which the blur of the subject is increased when the subject reflected in the acquired image is blurred.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image generation unit generates the large deviation image in which the expression deviation of the subject is increased when the expression of the subject reflected in the acquired image is deviated from a predetermined expression.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image generation unit generates the large deviation image in which the inclination of the subject is increased when the subject reflected in the acquired image is tilted without facing.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image generation unit generates the large displacement image using the acquired image.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image generation unit generates the large shift image using a predetermined graphics image.
前記実変位量に応じて、前記大ずれ画像のずれ量である大ずれ量を算出する大ずれ量算出部と
をさらに備え、
前記画像生成部は、前記大ずれ量に従って、前記所望の撮影状態からのずれを大きくした大ずれ画像を生成し、
前記大ずれ量は、前記実変位量に対して、線形、又は、非線形に変化する
請求項1に記載の画像処理装置。 An actual displacement amount calculation unit that calculates an actual displacement amount that is a deviation amount between the state of the acquired image acquired by the image acquisition unit and a desired shooting state;
A large deviation amount calculating unit that calculates a large deviation amount that is a deviation amount of the large deviation image according to the actual displacement amount;
The image generation unit generates a large shift image with a large shift from the desired shooting state according to the large shift amount,
The image processing apparatus according to claim 1, wherein the large deviation amount changes linearly or nonlinearly with respect to the actual displacement amount.
前記大ずれ画像を表示する表示部と
をさらに備える
請求項1に記載の画像処理装置。 The image acquisition unit;
The image processing apparatus according to claim 1, further comprising: a display unit that displays the large deviation image.
ステップを含む画像処理方法。 An image processing method including a step of generating a large shift image in which a shift from a desired shooting state is increased when an acquired image acquired by an image acquisition unit that acquires an image is shifted from a desired shooting state.
として、コンピュータを機能させるためのプログラム。 When the acquired image acquired by the image acquiring unit that acquires the image is deviated from the desired shooting state, the computer is used as an image generating unit that generates a large shift image with a large shift from the desired shooting state. A program to make it work.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013133670A JP2015012304A (en) | 2013-06-26 | 2013-06-26 | Image processing apparatus, image processing method, and program |
EP14735690.1A EP3014520B1 (en) | 2013-06-26 | 2014-06-18 | Image processing apparatus, image processing method, and program |
PCT/JP2014/003265 WO2014208052A1 (en) | 2013-06-26 | 2014-06-18 | Image processing apparatus, image processing method, and program |
CN201480034946.8A CN105324781B (en) | 2013-06-26 | 2014-06-18 | Image processing equipment, image processing method and program |
US14/901,681 US10956733B2 (en) | 2013-06-26 | 2014-06-18 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013133670A JP2015012304A (en) | 2013-06-26 | 2013-06-26 | Image processing apparatus, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015012304A true JP2015012304A (en) | 2015-01-19 |
Family
ID=51063757
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013133670A Pending JP2015012304A (en) | 2013-06-26 | 2013-06-26 | Image processing apparatus, image processing method, and program |
Country Status (5)
Country | Link |
---|---|
US (1) | US10956733B2 (en) |
EP (1) | EP3014520B1 (en) |
JP (1) | JP2015012304A (en) |
CN (1) | CN105324781B (en) |
WO (1) | WO2014208052A1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017055250A (en) * | 2015-09-09 | 2017-03-16 | 富士通株式会社 | Display control apparatus, display control method, and display control program |
JP2017208638A (en) * | 2016-05-17 | 2017-11-24 | レノボ・シンガポール・プライベート・リミテッド | Iris authentication device, iris authentication method, and program |
JP2018536243A (en) * | 2015-12-04 | 2018-12-06 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Apparatus and method for displaying a display object according to real-time information |
JP2020509441A (en) * | 2017-03-15 | 2020-03-26 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Virtual reality environment-based ID authentication method and apparatus |
WO2020203744A1 (en) * | 2019-03-29 | 2020-10-08 | グローリー株式会社 | Authentication system and authentication method |
US11348369B2 (en) | 2016-11-29 | 2022-05-31 | Advanced New Technologies Co., Ltd. | Service control and user identity authentication based on virtual reality |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105611153B (en) * | 2015-12-21 | 2019-09-24 | 联想(北京)有限公司 | Image processing method and electronic equipment |
KR102627244B1 (en) * | 2016-11-30 | 2024-01-22 | 삼성전자주식회사 | Electronic device and method for displaying image for iris recognition in electronic device |
EP3905658A4 (en) * | 2018-12-28 | 2022-02-23 | Sony Group Corporation | Information processing device, information processing method, and information processing program |
JP2022125529A (en) * | 2021-02-17 | 2022-08-29 | キヤノン株式会社 | Imaging device and control method of imaging device, and program |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5291560A (en) | 1991-07-15 | 1994-03-01 | Iri Scan Incorporated | Biometric personal identification system based on iris analysis |
JP4114959B2 (en) * | 1995-06-20 | 2008-07-09 | キヤノン株式会社 | Image processing method and apparatus |
US20030169334A1 (en) | 2001-08-06 | 2003-09-11 | Michael Braithwaite | Iris capture device having expanded capture volume |
JP3868273B2 (en) * | 2001-11-16 | 2007-01-17 | オリンパス株式会社 | Camera shake detection method |
US7135123B1 (en) * | 2004-01-14 | 2006-11-14 | Credence Systems Corporation | Method and system for integrated circuit backside navigation |
JP4489608B2 (en) * | 2004-03-31 | 2010-06-23 | 富士フイルム株式会社 | DIGITAL STILL CAMERA, IMAGE REPRODUCTION DEVICE, FACE IMAGE DISPLAY DEVICE, AND CONTROL METHOD THEREOF |
FR2870948B1 (en) * | 2004-05-25 | 2006-09-01 | Sagem | DEVICE FOR POSITIONING A USER BY DISPLAYING ITS MIRROR IMAGE, IMAGE CAPTURE DEVICE AND CORRESPONDING POSITIONING METHOD |
JP2005334402A (en) | 2004-05-28 | 2005-12-08 | Sanyo Electric Co Ltd | Method and device for authentication |
JPWO2008012905A1 (en) * | 2006-07-27 | 2009-12-17 | パナソニック株式会社 | Authentication apparatus and authentication image display method |
JP4582423B2 (en) * | 2007-04-20 | 2010-11-17 | 富士フイルム株式会社 | Imaging apparatus, image processing apparatus, imaging method, and image processing method |
JP5076744B2 (en) * | 2007-08-30 | 2012-11-21 | セイコーエプソン株式会社 | Image processing device |
JP2009199392A (en) | 2008-02-22 | 2009-09-03 | Oki Electric Ind Co Ltd | Iris authentication method and iris authentication apparatus |
JP5115398B2 (en) * | 2008-08-27 | 2013-01-09 | セイコーエプソン株式会社 | Image processing apparatus, image processing method, and image processing program |
US8788977B2 (en) * | 2008-11-20 | 2014-07-22 | Amazon Technologies, Inc. | Movement recognition as input mechanism |
JP4645746B2 (en) * | 2009-02-06 | 2011-03-09 | ソニー株式会社 | Image processing apparatus, image processing method, and imaging apparatus |
US8903195B2 (en) * | 2009-02-19 | 2014-12-02 | Nec Corporation | Specification of an area where a relationship of pixels between images becomes inappropriate |
JP5346266B2 (en) * | 2009-09-30 | 2013-11-20 | 富士フイルム株式会社 | Image processing apparatus, camera, and image processing method |
JP5241782B2 (en) * | 2010-07-30 | 2013-07-17 | 株式会社日立製作所 | Surveillance camera system having a camera abnormality detection device |
JP5577939B2 (en) * | 2010-08-20 | 2014-08-27 | ソニー株式会社 | Imaging apparatus, aberration correction method, and program |
CN102714696B (en) * | 2010-11-11 | 2016-03-02 | 松下电器(美国)知识产权公司 | Image processing apparatus, image processing method and camera |
WO2012132486A1 (en) * | 2011-03-31 | 2012-10-04 | 富士フイルム株式会社 | Imaging device, imaging method, program, and program storage medium |
CN103139572B (en) * | 2011-11-24 | 2016-12-07 | 比亚迪股份有限公司 | Photosensitive device and for its white balance method and device |
CN102609957A (en) * | 2012-01-16 | 2012-07-25 | 上海智觉光电科技有限公司 | Method and system for detecting picture offset of camera device |
US9424767B2 (en) * | 2012-06-18 | 2016-08-23 | Microsoft Technology Licensing, Llc | Local rendering of text in image |
CN103020936B (en) * | 2012-12-12 | 2016-05-04 | 湖北微驾技术有限公司 | A kind of face image super-resolution reconstructing method |
-
2013
- 2013-06-26 JP JP2013133670A patent/JP2015012304A/en active Pending
-
2014
- 2014-06-18 US US14/901,681 patent/US10956733B2/en active Active
- 2014-06-18 WO PCT/JP2014/003265 patent/WO2014208052A1/en active Application Filing
- 2014-06-18 EP EP14735690.1A patent/EP3014520B1/en active Active
- 2014-06-18 CN CN201480034946.8A patent/CN105324781B/en active Active
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017055250A (en) * | 2015-09-09 | 2017-03-16 | 富士通株式会社 | Display control apparatus, display control method, and display control program |
JP2018536243A (en) * | 2015-12-04 | 2018-12-06 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Apparatus and method for displaying a display object according to real-time information |
US10551912B2 (en) | 2015-12-04 | 2020-02-04 | Alibaba Group Holding Limited | Method and apparatus for displaying display object according to real-time information |
JP2017208638A (en) * | 2016-05-17 | 2017-11-24 | レノボ・シンガポール・プライベート・リミテッド | Iris authentication device, iris authentication method, and program |
US11348369B2 (en) | 2016-11-29 | 2022-05-31 | Advanced New Technologies Co., Ltd. | Service control and user identity authentication based on virtual reality |
US11783632B2 (en) | 2016-11-29 | 2023-10-10 | Advanced New Technologies Co., Ltd. | Service control and user identity authentication based on virtual reality |
JP2020509441A (en) * | 2017-03-15 | 2020-03-26 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Virtual reality environment-based ID authentication method and apparatus |
US10846388B2 (en) | 2017-03-15 | 2020-11-24 | Advanced New Technologies Co., Ltd. | Virtual reality environment-based identity authentication method and apparatus |
WO2020203744A1 (en) * | 2019-03-29 | 2020-10-08 | グローリー株式会社 | Authentication system and authentication method |
JP2020166597A (en) * | 2019-03-29 | 2020-10-08 | グローリー株式会社 | Authentication system and authentication method |
JP7303654B2 (en) | 2019-03-29 | 2023-07-05 | グローリー株式会社 | Authentication system and authentication method |
Also Published As
Publication number | Publication date |
---|---|
US20160371812A1 (en) | 2016-12-22 |
EP3014520A1 (en) | 2016-05-04 |
EP3014520B1 (en) | 2019-11-20 |
WO2014208052A1 (en) | 2014-12-31 |
US10956733B2 (en) | 2021-03-23 |
CN105324781A (en) | 2016-02-10 |
CN105324781B (en) | 2019-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015012304A (en) | Image processing apparatus, image processing method, and program | |
US9948863B2 (en) | Self-timer preview image presentation method and apparatus, and terminal | |
JP6165459B2 (en) | Method for correcting user's line of sight in video, machine-readable storage medium, and portable terminal | |
CN107566732B (en) | Method for controlling camera of device and device thereof | |
TWI706379B (en) | Method, apparatus and electronic device for image processing and storage medium thereof | |
JP6330036B2 (en) | Image processing apparatus and image display apparatus | |
JP5450739B2 (en) | Image processing apparatus and image display apparatus | |
JP2019075162A (en) | Image processing apparatus | |
EP2605503A2 (en) | Display apparatus and method | |
KR20110054311A (en) | Image processing method and apparatus | |
US11989345B1 (en) | Machine learning based forecasting of human gaze | |
JP2018152787A (en) | Imaging device, external device, imaging system, imaging method, operation method, and program | |
JP2009171428A (en) | Control method and program for digital camera apparatus and electronic zoom | |
US20170142346A1 (en) | Electronic device and image processing method thereof | |
US11706378B2 (en) | Electronic device and method of controlling electronic device | |
KR102146856B1 (en) | Method of displaying a photographing mode using lens characteristics, Computer readable storage medium of recording the method and a digital photographing apparatus. | |
WO2018196854A1 (en) | Photographing method, photographing apparatus and mobile terminal | |
US10817992B2 (en) | Systems and methods to create a dynamic blur effect in visual content | |
JP2017037375A (en) | Imaging apparatus and control method thereof | |
KR20160149945A (en) | Mobile terminal | |
WO2023224664A1 (en) | Fusing optically zoomed images into one digitally zoomed image | |
CN115118879A (en) | Image shooting and displaying method and device, electronic equipment and readable storage medium | |
JP2022041258A (en) | Terminal device, method, and program | |
JP2015088783A (en) | Photographic apparatus, display method, and display control program | |
CN114830176A (en) | Asymmetric normalized correlation layer for deep neural network feature matching |